PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - RYZEN (Summit Ridge): Review Thread


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31

BlacKi
2017-03-03, 05:55:01
wenn man eine preisleistungstabelle machen würde (wink mit dem zaunpfahl an Leo) mit alleinigem augenmerk auf spiele, dann könnte mit ach und krach der 1800x mit dem 6800 konkurieren, obwohl der ryzen viel teurer ist.
nimmt man dann den 1700 mit oc gegen den 6800 mit oc, dann reicht die leistung zwar immer noch nicht um ihn zu schlagen, aber wenigstens ist er günstiger als der 6800k.

Arcanoxer
2017-03-03, 06:14:59
Mehr Info's zur Gameingperformance direkt von AMD: https://i.redd.it/jubet4ozk1jy.png
Auf die Frage warum die Gamingperformance in Ryzen so schlecht ist...
Zitat Lisa Su: Ryzen is doing really well in 1440p and 4k Gaming :freak:


Edit:
Bitte auf Seite eins mit aufnehmen und endlich mal den $ mit € austauschen.
AMD Ryzen 7 1800X vs. Intel Core i7 7700K Linux Gaming Performance (phoronix) (http://www.phoronix.com/scan.php?page=article&item=amd-ryzen-gaming&num=1)

Gleiche Bild wie unter Windows, Workstation stuff hui, Gaming pfui.
Unter Vulkan schaut es sogar ganz übel aus.

http://fs5.directupload.net/images/170303/7akndp34.png (http://www.directupload.net)

Die Benchmarks wurden alle mit einer R9 Fury gemacht, nicht mit einer nVidia GPU!

horn 12
2017-03-03, 06:56:26
Gibt es nun auch Windows 7 Treiber für Ryzen oder aussschließlich nur Windows 10 kompatibel und auf Windows 7 Treiber wird komplett verzichtet ... ?

Rolsch
2017-03-03, 07:23:57
Der Ryzen braucht doch einen Treiber unter Windows. Wie kommt der auf die Platte, ist er bei den Support-CDs der Mainboards dabei, oder wird er schon vom Windows-Update bereitgestellt ?

Leider habe ich nicht ein einziges Review gefunden, das berichtet, dass der Treiber überhaupt installiert wurde. Als würde es diesen garnicht geben.
Windows 10 installiert den Chipsatz Treiber automatisch. Kannst ihn aber auch vom Mainboardhersteller runterladen.
z:B. hier von Asus:
https://www.asus.com/Motherboards/PRIME-B350-PLUS/HelpDesk_Download/

Windows7 Treiber sehe ich da übrigens keinen.

Hübie
2017-03-03, 07:26:05
Ich frage hier noch einmal:

Sorry, falls es schon gefragt wurde: Gibt es taktbereinigte Benchmarks und auch solche mit deaktivierten Energiesparmechanismen ala CnQ / XFR, C-States, SenseMi / whatever?? :D Die Frametimes sind partiell ja noch nicht solo super.
Von dem was ich im Schnelldurchlauf sehen konnte: sehr gute Arbeit und ein stabiles Fundament für kommende Iterationen. Jetzt noch die Stabilität und Kompatibilität in den Griff bekommen, dann ist es eine gute Alternative zu Intels überpreisten Produkten / Plattformen.

Kaby Lake sehe ich überwiegend wegen dem Taktvorteil vorne, oder?? =)

Dorn
2017-03-03, 07:26:53
Auf die Frage warum die Gamingperformance in Ryzen so schlecht ist...
Zitat Lisa Su: Ryzen is doing really well in 1440p and 4k Gaming :freak:


Edit:
Bitte auf Seite eins mit aufnehmen und endlich mal den $ mit € austauschen.
AMD Ryzen 7 1800X vs. Intel Core i7 7700K Linux Gaming Performance (phoronix) (http://www.phoronix.com/scan.php?page=article&item=amd-ryzen-gaming&num=1)

Gleiche Bild wie unter Windows, Workstation stuff hui, Gaming pfui.
Unter Vulkan schaut es sogar ganz übel aus.

http://fs5.directupload.net/images/170303/7akndp34.png (http://www.directupload.net)

Die Benchmarks wurden alle mit einer R9 Fury gemacht, nicht mit einer nVidia GPU! Naja die Masse spielt nicht unter Linux aber gut zu wissen.

akuji13
2017-03-03, 07:27:21
Mit SMT:
http://i.imgur.com/6I7fcyN.png

Ohne SMT gibt es sogar noch mehr Performance:
http://i.imgur.com/O8XEvuf.png
https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/4/

Schön wie du DX12 weggelassen hast damit AMD besser da steht.

Ich hoffe das machst du im Vergleich Pascal/Vega dann auch. ;)

2Ms
2017-03-03, 07:32:36
Windows 10 installiert den Chipsatz Treiber automatisch. Kannst ihn aber auch vom Mainboardhersteller runterladen.
z:B. hier von Asus:
https://www.asus.com/Motherboards/PRIME-B350-PLUS/HelpDesk_Download/

Windows7 Treiber sehe ich da übrigens keinen.
Ich auch nicht, aber der Treiber für den Chipsatz ist doch einbisserl groß, oder ? (Grafikkartentreiber steckt mitdrin, aber der hat ja auch "nur" ca. 500 Gb)

Version 9.0.000.8&21.19.384.0

Description -Chipset
-Bin64 - AMD Chipset Driver V9.0.000.8 for Windows Win10 64bit---(WHQL).
-Packages - VGA Driver V21.19.384.0 for Windows Win10 64bit---(WHQL).
File Size 1.26 GBytes update

uweskw
2017-03-03, 07:44:20
Nvidia hat großes Interesse daran, dass ihre GPUs mit allen CPUs die maximale Leistung erreichen, alles andere macht kein Sinn. Wenn der NV-Treiber aktuell wirklich noch nicht so gut mit Ryzen zusammenarbeiten sollte, ist das ganz sicher keine Absicht.

NEIN. Man richtet seine Strategie an der Masse oder den Meinungsbildnern aus und verschwendet keine Zeit und Energie auf Minderheiten. Das ist eine Form von Effizienz die gut für die Masse ist.
Bei NV gibt es nur Freund oder Feind. Es war schon immer deren Strategie ihren Gegner zu schwächen. Wird auch von Intel erfolgreich praktiziert.

Jedenfalls scheint es auffällig zu sein, dass AMD Prozessoren mit Nvidia Karten deutlich schlechter abschneiden. Siehe Heise.
Kann Zufall sein. Muss es aber nicht. Deswegen wäre es schön wenn es mal jemand untersuchen würde.

Greetz
US

M4xw0lf
2017-03-03, 07:54:13
Schön wie du DX12 weggelassen hast damit AMD besser da steht.

Ich hoffe das machst du im Vergleich Pascal/Vega dann auch. ;)
Es hat den Anschein, dass der Nvidia-Treiber hier Probleme macht. Die DX12-Performance ist heute einfach bei weitem nicht das, was sinnvollerweise zu erwarten ist.

dlux
2017-03-03, 07:57:22
Schön wie du DX12 weggelassen hast damit AMD besser da steht.
Du bist ja ein richtiger Held. DX12 ist bekanntlich nicht so der Burner.

http://i.imgur.com/AYkfDPN.png
http://i.imgur.com/hjVGOMI.png

Arcanoxer
2017-03-03, 07:59:00
Jedenfalls scheint es auffällig zu sein, dass AMD Prozessoren mit Nvidia Karten deutlich schlechter abschneiden. Siehe Heise.
Kann Zufall sein.Schau dir die oben verlinkten Phoronix Linux Gaming Benchmarks an.
Alle wurden mit einer R9 Fury gemacht und Ryzen steht kein Deut besser da.

Sogar die ausgeprägte Low Level API schwäche von Ryzen unter DX12 kann unter Linux mit Vulkan 1 zu 1 übernommen werden.

=Floi=
2017-03-03, 07:59:49
Unter Vulkan schaut es sogar ganz übel aus.

da ist vulkan einfach noch kaputt! erzähl doch keinen mist. das ist nicht die echte performance und das wird sicherlich demnächst auch noch gefixt. du solltest dazuschreiben, dass das unter linux ist.

unter ogl läuft es rund.
http://www.phoronix.com/scan.php?page=article&item=amd-ryzen-gaming&num=3

Messias
2017-03-03, 08:01:09
@Arcanoxer und Konsorten:

Bitte spart euch doch das Getrolle.
Die meisten von uns wollen einfach brauchbare Informationen zur neuen Prozessorgeneration von AMD. Wenn es euch wichtig ist, Extrembeispiele rauszusuchen, in denen Ryzen besonders schlecht abschneidet, um darauf basierend dann "fail" zu schreien, dann macht das doch besser in Intel Threads, wo die anderen Claqueure sind.
Hier ist das einfach nur mühsam und stört die inhaltliche Diskussion.

Ginge das? Danke.

BTT: Ich bin sehr, sehr gespannt, was durch Anpassung von BIOS, Treibern, etc. noch an Leistungssteigerungen möglich ist. Da die CPU in manchen Spielen konkurrenzfähig performt, gehe ich davon aus, daß da auch bei anderen Spielen noch Luft nach oben ist. Auch, wenn die Leistung ja schon jetzt ausreichend ist.
Über die Anwendungsperformance müssen wir nicht reden, die ist ja jetzt schon saugut.

zer0fx
2017-03-03, 08:06:27
Auf die Frage warum die Gamingperformance in Ryzen so schlecht ist...
Zitat Lisa Su: Ryzen is doing really well in 1440p and 4k Gaming :freak:

Sie sagt auch, dass die Entwickler Ryzen haben und das ab der Performance von in Total War usw gearbeitet wird.

2Ms
2017-03-03, 08:07:45
Gibt es nun auch Windows 7 Treiber für Ryzen oder aussschließlich nur Windows 10 kompatibel und auf Windows 7 Treiber wird komplett verzichtet ... ?
Laut AMD ist das Treiberpacket unten für Win 10 und 7 geeignet.

Description:
​​​Supports Windows 10/7 (​64-bit)
Package Includes:
AMD 16.50.2601 Graphics Driver
AMD Chipset Drivers
AMD AHCI Driver​
AMD USB ​3.0 Driver
RAID Drivers
AMD RAIDXpert Utility​​

Packages contains all required AMD software drivers for AM4 AMD Ryzen™​​ Processors.
http://support.amd.com/en-us/kb-articles/Pages/am4-chipset-driver.aspx

Sven77
2017-03-03, 08:16:55
Es hat den Anschein, dass der Nvidia-Treiber hier Probleme macht. Die DX12-Performance ist heute einfach bei weitem nicht das, was sinnvollerweise zu erwarten ist.

Unter BF1 z.B. aber schon..

Troyan
2017-03-03, 08:18:33
Nicht wirklich: https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/4/#diagramm-battlefield-1-dx12-multiplayer-fps

Sven77
2017-03-03, 08:21:18
Frametimes anschauen

Troyan
2017-03-03, 08:23:17
Der 6900K hat 38% mehr Leistung und bessere Frametimes in DX12. In DX11 sind es nur 17%.

Alle 4K/8T Prozessoren scheinen generell Probleme zu machen.

akuji13
2017-03-03, 08:32:59
DX12 ist bekanntlich nicht so der Burner.

Vor allem ist es aktuell mit AMD kein burner.
Schalte mal alle DX12 benches dazu dann werden aus deinen 2% Abstand plötzlich mehr. ;)

Es gibt auch einen Grund warum man DX12 wählen sollte:
https://www.computerbase.de/2016-10/deus-ex-dx12-final-benchmark/#diagramm-frametimes-auf-dem-core-i7-6700k-radeon-rx-480_2

"In der Testsequenz fühlt sich die Low-Level-API auf der AMD-Karte gar besser an, da die DirectX-11-Version an ein und derselben Stelle immer reproduzierbar kurz hakt, was unter DirectX 12 nicht der Fall ist."

Das habe ich mit meiner 480 unter DX11 immer mal wieder, unter DX12 nie.
In The Division z. B. sinken bei mir mit DX12 die maximalen fps, dafür steigt der Schnitt und vor allem die minimum fps deutlich an.

Es hat den Anschein, dass der Nvidia-Treiber hier Probleme macht. Die DX12-Performance ist heute einfach bei weitem nicht das, was sinnvollerweise zu erwarten ist.

Es geht mir um folgendes:
Die Leute denen ich einen Rechner hinstelle wissen nicht weshalb, wo und wann was Probleme macht, welche API gewählt werden sollte usw.

Und da muss ich dann überlegen ob ich nicht einen Intel 5820K verbaue anstatt eines 1700X der weniger kostet und aktuell in dieser Kombo problemloser ist.
Auf Aussagen wie "das wird noch besser" gebe ich nichts, ob und wieviel sich da bessert weiß keiner.

Die Rechner wo maximal ein 1700er geplant ist oder die noch kommenden CPUs ist natürlich ein anderes Thema.

Sven77
2017-03-03, 08:40:17
Ein Nachtest mit FuryX wäre wünschenswert..

Grendizer
2017-03-03, 08:46:13
Was mich bei der ganzen Sache massiv stört, ist das AMD sich ja bewußt sein muss, das gerade PC Spieler ein starkes interesse an ihren CPUs haben. Das dann gerade Spiele so ein durchwachsenes Bild abgeben ist leider eine eher peinliche Vorstellung. Insofern wird ja schon recht viel "Forschung" in diese Probleme geflossen sein, ohne bisher eine zufriedenstellende Lösung gefunden zu haben.

Bei Fertig-Pcs ziehen vermutlich die Aussage das die CPU 8 Kerne hat die eher uninformierten Käufer von alleine an.

sys64738
2017-03-03, 08:47:32
du solltest dazuschreiben, dass das unter linux ist.
Steht doch da.
Laut AMD ist das Treiberpacket unten für Win 10 und 7 geeignet.Gibt es dazu schon unabhängige Tests, on auch wirklich alles problemlos mit W7 läuft? Interessiert mich besonders, weil W10 kommt mir nicht auf irgendeinen Rechner.

Gimmick
2017-03-03, 08:51:44
Was mich bei der ganzen Sache massiv stört, ist das AMD sich ja bewußt sein muss, das gerade PC Spieler ein starkes interesse an ihren CPUs haben. Das dann gerade Spiele so ein durchwachsenes Bild abgeben ist leider eine eher peinliche Vorstellung. Insofern wird ja schon recht viel "Forschung" in diese Probleme geflossen sein, ohne bisher eine zufriedenstellende Lösung gefunden zu haben.

Bei Fertig-Pcs ziehen vermutlich die Aussage das die CPU 8 Kerne hat die eher uninformierten Käufer von alleine an.

Komplett neue Plattform von daher läuft für mich alles wie erwartet :D

Man braucht bei sowas halt ein wenig Geduld. Mit der Zeit gibt es neue Treiber, Patches und Workarounds kristallisieren sich raus.

M4xw0lf
2017-03-03, 08:51:44
Es gibt auch einen Grund warum man DX12 wählen sollte:
https://www.computerbase.de/2016-10/deus-ex-dx12-final-benchmark/#diagramm-frametimes-auf-dem-core-i7-6700k-radeon-rx-480_2

"In der Testsequenz fühlt sich die Low-Level-API auf der AMD-Karte gar besser an, da die DirectX-11-Version an ein und derselben Stelle immer reproduzierbar kurz hakt, was unter DirectX 12 nicht der Fall ist."
Ein Nachtest mit FuryX wäre wünschenswert..
Heise:
Als wir die Titan X mit einer wesentlich langsameren Radeon R9 Fury X ersetzten, kletterte die Bildrate bei prozessorlimitierten Szenen, war aber im Vergleich zu Intel weiterhin viel zu niedrig. Weder das Abschalten von SMT, Ändern der Energieprofile noch das Ausführen unter der aktuellen Beta-Version des Windows 10 Creators Update brachten eine deutliche Besserung.
https://www.heise.de/newsticker/meldung/Spieleleistung-von-AMDs-Ryzen-7-1800X-Oben-gut-unten-weniger-3642502.html
Ich bleibe also erstmal bei meiner Ansicht, dass Nvidias DX12-Treiber dem Zen nicht schmeckt.

Cyphermaster
2017-03-03, 08:51:53
Es geht mir um folgendes:
Die Leute denen ich einen Rechner hinstelle (...)Für DIESE Zwecke dürfte eine frisch gelaunchte Neu-Plattform IMMER nachteilig sein, weil dort logischerweise noch weniger an Arbeit ins Bugfixing von Kinderkrankheiten usw. geflossen ist.

LadyWhirlwind
2017-03-03, 08:53:06
Was mich bei der ganzen Sache massiv stört, ist das AMD sich ja bewußt sein muss, das gerade PC Spieler ein starkes interesse an ihren CPUs haben. Das dann gerade Spiele so ein durchwachsenes Bild abgeben ist leider eine eher peinliche Vorstellung. Insofern wird ja schon recht viel "Forschung" in diese Probleme geflossen sein, ohne bisher eine zufriedenstellende Lösung gefunden zu haben.

Bei Fertig-Pcs ziehen vermutlich die Aussage das die CPU 8 Kerne hat die eher uninformierten Käufer von alleine an.

Nein, der Servermarkt war und ist das Ziel, weil dort dann doch mehr Geld zu holen ist als bei den Leuten die ihren PC selber zusammen schrauben. Man sieht ja schon an den Benchmarks ganz deutlich, dass bei Anwendungen Ryzen abgeht. Für alles war schlicht kein Geld da.

Ätznatron
2017-03-03, 08:53:29
In meinem Rechner steckt ein 4790k.

Jetzt musste ich lernen, das dessen Performance wohl unterirdisch sein muss, da er mit Ryzen auf Augenhöhe agiert.

Und Aufrüsten lohnt sich für mich auch nicht, da selbst der 7700k nur 10% Mehrleistung bietet.

Es ist zum Verzweifeln.

Cyphermaster
2017-03-03, 08:55:09
Insofern wird ja schon recht viel "Forschung" in diese Probleme geflossen seinNicht wirklich. AMD wird sich nicht beim Design für nach 2017 an Optimierungen für Spiele mit Launch vor 2017 orientieren - und schon gar nicht an Spielen alleine oder mit großem Vorrang. Gaming ist ein Teil der Welt, nicht umgekehrt. ;)

DerVengeance
2017-03-03, 08:57:03
Unter BF1 z.B. aber schon..

Nope.
Auch bei NVIDIA gibt es unter DX 12 immer wieder Hänger/Ruckler, die es unter DX11 nicht gibt
Außerdem hat DX11 meist auch die besseren FPS (oder es ist gleich). In der Praxis kenne ich also niemanden, der in BF1 DX12 verwendet.

DX12 würde ich daher bei BF1 erstmal außen vor lassen

Gimmick
2017-03-03, 08:58:51
Und Aufrüsten lohnt sich für mich auch nicht, da selbst der 7700k nur 10% Mehrleistung bietet.

Es ist zum Verzweifeln.

Mehr Kerne werden sich vermehrt durch geringeres Stocken beim Streamen bemerkbar machen.
Das kann man schlecht durch x% bei den FPS ausdrücken.

Aber bis der effekt weiter verbreitet ist gibts eh schon wieder 2 neue CPU Generationen ^^.

Noebbie
2017-03-03, 08:59:42
In meinem Rechner steckt ein 4790k.

Jetzt musste ich lernen, das dessen Performance wohl unterirdisch sein muss, da er mit Ryzen auf Augenhöhe agiert.

Und Aufrüsten lohnt sich für mich auch nicht, da selbst der 7700k nur 10% Mehrleistung bietet.

Es ist zum Verzweifeln.

Ja geteiltes Leid ist halbes Leid. Habe auch einen 4790k. Leiden wir gemeinsam unter der katastrophalen Performance dieser CPU.

@Topic
Ich bin positiv überrascht von diesem Release und ziemlich überzeugt, dass die Gaming Performance in den kommenden Wochen noch nach oben korrigiert wird. Kaufen werde ich trotzdem erst mal nicht. Mir reicht der langsame 4790k. Im Herbst wird dann der Ryzen gekauft! :redface:

M4xw0lf
2017-03-03, 09:00:39
Ja geteiltes Leid ist halbes Leid. Habe auch einen 4790k. Leiden wir gemeinsam unter der katastrophalen Performance dieser CPU.

@Topic
Ich bin positiv überrascht von diesem Release und ziemlich überzeugt, dass die Gaming Performance in den kommenden Wochen noch nach oben korrigiert wird. Kaufen werde ich trotzdem erst mal nicht. Mir reicht der langsame 4790k. Im Herbst wird dann der Ryzen gekauft! :redface:
Vernunft obsiegt.

Rancor
2017-03-03, 09:00:40
Also die Gaming Performance ist mehr als enttäuschend. Hoffe das ist einem Bug geschuldet.. Ansonsten wirds halt doch nen i7

LadyWhirlwind
2017-03-03, 09:04:28
Hat irgendwo jemand Benchmarks gesehen bei denen neben den Games noch anderes läuft. Z.B. Spotify für im Hintergrund, Netflix, Browser auf 2. Bilschirm, Teamspeak3/Skype, Outlook etc.? Wie sieht es mit gleichzeitigem Streaming aus?

Ich könnte mir vorstellen das Ryzen in solchen Szenarien seine stärken etwas besser ausspielen kann.

Cyphermaster
2017-03-03, 09:04:52
Also die Gaming Performance ist mehr als enttäuschend. Hoffe das ist einen Bug geschuldet.. Ansonsten wirds halt doch nen i7Was hast du erwartet? Ryzen ist in etwa da gelandet, wo die (nicht dem Hype anheim gefallenen) Prognosen lagen.

Sven77
2017-03-03, 09:06:23
Was hast du erwartet? Ryzen ist in etwa da gelandet, wo die (nicht dem Hype anheim gefallenen) Prognosen lagen.

Die Diskrepanz zwischen Anwendungs- und Gamingperformance wurde so prognostiziert?

Niall
2017-03-03, 09:06:50
Was mich bei der ganzen Sache massiv stört, ist das AMD sich ja bewußt sein muss, das gerade PC Spieler ein starkes interesse an ihren CPUs haben. Das dann gerade Spiele so ein durchwachsenes Bild abgeben ist leider eine eher peinliche Vorstellung. Insofern wird ja schon recht viel "Forschung" in diese Probleme geflossen sein, ohne bisher eine zufriedenstellende Lösung gefunden zu haben.

Bei Fertig-Pcs ziehen vermutlich die Aussage das die CPU 8 Kerne hat die eher uninformierten Käufer von alleine an.

Das nimmt langsam gebetsmühlenartig Züge an hier*… :freak:

1. Klingt es so als denkt ihr bei AMD würden nur Vollpfosten sitzen die nicht wissen was sie tun.

2. Ist doch genau das eingetreten, was für alle gut ist – endlich mal wieder eine AMD CPU die auf Augenhöhe mit den völlig überteuerten Intel Prozessoren liegt. (Und damit beziehe ich mich jetzt nicht scheuklappenartig wie so mancher hier nur auf die Spiele)

3. Mal unter uns: Was habt ihr denn erwartet? Dass Ryzen für 300€ sowohl Intel mit dem 7700K in Spielen als auch den 6950K in Anwendungen um 50% übertrifft? Also ehrlich …

Ihr tut ja so als hätte jeder ’ne Titan XP im Rechner die sich bei 720P langweilt, und ständig ins CPU Limit rennt. Ich finde diese scheuklappenartige Sicht auf »Games« echt schlimm. Wenn euch die Vorstellung nicht passt dass bleibt doch bei Intel, hat doch keiner was gegen. Kein Spiel der Welt hängt »unter normalen« Umständen dermaßen im CPU Limit, dass kein Prozessor der Welt es bisher geschafft hat und alle Hoffnung auf AMD lag endlich dieses eine Spiel flüssig darzustellen. :freak:

Zur Anwendungsleistung habe ich schon genug geschrieben. :D

Redneck
2017-03-03, 09:10:32
Die Reviews fallen doch sehr unterschiedlich aus (auch bei den Spielen).
Da flutscht es wohl noch nicht so bei allen MB-Ram Kombinationen.

Wenn ich mir den Review von TopTenGamer anschaue, in dem sie einen R1700@3,9 gegen einen I7700K@5 ghz testen und beide bei den Spielen nahezu gleichauf sind (mehr Totale Gewinne auf 7700k Seite.. Aber : die FPS Unterschiede liegen teilweise nur bei einstelligen Differenzen und das bei so hohen FPS Leveln, das das IMHO zu vernachlässigen ist.).
Wenn das zutrifft (andere R1700er Tests abwarten), ist das doch eine TOP CPU. Kann nicht
sein das ein 1700X/1800x schlechter abschneiden als der kleine 1700. Denke die Mobo/BIOS Geschichte wird in den kommenden Tagen/Woche noch eine grosse Rolle spielen. Blöd nur das
der Ersteindruck wieder einmal getrübt ist.

Sven77
2017-03-03, 09:10:56
Kein Spiel der Welt hängt »unter normalen« Umständen dermaßen im CPU Limit, dass kein Prozessor der Welt es bisher geschafft hat und alle Hoffnung auf AMD lag endlich dieses eine Spiel flüssig darzustellen. :freak:

Welches Argument hätten dann Besitzer von i7 ab Sandy umzusteigen? Keines.. die Anwendungsleistung ist auch ein zweischneidiges Schwert, Photoshop kackt ja bei einigen Seiten auch ab.. gut, wer den ganzen Tag Cinebench spielt oder Video konvertiert und dabei vor dem Screen sitzt (ugly) freut sich jetzt natürlich

Generell wäre ich auch vorsichtig mit Pauschalaussagen, dank G-Sync/Freesync und 144hz Monitoren kann es schnell sein das man auch in der Praxis im CPU-Limit landet.. bei bestimmten Spielen schalte ich lieber die Grafikqualität runter um hohe fps zu haben, Overwatch z.B. würde ich nicht mit 60Hz spielen wollen.. zwar schlechtes Beispiel da das auch auf einem Taschenrechner rennt, aber ich hoffe du verstehst was ich sagen will

Menace
2017-03-03, 09:14:55
Die Diskrepanz zwischen Anwendungs- und Gamingperformance wurde so prognostiziert?

Vor einem halben Jahr dachte niemand, dass Ryzen so stark in den Anwendungen ist. Man erwartete doch, dass Ryzen 10-20% hinter der aktuellen intel-Generation ist.

Statt positiv über das Überholen von Ryzen bei vielen Anwendungen zu sehen, sieht man auf einmal das zum Vergleich der Leistungen bei Anwendungen relativ schwache Abschneiden bei Spielen als Problem. So wird sogar ein Vorteil von AMD von den typischen Vertretern hier als ein Nachteil ausgelegt. :freak:

Spasstiger
2017-03-03, 09:16:54
Für Gaming hätte AMD unbedingt noch den Ryzen 1600X vorstellen sollen, da dieser bei wohl ähnlicher Gaming-Performance zum 1800X (gleiche Taktraten) preislich unterhalb des Core i7-7700K rangiert und somit ein Performancerückstand psychologisch eher hinnehmbar ist als beim 1800X.
Broadwell-E-Käufer wissen aber genauso wie Ryzen-1700/1800(X)-Käufer, dass Sie nicht durchgehend besser bedient sind als mit dem i7-7700K.

akuji13
2017-03-03, 09:20:25
Was habt ihr denn erwartet? Dass Ryzen für 300€ sowohl Intel mit dem 7700K in Spielen als auch den 6950K in Anwendungen um 50% übertrifft? Also ehrlich …

Ich hatte gehofft das sie in Spielen gleich oder schneller sind denn Anwendungen sind in meinem Umfeld egal. :D

Ihr tut ja so als hätte jeder ’ne Titan XP im Rechner die sich bei 720P langweilt, und ständig ins CPU Limit rennt. Ich finde diese scheuklappenartige Sicht auf »Games« echt schlimm. Wenn euch die Vorstellung nicht passt dass bleibt doch bei Intel, hat doch keiner was gegen. Kein Spiel der Welt hängt »unter normalen« Umständen dermaßen im CPU Limit

Es bleibt aber die berechtigte Frage wie das mit den wichtigen minimum fps jetzt und in Zukunft aussehen wird.

Und das ich mit Grafikkarten im Oberklasse Spektrum nicht zur Masse gehöre ist klar, hilft mir persönlich aber kein Stück weiter.

Niall
2017-03-03, 09:20:59
Welches Argument hätten dann Besitzer von i7 ab Sandy umzusteigen? Keines.. die Anwendungsleistung ist auch ein zweischneidiges Schwert, Photoshop kackt ja bei einigen Seiten auch ab.. gut, wer den ganzen Tag Cinebench spielt oder Video konvertiert und dabei vor dem Screen sitzt (ugly) freut sich jetzt natürlich

Es zwingt einen doch auch niemand. :freak:
Alles was die neuen CPU Generationen der letzten Jahre gebracht haben, war in Bezug auf Spiele (wenn man nicht die Kirschen raussucht) doch relativ sparsam, ich verstehe nicht wieso man das gerade jetzt so aufbauscht.

Auf die Cinebench-/Konvertierungsgeschichte gehe ich jetzt nicht weiter ein, das bezieht sich nämlich exakt auf jene Thematik, aufwelche ich die sprichwörtlichen »Scheuklappen« bezog. Da geht es nicht für jeden um »Ich hab aber den längsten Balken«-Benchmarks …

Ach ja und bevor hier gleich irgendwelche Mutmaßungen kommen:
Ich warte selbst noch und befeuere solange meinen Intel 5820K der am Intel X99 hängt. :D

Menace
2017-03-03, 09:21:50
Welches Argument hätten dann Besitzer von i7 ab Sandy umzusteigen? Keines.. die Anwendungsleistung ist auch ein zweischneidiges Schwert, Photoshop kackt ja bei einigen Seiten auch ab.. gut, wer den ganzen Tag Cinebench spielt oder Video konvertiert und dabei vor dem Screen sitzt (ugly) freut sich jetzt natürlich

Dein Bemühen hier Ryzen schlecht zu reden erkenne ich als gekonnt an. :smile:

Kein Mensch spricht doch hier, dass jemand von intel umsteigen soll. Trotzdem gibt es genügend Gründe, bei einem anstehenden Neukauf auf die effiziente Ryzen-Plattform zu wechseln. Dass Du mit deinem PC nur zockst ist halt nur ein Anwendungsfall.

Übrigens arbeite ich z.B. mit zwei Bildschirmen, 10 offenen Programmen und konvertiere noch nebenher RAWs oder Videos. Dazwischen zocke ich (ohne alle Programme schließen zu müssen auch mal z.B. Fallout 4). Ist halt ein anderes Extrembeispiel, aber wohl auch nicht nur ein Luxusspielproblem mancher hier.

fondness
2017-03-03, 09:23:47
Leider gibt es einige wenige unschöne Ausreißer. Die durchschnittliche Leistung ist sehr gut. Es gibt einige tolle Ausreißer nach oben, wo man sogar Intels 10 Core 1750 EUR CPU schlägt, aber eben auch einige unschöne Ausreißer nach unten, wo man in manchen Spielen doch sehr deutlich abgehängt wird. Nachdem AMD sagt, dass diese Ausreißer nach unten von den Entwicklern behoben werden müssen, wird das vermutlich lange dauern, wenn überhaupt jeder bereit ist AMD-CPUs gesondert zu optimieren. Aber okay, das ist eben eine völlig neue und andere Architektur, die sich logischerweise nicht so verhält wie die Core Architektur von Intel. AMD sagt, dass über 300 Entwickler jetzt Ryzen CPUs haben um darauf zu optimieren, ich hoffe da kommen zeitnah Patches...

uweskw
2017-03-03, 09:29:25
.........Ihr tut ja so als hätte jeder ’ne Titan XP im Rechner die sich bei 720P langweilt, und ständig ins CPU Limit rennt. Ich finde diese scheuklappenartige Sicht auf »Games« echt schlimm. Wenn euch die Vorstellung nicht passt dass bleibt doch bei Intel, hat doch keiner was gegen. Kein Spiel der Welt hängt »unter normalen« Umständen dermaßen im CPU Limit, dass kein Prozessor der Welt es bisher geschafft hat und alle Hoffnung auf AMD lag endlich dieses eine Spiel flüssig darzustellen. :freak:

..............


Was soll das gewhyne??
Wenn AMD für weiger Geld in fast allen praxisrelevanten fällen die bessere Performance bietet, effizienter mit der Energie umgeht und durch die Kernanzahl auch noch zukunftssicherer ist:
dann muss man sich halt auf solch unrealistische Szenarien konzentrieren um "FAIL!!" schreien zu können.

Der Platzhisch verteidigt seinen Status Quo. Wen wundert es? Da weden wir wohl noch so einiges erleben :freak: Nur sollte man nicht darauf hereinfallen.

Von einem 7700K aufzurüsten wäre natürlich Schwachsinn. Aber für alle die noch mit einem 2500K Sandy oder ähnlichem herumeiern gibts jetzt endlich eine Alternative.
Das bringt uns wieder Fortschritt auf dem Markt. Nach 5 Jahren abmelken.

greetz
US

Mangel76
2017-03-03, 09:39:11
Immer die gleichen Diskussionen! Dabei muss man mal bedenken, dass sich das wesentlich kleinere AMD hier gegen den Riesen Intel stellt. Und die können halt für die Spieler die hochgetakteten 4-Kerner und für Anwendungen die wahnsinnig teuren 8- und 10-Kerner auflegen. AMD muss sich jetzt mit einem Universalprozessor an zwei Fronten gegen die jeweils spezialisierten Intel-CPUs behaupten. Und das machen sie meiner Meinung nach richtig gut. Und ich werde wohl über irgendwann von einem i7-2600K umsteigen. Mir ist das Gesamtpaket wichtig, ich spiele, wandle Videos um und arbeite sonst auch mit meinem PC!

Aber irgendwas scheint noch nicht ganz zu funktionieren mit dem L3-Cash:http://www.legitreviews.com/amd-ryzen-7-1800x-1700x-and-1700-processor-review_191753/5
Cache Latency Results Summary: These results are totally unexpected as it looks like the 16MB of L3 cache on the Ryzen 7 1800X processor was just 8MB sized and that 8MB belonging to the other CCX wasn’t even there. It doesn’t even act like if it was a “L4” cache… Very weird.
Read more at http://www.legitreviews.com/amd-ryzen-7-1800x-1700x-and-1700-processor-review_191753/5#UcoJqVl4CqAb4yXw.99

Es scheint im Moment gar keine Kommunikation zwischen den beiden Cash-Teilen zu geben, d.h. es werden effektiv nur 8MB L3-Cash genutzt. Könnte das nicht gerade bei Spielen ein Problem sein?

LadyWhirlwind
2017-03-03, 09:41:39
Immer die gleichen Diskussionen! Dabei muss man mal bedenken, dass sich das wesentlich kleinere AMD hier gegen den Riesen Intel stellt. Und die können halt für die Spieler die hochgetakteten 4-Kerner und für Anwendungen die wahnsinnig teuren 8- und 10-Kerner auflegen. AMD muss sich jetzt mit einem Universalprozessor an zwei Fronten gegen die jeweils spezialisierten Intel-CPUs behaupten. Und das machen sie meiner Meinung nach richtig gut. Und ich werde wohl über irgendwann von einem i7-2600K umsteigen. Mir ist das Gesamtpaket wichtig, ich spiele, wandle Videos um und arbeite sonst auch mit meinem PC!

Aber irgendwas scheint noch nicht ganz zu funktionieren mit dem L3-Cash:http://www.legitreviews.com/amd-ryzen-7-1800x-1700x-and-1700-processor-review_191753/5


Es scheint im Moment gar keine Kommunikation zwischen den beiden Cash-Teilen zu geben, d.h. es werden effektiv nur 8MB L3-Cash genutzt. Könnte das nicht gerade bei Spielen ein Problem sein?

Doch definitiv ist das wohl eines der Probleme. Es gab sogar eine Aussage von AMD das man den L3-Cache als 2x 8MB behandeln soll und nicht als 1x 16.

deekey777
2017-03-03, 09:43:54
Endlich ;( =)

https://www.golem.de/news/ryzen-7-1800x-im-test-amd-ist-endlich-zurueck-1703-125996.html


Absoluter Mist, ist für die Tonne, will meine Klicks zurück. Wofür habe ich den Addblocker ausgeschaltet? Kein Half-Life 2?

Im Ernst:
Nutzer, die selten Multitaskting betreiben und viel zocken, erhalten bei Intel noch das günstigere Paket: Der Ryzen 7 1800X überholt selten den Core i7-7700K (360 Euro) und ist durchschnittlich etwas schneller als ein Core i5-7600K (250 Euro).

So und nichts anders, was auch zu erwarten war. AMD kann nicht zaubern, auch haben sie nicht die Resourcen wie Intel. Intel wird kritisiert, dass sie auf der Stelle treten, AMD holt endlich deutlich auf, ohne zu überholen, und wird trotzdem von den Couch-BWLern kritisiert. Aber die eigentliche Frage stellt sich hier von den Empörten keiner: Muss man bei stagnierenden Verkäufen von Desktop-PCs überhaupt Milliarden in die Forschung und Entwicklung stecken, damit nur ein Teil des Marktes erreicht wird, weil dem Großteil des Marktes diese Leistung einfach egal ist.

AMD hat für den Preis eine sehr interessante universelle Plattform geschaffen. Ein Ryzen bietet mehr als genug Leistung für Spiele (es sei denn, jemanden fällt der Schwanz ab, wenn andere höhere FPS erhalten) und kann gerade dort überzeugen, was Apple und Co von den Nutzern sehen wollen: Kreativität.

Irgendwann kommen die APUs, hoffentlich mit einem guten Encoder. Und wenn noch der Verbrauch stimmt, wäre es für AMD ein Gewinn einen größeren Teil des wachsenden mobilen Kuchens zu bekommen. Die Weichen dafür sind gestellt.

@Golem und Co:
Wie sieht's aus, wenn man 4+0 (siehe PCGH) mit einer R7 360 kombiniert? Eine Art Pseudo-Ausblick auf eine künftige APU?

Gibt es irgendwo auch LINPACK-Werte?

j4l
2017-03-03, 09:44:26
Für Gaming hätte AMD unbedingt noch den Ryzen 1600X vorstellen sollen, da dieser bei wohl ähnlicher Gaming-Performance zum 1800X (gleiche Taktraten) preislich unterhalb des Core i7-7700K rangiert und somit ein Performancerückstand psychologisch eher hinnehmbar ist als beim 1800X.
Broadwell-E-Käufer wissen aber genauso wie Ryzen-1700/1800(X)-Käufer, dass Sie nicht durchgehend besser bedient sind als mit dem i7-7700K.

Gottseidank kommen die 1600x und 1500x nicht vor Mai. (Gehe ich jetzt einfach mal von aus, wenn im April die Polaris Rebrands dran sind).
Denn so werden alle Ryzen in 2 Monaten nochmals getestet werden, ohne Zeitstress, anderen Grafikkarten und mit bis dahin neuen BIOS, Grafiktreibern, dem ein oder anderen Spieleupdate und vllt sehen wir ja sogar noch ein KB von M$.

Birdman
2017-03-03, 09:46:43
Es ist längt bekannt, dass Nvidia auch die Treiberlast auf andere Threads verschiebt. Und hier kann es durchaus aktuell Probleme geben beim SMT. Sollte das der Fall sein hat NV demnächst einiges zu tun.
Dunno ob da wirklich nVidia was tun muss/kann.
Ich gehe fast davon aus, dass hier auf die vom OS/Scheduler bereitgestellten Informationen zur Prozessorarchitektur zurürckgegriffen wird.

D.h. wenn hier jemand was machen kann/muss, dann wäre es Microsoft mit einem entsprechenden Update.
Dass so eines aber sicherlich nur für Windows 10 kommen wird, könnte den Windows7/8 Usern etwas den Wind aus den Segeln nehmen. (verschmerzbar?)

Ich halte auch die Diskusionen um Game Developer/Engines für Fubar, welche angeblich eine spezifische Optimierung für Ryzen/SMT benötigen. (was ja auch bedeuten würde, dass diese aktuell schon eine für Core/SMT haben)

Annator
2017-03-03, 09:46:45
AMD Anleitung für Master Overclocking:
https://www.amd.com/system/files/2017-03/AMD-Ryzen-Processor-and-AMD-Ryzen-Master-Overclocking-Users-Guide.pdf

Cyphermaster
2017-03-03, 09:48:01
Die Diskrepanz zwischen Anwendungs- und Gamingperformance wurde so prognostiziert?Welche "Diskrepanz"? Die entsteht eh nur im direkten Vergleich zu Intel, weil bei denen das Verhältnis Anwendungsleistung/Spieleleistung anders ist.
Prognose abseits des Hypetrain war, daß der Hobel grob bei Broadwell-E landen wird, insgesamt/durchschnittlich. Ist er dann auch, was sich im Preis niederschlägt.
In 3 Monaten, wenn die ersten Bugfixing/Patch-Runden durch sind, schaut man nochmal.

Ihm
2017-03-03, 09:49:57
Okay, man kann es auch ziemlich schnell zusammenfassen:

Intel i7-6900K - 1100€
AMD Ryzen 7 1800X - 560€

Nach den Benchmarkergebnissen und den Stromverbrauchsmessungen muss ich mich wirklich fragen, wo es da jetzt eine Diskussionsgrundlage geben soll.
Gibt es nicht. Wer was anderes überhaupt leistet schlicht nur absurde Lobbyarbeit für Intel.

Fazit:
Neuer Consumer/Workstation-Rechner mit acht Kernen -> AMD Ryzen 7. Punkt, Diskussion überflüssig.

Niall
2017-03-03, 09:53:46
Okay, man kann es auch ziemlich schnell zusammenfassen:

Intel i7-6900K - 1100€
AMD Ryzen 7 1800X - 560€

Nach den Benchmarkergebnissen und den Stromverbrauchsmessungen muss ich mich wirklich fragen, wo es da jetzt eine Diskussionsgrundlage geben soll.

Fazit:
Neuer Consumer/Workstation-Rechner mit acht Kernen -> AMD Ryzen 7. Punkt, Diskussion überflüssig.

This …! ;)

MikePayne
2017-03-03, 09:56:23
Okay, man kann es auch ziemlich schnell zusammenfassen:

Intel i7-6900K - 1100€
AMD Ryzen 7 1800X - 560€

Nach den Benchmarkergebnissen und den Stromverbrauchsmessungen muss ich mich wirklich fragen, wo es da jetzt eine Diskussionsgrundlage geben soll.
Gibt es nicht. Wer was anderes überhaupt leistet schlicht nur absurde Lobbyarbeit für Intel.

Fazit:
Neuer Consumer/Workstation-Rechner mit acht Kernen -> AMD Ryzen 7. Punkt, Diskussion überflüssig.

Plus der (deutlich, Welten zum FX) geringere Stromverbrauch. Soll ja nicht vergessen werden ;)

Mist. Du hattest es doch angeschnitten^^

DrumDub
2017-03-03, 09:56:33
noch nen review:

AMD's Ryzen 7 1800X, Ryzen 7 1700X, and Ryzen 7 1700 CPUs reviewed (The Tech Report) (http://techreport.com/review/31366/amd-ryzen-7-1800x-ryzen-7-1700x-and-ryzen-7-1700-cpus-reviewed)


Gibt es irgendwo auch LINPACK-Werte? nope. liegt aber wohl daran: Messungen mit hochoptimiertem Code konnten wir mit Ryzen nicht durchführen: Die mehrere Jahre alten Linpack-Bibliotheken von AMD lieferten viel zu geringe und nicht reproduzierbare GFlops-Werte. https://www.heise.de/ct/ausgabe/2017-6-Achtkern-Prozessor-Ryzen-7-1800X-im-Test-3638286.html

jellyfish
2017-03-03, 09:57:33
Also ich bin begeistert und werde bei der nächsten Neuanschaffung bzw. beim nächsten Upgrade sicher AMD nehmen. Das Preis-/Leistungsverhältnis ist unschlagbar, und es gibt auch wichtigere Anwendungsfälle als Zocken. Das er bei (älteren?) Spielen nicht dieselbe Leistung bringt ist mir ziemlich egal, ausreichend ist mein i7-2600k @4,5Ghz auch, also was bringt's? Ich finde es gut, dass endlich wieder Schwung in den CPU-Markt kommt und endlich jemand dem Intelverein wieder Paroli bietet.

akuji13
2017-03-03, 09:57:56
Intel i7-6900K - 1100€
AMD Ryzen 7 1800X - 560€

Nach den Benchmarkergebnissen und den Stromverbrauchsmessungen muss ich mich wirklich fragen, wo es da jetzt eine Diskussionsgrundlage geben soll.
Gibt es nicht. Wer was anderes überhaupt leistet schlicht nur absurde Lobbyarbeit für Intel.

Das geht auch anders:
5820K 411€
1800X 439€

Der 5820 liefert mir (!) und meinem Umfeld (!) mehr fps fürs Geld, selbst ohne OC.
Außer du kombinierst jetzt künstlich ein billig board mit dem 1800X, aber dann betreibst auch du nur Lobbyarbeit. ;)

In 3 Monaten, wenn die ersten Bugfixing/Patch-Runden durch sind, schaut man nochmal.

Jup.

Für mich sind sowieso erstmal nur mITX boards interessant, bis dahin hat sich dann sicher auch schon was getan. :)

r3ptil3
2017-03-03, 10:03:41
Nach den Benchmarkergebnissen und den Stromverbrauchsmessungen muss ich mich wirklich fragen, wo es da jetzt eine Diskussionsgrundlage geben soll.


-unregelmässige Gaming-Performance
-Mainboards praktisch noch im Beta Stadium
-BIOS Updates kurz vor Launch noch notgedrungen veröffentlicht
-kein OC-Potenzial
-AMD plant mit über 300 (Game?)Entwicklern Optimierungen für Ryzen
-Zukunft offen bzgl. Performance (zukünftige Updates, BIOS-Updates etc.)


Reichlich Diskussionsbedarf.

Niall
2017-03-03, 10:05:27
-unregelmässige Gaming-Performance
-Mainboards praktisch noch im Beta Stadium
-BIOS Updates kurz vor Launch noch notgedrungen veröffentlicht
-kein OC-Potenzial
-AMD plant mit über 300 (Game?)Entwicklern Optimierungen für Ryzen
-Zukunft offen bzgl. Performance (zukünftige Updates, BIOS-Updates etc.)


Reichlich Diskussionsbedarf.


Darauf bezog sich seine Aussage meines Erachtens nach aber gar nicht, sondern auf dieses AMD/Intel gebashe. Gegen Diskussionen bzgl. der von Dir genannten Punkte hat doch niemand etwas, ganz im Gegenteil. ;)

MikePayne
2017-03-03, 10:06:02
Das geht auch anders:
5820K 411€
1800X 439€

Der 5820 liefert mir (!) und meinem Umfeld (!) mehr fps fürs Geld, selbst ohne OC.


Und frisst mehr Strom. Eine CPU von 2014 würde ich auch nicht mehr neu kaufen wollen.

M4xw0lf
2017-03-03, 10:07:15
http://techreport.com/r.x/2017_03_01_AMD_s_Ryzen_7_1800X_Ryzen_7_1700X_and_Ryzen_7_1700_CPUs_reviewed/value-gaming.png

http://techreport.com/r.x/2017_03_01_AMD_s_Ryzen_7_1800X_Ryzen_7_1700X_and_Ryzen_7_1700_CPUs_reviewed/value-productivity.png

Man kann sowohl zum Zocken und erst recht für Anwedungen bedenkenlos zu AMD greifen. Das reicht mir, um Intel den Rücken zu kehren.

Menace
2017-03-03, 10:08:16
noch nen review:

AMD's Ryzen 7 1800X, Ryzen 7 1700X, and Ryzen 7 1700 CPUs reviewed (The Tech Report) (http://techreport.com/review/31366/amd-ryzen-7-1800x-ryzen-7-1700x-and-ryzen-7-1700-cpus-reviewed)


:up: Danke für den Link. Netter Test von DAW-Software. Endlich gibt es da bei AMD Fortschritte.

Cyphermaster
2017-03-03, 10:09:05
Reichlich Diskussionsbedarf.Ich finde nicht - zumindest nicht JETZT. Denn aktuell würden 95% dieser Diskussionen reine Spekulation sein, und sich eh bis in ein paar Monaten (bis dann ist das Thema hier im Forum vielleicht noch nicht mal durchdiskutiert...) wegen neuer Tests usw. erübrigt haben.

Spasstiger
2017-03-03, 10:09:14
Denn so werden alle Ryzen in 2 Monaten nochmals getestet werden, ohne Zeitstress, anderen Grafikkarten und mit bis dahin neuen BIOS, Grafiktreibern, dem ein oder anderen Spieleupdate und vllt sehen wir ja sogar noch ein KB von M$.
So hatte ich das noch gar nicht betrachtet, ist natürlich auch interessant. Ergo: Wenn der Aufrüstdruck nicht zu groß ist, am Besten noch das ganze Bild abwarten (4/6-Kerner, Straßenpreise, Erfahrungen mit Speicherkombinationen, weitere Bugfixes, Intel-Reaktion).

Matrix316
2017-03-03, 10:10:58
Das geht auch anders:
5820K 411€
1800X 439€

Der 5820 liefert mir (!) und meinem Umfeld (!) mehr fps fürs Geld, selbst ohne OC.
Außer du kombinierst jetzt künstlich ein billig board mit dem 1800X, aber dann betreibst auch du nur Lobbyarbeit. ;)

[...]

Vergleich doch eher mal den 5820K mit dem 1700X. Preis ist der gleiche und der 1700X kann in vielen Szenarien davonziehen.

Oder vergleich doch mal den 5820K mit dem billigeren 7700K. Da sieht der 5820 bei Games oft kein Land. Und wo der 5820 glänzt, sind mehr Kerne oft auch besser.

Und du brauchst die X99 Plattform die vom Board her schon teurer ist.

DrumDub
2017-03-03, 10:12:52
:up: Danke für den Link. Netter Test von DAW-Software. Endlich gibt es da bei AMD Fortschritte. gerne. :)

scully1234
2017-03-03, 10:13:05
Und frisst mehr Strom. Eine CPU von 2014 würde ich auch nicht mehr neu kaufen wollen.

Wo denn?

http://hothardware.com/ContentImages/Article/2588/content/power-1.png

http://hothardware.com/reviews/amd-ryzen-7-1800x-1700x-1700-benchmarks-and-review?page=10

Der einzige der mehr verbraucht ist der 10 core und das darf er glaub ich auch denn er leistet auch mehr

Nimmst du den 8 Core Intel der immer noch schneller arbeitet liegt 1800X und dieser schon auf ein und dem selben Level

Da ist der aufgeführte 5820K weit von entfernt

Annator
2017-03-03, 10:13:38
Jayz2Cents hats ganz gut zusammengefasst:

https://forums.anandtech.com/threads/official-amd-ryzen-benchmarks-reviews-prices-and-discussion.2499879/page-114#post-38772301

Jay talks about several interesting things in his video:

For one, AMD screwed up their release and rushed everything. Jay called it a "cluster****" release (46:36) and mobo manufactures were scrambling to get their BIOS ready, not to mention the reviews only had several days to test
That lead to issues and many reviewers discovered these problems leading to AMD email bast reviewers to type this in the command prompt and redoing all the benchmarks because there might be an 8% performance increase
AMD also asked reviewers to enable certain things on the AMD side and disable things on the Intel side which (of course) they refused to do
Microsoft gives priority to Intel and NVidia (edit: in terms of bug fixing in Windows 10 - this is from Jerry on barnacules nerdgasm who seemed to have worked at Microsoft before), not AMD so low level OS optimizations might take a while
Be prepared for more performance increase as BIOS, OS and game updates comes out!

MikePayne
2017-03-03, 10:25:38
Wo denn?

http://hothardware.com/ContentImages/Article/2588/content/power-1.png

http://hothardware.com/reviews/amd-ryzen-7-1800x-1700x-1700-benchmarks-and-review?page=10

Der einzige der mehr verbraucht ist der 10 core und das darf er glaub ich auch denn er leistet auch mehr

Nimmst du den 8 Core Intel der immer noch schneller arbeitet liegt 1800X und dieser schon auf ein und dem selben Level

Da ist der aufgeführte 5820K weit von entfernt

Netter Versuch:

https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/6/

Der 5820K verbraucht unter Last 33% mehr.

akuji13
2017-03-03, 10:26:55
Und frisst mehr Strom. Eine CPU von 2014 würde ich auch nicht mehr neu kaufen wollen.

Die 15W sind sicherlich diskutabel wenn auch nicht für mich das ist korrekt.
Wäre die Stromaufnahme irgendwie relevant hätte ich eine APU oder was kleines in Kombo mit einer 460.

Warum sollte man keine CPU von 2014 kaufen?
Was zählt ist mMn Preis/Leistung.

Alternativ ersetzt du den 5820 gegen den 6800 zum gleichen Preis, dann wird der Abstand sogar noch etwas größer.

Wie gesagt, es geht um mich und mein Umfeld und das sind zu 100% Spiele.

Vergleich doch eher mal den 5820K mit dem 1700X. Preis ist der gleiche und der 1700X kann in vielen Szenarien davonziehen.

Oder vergleich doch mal den 5820K mit dem billigeren 7700K. Da sieht der 5820 bei Games oft kein Land. Und wo der 5820 glänzt, sind mehr Kerne oft auch besser.

Und du brauchst die X99 Plattform die vom Board her schon teurer ist.

https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/3/#abschnitt_spiele_full_hdhd
Wo zieht da der AMD von?

Ich habe übrigens den 5820 mit dem 1700X vergleichen...mich aber verschrieben, denn der 1800X ist wohl kaum für 439€ zu bekommen. :wink:
Setze ich den 1800X an wird der Vergleich richtig übel für AMD in Sachen Spiele.

Das mit dem board ist diskutabel, aber ich (!) kaufe da nach Ausstattung und selten unter 200€.

MikePayne
2017-03-03, 10:29:32
Die 15W sind sicherlich diskutabel wenn auch nicht für mich das ist korrekt.


Es sind z.B. bei Prime knapp 50W mehr ;)

Schnoesel
2017-03-03, 10:29:51
@y33H@

Eine Frage. Du hattest genau wie CB davon gesprochen dass durch ein Biosupdate wesentlich mehr Performance (bei dir waren es glaub 17% overall) drin waren. Gäbe es die Möglichkeit zu sagen in welchen Anwendungen/Spielen genau und mit wieviel % Veränderung jeweils? Haben einige Anwendungen womöglich (noch?) überhaupt nicht profitiert? War es lediglich ein Biosupdate dass den Boost gebracht hat oder war es konstant über mehrere Biose verteilt? So eine Art Gegenüberstellung wäre sehr fein wie man es mit neuen/alten Treiberversionen macht.

Ich frage mich nur, weil das BIOS ja offenbar einen großen Einfluss auf die Performance hat.

Windows bzw. die Entwickler können mit dem kommenden Gamemode bestimmt auch noch was tun:

http://www.pcgameshardware.de/Windows-10-Software-259581/News/Creator-s-Update-Game-Mode-GDC-1222187/

Aber auch falls nicht. In Games ist mir Ryzen schnell genug und für die Zukunft wird es eher noch schneller als langsamer.

TerrorZivi
2017-03-03, 10:32:18
Nun ja, als Studio würde ich keine großen Optimierungen fahren bevor Microsoft nen Patch gebracht hat und an der Stelle von MS würde ich nichts machen bevor das BIOS der Hersteller und Treiber von AMD nicht sauber laufen.

Es ist wie immer, Erstkäufer müssen teuer bezahlen, leidensfähig sein und um Gotteswillen die Vernunft komplett abschalten. Der vernünftige Käufer kauft ne neue Plattform erst wenn Sie mindestens nen halbes Jahr im Markt ist, aber das ist ja total langweilig.

Bis jetzt bin ich sehr angetan von der der Performance der neuen Serie, Mindfactory müsste nur langsam mal die Boards von Asrock bekommen und mein Paket auf den Weg bringen...

anddill
2017-03-03, 10:33:21
http://techreport.com/r.x/2017_03_01_AMD_s_Ryzen_7_1800X_Ryzen_7_1700X_and_Ryzen_7_1700_CPUs_reviewed/value-gaming.png

http://techreport.com/r.x/2017_03_01_AMD_s_Ryzen_7_1800X_Ryzen_7_1700X_and_Ryzen_7_1700_CPUs_reviewed/value-productivity.png

Man kann sowohl zum Zocken und erst recht für Anwedungen bedenkenlos zu AMD greifen. Das reicht mir, um Intel den Rücken zu kehren.

Das obere Diagramm zeigt aber auch klar daß die AMD-Preise für reine Gamer im Moment noch etwas zu hoch sind, solange man stur nach den dort verrechneten Durchschnittswerten geht.
Aber das wird. Die Leistung muß nur ein paar % steigen, der Preis um 50€ sinken, dann passt es.

Zum Release:
Wenn AMD gewartet hätte dann wäre da auch Ende März noch kein Board wirklich fertig gewesen. Sie haben halt knallhart den Termin gesetzt und den Boardherstellern Feuer unter den Arsch gemacht. Jetzt kann der große öffentliche Beta-Test beginnen, so daß die Boards dann zum Release der kleineren CPUs rund laufen.
Der dicke 8-Ender kann die aktuellen Zipperlein noch am besten hinter den langen Anwendungs-Balken verstecken. Die mehr auf Gamer zugeschnittenen 4 und 6 Kerner würden da stärker beeinträchtigt werden, aber die bekommen jetzt zum Start gefixte BIOSe und evtl schon die ersten Softwareanpassungen.
Das dürften oft nur 1-2 Zeilen in einer CPU-Abfrage sein, um zumindest erst mal die durch SMT verursachten Verluste zu vermeiden.

Gipsel
2017-03-03, 10:33:48
Ich halte auch die Diskusionen um Game Developer/Engines für Fubar, welche angeblich eine spezifische Optimierung für Ryzen/SMT benötigen. (was ja auch bedeuten würde, dass diese aktuell schon eine für Core/SMT haben)Wieso, haben sie doch im Prinzip auch (ist halt über die Jahre gewachsen). Genau wie Konsolenspiele auf der XB1 PS4/Pro die Aufteilung der Kerne in die beiden Module berücksichtigen, um optimale Performance zu erzielen ;).

edit:
Als Indiz, wieviel das CPU-/Thread-Scheduling bei SMT ausmacht, sei der Test von hardware.fr (http://www.hardware.fr/articles/956-7/impact-smt-ht.html) empfohlen (der unterste Wert ist jeweils der Durchschnitt).

Anwendungen (im Schnitt bringt SMT bei AMD etwas mehr):
http://www.hardware.fr/getgraphimg.php?id=437&n=1
Bei Anwendungen gibt es nirgendwo Performanceeinbußen!

Spiele (bei intel +-0, bei AMD klare Nachteile):
http://www.hardware.fr/getgraphimg.php?id=439&n=1

Offenbar werden bei intel die Threads im Normalfall vernünftig gescheduled (offenbar im Prinzip nur einer pro physischem Kern, macht es vermutlich konsistenter bei vielen Kernen bzw. können die getesteten Spiele nicht mehr als 8 Threads vernünftig nutzen), bei Ryzen aber nicht. Dies läßt sich (per Patch) wahrscheinlich relativ leicht abstellen.

Für das Gesamtrating in Spielen ist die Änderung schon signifikant:
http://www.hardware.fr/getgraphimg.php?id=449&n=9

Man ist in Spielen konkurrenzfähig (innerhalb von 10-15% der schnellsten intel-CPUs, deutlich über älteren Vierkernern wie dem 2600K), bei multithreaded Anwendungen zieht man den Vierkernern deutlich weg. Sieht also eigentlich exakt so aus, wie von Realisten prognostiziert.

akuji13
2017-03-03, 10:36:38
Es sind z.B. bei Prime knapp 50W mehr ;)

Dieses Spiel habe ich noch nicht einmal auf meinem Rechner. ;)
Praxisrelevanz für mich ist da bei 0,0.

Meine Kritik zieht sich in der Hauptsache übrigens auf den 1800X, mit Einschränkung auf den 1700X.

Der 1700 ist auch ohne OC das rundeste Produkt und schon jetzt kaufbar.
Am interessantesten wird für mich bzw. mein Umfeld vermutlich ein 1600X.

Schlammsau
2017-03-03, 10:36:55
Also alles beim alten, AMD bei (alten) Games des öfteren nicht sooo dolle aber in Multithreadanwendungen absolut "State of the Art". Klare Sache eigentlich und ich versteh einfach nicht warum man hier so rumtrollen muss.

Aus meiner Sicht hat AMD sehr sehr vieles richtig gemacht!

scully1234
2017-03-03, 10:38:02
Es sind z.B. bei Prime knapp 50W mehr ;)


Es "arbeitet" auch den ganzen Tag jemand mit Prime und ob AVX bei der neuen CPU da schon richtig greift wage ich zu bezweifeln:confused:


Ich sehe hier in deinem CB Link 169 zu 141 Watt im Cinebench Multicore und unter Linux 164 zu 148 Watt , und unter Blender sinds ebenso 165 zu 144 Watt zu Gunsten des alten 5820k gegenüber dem 1800X

Also ja netter Versuch..

MikePayne
2017-03-03, 10:39:08
Dieses Spiel habe ich noch nicht einmal auf meinem Rechner. ;)
Praxisrelevanz für mich ist da bei 0,0.

Meine Kritik zieht sich in der Hauptsache übrigens auf den 1800X, mit Einschränkung auf den 1700X.

Der 1700 ist auch schon ohne OC das rundeste Produkt und schon jetzt kaufbar.
Am interessantesten wird für mich bzw. mein Umfeld vermutlich ein 1600X.

Er verbraucht unter Last mehr (Prime = Worstcase). Das kann man ignorieren oder es ansprechen (wie es Intel-User seit Jahren tun, ups Situation geändert ;):ugly: ).

Auch ich warte auf den 1600X, der sollte meinen FX-8320 in den Boden meißeln.

dargo
2017-03-03, 10:40:24
Hier scheint alles mit der GTX 1080 zu laufen,ich schätze mal das ist so die maximale GPU,die man in 1080p nutzen würde wobei es eigentlich schon Verschwendung ist.


https://youtu.be/BXVIPo_qbc4
Schöner Vergleich, bitte mehr davon.

Der niedrige IMC-Takt mag ein Grund sein, ich habe es bewusst als Vermutung formuliert. Höhere RAM-Teiler bewirken zudem lahmere Subtimings, was die zusätzliche Bandbreite evtl wieder egalisiert. Ein niedrigerer Multi für knackige Subtimings bei straffen CL14 plus BCLK-Übertaktung scheint Ryzen kräftig zu beschleunigen, aber da muss ich weiter tüfteln. Den Punkt mit den Vorzügen kann ich freilich weder belegen noch widerlegen, stimme dir aber tendenziell zu.
Apropo BCLK... wie weit lässt sich dieser erhöhen? Und was hängt da alles dran? Macht bsw. SATA zu schnell dicht?

akuji13
2017-03-03, 10:42:38
Er verbraucht unter Last mehr (Prime = Worstcase). Das kann man ignorieren oder es ansprechen (wie es Intel-User seit Jahren tun, ups Situation geändert ;):ugly: )

Welche reale Andwendung erzeugt eine solche Last?
Keine.

Schon gar kein Spiel.
Also unrealistisch und damit irrelevant für mich.

Ich bin Intel user weil mir keine Wahl blieb um möglichst viele fps zu generieren, nicht weil ich die mag.
Dein Seitenhieb läuft komplett ins Leere.

Mark3Dfx
2017-03-03, 10:45:11
Hype comes to reality:
- passende Single-Rank Module suchen
- Dual-Channel in Vollbestückung geht wohl (noch) nicht mit vollen Speed
- BIOS Updates werden noch jede Menge benötigt

@ CB:
https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/#abschnitt_der_neue_speichercontroller_ist_eigenwillig

https://abload.de/img/ramihx2d.jpg

Also kann auch AMD nicht übers Wasser gehen.

anddill
2017-03-03, 10:46:11
BTT!
Diskussionen über private Anwendungsprofile bitte per PM führen oder nehmt Euch nen Zimmer (aka macht nen eigenen Thread auf)

Arcanoxer
2017-03-03, 10:50:00
Die Phoronix Benchmarks fehlen noch immer im Startposting:

AMD Ryzen 7 1800X Linux Benchmarks (http://www.phoronix.com/scan.php?page=article&item=ryzen-1800x-linux&num=1)
AMD Ryzen 7 1800X vs. Intel Core i7 7700K Linux Gaming Performance (http://www.phoronix.com/scan.php?page=article&item=amd-ryzen-gaming&num=1)

Wixi
2017-03-03, 10:51:33
Ich glaube für Gamer lautet die Empfehlung:
- Ryzen 7 1700 kaufen
- auf 3,8Ghz+ übertakten
- SMT ausschalten
enjoy!

anddill
2017-03-03, 10:56:57
Die Phoronix Benchmarks fehlen noch immer im Startposting:

AMD Ryzen 7 1800X Linux Benchmarks (http://www.phoronix.com/scan.php?page=article&item=ryzen-1800x-linux&num=1)
AMD Ryzen 7 1800X vs. Intel Core i7 7700K Linux Gaming Performance (http://www.phoronix.com/scan.php?page=article&item=amd-ryzen-gaming&num=1)

Eingefügt

Mr.Bug
2017-03-03, 10:57:08
Ich kann das AMD-Gebashe auch absolut nicht nachvollziehen!

Hier mal ein paar interessante Antworten des Mitarbeiters AMD_Robert aus Reddit:

"Yes, I expect faster DIMM speeds to be possible through BIOS updates. Some vendors are already hitting DDR4-3400 pretty reliably. Also we've had best results with Samsung B-Die DIMMs thus far."

"Optimizing a codebase for an all-new microarchitecture is an important aspect of extracting the best performance. We have not had a high-end desktop processor in a while, and nothing remotely like Zen that could be used to inform early expectations. So getting our software development efforts ramped up will be key. Bethesda, Oxide Games and SEGA are already onboard, and we've sampled 300+ devkits with a plan for 1000+ by year's end."

"We believe that we can be competitive in gaming with an 8-core product. Our IPC is exactly where it needs to be, but I'll be the first to admit that a little software optimization effort would be a finishing touch. We want to tap into the raw potential of Zen, and we'll need the help of game developers to do it."

Was auch einleuchten sollte nach jahrelanger Intel-Dominanz im CPU-Sektor, immerhin ist es eine neue Architektur.

Lowkey
2017-03-03, 10:57:46
Prinzipiell verbrauchen die Intels mehr Strom.

Ich habe damals meine FM2 Systeme gegen Intel ITX Systeme antreten lassen, also Trinity/Richland vs Sandy Bridge/Ivy Bridge. Die AMD Systeme brauchten zunächst mehr Strom. Dann reduzierte man einfach das TDP Limit im Bios auf 35 Watt und schon konnte das AMD System die Aufgaben mit weniger Energie erledigen. Beim Intel System gab es diese Option eben nicht.

Ein System ohne Energiesparoptionen zieht immer mehr Strom als normal, aber ein System mit aggressiven, maximalen Stromsparoptionen spart Strom auf Kosten der Leistung.

Mich würde also interessieren, wie man Intel und AMD auf ein TDP Limit von zb. 65 oder 95 Watt "zwingt" und wie sich das auf die Leistung auswirkt?



@Mr.Bug

Ich glaube das wurde schon 10x gepostet ... no offense.

MechWOLLIer
2017-03-03, 10:57:50
Ein Nachtest mit FuryX wäre wünschenswert..
Da das Thema AMD-Grafikkarte aufkommt:
Wir hatten auch mal für zwei, drei Tests eine Fury X im Testsystem. Auffälliges konnte ich da nicht beobachten. Es war halt alles teils deutlich langsamer als mit der Titan X, was aber auch nicht verwundert. Es gab früher ein GPU-Limit, aber Ryzen wurde nicht auf einmal unerwartet schnell. Und war auch nicht schneller als mit der Titan X. Das kann in einem völlig CPU-limitierten Szenario mal passieren, aber es passiert auch genauso oft anders herum. Je nachdem, was der Grafikkartentreiber so macht.

Birdman
2017-03-03, 10:57:57
Wieso, haben sie doch im Prinzip auch (ist halt über die Jahre gewachsen). Genau wie Konsolenspiele auf der XB1 PS4/Pro die Aufteilung der Kerne in die beiden Module berücksichtigen, um optimale Performance zu erzielen ;).
Ich hätte dazu gerne die Aussage eines oder mehrere Game/Engine Entwickler oder zumindest jemand mit entsprechenden Insights.

Ich bin fest überzeugt, dass die Games bzgl. SMT gar nichts spezifischen machen. Wenn dem nämlich so wäre, müssten Spiele dauernd nachgepatched werden, wenn Intel eine neue CPU rausbringt, damit das Spiel wieder weiss wie bei CPU XYZ die Socket/Core/SMT Aufteilung ist.

Ja, aktuellen Engines sind sicher darauf ausgelegt dass mehrere Threads genutzt werden können - das aufteilen auf die vorhandenen physischen CPUs und Cores macht aber zu 100% das OS. (darauf hat die Applikation keinerlei Einfluss)

Unicous
2017-03-03, 10:59:03
@Mark3Dfx

Du sprichst die RAM-Problematik an verschweigst aber, dass es bei Intel nicht wirklich anders ist.

Auch Intel unterstützt nur 2400er RAM wenn pro Kanal ein Modul verwendet wird, alles andere ist OC und wird nicht mehr offiziell unterstützt.

Lowkey
2017-03-03, 11:00:20
Du sprichst die RAM-Problematik an verschweigst aber, dass es bei Intel nicht wirklich anders ist.

Auch Intel unterstützt nur 2400er RAM wenn pro Kanal ein Modul verwendet wird, alles andere ist OC und wird nicht mehr offiziell unterstützt.

Es wird per XMP irgendwie schon offiziell abgesegnet.

http://www.intel.com/content/www/us/en/gaming/xmp-for-core-processors.html

dargo
2017-03-03, 11:03:37
Netter Versuch:

https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/6/

Der 5820K verbraucht unter Last 33% mehr.
Wir halten fest... jetzt wo AMD beim Stromverbrauch konkurrenzfähig ist, wenn nicht sogar besser, ist jener völlig latte. :uup:

btw.
Einen Tag nach Release sehe ich bei GH immer noch nur die gleichen 28 AM4 Bretter. Weiß einer was da los ist? Oder kommt der nächste Schub erst mit dem Sixcore?

Th3o
2017-03-03, 11:08:30
Ich glaube für Gamer lautet die Empfehlung:
- Ryzen 7 1700 kaufen
- auf 3,8Ghz+ übertakten
- SMT ausschalten
enjoy!
Vielleicht gibt es bald einen Thread, in dem die Ryzen User ihre Erfahrungen bezüglich Mainboard/RAM/OC dokumentrieren können. Gerade für die noch unentschlossenen wird das sicher eine Hilfe sein.

Unicous
2017-03-03, 11:15:03
Es wird per XMP irgendwie schon offiziell abgesegnet.

http://www.intel.com/content/www/us/en/gaming/xmp-for-core-processors.html

Du brauchst mich nicht für dumm zu verkaufen.

1.

The document provides Intel® XMP-ready DDR3 unbuffered DIMM memory supplier self-certifications on platforms with 1st through 7th generation Intel® Core™ processors.

2.

Ist XMP OC


Intel® Extreme Memory Profile (Intel® XMP): Übertakten von RAM
http://www.intel.de/content/www/de/de/gaming/extreme-memory-profile-xmp.html

Wenn du deinen PC übertakten und auch das letzte Quäntchen Leistung herauskitzeln willst, dann liefert dir mit dem Intel® XMP angepasster Arbeitsspeicher den entscheidenden Vorteil, damit du in der Gamingwelt den Ton angibst – ohne ins Schwitzen zu kommen.1

1

Eine Änderung der Taktfrequenz bzw. der Betriebsspannung kann den Prozessor oder andere Systemkomponenten beschädigen oder deren Nutzungsdauer verkürzen sowie die Stabilität und Leistung des Systems beeinträchtigen. Wenn der Prozessor außerhalb der für ihn veröffentlichten Spezifikationen verwendet wird, besteht möglicherweise keine Produktgarantie. Weitere Einzelheiten erfahren Sie bei den Herstellern des Systems und der Komponenten. Weitere Informationen siehe http://www.intel.de/content/www/de/de/gaming/overclocking-intel-processors.html.

3.

AMD unterstützt natürlich auch entsprechende Profile.

Mark3Dfx
2017-03-03, 11:28:02
Ich kann das AMD-Gebashe auch absolut nicht nachvollziehen!

Ich sehe da kein Gebashe sondern nur ein nüchternes Fazit nach
dem teils peinlichen Hype der veranstaltet wurde.
Ryzen hat Stärken und Schwächen wie Kaby-Lake und ist weit weg von dem üblen Excavator Flop.

Nun kann jeder entscheiden was er kaufen möchte, Konkurrenz zu Intel ist bitter nötig.

Birdman
2017-03-03, 11:30:19
Wir halten fest... jetzt wo AMD beim Stromverbrauch konkurrenzfähig ist, wenn nicht sogar besser, ist jener völlig latte. :uup:
Wir halten fest....jetzt wo AMD eim Stromverbrauch konkurrenzfähig ist, wenn nicht sogar besser, ist jener für die AMD Fans auf einmal ein Argument?!? Bisher wurde der doch immer mit "diese 1-2€ Stromkosten im Jahr sind doch sowas von wayne" abgetan
:uup:

Affenkönig
2017-03-03, 11:31:42
Ich sehe hier in deinem CB Link 169 zu 141 Watt im Cinebench Multicore und unter Linux 164 zu 148 Watt , und unter Blender sinds ebenso 165 zu 144 Watt zu Gunsten des alten 5820k gegenüber dem 1800X

Also ja netter Versuch..
Nur mal eine Anmerkung zu Blender:
Der 1800X braucht laut Computerbase 16 Watt (oder 11%) mehr, ist aber auch 37 % schneller


Also ja netter Versuch..:rolleyes:

gmb
2017-03-03, 11:33:00
Manche Tester bekommen nichtmal 4.1 Ghz stabil hin, hier sogar nur 4.0 Ghz:


Right now it looks like overclocking will settle somewhere between 3.85GHz and 4GHz. To be clear, that's a particularly poor showing given our year-old i7-6900K had no trouble going above the 4.4GHz mark.
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/72695-intel-broadwell-e-i7-6950x-i7-6900k-review-13.html


Gaming performance einfach nur enttäuschend:

https://www.kitguru.net/components/cpu/luke-hill/amd-ryzen-7-1800x-cpu-review/10/


Auch in einigen Anwendungsbenchmarks mit eigentlich guter Kernskalierung überraschend langsam unterwegs:

https://www.pcper.com/image/view/78952?return=node%2F67217

dargo
2017-03-03, 11:37:32
Wir halten fest....jetzt wo AMD eim Stromverbrauch konkurrenzfähig ist, wenn nicht sogar besser, ist jener für die AMD Fans auf einmal ein Argument?!? Bisher wurde der doch immer mit "diese 1-2€ Stromkosten im Jahr sind doch sowas von wayne" abgetan
:uup:
Die Stromkosten sind mir persönlich auch latte. Es geht um den Aufwand für eine leise Luftkühlung.

Birdman
2017-03-03, 11:38:19
Danke dass endlich einer die erbrachte Leistung mit in Betracht zieht.

Die ganzen, rein auf die absoluten Watt-Zahlen bezogenen, Stromverbrauch-Trollversuche hier drin sind ja nicht mehr feierlich.

Lowkey
2017-03-03, 11:39:46
Du brauchst mich nicht für dumm zu verkaufen.


Niemand hier hält dich für dumm.

Theorie: alles über DDR4-2400 ist nicht von Intel freigegeben.

Praxis: die Preise für DDR4-3000 sind teils unter DDR4-2400. Mainboardhersteller geben an, wieviel Takt ihr Mainboard mit diversen Kits verträgt. Speicherhersteller geben per XMP vor, was das Kit in jedem Fall machen wird. Intel arbeitet aktiv an OC XMP mit.

Wenn Crucial Micron endlich dieses Jahr die Fertigung verbessert, dann ist DDR4-3000 Ende des Jahres neuer Standard.

Screemer
2017-03-03, 11:50:25
Du meinst sicherlich micron.

deekey777
2017-03-03, 11:55:22
Manche Tester bekommen nichtmal 4.1 Ghz stabil hin, hier sogar nur 4.0 Ghz:


http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/72695-intel-broadwell-e-i7-6950x-i7-6900k-review-13.html



Zusammenhang zwischen dem Link und dem Quote?

gnomi
2017-03-03, 11:57:40
Im Grunde genommen ist Ryzen als Gesamtpaket gut geworden und AMD wieder konkurrenzfähig und kaufbar. :up:
Als CPU Upgrade für Gamer halte ich Ryzen aber selbst ausgehend von einem 2600k @ 4400 MHz derzeit für nicht schnell und damit notwendig genug.
Der 1800X läuft bei 4 GHz bereits ziemlich am Limit und softwareseitige Optimierungen und Perfektion fehlen mir auf jeden Fall auch. (eben auch neue Architektur, aber so ist nun mal der Stand)
Hier heißt es jetzt warten, ob sich die Situation noch in diesem Jahr verbessert und ob Intel kontert und ihrerseits die mittelfristig notwendigen 8 Kerner in bezahlbarere Bereiche (ich plane mit 800-1000 Euro plus Unterbau) bringt.
Bis dahin dreht Sandy Bridge eben eine Ehrenrunde. (man hätte so im Nachhinein eventuell auf 5820 gehen können, war auch mal eine Überlegung, aber den Unterbau wechseln ist schließlich auch Aufwand)

StefanV
2017-03-03, 12:02:10
Plus der (deutlich, Welten zum FX) geringere Stromverbrauch. Soll ja nicht vergessen werden ;)
Seltsam, dass das in diesem Thread so selten erwähnt wurde, dass der Stromverbrauch beim Ryzen deutlich besser ist...

Unicous
2017-03-03, 12:02:20
@Lowkey

Schreibst du eigentlich nur um zu kommentieren, oder checkst du auch einmal worauf sich mein Post bezieht.

Mark3Dfx erregt sich über die offiziellen RAM-Specs dabei unterscheiden die sich nicht wirklich von denen bei Intel.

Punkt.

Dein Palavern über das theoretisch und praktisch Mögliche ist völlig irrelevant. Es ging allein um die offizielle Unterstützung seitens AMD und Intel. Alles darüber ist OC. Wie du auch bei jedem MB-Hersteller sehen wirst, da hinter jeder der Bandbreitenangabe die über 2400/2666er hinaus geht (OC) steht.:rolleyes:

w0mbat
2017-03-03, 12:13:23
Wenn Crucial Micron endlich dieses Jahr die Fertigung verbessert, dann ist DDR4-3000 Ende des Jahres neuer Standard.

Ich fände es ja toll wenn wir folgendes als quasi Standard sehen würden:

DDR-400 -> DDR2-800 -> DDR3-1600 -> DDR4-3200 :biggrin:

nikk
2017-03-03, 12:19:01
Nutzen die Spiele-Entwickler noch immer Intel-Malware mit AMD-Bremse als Compiler?


"AMD_LisaSuCEO
Thanks for the question. In general, we've seen great performance from SMT in applications and benchmarks but there are some games that are using code optimized for our competitor... we are confident that we can work through these issues with the game developers who are actively engaging with our engineering teams."
https://www.reddit.com/r/Amd/comments/5x4hxu/we_are_amd_creators_of_athlon_radeon_and_other/def5iab/?utm_content=permalink&utm_medium=front&utm_source=reddit&utm_name=Amd

“Oxide games is incredibly excited with what we are seeing from the Ryzen CPU. Using our Nitrous game engine, we are working to scale our existing and future game title performance to take full advantage of Ryzen and its eight-core, 16-thread architecture, and the results thus far are impressive. These optimizations are not yet available for Ryzen benchmarking. However, expect updates soon to enhance the performance of games like Ashes of the Singularity on Ryzen CPUs, as well as our future game releases.” - Brad Wardell, CEO Stardock and Oxide
http://www.tomshardware.com/reviews/amd-ryzen-7-1800x-cpu,4951-6.html

"AMD produced the world’s first x86 processor reaching 1 GHz, 64-bit x86 processor, dual-core x86 processor, and x86 processor with an integrated memory controller (a major bottleneck if implemented as a separate chip on the motherboard, which Intel continued to do until recently). AMD often beat Intel in computer performance benchmarks. Accordingly, AMD gained significant market share in retail computer sales (beating Intel with 52.5% of desktop PCs sold in U.S. retail stores for Q4 2005) and in the lucrative server-chip market (snagging 48% of the high-end multi-core server market in 2006; a market segment that Intel was still dominating in 2003). Intel therefore turned to other tactics to minimize AMD’s gains in x86 market share. Intel’s most targeted approach to address its performance disadvantage was to provide software developers with a compiler that would optimize their code to perform better on Intel microprocessors. In itself, the Intel compiler was a fair way for Intel to increase its products’ computational performance: Intel was simply lending its resources to help developers squeeze more performance out of their programs. But Intel made the compiler compatible with AMD processors as well, thereby encouraging widespread adoption of its compiler and effectively planting a Trojan horse in the software industry. A common method to optimize code for a microprocessor is to exploit the microprocessor’s performance-enhancing features and special instructions, called “extensions.” Since the 1995 settlement, Intel had introduced several extensions to the x86 instruction set to expand its multimedia capabilities, of which many were also supported by AMD. Naturally, if the Intel compiler was compatible with AMD microprocessors, one would expect it to take advantage of the multimedia extensions in any microprocessor that supported them, be it Intel or AMD. However, Intel designed the compiler to first check the vendor ID found in a computer’s microprocessor, and only enabled the extensions if it was an Intel chip. Since many software vendors would compile their programs just once with the Intel compiler, their applications performed better on Intel chips, but only because the multimedia features were artificially disabled for AMD chips. But AMD’s performance lead was often too great to be overcome by compiler optimizations, and so Intel also turned to leveraging its immense bargaining power against computer manufacturers to maintain its leadership position."
http://jolt.law.harvard.edu/digest/intel-and-the-x86-architecture-a-legal-perspective

Lowkey
2017-03-03, 12:19:08
@Unicous

Lieber Unicous, die Tester nehmen XMP Module von Intel und stecken sie in AMD Mainboards und wundern sich über das Ergebnis. Oder andersrum: AMD kann keine AMP Kits liefern. Oder andersrum: alle Tester nehmen Intel Highendspeicher mit XMP und "simulieren" DDR4-2667 für den Ryzen. Dabei scheinen die Boards nicht alle Optionen wie bei Intel im Bios zu haben und scheinen auch, wie hier zu oft erwähnt, nicht stabil zu laufen.

Noebbie
2017-03-03, 12:20:47
Weil hier so viele auf XMP herumreiten...

Händisch die Werte setzen geht nicht?!

Lowkey
2017-03-03, 12:27:44
Er ist noch dran:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11308067&postcount=489


Hinsichtlich der Übertaktung des Speichers hat AMD noch nicht alle Sub-Timings verfügbar gemacht

MadPenguin
2017-03-03, 12:36:08
http://www.kitguru.net/components/cpu/matthew-wilson/amd-explains-why-ryzen-doesnt-seem-to-keep-up-in-1080p-gaming/

Schon bekannt?

Der Golem Test scheint wieder Mal der objektivste zu sein. Bin sauer, dass noch keine vernünftige mATX-Boards zur Verfügung stehen. Vielleicht jedoch besser und ich starte dann schon mit ausgereiften BIOS-Versionen :)

Annator
2017-03-03, 12:39:24
Aida64 Memory Latencies sind falsch bei Ryzen:

https://twitter.com/AIDA64_Official/status/837308895882276866?s=09

basix
2017-03-03, 12:43:00
Netter Versuch:

https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/6/

Der 5820K verbraucht unter Last 33% mehr.

Ehm das ist nur unter Prime mit AVX2 so. Schau dir mal die Cinebench Werte an, das ist wesentlich realistischer für die meisten Anwendungsfälle ;)

Der Stromverbrauch von Ryzen ist sehr gut, keine Frage. Und tendenziell bessere Perf/W im Produktiveinsatz ist sicher wahr im Vergleich zu Haswell. Aber die 33% sind hier deutlich übertrieben (bei nominell weniger Outputleistung)

Lowkey
2017-03-03, 12:43:44
http://www.tomshardware.de/amd-ryzen-7-1800x-cpu,testberichte-242330.html

Der Test auf Deutsch fehlt noch im Startpost.


Hat jemand einen Stromverbrauchsvergleich zwischen 1700 und 7700k bei Games zur Hand?

Screemer
2017-03-03, 12:50:41
Ehm das ist nur unter Prime mit AVX2 so. Schau dir mal die Cinebench Werte an, das ist wesentlich realistischer für die meisten Anwendungsfälle ;)

Der Stromverbrauch von Ryzen ist sehr gut, keine Frage. Und tendenziell bessere Perf/W im Produktiveinsatz ist sicher wahr im Vergleich zu Haswell. Aber die 33% sind hier deutlich übertrieben (bei nominell weniger Outputleistung)
na danns schau mal bei anand vorbei: https://forums.anandtech.com/threads/ryzen-strictly-technical.2500572/

hat eigentlich jemand ne erklärung warum ryzen bei fma code (https://forums.anandtech.com/threads/ryzen-strictly-technical.2500572/#post-38770122) so schlecht performt?

pest
2017-03-03, 13:04:21
auf französisch, zur Latenzproblematik
http://www.hardware.fr/articles/956-22/retour-sous-systeme-memoire.html

Inter-CCX Bandbreite 22GB/s :freak: ?

Screemer
2017-03-03, 13:09:53
wow. da hätten sie auch HT3.1 als interconnect nutzen können :ugly:

pest
2017-03-03, 13:11:46
soweit ich das verstanden habe muss der eine CCX den anderen CCX fragen ob die Daten in seinem Teil des L3 liegen...tolle Wurst

G3cko
2017-03-03, 13:15:40
Immer die gleichen Diskussionen! Dabei muss man mal bedenken, dass sich das wesentlich kleinere AMD hier gegen den Riesen Intel stellt. Und die können halt für die Spieler die hochgetakteten 4-Kerner und für Anwendungen die wahnsinnig teuren 8- und 10-Kerner auflegen. AMD muss sich jetzt mit einem Universalprozessor an zwei Fronten gegen die jeweils spezialisierten Intel-CPUs behaupten. Und das machen sie meiner Meinung nach richtig gut. Und ich werde wohl über irgendwann von einem i7-2600K umsteigen. Mir ist das Gesamtpaket wichtig, ich spiele, wandle Videos um und arbeite sonst auch mit meinem PC!

Aber irgendwas scheint noch nicht ganz zu funktionieren mit dem L3-Cash:http://www.legitreviews.com/amd-ryzen-7-1800x-1700x-and-1700-processor-review_191753/5


Es scheint im Moment gar keine Kommunikation zwischen den beiden Cash-Teilen zu geben, d.h. es werden effektiv nur 8MB L3-Cash genutzt. Könnte das nicht gerade bei Spielen ein Problem sein?

Es ist genau umgekehrt. AMD nutzt die größte Nische die Intel bewusst offen lässt. Bei Intel hat man nur die Wahl zwischen preiswerter Plattform und Max 4 Kerne oder teure Plattform mit sehr teuren CPUs (ohne alternativen mit vielen Kernen + wenig Takt bzw niedriger Preis + OC)

Wie erwartet ist der AMD 1700 die spanendste CPU seit Jahren! Viele sind nur etwas deprimiert, dass zum Start nicht alles rund läuft und ein paar prozente fehlen. Aber das war ja AMD typisch zu erwarten.

LadyWhirlwind
2017-03-03, 13:15:55
Das dürfte die schlechte Spieleperformance z.T. erklären. Afaik sind es ja 2x 8M L3 und nicht 1x 16MB. Kann es sein, dass der Code entsprechend angepasst werden muss, damit es funktioniert?

pest
2017-03-03, 13:18:44
auf jeden Fall ist es bei Ryzen teuer einen Thread von einem CCX auf den anderen zu schieben
das lässt sich vielleicht sogar mit einem Windows Update fixen
die Latenzproblematik bleibt allerdings bestehen und einzig deren Auswirkungen lassen sich durch Softwareanpassungen begrenzen

WinRAR/7Z und Games zeigen die Auswirkungen dieser Problematik

hoffentlich nicht broken "by design"

fondness
2017-03-03, 13:26:26
Die Latenzproblematik sind Probleme der Tools, die diese noch nicht richtig messen können bei Zen. Hier sollte man auf jeden Fall auf Updates warten. AMD gibt diese Werte an:

Der Reviewers Guide für Ryzen enthält eine interessante Anmerkung bezüglich L1-, L2- und L3-Messwerkzeugen. AMD deutet sinngemäß an, dass AIDA64 und SiSoft Sandra – beides sehr gebräuchliche Tools für Cache-Messungen – "noch nicht bereit sind, die Cache-Performance der Zen-Architektur akkurat zu messen".

AMD lieferte seine eigenen, intern gemessenen Referenzwerte und merkte an, dass man mit den FinalWare- (AIDA) und SiSoft-Sandra-Teams zusammenarbeite, um in der Zukunft akkurate Methodologie von Zen-Cache-Messungen zu ermöglichen.

https://s7.postimg.org/cfdlv6nyz/image.jpg (https://postimg.org/image/yrbeokn2v/)

http://www.tomshardware.de/amd-ryzen-7-1800x-cpu,testberichte-242330-5.html

pest
2017-03-03, 13:28:49
Jain, das eine sind die nackten Zahlen in zB AIDA, die stimmen anscheinend noch nicht
das andere sind die Auswirkungen in Anwendungen, die Architektur ist auf zufällige Speicherzugriffe über viele Threads mit großen Datenmengen nicht ausgelegt

z.B. 7Z verwendet einen MT-basierenden Binärbaum der in einem bis zu 128GB großen Wörterbuch zufällige Stringvergleiche durchführt, da ist die sequentielle Rate eher nebensächlich und die Latenz der Cache/Speicherstruktur kommt zum tragen

LadyWhirlwind
2017-03-03, 13:29:28
auf jeden Fall ist es bei Ryzen teuer einen Thread von einem CCX auf den anderen zu schieben
das lässt sich vielleicht sogar mit einem Windows Update fixen
die Latenzproblematik bleibt allerdings bestehen und einzig deren Auswirkungen lassen sich durch Softwareanpassungen begrenzen

WinRAR/7Z und Games zeigen die Auswirkungen dieser Problematik

hoffentlich nicht broken "by design"

Broken nicht, aber möglicherweise wurde das in Kauf genommen. Das dürfte auch die Resultate zum Teil erklären. Anwendungen bei denen sowas nicht vorkommt gehen ab, aber Spiele z.B. nicht. Wenn das bei Intel kein Problem ist, wird auch niemand dafür gesorgt haben, dass es nicht passiert. Bei Serveranwendungen dürfte das ja nicht so gravierende Auswirkungen haben, oder?

Tobalt
2017-03-03, 13:30:45
Naja wie ich es verstehe, ist die Latenz, solange sich alles auf einem CCx abspielt, gut.

Der französische Artikel mit Googles Translator ist sehr gut verstädnlich und einleuchtend.

Denke AMD wird zwei Lösungswege angehen:

1) Mit MS arbeiten, dass Windows die Threads innerhalb eines CCX hält, damit der L3 cache dort weiterbenutzt werden kann.

2a) Mit App Designern (speziell Spieleentwickler) arbeiten, dass diese versuche die gecachten Daten in mindestens 2 Portionen zu lagern und die Threads entsprechend bei diesen Kernen halten, um den Traffix durch das Fabric zu minimieren. Diese Option ist aber wohl sehr schwierig umzusetzen glaube ich, sodass es nicht sehr erfolgversprechend ist. Deshalb 2b)

2b) Ein Fix für Apps mit sehr random Cachenutzung:
Man clont die 8MB L3 beider CCX, sodass alle Threads permanent Zugriff auf den ganzen Cacheinhalt haben. Aber der Gesamte L3 sich auf 8 MB halbiert.

2c) Evtl müssen nicht die kompletten 8 MB geclont werden, sondern es reicht dafür bspw. 2MB zu reservieren, wodurch der das Gesamtvolumen nicht so stark einbricht

Mangel76
2017-03-03, 13:33:04
Es ist genau umgekehrt. AMD nutzt die größte Nische die Intel bewusst offen lässt. Bei Intel hat man nur die Wahl zwischen preiswerter Plattform und Max 4 Kerne oder teure Plattform mit sehr teuren CPUs (ohne alternativen mit vielen Kernen + wenig Takt bzw niedriger Preis + OC)

Wie erwartet ist der AMD 1700 die spanendste CPU seit Jahren! Viele sind nur etwas deprimiert, dass zum Start nicht alles rund läuft und ein paar prozente fehlen. Aber das war ja AMD typisch zu erwarten.

Das finde ich ja eben auch! Aber viele erklären den Ryzen zum Fail, weil er bei Spielen nicht gegen den Gaming-Spezialisten i7-7700K und bei Anwendungen nicht immer gegen einen i7-6900K gewinnt (zu einem Bruchteil des Preises!!!). Für mich ist der R7 wesentlich ausgewogener für alle, die nicht nur das eine oder das andere machen.

w0mbat
2017-03-03, 13:37:53
D.h., ein nativer quad-core sollte deutlich besser performen? Und wenn Zen+ die CCX Problematik behebt, bzw. vielleicht 8 Kerne ohne CCX nutzt, würde das sehr viel helfen?

Dr.Doom
2017-03-03, 13:40:16
CPU Name | Cores | Threads | BaseClk (GHz) | TurboClk (GHz) | TDP (Watts) | Included Cooler | Price

RYZEN 7 1800X | 8 | 16 | 3.6 | 4.0 | 95 | N/A | $499

RYZEN 7 1700X | 8 | 16 | 3.4 | 3.8 | 95 | N/A | $399

RYZEN 7 1700 | 8 | 16 | 3.0 | 3.7 | 65 | Wraith Spire | $329

Gibt es schon Release-Informationen zu 1800X-Ryzens, die mit einem Kühler verkauft werden ("WOWOF" = without WOF)?


"Warum willst du denn so einen s()&/%$& Kühler haben?!!1"
-- Darum.

"Kauf' dir lieber einen richtigen Kühler."
-- Nein.

Tobalt
2017-03-03, 13:41:46
@wombat:

Würde ich auf Basis der aktuellen Analysen so verstehen. Aber viele sagen auch dass es noch andere Problemchen gibt (SMT). Also ist nicht ganz klar was jetzt wo wie schwer wiegt.

Andererseits schien AMD ja im Vornherein recht stolz auf ihr Farbic zu sein. In welchem Anwendungsfall würde das Fabric in seiner aktuellen Form denn besonders vorteilhaft sein ? Multisockelserver oä ?

y33H@
2017-03-03, 13:46:35
AMD sagt, die Memory Bandwidth/Latencies von AIDA64 seien falsch, liefert aber selbst keine. Ein Schelm, wer Böses denkt :usad:

Gipsel
2017-03-03, 13:47:14
Ich hätte dazu gerne die Aussage eines oder mehrere Game/Engine Entwickler oder zumindest jemand mit entsprechenden Insights.Die gibt es jetzt als Aussage von mehreren Studios, daß sie ihre Spiele für Ryzen überarbeiten wollen. Und für die Jaguar basierten Konsolen (PS4/Pro und XB1 mit den zwei Clustern aus jeweils vier Kernen mit dem Modul zugeordnetem L2; also im Prinzip recht ähnlich wie bei Ryzen mit dem L3) erinnere ich mich an Aussagen von Entwicklern (auch hier im Forum), daß der Modulaufbau bei bestimmten Dingen berücksichtigt werden sollte, wenn man maximale Performance haben will. Kann man bestimmt raussuchen, wenn man mal Langeweile hat.

Es ist einfach logisch, daß man "schlechtes" Pairing von Threads auf einem Kern bzw. auch über die CCXs vermeiden möchte. Bei einem Vierkerner (und erst recht Zweikerner) mag das nicht viel ausmachen (weil man sowieso alles vollknallt). Aber wenn man mehr Kerne hat (also 6C12T oder 8C16T), kann es schon wichtig sein, auf welchen virtuellen Kern man welchen Thread legt, damit sich zwei "heavy load" Threads nicht auf einem physischen Kern gegenseitig behindern, während ein anderer Kern noch frei ist. Bei Anwendungen mit gleichmäßiger Last auf exakt so vielen Threads wie die CPU anbietet (wie Cinebench) existiert dieses Problem eher nicht (oder nur sehr reduziert). Bei anderen, stärker wechselnden Workloads wie z.B. Spielen ist das anders.
Und da ist naheliegend, daß sich ein Entwickler nicht unbedingt auf das Gutdünken des OS und dessen Scheduler verlassen will, sondern das dann selber an die Kerne pinnt, je nachdem, was er mit den Threads machen will (er sollte das ja besser wissen als das OS). Ich würde mir das auf jeden Fall ansehen, es ist einfach logisch, das zu tun (was man dann wie macht, steht noch mal auf einem anderen Blatt, erstmal würde ich das austesten, wie gut das OS das selber hinbekommt und es dann gegebenfalls selber machen, was eben unter Umständen CPU-spezifisch ist).
Und wenn Du mal an die Anfangszeiten von SMT im PC-Bereich zurückdenkst, was war ein beliebter Fix um Nachteile durch SMT abzufangen? Genau, das manuelle Pinnen der Spielethreads an bestimmte Kerne ;). Es ist nur logisch, daß das für kritische Dinge über die Jahre in die Spieleengines selber gewandert ist *).

Ich bin fest überzeugt, dass die Games bzgl. SMT gar nichts spezifischen machen. Wenn dem nämlich so wäre, müssten Spiele dauernd nachgepatched werden, wenn Intel eine neue CPU rausbringt, damit das Spiel wieder weiss wie bei CPU XYZ die Socket/Core/SMT Aufteilung ist.Bei intel hat sich seit ein paar Jahren nichts daran geändert, das war eine stabile Situation (HT bei SandyBridge stellt an das Spiel/OS keine anderen Anforderungen als das von Kabylake). An diese stabile Situation haben sich alle angepaßt. Bei AMD hat man gerade alles umgeworfen (Bulldozer-Module => Kerne mit SMT). Das ist irgendwie schon ein Unterschied ;).
Ja, aktuellen Engines sind sicher darauf ausgelegt dass mehrere Threads genutzt werden können - das aufteilen auf die vorhandenen physischen CPUs und Cores macht aber zu 100% das OS. (darauf hat die Applikation keinerlei Einfluss)Sicher kannst Du das manuell im Code beeinflussen/festlegen. Ist im Prinzip die gleiche Funktionalität die man auch im Taskmanager hat (einen Prozeß/Thread auf ein Subset an Kernen einschränken). Nennt sich CPU/Thread Affinity. Und das wird auch genutzt.

edit, *):
Siehe hier für Arma2 (http://www.realitymod.com/forum/f592-pr-arma2-support-forum-archive/102986-hyperthreading-affinity-higher-fps.html) (erstbester Google-Hit). Frühe Spielversionen haben angeblich 15-20% Performane mit HT verloren, was man durch manuelles Setzen der CPU Affinity beheben konnte. Nach einem Patch war das offenbar nicht mehr nötig (weil das Spiel es selber gemacht hat).

BoMbY
2017-03-03, 13:48:40
Abgesehen davon ist die Cache-Erkennung, wenigstens in Windows, für Ryzen immer noch total falsch. Einfach mal per Coreinfo (https://technet.microsoft.com/en-us/sysinternals/cc835722.aspx) checken ... Und man könnte die CCX auch als NUMA node (https://msdn.microsoft.com/en-us/library/windows/desktop/aa363804(v=vs.85).aspx) ansehen, derzeit zählt der komplette Ryzen als ein einziger NUMA node.

LadyWhirlwind
2017-03-03, 13:49:07
@wombat:

Würde ich auf Basis der aktuellen Analysen so verstehen. Aber viele sagen auch dass es noch andere Problemchen gibt (SMT). Also ist nicht ganz klar was jetzt wo wie schwer wiegt.

Andererseits schien AMD ja im Vornherein recht stolz auf ihr Farbic zu sein. In welchem Anwendungsfall würde das Fabric in seiner aktuellen Form denn besonders vorteilhaft sein ? Multisockelserver oä ?

Das würde ich mal vermuten. Möglich das ein nativer 4C das Problem weniger hätte, möglicherweise wäre aber dessen absolute Leistung wegen der fehlenden Cores in vielen fällen trotzdem niedriger.

Annator
2017-03-03, 13:50:01
AMD sagt, die Memory Bandwidth/Latencies von AIDA64 seien falsch, liefert aber selbst keine. Ein Schelm, wer Böses denkt :usad:

Sagt AIDA sogar selber. Siehe meinen Post.

mksn7
2017-03-03, 14:00:08
Die Latenzproblematik sind Probleme der Tools, die diese noch nicht richtig messen können bei Zen. Hier sollte man auf jeden Fall auf Updates warten. AMD gibt diese Werte an:
[...]


Die Werte sehen ja gut aus. Die ca. halbe L1 cache Bandbreite macht Sinn, weil Zen nur 2x16B liest, statt 2x65B wie Intel seit Haswell. Lesen aus dem L2 fast so schnell wie lesen aus dem L1, das ist interessant, da das bedeutet dass der L1 cache gleichzeitig Daten an die Register schicken und Daten aus dem L2 entgegennehmen kann.
Beim Intel Prozessor ist die L2-L1 mit 32B natürlich langsamer als L1-Regs mit 64B, aber der Drop ist größer als nur der Faktor 2, da beides nicht gleichzeitig geht.

Der_Korken
2017-03-03, 14:03:29
Auf die Frage warum die Gamingperformance in Ryzen so schlecht ist...
Zitat Lisa Su: Ryzen is doing really well in 1440p and 4k Gaming :freak:


Edit:
Bitte auf Seite eins mit aufnehmen und endlich mal den $ mit € austauschen.
AMD Ryzen 7 1800X vs. Intel Core i7 7700K Linux Gaming Performance (phoronix) (http://www.phoronix.com/scan.php?page=article&item=amd-ryzen-gaming&num=1)

Gleiche Bild wie unter Windows, Workstation stuff hui, Gaming pfui.
Unter Vulkan schaut es sogar ganz übel aus.

http://fs5.directupload.net/images/170303/7akndp34.png (http://www.directupload.net)

Die Benchmarks wurden alle mit einer R9 Fury gemacht, nicht mit einer nVidia GPU!

Ich wollte heute vormittag nicht aufm Handy antworten und jetzt sind schon wieder 10 Seiten im Thread dazugekommen :freak:

Die Spieleperformance unter Linux ist teilweise wirklich grottig, aber mir fiel auf, dass der durchschnittliche Stromverbrauch des 1800X oft 40W unter dem 7700K-System liegt. Das deutet für mich darauf hin, dass hier irgendeine Bremse drin sein muss, die verhindert, dass der Ryzen richtig ausgelastet wird. In allen anderen Reviews verbraucht der 1800X mehr. Eine weitere Kuriosität.

Ich bin da irgendwie schon fast froh, dass die R3 und R5 Modelle erst in einem Monat kommen, weil diese dann (hoffentlich) unter besseren Bedingungen getestet werden und sich das Performance-Bild bis dahin nochmal ändert. Da kann der R7 direkt nochmal nachgetestet werden.

anddill
2017-03-03, 14:04:17
Abgesehen davon ist die Cache-Erkennung, wenigstens in Windows, für Ryzen immer noch total falsch. Einfach mal per Coreinfo (https://technet.microsoft.com/en-us/sysinternals/cc835722.aspx) checken ... Und man könnte die CCX auch als NUMA node (https://msdn.microsoft.com/en-us/library/windows/desktop/aa363804(v=vs.85).aspx) ansehen, derzeit zählt der komplette Ryzen als ein einziger NUMA node.
Könnte man sowas nicht beim Start oder zur Laufzeit mit einem Tool, Treiber, Hook oder was auch immer dem Sheduler beibringen und testen?

Hübie
2017-03-03, 14:04:28
Benutzt doch einer mal die latency.exe (google). Die misst die Latenz und liest diese nicht aus einer Datenbank. Vielleicht ist es damit präziser?

X.Perry_Mental
2017-03-03, 14:07:57
Wie erwartet ist der AMD 1700 die spanendste CPU seit Jahren! Viele sind nur etwas deprimiert, dass zum Start nicht alles rund läuft und ein paar prozente fehlen. Aber das war ja AMD typisch zu erwarten.

Für mich ist Ryzen eine sehr interessante, junge Architektur mit überraschend gutem Einstand und viel Potential, aber auch eben mit deutlichen Kinderkrankheiten. Zum jetzigen Stand (bezogen auf BIOS-Versionen und (noch) nicht angepasste Software-Engines) ist meiner Meinung nach eine solide Leistungsbewertung von Ryzen noch gar nicht möglich.
Dass selbst so manche Analysesoftware noch nicht korrekt arbeitet, ist dabei auch nicht hilfreich.

Ich freue mich jetzt erstmal über einen (meiner Meinung nach) geglückten Ryzen-Start und sehe den notwendigen Anpassungen und Optimierungen samt der notwendigen Nachtests freudig entgegen.
Grüße: Perry

The_Invisible
2017-03-03, 14:09:50
Abgesehen davon ist die Cache-Erkennung, wenigstens in Windows, für Ryzen immer noch total falsch. Einfach mal per Coreinfo (https://technet.microsoft.com/en-us/sysinternals/cc835722.aspx) checken ... Und man könnte die CCX auch als NUMA node (https://msdn.microsoft.com/en-us/library/windows/desktop/aa363804(v=vs.85).aspx) ansehen, derzeit zählt der komplette Ryzen als ein einziger NUMA node.

Bei Linux gabs zumindest auch einen Patch um die Threads richtig den Cores zuordnen zu können.

Bei Windows kann es wohl nur MS oder AMD sagen, alles andere ist rätselraten.

Unicous
2017-03-03, 14:12:32
@ "Lieber" Lowkey

Du checkst weiterhin nicht auf was du "reagiert" hast. Wie gesagt du kommentierst des Kommentierens wegen nicht um die Diskussion voranzutreiben.

Es ging allein um offizielle Specs, nicht um von Intel sanktionierte XMP-Profile was wiederum OC ist und nicht von Intel abgedeckt wird, im Gegenteil zum RAM-Anbieter, denn der garantiert eben genau das: der Riegel arbeitet mit diesen Frequenzen und Timings.

Siehe dazu:



It is important to know that XMP is available for unlocked processors only, such as the i7-4790K.

This processor supports by default memory speeds of 1333MHz and 1600 MHz (max). This is an unlocked processor which could handle higher memory speed by either manually setting or by using an XMP profile.



Bear in mind that XMP profiles were created for easy over clocking the memory so the user only picks a profile type with no need to go through changing speeds, multipliers and voltages. So if the motherboard offers XMP profiles faster than 1600MHz, be aware that this is a direct overclocking to the Memory Controller Hub (MCH) in the processor which could represent eventually possible stability problems.



In regards of the memory models you quoted I could recommend using the one that runs at 1600MHz via SPD.



Important:

Intel provides unlocked processors so that customers who are interested in overclocking may do so, but please be aware of the following:
Overclocking voids your standard processor warranty. Intel encourages customers to consider purchasing an Intel® Performance Tuning Protection Plan (PTPP) if they chose to overclock their processor. The PTPP provides warranty coverage for most overclocking scenarios. The details on the PTPP are available at http://click.intel.com/tuningplan/
Intel does not guarantee that a processor will be able to achieve any specific speed when overclocked.
Intel will not be able to advise or assist customers with the overclocking process. Please consult your desktop board manufacturer on recommended system settings.

https://communities.intel.com/thread/61082

oder auch


My 3-month old i5-6600K died a few weeks ago. I thought it was an issue with the motherboard at first (reboot loop, no POST), had the board RMA'ed, it was apparently fine. So I started the RMA process with Intel. After explaining the symptoms detailedly, this is the reply I got from the Intel support tech:

Hello,

Thank you for the information. After reading the system configuration (RAM frequency), I would like to inform you that the processor was running out of specifications (RAM speed at 3200MHz).

The max supported RAM frequency for this processor is 2133 MHz, you can check that information at: https://ark.intel.com/products/88191/Intel-Core-i5-6600K-Processor-6M-Cache-up-to-3_90-GHz

When using XMP profiles, the RAM is overclocked, which means that it won't run at stock speed, XMP must be disabled so the system can run at defaults (SPD speed) which is 2133 MHz.

You can check the RAM tech specs at: http://www.corsair.com/en/vengeance-lpx-16gb-2x8gb-ddr4-dram-3200mhz-c16-memory-kit-black-cmk16gx4m2b3200c16

Running the processor out of the published specifications voids its warranty, you can check the warranty information at: http://download.intel.com/support/processors/sb/Limited_Warranty_8.5x11_for_Web_English.pdf > What this limited warranty does not cover.

Altering clock frequency or voltage may damage or reduce the useful life of the processor and other system components, and may reduce system stability and performance. Product warranties may not apply if the processor is operated beyond its specifications.

Regards

https://www.reddit.com/r/overclocking/comments/5p8apq/tfw_when_intel_support_tells_you_xmp_may_void_the/

Vielleicht wird es ja dadurch etwas klarer.

XMP ist OC'ing. Kaby Lake unterstützt offiziell nur 2400er RAM bei einem Modul pro RiegelSlot. Die Generationen davor entsprechend weniger.

BoMbY
2017-03-03, 14:15:32
Könnte man sowas nicht beim Start oder zur Laufzeit mit einem Tool, Treiber, Hook oder was auch immer dem Sheduler beibringen und testen?

Bestimmt. Irgendwie. Aber das dürfte im Detail sehr kompliziert werden. Vielleicht ein Filtertreiber für die CPU, oder sowas.

X.Perry_Mental
2017-03-03, 14:18:04
Bei Linux gabs zumindest auch einen Patch um die Threads richtig den Cores zuordnen zu können.

Bei Windows kann es wohl nur MS oder AMD sagen, alles andere ist rätselraten.
Was mir da gerade einfällt: Microsoft hat doch den Februar-Patchday ausfallen lassen (müssen), und alles auf den 14. März verschoben - weiss man eigentlich, was da genau verschoben wurde? Vielleicht war da ja auch noch eine Ryzen-Anpassung geplant.
Grüße: Perry

Niall
2017-03-03, 14:22:35
Was mir da gerade einfällt: Microsoft hat doch den Februar-Patchday ausfallen lassen (müssen), und alles auf den 14. März verschoben - weiss man eigentlich, was da genau verschoben wurde? Vielleicht war da ja auch noch eine Ryzen-Anpassung geplant.
Grüße: Perry


Dann hätte man seitens AMD aber doch zum Release die Leute nicht rum spekulieren lassen, sondern mit offenen Karten gespielt, oder? Also wenn MS und AMD da was geplant haben/hatten.

basix
2017-03-03, 14:26:16
na danns schau mal bei anand vorbei: https://forums.anandtech.com/threads/ryzen-strictly-technical.2500572/

Das habe ich mir bereits gestern mit Interesse durchgelesen ;) Ein potentieller 32C Naples wäre in etwa mit 2.5GHz all Cores @ 140W denkbar. Das ist ein ziemlich starkes Stück. Für Consumer ist der 1800X eigentlich schon über dem Perf/W Sweet Spot angesetzt. Der 1700er ohne X liegt ziemlich gut auf dem Sweet Spot.

Das bedeutet aber nicht, dass man mit HSW bis KBL nicht ähnliche Spielereien bei stark abgesenkter Vcore machen kann (siehe z.B. Raff von PCGH mit seinem 5820K auf 2.5GHz)

AMD sagt, die Memory Bandwidth/Latencies von AIDA64 seien falsch, liefert aber selbst keine. Ein Schelm, wer Böses denkt :usad:
Bitte sieh dir die Grafik aus diesem Post nochmals genau an, inkl. Latenzwerte direkt von AMD ;) Die Latenzen sind alle besser als bei Broadwell-E
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11308545&postcount=628

Ich vermute, dass die zu hohe gemessene "mittlere" Latenz daher kommt, dass aus x-tausend Messwerten auch CCX Kommunikation mit dabei ist und der Mittelwert dementsprechend nach oben geschoben wird. Dies natürlich nur beim Fall, dass das Tool einfach annimmt es wären 16MB homogen verteilte L3$ wie bei den Intels.

BlacKi
2017-03-03, 14:52:03
Von einem 7700K aufzurüsten wäre natürlich Schwachsinn. Aber für alle die noch mit einem 2500K Sandy oder ähnlichem herumeiern gibts jetzt endlich eine Alternative.
Das bringt uns wieder Fortschritt auf dem Markt. Nach 5 Jahren abmelken.

greetz
US
lächerlich, "jetzt gibt es endlich eine alternative"? lächerlich, der 5820k war schon 2014 eine alternative, und zwar sogar aus heutiger sicht die schnellere. eigentlich müsste man die preisleistungsempfehlung dem viel zu teuren 6800k geben, denn obwohl er etwas teurer als der 1700 ist, bietet er deutlich mehr leistung.

der 1600x wird wegen des preises und den 2 kernen extra in seiner preiskategorie aufräumen können, aber der 1700-1800x zen bietet in der kategorie spiele nirgendwo vorteile. meiner meinung nach sind die alle noch zu teuer um eine empfehlung wenigstens in der kategorie preis/leistung zu bekommen.

Niall
2017-03-03, 14:58:27
…eigentlich müsste man die preisleistungsempfehlung dem viel zu teuren 6800k geben, denn obwohl er etwas teurer als der 1700 ist, bietet er deutlich mehr leistung.

… meiner meinung nach sind die alle noch zu teuer um eine empfehlung wenigstens in der kategorie preis/leistung zu bekommen.

Wat? :freak:

Daredevil
2017-03-03, 15:03:49
Es geht ihm darum, dass AMD bislang nichts besser gemacht hat als Intel, aber gefeiert wird als wär es Apple. Als Grund wird genannt, dass sie doch so performant sind, aber in Wirklichkeit sind sie nür für den Pöbel "bezahlbar" geworden.

Niall
2017-03-03, 15:11:24
Es geht ihm darum, dass AMD bislang nichts besser gemacht hat als Intel, aber gefeiert wird als wär es Apple. Als Grund wird genannt, dass sie doch so performant sind, aber in Wirklichkeit sind sie nür für den Pöbel "bezahlbar" geworden.

Um ehrlich zu sein feiern viele AMD nur bedingt, sondern eher, dass es endlich mal wieder Schwung in den CPU Markt bringt und Intel sich nicht mehr auf seinem Prosumer Portfolio ausruhen kann welches zu Mondpreisen auf den Markt gegeben werden kann, weil es keine »gleichwertigen« Mitbewerber gibt.

BlacKi
2017-03-03, 15:13:40
Es geht ihm darum, dass AMD bislang nichts besser gemacht hat als Intel, aber gefeiert wird als wär es Apple. Als Grund wird genannt, dass sie doch so performant sind, aber in Wirklichkeit sind sie nür für den Pöbel "bezahlbar" geworden.
nicht ganz Daredevil.
Um ehrlich zu sein feiern viele AMD nur bedingt, sondern eher, dass es endlich mal wieder Schwung in den CPU Markt bringt und Intel sich nicht mehr auf seinem Prosumer Portfolio ausruhen kann welches zu Mondpreisen auf den Markt gegeben werden kann, weil es keine »gleichwertigen« Mitbewerber gibt.

so wie andill schon schrieb. entweder zu teuer für eine spiele cpu oder die cpu muss mehr leistung abliefern.

nur finde ich das 50€ weniger noch nicht ausreichen. aktuell machen sie preisleistungstechnisch in spielen keinen sinn, da ist intel besser.

wenn man den 6800k dem 1700x gegenüberstellt, sollte der 1700x 15% weniger kosten um interessant zu sein. wenn man OC mit einbezieht siehts noch schlechter aus.

Niall
2017-03-03, 15:17:55
nicht ganz Daredevil.



so wie andill schon schrieb. entweder zu teuer für eine spiele cpu oder die cpu muss mehr leistung abliefern.

nur finde ich das 50€ weniger noch nicht ausreichen. aktuell machen sie preisleistungstechnisch in spielen keinen sinn, da ist intel besser.

Ach es ging nur ums Gaming. :)
Ich finde diese einseitige Betrachtung immer noch anstrengend, klar hat jeder seinen persönlichen Einsatzzweck, trotzdem sollte man das ganze doch etwas »offener« betrachten, oder nicht?

BlacKi
2017-03-03, 15:23:19
Ach es ging nur ums Gaming. :)
Ich finde diese einseitige Betrachtung immer noch anstrengend, klar hat jeder seinen persönlichen Einsatzzweck, trotzdem sollte man das ganze doch etwas »offener« betrachten, oder nicht?
meinst du winrar?
oder photoshop?

ansonsten ist die cpu super für youtube renderer da draussen.

die meisten können sich aber wohl auch nen intel leisten... und das tun die auch.

Niall
2017-03-03, 15:26:32
meinst du winrar?
oder photoshop?

ansonsten ist die cpu super für youtube renderer da draussen.

die meisten können sich aber wohl auch nen intel leisten... und das tun die auch.

Renderleistung für CGI / Video und Anwendungen die zu 100% von den 8 Cores profitieren. Da muss man nämlich dann den 6900K zum Vergleich herziehen, der mal eben das doppelte kostet. Plus die teureren 2011-3 Boards.

Sorry, aber wenn ihr euch an eurem Einsatzgebiet orientiert, spiele ich das Spiel gerne mit meinem mit. :D

Pirx
2017-03-03, 15:30:02
In der Summe (Anwendungsleistung/Spieleleistung/Plattform/Preis) liegt Ryzen jetzt schon ziemlich weit vorne.
Die Sechskerner kommen ja noch.
Die Plattform und die CPUs sind außerdem nigelnagelneu...

Willst du Blacki, daß AMD seine CPUs verschenkt? Das wird leider nicht passieren.

aufkrawall
2017-03-03, 15:32:06
Ich empfinde die Preise für die anscheinend stark schwankende Leistung in Spielen auch als zu hoch.
Müsste man nochmal genau 8C AMD vs. Intel ohne jeweils HTT vergleichen, aber es werden sich auch keine Welten mehr ändern.
280€ 1700er + 100€ Board würde ich wohl kaufen.

Lowkey
2017-03-03, 15:35:26
Extra für dich:

https://i.gyazo.com/d28f33166bc022dc9b6d4f6c1bb319bd.png


http://www.hardware.fr/articles/956-7/impact-smt-ht.html

BigKid
2017-03-03, 15:41:37
Also als aktueller Intel und NVidianer mit nem Ivy 4 Kerner ohne HT:
Es ist zu früh für eine abschliessende Beurteilung dazu gibt es noch viel zu viele offene Fragen. Das Geschimpfe halte ich aktuell für genauso überzogen wie den Hype im Vorfeld...

Offene Fragen:
Wieviel kann man mit dem Bios noch rausholen?

Inwiefern hat der Speicher Einfluss auf die Performance des Caches und wo liegt der Sweet-Spot?

Was wird es ausmachen wenn das OS SMT vernünftig unterstützt ? In bestimmten Szenarien ist es ja nicht nur so, dass die CPU ohne SMT schneller ist als mit sondern sie müsste ja mit nochmal schneller sein als ohne (kurz drüber Nachdenken wies gemeint ist bitte).

Welchen Einfluss hat der NVIDIA Treiber und wie schnell könnte es bitte sein wenn der es richtig macht - wenn ich mich richtig erinnere IST der NVidia Treiber was Threading ja besser als der von AMD... Auch hier wieder: Wenn jetzt ne lahme AMD Karte schneller wird als ne schnelle NVIDIA - wie schnell könnte die dann sein wenn der Treiber angepasst würde ?

Wie aufwändig ist es für die Spiele Entwickler für Ryzen zu optimieren ? Wenn es ein paar Simple Dinge gibt, die man bedenken muss und die schon 10% mehr bringen sieht es doch auch schon wieder viel besser aus. Mann kann sich ja erstmal auf die Low-Hanging Fruits konzentrieren.

Aber selbst wenn man das Alles ignoriert und den Worst Case annimt (Spiele Performance bleibt so) hat man für die Masse doch ne CPU die aktuell den Spielen schon deshalb gewachsen ist weil viele mit UHD oder WQHD eh ins GPU limit rennen dafür hat man für die Zukunft reichlich Potential mit 8Cores/16 Threads. Ne Intel 4 Kern CPU wird NICHT mehr besser - Ryzen KANN aber mit der Zeit noch reifen... Dank der aktuellen und der kommenden Konsolen Generation ist IMHO anzunehmen dass der Trend zu Multi-Threading anhält...

Dino-Fossil
2017-03-03, 15:43:41
Für mich ist Ryzen eine sehr interessante, junge Architektur mit überraschend gutem Einstand und viel Potential, aber auch eben mit deutlichen Kinderkrankheiten. Zum jetzigen Stand (bezogen auf BIOS-Versionen und (noch) nicht angepasste Software-Engines) ist meiner Meinung nach eine solide Leistungsbewertung von Ryzen noch gar nicht möglich.
Dass selbst so manche Analysesoftware noch nicht korrekt arbeitet, ist dabei auch nicht hilfreich.

Wir sehen ja auch sehr unterschiedliche Ergebnisse in den Reviews, offenbar zu einem guten Teil durch Kinderkrankheiten im Bios bedingt.
Entscheidend ist aber mMn, dass die Reviews, die sich offenbar länger mit der Problematik beschäftigt haben und halbwegs gut laufende Bios-Versionen hatten auch relativ gute Ergebnisse zeigen.
Sicherlich gibt es Licht und Schatten, aber im großen und ganzen hat AMD jetzt allem Anschein nach endlich wieder eine brauchbare und moderne Architektur, die zudem deutlich ausgewogener scheint als damals Bulldozer.
Ich erwarte nicht, dass Ryzen bei Spielen noch völlig zu Intel aufschließt (ist ohne deutliche Zuwächse in der Taktrate auch nicht realistisch), aber ein paar % werden wir sicher noch sehen.

Bin jedenfalls gespannt auf R3 und R5 und hoffe, dass wir nicht zu lange warten müssen.
Mein Phenom II braucht dringend ne Ablösung und so lange AMD was brauchbares hat will ich eigentlich nicht zu Intel.

Knuddelbearli
2017-03-03, 15:45:23
Nach dem ganzen Hype tritt Ernüchterung ein, insbesondere in games eher enttäuschend. Intel liegt fast immer vorne, oft sogar deutlich. Der Stromverbrauch in real hat auch nicht das gehalten, was die TDP versprochen hat. Die Temperatur ist trotz Verlötung auch nicht berauschend.

Enttäuschend auch die Speicherskalierung, jedenfalls im Computerbase Test. Da kann ich aus eigener Erfahrung sagen, dass Kabylake schon mit 4 Kernen in games mit schnellem DDR4 mehr zulegt. Zum Beispiel bringt DDR4-3200 in pcars sehr viel, locker zweistellig. Bei Ryzen ist das sehr überschaubar.


Intel hat mit Skylake-X dann ja wirklich ein sehr leichtes Spiel dieses Jahr. Ryzen ist für mich kein Highend bei den Schwächen, das richtige Highend kommt mit Skylake-X. Einzig beim Preis kann AMD punkten, aber das müssen sie auch. Wenn ich mir wirklich ein 8C System zulegen wollte, würde ich mir weder Broadwell-E oder Ryzen kaufen, sondern auf Skylake-X warten. Ryzen hat einfach zu viele Schwächen, der Intel wäre der eindeutig bessere Allrounder.

Bei Broadwell-E hätte ich dagegen das Gefühl, etwas veraltetes zu kaufen. Skylake-X mit dem deutlich größeren L2 und wahrscheinlich höherem Taktpotenzial ist zu verlockend.

In Sachen Effizienz bin ich auch skeptisch bei Ryzen, ob dieser für mobile konkurrenzfähig mit Intel sein kann. Intels HEDT war nie die Effizienzbombe, weil dieser viel Ballast mit rumschleppt. Normalerweise müsste Ryzen deutliche Vorteile haben.


Du legst auch alles so weit möglich gegen AMD aus wie es nur geht oder? zB keine Ram Skalierung ist doch eigentlich was positives da das heißt das AMD da keine Geschwindigkeit vergeudet gegenüber Intel

uweskw
2017-03-03, 15:46:29
Es geht ihm darum, dass AMD bislang nichts besser gemacht hat als Intel, aber gefeiert wird als wär es Apple. Als Grund wird genannt, dass sie doch so performant sind, aber in Wirklichkeit sind sie nür für den Pöbel "bezahlbar" geworden.

AMD bietet für weiger Geld in fast allen praxisrelevanten fällen die bessere Performance, geht effizienter mit der Energie um und ist durch die Kernanzahl auch noch zukunftssicherer.

Oder glaubst du, dass der Anteil derer die mit einer TitanX unter 720p spielen irgend eine Relevanz hat?

greetz
US

BlacKi
2017-03-03, 15:53:51
Aber selbst wenn man das Alles ignoriert und den Worst Case annimt (Spiele Performance bleibt so) hat man für die Masse doch ne CPU die aktuell den Spielen schon deshalb gewachsen ist weil viele mit UHD oder WQHD eh ins GPU limit rennen dafür hat man für die Zukunft reichlich Potential mit 8Cores/16 Threads. Ne Intel 4 Kern CPU wird NICHT mehr besser - Ryzen KANN aber mit der Zeit noch reifen... Dank der aktuellen und der kommenden Konsolen Generation ist IMHO anzunehmen dass der Trend zu Multi-Threading anhält...
weiß nicht ob du mich mit dem schimpfen gemeint hast, aber ich schimpfe nicht, ich weiße nur drauf hin.
für spiele hätte der 1600x immernoch genug reserven, wäre kaum langsamer, aber deutlich günstiger, ich schätze so 200-250€. dann müsste man auch nicht die teuren boards nehmen um die 4ghz anzusteuern. ausserdem kann man wegen des sockels auch noch später auf zen2 aufrüsten.
so macht ryzen eben für spiele zurzeit keinen sinn, und eingentlich auch keine alternative. aus marketing sicht verständlich, aber da muss sich noch was am preis tun.

AMD bietet für weiger Geld in fast allen praxisrelevanten fällen die bessere Performance,
in welchen fällen ist amd besser und günstiger in spielen? wäre furchtbar nett von dir das zu liefern...

maguumo
2017-03-03, 15:55:55
Ich denke nicht das sich da am Preis was tun wird. Wie schon von dir und anderen erwähnt, den Gaming Markt wird man wohl eher mit diversen 4/6 Kernern angreifen. Wer mehr Performance für professionelle Anwendungen braucht legt dann eben mehr Geld für die 8Kerner auf den Tisch.

basix
2017-03-03, 15:57:48
Extra für dich:http://www.hardware.fr/articles/956-7/impact-smt-ht.html

:eek:

Das war mir so noch gar nicht bekannt. Anscheinend in Spielen genau gleich schnell wie ein 6900K ohne HT. Wäre noch schön einen 7700K als Vergleich dazu zu haben.

Irgendwie deutet das auch auf ein noch nicht richtig implementiertes / unterstütztes SMT in Spielen hin.

BigKid
2017-03-03, 15:57:50
weiß nicht ob du mich mit dem schimpfen gemeint hast, aber ich schimpfe nicht, ich weiße nur drauf hin.
für spiele hätte der 1600x immernoch genug reserven, wäre kaum langsamer, aber deutlich günstiger, ich schätze so 200-250€. dann müsste man auch nicht die teuren boards nehmen um die 4ghz anzusteuern. ausserdem kann man wegen des sockels auch noch später auf zen2 aufrüsten.
so macht ryzen eben für spiele zurzeit keinen sinn, und eingentlich auch keine alternative. aus marketing sicht verständlich, aber da muss sich noch was am preis tun.


in welchen fällen ist amd besser und günstiger in spielen? wäre furchtbar nett von dir das zu liefern...
Ich meinte nicht speziell dich ... Ich hätte mal lieber den Quote rausgenommen... Das mache ich grade noch...

Cyphermaster
2017-03-03, 16:01:00
Leute, jeder darf hier seine Meinung haben. Aber wenn ihr weiter hier euren persönlichen Gusto als allgemeingültiges Faktum oder dergleichen durchdrücken wollt, zersetzt das irgendwann den Thread so weit, daß wieder der Bannhammer on tour gehen muß...

Reißt euch bitte einfach etwas am Riemen, ist weniger Streß für uns wie für euch.

Lowkey
2017-03-03, 16:01:07
:eek:

Das war mir so noch gar nicht bekannt. Anscheinend in Spielen genau gleich schnell wie ein 6900K ohne HT. Wäre noch schön einen 7700K als Vergleich dazu zu haben.

Irgendwie deutet das auch auf ein noch nicht richtig implementiertes / unterstütztes SMT in Spielen hin.


Nein das ist nur der SMT/HT Test.

http://www.hardware.fr/articles/956-21/indices-performance.html

N0Thing
2017-03-03, 16:01:45
:eek:

Das war mir so noch gar nicht bekannt. Anscheinend in Spielen genau gleich schnell wie ein 6900K ohne HT. Wäre noch schön einen 7700K als Vergleich dazu zu haben.

Irgendwie deutet das auch auf ein noch nicht richtig implementiertes / unterstütztes SMT in Spielen hin.

Da geht es nur um den prozentualen Zugewinn oder Verlust durch SMT. 6900K und 1800X werden kaum in allen Anwendungen und Spielen ohne SMT identische Performance liefern. ;)

Linmoum
2017-03-03, 16:02:02
:eek:

Das war mir so noch gar nicht bekannt. Anscheinend in Spielen genau gleich schnell wie ein 6900K ohne HT. Wäre noch schön einen 7700K als Vergleich dazu zu haben.
Nicht gleich schnell, das diente nur der besseren Übersicht um zu verdeutlichen, wie bei beiden die SMT on/off Auswirkungen sind. ;)
Sie haben's für den 1800X am Ende auch noch in die Performance-Zusammenfassung mit aufgenommen.

https://i.gyazo.com/12d4e8bee81253f3232b2abc54f4768c.png
http://www.hardware.fr/articles/956-21/indices-performance.html

basix
2017-03-03, 16:03:43
OK, danke für die Richtigstellung und an LowKey für den zusätzlichen Link. Hatte leider noch keine Zeit durch dieses Review zu gehen.

bloodflash
2017-03-03, 16:48:40
Hmm, durch richtige SMT-Implementierung der Software sind also noch 10% drin.

Die BIOS-Updates der letzten Tage brachten alleine 15-20%. Da werden in den nächsten Wochen bestimmt noch ein paar Prozentpunkte drin sein.

Dazu noch Patches für OS und Spiele, andere Testparcours...

Da tippe ich doch pauschal auf 5-15% Overall-Mehrperformance und auf bis zu 20% in Spielen. Dann sieht das in ein paar Monaten noch besser aus für Ryzen.

Schade für AMD wegen des frühen Releases und natürlich für die Early-Adopter, aber wer sich ab dem Sommer ein Board in zweiter/dritter Revision mit gut abgestimmten und getesteten RAM zulegt, hat mit einem aktuellem OS und aktueller Grafikkarte nebst Treibern eine günstige Rakete für alle Lebenslagen und Zukunftssicherheit. Sieht IMHO top aus.

Und auch die Vierkerner (hoffentlich als 1 CCX aufgelegt) werden von einer ausgereiften Plattform/Prozess profitieren.

Und selbst die Core-i5 und -i7-Besitzer könne sich weiter zurücklehenen, denn auch diese werden in den nächsten Monaten nicht gleich zu Alteisen.

WIN-WIN für alle ;)

Birdman
2017-03-03, 16:51:53
Das dürfte die schlechte Spieleperformance z.T. erklären. Afaik sind es ja 2x 8M L3 und nicht 1x 16MB. Kann es sein, dass der Code entsprechend angepasst werden muss, damit es funktioniert?
Mit Codeanpassungen könnte man durchaus solche Eigenheiten beachten und ein paar Prozente an Leistung rauskitzeln.
Das könnte man aber für quasi jede CPU sagen - die Cachegrössen sind auch bei Intel nicht bei jeder CPU gleicht. Dual-Socket sieht dann auch wieder ganz anders aus.

Ich glaube nicht dass hier irgendein Spieleentwickler etwas in diese Richtung machen wird.
Das lohnt sich für diese vielleicht 10% Ryzen User die es in einem Jahr geben wird, doch gar nicht.
Zudem, ist es denn notwendig (aus Sicht des Spieleentwicklers) dass man für den Ryzen spezielle Performanceoptimierungen vornimmt? Wohl kaum, denn das ist ja jetzt und im aktuellen Zustand schon quasi die schnellste CPU die man haben kann.

Und nur Zeit & Geld für sowas zu vebraten damit AMD in Benchmarks vs Intel besser dasteht?
Welchem Spieleentwickler kann dies nicht komplett am Arsch vorbeigehen, ausser es fliessen Sponsoringgelder?

BoMbY
2017-03-03, 16:56:31
Könnte man sowas nicht beim Start oder zur Laufzeit mit einem Tool, Treiber, Hook oder was auch immer dem Sheduler beibringen und testen?

Update: Eventuell gibt es doch gewisse Möglichkeiten per Registry und bcdedit:

How to manually configure K-Group assignment on multiprocessor machines (https://msdn.microsoft.com/en-us/library/ff564483(v=VS.85).aspx)

Multiple Processor Group and >64 Processor Test (https://msdn.microsoft.com/en-us/library/ff564483(v=VS.85).aspx)

Damit könnte man den Scheduler wenigstens in Richtung Aufteilung pro CCX bewegen, an dem Cache wird das aber nichts ändern.

Mein eigener Ryzen verspätet sich leider bis wenigstens morgen, also kann gerade nichts testen.

Edit:

Ich würde z.B. folgendes für Ryzen mit 16 threads versuchen:


bcdedit.exe /set groupsize 8
bcdedit.exe /set groupaware on


Um den in zwei NUMA Gruppen unter Windows zu zwingen, um zu sehen ob das was ändert.

r3ptil3
2017-03-03, 17:00:00
MSI X370 XPower Titanium / 1800X / GTX 980 TI:

https://i0.wp.com/www.eteknix.com/wp-content/uploads/2017/03/rottr-overclocked.png?w=800

https://i2.wp.com/www.eteknix.com/wp-content/uploads/2017/03/Deus-Ex-Overclocked.png?w=800

Und bspw. hier das komplette Gegenteil:
https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/4/#diagramm-deus-ex-mankind-divided-dx12-fps

Oder hier mit einer GTX 1080:
http://www.guru3d.com/index.php?ct=articles&action=file&id=28920&admin=0a8fcaad6b03da6a6895d1ada2e171002a287bc1

Verwirrend...

mksn7
2017-03-03, 17:02:26
Benutzt doch einer mal die latency.exe (google). Die misst die Latenz und liest diese nicht aus einer Datenbank. Vielleicht ist es damit präziser?

Machen Aida und Co nicht genau das? Die machen sicher Microbenchmarks um das zu messen. Irgendwoher müssten die Werte in einer Datenbank ja herkommen.

Ein Latenztest ist eigentlich einfach zu programmieren, aber schwierig so hin zu kriegen dass man nicht von der Hardware verarscht wird. Normalerweise sind die gemessenen Latenzen dann aber zu niedrig, weil beispielsweise der Prefetcher das verwendete Muster doch vorhersehen kann.

Höhere Werte wie hier können zustandekommen, wenn die cache coverage nicht so gut ist wie angenommen. Um auf einen bestimmten cache zu zielen, nimmt man ein Dataset, was noch in dieses Cachelevel passt, aber nicht mehr in das darüber liegende. Für den L3 bei Ryzen also mehr als 512kB, aber weniger als 16MByte. Man muss aber schon deutlich unter den 16MByte bleiben, schließlich liegen teilweise noch andere Sachen in dem Cache, oder es wird was wegen conflicts verdrängt. Irgendwie scheint da die einfache Annahme, dass bspw. 8MB auf jeden Fall komplett im L3 gecacht werden können, falsch zu sein. Vielleicht evictet der L2 ja nur in das zu einem Core gehörende L3 slice? Dann würde der L3 Cache Zeilen evicten, wenn kein Platz mehr in den zu einem core gehörenden 2MB ist. Dann müsste man mit einem Dataset von weniger als 2MB testen. Oder der Zugriff auf den anderen Core Complex ist langsamer usw.

Keine Ahnung, mit welchen Parametern die gängigen Tools testen.

dildo4u
2017-03-03, 17:03:58
MSI X370 XPower Titanium / 1800X / GTX 980 TI:

https://i0.wp.com/www.eteknix.com/wp-content/uploads/2017/03/rottr-overclocked.png?w=800

https://i2.wp.com/www.eteknix.com/wp-content/uploads/2017/03/Deus-Ex-Overclocked.png?w=800

Und bspw. hier das komplette Gegenteil:
https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/4/#diagramm-deus-ex-mankind-divided-dx12-fps

Oder hier mit einer GTX 1080:
http://www.guru3d.com/index.php?ct=articles&action=file&id=28920&admin=0a8fcaad6b03da6a6895d1ada2e171002a287bc1

Verwirrend...

Nicht wirklich diese Seite testet den Ingame Benchmark,CB das eigentlich Game.Die CPU Last steigt wenn man sich durch das Game bewegt weil es nicht den kompletten Level mit allen Details vorladen kann was beim Benchmark aber der Fall ist.

r3ptil3
2017-03-03, 17:06:27
Nicht wirklich diese Seite testet den Ingame Benchmark,CB das eigentlich Game.Die CPU Last steigt wenn man sich durch das Game bewegt weil es nicht den kompletten Level mit allen Details vorladen kann was beim Benchmark aber der Fall ist.

Damit wäre ja der Benchmark aussagekräftiger?

Birdman
2017-03-03, 17:06:30
Die gibt es jetzt als Aussage von mehreren Studios, daß sie ihre Spiele für Ryzen überarbeiten wollen.
Was gewisse Leute erzählen und was dann gemacht wird oder überhaupt machbar ist, sind immer zwei paar Schuhe - vor allem wenn wie in solchen Fällen, die Aussagen von Pressesprechern oder Managern kommt.

Und da ist naheliegend, daß sich ein Entwickler nicht unbedingt auf das Gutdünken des OS und dessen Scheduler verlassen will, sondern das dann selber an die Kerne pinnt, je nachdem, was er mit den Threads machen will (er sollte das ja besser wissen als das OS).
Seufz ja, die Applikation weiss meist besser was sie machen will, hat aber keine Ahnung was ausserhalb noch alles läuft.
Darüberhinaus, und das ist das wichtigte, ohne ein OS welches der Applikation die Details der Physik korrekt mitteilt, kann die Applikation sich ja nur selbst falsch pinnen, falls sie das überhaupt macht.
Und darauf will ich raus - solange Windows nicht gepatched ist, kann eine Applikation rein gar nix machen.

Bei intel hat sich seit ein paar Jahren nichts daran geändert, das war eine stabile Situation (HT bei SandyBridge stellt an das Spiel/OS keine anderen Anforderungen als das von Kabylake). An diese stabile Situation haben sich alle angepaßt.
Ja, das ist klar, nur woher weiss die Applikation welche logischen Cores nun zu welchem physischen Core gehören und welche man verwenden soll um so lange wie möglich nur einen logischen pro physischen zu belegen?
Genau, das OS gibts die Struktur vor, bzw. über OS API calls wird dies ausgelesen.


Woraus ich dann folge, dass all die 300+ Spieleentwickler, wovon irgendwelche AMD Pressefuzzies nun sprechen, eigentlich überhaupt nix machen müssen.
Denn sobald die Architektur von Ryzen von Windows (10) korrekt in phyische und logische Cores abgebildet wird, werden all die Spiele automatisch mit dem SMT von Ryzen zurechtkommen.
Denn schlussendlich ist es genau das gleiche wie bei Intel was die generelle "Optimierung" anbelangt.

Korvaun
2017-03-03, 17:09:08
Ich bin mir sicher das bis spätestens Jahresende 2017 alle modernen Spiele-Engines die Eigenheiten von Ryzen ordentlich berücksichtigen. Das ist auch im Hinblick auf ZEN in kommenden Konsolen (ab PS5?) einfach alternativlos. Es wird sicher noch eine positive Leistungsentwicklung von Ryzen geben. Ich denke wenn VEGA erscheint (Juni/Juli) sind die gröbsten Probleme schon erledigt.

dildo4u
2017-03-03, 17:09:20
Damit wäre ja der Benchmark aussagekräftiger?
Hä nein du bewegst dich durch das Game ja nicht immer auf dem selben Pfad,Tomb Raider hat z.b Hubwelten in dehnen man sich relativ frei bewegen kann.

Lowkey
2017-03-03, 17:11:16
|1800X|6900k|7700k
IDLE (8 Tests) |45,4 Watt|64,7 Watt|40,7 Watt
Cinebench (5 Tests)|162,4 Watt|157 Watt|131,3 Watt
Thief |273 Watt| 332 Watt| 283 Watt
Deus Ex|262 Watt|255 Watt|237 Watt

Test von CB (https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/6/), Golem (https://www.golem.de/news/ryzen-7-1800x-im-test-amd-ist-endlich-zurueck-1703-125996-12.html), Hexus (Deus Ex) (http://hexus.net/tech/reviews/cpu/102964-amd-ryzen-7-1800x-14nm-zen/?page=10), Kitguru (http://www.kitguru.net/components/cpu/luke-hill/amd-ryzen-7-1800x-cpu-review/12/), Legit Reviews (Thief) (http://www.legitreviews.com/amd-ryzen-7-1800x-1700x-and-1700-processor-review_191753/12), PCperspective (https://www.pcper.com/reviews/Processors/AMD-Ryzen-7-1800X-Review-Now-and-Zen/Power-Consumption-and-Conclusions), Hothardware (http://hothardware.com/reviews/amd-ryzen-7-1800x-1700x-1700-benchmarks-and-review?page=10), Hardware.info (https://nl.hardware.info/reviews/7223/26/amd-ryzen-7-1800x1700x-review-eindelijk-weer-concurrentie-voor-intel-stroomverbruik-gtx-960-cinebench-15nmax), Tweaktown (http://www.tweaktown.com/reviews/8072/amd-ryzen-7-1800x-cpu-review-intel-battle-ready/index12.html)

Es gibt überhaupt nur zwei Spiele Tests für den Stromverbrauch.

Hothardware testet mit einem Gigabyte Aorus 5. Golem?, Computerbase und Legit Reviews testen mit einem MSI XPower und der Rest hat ein Asus Crosshair. Legit Reviews hat merktwürdige Ergebnisse wie ein 5,1 Ghz 7700k mit Verbrauchswerten unterhalb eines 6900k ohne OC.

Die Abweichungen unter Last zwischen 1800x und 6900k hängen mit dem restlichen System zusammen. Die Handbrake Werte von Legit Reviews nehme ich nicht ernst und die Werte von Hexus reichen nicht für einen Vergleich. Es wäre nämlich äußerst interessant zu sehen wie das Performance/Watt-Verhältnis bei Video-Encoding, der Paradedisziplin des Ryzen, ausschaut.

Ex3cut3r
2017-03-03, 17:12:03
Nicht gleich schnell, das diente nur der besseren Übersicht um zu verdeutlichen, wie bei beiden die SMT on/off Auswirkungen sind. ;)
Sie haben's für den 1800X am Ende auch noch in die Performance-Zusammenfassung mit aufgenommen.

https://i.gyazo.com/12d4e8bee81253f3232b2abc54f4768c.png
http://www.hardware.fr/articles/956-21/indices-performance.html

Danke für diese Grafik, also ohne SMT ist er so fast so schnell wie ein 4790k von 2013.

r3ptil3
2017-03-03, 17:16:45
Hä nein du bewegst dich durch das Game ja nicht immer auf dem selben Pfad,Tomb Raider hat z.b Hubwelten in dehnen man sich relativ frei bewegen kann.

Hast recht - Denkfehler.

Dorn
2017-03-03, 17:20:18
Danke für diese Grafik, also ohne SMT ist er so fast so schnell wie ein 4790k von 2013. Sieht ja dann aus Spieler Sicht ganz gut aus und da ja noch Potential nach oben ist kann es nur noch besser werden.
Mein 6700K werde ich in ca 2 Jahren durch ein anderen CPU tauschen freue mich schon auf Zen +/2 wird bestimmt eine gute Option.

dildo4u
2017-03-03, 17:21:22
Tomb Raider Ingame an sich ist ein guter CPU Test das scaling des i7 ist extrem gut.

https://youtu.be/TtpSiYFFjbI?t=4m5s

Der Benchmark hingegen ist Nutzlos dort hat der 7600k 130 fps.

http://abload.de/img/untitled-13t2xbq.png

Screemer
2017-03-03, 17:25:50
|1800X|6900k|7700k
IDLE (8 Tests) |45,4 Watt|64,7 Watt|40,7 Watt
Cinebench (5 Tests)|162,4 Watt|157 Watt|131,3 Watt
Thief |273 Watt| 332Watt| 283 Watt
Deus Ex|262 Watt|255 Watt|237Watt


Es gibt überhaupt nur zwei Spiele Tests für den Stromverbrauch.

Kannst du endlich mal anfangen Quellen mitzupoaten? Ist echt nervig.

Lowkey
2017-03-03, 17:27:49
Ich bin doch noch nicht fertig ...

dargo
2017-03-03, 17:37:22
Mit Codeanpassungen könnte man durchaus solche Eigenheiten beachten und ein paar Prozente an Leistung rauskitzeln.
Das könnte man aber für quasi jede CPU sagen - die Cachegrössen sind auch bei Intel nicht bei jeder CPU gleicht. Dual-Socket sieht dann auch wieder ganz anders aus.

Ich glaube nicht dass hier irgendein Spieleentwickler etwas in diese Richtung machen wird.
Das lohnt sich für diese vielleicht 10% Ryzen User die es in einem Jahr geben wird, doch gar nicht.

Zu dumm nur, dass Oxide bereits dran ist.

Gipsel
2017-03-03, 17:43:15
Mit Codeanpassungen könnte man durchaus solche Eigenheiten beachten und ein paar Prozente an Leistung rauskitzeln.
Das könnte man aber für quasi jede CPU sagen - die Cachegrössen sind auch bei Intel nicht bei jeder CPU gleicht.Anpassungen an die konkrete Cache-Größe sind nochmal was ganz anderes, als einfach nur vernünftiges Scheduling über das Setzen einer passenden Affininity-Mask sicherzustellen. Das sind im einfachsten Fall wirklich nur zwei Codezeilen.
Ich glaube nicht dass hier irgendein Spieleentwickler etwas in diese Richtung machen wird.Das wird jetzt auch schon gemacht. Die bereits mehrfach verlinkten Ergebnisse von hardware.fr zeigen das recht deutlich. Die implementierte Logik dafür paßt aber offenbar für Ryzen nicht so ganz. Und das ist beim Schritt von den Modulen bei Bulldozer zu SMT by Ryzen auch nicht übermäßig überraschend.
Das lohnt sich für diese vielleicht 10% Ryzen User die es in einem Jahr geben wird, doch gar nicht.Einfach nur die 2 Zeilen Code für das Setzen einer Affinity-Maske für die Threads zu ändern, kann man denen schon zumuten. ;)
Zudem, ist es denn notwendig (aus Sicht des Spieleentwicklers) dass man für den Ryzen spezielle Performanceoptimierungen vornimmt? Wohl kaum, denn das ist ja jetzt und im aktuellen Zustand schon quasi die schnellste CPU die man haben kann.In prozessorlimitierten Szenarien in Spielen ja ganz offensichtlich nicht.
Und nur Zeit & Geld für sowas zu vebraten damit AMD in Benchmarks vs Intel besser dasteht?Das in den nächsten Patch für das Spiel einzubauen kostet die praktisch nix. Das macht ein Entwickler in ein paar Minuten. Da dauert das Kompilieren länger. Dann noch Testen, fertig.
Welchem Spieleentwickler kann dies nicht komplett am Arsch vorbeigehen, ausser es fliessen Sponsoringgelder?Dem Spielentwickler, dem seine zahlungskräftigen Kunden nicht am Arsch vorbeigehen?
Was gewisse Leute erzählen und was dann gemacht wird oder überhaupt machbar ist, sind immer zwei paar Schuhe - vor allem wenn wie in solchen Fällen, die Aussagen von Pressesprechern oder Managern kommt.Die Aussagen kommen teilweise direkt von den Entwicklern.
Seufz ja, die Applikation weiss meist besser was sie machen will, hat aber keine Ahnung was ausserhalb noch alles läuft.Bei einem Spiel ist meist die Annahme ganz gut, daß das recht exklusiv läuft und nur ein paar Hintergrundprozesse stören.
Darüberhinaus, und das ist das wichtigte, ohne ein OS welches der Applikation die Details der Physik korrekt mitteilt, kann die Applikation sich ja nur selbst falsch pinnen, falls sie das überhaupt macht.Es gibt nicht nur das OS selber sondern auch einen x86er Befehl namens CPUID, mit dem sich sehr viel abfragen läßt und den man zusammen mit der Doku von intel und AMD dazu nutzen kann, die Eigenschaften der CPU zu ergründen.
Und darauf will ich raus - solange Windows nicht gepatched ist, kann eine Applikation rein gar nix machen.Na klar geht das, wenn man will.
CPUID aufrufen (ist ein ziemlich komplexer Befehl, gibt je nach benutzter Funktion verschiedene Dinge wie Hersteller, CPU-Name, Familie, Modell, Stepping, verfügbare Befehlssatzerweiterungen, Cache-Struktur, APIC-ID usw. zurück; iteriert man für jeden Kern durch und aus der Zuordnung von APIC-ID und Kernnummer kann man z.B. auch die Zuordnung von logischen Kernen zu physischen Kernen konstruieren).

falls "AuthenticAMD" && CPU_Family==17h && SMT_Feature_Bit==True dann SMT-Scheduling // also genau wie bei intel
sonst falls CPU_Family==Bulldozer dann Modul-Scheduling
sonst individual_core_Scheduling // K8, K10, Jaguar, whatever

Die verschiedenen Scheduling-Methoden unterscheiden sich dann im Prinzip nur über die Affinity-Masken, die man für die Threads setzt.

Ja, das ist klar, nur woher weiss die Applikation welche logischen Cores nun zu welchem physischen Core gehören und welche man verwenden soll um so lange wie möglich nur einen logischen pro physischen zu belegen?
Genau, das OS gibts die Struktur vor, bzw. über OS API calls wird dies ausgelesen.Benötigt man wie gesagt nicht unbedingt. Die meisten Sachen erfährt man auch von der CPU direkt.
Woraus ich dann folge, dass all die 300+ Spieleentwickler, wovon irgendwelche AMD Pressefuzzies nun sprechen, eigentlich überhaupt nix machen müssen.Sie müßten eventuell ihrem Spiel schon beibringen, daß sich Ryzen bezüglich SMT sehr ähnlich verhält wie intel CPUs und nicht wie die Module von Bulldozer (dann bekommt man schon mal die Einbrüche mit SMT weg). Mit weiterem Aufwand könnte man vielleicht sogar noch die CCX-Struktur berücksichtigen, aber das würde ich nicht unbedingt erwarten (obwohl es für Portierungen von den Konsolen vermutlich mit relativ wenig Aufwand machbar wäre, da die Struktur dort ähnlich ist).
Denn sobald die Architektur von Ryzen von Windows (10) korrekt in phyische und logische Cores abgebildet wird, werden all die Spiele automatisch mit dem SMT von Ryzen zurechtkommen.
Denn schlussendlich ist es genau das gleiche wie bei Intel was die generelle "Optimierung" anbelangt.Deswegen ist es ja auch relativ einfach. Aber offensichtlich behandeln die Spiele das SMT bei Ryzen im Moment noch häufig anders als SMT bei intel, siehe die Benchmarks von hardware.fr. Und ich wäre nicht sicher, ob das am OS liegt, oder ob die Entwickler nicht das Scheduling in der Spielengine unterschiedlich verbiegen, in Abhängigkeit davon, ob eine AMD oder intel-CPU drinsteckt, weil eben Bulldozer-Module bisher was anderes waren als jetzt die Ryzen-Kerne ;).

Dino-Fossil
2017-03-03, 17:44:36
Ich glaube auch nicht, dass es um sehr spezifische Code-Anpassungen geht (obwohl man irgendwann mal vielleicht entsprechende flags im Compiler setzen wird).
Aber wenn es Architektur-spezifische Threading-Anpassungen gibt, wird Ryzen da aktuell kaum berücksichtigt sein, wobei das evtl. ohne zu großen Aufwand zu bewerkstelligen ist.

Mr.Bug
2017-03-03, 17:48:52
Sehr schön zusammengefasst Gipsel! :up:

Und bezüglich des Themas, es wird angeblich nichts getan von Spieleentwicklern...(zwar schon mehrfach widerlegt, aber egal) :

AMD_Robert:

"Given the spectrum of reviews you are seeing in the public, I think you can see a complete picture of how software optimization can be a big difference. We've started seeing 300+ developer kits, on track to 1000 at the end of the year. We already have 3 game devs (Oxide, Bethesda, SEGA) committed to optimizing for the particulars of the zen microarchitecture.

So, I would say there are some near-term and long-term improvements that can certainly be made. :)"

Digidi
2017-03-03, 17:53:21
Die Spielentwickler haben ja auch was wenn es gut läuft und es Konkurrenzkampf für Hardware gibt. Da bleibt dann nämlich mehr Geld für Spiele über

Gipsel
2017-03-03, 17:56:02
Ich glaube auch nicht, dass es um sehr spezifische Code-Anpassungen geht (obwohl man irgendwann mal vielleicht entsprechende flags im Compiler setzen wird).
Aber wenn es Architektur-spezifische Threading-Anpassungen gibt, wird Ryzen da aktuell kaum berücksichtigt sein, wobei das evtl. ohne zu großen Aufwand zu bewerkstelligen ist.Ja. Im Prinzip muß man das einfach nur wie bei intel machen, um die von hardware.fr gemessenen Nachteile durch SMT in Spielen loszuwerden. Das sollte sehr simpel sein. Eine weitergehende Optimierung ist zwar denkbar, aber vielleicht nicht unbedingt nötig. Das Andere ist wohl die niedriger hängende Frucht.

Screemer
2017-03-03, 17:59:28
Ich bin doch noch nicht fertig ...

Dann poste doch wenn du fertig bist. Das wäre sehr hilfreich.

dargo
2017-03-03, 18:06:42
Apropo Spieleentwickler... ich kann mir gut vorstellen, dass sie schon bei Ryzen für die nächsten Konsolen etwas "üben" können. Die Konsolenhardware hat immer eine deutlich niedrigere Frequenz. In so einer PS5 würde sich ein Ryzen(+) 8C/16T @~2Ghz sehr wohl füllen wenn ich mir die Effizienzskalierung bei anandtech so anschaue.

basix
2017-03-03, 18:18:00
Eher sogar mehr als 2GHz. Ich komme etwa auf 2.3GHz @ 35W bei 8C / 16T. Zum Vergleich: 8C / 16T @ 2.3GHz sind in Cinebench schneller als ein 7700K.
https://forums.anandtech.com/threads/ryzen-strictly-technical.2500572/

Ich sehe zudem noch einen anderen Vorteil: PS4 (Pro) und XBox One haben ebenfalls schon 8 Kerne. 8C / 16T sollte für die Entwickler keinen grossen Mehraufwand bedeuten. Dann einfach mit doppelt oder sogar mehr Bumms pro Kern verglichen mit Jaguar.

Nuon
2017-03-03, 18:25:23
Naja wie ich es verstehe, ist die Latenz, solange sich alles auf einem CCx abspielt, gut.

Der französische Artikel mit Googles Translator ist sehr gut verstädnlich und einleuchtend.

Denke AMD wird zwei Lösungswege angehen:

1) Mit MS arbeiten, dass Windows die Threads innerhalb eines CCX hält, damit der L3 cache dort weiterbenutzt werden kann.

2a) Mit App Designern (speziell Spieleentwickler) arbeiten, dass diese versuche die gecachten Daten in mindestens 2 Portionen zu lagern und die Threads entsprechend bei diesen Kernen halten, um den Traffix durch das Fabric zu minimieren. Diese Option ist aber wohl sehr schwierig umzusetzen glaube ich, sodass es nicht sehr erfolgversprechend ist. Deshalb 2b)

2b) Ein Fix für Apps mit sehr random Cachenutzung:
Man clont die 8MB L3 beider CCX, sodass alle Threads permanent Zugriff auf den ganzen Cacheinhalt haben. Aber der Gesamte L3 sich auf 8 MB halbiert.

2c) Evtl müssen nicht die kompletten 8 MB geclont werden, sondern es reicht dafür bspw. 2MB zu reservieren, wodurch der das Gesamtvolumen nicht so stark einbricht
Könnte die schlechte Performance des Nvidia Treibers daher kommen, dass ständig zwischen den CCX hin und her gesprungen wird?
Könnte man einen Workaround machen, indem man dem Treiber nur erlaubt auf den ersten(letzten) 4 cores zu laufen, sodass nur ein CCX genutzt wird?

dargo
2017-03-03, 18:53:13
Eher sogar mehr als 2GHz. Ich komme etwa auf 2.3GHz @ 35W bei 8C / 16T. Zum Vergleich: 8C / 16T @ 2.3GHz sind in Cinebench schneller als ein 7700K.
https://forums.anandtech.com/threads/ryzen-strictly-technical.2500572/

Es wird wahrscheinlich eher Richtung ~3Ghz gehen. Die 2,3Ghz nützen in 14nm nichts (auch wenn der Stromverbrauch stimmt), für eine Konsole ist Ryzen zu groß. Den SoC einer PS5 erwarte ich aber auch eher in 7nm. Dann sollte die Größe wieder kein Problem sein. Für ~2022 passt das auch vom Fertigungsprozess.

BlackArchon
2017-03-03, 18:59:43
Auf Phoronix wurde getestet, was die neuen Zen-spezifischen GCC-Optionen bringen: http://www.phoronix.com/scan.php?page=article&item=amd-ryzen-znver1&num=1

Zumindest beim GCC tut sich also noch quasi fast gar nichts.

(del)
2017-03-03, 19:05:19
Wie kann man nur ... BF4 ist uralt :(
Wieso heißt Igor nun Paul?
Da AMD es erst am Dienstag, also 2 Tage vor Launch geschafft hat, die EU überhaupt offiziell zu besampeln und ich fair genug war, keine PR0-Samples zu nutzen, sind die Gaming-Benchmarks und die Intro von meinem Kollegen Paul Acorn in den USA gemacht worden. Der hat seinen Holzkoffer ja schon eine Woche vorher bekommen. Deshalb steht er dort im Review auch an erster und ich an zweiter Stelle. Mal letzte Seite bis zur Fußzeile scrollen. America first? Vielleicht sind wir ja jetzt für die Amis (dazu gehört AMD ja auch) nur noch Tester zweiter Klasse? Trumpification hellau!

Ich bin hier in DE erst am Abend fertig geworden. Das war der übelste Launch seit Jahren. 62 Benchmarks samt Grafiken und Text in weniger als 24 Stunden. Vielen Dank dafür. :(

Dino-Fossil
2017-03-03, 19:10:17
Liegt die CB-Redaktion nicht in der EU? Soweit ich weiß, haben die ihr Sample schon seit letzter Woche...

BlacKi
2017-03-03, 19:12:28
Zu dumm nur, dass Oxide bereits dran ist.
du weißt selber das ht bei intel oft probleme macht, würden spieleentwickler für spezielle cpu´s optimieren dann wäre HT schon längst in den meisten spielen der bringer.
wie lange sind nun 6 und 8 kerner am markt und wie oft wirken sie sich positiv aus? bis sich irgendwas für ryzen tut von den entwicklern aus sind bestimmt 4 jahre um.
das nun ein sehr nahestehendes entwicklerstudio der etwas verlängerte arm von amd ist klingt doch nur logisch. die müssen sowas sagen.

Gipsel
2017-03-03, 19:14:18
du weißt selber das ht bei intel oft probleme macht, würden spieleentwickler für spezielle cpu´s optimieren dann wäre HT schon längst in den meisten spielen der bringer.
wie lange sind nun 6 und 8 kerner am markt und wie oft wirken sie sich positiv aus? bis sich irgendwas für ryzen tut von den entwicklern aus sind bestimmt 4 jahre um.
das nun ein sehr nahestehendes entwicklerstudio der etwas verlängerte arm von amd ist klingt doch nur logisch.Für den Anfang reicht es ja schon, daß man keine Performance-Einbrüche mit HT in Spielen hat. Und das erreicht man recht einfach. Im Prinzip muß man es nur so machen, wie bei den Intels mit HT, da klappt es ja meist (im Gegensatz zu AMD mit Ryzen). ;)

(del)
2017-03-03, 19:15:21
|1800X|6900k|7700k
IDLE (8 Tests) |45,4 Watt|64,7 Watt|40,7 Watt
Cinebench (5 Tests)|162,4 Watt|157 Watt|131,3 Watt
Thief |273 Watt| 332 Watt| 283 Watt
Deus Ex|262 Watt|255 Watt|237 Watt

Es gibt überhaupt nur zwei Spiele Tests für den Stromverbrauch.
Hothardware testet mit einem Gigabyte Aorus 5. Golem?, Computerbase und Legit Reviews testen mit einem MSI XPower und der Rest hat ein Asus Crosshair. Legit Reviews hat merktwürdige Ergebnisse wie ein 5,1 Ghz 7700k mit Verbrauchswerten unterhalb eines 6900k ohne OC.
Die Abweichungen unter Last zwischen 1800x und 6900k hängen mit dem restlichen System zusammen. Die Handbrake Werte von Legit Reviews nehme ich nicht ernst und die Werte von Hexus reichen nicht für einen Vergleich. Es wäre nämlich äußerst interessant zu sehen wie das Performance/Watt-Verhältnis bei Video-Encoding, der Paradedisziplin des Ryzen, ausschaut.


Mal ein paar Leistungsaufnahmewerte der CPU als solche (ohne VR):

https://img.purch.com/o/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9JL0kvNjU2NDQyL29yaWdpbmFsLzAyLVdhdHRhZ2Ut Q3VydmVzLnBuZw==

https://img.purch.com/o/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9JL1IvNjU2NDUxL29yaWdpbmFsLzAxLVdhdHRhZ2Ut QmFycy5wbmc=

DerKleineCrisu
2017-03-03, 19:15:23
Ich bin hier in DE erst am Abend fertig geworden. Das war der übelste Launch seit Jahren. 62 Benchmarks samt Grafiken und Text in weniger als 24 Stunden. Vielen Dank dafür. :(

Mein Beileid und aber auch gleichzeitig danke für die geleistete Arbeit.

BlacKi
2017-03-03, 19:16:58
Mein Beileid und aber auch gleichzeitig danke für die geleistete Arbeit.
ich glaub bei dir ist was durcheinander gekommen:biggrin:

Digidi
2017-03-03, 19:22:30
Ich hätte mir gerne mal von den Testern ein solches Video gewünscht.

https://www.youtube.com/watch?time_continue=577&v=nsDjx-tW_WQ

Man gut erkenne der Intel rennt bei 70-80% rum der Ryzen bei 40-60% Da weiß man nun woher die 20% Minderleistung kommen. Die Kerne werden nicht ausgelastet.

BlacKi
2017-03-03, 19:28:35
Ich hätte mir gerne mal von den Testern ein solches Video gewünscht.

https://www.youtube.com/watch?time_continue=577&v=nsDjx-tW_WQ

Man gut erkenne der Intel rennt bei 70-80% rum der Ryzen bei 40-60% Da weiß man nun woher die 20% Minderleistung kommen. Die Kerne werden nicht ausgelastet.
:biggrin:
du bist echt:
https://pbs.twimg.com/profile_images/558626015589584897/bk2hgEx6_400x400.jpeg

dargo
2017-03-03, 19:32:00
Mal ein paar Leistungsaufnahmewerte der CPU als solche (ohne VR):

https://img.purch.com/o/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9JL0kvNjU2NDQyL29yaWdpbmFsLzAyLVdhdHRhZ2Ut Q3VydmVzLnBuZw==

https://img.purch.com/o/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9JL1IvNjU2NDUxL29yaWdpbmFsLzAxLVdhdHRhZ2Ut QmFycy5wbmc=
Die Blendermessung ist ne Punktlandung. :D

Schaffe89
2017-03-03, 19:40:47
Man kann sowohl zum Zocken und erst recht für Anwedungen bedenkenlos zu AMD greifen. Das reicht mir, um Intel den Rücken zu kehren.

Wers glaubt wird seelig. Techreport die ihren halben Test im GPU Limit betreiben.
Der 7700k ist Gamingtechnisch 30% schneller als ein 1800x und ein Ryzen 1700 wird locker mit 40% abgehängt, natürlich abseits der Ryzen Polemiker und Schönzeichner.

iuno
2017-03-03, 19:45:16
Sehe ich es richtig, dass es kein hartes "Powertarget" gibt, dass beim 1700 bzgl. OC problematisch wäre?

Und gibt es inzwischen Infos bzgl. eines Mainboard-Tests von einer Redaktion?

Hat schon jemand was zu der Praesentation (Slides oder Video) gefunden? http://schedule.gdconf.com/session/optimizing-for-amd-ryzen-cpu-presented-by-amd

DarknessFalls
2017-03-03, 19:46:30
Der 7700k ist Gamingtechnisch 30% schneller als ein 1800x und ein Ryzen 1700 wird locker mit 40% abgehängt, natürlich abseits der Ryzen Polemiker und Schönzeichner.

Ja, ich seh schon, läuft bei Dir.

https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/3/#diagramm-gesamtrating-spiele-720p

https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/4/

Hast Du die BIAS-Brille von LZ übernommen? Ist ja kaum noch auszuhalten mit Dir.

uweskw
2017-03-03, 19:48:35
Ich hätte mir gerne mal von den Testern ein solches Video gewünscht.

https://www.youtube.com/watch?time_continue=577&v=nsDjx-tW_WQ

Man gut erkenne der Intel rennt bei 70-80% rum der Ryzen bei 40-60% Da weiß man nun woher die 20% Minderleistung kommen. Die Kerne werden nicht ausgelastet.

Die Frage ist warum Ryzen so schlecht ausgelastet wird.
Aber vielleicht kann Captain Blacki-Obvious uns Noobs mal erleuchten.

greetz
US

TerrorZivi
2017-03-03, 19:50:05
Hätte einer, der schon nen Ryzen hat, Lust mal das gute alte Outcast 1.1 (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=562203) zu starten?

Digidi
2017-03-03, 19:52:05
@uweskw
Ich glaube ja nicht das sie den selben Fehler wie bei Bulldozer gemacht haben und den Verteiler für die Workloads zu klein gemacht haben.

Schrotti
2017-03-03, 19:55:48
Warum hat man Ryzen eigentlich kein Quadchannel Speicherinterface gegöhnt?

Dual Channel ist doch, bei der Menge an Kernen, eine Bremse und das schreibe ich, der von CPU Design keine Ahnung hat.

uweskw
2017-03-03, 19:55:59
Wers glaubt wird seelig. Techreport die ihren halben Test im GPU Limit betreiben.
Der 7700k ist Gamingtechnisch 30% schneller als ein 1800x und ein Ryzen 1700 wird locker mit 40% abgehängt, natürlich abseits der Ryzen Polemiker und Schönzeichner.

Klar, 40%. Aber nur wenn du schlecht optimierte Spiele in 640x480 mit ner TitanX zockst.:freak:
Ansonsten bietet Ryzen für weniger Geld in fast allen praxisrelevanten Fällen ähnliche oder bessere Performance, geht effizienter mit dem Strom um und ist durch die Kernanzahl auch noch zukunftssicherer.

greetz
US

Blediator16
2017-03-03, 19:57:06
Die Frage ist warum Ryzen so schlecht ausgelastet wird.
Aber vielleicht kann Captain Blacki-Obvious uns Noobs mal erleuchten.

greetz
US

Mal von der Auslastung abgesehen ist das ein 5ghz 7700k.

Gipsel
2017-03-03, 19:59:30
Sehe ich es richtig, dass es kein hartes "Powertarget" gibt, dass beim 1700 bzgl. OC problematisch wäre?Das wird laut Handbuch zum Ryzen-Master-Tool (https://www.amd.com/system/files/2017-03/AMD-Ryzen-Processor-and-AMD-Ryzen-Master-Overclocking-Users-Guide.pdf) beim Overclocking deaktiviert, stellt also kein Problem dar. ;)

The following changes take effect when the values are re-programmed and the processor enters Overclocking Mode:
[..]
2) Internal features of the processor which control the CPU operating voltage and frequency to manage the CPU temperature, current consumption, and power consumption to specified maximums are disabled so that no additional stress to system voltage regulators and thermals are induced.

Mr.Bug
2017-03-03, 19:59:53
-Editiert-

Mr.Bug
2017-03-03, 20:01:52
Warum hat man Ryzen eigentlich kein Quadchannel Speicherinterface gegöhnt?

Dual Channel ist doch, bei der Menge an Kernen, eine Bremse und das schreibe ich, der von CPU Design keine Ahnung hat.

AMD_Robert schrieb dazu:

"We do not plan to move to quad channel on Ryzen. That sort of takes me back to answer #1. Memory controller is an area of improvement for us, but few consumer workloads are latency sensitive in the DRAM subsystem, and it was of greater significance to focus on cache, branch prediction, and engine throughput to lift our overall performance in Zen."

dargo
2017-03-03, 20:02:40
Warum hat man Ryzen eigentlich kein Quadchannel Speicherinterface gegöhnt?

Weil bereits alles größer DDR4-2666 im Dual Channel nichts bringt.
https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/4/

anddill
2017-03-03, 20:03:56
Warum hat man Ryzen eigentlich kein Quadchannel Speicherinterface gegöhnt?

Dual Channel ist doch, bei der Menge an Kernen, eine Bremse und das schreibe ich, der von CPU Design keine Ahnung hat.

Weil Quadchannel nichts bringt außer Stromverbrauch. Abgesehen von einigen synthetischen Tests und einer handvoll hochspezieller Exotenprogramme.

devastor
2017-03-03, 20:06:02
Wovon träumst Du denn sonst noch nachts? R7 1700@3,9 Ghz vs i7 7700k@5 Ghz


GPU Limit ?

Der_Korken
2017-03-03, 20:06:09
Warum hat man Ryzen eigentlich kein Quadchannel Speicherinterface gegöhnt?

Dual Channel ist doch, bei der Menge an Kernen, eine Bremse und das schreibe ich, der von CPU Design keine Ahnung hat.

Externe Interfaces kosten relativ Die-Fläche und verteuern die Boards, weil mehr verdrahtet werden muss und man möglicherweise sogar einen größeren Sockel mit mehr Pins braucht. Im Gegensatz zu Kernen und Cache schrumpfen solche Sachen nicht mit so stark mit der Fertigung mit. Früher hatte man sogar mal Dualchannel für einen einzigen Kern und keinen hat es gestört, dass es nun viermal so viele sind. In Spielen bringt Quadchannel ohnehin relativ wenig, wie CB hier mit dem 6900K6950X gegengetestet hat: https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/4/

Gipsel
2017-03-03, 20:07:46
Warum hat man Ryzen eigentlich kein Quadchannel Speicherinterface gegöhnt?

Dual Channel ist doch, bei der Menge an Kernen, eine Bremse und das schreibe ich, der von CPU Design keine Ahnung hat.
Weil Quadchannel nichts bringt außer Stromverbrauch. Abgesehen von einigen synthetischen Tests und einer handvoll hochspezieller Exotenprogramme.
Zusätzlich zu dem was anddill schrieb:
Und was sollte Naples dann mit einem 16-channel-Speicherinterface? :freak:
Das Acht-Kanal-Interface ist schon ziemlich mächtig (intel bietet da nur 6 Kanäle). Das Zeppelin-Die muß eben auch für Snowy Owl (16C32T in SP4) und Naples (32C64T in SP3) herhalten.

Lowkey
2017-03-03, 20:09:13
Lag der Forentest zu Quadchannel komplett falsch?

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11160917&postcount=44

dargo
2017-03-03, 20:11:03
Das ist Ivy Bridge-E mit DDR3.

anddill
2017-03-03, 20:12:40
Und was sollte Naples dann mit einem 16-channel-Speicherinterface? :freak:
Das Acht-Kanal-Interface ist schon ziemlich mächtig (intel bietet da nur 6 Kanäle). Das Zeppelin-Die muß eben auch für Snowy Owl (16C32T in SP4) und Naples (32C64T in SP3) herhalten.
Du weißt schon daß ich den aktuellen Desktop-Ryzen gemeint habe, oder? Die Tests dazu wurden ja auch "nur" mit einer Desktop 8-Kern CPU gemacht.
Und auch für Naples bleibt es bei 2 Kanälen / Zeppelin.

Lowkey
2017-03-03, 20:13:22
Und das auch?

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11150516&postcount=31

Der_Korken
2017-03-03, 20:16:06
@Lowkey: Der Gewinn von Quadchannel ist bei einigermaßen schnellem RAM relativ gering (<5%) oder was willst du uns mit den verlinkten Tests sagen?

Lowkey
2017-03-03, 20:16:11
Und meine letzten Worte für heute:

http://www.toptengamer.com/amd-ryzen-7-1700-vs-intel-i7-7700k-1800x/

Dem Test traue ich absolut nicht.


@Lowkey: Der Gewinn von Quadchannel ist bei einigermaßen schnellem RAM relativ gering (<5%) oder was willst du uns mit den verlinkten Tests sagen?

Naja der Test war eindeutig zugunsten des Quadchannels ausgefallen.


Erstes ITX Board (https://www.techpowerup.com/231205/biostar-shows-off-first-mini-itx-socket-am4-motherboard)

dargo
2017-03-03, 20:18:03
Und das auch?

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11150516&postcount=31
Ich weiß ehrlich gesagt nicht was du mit den ständigen Quervergleichen zu Intel bezwecken möchtest? Kläre mich bitte auf. Ryzen ist nicht Haswell-E!

Der_Korken
2017-03-03, 20:19:06
Naja der Test war eindeutig zugunsten des Quadchannels ausgefallen.

"Eindeutig" ist etwas übertrieben. Quadchannel ist zumindest nie langsamer, aber besonders viel reißt es jetzt nicht raus. Jedenfalls nicht genug, um den Aufwand zu rechtfertigen, der beim Die, Sockel und Board anfallen würde. Ganz zu schweigen davon, dass man dann auch mindestens vier RAM-Riegel verbauen muss, um es nutzen zu können.

anddill
2017-03-03, 20:20:30
Und meine letzten Worte für heute:

http://www.toptengamer.com/amd-ryzen-7-1700-vs-intel-i7-7700k-1800x/

Dem Test traue ich absolut nicht.

Hatten wir schon, ist auch im Startposting verlinkt. Was ist daran falsch? Abgesehen von der Glaubensfrage ob Spieletests in realistischen Auflösungen sinnvoll sind.




Naja der Test war eindeutig zugunsten des Quadchannels ausgefallen.
Zu wenig für eine preiswerte Desktop-Plattform. Sonst müsste AMD die APUs ja auch mit Quadchannel ausliefern. Währ zwar technisch geil, aber schlicht zu teuer.

Digidi
2017-03-03, 20:24:31
AMD_Robert schrieb dazu:

"We do not plan to move to quad channel on Ryzen. That sort of takes me back to answer #1. Memory controller is an area of improvement for us, but few consumer workloads are latency sensitive in the DRAM subsystem, and it was of greater significance to focus on cache, branch prediction, and engine throughput to lift our overall performance in Zen."

Das würde ja heißen das sich AMD um das Sceduling richtig Gedanken gemacht hat. Aber genau da hat AMD jetzt Probleme. Verstehe ich nicht so ganz.

Blediator16
2017-03-03, 20:26:18
Und meine letzten Worte für heute:

http://www.toptengamer.com/amd-ryzen-7-1700-vs-intel-i7-7700k-1800x/

Dem Test traue ich absolut nicht.




Naja der Test war eindeutig zugunsten des Quadchannels ausgefallen.


Erstes ITX Board (https://www.techpowerup.com/231205/biostar-shows-off-first-mini-itx-socket-am4-motherboard)

Na komm, sag uns was da genau, mit Zahlen, eindeutig schneller ist.

Schrotti
2017-03-03, 20:27:48
Für mich ergibt das irgendwie keinen Sinn.

Da haut man ein 8 Kern 16 Thread CPU auf den Markt und verbaut nur ein Dualchannel Interface. Sind die Caches so groß, das die das puffern können?
Warum verbaut Intel dann schon ab den Sechskern CPUs ein Quadchannel Interface? Aus Spaß an der Freude sicher nicht oder? (wo das doch so kostenintensiv ist).

Blediator16
2017-03-03, 20:29:07
Für mich ergibt das irgendwie keinen Sinn.

Da haut man ein 8 Kern 16 Thread CPU auf den Markt und verbaut nur ein Dualchannel Interface. Sind die Caches so groß, das die das puffern können?
Warum verbaut Intel dann schon ab den Sechskern CPUs ein Quadchannel Interface? Aus Spaß an der Freude sicher nicht oder? (wo das doch so kostenintensiv ist).

Für was genau bräuchtest du/man ganz dringen Quad Channel.

maguumo
2017-03-03, 20:30:03
Die müssen mit dem Die aber auch nur bis auf 6 Kerne runtergehen, nicht bis auf 4. 2011 ist nicht als Mainstream Plattform gedacht, muss also nicht so günstig wie möglich sein.

Kriegsgeier
2017-03-03, 20:30:04
Genau das ist ja das komische, diese hohen L3 Latenzen!
Was mich mal interessieren würde ist wo liegt der Unterschied bei der L3 Anbindung zu den Krrnen zwischen RYZEN und Intel 8-Kerner.
Muss i7 da weniger teilen oder warum hat RYZEN so heftige Latenzen dort?

Gipsel
2017-03-03, 20:30:35
Du weißt schon daß ich den aktuellen Desktop-Ryzen gemeint habe, oder? Die Tests dazu wurden ja auch "nur" mit einer Desktop 8-Kern CPU gemacht.
Und auch für Naples bleibt es bei 2 Kanälen / Zeppelin.
Schon klar. Mein Post hat das Szenario mit einem hypothetischen Vier-Kanal Zeppelin-Die weitergesponnen und war auch eher als Ergänzung zu Deinem Post gedacht und eigentlich an Schrotti gerichtet. Das Zitat ist bloß verloren gegangen (habe es jetzt mal noch dazugepackt, hoffe das wird damit klarer).

Screemer
2017-03-03, 20:32:33
Naja der Test war eindeutig zugunsten des Quadchannels ausgefallen.

eindeutig? ich lach mich tot. das sind 1-4%. teils liegt das so nah beienander, dass man schon von messungenauigkeit sprechen kann. wie das den massiv höhern transitorcount und den anstieg bei der leistungsaufnahme rechtfertigen soll kannst du uns ja mal erklären.

Kriegsgeier
2017-03-03, 20:33:20
Die französische Tester haben es richtig erkannt und gut beschrieben.

Man müsste nur dort forschen und das Problem beheben. Oder geht das gar nicht?

Oder liegt es einfach an der Größe des L3? Sind 16 MB einfach Zuviel?

BoMbY
2017-03-03, 20:34:11
Also ich habe meinen Ryzen immer noch nicht bekommen, aber ich habe die folgenden settings auf meinem 3770k getestet (groupsize sollte auf die Hälfte der logischen Cores gesetzt werden, für Ryzen mit 8c/16t wären es also 8):


bcdedit.exe /set groupsize 4
bcdedit.exe /set groupaware on


Damit wird aus (nach einem Neustart):


Logical to Physical Processor Map:
**------ Physical Processor 0 (Hyperthreaded)
--**---- Physical Processor 1 (Hyperthreaded)
----**-- Physical Processor 2 (Hyperthreaded)
------** Physical Processor 3 (Hyperthreaded)

Logical Processor to Socket Map:
******** Socket 0

Logical Processor to NUMA Node Map:
******** NUMA Node 0

No NUMA nodes.

Logical Processor to Cache Map:
**------ Data Cache 0, Level 1, 32 KB, Assoc 8, LineSize 64
**------ Instruction Cache 0, Level 1, 32 KB, Assoc 8, LineSize 64
**------ Unified Cache 0, Level 2, 256 KB, Assoc 8, LineSize 64
******** Unified Cache 1, Level 3, 8 MB, Assoc 16, LineSize 64
--**---- Data Cache 1, Level 1, 32 KB, Assoc 8, LineSize 64
--**---- Instruction Cache 1, Level 1, 32 KB, Assoc 8, LineSize 64
--**---- Unified Cache 2, Level 2, 256 KB, Assoc 8, LineSize 64
----**-- Data Cache 2, Level 1, 32 KB, Assoc 8, LineSize 64
----**-- Instruction Cache 2, Level 1, 32 KB, Assoc 8, LineSize 64
----**-- Unified Cache 3, Level 2, 256 KB, Assoc 8, LineSize 64
------** Data Cache 3, Level 1, 32 KB, Assoc 8, LineSize 64
------** Instruction Cache 3, Level 1, 32 KB, Assoc 8, LineSize 64
------** Unified Cache 4, Level 2, 256 KB, Assoc 8, LineSize 64

Logical Processor to Group Map:
******** Group 0


folgendes:


Logical to Physical Processor Map:
Physical Processor 0 (Hyperthreaded):
**--
----
Physical Processor 1 (Hyperthreaded):
--**
----
Physical Processor 2 (Hyperthreaded):
----
**--
Physical Processor 3 (Hyperthreaded):
----
--**

Logical Processor to Socket Map:
Socket 0:
****
----
Socket 1:
----
****

Logical Processor to NUMA Node Map:
NUMA Node 0:
****
----
NUMA Node 1:
----
****
Calculating Cross-NUMA Node Access Cost...

Approximate Cross-NUMA Node Access Cost (relative to fastest):
00 01
00: 1.5 1.1
01: 1.0 1.0

Logical Processor to Cache Map:
Data Cache 0, Level 1, 32 KB, Assoc 8, LineSize 64
**--
----
Instruction Cache 0, Level 1, 32 KB, Assoc 8, LineSize 64
**--
----
Unified Cache 0, Level 2, 256 KB, Assoc 8, LineSize 64
**--
----
Unified Cache 1, Level 3, 8 MB, Assoc 16, LineSize 64
****
----
Data Cache 1, Level 1, 32 KB, Assoc 8, LineSize 64
--**
----
Instruction Cache 1, Level 1, 32 KB, Assoc 8, LineSize 64
--**
----
Unified Cache 2, Level 2, 256 KB, Assoc 8, LineSize 64
--**
----
Data Cache 2, Level 1, 32 KB, Assoc 8, LineSize 64
----
**--
Instruction Cache 2, Level 1, 32 KB, Assoc 8, LineSize 64
----
**--
Unified Cache 3, Level 2, 256 KB, Assoc 8, LineSize 64
----
**--
Unified Cache 4, Level 3, 8 MB, Assoc 16, LineSize 64
----
****
Data Cache 3, Level 1, 32 KB, Assoc 8, LineSize 64
----
--**
Instruction Cache 3, Level 1, 32 KB, Assoc 8, LineSize 64
----
--**
Unified Cache 5, Level 2, 256 KB, Assoc 8, LineSize 64
----
--**

Logical Processor to Group Map:
Group 0:
****
----
Group 1:
----
****


Damit sieht es für Windows so aus, als wären zwei physische CPUs im System, und nicht mehr nur eine. Der Cache wird falsch angezeigt, aber der ist beim Ryzen ja ehh bereits falsch. Auch im Taskmanager tauchen damit neue Optionen für NUMA nodes auf, und der Windows Scheduler wird definitiv beeinflusst.

Zurücksetzen kann man die Werte mit:


bcdedit.exe /deletevalue groupsize
bcdedit.exe /deletevalue groupaware


Ich denke es würde sich auf jeden Fall lohnen das mit "groupsize 8" mal für einen Ryzen zu testen, ob das einen Einfluss auf die Performance hat.

Edit: Das groupaware würde ich doch nicht setzen, nur den groupsize. Das könnte negativen Einfluss haben.

Edit2: Die Aufteilung auf 2 NUMA nodes führt zu dem Standardverhalten, dass alle Threads eines Prozesses standardmäßig nur auf einen der NUMA-Nodes gepackt werden. Wenn ich also mit dem IntelBurnTest z.B. 8 Threads starte, werden nur 4 Logische Cores belegt. Nicht so toll ...