PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - RYZEN (Summit Ridge): Review Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 [15] 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31

Schaffe89
2017-03-30, 14:28:18
Liest du auch, was du selbst schreibst?

Ist der Beitrag in der Form wirklich dein absoluter ernst?
Du verstehst es einfach nicht. Solls auch geben. Damit will ich darauf gar nicht mehr eingehen.
Mach bitte eine eigene Testredaktion auf und teste deine Prozessoren im GPU Limit, aber bitte verschone das Forum mit diesem hanebüchenen Unsinn.
Du gehst auf keine einzige Frage ein und drehst einem das Wort im Mund um.

vinacis_vivids
2017-03-30, 14:28:26
https://www.youtube.com/watch?v=lN5mxFfkr7g

Quake 2 - Ryzen vs. Core i7 - Software Rendering Mode - hochinteressant!

Ja, Handbremse beim Intel eingebaut während AMDs Pipeline voll ausgebaut ist.
Ab 8:20 nachzuvollziehen. Sehr schön, Danke.

Dürfte auch eines der Gründe sein warum bei zunehmenender Parallelisierungen AMDs Zen-Core die Oberhand gewinnen wird.

aufkrawall
2017-03-30, 14:30:24
Lässt sich mit ner Massenschlacht auf ner Skirmish-Map nachstellen, aber idR will man bei Ashes halt MSAA nutzen und landet dann zumindest bei schnellen CPUs tendenziell eher im Grafiklimit.
MSAA hatte bei meinen Benchmarks kaum Leistung gekostet, Problem waren eher Shader und afair Schatten.

Mangel76
2017-03-30, 14:32:40
Ist der Beitrag in der Form wirklich dein absoluter ernst?
Du verstehst es einfach nicht. Solls auch geben. Damit will ich darauf gar nicht mehr eingehen.
Mach bitte eine eigene Testredaktion auf und teste deine Prozessoren im GPU Limit, aber bitte verschone das Forum mit diesem hanebüchenen Unsinn.
Du gehst auf keine einzige Frage ein und drehst einem das Wort im Mund um.
dito

Rincewind
2017-03-30, 14:35:19
...
1. 720p ist nicht praxisrelevant, weil es keiner spielt


Irrelevant, da der 720p-Test nur die pure CPU-Power misst.
Der Test hat nicht die Aufgabe ein System zu messen, sondern nur die CPU ohne Einfluss einer limitierenden Grafikkarte.


Wozu HighRes-Tests? Weil das die einzige Aussage ist, die im Moment irgendwie belastbar ist! Schafft der Ryzen die FPS meiner Grafikkarte in meiner Auflösung?


Diese Frage beantwortet nicht der 720p-Test. Aber er beantwortet die Frage, ob die neue CPU schlechter/besser als Deine alte CPU ist.

Und wie stellst Du Dir das vor? Jede Kombination von Grafikkarte und CPU durchmessen? Das wäre eine Herkulesaufgabe und würde Wochen dauern.

Mangel76
2017-03-30, 14:35:35
Ich beantworte deine Fragen nicht?


Ich frage dich: Wo ist das konkrete Argument nicht in 720p zu testen um ein GPU Limit auszuschließen. Das hat nämlich in der ganzen Debatte noch nie gemand geliefert.

Ich habe dir drei Antworten darauf gegeben!

Mangel76
2017-03-30, 14:46:55
Irrelevant, da der 720p-Test nur die pure CPU-Power misst.
Der Test hat nicht die Aufgabe ein System zu messen, sondern nur die CPU ohne Einfluss einer limitierenden Grafikkarte.

CPU-Power bei angepassten Spielen - da gehe ich durchaus mit. Aber im derzeitigen Zustand völlig nutzlos!


Diese Frage beantwortet nicht der 720p-Test. Aber er beantwortet die Frage, ob die neue CPU schlechter/besser als Deine alte CPU ist.

siehe oben, zum derzeitigen Zeitpunkt keine Aussage, da jederzeit etwas gepatcht werden kann und schon sieht es wieder ganz anders aus. Da würde ich mich noch eher auf synthetische CPU-Tests verlassen als auf diese unangepassten Spiele!


Und wie stellst Du Dir das vor? Jede Kombination von Grafikkarte und CPU durchmessen? Das wäre eine Herkulesaufgabe und würde Wochen dauern.
Warum sollte man das tun? Hab ich sowas geschrieben? Man muss doch mal aus 2 Tests Quervergleiche ziehen können! Einerseits hab ich die CPU-Tests, die mir auch in meiner Auflösung die FPS der CPU mit der besten derzeitigen GPU zeigen, und auf der anderen Seite die GPU-Tests, die mir zeigen, was die gewünschte GPU leistet mit dem besten im Moment zur Verfügung stehenden CPU. Ist es denn wirklich so schwer, aus diesen beiden Informationen abzuschätzen, ob CPU und GPU bei mir zusammenpassen würden?

Wir dürfen nicht vergessen, dass Ryzen eben komplett neu ist! Und er ist anders als Intel und als Bulldozer! Und im Gegensatz zu letzterem zeigen die Anwendungstests ja, dass Ryzen richtig Power hat, nur dass sie eben in Spielen noch nicht vernünftig genutzt wird!

Screemer
2017-03-30, 15:02:00
Irrelevant, da der 720p-Test nur die pure CPU-Power misst.

Dass das nicht stimmt sollte jedem klar sein. Low res Tests messen genau so ein limit und zwar das der Software. Ob sie nun gut über threads skaliert oder auf die spezifische Hardware optimiert ist. Das ryzen sogar massiv schneller sein kann als kabylake zeigt doch der q2 test von oben. Der GL softwarefenderer wurde massiv auf amd optimiert und zeigt nun, dass er auf Intel eben in Limitierungen läuft.

robbitop
2017-03-30, 15:04:46
Es kann sich noch wesentlich ändern, wenn die neuen AGESA-Versionen in aktuellere Bios-Versionen einfließen. Dann, also wohl im Mai;(, ist erst der richtige Zeitpunkt für ein erstes Fazit, imho.
Was sollen die bewirken? (ernst gemeinte Frage)

IchoTolot
2017-03-30, 15:08:24
Das mit den Updates und Patches ist irgendwie ein Running Gag geworden. Bei Release hieß es, in ein paar Wochen wird man erst Ryzen richtig bewerten können. Nun ist es schon Mai, weil da wieder irgendwelche Updates kommen, die die Leistung grade biegen sollen. Erst war es der Scheduler, dann war er es doch nicht. Das geht immer weiter. Es sind immer Microsoft, dann die Mainboardhersteller und die Spieleentwickler Schuld. Dass AMD hier einfach was unfertiges und unrundes abgeliefert hat, das will keiner hören.

Linmoum
2017-03-30, 15:13:02
Das mit den Updates und Patches ist irgendwie ein Running Gag geworden.
Mit Oxide hat jetzt der erste Entwickler mit deutlichem Performancezuwachs geliefert. Muss dich also enttäuschen, ist kein Running Gag.

Screemer
2017-03-30, 15:19:45
Das es die updates für die energieeinstellungen/coreparkinh immer noch nicht über die windowsupdatefunktion gibt muss man ihm auch immer wieder sagen.

Mangel76
2017-03-30, 15:21:43
Das mit den Updates und Patches ist irgendwie ein Running Gag geworden. Bei Release hieß es, in ein paar Wochen wird man erst Ryzen richtig bewerten können. Nun ist es schon Mai, weil da wieder irgendwelche Updates kommen, die die Leistung grade biegen sollen. Erst war es der Scheduler, dann war er es doch nicht. Das geht immer weiter. Es sind immer Microsoft, dann die Mainboardhersteller und die Spieleentwickler Schuld. Dass AMD hier einfach was unfertiges und unrundes abgeliefert hat, das will keiner hören.

Das Potential solcher Patches haben wir doch gesehen! Das zeigt doch, dass es möglich ist! Es erwartet natürlich niemand, dass jetzt innerhalb weniger Wochen jedes Spiel, egal wie alt, plötzlich gepatcht wird und Ryzen in jedem Benchmark an die Spitze springt.

Und das irgendwer Schuld hat, hat auch niemand behauptet. Natürlich hätte einiges besser laufen können. Aber das bei einer komplett neuen Plattform am Anfang nicht alles 100%-ig funktioniert kann auch niemand erwarten! Das funktioniert auch bei Intel nicht! Also was soll dieses getrolle? Für einige Spiele wird es Verbesserungen geben, für andere nicht. Zukünftige Spiele werden jedoch von Anfang an auch auf Ryzen optimiert und damit dann wohl auch besser laufen. Wenn dabei nur ein Bruchteil der bis zu 30% von AotS ankommt, ist das doch nicht schlecht.

vinacis_vivids
2017-03-30, 15:23:31
:crazy: Kalter Kaffe aufwärmen ist langweillig imaginez. Erzähl mal doch mal was Neues.

Rincewind
2017-03-30, 15:23:54
Dass das nicht stimmt sollte jedem klar sein. Low res Tests messen genau so ein limit und zwar das der Software. Ob sie nun gut über threads skaliert oder auf die spezifische Hardware optimiert ist. Das ryzen sogar massiv schneller sein kann als kabylake zeigt doch der q2 test von oben. Der GL softwarefenderer wurde massiv auf amd optimiert und zeigt nun, dass er auf Intel eben in Limitierungen läuft.

äh... ja natürlich ist die Software noch nicht an Ryzen angepasst, trotzdem zeigt es mir zum Stand der Messung die CPU-Leistung an. Das in ein paar Wochen/Monaten Ryzen hinzu gewinnt ist doch klar. Software wird angepasst, Ryzen gewinnt dazu, selbst die Hardware (Board, RAM) ist ja noch nicht mal an Ryzen angepasst, selbst dort wird Ryzen hinzugewinnen. Wieviel? Schaun mer mal.

Rincewind
2017-03-30, 15:27:01
...
Nun ist es schon Mai...


noch haben wir März.

anddill
2017-03-30, 15:33:03
Mann Leute. Wisst ihr was ich mache statt hier stundenlang über 5% mehr oder weniger Max-FPS im CPU Limit oder ähnlich esoterischen Kram zu diskutieren? Ich zocke einfach auf meinem Ryzen-System. Und wisst ihr was? Es macht Spaß.

fondness
2017-03-30, 15:34:17
Was sollen die bewirken? (ernst gemeinte Frage)

AMD hat bessere Speicherkompatiblität und höheren RAM-Tak für Mai über ein AGESA-Update versprochen.

dargo
2017-03-30, 15:42:59
Das mit den Updates und Patches ist irgendwie ein Running Gag geworden. Bei Release hieß es, in ein paar Wochen wird man erst Ryzen richtig bewerten können. Nun ist es schon Mai, weil da wieder irgendwelche Updates kommen, die die Leistung grade biegen sollen. Erst war es der Scheduler, dann war er es doch nicht. Das geht immer weiter. Es sind immer Microsoft, dann die Mainboardhersteller und die Spieleentwickler Schuld. Dass AMD hier einfach was unfertiges und unrundes abgeliefert hat, das will keiner hören.
Bitte nicht schon wieder erzählen wie toll dein i7-7700K ist, das will hier einfach keine Sau wissen. Wie Linmoum bereits gesagt hat ist der erste Spielpatch erschienen. Eigentlich ist es schon der Zweite... zuerst kam einer für DOTA 2. Ob weitere kommen und wann wird sich zeigen. Die 400 Stunden Manpower die da angeblich bei AotS eingesetzt wurden sind nicht gerade ohne. Als weiteres wurde es schon mehrfach bewiesen, dass die Energieoptionen in Windows 10 im Gegensatz zu Intel kaputt waren. Bzw. nicht für optimale Spieleleistung ausgelegt. Aber sicher doch... das alles saugen wir uns alle nur aus den Fingern. :rolleyes:

uweskw
2017-03-30, 16:35:33
Irrelevant, da der 720p-Test nur die pure CPU-Power misst.
Der Test hat nicht die Aufgabe ein System zu messen, sondern nur die CPU ohne Einfluss einer limitierenden Grafikkarte...............




High-End-Prozessoren für Gamer in 720p mit ner GTX 1080 zu testen ist wie Autos im ersten Gang um die Wette fahren zu lassen. :biggrin:
Das sagt sicher auch irgend etwas über den Motor aus. Nur ist es völlig irrelevant, weil kein Mensch die so nutzt.

greetz
US

Mr.Bug
2017-03-30, 16:37:57
Es sind immer Microsoft, dann die Mainboardhersteller und die Spieleentwickler Schuld. Dass AMD hier einfach was unfertiges und unrundes abgeliefert hat, das will keiner hören.

Was bringst du eigentlich produktiv in diesen Thread ein außer blaugefärbten Nonsens? Die CPU als Produkt ansich ist weder unfertig, noch unrund - sondern eine völlig neue Architektur, die natürlich in manchen Fällen softwareseitig Optimierungen nötig hat. Wie oft muß man das hier eigentlich wiederholen? Und falls einen das ganze testen & tüfteln mit Ryzen langweilt, kann man sich ja auf die nächste, überragend-spannende Intel-Quadcore-CPU mit sagenhaften ~ 10% Performancesteigerung stürzen. Das wird sicher der absolute Wahnsinn! :freak:

@Anddill

Alles richtig gemacht, viel Spaß! :up:

TwoBeers
2017-03-30, 16:43:21
War das hier schon Thema?
https://community.amd.com/community/gaming/blog/2017/03/30/amd-ryzen-community-update-2

https://community.amd.com/servlet/JiveServlet/downloadImage/38-1455-118825/777-550/pastedImage_4.png


We will soon be distributing AGESA point release 1.0.0.4 to our motherboard partners. We expect BIOSes based on this AGESA to start hitting the public in early April, though specific dates will depend on the schedules and QA practices of your motherboard vendor.

BIOSes based on this new code will have four important improvements for you

We have reduced DRAM latency by approximately 6ns. This can result in higher performance for latency-sensitive applications.
We resolved a condition where an unusual FMA3 code sequence could cause a system hang.
We resolved the “overclock sleep bug” where an incorrect CPU frequency could be reported after resuming from S3 sleep.
AMD Ryzen™ Master no longer requires the High-Precision Event Timer (HPET).

Loeschzwerg
2017-03-30, 16:46:41
High-End-Prozessoren für Gamer in 720p mit ner GTX 1080 zu testen ist wie Autos im ersten Gang um die Wette fahren zu lassen. :biggrin:
Das sagt sicher auch irgend etwas über den Motor aus. Nur ist es völlig irrelevant, weil kein Mensch die so nutzt.

greetz
US

Deswegen stört mich der geringe Base-Clock von 2.3GHz meines 18 Kerner auch herzlich wenig ;) Alle Games laufen wunderbar, da kotzt eher die R9 Nano ab.

Mr.Bug
2017-03-30, 16:48:31
Ja, interessant!

Hier hat sich jemand aus Reddit die Mühe gemacht und diverse Games / Anwendungen mit unterschiedlichem Ramspeed 2133 / 3200 getestet mit teils recht deutlichen Unterschieden:

Gepostete Specs: R7 1700 @ 3.75ghz, Asus B350M-A - BIOS 0502, 16gb (2x8gb) Corsair LED 3000Mhz RAM running @ 2133mhz(15,17,17,35) & 3200mhz(16,17,17,35)

https://imgur.com/a/sbwqK

https://i.imgur.com/gp9p1b7.png

https://i.imgur.com/oIWgHlt.png

Hasenpfote
2017-03-30, 16:52:48
High-End-Prozessoren für Gamer in 720p mit ner GTX 1080 zu testen ist wie Autos im ersten Gang um die Wette fahren zu lassen. :biggrin:
Das sagt sicher auch irgend etwas über den Motor aus. Nur ist es völlig irrelevant, weil kein Mensch die so nutzt.Genau! 16K-Auflösung mit max AA und AF und 4K-Texturen ist viel sinnvoller! Da sieht man nämlich so schön, dass der olle Pentium75 mit ner 1080Ti SLI genauso schnell wie ein 7700K ist.

Es wurde SEITENLANG diskutiert, warum man in 720p bencht und Leute haben es immer noch nicht begriffen.

Das tut so weh! :freak:

Loeschzwerg
2017-03-30, 16:58:25
Ja, interessant!

Hier hat sich jemand aus Reddit die Mühe gemacht und diverse Games / Anwendungen mit unterschiedlichem Ramspeed 2133 / 3200 getestet mit teils recht deutlichen Unterschieden:

https://imgur.com/a/sbwqK

https://i.imgur.com/gp9p1b7.png

https://i.imgur.com/oIWgHlt.png

Der Vergleich mit 2400/2666 wäre irgendwie sinnvoller, da offizielle Unterstützung bei Nutzung von 2 Riegeln.

hmmm
2017-03-30, 17:03:35
Es wurde SEITENLANG diskutiert, warum man in 720p bencht und Leute haben es immer noch nicht begriffen.

Und es wurde schon Jahrelang empfohlen ein ausgewogenes PC System zu erstellen. --Nein, ein "Pentium75 mit ner 1080Ti SLI" ist nicht ausgewogen.

Mr.Bug
2017-03-30, 17:05:09
Der Vergleich mit 2400/2666 wäre irgendwie sinnvoller, da offizielle Unterstützung bei Nutzung von 2 Riegeln.

Ja wäre es wohl, aber immerhin mal eine grobe Richtung! ;)

Hier seine Specs dazu: R7 1700 @ 3.75ghz, Asus B350M-A - BIOS 0502, 16gb (2x8gb) Corsair LED 3000Mhz RAM running @ 2133mhz(15,17,17,35) & 3200mhz(16,17,17,35)

Ätznatron
2017-03-30, 17:06:13
Mann Leute. Wisst ihr was ich mache statt hier stundenlang über 5% mehr oder weniger Max-FPS im CPU Limit oder ähnlich esoterischen Kram zu diskutieren? Ich zocke einfach auf meinem Ryzen-System. Und wisst ihr was? Es macht Spaß.

Hättest du Zeit und Lust, mal X-Plane zu testen?

Die Demo für XP10 gibt's hier (http://www.x-plane.com/de/downloads/demo/), die für XP11 hier (http://www.x-plane.com/desktop/try-it/).

XP11 ist noch in der Beta-Phase und bietet noch längst nicht so viele Einstellungsoptionen im Menü wie XP10, dank LUA-Scripts kann man diese aber trotzdem nutzen (nur halt nicht bequem über Schalter im Menü).

Es würde mich wirklich sehr interessieren, welche min. FPS mit Ryzen möglich sind.

Die Wetter- und (Tages-)Zeiteinstellungen legst du selbst fest, um halt identische Umweltbedingungen zu gewährleisten.

Falls du Interesse hast, kannst du mir gerne eine PN schreiben, ich biete auch gerne bei Problemen und Fragen Hilfe an.

edit: Und du solltest mit einer nVidia-Graka (ab 4 GB VRAM, besser mehr) testen, da AMD-Karten und OGL irgendwie nicht so richtig zusammenfinden wollen.

Menace
2017-03-30, 17:08:13
Genau! 16K-Auflösung mit max AA und AF und 4K-Texturen ist viel sinnvoller! Da sieht man nämlich so schön, dass der olle Pentium75 mit ner 1080Ti SLI genauso schnell wie ein 7700K ist.

Es wurde SEITENLANG diskutiert, warum man in 720p bencht und Leute haben es immer noch nicht begriffen.

Das tut so weh! :freak:

Was mir weh tut:
Wie krampfhaft eine "Sinnhaftigkeit" in 720p-Test für nicht 720p Anwendern gesucht wird. Wenn der olle Pentium75 genauso schnell ist und Du 16K nutzt (immer wieder solche hanebüchene Übertreibungen) und 1080Ti SLI hast, dann ist der Test genau richtig für Dich. Wenn Du sonst dein PC nicht nutzt kannst Du den ollen Prozessor behalten. Geld gespart dank anwenderrelevanten Test.

Blöd hingegen wäre, wenn Du extra einen neuen CPU wegen Balkenlänge gekauft hättest, Dir aber in Deinem realen Alltag jenseits des Angebens nichts bringt.

Noch etwas zu den Testern. Ich weiß, der Aufwand wird dadurch nicht geringer; aber könntet Ihr nicht fortschrittlichere, nicht von Adobe finanzierte RAW-Konverter etc testen, die auch wirklich Multithreaded unterstützen? Demos gibt es z.B. auch für Capture One. Oder DAM-Software wie IMatch.

Loeschzwerg
2017-03-30, 17:14:33
Ja wäre es wohl, aber immerhin mal eine grobe Richtung! ;)

Hier seine Specs dazu: R7 1700 @ 3.75ghz, Asus B350M-A - BIOS 0502, 16gb (2x8gb) Corsair LED 3000Mhz RAM running @ 2133mhz(15,17,17,35) & 3200mhz(16,17,17,35)

Jup. Aber gehen wir von der goldenen Mitte aus, dann bleibt halt nicht mehr so viel Unterschied übrig. Da ist auf die Geschwindigkeit beim Speicher echt geschissen.

Glücklicherweise gibt es zwischen 2400er und 3000er keinen nennenswerten Preisunterschied, von daher sollte die Wahl klar sein.

Schaffe89
2017-03-30, 17:16:39
Liest du auch, was du selbst schreibst? Ich fasse für dich zusammen:

Du fasst mein Posting aber fehlerhaft zusammen, weil es den faktischen Inhalt gar nicht wiedergibt und du jeglichen Zusammenhang zwischen Einzelnen Aussagen ignorierst und Aussagen aus dem Kontext reißt.

2. 720p in unoptimierten Spielen gibt keine Aussage über Performance einer CPU in angepassten Spielen

Das träfe ja auf Full HD in unoptimierten Spielen noch mehr zu, da du wegen des GPU Limits die Optimierungen die für die CPU (durch etwa einen Patch) stattfinden gar nicht richtig sehen kannst.:redface:
Ich kapiere auch gar nicht was etwaige Softwareupdates überhaupt mit dem Thema an sich zu tun haben, eigentlich existiert da keinerlei Zusammenhang und es kann dem Tester ja völlig egal sein, ob irgendwann ein Update kommt für CPU XY oder GRafikkarte XY. Was nicht da ist, kann man auch nicht testen!


3. 720p bieten keine Anhaltspunkte für Vorhersage der zukünftigen Spiele

Natürlich bieten sie viel bessere Anhaltspunkte als dies 1080p oder 1440p Tests liefern kann, weil sonst die GPU viel zu sehr reinspielt und ja die Proezessoren gar nicht miteinander verglichen werden. Du vergleichst doch Grafikkarten auch nicht in einem Prozessorlimit. Vorhersagen kannst du sehr wohl treffen und zwar dass die in 720p schnellere CPU auch später mit einer besseren Grafikkarte in Full HD eben mehr FPS ausspuckt.

(Und ja mit der Zeit unterstützt Software mehr Threads und Prozessoren mit untersch. vielen Kernen/Threads können ihre Position in der Rangliste gegenüber Prozessoren die weniger Threads haben verbessern, das ist aber wie gesagt eher die Ausnahme als die Regel und zerstört ja überhaupt nicht den Sinn der Benchmarks)

Das trifft auf einen FX8350 vs 2500k zu, auf einen FX6300 vs 2500k aber schon gar nicht mehr, genausowenig traf es auf Phenom II 955 vs i5 750zu. Genausowenig wird es auf einen Ryzen 3 1200x und auf einen i5 6600k zutreffen. (Beide 4C4T) Oder trifft es auf einen Intel 6800k und Ryzen 1600x zu.

Du bekommst doch in GPU limitierten Szenarien viel weniger Informationen über die CPU, wieso sollte es also sinvoll sein, solche Tests überhaupt zu machen, das ist doch nur Zeitverschwendung.

Was bleibt dann noch übrig?

Überleg halt einfach mal ein bisschen.

Wozu HighRes-Tests? Weil das die einzige Aussage ist, die im Moment irgendwie belastbar ist!

Die ist viel weniger belastbar als ein Test in 720p, da wie gesagt GPU Limit mit reinspielt, zumindest in der Regel. Erkläre mir doch mal wieso solch ein Test dir mehr Informationen liefern soll. Bitte.

Schafft der Ryzen die FPS meiner Grafikkarte in meiner Auflösung?

Dazu musst du nur wissen wieviel deine Grafikkarte an FPS schafft und kannst dann sehen wieviel die CPU in 720p schafft. Und wenn die CPU genug FPS für deine Grafikkarte schafft, dann vergleichst du eben beide Werte und nimmst die CPU die genügend schafft. Alles andere machts nur viel komplizierter, daher der Einwand den du schon gehört hast (X Konfigurationen durchtesten)

Das musst du machen, wenn man nach deinem Gusto testen würde. Riesiger Aufwand mit weniger Infos.

Was bleibt dann noch übrig????

Du hast den Sinn meiner Aussage völlig verkürzt dargestellt, Erklärung siehe oben.

Ja und? Dafür werden doch genügend GPU-Test gemacht, manchmal sogar mit verschiedenen CPUs ;D

Wieder der absolut gleiche Denkfehler, wie die ganze Zeit schon, Hinweise darauf hast du jetzt absolut genug erhalten.

Du musst nicht X GPU´s mit X CPU´s kombinieren, sondern du testet einmal im Grafiklimit und einem im CPU Limit und hast dann alle Informationen auf dem Tisch liegen, die einem AMD Fan sicher nicht schmecken, weil Intel Prozessoren eben in Spielen aktuell schneller sind. Ich glaub auch deswegen willst du das gerade nicht einsehen.

Wenn nicht, dann dreh ich halt bei mir mal die Grafikdetails (oder Auflösung) runter und schaue, ob meine CPU die FPS erreicht, die die gewünschte GPU im Limit schafft!

Ja wie jetzt also doch relevant?:tongue: Also für was dann die lange Diskussion?

Das einzige Argument, dem ich mich anschließen kann, ist die bessere Sichtbarkeit des Effektes durch den Patch

Eigentlich müsstest du dich laut deiner obigen Aussage "Wenn nicht dreh ich halt bei mir mal die Grafikdetails herunter..." eigentlich jeder von mir getroffenen Aussage anschließen, weil genau hier der Knackpunkt sitzt.

Und schon ist dieses Problem gelöst. So einfach ist das!

Warum diskutierst du dann hier seitenweise und spielst den Unwissenden, wenn du eh weißt wie die Lösung des Problems aussieht, aber es nicht in Schrift gießen kannst?
Du hängst dich viel zu sehr an dem Fakt auf dass AMD in Spielen halt nunmal etwas langsamer rechnet. Blende das mal aus und lass den Fan mal weg.

Schaffe89
2017-03-30, 17:25:15
Ja, interessant!

Hier hat sich jemand aus Reddit die Mühe gemacht und diverse Games / Anwendungen mit unterschiedlichem Ramspeed 2133 / 3200 getestet mit teils recht deutlichen Unterschieden:

Bestätigt genau das was ich mir denke. Ryzen hängt extrem an der Ramtaktung, damit husch husch an alle Tester ordentliche Nachtests rauszudrücken.:D

Schnoesel
2017-03-30, 17:26:20
Ich trolle jetzt auch mal ein bißchen. Wie schlecht muss denn ein Intel sein der erst 1000de Stunden Optimierung benötigt um da zu sein wo er jetzt steht:

“Every processor is different on how you tune it, and Ryzen gave us some new data points on optimization,” Oxide’s Dan Baker told PCWorld. “We’ve invested thousands of hours tuning Intel CPUs to get every last bit of performance out of them, but comparatively little time so far on Ryzen.”

http://www.pcworld.com/article/3185466/hardware/heres-proof-that-ryzen-can-benefit-from-optimized-game-code.html

Soviel dazu. Ohne Softwareoptimierung wäre bei Intel auch nix los. Sie haben halt den Vorteil das jeder da drauf optimiert. Dass das weniger mit Hardware zu tun hat geht aber einigen nicht in den Schädel.

Mann Leute. Wisst ihr was ich mache statt hier stundenlang über 5% mehr oder weniger Max-FPS im CPU Limit oder ähnlich esoterischen Kram zu diskutieren? Ich zocke einfach auf meinem Ryzen-System. Und wisst ihr was? Es macht Spaß.

So True!

Der_Korken
2017-03-30, 17:42:45
Bevor nach jeder Meldung, wie sich die Performance von Ryzen vielleicht noch steigern lässt bzw. nach jedem Patch oder BIOS-Updates, welche angeblich die Performance erhöhen, die Tester gleich wieder auf ihre Testparkours stürzen, sollten sie sich vielleicht lieber auf den R5-Launch konzentrieren und bis dahin noch mal ihre Testparkours überdenken/optimieren und jede Software auf den neuesten Stand bringen. Dann lässt man den R7 noch mal mit durchlaufen und bekommt ein komplettes Round-Up, wo alle Optimierungen seit dem Ryzen-Launch drin sind. Sachen wie RAM-Takt- oder CCX-Skalierung kann man in gesonderten Tests gerne losgelöst vom Rest betrachten. Ein sauber ausgeführtes Re-Review wäre mir zumindest lieber, als jetzt quick&dirty nochmal zig Nachtests einzuschieben, die viel Arbeit machen und wegen irgendwelchen Unsauberkeiten wiederholt werden müssen.

dargo
2017-03-30, 17:49:40
Ich trolle jetzt auch mal ein bißchen. Wie schlecht muss den ein Intel sein der erst 1000de Stunden Optimierung benötigt um da zu sein wo er jetzt steht:

http://www.pcworld.com/article/3185466/hardware/heres-proof-that-ryzen-can-benefit-from-optimized-game-code.html

Lol... und ich dachte die 400 Stunden für Ryzen wären viel. :usweet:

Edit:
Verstehe ich es richtig? Da steckt bei AotS noch mehr Optimierungspotential drin? Wir sehen also mit dem ersten Ryzen-Patch noch nicht das volle Potential?

Screemer
2017-03-30, 17:56:53
Ja, interessant!

Hier hat sich jemand aus Reddit die Mühe gemacht und diverse Games / Anwendungen mit unterschiedlichem Ramspeed 2133 / 3200 getestet mit teils recht deutlichen Unterschieden:

Gepostete Specs: R7 1700 @ 3.75ghz, Asus B350M-A - BIOS 0502, 16gb (2x8gb) Corsair LED 3000Mhz RAM running @ 2133mhz(15,17,17,35) & 3200mhz(16,17,17,35)

https://imgur.com/a/sbwqK

https://i.imgur.com/gp9p1b7.png

https://i.imgur.com/oIWgHlt.png
alles klar. war irgendwie vorher zu sehen. wie war noch die frage:

Wenn zwischen (beispielsweise) günstigem DDR4-2133 single-ranked und sündteurem, niemals stabilem DDR4-3200 dual-ranked im Schnitt zehn Prozent mehr Leistung vom Laster fällt (wonach es grob aussieht): Haltet ihr das für wirklich relevant? An den Grundaussagen ändert sich nichts.

MfG,
Raff
meine antwort lautet: ja

bun
2017-03-30, 17:57:10
Und vor allem nicht hier, sondern da: http://extreme.pcgameshardware.de/pcgh-online-forum-pcgh-produkte/14 :)

MfG,
Raff

Wenn du dich hier herumtreibst, musst du dir auch hier die Kritik anhören.


Alternativ darfst du auch gerne ein Online-Abo abschließen, womit die Anzeigen ausbleiben. :naughty:

MfG,
Raff

Werbeblocker funktioniert einwandfrei, danke.

Dino-Fossil
2017-03-30, 18:11:27
Re: Speicherskalierung sinnvoll oder nicht?

Aktuell liest man bei einigen Reviewern öfters mal:
"Was soll's, bringt doch nur ein paar Prozent!"

Das stimmt auch, mein persönliches Ryzen-System wird definitiv nicht auf die Jagd nach dem letzten Quäntchen Performance gehen.

Allerdings summieren sich die "paar Prozent" irgendwann auch. Ein paar Prozent gehen durch das Energieprofil verloren, ein paar durch langsamen Speicher, da ein paar weil das BIOS noch nicht ausgereift ist, hier ein paar weil die gebenchte Software eine alte Version ist.

Am Ende hat man dann Differenzen, die man sehen und evtl. auch spüren kann und die nicht ganz unwichtig sind, wenn man relativ nah an der Konkurrenz klebt (aber eben ein bisschen dahinter zurück bleibt).

Naja, ist zugegebenermaßen manchmal schwer alles richtig zu machen - irgendjemand weiß es immer besser, bzw. hat seine eigenen Vorstellungen wie der Test abzulaufen hat. :D

Der_Korken
2017-03-30, 18:12:20
Ich weiß nicht, ob man die 400h für Ryzen und die mehreren 1000h für Intel wirklich gegeneinander aufwiegen kann, da Ryzen ja jetzt nicht so fundamental anders aufgebaut ist und sicherlich auch von einigen Intel-Optimierungen profitiert hat. Die Caches sind sehr ähnlich groß und beide verwenden SMT. Nur der geteilte L3-Cache und die Kommunikation zwischen zwei CCX sind neu. Was man aber auf jeden Fall sagen kann ist, dass auch für Intel umfangreiche Optimierungen vorgenommen wurden, um es auf deren Architektur schnell zu bekommen. Und da sich bei Intel seit Sandy Bridge nichts gravierendes mehr geändert hat und Intel seit dem auch absolute Referenz im Gaming-Bereich ist, kann man durchaus die These aufstellen, dass Intel bereits auf breiter Basis durch Optimierungen profitiert, die für Ryzen erst noch gemacht werden müssen.

Botcruscher
2017-03-30, 18:33:47
Haltet ihr das für wirklich relevant? An den


10% sind bei Intel zwei Generationen oder _weit_ mehr Kohle als der sündhaft teure 3200er.

Malabolge
2017-03-30, 18:45:06
Du hängst dich viel zu sehr an dem Fakt auf dass AMD in Spielen halt nunmal etwas langsamer rechnet. Blende das mal aus und lass den Fan mal weg.

Und da haben wir doch deine Grundaussage um die es dir ging.
Fakten scheinen dich nicht zu interressieren.


Ich hab gerade einen Gegentest in 320x200 gemacht :

A 6000+ gegen Ryzen 7 1700 , Quake 2
Und siehe da: Der A 6000+ kommt noch sehr gut in "Schlagdistanz" an den Ryzen 7 :eek:
(Der fairnesshalber Compiliert mit nur X86-code ! nur Singlecore nur Vga (320*200)
SSE und CO konnte man ja zu Quakezeirten nicht Vorhersehen)

Und da kaufen sich die ganzen Idioten einen Ryzen wo doch der A6400+ so abgeht :D:biggrin:
Wenn man das doch nur vorher gewusst hätte :rolleyes:

Das besagt in diesem Fall, das der A 6000+ noch genug Reserven hat !:redface::tongue:
Zukünftige "Entwicklungen" können nicht vorher gesagt werden !

Deine 720p sind für den Popo.Den mit Patches für die neue Architektur ist da noch einiges möglich (Bei Quake :wink:). Die 720p Test zeigen nur den Momentanen Maxwert der auf der Software basiert


PS: Ich hab ein Wenig;) Übertrieben , aber das Konzept müsste jetzt sogar DIR klarwerden.
Die 720p sind nicht unbedingt die "Vollauslastung".

Brillus
2017-03-30, 18:59:12
Tatsaechlich soll zufaelligerweise demnaechst eine remastered Version kommen. Kann sein dass es nur 16:9 support, bessere Texturen usw. hat, eben das Uebliche. Vielleicht ist aber auch eine Ueberraschung dabei ;)

Das ist für Starcraft 1

iuno
2017-03-30, 19:01:14
oops, danke fuer den Hinweis :redface:

Schaffe89
2017-03-30, 19:33:11
Deine 720p sind für den Popo.Den mit Patches für die neue Architektur ist da noch einiges möglich (Bei Quake :wink:).
Die 720p Test zeigen nur den Momentanen Maxwert der auf der Software basiert

Na wenn du es so siehst, dann darf bisher am besten gar nix getestet werden, weil es ja sein könnte dass überall die Patches aus dem Boden Sprießen.:redface:
Frag mich nur warum das ein Argument dafür sein soll in 1080p Tests zu fahren, die zeigen dann deine erwarteten Verbesserungen ja gar nicht.:D

Also was willst du mir mit deinem Beitrag nun sagen? Dass AMD den Launch viel zu früh über die Bühne gebracht hat? Ja das trifft wohl zu, dafür können aber die Tester nichts.
Um die werden wegen ein paar Querulanten die das nicht einsehen wollen, sicher nicht im GPU Limit testen um AMD sinnlos zu bevorteilen, oder zu benachteiligen. (Je nach Ergebnis, schau mal Mafia III CPU Benchmarks)
Ist AMD mit Ryzen + dann auch in Spielen vor Intel (was gar nicht mal so unwahrscheinlich ist) werden die paar %, die sinnvolles Testen nicht wollen, dann komischerweise zurückrudern und Benchmarks in 720p fordern, weil dann sieht man ja nicht sogut, dass AMD voll abgeht mit potenziell schnellerer GPU.:rolleyes:

Der_Korken
2017-03-30, 19:39:05
Fakten scheinen dich nicht zu interressieren.

Ich hab gerade einen Gegentest in 320x200 gemacht :

A 6000+ gegen Ryzen 7 1700 , Quake 2
Und siehe da: Der A 6000+ kommt noch sehr gut in "Schlagdistanz" an den Ryzen 7 :eek:
(Der fairnesshalber Compiliert mit nur X86-code ! nur Singlecore nur Vga (320*200)
SSE und CO konnte man ja zu Quakezeirten nicht Vorhersehen)

Und da kaufen sich die ganzen Idioten einen Ryzen wo doch der A6400+ so abgeht :D:biggrin:
Wenn man das doch nur vorher gewusst hätte :rolleyes:

Das besagt in diesem Fall, das der A 6000+ noch genug Reserven hat !:redface::tongue:
Zukünftige "Entwicklungen" können nicht vorher gesagt werden !

Deine 720p sind für den Popo.Den mit Patches für die neue Architektur ist da noch einiges möglich (Bei Quake :wink:). Die 720p Test zeigen nur den Momentanen Maxwert der auf der Software basiert


PS: Ich hab ein Wenig;) Übertrieben , aber das Konzept müsste jetzt sogar DIR klarwerden.
Die 720p sind nicht unbedingt die "Vollauslastung".

Ich übertreibe jetzt mal in den entgegengesetze Richtung, damit mal klar wird, was Schaffe hier die ganze Zeit versucht euch zu erklären.

http://media.bestofmicro.com/ext/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9EL0QvNjU2MjU3L29yaWdpbmFsL2ltYWdlMDQ3LnBu Zw==/r_600x450.png

Ich hab gerade einen Gegentest in 2560x1440 gemacht :

FX8350 gegen 7700K , Metro Last Light
Und siehe da: Der FX8350 kommt noch sehr gut in "Schlagdistanz" an den i7 :eek:

Und da kaufen sich die ganzen Idioten einen 7700K wo doch der FX8350 so abgeht und nur 1fps langsamer ist :D:biggrin: OC bringt beim 7700K auch nichts, weil er mit 3,8 und 4,5Ghz gleichschnell ist.

Wenn man das doch nur vorher gewusst hätte :rolleyes:

Das besagt in diesem Fall, das der FX8350 noch genug Reserven hat !:redface::tongue:
Zukünftige "Entwicklungen" können nicht vorher gesagt werden !

/sarkasm

Ersetze jetzt 1440p durch 1080p und stell dir das Diagramm vielleicht nicht so komplett abgeschnitten vor, aber zumindest so, dass die Unterschiede zwischen CPUs viel kleiner sind als der tatsächliche Leistungsunterschied. Die ganze Sache mit der Zukunftsvorhersage ist doch bullshit: Keiner kann die Zukunft vorhersagen und es besteht immer die Möglichkeit, dass ein heutiger 720p ein völlig falsches Bild abliefert im Bezug auf zukünftige Spiele. Das gleiche Problem hat der 1080p aber auch (und wer das Gegenteil behauptet möge bitte ein stichhaltiges Argument dafür liefern), nur dass 1080p zusätzlich noch das Problem hat, dass er durch die GPU verzerrt sein könnte.

Auch dieses rumgereite auf "praxisrelevant" ist doch völlig daneben. Da zitiere ich mich mal selbst:


Der Punkt ist: Das was hier als "praxisrelevant" getestet wird, darf auch gerne weiterhin getestet werden, aber man sollte die Schlüsse daraus kritisch hinterfragen. Wenn man ein Spiel bencht, wo alle CPUs gleich schnell sind, dann sieht das für einen technischen Laien so aus, als wären die CPUs an sich alle gleichschnell. Das ist aber falsch, sie sind nur in Kombination mit dieser einen speziellen im Test verwendeten Karte in dieser einen speziellen im Test verwendeten Auflösung gleich schnell. Wem das als Aussage reicht und sich dann die billigste der "gleichschnellen" CPUs kauft, soll ja seinen Frieden haben. Aber es ist mitnichten so, dass solche Tests der Weisheit letzter Schluss sind. Tests in kleiner Auflösung sind deshalb so wertvoll, weil sie eine absolute Aussage ermöglichen, die weder von verwendeter Graka noch von verwendeter Auflösung abhängt: Nämlich welche CPU in welchem Spiel wieviel fps liefern kann (wenn die Graka schnell genug ist).

Natürlich hängt alles von der Software ab, aber das Problem hat doch jeder Test, insbesondere der in 1080p auch, oder nicht? Soll man jetzt, nur weil man für die 720p nicht 100%-ig garantieren kann, dass sich zukünftige Engines auch exakt so verhalten, die Tests so konstruieren, dass sie von vornherein keine brauchbare Erkenntnis liefern können? Sprich: Im GPU-Limit testen? Die Low-Res-Tests sind der Versuch die absolute Performance einer CPU zu testen, bei der das Ergebnis nicht von der verwendeten Graka abhängt und das macht sie imho so wertvoll.

Schnoesel
2017-03-30, 19:46:05
Keiner kann die Zukunft vorhersagen und es besteht immer die Möglichkeit, dass ein heutiger 720p ein völlig falsches Bild abliefert im Bezug auf zukünftige Spiele

Das wird er ziemlich sicher. Kein! Test ist in der Lage ein zuverlässige Prognose abzugeben weder 4K Benches noch Benches auf 720p. Keiner davon also verabschiedet euch doch einfach von dem Gedanken und nehmt die Werte was sie sind. Bloße Werte ohne Aussagekraft im Bezug auf zukünftige Performance.

Der_Korken
2017-03-30, 19:59:10
Das wird er ziemlich sicher. Kein! Test ist in der Lage ein zuverlässige Prognose abzugeben weder 4K Benches noch Benches auf 720p. Keiner davon also verabschiedet euch doch einfach von dem Gedanken und nehmt die Werte was sie sind. Bloße Werte ohne Aussagekraft im Bezug auf zukünftige Performance.

Wieso ziemlich sicher? Woher willst du das wissen? Ich habe lediglich die Möglichkeit offen gelassen, aber da sich zukünftiger Code von heutigem nicht fundamental unterscheiden wird, werden auch die Kräfteverhältnisse sich in Zukunft nicht stark verschieben - von Ausreißern vielleicht abgesehen. Wenn man aber so nihilstisch an das Thema rangeht, d.h. die Tests von heute sind morgen völlig wertlos, dann würde auch jedes Argument wegfallen, dass die Ryzen CPUs durch die höhere Kernzahl für die Zukunft besser aufgestellt sind.

Schaffe89
2017-03-30, 20:08:51
http://www.pcgameshardware.de/Ryzen-7-1800X-CPU-265804/Specials/AMD-AotS-Patch-Test-Benchmark-1224503/

Extreme Differenz zwischen Integrierten Benchmark und Savegame. Im Savegame hat der Ryzen keinerlei Chancen. Soviel hat die Optimierung dann wohl doch nicht gebracht.
Wahrscheinlich ein integrated-benchmark-blender, leider. :( Aber bisschen was hatts gebracht.

Der Benchmark verunsichert mich jetzt. Wie can Ryzen nur so sucken im Real-Ingame?

https://abload.de/img/wdwdwfvya5.png

blaidd
2017-03-30, 20:09:16
Ich will mich eigentlich aus der Diskussion möglichst raushalten (gibt bestimmt in nicht allzu ferner Zukunft mal wieder was diskussionsfreudiges von mir ;) )... Aber mal aus etwas distanzierter Perspektive: Schaut euch doch einfach mal an, mit was man sich alles als Tester so rumschlagen muss. Da hat man grade ein hübsches Szenario, das befriedigende Werte ausspuckt, will es sich nochmal in einer anderen Situation ansehen, um es zu bestätigen, und schwupps, bricht das ganze Gebilde in sich zusammen. (http://www.pcgameshardware.de/Ryzen-7-1800X-CPU-265804/Specials/AMD-AotS-Patch-Test-Benchmark-1224503/)

Ein Punkt der ganzen Diskussion ist auf jeden Fall valide: Man kann nicht nur einer einzelnen Betrachtungsweise Glauben schenken, dafür sind Hardware aber auch Software und dann nochmals deren Zusammenarbeit viel zu komplex.

Wir geben uns aber auch viel Mühe, genau das nicht zu tun, sondern Hardware und Software von verschiedenen Seiten zu beleuchten, denn dann findet man Auffälligkeiten. Manchmal mag das so aussehen, als würden wir ein Produkt mit Absicht "schlechttesten", aber das ist nicht unsere Absicht – die wäre, ein Produkt objektiv zu testen, dass heißt, sowohl nach Stärken als auch Schwächen zu suchen und in einen Test einfließen zu lassen.

Btw.: Mal wieder ein Beispiel, dass man auf integrierte Benchmarks nicht allzu viel setzen sollte – diese Teile sind einfach viel zu leicht zu optimieren/manipulieren. Hat eigentlich mal jemand anders gecheckt, ob die Benchmark-Werte überhaupt realistisch sind? Wäre jedenfalls an mir vorbeigegangen... [EDIT2:] Vielleicht noch zur Verständigung: Der integrierte Benchmark ist dabei nicht "falsch", das sind nur keine realistischen Werte. UND dann kann so ein Teil natürlich auch noch darauf ausgelegt/optimiert werden, ein bestimmtes Lastszenario zu liefern und Treiber/Hardware-Optimierungen nochmals darauf, in solch einem Szenario möglichst gute Werte zu liefern – notfalls nochmals per (eventuell kurzfristigem) Hardware-Boost beschleunigt. ;)

[EDIT: Ninja'd by Schaffe]

Schnoesel
2017-03-30, 20:12:14
Wenn man glaubt dass sich die Spieleengines nicht weiterentwickeln, dann kann man wohl davon ausgehen. Nur das glaube ich nicht.

Ich sehe folgendes:
- Die Konsolen nutzen eine relative schwache 8 Kern CPU. Es hat etwas gedauert bis Spieleentwickler ihre Engines angepasst haben aber die neuen Engines sind klare Vorboten. Logischweise sind es bisher meist die Engines hinter denen auch recht viel Geld steckt, denn neue Technologien sind anfangs immer teuer.
- Ich sehe nicht, dass sich die IPC in den letzten Jahren enorm gesteigert hat.
- Ich sehe nicht, dass sich der CPU Takt noch viel weiter steigern lässt.
- 4 Kerner, die nur 8 4 Threads beherrschen sind sind Stand heute teilweise schon abgeschlagen.

Das größte (und günstigste) Potential liegt nun mal darin die Kerne zu nutzen. In welchen Zeitraum wir uns hier bewegen, ja darüber kann man streiten, aber langfristig führt an Kernanzahl nichts vorbei. Das wird auch für Intel gelten, auch die kochen nur mit Wasser.

Schaffe89
2017-03-30, 20:13:02
Wir geben uns aber auch viel Mühe, genau das nicht zu tun, sondern Hardware und Software von verschiedenen Seiten zu beleuchten, denn dann findet man Auffälligkeiten. Manchmal mag das so aussehen, als würden wir ein Produkt mit Absicht "schlechttesten", aber das ist nicht unsere Absicht – die wäre, ein Produkt objektiv zu testen, das heißt, sowohl nach Stärken als auch Schwächen zu suchen und in einen Test einfließen zu lassen.

Niemand wünscht AMD hier etwas schlechtes, auch nicht diejeniegen die CPU Tests im CPU Limit fordern, ihr schreibt es gut erklärend unter den aktuellen Test.
Genausowenig testet jemand um AMD schlecht aussehen zu lassen. Diese Vorwürfe sind uralt und immer kommen sie wieder auf, obwohl da schon bis zum Erbrechen diskutiert und ausreichend anschaulich verlickert wurde.

Zitat:

"Wie immer gilt: Wir testen CPUs in 720p (oder hier 768p), um die Grafikkarte als limitierenden Faktor möglichst auszuschließen. Die CPU nimmt ihre Berechnungen unabhängig von der Auflösung vor, sodass die Ergebnisse nicht verfälscht werden. Das eingesetzte "Crazy"-Preset erzeugt die höchste CPU-Last, Kantenglättung und "kosmetische Effekte" als GPU-lastige Optionen haben wir deaktiviert. "

Damit kann man das Thema auch mal ruhen lassen.

Der_Korken
2017-03-30, 20:18:19
http://www.pcgameshardware.de/Ryzen-7-1800X-CPU-265804/Specials/AMD-AotS-Patch-Test-Benchmark-1224503/

Extreme Differenz zwischen Integrierten Benchmark und Savegame. Im Savegame hat der Ryzen keinerlei Chancen. Soviel hat die Optimierung dann wohl doch nicht gebracht.
Wahrscheinlich ein integrated-benchmark-blender, leider. :( Aber bisschen was hatts gebracht.[/URL]

Schade :(. Das wird irgendwie immer verrückter mit manchen Benches: Jetzt ist der integrierte Benchmark auf dem 1800X schneller als auf dem 7700K, aber ingame ist er dann nur noch gut halb so schnell. Das gleiche gab es auch schon bei RoTR, wo Intel durch DX12 10% gewinnt und AMD 30% verliert. Das ergibt für mich keinen Sinn, jedenfalls nicht aus Hardware-Sicht.

vinacis_vivids
2017-03-30, 20:22:42
Schade :(. Das wird irgendwie immer verrückter mit manchen Benches: Jetzt ist der integrierte Benchmark auf dem 1800X schneller als auf dem 7700K, aber ingame ist er dann nur noch gut halb so schnell. Das gleiche gab es auch schon bei RoTR, wo Intel durch DX12 10% gewinnt und AMD 30% verliert. Das ergibt für mich keinen Sinn, jedenfalls nicht aus Hardware-Sicht.

Warum keine AMD Karte?

y33H@
2017-03-30, 20:24:50
Hat eigentlich mal jemand anders gecheckt, ob die Benchmark-Werte überhaupt realistisch sind? Wäre jedenfalls an mir vorbeigegangen.Also bei mir ist auch im CPU-Bench der 7700K weiterhin vor dem 1800X, gleiches gilt für ein Late Game Save.

Schaffe89
2017-03-30, 20:26:14
Das gleiche gab es auch schon bei RoTR, wo Intel durch DX12 10% gewinnt und AMD 30% verliert. Das ergibt für mich keinen Sinn, jedenfalls nicht aus Hardware-Sicht.

Leider ergibt das Sinn, ich vermute mal es ist ähnlich wie bei Crysis 3. Dort gab es ein Graslevel das von vielen Threads profitierte und Kampfszenen dann selbst einen ollen i3 vor dem FX8350 sahen.
Auch wenn der Ryzen in Games nicht soo flott ist, muss da aber trotzdem was nicht ganz stimmen. So groß sollte der Rückstand imho nicht sein, ist ja fast wie Star Craft II.

Es zeigt aber zumindest eines: Integrierte Benchmarks sind fürn Poppes.
Evtl. haben die Entwickler auch nur besonders auf den integrierten Benchmark optimiert?!

Warum keine AMD Karte?

Siehe:

http://extreme.pcgameshardware.de/news-kommentare-zu-cpus/472787-ashes-singularity-bringt-der-amd-ryzen-patch-spiel-vs-integrierter-benchmark.html#post8775019

"Morgen kommen wahrscheinlich noch Ergebnisse mit einer Radeon. Da sieht es nicht besser aus. "

Linmoum
2017-03-30, 20:33:10
Extreme Differenz zwischen Integrierten Benchmark und Savegame. Im Savegame hat der Ryzen keinerlei Chancen. Soviel hat die Optimierung dann wohl doch nicht gebracht.
Wahrscheinlich ein integrated-benchmark-blender, leider. :( Aber bisschen was hatts gebracht.
Also halten wir fest: Wenige Wochen nach dem Launch bringt Oxide ein Update heraus, das Ryzen durch Optimierungen seitens des Entwicklers eine um bis zu +20% höhere Performance beschert - auch ingame und nicht nur im erwähnten integrierten Benchmark.

"So viel hat die Optimierung dann wohl nicht gebracht". :facepalm: Bei sowas fragt man sich jedes Mal, was so ein offensichtlicher Humbug eigentlich soll.

Menace
2017-03-30, 20:40:59
Niemand wünscht AMD hier etwas schlechtes, auch nicht diejeniegen die CPU Tests im CPU Limit fordern, ihr schreibt es gut erklärend unter den aktuellen Test.


;D Der war gut.

Ich hoffe, dass AMD und Oxid sich jetzt nicht zurücklehnen, da ja der "Benchmark" ausreichend gut ist. Hat AMD dazu etwas gesagt?

Screemer
2017-03-30, 20:45:48
http://www.pcgameshardware.de/Ryzen-7-1800X-CPU-265804/Specials/AMD-AotS-Patch-Test-Benchmark-1224503/

Extreme Differenz zwischen Integrierten Benchmark und Savegame. Im Savegame hat der Ryzen keinerlei Chancen. Soviel hat die Optimierung dann wohl doch nicht gebracht.
Wahrscheinlich ein integrated-benchmark-blender, leider. :( Aber bisschen was hatts gebracht.

Der Benchmark verunsichert mich jetzt. Wie can Ryzen nur so sucken im Real-Ingame?

https://abload.de/img/wdwdwfvya5.png
das ist doch komplett fucked up. da sind die intels im savegame exakt 100% schneller als im bench und die amds grad mal 15%. irgendwas ist faul im staate dänemark und damit mein ich nicht die räumlichkeiten in fürth.

Der_Korken
2017-03-30, 20:47:39
Leider ergibt das Sinn, ich vermute mal es ist ähnlich wie bei Crysis 3. Dort gab es ein Graslevel das von vielen Threads profitierte und Kampfszenen dann selbst einen ollen i3 vor dem FX8350 sahen.
Auch wenn der Ryzen in Games nicht soo flott ist, muss da aber trotzdem was nicht ganz stimmen. So groß sollte der Rückstand imho nicht sein, ist ja fast wie Star Craft II.

Wenn Achtkerner durch DX12 gegenüber Vierkernern so stark zurückfallen wie das im genannten Beispiel der Fall ist, dann müsste man DX12 an sich als Zukunftstechnologie hinterfragen. Allerdings profitieren auch Intels Achtkerner durch DX12, daran kann es also nicht liegen.

Und zum Thema SC2: Bei derart niedrigen fps wie der PCGH-Szene vermute ich einfach, dass die Engine am Ende ist. Bei Warcraft 3 (ebenfalls von Blizzard) war es ähnlich, dass man mit überladenenen Szenen jede CPU klein gekriegt hat. Auch ein IPC-Monster wie damals den Core 2, der 5 Jahre neuer als die Engine war. Genauso kriegt man z.B. mit Minecraft jede CPU klein, weil es 100% single-threaded ist und noch dazu ziemlich bescheiden optimiert. Solche Tests sind natürlich schon irgendwo interessant, weil man vielleicht wissen möchte, ob man mit der neuen CPU irgendwelche Verbesserungen bei Schrott-Engines bekommt, die nie gescheit liefen. Ich würde mich aber bei Ryzen nicht an sowas aufhängen.

G3cko
2017-03-30, 20:49:49
Natürlich sind 720p Benchmarks wichtig. Das Problem ist nur, je älter die Benchmarks bzw die Engine ist, desto geringer ist die Aussagekraft dieser Benchmarks nunmal um eine Prognose für die Zukunft zu ziehen. Spiele werden nun mal für eine Zielperformance entwickelt. Nicht selten gibt es daher auch das Böse Wort "Grafikdowngrade".

Die Kunst ist es eben aus den Benchmarks die richtigen Schlüsse zu ziehen. Und das ist bei vielen Testern leider nicht der Fall.

Eine Software gegen eine "Wand" zu Fahren ist kinderleicht, aber es hilft ja nichts. Alle Kunden kämpfen dann mit dem gleichen Problem. Daher sind 3,5Ghz genug für aktuelle und ich behaupte auch mal zukünftige Games. Sicherlich gibt es Ausreißer aber die gab es immer schon.

Wer erinnert sich noch an den 3DMark2001 da hat man selbst mit einer GTX970 noch "Einbrüche" auf 500fps wärend andere Teile teilweise mit mehren tausend fps laufen. Selbst ein C&C AR2 hakt bei großen Explosionen auf einem Q6600@3,6Hz obwohl die Mindestanforderungen mal bei Pentium II 266Mhz lagen!

Es ist daher lächlich sich an 4-7 Jahre alten Kammeln aufzuziehen und daraus die Anforderungen für die Zukunft abzuleiten. Ich würde mich immer an der Hardware orientieren und nicht an der Software. Die Software muss sich nämlich zwangsläufig an der Hardwareorientieren. Nie umgekehrt.

Nehmen wir mal ein aktuelles Beispiel. Vor 1-2 Jahren hätte Niemand gesagt, "Hey für ein High-End-Game in 2 Jahren reicht eine CPU mit 2 GHz vollkommen aus." Heute ist das bereits der Fall vorrausgesetzt man hat genug Cores. Ein Umdenken bei den Entwicklern hat also schon lange stattgefunden. Nur der Dau hält noch die Takt-Fahne hoch.

http://www.pcgameshardware.de/Tom-Clancyxs-Ghost-Recon-Wildlands-Spiel-55716/Specials/Benchmark-Test-Review-1222520/

Wer weiß vielleicht wird die Skalierung und low-level-Umsetztung so gut, dass ich doch noch auf einen 2699v4 auf dem gleichen Board upgrade in ein paar Jahren. Immerhin 2 Fache Leistung und im Turbo bis rauf auf solide 3,6Ghz. Natürlich nicht all Core. Aber egal. ;)

Ich finde es auch lustig, dass viele von den deutlich besseren Frametimes von Ryzen oder einer 6-10 Core Intel CPu überrascht sind. Mal einen Rückblick zu SingleCore-Zeiten. Wie war das noch mal. Irgend eine Anwendung hängt und man konnte ersteinmal Kaffee trinken gehen, in der Hoffung, dass sich noch was tut oder eben doch nur ein Reset möglich ist. Mit Hyperthreading in den Pentium 4 CPUs war das annähernd Geschichte.
Heute haben wir ein ähnliches Problem. Ein 6600k ist in BF1 bis zum Anschlag ausgereizt. Da bleiben keine CPU-Reserven mehr übrig um Hintergrundprozesse oder kritische Spieleprozesse sauber dazwischen zu schieben. Die Pipeline ist schlicht voll und es kommt zu störenden Hängern trotz teilweise hoher fps.

Eine Besserung bringt Hyperthreading klar, aber das ist jetzt auch kein großer Sprung und nicht jede Anwendung skaliert mit HT. F1 2016 zB will davon garnichts wissen und bevorzugt lieber echte Cores. Auch Takt ab einem gewissen Punkt ist diesem Game komplett egal.

Auch finde ich es lustig wie man immer auf dem CCX Ansatz rumreitet. Meiner Meinung hat da AMD was richtig richtig richtig gutes zusammen geschustert. Klar ist der Ringbus aktuell noch im Vorteil, aber was passiert denn wenn:
- die CPUs immer mehr Kerne haben und AMD deutlich weniger Fläche für die Kommunikation ausgeben muss, da man immer 4 Kerne clustert und lediglich die Cluster verbindet.
- wenn AMD an Komplexität der Designs sparen kann. Intel hat bei den großen DIEs teils mehere aufwändige gegenläufige Ringbussysteme.
- wenn AMD die gesparte Zeit in die Weiterentwicklung eben primär sochler Cluster stecken kann anstatt für ganze komplette Designs
- wenn statt langsamen DDR4 plötzlich schneller DDR4, DDR5 oder HBM zur Verfügung steht
- wenn Entwickler anfangen sich auf das Design einzuschießen und die deutlich niedrigen Latenzen innerhalb eines Clusters nutzen und eben Umwege komplett sparen. Ich meine Ryzen wird 100% in der Scorpio und kommenden Konsolen sitzen. Der PC spielt bekanntlich keine Rolle bei der Entwicklung.


Wenn ich eine CPU auswähle dann immer nach folgenden Kriterien:
Takt, IPC und Kerne
Jedes dieser Kriterien versuche ich möglichst hoch zu halten. Daher war damals der 5960x@4,5Ghz auch so verlockend. Gold richtig würde ich sagen.

Zukünftig wird hier noch ein viertes wichtiges Kriterium dazu kommen. Nämlich ein deutlich größerer L4-Cache. Einen Ausblick hat ja Bereits der 5775C gegeben. Mit HBM wirds dann nochmal richtig spannend.

fondness
2017-03-30, 20:50:04
http://www.pcgameshardware.de/Ryzen-7-1800X-CPU-265804/Specials/AMD-AotS-Patch-Test-Benchmark-1224503/

Extreme Differenz zwischen Integrierten Benchmark und Savegame. Im Savegame hat der Ryzen keinerlei Chancen. Soviel hat die Optimierung dann wohl doch nicht gebracht.
Wahrscheinlich ein integrated-benchmark-blender, leider. :( Aber bisschen was hatts gebracht.

Der Benchmark verunsichert mich jetzt. Wie can Ryzen nur so sucken im Real-Ingame?

https://abload.de/img/wdwdwfvya5.png

Ich finde den Titel extrem tendenziös. PCGH hat offenbar mal wieder eine Stelle gefunden, wo AMD suckt. Das heißt aber nicht, dass das für das gesamte Spiel zutrifft. Wenn ich mich recht erinnere hat y33H@ weiter hinten den integrierten Bench auch im Spiel nachstellen können.

dildo4u
2017-03-30, 20:51:47
Kein Plan was daran verwunderlich ist Oxide hat selber gesagt,das sie Ryzen erst mit der nästen Engine Version richtig nutzen können,weil sie dort keine Rücksicht mehr auf DX11 nehmen.

Schaffe89
2017-03-30, 20:52:51
Also halten wir fest: Wenige Wochen nach dem Launch bringt Oxide ein Update heraus, das Ryzen durch Optimierungen seitens des Entwicklers eine um bis zu +20% höhere Performance beschert - auch ingame und nicht nur im erwähnten integrierten Benchmark.

11% im Brazil Savegame sind doch gar nicht so viel?:confused: Wen zum Henker interessiert der integrierte Benchmark?
Schau dir doch im Vergleich mal die Intel Werte an.

54% schneller bei den AVG FPS und 3mal so hohe 1% Percentil Werte.
Wenn du das im Verhältnis siehst, hat das Ingame nicht viel gebracht, sry, das ist völlig neutral.

PCGH kann nix für die maue Leistung in dem Spiel und ich kann auch nix dafür.
Also hate doch wen anders.:wink:

Man kann nur hoffen dass da Ingame noch mehr geht. Eventuell ja durch schnelleren Ram oder weitere Patches.

Schaffe89
2017-03-30, 20:57:04
Ich finde den Titel extrem tendenziös. PCGH hat offenbar mal wieder eine Stelle gefunden, wo AMD suckt.

Ich wäre dafür diesen bescheuerten Blödsinn endlich mal stecken zu lassen.:P

Raff
2017-03-30, 20:57:04
Ich finde den Titel extrem tendenziös. PCGH hat offenbar mal wieder eine Stelle gefunden, wo AMD suckt. Das heißt aber nicht, dass das für das gesamte Spiel zutrifft. Wenn ich mich recht erinnere hat y33H@ weiter hinten den integrierten Bench auch im Spiel nachstellen können.

Das Savegame enstand auf (m)einem i7-5820K, der beim Spielen sicht- und fühlbar am Keuchen war. PCGH hat also nicht "mal wieder etwas gefunden, wo AMD suckt", sondern einfach nur, mal wieder, ein hartes Save erstellt. Niemanden interessiert, ob das Tutorial mit fünf Einheiten mit 100 oder 120 Fps läuft, oder? :)

Ich wäre dafür diesen bescheuerten Blödsinn endlich mal stecken zu lassen.:P

+1

Menschen brauchen ein Feindbild. Ich hätte ja viele Vorschläge, aber lass sie nur machen. Bringt Klicks. :tongue:

MfG,
Raff

Mika2016
2017-03-30, 21:03:13
20% mehr für den Ryzen:

https://www.golem.de/news/ashes-of-the-singularity-patch-beschleunigt-ryzen-chips-um-20-prozent-1703-127045.html

es passiert also was

dildo4u
2017-03-30, 21:03:53
Die PCGH FPS sind nix unnormales siehe den CPU Bench.


https://youtu.be/9ZLfJcHEMog

dargo
2017-03-30, 21:12:13
http://www.pcgameshardware.de/Ryzen-7-1800X-CPU-265804/Specials/AMD-AotS-Patch-Test-Benchmark-1224503/

Extreme Differenz zwischen Integrierten Benchmark und Savegame. Im Savegame hat der Ryzen keinerlei Chancen. Soviel hat die Optimierung dann wohl doch nicht gebracht.
Wahrscheinlich ein integrated-benchmark-blender, leider. :( Aber bisschen was hatts gebracht.

Der Benchmark verunsichert mich jetzt. Wie can Ryzen nur so sucken im Real-Ingame?

https://abload.de/img/wdwdwfvya5.png
So langsam blicke ich bei der PCGH überhaupt nicht mehr durch. i7-7700K bei den min.fps um Faktor 3 schneller als R7 1800X? Ja nee ist klar. :crazy: Ich frage mich langsam was bei denen im System kaputt ist?

Der Test drunter ist auch geil. Im CPU-Benchmark legt Ryzen 12% zu, im GPU-Benchmark 22%. WTF? Zudem in beiden Tests vor dem i7-7700K. WTF²?

Raff
2017-03-30, 21:16:53
So langsam blicke ich bei der PCGH überhaupt nicht mehr durch. i7-7700K bei den min.fps um Faktor 3 schneller als R7 1800X? Ja nee ist klar. :crazy: Ich frage mich langsam was bei denen im System kaputt ist?

Der Test drunter ist auch geil. Im CPU-Benchmark legt Ryzen 12% zu, im GPU-Benchmark 22%. WTF? Zudem in beiden Tests vor dem i7-7700K. WTF²?

Bei genauerem Hinsehen passt das zusammen. Der Patch hilft anscheinend stärker,, wenn nicht unzählige Einheiten herumwuseln. Im CPU-lastigen integrierten Benchmark (es gibt auch einen GPU-lastigen) und vor allem beim Savegame ist das jedoch der Fall. Das ist kontra-intuitiv, aber vermutlich lassen sich im Falle eines "Overkills" nicht alle Dinge so gut paralleisieren, wie man das als Laie denkt.

Davon ab: Das sind mehrere Testsysteme. Sehen Werte kaputt aus, werden die vor Publizierung nachgeprüft. Laufen alle Systeme so, ist das nun mal so,

MfG,
Raff

dargo
2017-03-30, 21:21:43
Du willst mir ernsthaft erzählen, dass der R7 1800X in Szene X auf 21fps zurück fällt während der i7-7700K dort 63fps liefert? Sorry, aber das glaubt doch kein Mensch. Da ist ja Bulldozer schneller. X-D

Dino-Fossil
2017-03-30, 21:21:53
Bei genauerem Hinsehen passt das zusammen. Der Patch hilft anscheinend stärker,, wenn nicht unzählige Einheiten herumwuseln. Im CPU-lastigen integrierten Benchmark (es gibt auch einen GPU-lastigen) und vor allem beim Savegame ist das jedoch der Fall. Das ist kontra-intuitiv, aber vermutlich lassen sich im Falle eines "Overkills" nicht alle Dinge so gut paralleisieren, wie man das als Laie denkt.


Hmm, dann müsste die singlethreaded Leistung von Ryzen ggü. dem 7700K aber viel schlechter sein, als sie ist (sie ist ja alleine schon durch den Taktratenunterschied geringer, aber kann das so viel ausmachen?). Sähen wir da 50-75% mehr, ok. Wäre immer noch etwas viel, aber was solls. Aber das 3-fache?

http://www.relatably.com/m/img/skeptical-memes/skeptical.jpeg

Entweder läuft Ryzen bei euch nicht rund, oder es liegt immer noch ein grundlegendes Problem mit AotS vor.

Raff
2017-03-30, 21:28:14
Hmm, dann müsste die singlethreaded Leistung von Ryzen ggü. dem 7700K aber viel schlechter sein, als sie ist (sie ist ja alleine schon durch den Taktratenunterschied geringer, aber kann das so viel ausmachen?). Sähen wir da 50-75% mehr, ok. Aber das 3-fache?

http://www.relatably.com/m/img/skeptical-memes/skeptical.jpeg

Entweder läuft Ryzen bei euch nicht rund, oder es liegt immer noch ein grundlegendes Problem mit AotS vor.

Das sieht definitiv kaputt aus. Nun sieht im integrierten Benchmark aber alles normal aus. Das spricht dafür, dass alles normal ist.

Wir haben nicht nur einen Ryzen-Rechner herumstehen, sondern derzeit drei Systeme. Zwei davon haben heute, voneinander unabhängig, AotS gerendert. Das einzige, was gleich ist, ist das Mainboard (Asus Crosshair 6 Hero), allerdings mit unterschiedlichen UEFIs und anderem RAM.

Ich kann das Savegame gerne morgen hochladen und wir benchen das Spiel zusammen rauf und runter. Hier im Bench-Unterforum. Aber wie viele Leute besitzen AotS hier? Die GoG-Version sollte save-kompatibel sein, aber bei dem Spiel weiß man nie. ;)

MfG,
Raff

Tarkin
2017-03-30, 21:31:36
das ist doch komplett fucked up. da sind die intels im savegame exakt 100% schneller als im bench und die amds grad mal 15%. irgendwas ist faul im staate dänemark und damit mein ich nicht die räumlichkeiten in fürth.

ganz einfache Erklärung, irgend ein Programmierer bei Oxid hats offenbar ganz gewaltig verbockt und einen üblen Bug eingebaut - die einfachste Erklärung ist meistens auch die zutreffende (https://de.wikipedia.org/wiki/Ockhams_Rasiermesser) :freak:

Dino-Fossil
2017-03-30, 21:36:08
Das sieht definitiv kaputt aus. Nun sieht im integrierten Benchmark aber alles normal aus. Das spricht dafür, dass alles normal ist.

Also ich würde die erheblichen Abweichungen zwischen den beiden Szenarien ja gerade als annormal werten, aber gut...

Naja, warten wir mal ab, ich denke eher da muss Oxide wohl weiterhin nachbessern.

TwoBeers
2017-03-30, 21:36:53
Bei genauerem Hinsehen passt das zusammen. Der Patch hilft anscheinend stärker,, wenn nicht unzählige Einheiten herumwuseln

vs.

Unsere Messwerte mit einem R7 1800X samt 16 GByte DDR4-2667 und einer Geforce GTX 1080 zeigen, dass das Update einen Leistungszuwachs von bis zu 20 Prozent bringt. Erreicht wird der aber einzig im integrierten CPU-Benchmark oder bei Schlachten mit Massen an Einheiten, was einzig im Late Game auftritt.

https://www.golem.de/news/ashes-of-the-singularity-patch-beschleunigt-ryzen-chips-um-20-prozent-1703-127045.html

Round one .. fight! :D

Mal ehrlich, irgendwas is an den Testmechanismen für Ryzen kaputt. Aber was genau, weiß ich leider auch nicht. ;)

Raff
2017-03-30, 21:39:04
Also ich würde die erheblichen Abweichungen zwischen den beiden Szenarien ja gerade als annormal werten, aber gut...

Naja, warten wir mal ab, ich denke eher da muss Oxide wohl weiterhin nachbessern.

"Normal" im Sinne von: Die Ryzen-Performance ist nicht immer schlecht, also läuft grundsätzlich alles so, wie's soll. :) Da kann alles Mögliche sein, etwa ausbleibendes Hochtakten, weil das UEFI das nicht für nötig hält, Mega-Lags beim Umschalten zwischen den Powerstates, etc. Gab's alles schon in irgendeiner Form (nicht bei Ryzen).

Die 19-20 Min-Fps beim Savegame kann ich anhand meines 1700er-Testsystems bestätigen. Morgen ist mal der 6800K @ 4,4 GHz dran, um sicherzugehen.

MfG,
Raff

Screemer
2017-03-30, 21:39:52
lad das ding mal hoch. wird sich schon der ein oder andere finden, der ashes und nen ryzen hat. hoffentlich ;)

dargo
2017-03-30, 21:39:54
Mit welchem Mainboard testet eigentlich Golem?

Schaffe89
2017-03-30, 21:55:37
Also ich würde die erheblichen Abweichungen zwischen den beiden Szenarien ja gerade als annormal werten, aber gut..

Also dass so ein integrierter Benchmark "Fake" ist, das gabs schon x mal.
Wäre nicht zum ersten mal dass Spiele unter hoher CPU Last überpropotional auf mehr Ramtakt/CPU Takt, Latenzen usw. reagieren. Das hatte man schon bei Anno 1404 damals, bei Star Craft II auch und wahrscheinlich auch in x anderen Titeln unter heavy CPU load so. Im zweifel muss man genau so testen, vor allem Strategiespiele.
In Attila ist Ryzen bei einem fetten Savegame auch ziemlich langsam, ähnlich langsam wie ein Ashes of the Singularity.

StefanV
2017-03-30, 21:56:18
Ich finde es einfach nur traurig, wie nichtssagend die Tests sind.
Ja, traurig, dass nur bei bestimmten Herstellern alle Register gezogen werden und die "ordentlich durchgetestet" werden...

Schade :(

Und da muss man dann auch mal akzeptieren, dass man von den Usern geflamt wird. Wenn man jetzt mit der Brechstange das versucht schönzureden, erreicht man nur eins: eine mittelprächtige Abneidung der User gegenüber dem eigenen...
Denn die fühlen sich dann verschaukelt...

Anyway:
Es wäre schön, wenn die entsprechenden Seiten auf die konstruktive Kritik reagieren würden. Und die entsprechenden Verantwortlichen aufhören würden, ihre Energie mit dem Versuch andere Leute von der eigenen Überlegenheit zu überzeugen, verschwenden würden...

dargo
2017-03-30, 21:59:27
Also dass so ein integrierter Benchmark "Fake" ist, das gabs schon x mal.

Du hast wohl die letzten Jahre unter dem Stein verbracht oder wie? Aktuelle Timedemos simulieren eine hohe CPU-Last. Vielleicht nicht alle, aber viele. Als Beispiel kannst du dir gerne den intergrierten Benchmark von F1 2015, besonders im Regen anschauen. Bei F1 2016 dürfte es nicht anders aussehen.

StefanV
2017-03-30, 22:07:58
Ist es. Ich rege mich persönlich über dieses kuriose Misstrauen gegenüber der Presse auf, vor allem bezüglich PCGH.
Ja, weil die Presse doch bei jeder Gelegenheit zeigt, wie wenig man ihr trauen kann.

Und DA nimmst du den Leuten ernsthaft übel, dass sie der Presse Misstrauen?!

Gerade die Sache mit Star Craft 2 hinterlässt doch ein äußerst übeles Geschmäckle und spornt die Verschwörungstheorien doch gerade erst an!

Das zeigt doch mal wieder, dass jegliche Kritik mehr als berechtigt ist. Und dass da einiges irgendwie seltsam ist. Denn warum sollte man gerade dieses, äußerst mies parrallelisierte Spiel aus der Mottenkiste rauskramen?!

Raff
2017-03-30, 22:15:19
Hand aufs Herz, Stefan: Nicht mal die beste Selektion an Pro-AMD-Tests würde dich bekehren, PCGH muss einfach böse sein. Zu Starcraft 2 wurde alles gesagt (u. a., dass es nicht aus der "Mottenkiste" kommt, sondern immer dabei ist, weil täglich Tausende Matches laufen).

MfG,
Raff

Dino-Fossil
2017-03-30, 22:16:36
Hand aufs Herz, Stefan: Nicht mal die beste Recherche und objektivste Berichterstattung würde dich bekehren, die Presse muss einfach böse sein.

MfG,
Raff

FTFY

y33H@
2017-03-30, 22:17:15
Es ist immer wieder eine helle Freude wenn StefanV was postet :uclap:

Screemer
2017-03-30, 22:17:21
Das zeigt doch mal wieder, dass jegliche Kritik mehr als berechtigt ist. Und dass da einiges irgendwie seltsam ist. Denn warum sollte man gerade dieses, äußerst mies parrallelisierte Spiel aus der Mottenkiste rauskramen?!
mittlerweile sollte eigentlich jeder mitbekommen haben, dass sc2 schon "immer" im cpu-ranking, mit halber gewichtung, einberechnet war. was ich halt auch nicht raffe ist warum man die benches online jetzt fast 1 jahr nicht gezeigt hat, zum ryzen-test wieder auftaucht. für mich ist die sache abgehakt. hinterließ aber einen richtig faden beigeschmack.

blaidd
2017-03-30, 22:19:28
Ich finde es auch lustig, dass viele von den deutlich besseren Frametimes von Ryzen oder einer 6-10 Core Intel CPu überrascht sind.

Das ist im Übrigen ein sehr guter Punkt, jedenfalls aus meiner Sicht. Das ist im Großen und Ganzen auf jede Engine, die ordentlich mit 4+ Kernen skaliert, übertragbar.

Diese Art Messungen habt ihr allerdings auch noch nicht so oft gesehen, im Speziellen, was Ryzen betrifft. Carsten hat ein paar davon im nächsten Heft... ;)

Raff
2017-03-30, 22:27:07
mittlerweile sollte eigentlich jeder mitbekommen haben, dass sc2 schon "immer" im cpu-ranking, mit halber gewichtung, einberechnet war. was ich halt auch nicht raffe ist warum man die benches online jetzt fast 1 jahr nicht gezeigt hat, zum ryzen-test wieder auftaucht. für mich ist die sache abgehakt. hinterließ aber einen richtig faden beigeschmack.

Ich zerstöre Verschwörungstheorien ungern - okay, eigentlich sehr gern ;) -, aber das kann man sich auch ganz normal erschließen. Denkt mal zurück. Starcraft 2 ist (mit einem fordernden Save wie dem von PCGH) ein Test gewesen, bei dem auf den Plätzen 1 bis 15 (bitte darauf nicht festnageln, evtl. auch nur 1 bis 13, oder aber 1 bis 17 :tongue: ) Intel-CPUs kamen, da das Spiel nur IPC und gefühlt 1,5 Kerne braucht. Irgendwo da unten kam dann der FX-9590, dann wieder viele Intels und diverse FXen. Das sieht übel aus und nichts vor Ryzen konnte für AMD etwas daran ändern.

Daher ist es eigentlich anders herum: Man hätte die AMD-Demütigung bei jedem Test zeigen können. Hat man aber nicht. Ist das dann nicht pro AMD, also auch böse? Oder gilt das nicht, weil's AMD ist? ;) Im Ernst: Der Benchmark wich daher Tests, wo die Werte mehr Aussagekraft haben, weil man im spielbaren Bereich Vergleiche ziehen kann. Mit Ryzen war's aber schlagartig wieder spannend: Kann der Hoffnungsträger den Killertest bestehen? Daher ist doch klar, dass die Werte wieder in den Fokus kommen. :) Der Wunsch, dass man bitte immer alle Benchmarks zeigt, ist nachvollziehbar, aber nicht unbedingt aus unserer Perspektive.

MfG,
Raff

aufkrawall
2017-03-30, 22:28:45
Ich würds mittlerweile vielleicht mal durch Diablo 3, HotS oder Overwatch (mag Multithreading) ersetzen. SC2 ist das einzige Blizzard-Spiel, das noch kein DX11 hat.

TGKlaus
2017-03-30, 22:28:57
Nicht mal die beste Selektion an Pro-AMD-Tests würde dich bekehren, PCGH muss einfach böse sein.

Das ist echt lustig das du das gerade sagst.

Schaut man sich die Launch-roundup von 3dc zu den letzten AMD Produkten (Ryzen und RX480) an, sieht man, das das AMD Produkt bei pcgh jeweils am schlechtesten von allen gelisteten Seiten (immerhin bis zu 15) abschneidet.

Also wenn AMD bei euch immer am beschiessensten überhaupt abscheidet, sind deine Aussagen einfach nur lächerlich.

Aber schon klar, alle die dazu nicht juhu schreien und die Tests (Testszenarien) mal kritisch anschauen sind ja laut dir Pöbel.

Raff
2017-03-30, 22:33:30
Ich würds mittlerweile vielleicht mal durch Diablo 3, HotS oder Overwatch (mag Multithreading) ersetzen. SC2 ist das einzige Blizzard-Spiel, das noch kein DX11 hat.

Kommt Zeit, kommt Benchmark-Refresh. Das pervers gut performende Overwatch (Kerne, SMT, GPU-Leistung, alles) ist immerhin schon seit Monaten im aktuellen Grafikkarten-Parcours (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/). :)

MfG,
Raff

M4xw0lf
2017-03-30, 22:43:48
+1

Menschen brauchen ein Feindbild. Ich hätte ja viele Vorschläge, aber lass sie nur machen. Bringt Klicks. :tongue:

MfG,
Raff
Ich weiß, die Versuchung ist groß, aber sich Unterstützung von Trollen wie Schaffe zu holen habt ihr wirklich nicht nötig. ;)

vinacis_vivids
2017-03-30, 22:58:49
Gibs hier nicht jemanden der AOTS mit einem Ryzen auch spielt?

Raff
2017-03-30, 23:08:08
Ich weiß, die Versuchung ist groß, aber sich Unterstützung von Trollen wie Schaffe zu holen habt ihr wirklich nicht nötig. ;)

Ich wollte Schaffe schon immer mal zustimmen. :)

Gibs hier nicht jemanden der AOTS mit einem Ryzen auch spielt?

Also ich mach's am Wochenende, denn dann steht der neue Ryzen-PC endlich. Hoffe ich. Gutes Wetter & RL werden's wohl wieder hinauszögern ... :ulol:

Aber das Savegame kommt.

MfG,
Raff

TGKlaus
2017-03-30, 23:08:54
Ich spiels, allerdings auf nem Intel.
Den pcgh Spielstand hätte ich trotzdem sehr gerne.


Das Savegame enstand auf (m)einem i7-5820K, der beim Spielen sicht- und fühlbar am Keuchen war. PCGH hat also nicht "mal wieder etwas gefunden, wo AMD suckt", sondern einfach nur, mal wieder, ein hartes Save erstellt. Niemanden interessiert, ob das Tutorial mit fünf Einheiten mit 100 oder 120 Fps läuft, oder? :)

Der Spielstand ist so dermaßen hart, das der i7-7700k, lt pcgh, ggü dem internen Test bei der fps um 100% zulegt.
Das würde ich mir gerne auf meiner Intel CPU anschauen.

(del)
2017-03-30, 23:10:51
Gibs hier nicht jemanden der AOTS mit einem Ryzen auch spielt?
Spielt das überhaupt jemand? ;)

Dino-Fossil
2017-03-30, 23:13:22
Der Spielstand ist so dermaßen hart, das der i7-7700k, lt pcgh, ggü dem internen Test bei der fps um 100% zulegt.
Das würde ich mir gerne auf meiner Intel CPU anschauen.

Lol. Stimmt.

Also da passt definitiv was nicht. Das sollte @Raff mal untersuchen... :freak::rolleyes:

TGKlaus
2017-03-30, 23:14:53
Das Spiel ist schon gut.
Die KI ist mal richtig gut. Nicht mit den Katastrophen ala Civ6 oder so zu vergleichen.

Die Beste KI der letzten Jahre. Allein deshalb sollte jeder der Strategiespiele mag mal reinsehen.

Screemer
2017-03-30, 23:20:54
Der Spielstand ist so dermaßen hart, das der i7-7700k, lt pcgh, ggü dem internen Test bei der fps um 100% zulegt.
Das würde ich mir gerne auf meiner Intel CPU anschauen.
darauf hatte ich auch schon hingewiesen. den umstand find ich ziemlich fishy: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11335829#post11335829

irgendwas hakt da gewaltig.

uweskw
2017-03-30, 23:22:10
Das ist echt lustig das du das gerade sagst.

Schaut man sich die Launch-roundup von 3dc zu den letzten AMD Produkten (Ryzen und RX480) an, sieht man, das das AMD Produkt bei pcgh jeweils am schlechtesten von allen gelisteten Seiten (immerhin bis zu 15) abschneidet.........
......



Das Anfachen des Fanboy-Kriegs bringt Klicks und Leser. Deswegen auch die oft plakativen Titel bei PCGH.
Minority-bashing bringt den Applaus der Mehrheiten. Denn die fühlen sich dadurch bestätigt. Wie gut das funktioniert sieht man gerade in der Türkei. Nennt sich Populismus.
Und ja, wenn ein PCGH-Redakteur hier ständig Werbung für seine Seite macht, muss er sich auch HIER Kritik gefallen lassen.


greetz
US

blaidd
2017-03-30, 23:35:31
...
greetz
US

Am Arsch. Echt mal... Wir stehen immerhin zu dem, was derjenige (oder diejenige, falls wir mal eine hätten) geschrieben hat. Und das nochmal verschärft hier, wo der Wissensstand durchschnittlich deutlich höher liegt, als bei unserer Community. Wir sind uns schon ziemlich sicher, dass unsere Behauptungen Bestand haben. Und wir hören auch schon mal auf Kritik, falls die denn mal halbwegs durchdacht formuliert ist – das ist eigentlich auch nicht so eine kleine Nebensache, wir haben immerhin noch ein paar zehntausend Leser und eine wirklich clevere Frage könnte auch potenziell zehntausende Fragen beantworten, wenn wir ihr denn auf den Grund gehen können... Ich bin da ganz Ohr.

Und wenn du auch nur im Ansatz meine persönliche, moralische oder auch nur politische Haltung erfasst hättest, dann hättest du diesen Post ganz sicher nicht geschrieben.

dildo4u
2017-03-30, 23:45:29
Wie sich hier einige in Rage reden.Ashes ist sowas von unwichtig den Dreck zockt eh keiner,das wird gebencht weil es von AMD gepusht wird. Jeder sieht was er will PCGH hat auch Benches auf der Seite wo der 1700 sehr gut dasteht und das in einem Game was auch gezockt wird.

340 vs 1100€.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11320932&postcount=734

pilzsammler2002
2017-03-30, 23:47:06
Ich habe Ashes und nen Ryzen 1700x...
Aber ohne Addon/Dlc

:freak:

aufkrawall
2017-03-30, 23:52:08
Das hat mittlerweile jeder Ashes-Beseitzer.

vinacis_vivids
2017-03-31, 00:02:28
Ich habe Ashes und nen Ryzen 1700x...
Aber ohne Addon/Dlc

:freak:

Hast du da drops bis zur Unspielbarkeit?

pilzsammler2002
2017-03-31, 00:15:30
Hast du da drops bis zur Unspielbarkeit?

Habe letzte Zeit kein ashes gezockt da ich im wildlands coop festhänge... Ich hatte im integrierten bench keine probs aber teste morgen nochmal :D

Screemer
2017-03-31, 00:19:34
warte mal bis raff das savegame hochläd.

Schaffe89
2017-03-31, 01:53:21
Schaut man sich die Launch-roundup von 3dc zu den letzten AMD Produkten (Ryzen und RX480) an, sieht man, das das AMD Produkt bei pcgh jeweils am schlechtesten von allen gelisteten Seiten (immerhin bis zu 15) abschneidet

Also ich sehe da 5 Vergleichstests zu der PCGH (Spiele) und keine 14 oder 15, du hast das Review von Leonidas nicht mal genau angeschaut, denn dann hättest du gemerkt dass PCGH unter der Anwendungsperformance nicht mal aufgeführt ist, sondern nur bei Spielen und es da 5 andere Seiten gibt, keine 14. Davon abgesehen liegt die Spieleleistung bei Sweeclockers und Tweaktown kaum besser als bei PCGH. 5% Punkte höher ergo hast du 3 Seiten die ein ähnliches Ergebnis liefern, das sind 50% von der Gesamtzahl. Das ist völlig ok.

Die RX480 bei PCGH war nicht grade die beste RX480, die mit Standardboost nur bei 1150mhz lief und AMD typisch Releasetreiberprobleme in Wolfensten The old Blood hatte und da eine sehr langsame Leistung aufzeigte. Der Grund ist also nicht die PCGH, sondern AMD´s teils schlechter Releasetreiber.

Also schuld ist wie immer der Hersteller und nicht der Tester, wenn irgendwo etwas langsamer abschneidet, dann liegt es an der Software/Treiber und sonst an gar nichts.
Normalerweise wird hier nicht so mit dem Messer zwischen argumentiert, aber scheinbar steht zuviel auf dem Spiel.

Digidi
2017-03-31, 06:13:42
Die Pcgh Szenen bei Ashes werden noch interessanter wenn man bedenkt, dass der CPU Test die CPU richtig auslastet weil man viele Einheiten aufs Feld schickt und hier die AI und der Polygoneoutput viel berechnen muss.
Gerade die Kommunikation zwischen den CCX wäre hier sehr groß weil ja alles irgendwie Zusammenhängt.

Kurz um AMD ist besser wenn die Cpu viel zu tun hat aber Langsamer wenn kaum was passiert???

Menace
2017-03-31, 06:26:15
Spielt das überhaupt jemand? ;)

Bei übermäßiger Zeit sehr gerne; mache deshalb momentan einen Bogen darum, damit die Arbeit nicht leidet. :wink:

Wer momentan für Ryzen ein X370-Mainboard von Asus kaufen möchte, bekommt bei einigen Händlern Prey dazu (https://www.asus-promotion.de/prey) (gleiches gilt für manche AMD-GraKas). Mindfactory ist leider nicht dabe.

Bei Mindfactory verschiebt sich die Lieferung des C6H auch immer weiter nach hinten. :-/

Pirx
2017-03-31, 07:07:04
...

Der Spielstand ist so dermaßen hart, das der i7-7700k, lt pcgh, ggü dem internen Test bei der fps um 100% zulegt.
Das würde ich mir gerne auf meiner Intel CPU anschauen.
Das müsste doch jedem erfahrenen Redakteur auffallen und dann müsste er hinterfragen, statt einfach ein Fazit zu ziehen und Schluß.

Ex3cut3r
2017-03-31, 08:34:44
Sag mal eigentlich ist, der Ryzen kein richtiger 8Kerner sondern 4+4 wie damals der Q6600 (2+2) oder ist das falsch?

y33H@
2017-03-31, 08:43:34
Hmmm ...

https://twitter.com/FioraAeterna/status/847472586581712897
http://x86.renejeschke.de/html/file_module_x86_id_194.html

Pirx
2017-03-31, 08:43:57
Sag mal eigentlich ist, der Ryzen kein richtiger 8Kerner sondern 4+4 wie damals der Q6600 oder ist das falsch?
Da die Kommunikation zwischen den CCX nicht wie beim Q6600 über einen FSB läuft ist es falsch, aber ein kleines Fünkchen Wahrheit steckt doch drin. Ich denke mal die Konstruktion ist nach dem aktuellen Technikstand sehr clever und ein sehr guter Kompromiß.

Ex3cut3r
2017-03-31, 08:45:17
Da die Kommunikation zwischen den CCX nicht wie beim Q6600 über einen FSB läuft ist es falsch, aber ein kleines Fünkchen Wahrheit steckt doch drin. Ich denke mal die Konstruktion ist nach dem aktuellen Technikstand sehr clever und ein sehr guter Kompromiß.

Danke.

In gewisser Hinsicht schon, da sie im Gegensatz zu Intel keinen gemeinsamen Last Level Cache besitzen. Allerdings kommunizieren die CCX bei AMD über eine deutlich schnellere interne Verbindung (Infinity Fabric) statt über eine langsame externe Verbindung (FSB), die sich die C2Q-Cores damals zusätzlich mit dem Speichercontroller teilen mussten. Theoretisch sollte es also bei Ryzen deutlich besser aussehen, praktisch ist an vielen Stellen noch Sand im Getriebe, wie man an einigen Beispielen hier im Thread sehen kann.

Edit: Zu langsam per Handy :)
Auch dir, Danke. :)

Der_Korken
2017-03-31, 08:49:44
Sag mal eigentlich ist, der Ryzen kein richtiger 8Kerner sondern 4+4 wie damals der Q6600 oder ist das falsch?

In gewisser Hinsicht schon, da sie im Gegensatz zu Intel keinen gemeinsamen Last Level Cache besitzen. Allerdings kommunizieren die CCX bei AMD über eine deutlich schnellere interne Verbindung (Infinity Fabric) statt über eine langsame externe Verbindung (FSB), die sich die C2Q-Cores damals zusätzlich mit dem Speichercontroller teilen mussten. Theoretisch sollte es also bei Ryzen deutlich besser aussehen, praktisch ist an vielen Stellen noch Sand im Getriebe, wie man an einigen Beispielen hier im Thread sehen kann.

Edit: Zu langsam per Handy :)

fondness
2017-03-31, 09:25:01
Wie sieht das jetzt eigentlich mit den neuen Benchmarks aus? Überall mit Höchstleistung gebencht bzw. neuem Windows-Patch? Leider findet man zu solchen Angaben nirgends Infos.

Mangel76
2017-03-31, 09:31:58
Am Arsch. Echt mal... Wir stehen immerhin zu dem, was derjenige (oder diejenige, falls wir mal eine hätten) geschrieben hat. Und das nochmal verschärft hier, wo der Wissensstand durchschnittlich deutlich höher liegt, als bei unserer Community. Wir sind uns schon ziemlich sicher, dass unsere Behauptungen Bestand haben. Und wir hören auch schon mal auf Kritik, falls die denn mal halbwegs durchdacht formuliert ist – das ist eigentlich auch nicht so eine kleine Nebensache, wir haben immerhin noch ein paar zehntausend Leser und eine wirklich clevere Frage könnte auch potenziell zehntausende Fragen beantworten, wenn wir ihr denn auf den Grund gehen können... Ich bin da ganz Ohr.


Konstruktive Kritik: Meiner Meinung nach sind eure Aussagen nur zum Teil korrekt. Beispiel aus dem Test von AotS:Die Ergebnisse attestieren dem Ryzen 7 1800X eine konstante Verbesserung von knapp 15 Prozent im integrierten Benchmark

Das Problem daran ist, dass nicht der 1800X sich verbessert, der ist immer noch der gleiche wie beim ersten Test. Die korrekte Interpretation der Ergebnisse wäre: "Der Patch verbessert die Leistung des Spiels auf dem 1800X..."

Schauen wir uns doch die Situation an:
- Wie viele Stunden haben Spiele- und Softwareentwickler investiert, um ihre Programme auf die Intel-Architektur zu optimieren? zig Millionen Stunden!
- Wie viele Stunden haben Spiele- und Softwareentwickler investiert, um ihre Programme auf die Zen-Architektur zu optimieren? sehr wenige (bei AotS waren 400h genannt worden)

All die schönen Benchmark-Balken zeigen einen Mix aus Unterschieden sowohl in der Hardware als auch in der Software-Optimierung. Den Effekt einer GPU kann man vielleicht bei LowRes verringern (nie eliminieren, denn die Treiber laufen auch auf der CPU und damit beeinflussen auch sie das Ergebnis). Alles was ich dann als Erkenntnis in zig Tests daraus vorgesetzt bekomme ist, wie gut oder schlecht eine CPU ist. So ein Quatsch! Die Interpretationen der Ergebnisse sind viel zu vereinfacht und zu kurz gedacht. Das sieht man ja schon daran, wie schnell sich durch so einen kleinen Patch nach 400h (was nicht viel ist!!! vor allem nicht im Vergleich zum Aufwand für Inteloptimierungen) eine erhebliche Änderung in den Ergebnissen ergibt. Wie kann sich eine CPU, die sich nicht ändert, verbessern, wenn es doch die Software ist, die verbessert wird???

Ich glaube, so richtig hat noch niemand die Implikationen der neuen Architektur erfasst. AMD hat es mit einem Bruchteil des Budgets verglichen mit Intel geschafft, eine völlig neue Architektur auf die Beine zu stellen. Diese Architektur ist deutlich leistungsfähiger, als alles, was sie vorher hatten. Darüber hinaus ist es für AMD relativ einfach und kostengünstig, diese Architektur in verschiedene Anwendungsbereiche zu bringen. Innerhalb eines Jahres kommt Zen in Desktop (8K/16T), in HEDT/Workstation (16K/32T), in Server (32K/64T) und in Mobile (4K/8T plus neue GPU VEGA und wahrscheinlich deshalb auch erst so spät). Wie lange hat Intel gleich noch gebraucht, um Skylake in andere Bereiche zu bringen? Ach, ich vergaß, gibts bei HEDT/Server ja immer noch nicht! Nebenbei entwickelt dieser Zwerg noch eine neu GPU, die wieder entscheidende Neuerungen bringt und dem anderen Riesen NVIDIA Paroli bietet (hoffentlich! alles andere wäre fatal für uns Kunden).

Und ich glaube nicht, dass die Designvorgabe an Zen war, Intel-optimierte Software möglichst schnell auszuführen, damitein paar Nerds in einem Forum sich an Balkenlängen aufg... können. Bei jeder neuen Architektur gibt es erstmal Dinge, die vielleicht sogar schlechter laufen als bei der alten, auch bei Intel (kann sich nur niemand mehr erinnern, echte Innovation bei Intel ist schon zu lange her ;D)! Lasst einfach den Programmierern ein bisschen Zeit, sich auf die Eigenheiten der neuen Hardware einzustellen. Und es ist kein Running Gag, wie einige schon wieder herausposaunen. Ryzen zeigt in vielen Bereichen ein sehr hohes Potential! Bulldozer war vielleicht in Anwendungen besser als in Spielen, aber eben im Vergleich zu Intel auch nicht wirklich so nah dran.

Wir alle sollten dankbar sein, dass AMD es geschafft haben, ein so leistungsfähiges Produkt zu entwickeln. Auch und gerade die, die Ryzen hier in Grund und Boden reden möchten! Ohne eine ernstzunehmende Konkurrenz würdet ihr auch weiterhin brav alle Jahre den gleichen 4-Kerner mit 100 MHz mehr zu stattlichen/steigenden (die Produktionskosten steigen ja so stark, mimimi) Preisen vorgesetzt bekommen. Oder eben gleich den Monopolaufschlag für Sockel 2011- und Titan-Produkte zahlen. Ich bin mir sicher, dass NVIDIA die 1080Ti mit Berechnung zu diesem Zeitpunkt zu diesem unerwartet niedrigen Preispunkt gebracht haben. Entweder sie wissen oder sie vermuten/befürchten, das VEGA richtig gut werden könnte. Das ist reale Markttheorie in ihrer reinsten Form! Hoch lebe die Konkurrenz!

Sven77
2017-03-31, 09:40:47
Spielt das überhaupt jemand? ;)

nein, das verkackte spiel interessiert keine Sau :mad:

vinacis_vivids
2017-03-31, 09:41:25
warte mal bis raff das savegame hochläd.

Selbst wenn Raff sein Savegame offenlegt, ist eine Gegenprobe mit einem anderen unabhängigen Savegame zu machen. Und das auf unterschiedlichen Ryzensystemen, auch mit 4+0 Konfiguration, um das angebliche hin und her Geschiebe auszuschließen.
Und es ist auch zu prüfen ob SMT hier was ausmacht.

Dass PCGH schon voreilig auf ein Fazit kommt, erscheint mir schleierhaft, weil mehr Fragen offen sind als Antwort gekommen sind. Aber das kennt man schon nicht mehr anders.

Schaffe89
2017-03-31, 09:41:46
Ich denke mal die Konstruktion ist nach dem aktuellen Technikstand sehr clever und ein sehr guter Kompromiß.

Ich denke, dass die Konstruktion aktuell der Hauptgrund dafür ist, wieso AMD in vielen Benchmarks so weit hinterherhinkt, also genau hier die Archillesferse der ganzen Architektur steckt, die es zu beheben gilt und es sieht nicht mal danach aus als würde der Ashes Patch ein AMD spezifischer Patch sein.

Wieso feiert ihr das CCX Design so? Sieht so aus als ob das genau der Fehler wäre.:confused::confused:

""not some thread scheduling magic, not some special SIMD optimizations. just making it so their MOVNTs didn't cause chip-wide flushes"

Baker sagt auch, man nutze absolut die selben Code Instructions bei AMd und Intel. Soviel also zu diesem "Patch". Das war kein spezifischer Ryzen Patch, daher wird das wohl eher ein der wenigen Verbesserungen bleiben.

Selbst wenn Raff sein Savegame offenlegt, ist eine Gegenprobe mit einem anderen unabhängigen Savegame zu machen.

Richtig, PCGH kann einfach keine korrekten Savegames erstellen, da haben die auch noch die Finger drinn, was für Halunken.
Die haben da nur Einheiten hergestellt die AMD CPU´s schaden!

Mangel76
2017-03-31, 09:52:24
Baker sagt auch, man nutze absolut die selben Code Instructions bei AMd und Intel. Soviel also zu diesem "Patch". Das war kein spezifischer Ryzen Patch, daher wird das wohl eher ein der wenigen Verbesserungen bleiben.

Natürlich war es ein "Ryzen-Patch", denn an der Leistung bei Intel hat sich ja nichts getan. Die Frage, die offen bleibt, ist die, ob damit alle Verbesserungspotentiale ausgeschöpft sind. Wenn dem so wäre, dann hätten wir tatsächlich ein Problem. Aber wie hier zu lesen ist:
https://twitter.com/FioraAeterna/status/847472586581712897

scheint es auch bei Intel tausende Dinge zu geben, die man lieber nicht machen sollte. Ich gehe davon aus, dass es auch bei Ryzen tausende, aber eben andere Dinge geben wird, die man nicht tun sollte. Und mit 400h können die unmöglich alle geprüft und behoben sein. Das war ein erster Flicken, da ist noch mehr Potential. Man wird nur abwarten müssen, ob für aktuelle Spiele noch so viel Arbeit investiert wird, oder ob erst künftige Spiele und Engines, die von Anfang an auch auf Ryzen hin optimiert werden, dieses Potential auch ausschöpfen können.

Cyphermaster
2017-03-31, 10:01:15
Wieo feiert ihr das CCX Design so? Sieht so aus als ob das genau der Fehler wäre.:confused::confused:Es geht wohl einfach über dein Verständnis (oder das Verstehen-Wollen), daß es in der Realität mehr als eine einzige technische Lösung für ein Problem geben kann, und der Rest Fehler sein müssen.
Jede Lösung hat ihre spezifischen Vor- und Nachteile, die je nach Anwendungsfall und Zusammenspiel mit anderen Komponenten (die auch viel ausmachen, siehe den drastischen Unterschied zwischen gut und schlecht parallelisierten Aufgaben beim CMT-Design des Bulldozer) mal besser, mal schlechter funktioniert.

Beim aktuell eher mauen Maturitätslevel der Hard- und Softwarelösungen rund um Ryzen in Relation zum x-fach nur iterierten Intel-Design sehe ich noch keinen großen Sinn, sich da in großmächtige Bewertungen auf Biegen und Brechen reinzusteigern, abseits von Propaganda.

Raff
2017-03-31, 10:10:59
Richtig, PCGH kann einfach keine korrekte Savegames erstellen, da haben die auch noch die Finger drinn, was für Halunken.
Die haben da nur Einheiten hergestellt die AMD CPU´s schaden!

Wir wissen (hoffentlich) alle, dass das ironisch gemeint ist, aber "Einheiten, die nur Hersteller X schaden" gab's wirklich mal – in Starcraft 2. Ich weiß es nicht mehr ganz genau, aber AFAIR waren's gewisse Transparenz-Effekte (Schilde), welche bei forciertem MSAA alle Radeons absaufen ließen. Kaum war der Effekt weg, gingen die Fps nach oben. Das ist mindestens sechs Jahre her und bei AotS nicht zu befürchten.

Savegame kommt in Kürze. Ich muss dazu noch etwas Text schreiben.

MfG,
Raff

tm0975
2017-03-31, 10:24:22
nein, das verkackte spiel interessiert keine Sau :mad:

Es ist jedenfalls relevanter als der 5. FPS...

dargo
2017-03-31, 10:25:40
Der Spielstand ist so dermaßen hart, das der i7-7700k, lt pcgh, ggü dem internen Test bei der fps um 100% zulegt.

;D ;D ;D

Danke für den Hinweis! Das ist mir noch gar nicht aufgefallen. Ich bin schon vom Stuhl gefallen als ich die 300% gesehen habe. :ulol:

Ich denke, dass die Konstruktion aktuell der Hauptgrund dafür ist, wieso AMD in vielen Benchmarks so weit hinterherhinkt, also genau hier die Archillesferse der ganzen Architektur steckt, die es zu beheben gilt und es sieht nicht mal danach aus als würde der Ashes Patch ein AMD spezifischer Patch sein.

Wieso feiert ihr das CCX Design so? Sieht so aus als ob das genau der Fehler wäre.:confused::confused:

Das wurde dir hier doch mindestens 10x schon beantwortet. Es ermöglichst AMD eine kostengünstige Skalierung nach unten (APUs) als auch nach oben (dem wichtigen Servermarkt).

Schaffe89
2017-03-31, 10:35:47
Natürlich war es ein "Ryzen-Patch", denn an der Leistung bei Intel hat sich ja nichts getan.

Ich meinte damit bezogen auf die Eigenheiten des Designs.
Und natürlich ist das CCX mit geteiltem L3 Cache kein "Fehler", sondern scheinbar einfach ein Pferdefuß. SMT abzuschalten bringt kaum etwas, das Energieprofil auf Höchstleistung zu stellen, ist auch abgehakt, woran soll es also sonst noch hängen.
Sieht man sich das PCGH Savegame an, ist der 7700k 56% schneller, da könnte ergo noch Optimierungspotenzial liegen vielleicht aber auch nicht.
Deinen Optimismus in Gottes Ohr.

Es ist jedenfalls relevanter als der 5. FPS...

Es interessiert aber schon soweit, weil es ja ein Directx12 Game ist und die anderen Directx12 Games ja auch ziemlich schlecht laufen.
Und da AMD bei Oxide nen Fuß in der Tür hat, dürften Verbesserungen wenn überhaupt genau von dort kommen.

Mangel76
2017-03-31, 10:46:34
Ich meinte damit bezogen auf die Eigenheiten des Designs.
Und natürlich ist das CCX mit geteiltem L3 Cache kein "Fehler", sondern scheinbar einfach ein Pferdefuß.
Sieht man sich das PCGH Savegame an, ist der 7700k 56% schneller, da könnte ergo noch Optimierungspotenzial liegen vielleicht aber auch nicht.
Deinen Optimismus in Gottes Ohr.

Es ist weder Fehler noch Pferdefuß, es ist einfach nur anders als alles, was bisher da war. Wie hat Cyphermaster es so schön passend ausgedrückt:

Jede Lösung hat ihre spezifischen Vor- und Nachteile, die je nach Anwendungsfall und Zusammenspiel mit anderen Komponenten (die auch viel ausmachen, siehe den drastischen Unterschied zwischen gut und schlecht parallelisierten Aufgaben beim CMT-Design des Bulldozer) mal besser, mal schlechter funktioniert.

Beim aktuell eher mauen Maturitätslevel der Hard- und Softwarelösungen rund um Ryzen in Relation zum x-fach nur iterierten Intel-Design ...

Wir sehen da mehr Softwareoptimierungs- als Hardwareunterschiede!

dargo
2017-03-31, 10:50:20
Es interessiert aber schon soweit, weil es ja ein Directx12 Game ist und die anderen Directx12 Games ja auch ziemlich schlecht laufen.

Das stimmt so nicht. The Division läuft normal wenn ich es noch richtig in Erinnerung habe. Es gibt übrigens auch DX11 Games die auf Ryzen noch suboptimal performen. Zum Beispiel Far Cry: Primal.

Edit:
https://www.youtube.com/watch?v=TId-OrXWuOE#t=8m35s

Zugegeben... hier bin ich mir nicht sicher ob das der DX11 oder DX12 Renderpfad ist. Bei RotTR steht ja explizit DX12 dabei.

Raff
2017-03-31, 10:53:09
Savegame kommt in Kürze. Ich muss dazu noch etwas Text schreiben.

Wie versprochen: Ashes of the Singularity Escalation: PCGH-Benchmark – "Brasil Endgame" (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=580153)

Bei Fragen: fragen (aber bitte im anderen Fred).

Have fun & stuttering,
Raff

dildo4u
2017-03-31, 10:56:52
Das stimmt so nicht. The Division läuft normal wenn ich es noch richtig in Erinnerung habe. Es gibt übrigens auch DX11 Games die auf Ryzen noch suboptimal performen. Zum Beispiel Far Cry: Primal.
Far Cry performt normal das scalt einfach nicht über 8 Cores,der 7700k killt dort den 6900k.

https://youtu.be/HZPr-gNWdvI?t=5m6s

Der 4Ghz Ryzen ist kaum langsamer als der 6900k.97 zu 105 fps.

dargo
2017-03-31, 11:02:31
Da ist gar nichts normal. Schon alleine SMT bremst erheblich bei Ryzen in diesem Spiel.

Edit:
Was ist daran normal? :ulol:
https://www.youtube.com/watch?v=Rhj6CvBnwNk&feature=youtu.be#t=5m40s

Raff
2017-03-31, 11:04:40
Bei Intel auch, aber nicht ganz so stark.

MfG,
Raff

Der_Korken
2017-03-31, 11:15:05
Ich meinte damit bezogen auf die Eigenheiten des Designs.
Und natürlich ist das CCX mit geteiltem L3 Cache kein "Fehler", sondern scheinbar einfach ein Pferdefuß.

Ich würde eher sagen, dass das CCX-Design (Edit: CCX -Design, diese Smiley-Codes ... :D) eine Notwendigkeit für die Zukunft ist. Bei acht Kernen hätte man sicherlich auch einen gemeinsamen, inklusiven L3-Cache wie Intel verbauen können, aber die Architektur wird AMD noch mindestens fünf Jahre begleiten und da kommen sicherlich noch Dies mit deutlich mehr als acht Kernen. Irgendwann muss man den symmetrischen Aufbau aufbrechen und die Kerne clustern, damit das Design vernünftig skaliert. Intel tut es ja selbst, nur eben erst beim 24-Kern-Die (und afaik auch schon bei einem etwas älteren 18-Kern-Die). Außerdem wurde spekuliert, dass Skylake-X den L2-Cache auf 1MB/Kern vergrößert und den L3-Cache von 2,5MB/Kern auf 1,375MB/Kern verkleinert, also weg vom großen gemeinsamen Cache und hin zu großen lokalen Caches mit gemeinsamen Victim-Cache. Eigentlich fehlt AMD nur ein gemeinsamer L4-Cache (z.B. in Form eines HBM2-Stacks on package), den sich dann 2 (in Zukunft vllt 4) CCX teilen. Dann hätte man wieder ein Intel-like Design nur mit einer Cache-Stufe mehr.

Schaffe89
2017-03-31, 11:31:47
Die Gaming Zukunft besteht aber nicht aus 16 Kern oder 32 Kern CPU´s sondern wird wohl in der Entwicklung jahrzehntelang wohl bei weniger Treads feststecken.^^
AMD wäre wohl besser damit gefahren es beim clustern nicht so stark zu übertreiben.
Vielleicht können sie aber auch die Latenzen des Infiity Fabric mit der Zeit deutlich minimieren, dann dürfte auch die Gaming-Performance in allen Lebenslagen stimmen.
Vielleicht gibt es demnächst irgendeinen verrückten Youtuber der sein Ryzen System mit DDR4 4000+ zum laufen bringt, vll dann ab Mai wenn die Agesa/microcode Updates da sind.
Dann wird man sehen wie fett der Fisch wirklich ist.

pilzsammler2002
2017-03-31, 11:35:44
Ohja natürlich... Sieht man ja an den Konsolen und Handys das Dual Core das beste ist und "Jahrelang" auch bleibt... :freak:

So wie damals schon, als man sich P4 schön redete...

dargo
2017-03-31, 11:39:48
Die Gaming Zukunft besteht aber nicht aus 16 Kern oder 32 Kern CPU´s sondern wird wohl in der Entwicklung jahrzehntelang wohl bei weniger Treads feststecken.^^

Da muss ich dich enttäuschen. Spätestens die PS5 wird Pinnacle Ridge bsw. dessen Nachfolger in 7nm mit 16 Threads haben. Ich wüsste keine Alternative dazu. Gleiches wird für den Scorpio Nachfolger gelten. Und Oxide hatte bereits in einem Video gezeigt, dass sie mit dem nächsten Game (welches ausschließlich DX12 bedient) alle 16 Threads eines Ryzen voll auslasten können (hier sieht man dann auch die tatsächliche Skalierung der Engine und nicht wie bei DX11 + NV Engine und Grafiktreiber). Du scheinst nicht zu begreifen, dass bei der IPC und dem Takt keine großen Sprünge mehr zu holen sind. Man ist gezwungen in die Breite zu gehen.

OT71
2017-03-31, 11:49:08
Bei Hardwareluxx gelesen

Die "RyZen Optimierung" ist eigentlich keine. Hier wurde nur MOVNT Code ausgebessert, was der Intel Compiler für die ihm bekannten CPUs automatisch macht und es somit bisher nicht auffiel. Komischerweise kennt er den RyZen nicht, also tritt der negative Effekt nur bei ihm unbekannten µarchs auf. Sprich RxyZen. Deshalb ergibt sich auch keine Änderung in der Gameperformance für intel CPUs. MIt AMD spezifischen Otimierungen wie zb optimiertes Threadverhalten hat dieser Patch rein gar nichts zu tun. Lässt sich aber so besser verkaufen

Effe
2017-03-31, 11:55:11
Ein Problem, das nur mit RyZen auftritt und dafür gefixt wurde, ist keine RyZen-Optimierung? Was für ein BS!

Pirx
2017-03-31, 11:57:49
Intelcompiler bei Ashes?

Der_Korken
2017-03-31, 11:59:50
Ein Problem, das nur mit RyZen auftritt und dafür gefixt wurde, ist keine RyZen-Optimierung? Was für ein BS!

Das Problem tritt laut Post nicht speziell nur bei Ryzen sondern bei generell allen unbekannten Architekturen auf. Insofern ist es schon richtig nicht von einer Ryzen-spezifischen Optimierung zu sprechen. Es sieht nur so aus, weil Ryzen die einzige in den letzten fünf Jahren neu veröffentliche Architektur im Desktop-Bereich ist.

Schaffe89
2017-03-31, 12:01:11
http://www.pcgameshardware.de/Ryzen-7-1800X-CPU-265804/Specials/AMD-AotS-Patch-Test-Benchmark-1224503/

Ryzen schneller als der 6900k. SCNR.. :D
Das Spiel hält bei hoher CPU Last wohl nichts von 8Kernern, sofern ist der integrierte Benchmark wohl komplett für die Tonne.

Pirx
2017-03-31, 12:05:30
http://www.pcgameshardware.de/Ryzen-7-1800X-CPU-265804/Specials/AMD-AotS-Patch-Test-Benchmark-1224503/

Ryzen schneller als der 6900k. SCNR.. :D
Das Spiel hält bei hoher CPU Last wohl nichts von 8Kernern, sofern ist der integrierte Benchmark wohl komplett für die Tonne.
WTH wie kann man da das Fazit einfach stehen lassen?

Schaffe89
2017-03-31, 12:10:04
WTH wie kann man da das Fazit einfach stehen lassen?

Muss man definitiv überarbeiten, es zeigt aber mal wieder eines Eindrucksvoll.
Die "man braucht nen 8Kerner für Gaming Fraktion" hat wieder mal einen Dämpfer erhalten.:tongue:

dargo
2017-03-31, 12:15:12
Lol... jetzt ist also schon ein i7-7700k 400% bei den min.fps schneller als ein i7-6900K. ;D Also entweder ist da gehörig was kaputt bei der PCGH oder das Spiel in manchen Szenen extrem verbugt. Ich tippe auf Zweiteres.

@PCGH
Könntet ihr noch als Gegentest den i7-6900K @4C/8T laufen lassen? :) Optimal wäre noch ein Frameverlauf falls möglich. Ein R7 1800X @4C/8T wäre auch nicht verkehrt.

Dino-Fossil
2017-03-31, 12:16:14
Naja, das sieht mir langsam eher nach einem Grundsätzlichen Problem in Ashes aus. Scheint sich ja regelrecht an vielen Kernen zu verschlucken, die Performanceunterschiede sind schon erstaunlich.
Wäre mal interessant, ob es mit 4-Kern Ryzen auch so aussieht, oder ob wirklich nur die ca 30-40% mehr Singlethreaded Leistung des 7700K eine derart hohe Mehrperformance erzeugen können.
In beiden Fällen sehe ich allerdings eher Oxide in der Schuld, nachzubessern.

dargo
2017-03-31, 12:23:31
Naja, das sieht mir langsam eher nach einem Grundsätzlichen Problem in Ashes aus. Scheint sich ja regelrecht an vielen Kernen zu verschlucken, die Performanceunterschiede sind schon erstaunlich.
Wäre mal interessant, ob es mit 4-Kern Ryzen auch so aussieht, oder ob wirklich nur die ca 30-40% mehr Singlethreaded Leistung des 7700K eine derart hohe Mehrperformance erzeugen können.
In beiden Fällen sehe ich allerdings eher Oxide in der Schuld, nachzubessern.
Was für mich aber immer noch keinen Sinn ergibt...

Intergrierter CPU-Benchmark mit i7-7700K @Crazy Preset = 33,6 avg.fps
Savegame mit i7-7700K @Crazy Preset = 75,4 avg.fps

WTF? Das sind +124% trotz angeblich wesentlich höheren CPU-Last dank Savegame? :| Also entweder die PCGH oder Oxide trollen uns. ;D Vielleicht ein verfrühter Aprilscherz? :upara:

fondness
2017-03-31, 12:39:15
Da scheint wohl im Spiel was mit mehr als vier Kerne Probleme zu haben. Aber Hauptsache vorher weiß jeder schon, dass die CCX Schuld sind. :rolleyes:

Locuza
2017-03-31, 12:42:04
Intelcompiler bei Ashes?
Nicht unbedingt, aber der Vtune-Profiler von Intel findet Verwendung:
Typically we try a different instruction sequences based on Vtune profiles, in this case we just had never had a Ryzen profile to consider
https://twitter.com/dankbaker/status/847525394559488000

Intel VTune Amplifier performance profiler is a commercial application for software performance analysis of 32 and 64-bit x86 based machines. It has both a GUI (graphical user interface) and command line and comes in versions for Linux or Microsoft Windows operating systems. An optional download lets you analyze the Windows or Linux data with a GUI on OS X. Many features work on both Intel and AMD hardware, but advanced hardware-based sampling requires an Intel-manufactured CPU.
https://en.wikipedia.org/wiki/VTune

dargo
2017-03-31, 12:43:37
Da scheint wohl im Spiel was mit mehr als vier Kerne Probleme zu haben. Aber Hauptsache vorher weiß jeder schon, dass die CCX Schuld sind. :rolleyes:
Es ist ja nicht nur das. Wie zum Teufel kann eine CPU X (völlig egal ob Intel oder AMD) bei einer höheren CPU Last dank Savegame (Aussage von Raff) um mehr als Faktor 2 höhere Frames liefern? Das widerspricht jeglichen Logik!!!

fondness
2017-03-31, 12:46:06
Es ist ja nicht nur das. Wie zum Teufel kann eine CPU X (völlig egal ob Intel oder AMD) bei einer höheren CPU Last dank Savegame (Aussage von Raff) um mehr als Faktor 2 höhere Frames liefern? Das widerspricht jeglichen Logik!!!

Raff hat wohl geglaubt, dass eine hohe CPU-Last vorliegt, weil seine CPU in die Knie gegangen ist. Aber anscheinend trifft das nur auf >4 Kerne zu?

dargo
2017-03-31, 13:00:22
Keine Ahnung was Raff geglaubt hatte, ist schwer von außen zu beurteilen. Erst recht ohne einen Frameverlauf. Ich sehe ja nur die avgs. und min.fps. Beim intergrierten Benchmark sogar nur die avgs. Aber selbst Ryzen 1800X legt im Savegame 14% zu gegenüber dem Benchmark.

Conner_Ray
2017-03-31, 13:16:25
Ich wundere mich warum immer noch Spiele herangezogen werden um die Leistungsfähigkeit einer CPU zu testen?? Für die Frage: "welche CPU ist für meine Spiele am besten geeigent" ist das zwar ok, aber nicht für eine objektive Betrachtung der Leistungsfähigkeit im Allgemeinen. was ist z.B. die Performance von SSE2-5, von AVX/AVX2 usw usw?
Wer weis bei Spielen schon wie sehr entsprechende extentions benutzt werden?

Man sieht hier doch die 200-seitige Diskussion um FPS-Balken vor/nach Patches, Win7/8, DX11/DX12, 720/1080/1440, Core-parking on/off, 2400er/3200er RAM etc etc etc. Zu viele parameter die sich gefühlt täglich ändern, die man teilweise auch noch gar nicht kennt.
Alles fürn popo, Spieletests.

Wie gut eine CPU ist testet man mit entsprechenden Programmen und Alltagsanwendungen, die im Idealfall auch noch open surce sind. Das wurde getan und die Ergebnisse findet man bei den Tests unter "Anwendungssoftware".
Bei Spielen hat man einfach zu viele Variablen, die man nicht kennt und/oder sich täglich ändern.
Da sind ein paar BOINC WUs aussagekräftiger......

dreas
2017-03-31, 13:25:06
Wie gut eine CPU ist testet man mit entsprechenden Programmen und Alltagsanwendungen, die im Idealfall auch noch open surce sind. Das wurde getan und die Ergebnisse findet man bei den Tests unter "Anwendungssoftware".
Bei Spielen hat man einfach zu viele Variablen, die man nicht kennt und/oder sich täglich ändern.
Da sind ein paar BOINC WUs aussagekräftiger......

das hat sich amd wohl auch gedacht und einfach zum launch cinebench als masstab präsentiert. der rest ist geschichtre:D

aufkrawall
2017-03-31, 13:26:18
Ashes wird wirklich reichlich überbewertet. Doof nur, dass AMD selber massig dazu beiträgt. :D

tm0975
2017-03-31, 13:28:14
Da scheint wohl im Spiel was mit mehr als vier Kerne Probleme zu haben. Aber Hauptsache vorher weiß jeder schon, dass die CCX Schuld sind. :rolleyes:

die ryzen cpu an sich ist top. habe gerade die ersten db-tests fertig und die zahlen sprechen für sich. was hier bei den ganzen teillast-szenarien getestet wird ist einzig und allein die software. wäre schön, wenn das so langsam in die köpfe geht. als würde ein prozessor schneller werden, nur weil es ein sofdtware-update gab oder patch. die einzigen sinnvollen benchmarks sind mmn tests mit software, die die cpu voll auslastet. für alle anderen szenarien muß es lauten: wir gut ist die software in der lage, die cpu zu nutzen. fps etc. müssen dann immer in relation zur auslastung der cpu gesehen werden.

Conner_Ray
2017-03-31, 13:30:33
die ryzen cpu an sich ist top. habe gerade die ersten db-tests fertig und die zahlen sprechen für sich. was hier bei den ganzen teillast-szenarien getestet wird ist einzig und allein die software. wäre schön, wenn das so langsam in die köpfe geht. als würde ein prozessor schneller werden, nur weil es ein sofdtware-update gab oder patch. die einzigen sinnvollen benchmarks sind mmn tests mit software, die die cpu voll auslastet. für alle anderen szenarien muß es lauten: wir gut ist die software in der lage, die cpu zu nutzen. fps etc. müssen dann immer in relation zur auslastung der cpu gesehen werden.
+1
Volle Zustimmung meinerseits!

Ex3cut3r
2017-03-31, 13:30:53
Ganz ehrlich, Weiß gar nicht, was es soviel zu diskutieren gibt, wer spielt schon Asses ähm ich meine Ashes. Wenns hoch kommt, sinds vlt. 5 Leute.

dreas
2017-03-31, 13:33:48
Ganz ehrlich, Weiß gar nicht, was es soviel zu diskutieren gibt, wer spielt schon Asses ähm ich meine Ashes.

irgendwer meinte mal spieletester spielen das.:cool:

Der_Korken
2017-03-31, 13:41:16
Natürlich haben Spiele-Tests ihre Berechtigung, besonders dann, wenn eine CPU genau dafür angeschafft wird. Was nützt mir eine CPU, die vielleicht extrem viel Rechenleistung hat, wenn dafür die Caches und der Speichercontroller extrem lahm sind und deswegen Spiele vergleichweise deutlich schlechter laufen? Die tolle Anwendungsperformance muss man nicht zwingend auf zukünftige Spiele übertragen können, da das Anforderungsprofil ganz anders ist (Latenz vs Durchsatz). Man muss nur die Ergebnisse von Spiele-Benchmarks richtig interpretieren und darf sich z.B. nicht an alten Engines wie von Starcraft 2 aufhängen, die kaum über zwei Kerne hinausskaliert, oder Sonderfälle wie AotS, wo Achtkerner plötzlich ohne erkennbaren Grund total wegbrechen.

Bevor es noch Flames gibt: Nein, ich will damit sagen, dass Ryzens Caches und Speichercontroller lahm sind oder generell für Spiele ungeeignet, das war nur ein Beispiel.

Dino-Fossil
2017-03-31, 13:42:03
Ich wundere mich warum immer noch Spiele herangezogen werden um die Leistungsfähigkeit einer CPU zu testen??

Ich glaube Ryzen wird (abseits von einigen Trollen und Fanboys) allgemein als eine CPU mit exzellenter Anwendungsperformance angesehen.
Gerade P/L ist da auch viel besser als Intels Angebote.

Wenn man aber eine zum Zocken sucht will man halt auch wissen, wie sie sich in Spielen verhält...

tm0975
2017-03-31, 13:49:36
Wenn man aber eine zum Zocken sucht will man halt auch wissen, wie sie sich in Spielen verhält...

und genau das ist aj der punkt. durch die ganzen 720 p test wird suggeriert, dass ryzen dafür ungeeignet wäre und viel langsamer ist. aber das ist unwahre aussage. fakt ist, dass in 95% der spiele bei vernünftigen grafiksettings die gpu oder der bildschirm limitiert. daher ist ryzen zum spielen völlig ausreichend, selbst ein halber ryzen reicht da noch völlig aus.

Conner_Ray
2017-03-31, 13:54:23
@ Dino und der Korken,
ja, dafür sind Spieletest ok. Wie ich meinte, wer eine CPU zum Zocken sucht und wissen will wie seine Spiele unter CPUxyz abschneiden ist das völlig ok.
sagt aber halt trotzdem nur wenig über die Performance im Allgemeinen aus. Darauf wollte ich hinaus.
Man sollte zu sich selbst so ehrlich sein und einsehen, dass Spieleperformances bei CPU xyz höchst variabel sind. Ganz speziell zum Ryzen; es ist seit Release dasselbe Silizium, täglich gibt es aber unterschiedliche Spiele-Performance-Tests die sich teils eklatant unterscheiden.
Die einzige Beständigkeit ist halt die CPU selber. D.h. man diskutiert hier seit 200 Seiten über die Programmierkünste der Spieleentwickler, OS-Entwickler, BIOS-Entwickler etc etc.
Aber die Fazits sind: Rysen ist geil/Rysen ist scheisse; Interl ist geiler/Intel ist scheisser (ok, das wort gibt es nicht) ;)
Das ist sinnbefreit.

aufkrawall
2017-03-31, 13:54:36
und genau das ist aj der punkt. durch die ganzen 720 p test wird suggeriert, dass ryzen dafür ungeeignet wäre und viel langsamer ist. aber das ist unwahre aussage. fakt ist, dass in 95% der spiele bei vernünftigen grafiksettings die gpu oder der bildschirm limitiert. daher ist ryzen zum spielen völlig ausreichend, selbst ein halber ryzen reicht da noch völlig aus.
Ob es "reicht", kannst du für dich selber entscheiden. Wenn die Performance einer CPU in Spielen festgestellt werden soll, misst man nicht im GPU-Limit. Punkt.

nikk
2017-03-31, 14:01:23
Im folgenden AoS-Benchmark von 2016 mit einem 5960X und Fury X profitiert AoS von 8-Cores:
http://core0.staticworld.net/images/article/2016/02/dx12_cpu_ashes_of_the_singularity_beta_2_average_cpu_frame_rate_high_quality_19x 10-100647718-large.png
http://www.pcworld.com/article/3039552/hardware/tested-how-many-cpu-cores-you-really-need-for-directx-12-gaming.html

Vielleicht könnte ein Test mit DX11 hilfreich bei der Fehlersuche sein. :confused:

Dino-Fossil
2017-03-31, 14:12:46
Man sollte zu sich selbst so ehrlich sein und einsehen, dass Spieleperformances bei CPU xyz höchst variabel sind. Ganz speziell zum Ryzen; es ist seit Release dasselbe Silizium, täglich gibt es aber unterschiedliche Spiele-Performance-Tests die sich teils eklatant unterscheiden.

Ja, die angebliche "Spieleschwäche" von Ryzen ist eine absurde und grandiose Übertreibung. Aber manche möchten halt alte Vorurteile bestätigt sehen, andere sind der Meinung, dass ein Stück Hardware, die nicht die absolute Leistungskrone darstellt automatisch Schrott ist.

Tatsache ist aber in der Tat, dass Ryzen für AMD einen beeindruckenden Fortschritt darstellt, der es ihnen ermöglicht endlich wieder richtig mitzumischen.
Nur konzentriert man sich häufig lieber auf das Negative, als auf das Positive.

dargo
2017-03-31, 14:19:38
Ach Leute... bitte nicht schon wieder die gleiche Schallplatte. :usad:

Können wir uns endlich auf folgendes einigen?

1. Wenn man das volle Potenzial einer CPU in Games sehen will machen Low Res mit max. Details durchaus Sinn damit eventuelle Grafikkartenlimits eliminiert werden. Hier bitte unbedingt mit max. Details vergleichen da bei low Details unter Umständen auch eine gute Portion der CPU-Last weggenommen wird. Optimal wäre es wenn man Grafikdetails die ausschließlich auf Kosten der GPU gehen deaktivieren könnte, hier hätte man wieder durchaus mehr Spielraum für höhere Auflösungen. Der Aufwand für jeden Reviewer wäre aber nicht tragbar.

2. Will man die praktische Leistung für den Spieler abbilden ist es durchaus sinnvoll 1080p oder 1440p zu wählen. Ersteres ist wohl unter den PC-Spielern aktuell am weitesten verbreitet.

Jetzt gibt es nur einiges zu beachten. Wenn ein Reviewer einen Ryzen 1800X mit einer GTX1080 TI in 1080p im Spiel X und Szene Y testet was bringt das einem Spieler der sagen wir mal eine GTX1070 hat und in 1440p spielt? Es bringt ihm gar nichts. Ganz einfach weil sich dank der höheren Auflösung und gleichzeitig langsameren Grafikkarte alles stärker Richtung GPU-Limit verschiebt. Und das ist nur ein Beispiel von vielen. Es wird auch nichts einem Spieler bringen wenn er zwar in 1080p spielt, dafür aber eine GTX1060 besitzt. Hier gibt es zwar die gleiche Pixellast, dafür unterscheidet sich die Rohleistung einer GTX1060 zur GTX1080 TI schon zu enorm. Wenn man das jetzt auf die zig tausenden, unterschiedlichen PC-Konfigurationen da draußen projeziert wird man ganz kirre im Kopf, erst recht wenn der Spieler nicht mit max. Details spielt (der Reviewer wählt das in der Regel). Auf der anderen Seite sollte man eine kurze Testszene nicht auf die Goldwaage legen. Die CPU-Last die in Szene X vorliegt muss nicht unbedingt das Worst Case Szenario sein. Es gibt zig Tausende Szenen in Spielen wo sich in Bruchteilen einer Sekunde Limits verschieben können.

Auch die Erkenntnis, dass man anhand von 720p Benchmark aktuell irgendwas auf zukünftige Spiele projezieren könnte ist falsch. Besonders wo es aktuell so heiß zwischen i7-7700K und den Octacore Ryzen CPUs geht (was für mich erstmal unverständlich ist da zb. ein R7 1800X schon in einer ganz anderen Preisklasse liegt, bis R7 1700X gehe ich noch mit). Zukünftige Spiele bzw. Engines werden nicht zuletzt dank low level am PC und kommenden Konsolen immer stärker Richtung mehr Threads gehen. Das ist so sicher wie das Amen in der Kirche. Wie lange das letztendlich dauert (es wird immer mal paar Ausnahmen bei den Spielen geben die nicht unbedingt perfekt mit 8+ Threads skalieren, es ist halt ein schleichender Prozess) wird die Zukunft zeigen.

aufkrawall
2017-03-31, 14:24:24
Ich würd vorschlagen, erstmal Ashes wegzulassen.
Interessanter ist immer noch die Frage Coreparking, HTT und RAM/Bios-Problematik. Wenn diese Dinge geklärt sind, würd ich gern nochmal 720p-Benchmarks von Spielen sehen, die nicht völlig witzloses MT haben.

Ich hatte jüngst btw. SC2 unter Linux testweise in Wine am laufen, akute Augenkrebsgefahr.. (nein, keine Grafikfehler) :freak:

Ätznatron
2017-03-31, 14:37:39
Ja, die angebliche "Spieleschwäche" von Ryzen ist eine absurde und grandiose Übertreibung.

Ja, ich kann's auch nicht mehr lesen.

10-15% Rückstand im Mittel auf den Intel 7700k, also auf dem Niveau eines 4790k, einer CPU, der niemand, der halbwegs bei Trost ist, eine Spieleschwäche attestieren würde.

MechWOLLIer
2017-03-31, 14:41:03
Spieleschwäche heißt ja nicht, dass es schlecht ist.
Aber um bei deinem Fall zu bleiben:

Findest du nicht auch, dass wenn ein 1800X in Anwendungen quasi so schnell ist wie ein 6900K und in Spielen plötzlich nur noch so schnell wie ein 4790K, dass es da in Spielen einen spürbaren Abfall der Leistung gibt?

Isen
2017-03-31, 14:44:35
Findest du nicht auch, dass wenn ein 1800X in Anwendungen quasi so schnell ist wie ein 6900K und in Spielen plötzlich nur noch so schnell wie ein 4790K, dass es da in Spielen einen spürbaren Abfall der Leistung gibt?

Warum ist das so ;)?

Ätznatron
2017-03-31, 14:44:35
Ist der 6900K denn in Spielen so schnell wie der 7700k?

MechWOLLIer
2017-03-31, 14:47:42
Ist der 6900K denn in Spielen so schnell wie der 7700k?
Kommt drauf an, was man testet. Bei "mir" (CB) ist er gar schneller.
Deswegen sehe ich da eben eine Diskrepanz zwischen Spielen und Nicht-Spielen. Das trifft nicht auf alle Spiele zu und nicht auf alle Anwendungen, aber in der großen Mehrheit schon.
Darum ist das für mich eine Spieleschwäche (was eben nicht schlecht bedeutet).

AnnoDADDY
2017-03-31, 14:47:58
Ist der 6900K denn in Spielen so schnell wie der 7700k?

Natürlich nicht. Der ist langsamer, also alles mal bissl ruhiger angehen!

Ätznatron
2017-03-31, 14:58:04
Ich bin immer noch mit einem, wie ich jetzt lernen musste, offenbar sehr spieleschwachen i4790k auf Ryzen-Niveau unterwegs

Wie unterirdisch der 4790k daher mittlerweile sein muss, ist mir bisher noch gar nicht so bewusst gewesen.

Und schon gar nicht negativ aufgefallen.

fondness
2017-03-31, 15:00:30
Gibt es eigentlich schon Boards mit dem neuen AGESA-Core? AMD hat immerhin dort auch niedrigere RAM Latenzen versprochen. Mal sehen wie viel das bringt.

Denniss
2017-03-31, 15:00:38
Prinzipiell sind Lowres Spieletest nicht schlecht zur Ermittlung der Leistungsfähigkeit einer CPU, man muss aber dafür sorgen dass die CPU auch unter hoher Last läuft und nicht irgendwo Däumchen dreht da keine Daten zur Aufbereitung angefordert werden. Sprch die Grafikkarte muss ebenfalls unter hoher Last stehen aber noch genug Reserven haben für eventuell auftretende fordernde Szenen.
D.H. in den Balken nicht nur FPS/Frametimes sondern auch mal Balken/Graphen zur Auslastung der CPU.

aufkrawall
2017-03-31, 15:04:22
Prinzipiell sind Lowres Spieletest nicht schlecht zur Ermittlung der Leistungsfähigkeit einer CPU, man muss aber dafür sorgen dass die CPU auch unter hoher Last läuft und nicht irgendwo Däumchen dreht da keine Daten zur Aufbereitung angefordert werden. Sprch die Grafikkarte muss ebenfalls unter hoher Last stehen...
Nope, die GPU wartet auf die CPU und damit hat es sich. Wie viel die GPU dabei zu tun hat, ist unerheblich.

unl34shed
2017-03-31, 15:05:53
Kommt drauf an, was man testet. Bei "mir" (CB) ist er gar schneller.
Deswegen sehe ich da eben eine Diskrepanz zwischen Spielen und Nicht-Spielen. Das trifft nicht auf alle Spiele zu und nicht auf alle Anwendungen, aber in der großen Mehrheit schon.
Darum ist das für mich eine Spieleschwäche (was eben nicht schlecht bedeutet).

Nur liegt es an der Hardware oder der Software?

Ich würde eher auf Software tippen, da die Skalierung beim 6900k ja passt. Und der interconnect, wenn er denn dran schuld sein sollte, sicher keine >20% kosten wird.

Dino-Fossil
2017-03-31, 15:06:31
Spieleschwäche heißt ja nicht, dass es schlecht ist.

Das Problem ist ein semantisches. Wenn ich "Schwäche" höre, denke ich eben schwach=schlecht.
Wir haben aber eigentlich sehr solide Spieleperformance, die halt nur relativ zu Intels Topdogs schlechter ist.
Zumal sich "AMD=schwach für Spiele" so verfestigt hat, dass man da eigentlich gegensteuern sollte, bevor Ryzen ungerechtfertigt das gleiche Siegel aufgedrückt bekommt.


Findest du nicht auch, dass wenn ein 1800X in Anwendungen quasi so schnell ist wie ein 6900K und in Spielen plötzlich nur noch so schnell wie ein 4790K, dass es da in Spielen einen spürbaren Abfall der Leistung gibt?

Natürlich, ich sage nicht, dass es den nicht gibt, es geht mir um die Darstellung, siehe oben.
Die Ursachen wären jedenfalls interessant. Bisher gibt es ja ein paar Ansätze, aber ganz auf die Spur gekommen ist man der Sache noch nicht.
Vermutlich mischen auch mehrere Dinge da mit.

Armaq
2017-03-31, 15:15:00
Kommt drauf an, was man testet. Bei "mir" (CB) ist er gar schneller.
Deswegen sehe ich da eben eine Diskrepanz zwischen Spielen und Nicht-Spielen. Das trifft nicht auf alle Spiele zu und nicht auf alle Anwendungen, aber in der großen Mehrheit schon.
Darum ist das für mich eine Spieleschwäche (was eben nicht schlecht bedeutet).
Das ist genau die zu beantwortende Frage. Ich glaube mehr Clicks als für "Ryzen enthüllt, so kommt das Maximum aus der neuen AMD CPU" gibt es derzeit in der Branche nicht zu holen.

Gibt es denn einen Indiz für die Schwäche / wie verhält sich die Performance zum 6900k insgesamt in Spielen? 15% schwächer / 20% schwächer?

MechWOLLIer
2017-03-31, 15:17:37
Nur liegt es an der Hardware oder der Software?
Ich würde eher auf Software tippen, da die Skalierung beim 6900k ja passt. Und der interconnect, wenn er denn dran schuld sein sollte, sicher keine >20% kosten wird.
Das ist die große Frage, die wir uns wohl alle stellen.

Ich bin immer noch mit einem, wie ich jetzt lernen musste, offenbar sehr spieleschwachen i4790k auf Ryzen-Niveau unterwegs
Wie unterirdisch der 4790k daher mittlerweile sein muss, ist mir bisher noch gar nicht so bewusst gewesen.
Und schon gar nicht negativ aufgefallen.
So eine Reaktion verstehe ich nicht. Direkt mal wieder so schön ausfallend.

Wer hat gesagt, dass mit dem 4790K keine Spiele gehen?
Das ändert aber nichts daran, dass Ryzen in Spielen schwächer abschneidet als in Applikationen und damit halt eine Spieleschwäche hat.

Fände ich Ryzen so übel zum Spielen hätte ich mir nicht selbst einen 1700X gekauft.

Isen
2017-03-31, 15:20:02
Geringere Spieleleistung setzt dem ganzen aber kein Stempel, wie Spieleschwäche auf.
Schwäche Impliziert was völlig anderes und bezieht die Anwendungsleistung nicht mit ein, wie es geringere... tun würde.
Mir solls Recht sein... nur schafft man damit Vorurteile und somit auch Grabenkämpfe in den Foren ;)
Und jetzt sag mir nicht, was der Leser darunter versteht ist nicht euer Problem. Ohne die gäbs euch gar nicht.

tm0975
2017-03-31, 15:31:43
Das ändert aber nichts daran, dass Ryzen in Spielen schwächer abschneidet als in Applikationen und damit halt eine Spieleschwäche hat.

eben nicht. die spielleistung (besser teillast) ist normal. die anwendungsperfrmance (volllast) ist sehr, sehr gut.

eine schwäre sehe ich amd-typisch wenn dann eher beim produktstart (ram-kompatibilität, mainboard-verfügbarkeit). die cpu selbst ist top!

und die schwäche bei teillast ist in erster line eine schwäche der software. da habe ich aber selbst schon so viel grütze in meinem leben gesehen, da wundert mich gar nichts mehr.

Pirx
2017-03-31, 15:33:35
...Das ändert aber nichts daran, dass Ryzen in Spielen schwächer abschneidet als in Applikationen und damit halt eine Spieleschwäche hat.

Fände ich Ryzen so übel zum Spielen hätte ich mir nicht selbst einen 1700X gekauft.
In jetzigen Tests schneidet er so ab. Welche Ursachen das im Einzelnen hat (Software/Compiler nur auf Intel getrimmt, frühe Bios-Versionen, Betriebssysteme nicht angepasst, irgendwelche komischen Software-Bugs, die dann der CPU angelastet werden (Ashes), ...., ...) und ob sie behebbar sind, muß noch ergründet werden. Für ein Fazit ist es imo zu früh.

Menace
2017-03-31, 15:36:29
Das Problem ist ein semantisches. Wenn ich "Schwäche" höre, denke ich eben schwach=schlecht.
Wir haben aber eigentlich sehr solide Spieleperformance, die halt nur relativ zu Intels Topdogs schlechter ist.
Zumal sich "AMD=schwach für Spiele" so verfestigt hat, dass man da eigentlich gegensteuern sollte, bevor Ryzen ungerechtfertigt das gleiche Siegel aufgedrückt bekommt.


:up: Das Ergebnis sieht man in den Foren von CB, pcgh, hier. Ist das nicht mit dem neudeutschen Begriff "Framing (https://de.wikipedia.org/wiki/Framing_(Kommunikationswissenschaft))" gedeckt?

Aus 20% schlechter in lowres, wird 20% schlechter in Spielen, wird schlecht in Spielen. Wenn man es nicht glaubt, einfach mal hier und woanders nachlesen. Da hilft es auch nicht, wenn die Redakteure selbst ein AMD-CPU kaufen; man hat seine Kundschaft auf spektakuläre Balkendiagramme hin erzogen und das bleibt dann meist haften.

Relic
2017-03-31, 15:43:20
Vielleicht gibt es in Ashes ähnliche Probleme wie in Tomb Raider mit den Nvidia Treibern unter DX12?

https://www.youtube.com/watch?v=0tfTZjugDeg

Ätznatron
2017-03-31, 15:43:36
Direkt mal wieder so schön ausfallend.

Die Beschreibung der ryzenhaften Spieleschwäche meines 4790k und die Schilderung meiner Eindrücke diesbezüglich findest du ausfallend?

Ich bitte dich...

Wer hat gesagt, dass mit dem 4790K keine Spiele gehen?

Wer hat das denn behauptet?

Der 4790k bringt halt "nur" Ryzenspieleleistung, Stichwort "Spieleschwäche".

Ein bisschen was lässt sich damit schon noch zocken. ;)

fondness
2017-03-31, 15:44:45
Das Problem ist ein semantisches. Wenn ich "Schwäche" höre, denke ich eben schwach=schlecht.
Wir haben aber eigentlich sehr solide Spieleperformance, die halt nur relativ zu Intels Topdogs schlechter ist.
Zumal sich "AMD=schwach für Spiele" so verfestigt hat, dass man da eigentlich gegensteuern sollte, bevor Ryzen ungerechtfertigt das gleiche Siegel aufgedrückt bekommt.


Man könnte auch sagen Anwendungsstärke. :)

Schnoesel
2017-03-31, 15:46:58
Wenn es laut AMD keinen Grund auf der Hardwareseite gibt, dass Ryzen schlechter als bei Anwendungen performt, dann muss der Fehler eben auf der Softwareseite sein. Sie haben ja bereits gesagt dass es an Windows nicht liegt sondern an der jeweiligen Optimierung der Software und ich kann das sehr wohl nachvollziehen. Jahrelang wurde ausschließlich auf Intel programmiert und optimiert. Da kann nicht plötzlich der Underdog mal eben so in einem Launch alles auf den Kopf stellen, dass ist schlicht unmöglich.
Zen braucht Zeit, AMD hat noch eine lange Reise vor sich. Und als Ryzenbesitzer wird das Ding zukünftig eher schneller denn langsamer. Schraubt mal eure Erwartungshaltung zurück. Ich möchte nochmal daran erinnern welche 2 Firmen hier miteinander konkurrieren.

Linmoum
2017-03-31, 15:52:12
Vielleicht gibt es in Ashes ähnliche Probleme wie in Tomb Raider mit den Nvidia Treibern unter DX12?

https://www.youtube.com/watch?v=0tfTZjugDeg
Was es auch war, das Problem hat PCGH mittlerweile gefunden. ;)

Wir haben die Lösung gefunden... Update incoming. Und nein, es ist nicht AMDs Schuld.
http://extreme.pcgameshardware.de/news-kommentare-zu-cpus/472787-ashes-singularity-bringt-der-amd-ryzen-patch-spiel-vs-integrierter-benchmark-17.html#post8776212

Dino-Fossil
2017-03-31, 15:53:55
Zen braucht Zeit, AMD hat noch eine lange Reise vor sich. Und als Ryzenbesitzer wird das Ding zukünftig eher schneller denn langsamer. Schraubt mal eure Erwartungshaltung zurück. Ich möchte nochmal daran erinnern welche 2 Firmen hier miteinander konkurrieren.

Wobei ich die Leute verstehen kann, die dann antworten, dass es bei AMD immer heißt: "Das wird noch besser!".
Deswegen würde ich das auch nicht zu sehr in den Mittelpunkt rücken (auch wenn es stimmen mag!).
Stattdessen sollte man eher aufzeigen, dass es bereits jetzt recht gut ist - das ist ein wesentlicher Unterschied zu Bulldozer, der @Launch mit viel größeren Rückständen zu kämpfen hatte.

aufkrawall
2017-03-31, 16:00:51
Ich wüsste gar nicht, für welche Spiele ich momentan vom 2500k auf Ryzen aufrüsten sollte. 8T hätte ich bei Mirror'sEdge/GoW4 gebraucht, aber der Drops ist erstmal gelutscht.
Ansonsten ist da nichts auf meinem Radar, kann ich noch zur nächsten Gen abwarten und Geld sparen... :redface:

Dino-Fossil
2017-03-31, 16:05:03
Für jemand der aktuell mit seiner CPU zufrieden ist, gibt es natürlich keinen Grund aufzurüsten und das Warten auf einen ZEN+/ZEN2, der vielleicht ein paar Fixes + höheren Takt mitbringt ist eine sinnvolle Option.
Für Leute wie mich, die noch auf einem richtig alten Toaster daddeln, oder mehr Kerne möchten, ist Zen allerdings eine gute Option, ich warte nur noch auf die 6-Kerner.

Ätznatron
2017-03-31, 16:08:48
Wobei ich die Leute verstehen kann, die dann antworten, dass es bei AMD immer heißt: "Das wird noch besser!".


Das ist sicher richtig.

Aber genau so richtig wäre es, die Kirche mal langsam im Dorf zu lassen.

Wenn überhaupt von Schwäche die Rede sein darf, dann immer nur von einer relativen, und auch ausschließlich nur im Vergleich mit dem aktuellen Top Dog der Konkurrenz.

Die inflationäre Verwendung des Begriffs ohne begleitende Erklärung führt zur verzerrten Wahrnehmung der Realität, wie Menace in seinem Beitrag bereits dargelegt hat.

fondness
2017-03-31, 16:13:26
Was es auch war, das Problem hat PCGH mittlerweile gefunden. ;)


http://extreme.pcgameshardware.de/news-kommentare-zu-cpus/472787-ashes-singularity-bringt-der-amd-ryzen-patch-spiel-vs-integrierter-benchmark-17.html#post8776212

LOL, ich bin gespannt, vermutlich irgendwas falsch konfiguriert^^

Kriton
2017-03-31, 16:16:52
Spieleschwäche heißt ja nicht, dass es schlecht ist.
Aber um bei deinem Fall zu bleiben:

Findest du nicht auch, dass wenn ein 1800X in Anwendungen quasi so schnell ist wie ein 6900K und in Spielen plötzlich nur noch so schnell wie ein 4790K, dass es da in Spielen einen spürbaren Abfall der Leistung gibt?

Deine Relation ist klar. Die Wortwahl führt aber zu einem anderen Bild. Das ist ein Problem. Und letztlich eines desjenigen, der die Begrifflichkeit verwendet, denn dieser will ja eine Information weitergeben (was insoweit letztlich nicht gelingt).

dargo
2017-03-31, 16:16:53
Was es auch war, das Problem hat PCGH mittlerweile gefunden. ;)


http://extreme.pcgameshardware.de/news-kommentare-zu-cpus/472787-ashes-singularity-bringt-der-amd-ryzen-patch-spiel-vs-integrierter-benchmark-17.html#post8776212
Sehr schön... immerhin beschäftigt man sich damit nun tiefgründiger, dickes Lob dafür. :up: Bin schon gespannt was es ist.

Kriton
2017-03-31, 16:22:47
Das ändert aber nichts daran, dass Ryzen in Spielen schwächer abschneidet als in Applikationen und damit halt eine Spieleschwäche hat.

Man könnte auch sagen, er hat eine Anwendungsstärke. Worte sind nun einmal Macht; einzelne Worte umso mehr in TLDR-Zeiten.

Edit: fondness war schneller.

Raff
2017-03-31, 16:30:13
LOL, ich bin gespannt, vermutlich irgendwas falsch konfiguriert^^

... im Spielcode. Ernsthaft. :)

MfG,
Raff

dargo
2017-03-31, 16:31:57
Ich habe das hier gerade bei der PCGH entdeckt.
http://extreme.pcgameshardware.de/news-kommentare-zu-cpus/472787-ashes-singularity-bringt-der-amd-ryzen-patch-spiel-vs-integrierter-benchmark-9.html#post8775761

Konnte das schon jemand außer der PCGH vorzugsweise mit anderen Brettern bestätigen? Nicht, dass dieses ASUS ROG Crosshair VI Hero da ein Eigenleben noch führt was diverse Timings angeht? :D Ich stehe diesen Zahlen noch etwas skeptisch gegenüber. Vorallem... ist dieser Test überhaupt dann noch relevant wenn AMD durch das neue AGESA die Speicherlatenz etwas verbessert?

Was mich an dem PCGH Vergleich auch etwas verwundert.
* DDR4-2667 SR mit 16-15-15-36-1T
* DDR4-2400 DR mit 14-13-13-33-2T

So wirklich vergleichbar ist das ja nicht. Ich meine gut... wenn bei DDR4-2400 DR kein 1T geht heißt es wohl Pech gehabt. Aber die anderen Timings hätte man ruhig gleich lassen sollen. Oder eben beide Speicherarten mit gleichen Timings und 2T vergleichen... fände ich sinnvoller.

Gipsel
2017-03-31, 16:48:42
... im Spielcode. Ernsthaft. :)

MfG,
Raff
Wohl irgendwie sowas:
if (n_cpucores>4) n_used_cores=2; // just for testing, remove before compiling release version!

:freak:

MechWOLLIer
2017-03-31, 16:48:53
eben nicht. die spielleistung (besser teillast) ist normal. die anwendungsperfrmance (volllast) ist sehr, sehr gut.

und die schwäche bei teillast ist in erster line eine schwäche der software. da habe ich aber selbst schon so viel grütze in meinem leben gesehen, da wundert mich gar nichts mehr.

Ob Teillast oder nicht, spielt im Endeffekt keine Rolle. Die CPU ist im Verhältnis zur Konkurrenz in Spielen (derzeit) schwächer als in Anwendungen. Das ist ein Fakt. Warum ist zwar interessant, aber für Redakteur/Leser/Käufer schlussendlich gleichgültig.

Wer hat das denn behauptet?
Der 4790k bringt halt "nur" Ryzenspieleleistung, Stichwort "Spieleschwäche".
Ein bisschen was lässt sich damit schon noch zocken.
Keiner. Ich ja auch nicht. Nur ist der 1800X eben etwas teurer als ein vergleichbares Pendant mit selber Leistung zum 4790. Und es passt halt nicht zur Anwendungsperformance. Man kann jetzt natürlich auch diskutieren, ob Intel nicht eine Anwendungsschwäche hat (was nicht schlecht bedeuten würde!).

Um ehrlich zu sein verstehe ich ohnehin nicht, warum sich die Leute über mein/CBs Fazit aufregen. Ich habe das positiv geschrieben und meine das auch so. Das immer noch nicht alles toll ist, will ja wohl auch hoffentlich keiner abstreiten.

Menace
2017-03-31, 16:58:28
Man kann jetzt natürlich auch diskutieren, ob Intel nicht eine Anwendungsschwäche hat (was nicht schlecht bedeuten würde!).


Kann man nicht, da nicht automatisch aus schwächer = schwach wird. :P

Ich schäme mich selbst dafür, aber ich bringe mal ein Autovergleich:

Bugatti Veyron Standard (max. 407 km/h) vers. Super Sport (max. 431 km/h).

Nach Deiner Logik wäre Bugatti Veyron Standard langsam, weil langsamer. :freak:

Wer schreibt, sollte sich um die Bedeutung von Worten bewusst sein. Nochmals. :P

nikk
2017-03-31, 17:06:26
Statt mit dem Ausdruck "Spieleschwäche" zu pauschalisieren, sollte man differenzierter von DX12-Schwäche (https://techreport.com/forums/viewtopic.php?t=119280)(oder Ryzen-Schwäche von DX12) schreiben. Zumindest im DX11-Durchschnitt von CB liegen Ryzen und 7700k trotz Taktunterschied gleich auf. Im Gegensatz zur Pauschalisierung wäre das eine hilfreiche Information bei der Kaufentscheidung und der Wahl der Spielesettings.

Dino-Fossil
2017-03-31, 17:09:00
Warum ist zwar interessant, aber für Redakteur/Leser/Käufer schlussendlich gleichgültig.
Naja, gleichgültig ist es mir nicht. Würde schon gerne wissen woher es kommt und welche Auswirkungen das evtl. noch haben wird.



Keiner. Ich ja auch nicht. Nur ist der 1800X eben etwas teurer als ein vergleichbares Pendant mit selber Leistung zum 4790. Und es passt halt nicht zur Anwendungsperformance. Man kann jetzt natürlich auch diskutieren, ob Intel nicht eine Anwendungsschwäche hat (was nicht schlecht bedeuten würde!).

AMD hat leider zunächst nur die 8-Kerner gebracht. Die bieten zwar ein super P/L Verhältnis für alle die von den 16 Threads und der guten Anwendungsperformance profitieren, aber natürlich nicht für reine Spieler - man vergleiche mit dem 6900K.
Für die Spieler sind die 6-Kerner (und darunter) viel interessanter. Ein 1600X dürfte in Spielen oft fast gleichauf mit dem 1800X liegen, kostet aber deutlich weniger und wird dadurch auch für Spielekisten aus P/L-Blickwinkel interessant.

Aber naja, wie schon mehrmals angesprochen, "Spieleschwäche" ist eine fragwürdige Wortwahl aufgrund der mit dem Wort "Schwäche" verbundenen Assoziationen. Das sollte einem bewusst sein, da man dadurch eine gewisse Erwartung im Leser schürt, ob man das nun will oder nicht.

iuno
2017-03-31, 17:16:27
Was meinen die eigentlich damit?
We have reduced DRAM latency by approximately 6ns
https://community.amd.com/community/gaming/blog/2017/03/30/amd-ryzen-community-update-2

Die CAS Latenz liegt ja nur beim 2-3-fachen. Heisst das jetzt, das es irgendwo im MC oder Cache vorher noch ordentlich hing oder dass generell einfach nur bessere Timings moeglich sind?

Isen
2017-03-31, 17:19:41
Was meinen die eigentlich damit?

https://community.amd.com/community/gaming/blog/2017/03/30/amd-ryzen-community-update-2

Die CAS Latenz liegt ja nur beim 2-3-fachen. Heisst das jetzt, das es irgendwo im MC oder Cache vorher noch ordentlich hing oder dass generell einfach nur bessere Timings moeglich sind?

Schau hier, dann fällt es dir auf :-)
https://www.techpowerup.com/231268/amds-ryzen-cache-analyzed-improvements-improveable-ccx-compromises

Schaffe89
2017-03-31, 17:27:22
eben nicht. die spielleistung (besser teillast) ist normal. die anwendungsperfrmance (volllast) ist sehr, sehr gut.

eine schwäre sehe ich amd-typisch wenn dann eher beim produktstart (ram-kompatibilität, mainboard-verfügbarkeit). die cpu selbst ist top!

Akzeptiert doch einfach mal die Spieleschwäche des Ryzen und hört auf euch an Wörtern aufzuhängen, deswegen ist die CPU noch lange nicht schlecht.
Ich versteh die Diskussion nicht. Freut euch doch mal, dass AMD nach so langer Zeit überhaupt wieder als Spiele CPU empfohlen werden kann, zumindest wenn dann mal die günstigeren Ryzen aufschlagen.

IchoTolot
2017-03-31, 17:31:25
Akzeptiert doch einfach mal die Spieleschwäche des Ryzen und hört auf euch an Wörtern aufzuhängen, deswegen ist die CPU noch lange nicht schlecht.
Ich versteh die Diskussion nicht. Freut euch doch mal, dass AMD nach so langer Zeit überhaupt wieder als Spiele CPU empfohlen werden kann, zumindest wenn dann mal die günstigeren Ryzen aufschlagen.

Das wünsche ich mir auch. Man muss nicht alles schön, aber auch nicht alles schlecht reden, nur mal die Fakten anerkennen. Für Gamer ist Ryzen nicht die erste Wahl.

Tru
2017-03-31, 17:36:33
Das Update ist jetzt live: http://www.pcgameshardware.de/Ryzen-7-1800X-CPU-265804/Specials/AMD-AotS-Patch-Test-Benchmark-1224503/

AotS verringert eigenmächtig und ohne eingriffsmöglichkeiten die Partikeleffekte, wenn eine CPU weniger als sechs Kerne hat ...

Knuddelbearli
2017-03-31, 17:37:23
Ja, ich kann's auch nicht mehr lesen.

10-15% Rückstand im Mittel auf den Intel 7700k, also auf dem Niveau eines 4790k, einer CPU, der niemand, der halbwegs bei Trost ist, eine Spieleschwäche attestieren würde.


Das Problem ist das es zwar 10-15% im Mittel sind aber es eben manche Spiele gibt die nichtmal die Hälfte bringen ( und dafür andere wo man sogar schneller ist ) bei neuen Spielen wird zwar ersteres Abnehmen und letzteres zu aber trotzdem nervig wenn man dann ein Spiel spielen will wo Ryzen richtig lahm ist.
Das hält mich momentan, neben den RAM preisen, noch von einem Kauf ab.

dargo
2017-03-31, 17:38:30
Statt mit dem Ausdruck "Spieleschwäche" zu pauschalisieren, sollte man differenzierter von DX12-Schwäche (https://techreport.com/forums/viewtopic.php?t=119280)(oder Ryzen-Schwäche von DX12) schreiben. Zumindest im DX11-Durchschnitt von CB liegen Ryzen und 7700k trotz Taktunterschied gleich auf. Im Gegensatz zur Pauschalisierung wäre das eine hilfreiche Information bei der Kaufentscheidung und der Wahl der Spielesettings.
Gerade bei DX12 ist es noch stärker Softwareschwäche. ;) Hier sind nämlich die Entwickler in der größeren Verantwortung. Warten wir erstmal DX12 Games ab die von Anfang an auch für Ryzen (und nicht nur Intel und Bulldozer) optimiert sind.

Edit:
Nach dem Post von Menace sieht es eher nach dem NV-Treiber aus. Es wird immer bekloppter. :crazy:

Knuddelbearli
2017-03-31, 17:42:02
Ob es "reicht", kannst du für dich selber entscheiden. Wenn die Performance einer CPU in Spielen festgestellt werden soll, misst man nicht im GPU-Limit. Punkt.

Ich Persönlich würde ja folgendes bevorzugen.
( Natürlich als Spieletest nicht als Architekturvergleich )

Per Flexiblem Diagramm kann man alle Frametimes unter 0,6 ( falls man 60 fps zocker ist, sonst halt 0,3 usw ) abschneiden, dann sieht jeder wie gut die CPU performt und unnötige Spiele, da mehr als genug Leistung, werden automatisch ausgeschlossen.

Dann einfach noch aus dem dazugehörigen GPU test die FPS bzw Frametimes seiner Karte wählen und schon weiß man wie Spiel x performt.

Menace
2017-03-31, 17:43:07
Bzgl. DX12 Schwäche: Ist das schon bekannt bzw. bestätigt? Legende: Rot = Radeon-Treiber; grün = Nvidia-Treiber. Im Video gibt es weitere Benchmarks.

http://fs5.directupload.net/images/170331/pwwojnc2.jpg (http://www.directupload.net)

Falls ja, sorry.

Original:
Mal wieder vom Meinungsschotten. (https://www.youtube.com/watch?v=0tfTZjugDeg&t=1s)

Edit: Danke dargo; jetzt müsste es funktionieren (wenn auch nicht so komfortabel).

dargo
2017-03-31, 17:43:14
Das Update ist jetzt live: http://www.pcgameshardware.de/Ryzen-7-1800X-CPU-265804/Specials/AMD-AotS-Patch-Test-Benchmark-1224503/

AotS verringert eigenmächtig und ohne eingriffsmöglichkeiten die Partikeleffekte, wenn eine CPU weniger als sechs Kerne hat ...
Haha... das ist was für Schaffe. ;D

AotS senkt im regulären Spiel - nicht im integrierten Benchmark - eigenmächtig und ohne Eingriffsmöglichkeit des Spielers die Bildqualität auf CPUs mit weniger als sechs physischen Kernen (SMT spielt hier keine Rolle - ein per UEFI SMT-los gemachter Sechskerner muss auch das volle Brett berechnen; der Vollständigkeit halber sei angemerkt, dass wir nicht mit fünf physischen Kernen quergeprüft haben).

So wie es aussieht, werden auf Quadcores auch mit SMT, ergo acht Threads, ganze Partikelsysteme weggelassen - nämlich die des gegnerischen Abwehrfeuers, die am oberen Rand aus dem Kriegsnebel auftauchen. Sie fehlen in der Quadcore-Version, müssen aber von Sechs- und Achtkernern mitberechnet werden. Entsprechend sollten die Benchmarks nur zwischen den Quadcores untereinander, zwischen Achtkernern untereinander, nicht aber zwischen Acht- und Vierkernern verglichen werden.

Der simulierte R5 1500X (4C/8T und OC mit 3,6-4,1Ghz) ist übrigens nur noch unbedeutende 3% langsamer als der i7-7700k im Savegame. :P

Knuddelbearli
2017-03-31, 17:43:22
High-End-Prozessoren für Gamer in 720p mit ner GTX 1080 zu testen ist wie Autos im ersten Gang um die Wette fahren zu lassen. :biggrin:
Das sagt sicher auch irgend etwas über den Motor aus. Nur ist es völlig irrelevant, weil kein Mensch die so nutzt.

greetz
US


Quatsch genau umgekehrt ist es.

In 1080 testen ist wie mit einer angezogenen Handbremse einen Fiat 500 gegen einen Porsche zu stellen. Es mag noch Unterschiede geben aber die haben nichts mehr mit der eigentlichen Vergleich zu tun.

dargo
2017-03-31, 17:47:26
Bzgl. DX12 Schwäche: Ist das schon bekannt bzw. bestätigt? Legende: Rot = Radeon-Treiber; grün = Nvidia-Treiber. Im Video gibt es weitere Benchmarks.

http://fs5.directupload.net/images/170331/pwwojnc2.jpg (http://www.directupload.net)

Höchst interessant. Hätte nicht gedacht, dass selbst der DX12 Treiber bei NV noch so viel (in diesem Fall eher so wenig) Einfluss auf die Ryzen Performance hat. :uponder:

btw.
Dein YT-Link geht nicht.

Menace
2017-03-31, 17:48:06
Akzeptiert doch einfach mal die Spieleschwäche des Ryzen und hört auf euch an Wörtern aufzuhängen, deswegen ist die CPU noch lange nicht schlecht.
Ich versteh die Diskussion nicht. Freut euch doch mal, dass AMD nach so langer Zeit überhaupt wieder als Spiele CPU empfohlen werden kann, zumindest wenn dann mal die günstigeren Ryzen aufschlagen.

Jemand, der mit den Worten, Vorhersagen und Wahrheiten großzügig umgeht, verbittet sich natürlich gerne der Validität.

Natürlich hänge ich mich an Wörtern auf, wenn sie Inhalte verfälscht wiedergibt. Und nur weil Du etwas behauptest, wird es nicht wahr.

Schnoesel
2017-03-31, 17:49:32
Die tun einem die Hardwareredaktionen fast leid, wenn sowas wie eine eigenmächtige Reduktion der Details nicht bekannt ist. Danke fürs dranbleiben.

Sovie zu fake Bench und schwacher Leistung.

Linmoum
2017-03-31, 17:49:43
Für Gamer ist Ryzen nicht die erste Wahl.
Was ist denn für "Gamer" die erste Wahl? Ein 350€ teurer 7700K? Wohl nicht.

Die erste Wahl ist für die große Mehrheit eher eine CPU im i5-(Preis)Bereich. Also genau dort, wo 1500(X) bzw. der 1600 mit sehr hoher Wahrscheinlichkeit landen werden. Und ich bin mir dann sehr sicher, was in weniger als zwei Wochen für längere Zeit die "erste Wahl" sein wird. ;) Man sollte mal davon wegkommen, Ryzen nur auf die >340€ teuren R7 zu reduzieren. Denn die wahren "Kracher" aus P/L-Sicht kommen erst noch.

Kriton
2017-03-31, 17:50:12
Ob Teillast oder nicht, spielt im Endeffekt keine Rolle. Die CPU ist im Verhältnis zur Konkurrenz in Spielen (derzeit) schwächer als in Anwendungen. Das ist ein Fakt. Warum ist zwar interessant, aber für Redakteur/Leser/Käufer schlussendlich gleichgültig.

Der Aussage widerspreche ich. Wenn es eine Teillast ist, weil der Code die HW nicht ausnutzt, dann ist da Raum für SW-Optimierung. Bei Volllast nicht (so). Das ist wichtig für die Zukunft (wenn ich die CPU eine Weile behalten möchte).


Um ehrlich zu sein verstehe ich ohnehin nicht, warum sich die Leute über mein/CBs Fazit aufregen. Ich habe das positiv geschrieben und meine das auch so.

Möglicherweise ist Deine Intention nicht zum Tragen gekommen. Das erscheint mir mitunter auch ein Problem in den Diskussionen zu Artikeln. Unabhängig davon, ob man etwas so lesen kann (wie es der Redakteur beabsichtigt hat): Wird es (in der Mehrzahl) so gelesen? Wenn nicht, kann man sich natürlich sagen, dass der Fehler bei den Lesern liegt (und das mag auch meinetwegen so sein) - ändert aber nichts am Ergebnis (falsche Information kommt bei den Lesern an) - das sollte unabhängig vom Gefühl eigentlich alles richtig gemacht zu haben - nicht das Ziel sein. Hier würde ich mir mitunter mehr Reflexion der Redakteure wünschen (respektive Berücksichtigung des "Unverständnisses" der Leser).

Ich schäme mich selbst dafür, aber ich bringe mal ein Autovergleich:

;D

aufkrawall
2017-03-31, 17:55:01
Also taugt der integrierte Ashes-Benchmark doch dafür, um die Leistungsfähigkeit der CPUs bewerten zu können -> kein Ryzen-Gemogel durchs Update.

Th3o
2017-03-31, 17:55:49
Das Update ist jetzt live: http://www.pcgameshardware.de/Ryzen-7-1800X-CPU-265804/Specials/AMD-AotS-Patch-Test-Benchmark-1224503/

AotS verringert eigenmächtig und ohne eingriffsmöglichkeiten die Partikeleffekte, wenn eine CPU weniger als sechs Kerne hat ...
Das zum Thema 4 Kerne + HT reichen aus

fondness
2017-03-31, 17:59:43
Das Update ist jetzt live: http://www.pcgameshardware.de/Ryzen-7-1800X-CPU-265804/Specials/AMD-AotS-Patch-Test-Benchmark-1224503/

AotS verringert eigenmächtig und ohne eingriffsmöglichkeiten die Partikeleffekte, wenn eine CPU weniger als sechs Kerne hat ...

Das heißt also ein 1800X schlägt bei gleichen Details einen i7 6900K und ein simulierter 1500X ist nur minimal hinter dem i7 7700K.

Schaffe89
2017-03-31, 18:00:04
Das Problem ist das es zwar 10-15% im Mittel sind aber es eben manche Spiele gibt die nichtmal die Hälfte bringen

Das 3D Center ermittelt knapp 20% im Mittel zwischen 7700k und 1800x.
Und auch der 6900k ist noch etwas schneller als die 20%. Das ist im Mittel einfach im Vergleich zu den Anwendungen eine Art Spieleschwäche und macht Ryzen eben nicht zur Top Empfehlung als Spiele CPU, das sehen alle Reviews ausnahmlos so, aber ein paar wenige wollen nur die Fakten nicht akzeptieren.
Warten wir auf die Nachtests, vielleicht verbessert sich ja insgesamt was. HT4U hat nachgetestet und es hat sich nix geändert.

dargo
2017-03-31, 18:03:25
Die tun einem die Hardwareredaktionen fast leid, wenn sowas wie eine eigenmächtige Reduktion der Details nicht bekannt ist. Danke fürs dranbleiben.

Die tun mir echt leid. Das sind so Sachen mit denen rechnet keiner. :freak: Jetzt haben wir auch schon Software die Details bei weniger Cores der CPU automatisch reduziert. Das erinnert mich irgendwie an die Grafikkartengeschichte mit viel und wenig Vram. ;D Wenn das aber öfter vorkommt... ich möchte gar nicht wieder an die elendlangen Diskussionen hier im Forum denken. X-D

Das heißt also ein 1800X schlägt bei gleichen Details einen i7 6900K und ein simulierter 1500X ist nur minimal hinter dem i7 7700K.
Fairerweise muss man sagen, dass ein R5 1500X nicht mit 3,6/4,1GHz sondern 3,5/3,7Ghz kommen wird. Es werden also irgendwo um die ~10% fehlen (es sei denn Oxide optimiert hier noch stärker für Ryzen). Dennoch eine beachtliche Leistung für Ryzen. Besonders wenn man den Preis, die TDP und nicht zuletzt auch den Taktunterschied betrachtet.

Edit:
Argh... es werden beim R5 1500X wohl eher ~20% auf Kaby Lake fehlen. Der intergrierte CPU-Benchmark ist also doch cpu-lastiger als das Savegame und nicht umgekehrt wie von Raff vermutet. Was ein durcheinander. :freak:

Der_Korken
2017-03-31, 18:10:31
In integrierten Benchmark in AotS ist also der 7700K nur noch 13% vor dem 2+2 Ryzen mit 3,6/4,1 Ghz. Das heißt dann also ungefähr Gleichstand bei der IPC in diesem Test. Im PCGH-Savegame ist der simulierte 1500X zwar näher dran, allerdings mit Verdacht auf GPU-Limit, da ein auf 3,8 Ghz untertakteter 7700K nicht langsamer wird. Das sieht doch ganz gut aus.

Beim 1800X vs 6900K ist Gleichstand im Savegame, im CPU-Bench ist der Intel ~20% vorne. Dort skaliert Ryzen von 2+2 auf 4+4 Kerne nur mit 38%, während ein 6900K etwa 50% schneller als ein 7700K ist, der zudem deutlich höher taktet. Das ist interessant: Der Quadcore schient nicht unter dem getrennten Cache zu leiden, der Octacore scheinbar(?) schon. Eventuell doch ein internes Bandbreitenproblem? Oder limitiert beim Achtkerner der RAM? Wurde der 6900K mit Quad-Channel betrieben?

Edit: Danke auch an die PCGH-Redaktuere für die Nachtests :)

Knuddelbearli
2017-03-31, 18:11:13
So dann mal gratz an PCGH, auch wenn ich bisschen Schade finde wieso nicht gleich im Ursprungsartikel steht das man den komischen Messwerten noch nachgeht.

Vor einem Artikelrelease sollte man doch immer alle Werte einem Sanity check unterziehen.

Kriton
2017-03-31, 18:11:35
Man muss halt auch fragen, ob es nicht sinnvoll gewesen wäre den integrierten Benchmark zu benutzen. Diese grundsätzlich zu verteufeln ist vielleicht falsch (auch wenn ich die Gegenbeispiele kenne).

Conner_Ray
2017-03-31, 18:14:32
Akzeptiert doch einfach mal die Spieleschwäche des Ryzen und hört auf euch an Wörtern aufzuhängen
Akzeptier doch mal dass Ryzen keine "Spieleschwäche" hat, sondern wenn überhaupt Spiele eine Ryzenschwäche.

Achim_Anders
2017-03-31, 18:17:42
Lieber Wolfgang,

Danke das du dich hier stellst.
Das Problem mit deinem Ausdruck im Fazit sei dir anhand von den Usern Schaffe89 und Imaginez vor Augen geführt. Die wenigsten Menschen lesen differenziert und ruhig Tests und Texte. Haften bleiben undifferenzierte Worte aus dem Kontext die "Spieleschwäche".. Schaffe hat es wieder eindrucksvoll gezeigt in seinen zwei letzten Posts. Imaginez empfiehlt partout nur das von ihm selbst gekaufte.. Auch er hat wegen einer so genannten" Spieleschwäche "zum i7 gegriffen und erklärt täglich in 30 Posts in vielen Foren, auch bei euch, warum Ryzen zum zocken ungeeignet ist...

Die beiden sind hier nun in der Minderheit, in großen Communities wie bei euch verschiebt euch das bild nochmal zu Ungunsten von differenzierter und realistischer Betrachtungsweisen und bei mydealz hört es dann fast ganz auf...

Sie es als Kritik auf höchstem Niveau und vielleicht hat sich die Diskussion etwas mehr dafür sensibilisieren können, dass leider viele Leser einfache Schlagworte merken, die aus dem Kontext gerissen dann zu schlechten Kaufentscheidungen führen können.

Menace
2017-03-31, 18:35:31
Kommt bzgl. Tomb Raider DX12 nvidia vers Radeon eigentlich noch etwas von den Testern?

Edit: Zumal pcgh_Carsten ja jetzt die Grafik auch hat. ;)

dargo
2017-03-31, 18:49:23
@Menace

Das von dir verlinkte Video ist sogar extrem interessant. Und wieder hat es keine Redaktion in Deutschland geschafft es näher zu untersuchen. Ich wollte es zuerst in den Spoiler packen, das wäre aber viel zu schade.

https://abload.de/img/1yvxbz.jpg

https://abload.de/img/2pnz5t.jpg

https://abload.de/img/32slkf.jpg

https://abload.de/img/43blv3.jpg

https://abload.de/img/5jubei.jpg

https://abload.de/img/6zfb0q.jpg

https://abload.de/img/73zba0.jpg

https://abload.de/img/8k0xyw.jpg

Stattdessen wird Ryzen eine Spieleschwäche attestiert. :rolleyes:

Bei einem Punkt bin ich mir noch etwas unsicher. Verfälscht in irgendeiner Weise die Relationen das Cross Fire Gespann? Normalerweise nicht oder? Außer, dass vielleicht die CPU etwas mehr zu tun hat? Lieber wäre mir 2x GTX1060 vs. 2x RX480 oder GTX1080 TI vs. Vega. Naja... Vega ist noch nicht da, also geht das schlecht. Wenn CF hier nichts großflächig verfälscht. Was zum Teufel läuft da bei NV im Grafiktreiber mit Ryzen quer? Ist AMD bei ihren Grafiktreibern bezüglich Ryzen schon wesentlich weiter? Wäre zumindest nicht so abwegig beim gleichen Hersteller.

G3cko
2017-03-31, 19:04:16
Lieber Wolfgang,

Danke das du dich hier stellst.
Das Problem mit deinem Ausdruck im Fazit sei dir anhand von den Usern Schaffe89 und Imaginez vor Augen geführt. Die wenigsten Menschen lesen differenziert und ruhig Tests und Texte. Haften bleiben undifferenzierte Worte aus dem Kontext die "Spieleschwäche".. Schaffe hat es wieder eindrucksvoll gezeigt in seinen zwei letzten Posts. Imaginez empfiehlt partout nur das von ihm selbst gekaufte.. Auch er hat wegen einer so genannten" Spieleschwäche "zum i7 gegriffen und erklärt täglich in 30 Posts in vielen Foren, auch bei euch, warum Ryzen zum zocken ungeeignet ist...

Die beiden sind hier nun in der Minderheit, in großen Communities wie bei euch verschiebt euch das bild nochmal zu Ungunsten von differenzierter und realistischer Betrachtungsweisen und bei mydealz hört es dann fast ganz auf...

Sie es als Kritik auf höchstem Niveau und vielleicht hat sich die Diskussion etwas mehr dafür sensibilisieren können, dass leider viele Leser einfache Schlagworte merken, die aus dem Kontext gerissen dann zu schlechten Kaufentscheidungen führen können.

This!

Das Wort Spielschwäche suggeriert nunmal, dass Ryzen für Spiele ungeeignet ist, oder eben nicht die erste Wahl. Das ist aber komplett falsch. Auch der Titel "In Anwendungen ein König, in Spielen ein Prinz". Als Gamer will man nur das beste => Ergo Ryzen scheiße. Noch unglücklicher kann man einen Titel nicht wählen.

Dabei stellt man in 5 min folgendes fest. (Ich nehme an als Redakteur und Tester sitzt man da eine ganze Ecke länger dran)

IPC auf Broadwell-Niveau -> Check
Takt auf ähnlichem Niveau -> Check
Leistung in Anwendungen verlgeichbar -> daher keine Überraschung

Leistung in vielen Spielen vergleichbar -> Check
Leistung in manchen spielen mit extrem großen Ausreißern. -> mhhh komisch
Leistung in gleichen Titeln mit unterschiedlichen APIs extrem unterschiedlich -> WTF? Nein, lass uns das mal nicht überprüfen. Ryzen hat eine "Spieleschwäche"

Ich meine das ist mal eben der größte Architekturbruch in den letzten 10 Jahren. Nichteinmal Nehalem bei Intel mit Abschaffung des FSB kommt da annähernd ran. AMD hat die Entwicklung bei Bulldozer eingestellt und im Hintergrund etwas gänzlich anderes aufgebaut. Eher Vergleichbar mit Pentium4 auf CoreDuo, aber da war der eigene Vorgänger so grottig, dass man auch fehlende Softwareoptimierung garnicht merken würde, selbst wenn dem so gewesen wäre.

Auch ist bekannt das DX12 und DX11 Treiber bei AMD und Nvidia etwas anders skalieren. Warum wird da nicht mal mit einer AMD Karte gegengetestet, wenn die Ergebnisse selbst im gleichen Titel so extrem abweichen?

Ryzen hat keine Spieleschwäche sondern die Andwendungen sind schlicht nicht optimiert und könnten mit der Architektur nicht umgehen. Manche zeigen sich unbeindruckt andere wiederum haben starke Ausreißer. Es spricht nichts dafür, dass dies ein Dauerzustand bleiben wird. Ganz im Gegenteil.

Der DX11 Treiber hat bei AMD ein Overheadproblem und skaliert deutlich schlechter mit Cores. Hat dann ein 6950x auch eine Spieleschwäche (mit AMD Karten)? :freak:

https://www.pcper.com/files/imagecache/article_max_width/review/2015-08-04/pcper-2015-dx12-980.png
https://www.pcper.com/files/imagecache/article_max_width/review/2015-08-04/pcper-2015-dx12-290x.png

@Wolfgang: Wenn du noch einen Titel für die kommenden Ryzen suchst: "In Anwendungen ein König, in Spielen bald auch!"

Das wär doch mal was. Bitte nicht persönlich nehmen. ;)

y33H@
2017-03-31, 19:10:18
Und wieder hat es keine Redaktion in Deutschland geschafft es näher zu untersuchen. Kommt Zeit, kommt Test - GTX 1060 vs RX 480 auf 1600X.

dargo
2017-03-31, 19:15:41
Kommt Zeit, kommt Test - GTX 1060 vs RX 480 auf 1600X.
Ich hoffe aber auch diese Anomalien wie zb. RotTR mit DX11 und DX12 und nicht schon wieder den Standardkram? Optimal wäre noch sowohl 720p als auch 1080p um etwas mehr Vergleichsmaterial zu bekommen.

aufkrawall
2017-03-31, 19:22:30
Stattdessen wird Ryzen eine Spieleschwäche attestiert. :rolleyes:

Meinte CB-Wolfgang nicht, dass sie so etwas getestet hätten und ihnen wäre nichts aufgefallen? :freak:

Menace
2017-03-31, 19:24:01
Kommt Zeit, kommt Test - GTX 1060 vs RX 480 auf 1600X.

Ein Anfang; wenn es dann nicht wieder an der Anzahl der Kerne hängt (je mehr Kerne, desto schlechter mit nvidia)? Nicht noch ein 1700(X) rumliegen?

Aber man sieht, dass der 8Kern-Ryzen schon in sehr kurzer Zeit "reift". :biggrin:

dargo
2017-03-31, 19:26:28
Meinte CB-Wolfgang nicht, dass sie so etwas getestet hätten und ihnen wäre nichts aufgefallen? :freak:
Wenn ich mich richtig erinnere hat Wolfgang in diversen Games (wieviele? keine Ahnung) Radeon und NV verglichen. Von einem Test Radeon vs. NV @DX11 und DX12 wie zb. RotTR habe ich nichts mitbekommen.

aufkrawall
2017-03-31, 19:29:52
Irgendein Redakteur hatte hier gesagt, dass bei einem kurzen Vergleich NV vs. AMD DX11/12 mit Ryzen nichts aufgefallen wäre, und ich meine es war Wolfgang.

Edit:
Nicht mit den gleichen GPUs und der Thematik DX12, aber die Aussage widerspricht für mich deutlich den Ergebnissen von dem anderen Test:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11311703&postcount=1295

Oder das...
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11308341&postcount=593

uweskw
2017-03-31, 19:38:06
Quatsch genau umgekehrt ist es.

In 1080 testen ist wie mit einer angezogenen Handbremse einen Fiat 500 gegen einen Porsche zu stellen. Es mag noch Unterschiede geben aber die haben nichts mehr mit der eigentlichen Vergleich zu tun.


In 1080 720p testen ist wie mit einer angezogenen....
weil künstlich unrealistische Bedingungen geschaffen werden und das Ergebnis so gut wie nichts über das Verhalten unter normalen Bedingungen aussagt.

Mit einer 1080Ti ist 1440p oder 4K realistisch. Und das Ergebnis bei hohen Auflösungen lautet: Alle High-End CPUs liefern momentan genug Leistung.

greeetz
US

dargo
2017-03-31, 19:45:31
Edit:
Nicht mit den gleichen GPUs und der Thematik DX12, aber die Aussage widerspricht für mich deutlich den Ergebnissen von dem anderen Test:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11311703&postcount=1295

Oder das...
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11308341&postcount=593
Wo soll das dem Test im Video widersprechen? Ich lese da nichts dergleichen heraus, dass man sich mit den Anomalien überhaupt beschäftigt hat. Im übrigen wird auch bei der CB Ryzen 1800X unter DX12 langsamer während ein Hassi schneller wird, mit NV Graka wohlgemerkt. In dem Video ist in keinem Test das Radeon CF Gespann unter DX12 mit Ryzen langsamer. Schon gar nicht so ein Fail wie mit der NV Karte in Moutain Pass.

Birdman
2017-03-31, 19:45:57
In 1080 720p testen ist wie mit einer angezogenen....
weil künstlich unrealistische Bedingungen geschaffen werden und das Ergebnis so gut wie nichts über das Verhalten unter normalen Bedingungen aussagt.

Mit einer 1080Ti ist 1440p oder 4K realistisch. Und das Ergebnis bei hohen Auflösungen lautet: Alle High-End CPUs liefern momentan genug Leistung.
Immer die selbe Leier und anscheinend immer noch nichts begriffen.
Aber Benchmark mit 1080ti sind realistisch? Ah ja, ok, nach deiner Argumentation können dadurch also ca 347 Leute auf dieser Welt einen Rückschluss aus den Benchmarks ziehen. Alle andern haben leider die Arschkarte gezogen, da sie ne langsamere GPU haben und somit nicht wissen was eine moderne CPU bei ihnen bringen würde.

aufkrawall
2017-03-31, 19:47:09
In dem Video ist in keinem Test das Radeon CF Gespann unter DX12 mit Ryzen langsamer.
Eben darum geht es doch.

Knuddelbearli
2017-03-31, 19:51:15
In 1080 720p testen ist wie mit einer angezogenen....
weil künstlich unrealistische Bedingungen geschaffen werden und das Ergebnis so gut wie nichts über das Verhalten unter normalen Bedingungen aussagt.

Mit einer 1080Ti ist 1440p oder 4K realistisch. Und das Ergebnis bei hohen Auflösungen lautet: Alle High-End CPUs liefern momentan genug Leistung.

greeetz
US


Nein das ist einfach quatsch, außer du willst mit dutzenden GPUs und Auflösungen testen. Ein Test in Full HD oder gar 4k bringt nur demjenigen was der genau diese Auflösung und genau diese Grafikkarte benutzt, sonst niemanden was.

Bei 720p siehste was die CPU schafft. Jetzt nimmst du dir einen GPU Test dieses Spiels mit deiner Grafikkarte und deiner Auflösung, vergleichst die Werte miteinander und das niedere davon sind dann deine FPS und das limitiert dann.

Ich war ja selber lange gegen 720p aber mit der oben genannten Argumentation ging mir dann ein Licht auf.

Birdman
2017-03-31, 19:53:52
Die tun einem die Hardwareredaktionen fast leid, wenn sowas wie eine eigenmächtige Reduktion der Details nicht bekannt ist. Danke fürs dranbleiben.
Ich mein auch wtf...

AotS senkt im regulären Spiel - nicht im integrierten Benchmark - eigenmächtig und ohne Eingriffsmöglichkeit des Spielers die Bildqualität auf CPUs mit weniger als sechs physischen Kernen

Grundsätzlich ist das ja eigentlich richtig gut und klug gemacht von Oxide. Im Benchmark wird nix beschnitten, damit alle Testprobanden immer die gleichen Voraussetzungen haben.
Im Spiel dann aber darauf gekuckt, dass auch schwächere CPU's nicht absaufen, indem einfach "dynamisch" die Load angepasst wird - für den Spieler eigentlich ziemlich optimal.

Nur, wieso wird sowas von Oxide nicht mitgeteilt?!?
Dieses Verhalten verzerrte ja nun nicht erst seit dem Ryzen die Sicht auf die Performancewerte in diesem Spiel. Und dass viele Redaktionen mit eigenen Savegames testen und somit von dem "Problem" betroffen ware,n hätte doch auch Oxide wissen müssen.

Knuddelbearli
2017-03-31, 19:56:54
Im Spiel dann aber darauf gekuckt, dass auch schwächere CPU's nicht absaufen, indem einfach "dynamisch" die Load angepasst wird - für den Spieler eigentlich ziemlich optimal.


Genau das wird da doch nicht gemacht sondern einfach eiskalt nach Kernen an und abgeschaltet. Ein I7 8 Kerner mit 2 Ghz bekommt volle Details, während ein 4 Kerner mit 4GHz, der die selbe Leistung hat, nur abgespeckte Details berechnen muss.
Wenn dann hätte das ein Menüpunkt sein müssen den man bei 4 Kerner maximal auf hoch stellen kann und nur bei 6+ Kernen auf Ultra. Oder noch besser man kann ihn immer auf Ultra stellen, aber mit Warnung das die CPU dafür nicht geeignet ist.

TGKlaus
2017-03-31, 19:58:41
Auf der einen Seite habt ihr Recht, das man (pcgh) das nicht wissen konnte.
Auf der anderen Seite war nach einem Blick auf die Werte klar, das da was nicht passen konnte.