Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Spiele-Performance von Ryzen 7 vs. Core i7-7700K: Ähnliches Verhält...
Leonidas
2017-05-01, 17:42:41
Link zur News:
https://www.3dcenter.org/news/spiele-performance-von-ryzen-7-vs-core-i7-7700k-aehnliches-verhaeltnis-wie-frueher-bei-core-2-q
IchoTolot
2017-05-01, 17:45:37
Mit den Vorhersagen wäre ich vorsichtig.. Ein Sprung von 2 auf 4 ist eben was anderes als von 4 auf 8 oder 8 auf 16.
maximus_hertus
2017-05-01, 19:32:33
Mit den Vorhersagen wäre ich vorsichtig.. Ein Sprung von 2 auf 4 ist eben was anderes als von 4 auf 8 oder 8 auf 16.
Die "Vorhersage", dass 8 Kerner die Zukunft gehört ist definitv wahrscheinlicher als umgekehrt. Der E8600 ist wirklich ein passender Vergleich für den 7700K. Das "letzte Aufbäumen" der Dual bzw. jetzt Quadcores, bevor man nur im Low Budget Bereich landet.
Der massiv vorgezogene CFL ist auch ein (deutliches) Indiz für den Abgesang der Quadcores.
@Leo
Zum Ende schreibst du ständig von Vierkernen obohl Octacores gemeint sind?
IchoTolot
2017-05-01, 19:42:36
Dass der Wechsel kommt steht außer Frage, aber bis wann man noch mit 4 Kernern und 8 Threads Titel auf maximalen Details zocken kann ohne Einbußen, die Vorhersage geht immer etwas zu schnell in die Richtung, dass in nächster Zukunft dem nicht mehr so sei.
basix
2017-05-01, 20:57:30
Mit Haswell(+), 4C und 4+GHz wird man sicher noch eine gute Zeit lang gut Spielen können. Auf der anderen Seite hat man heute schon in vielen Spielen Vorteile mit 6+ Kernen und bei neu erscheinenden Spielen ist die Tendenz noch stärker. Konsolen und deren 6-7 aktive Cores für das Game sind der Schlüssel dazu. Mehr als 8C wird nur von einzelnen Engines wirklich unterstützt werden. Frostbyte ist eine davon.
maximus_hertus
2017-05-01, 21:07:18
Dass der Wechsel kommt steht außer Frage, aber bis wann man noch mit 4 Kernern und 8 Threads Titel auf maximalen Details zocken kann ohne Einbußen, die Vorhersage geht immer etwas zu schnell in die Richtung, dass in nächster Zukunft dem nicht mehr so sei.
Ashes of the Singularity, 7700K zeigt nicht(!) alle Details. Von daher ist es schon jetzt der Fall. Die Frage ist eher, ab wann es zur Regel wird.
IchoTolot
2017-05-01, 21:16:52
Das ist ein absoluter Ausnahmefall und ich habe heute auch noch mal aus Spaß den benchmark laufen lassen mit Crazy Settings und 1080p und CPU-based. Selbst bei diesem Extremfall wo die CPU restlos ausgelastet ist, sind die Frametimes noch total gleichmäßig und ich habe meine 40 FPS. Und im Benchmark wird bekanntermaßen nichts ausgeblendet. Wenn das also stellvertretend für die Zukunft steht wo meine CPU mal restlos ausgelastet ist, dann brauch ich mir wohl keine Sorgen zu machen.
https://www.youtube.com/watch?v=r8f8B-pzDxo
Die Kommentare zum Stottern des Videos bitte sparen, das liegt wohl am Aufnehmen mit Afterburner oder der hohen Auslastung oder dem anschließenden Konvertieren der Raw AVI-Datei zu MP4. Oder alles zusammen.
Handycam wie es wirklich läuft:
https://drive.google.com/file/d/0B4u1BIo5m-8lRHJpbUliLVJSTXc/view?usp=sharing
h2096524
2017-05-01, 21:21:18
Ryzen Hardware also für die Zukunft kaufen ... mit Sicherheit nicht!
Ryzen kränkelt an zu wenig Takt und das wird noch eine Modelle so bleiben wie man an den spärlichen OC Ergebnissen sieht. Bis man einen wirklichen Vorteil aus den 8 Kernen zieht hat AMD da hoffentlich selbst nachgebessert ansonsten zeigt ihnen eben Intel wieder wie es geht. Als Umsteiger egal von was ist es eben aktuell mehr als Sinnfrei auf Ryzen zu wechseln. Schöner Einstieg mehr aber auch nicht als kleiner Heimanwender. Spätestens in den nächsten Monaten müsste AMD einen X1900 nachschieben wenn man nicht in Vergessenheit geraten will so traurig wie es auch ist. Und dann muss ganz ganz schnell etwas her was einen Sprung auf X2... im Namen verdienen würde!
Als Erst-PC Käufer der sich nur alle 10 Jahre wieder was holen will bestimmt keine schlechte Wahl auf Ryzen zu setzen, als Umsteiger muss die Banane dann aber doch noch viel mehr reifen! Generation 1 lass ich schon wegen den verbugten Boards aus, wird ja jeder schon Live erlebt haben das man da von Langzeitsupport fürs Brett schon ewig nicht mehr sprechen kann, lieber schieben die Hersteller neue Bretter nach als das man nach 1-2 Jahren noch neue Bios veröffentlicht. Von daher wird man wenn man sich jetzt ein Ryzen System zu legt zu 100% immer mit irgendwelchen alten Bugs leben müssen.
IchoTolot
2017-05-01, 21:24:08
Mich hat vor 2 Monaten auch Ryzen erst mal abgeschreckt und ich wollte aber nicht warten. Also wurde es der 7700K. Vielleicht steige ich mit CL oder Ryzen 2 dann auf mehr kerne um, wenn sie wirklich mehr bringen gegenüber einem starken Vierkerner.
maximus_hertus
2017-05-01, 21:24:13
Das ist ein absoluter Ausnahmefall und ich habe heute auch noch mal aus Spaß den benchmark laufen lassen mit Crazy Settings und 1080p und CPU-based. Selbst bei diesem Extremfall wo die CPU restlos ausgelastet ist, sind die Frametimes noch total gleichmäßig und ich habe meine 40 FPS. Und im Benchmark wird bekanntermaßen nichts ausgeblendet. Wenn das also stellvertretend für die Zukunft steht wo meine CPU mal restlos ausgelastet ist, dann brauch ich mir wohl keine Sorgen zu machen.
https://www.youtube.com/watch?v=r8f8B-pzDxo
Die Kommentare zum Stottern des Videos bitte sparen, das liegt wohl am Aufnehmen mit Afterburner oder der hohen Auslastung oder dem anschließenden Konvertieren der Raw AVI-Datei zu MP4. Oder alles zusammen.
Handycam wie es wirklich läuft:
https://drive.google.com/file/d/0B4u1BIo5m-8lRHJpbUliLVJSTXc/view?usp=sharing
Es geht doch darum, dass ein 7700K unabhängig seiner fps Leistungsfähigkeit vom Spiel auf Medium Details limitiert wird. Ich habe ja auch geschrieben, dass es aktuell ein Einzelfall ist, es aber in Zukunft wahrscheinlich öfter passieren wird.
Ein Pentium Skylake Duslcore könnte garantiert öfters noch ausreichend fps liefern, wird durch die Spiele aber "beschnitten" bzw. weigern sie zu starten.
F4USt
2017-05-01, 21:27:22
Interessant. Da muss erst jemand im Hardwareluxx Forum etwas posten und auf das 3dcenter oder den hier ebenfalls im Forum oder in den Newskommentaren erwähnten Youtuber AdoredTV verweisen, damit es einen Artikel von Leonidas gibt.
Nicht böse gemeint, aber etwas seltsam. Naja gut. Dort ist es zusammengefasst.
Dass der Wechsel kommt steht außer Frage, aber bis wann man noch mit 4 Kernern und 8 Threads Titel auf maximalen Details zocken kann ohne Einbußen, die Vorhersage geht immer etwas zu schnell in die Richtung, dass in nächster Zukunft dem nicht mehr so sei.
Den Punkt haben wir doch schon erreicht.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=59878&stc=1&d=1493666388
Quelle: https://www.youtube.com/watch?v=ylvdSnEbL50&t=772s
Nur so nebenbei. Dort wird sich auch mit dem Thema "720p" beschäftigt und warum es vielleicht doch nicht so aussagekräftig ist, wie viele denken.
IchoTolot
2017-05-01, 21:27:54
Das ist aber nur eine Vermutung von dir, musst du auch zugeben. Bislang ist das bei keinem anderen Spiel so und man hat ja eine Weile gebraucht um es rauszufinden und es hat scheinbar nicht mal jeder bis jetzt im weiten World Wide Web. Daraus jetzt was abzuleiten für die Zukunft ist unrealistisch.
IchoTolot
2017-05-01, 21:29:51
Den Punkt haben wir doch schon erreicht.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=59878&stc=1&d=1493666388
Ryzen liefert auch nicht mehr FPS sehe ich da? :confused: Und was ist an einer hohen Auslastung schlimm? Erst wenn die GPU nicht mehr versorgt werden kann, wird es kritisch. Sorry, aber so sehe ich das.
F4USt
2017-05-01, 21:36:08
Das ist aber nur eine Vermutung von dir, musst du auch zugeben. Bislang ist das bei keinem anderen Spiel so und man hat ja eine Weile gebraucht um es rauszufinden und es hat scheinbar nicht mal jeder bis jetzt im weiten World Wide Web. Daraus jetzt was abzuleiten für die Zukunft ist unrealistisch.
Ich denke die Engine für Battlefield 1 ist am Besten für Ryzen optimiert so far. Das bedeutet für mich: "Wenn Ryzen bei einem Spiel gut performt, kann es das in jedem Spiel!".
Beim obigen Posting mit dem Beispiel Ashes of the Singularity wissen wir doch, dass dort noch keine genügende Optimierung stattgefunden hat. Für mich ist dieser Benchmark daher nicht sehr aussagekräftig, wenn ich wissen möchte, was kann Ryzen leisten.
Ryzen liefert auch nicht mehr FPS sehe ich da? :confused: Und was ist an einer hohen Auslastung schlimm? Erst wenn die GPU nicht mehr versorgt werden kann, wird es kritisch. Sorry, aber so sehe ich das.
Es geht mir nicht um mehr FPS. Dort wurde eine Geforce GTX 1080 genutzt und man ist schon im CPU-Limit oder zumindest sehr knapp dran. Künftig werden stärkere Grafikkarten erscheinen. Wegen des CPU-Limits würde ich davon aber nichts sehen, wenn ich mir ein solche kaufen würde.
G3cko
2017-05-01, 22:06:25
Mit den Vorhersagen wäre ich vorsichtig.. Ein Sprung von 2 auf 4 ist eben was anderes als von 4 auf 8 oder 8 auf 16.
Nein ist es nicht. Blende einfach mal Ryzen aufgrund der aktuellen Probleme aus (Compailer, Treiber, Windows, etc) In keinem Benchmark von CB aus 2016 ist der 7700k noch unter den Top3. Alle CPUs dort haben 6,8,10 Kerne. Aktuelle Engine skalieren sogar mit 2GHz perfekt mit Anzahl der Cores. Einfach mal den Beitrag lesen.
Zu Zeiten des Core2Quad war das ganz anderes. Da war noch ein Gleichstand zwischen DualCore und QuadCore mit identischem Takt, also 0,000%!
Stand heute werden bereits mehere hundert MHz ausgeglichen. Und es wird nicht besser. Es lässt sich auch ein Zusammenhang zwischen der Kernanzahl der Konsolen und der Spiele finden. Das Märchen von den "mehr als 4 Kerne bringen nicht" ist nun mal auf die Last-Gen beschränkt.
https://www.youtube.com/watch?v=XKzu2sF8k4k
Wie man zB hier sieht hört die Skalierung bei etwa 7 Kernen auf. Komisch zufälle gibts...
Der PC ist nicht die Leadplattform!
Es geht doch darum, dass ein 7700K unabhängig seiner fps Leistungsfähigkeit vom Spiel auf Medium Details limitiert wird.
Das ist eine künstliche und zugleiche blödsinnige Limitierung der Devs. Die Devs könnten, wenn sie wollten, auch eine 10C CPU bei den Details runtersetzen. Möglicherweise ist das eine PR Maßnahme extra für AMD.
Eldoran
2017-05-01, 23:10:40
Außerdem darf man nicht vergessen, dass mehr wie 4C seit Jahren erhältlich sind, auch wenn intel die gerne in gold aufgewogen haben wollte :biggrin:
Weiters sind bei den Konsolen schon seit Jahren tendenziell mehr cores und weniger Takt verfügbar. Wenn eine Engine also auch auf Konsolen gut laufen soll war schon länger eine stärkere Aufteilung in mehr threads sinnvoll. Allerdings hat bisher der Großteil der potentiellen Käufer am PC eher einen i5 stehen, vielleicht noch einen i7. Dementsprechend sind dann die Mindestanforderungen geplant worden.
Bei aktuell erhältlichen Spielen ist daher ein 7600K in der Regel ausreichend. In naher Zukunft wird das bei AAA Titeln vermutlich anders aussehen, schießlich ist das ein potentieller Kaufgrund. Auf weniger Leistungsfähigen CPUs dann eben mit niedrigeren Details etc. Die Mindestanforderungen werden vermutlich noch ein paar Jahre mit 4C, ggf. 4C/8T liegen, welche Abstriche man dort machen, muss steht auf einem anderen Blatt.
Rein von der theoretischen Rechenleistung her kann sich ein R7 1700 durchaus mit einen OC i7 7700K anlegen und das dürfte auch in den nächsten AAA Titeln immer stärker sichtbar werden.
Sich auf die Situation 8600 vs 9550 zu beziehen, ist kontraproduktiv, wenn man mehr Kerne promoten will.
Nein, ich kaufe keine CPU, von der ich erst Jahre später einen Vorteil habe.
Mal ganz davon ab, dass es sich um gleiche Architektur (Jaja, Yorkfield vs Wolfdale) handelt.
Noch 2016 haben Tests gezeigt, wie wenig man z.B. bei einer GTX960 real verliert, wenn man auf Quad verzichtet.
Aber schön, nochmal aufgelistet zu sehen, was für Taktaufschläge im Consumerbereich bei weniger Cores machbar sind, wenn man denn will. 7700K & vs 6950X sind unterschiedliche Generationen und Märkte.
Es wird hier immer von Spieleperformance geredet, aber diese ist vergleichsweise noch sehr gut Multi Core optimiert. In der Praxis wird eine CPU zu mindestens 70-80% Aufgaben erledigen, die überhaupt nicht parallelisiert sind z.B. Windows Updates herunterladen, Ladezeitien von diversen Programmen. Selbst bei Software wie SQL Server 2016 wird man feststellen, dass bei 1 Nutzer nur 1 Kern genutzt wird, da die Statements meistens nicht die Länge erreichen, dass der Scheduler parallelisiert.
Schaffe89
2017-05-02, 06:37:21
Nein ist es nicht. Blende einfach mal Ryzen aufgrund der aktuellen Probleme aus (Compailer, Treiber, Windows, etc)
Da gibt es keine Probleme, jedenfalls keine die relevant wären.
Im Endeffekt willst du uns hier erzählen der Wechsel von 2C auf 4C sei derselbe wie von 4C8T auf 8C16T und das ist einfach nur hanebüchener Quatsch.
Computerbase testet im neuen Parcours auschließlich moderne Spiele und selbst da profitiert der 8C Ryzen nicht 1% gegenüber dem 6C Ryzen.
Selbst der 8C Ryzen liegt bei gleicher Taktrate etwa 15% vor dem Ryzen 4C.
Der Grund warum Intel bei den Server Abkömmlingen mehr profitiert liegt am fetteren Cache. Wäre Ryzen nicht so eine Taktkrücke, könnte der 4C besser übertakten werden, weil das Energiebudget nicht so schnell limitieren würde. Und dann könnte der Ryzen 4C den Profit des 8C aus den Kernen mit dem Mehrtakt ausgleichen, vor allem weil er gleich viel Cache besitzt.
In keinem Benchmark von CB aus 2016 ist der 7700k noch unter den Top3.
Logisch (auch wenn das im aktuellen Ryzen 5 CB Test womöglich mit schnellerer Karte nicht mehr zutrifft und das tut es auch nicht) , weil er viel weniger Cache besitzt und du das quasi dauernd ignorierst.:rolleyes:
Ein Broadwell i7 mit L4 Cache und entsprechender Taktraten wischt mit jedem 6 oder 8 Kerner den Boden auf.
Viel interessanter wäre es wenn du die Ryzen Skalierung beachten würdest, dann fiele aber deine Argumentation auseinander.
https://abload.de/img/frfrfr7qkgo.png
Das sind 17%, taktbereinigt 15% vom 1500x zum 1800x, der 1600x ist quasi innerhalb der Messungenauigkeit langsamer.
Diese 15% würde man mit der Taktdifferenz eines 7700k zum 6900k locker herausholen, das geht aber nicht wegen der Caches.
So hast du in diesem eh schon Musterbeispiel bei CB an AAA Titeln quasi ein Sammelsurium an Multithreaded AAA Titeln, was einen Bruchteil des Marktes repräsentiert.
Quasi 99% der Spiele die auf Steam neu released werden wollen von mehr als 8 Threads nichts wissen.
Gehst du auf andere Seiten die auch andere Spiele benchen, hast du eine viel geringere Skalierung, deswegen akzeptierst du in einem HWL Beitrag auch keine anderslautenden Quellen.
Und Spiele von 2017 sind mit nichten multithreaded das ist vielleicht bei 1 Spiel aus 30 die herauskommen, so.
Du gehst im Endeffekt nur mit Scheuklappen durch die Welt und jeder der nicht pro Ryzen testet und sich nicht nur neue multithreaded Titel herauskramt (von denen es vielleicht 7 oder 8 Stück gibt) hat dann einen Fehler gemacht.
http://www.pcgameshardware.de/Spiele-Thema-239104/Specials/PC-Spiele-2017-1199212/
Hier hast du alle kommenden Spielereleases. Davon kann man jetzt schon sagen dass vielleicht 2 oder 3 von den 60 Games profitieren werden.
Das wird Star Wars Battlefront 2 sein, vielleicht Dirt 4 und Warhammer, das wirds aber auch schon gewesen sein.
Leonidas
2017-05-02, 07:22:11
@Leo
Zum Ende schreibst du ständig von Vierkernen obohl Octacores gemeint sind?
Wenn ich mich nicht verschrieben habe, dann meine ich dort Vielkerner.
Interessant. Da muss erst jemand im Hardwareluxx Forum etwas posten und auf das 3dcenter oder den hier ebenfalls im Forum oder in den Newskommentaren erwähnten Youtuber AdoredTV verweisen, damit es einen Artikel von Leonidas gibt.
Nicht böse gemeint, aber etwas seltsam. Naja gut. Dort ist es zusammengefasst.
Hängt vielleicht einfach damit zusammen, das ich diesen YouTuber nicht kenne. So wie ich ansonsten auch keine anderen YouTuber kenne. Weil Videos als Nachrichtenmedium für Details so unglaublich schlecht sind, das es zum Weglaufen ist. Ein 10-Minuten-Video anschauen zu müssen für eine einzige interessante Aussage oder um eine bestimmte Stelle zu finden, ist einfach nur die Hölle.
Davon abgesehen wird YouTubing von den meisten "Darstellern" primär dazu genutzt - darzustellen, am liebsten sich selbst. Ich sollte als Autor aber über das Produkt oder die Meldung berichten, nicht über mich selbst.
Generation 1 lass ich schon wegen den verbugten Boards aus, wird ja jeder schon Live erlebt haben das man da von Langzeitsupport fürs Brett schon ewig nicht mehr sprechen kann, lieber schieben die Hersteller neue Bretter nach als das man nach 1-2 Jahren noch neue Bios veröffentlicht. Schreib nicht so einen Unsinn. Mein Mainboard ist zum Beispiel 1,5 Jahre alt und hat im März erst wieder ein Bios Update erfahren. :smile: Keine Ahnung wie es bei den anderen aussieht aber bei Gigabyte gibt es langen Support.
Cyphermaster
2017-05-02, 08:30:19
Hängt vielleicht einfach damit zusammen, das ich diesen YouTuber nicht kenne.Es geht auch nicht NUR um den YouTuber, sondern eher darum, daß ähnliche Aussagen bezüglich der "Spieleschwäche" Ryzen ja/nein schon früher (z.B. in den Kommentaren zu deiner ersten Meldung hier) und auch anderswo gekommen sind, aber bei dir keinerlei Gehör gefunden haben.
Unter Anderem eben auch direkt hier im Forum, wo du die Leute eigentlich kennen bzw. einschätzen können solltest.
Leonidas
2017-05-02, 08:34:01
Da hast Du Recht. Für mich brauchte es einfach diesen Anlaß - und auch mal den Freiraum eines Feiertags. Meistens sind es einfach nur zeitliche Probleme, ich schaffe nicht im Ansatz die Arbeit, die ich mir vornehme.
Cyphermaster
2017-05-02, 08:38:29
Schau das nächste Mal vielleicht doch einfach zuerst in deinem eigenen Forum, ob da die Leute nicht schon was Gutes beizutragen haben, bevor du dich in allen möglichen anderen Quellen verlierst. Es sind noch immer helle Köpfe dabei, und die würde es sicher freuen, wenn man sie auch zu schätzen weiß... ;)
Grafikspachtel
2017-05-02, 08:48:40
Was soll einem die Spiele-"Performance" in 720p sagen?
Ich kann das nicht ernstnehmen.
Die Ironie bei der Sache ist, dass die Spieletests vor 6 Jahren (sic!) realistischer waren als heute mit einer Auflösung von immerhin 1680x1050.
Seitdem ist das Ganze degeneriert zu einer synthetischen Angabe, die für nichts zu gebrauchen ist.
Ja, jetzt wissen wir, dass Kaby Lake in einer Auflösung, die keiner benutzt (720p) mit Hardware, die keiner so kombiniert (300€ CPU + 1000€ GPU) in Einstellungen, die keiner mit einer High-End GPU wählen würde (alles LOW) schneller ist als Ryzen.
Großartig. Aussagewert für die Realität da draußen, wo jeder die Grafik so hoch dreht wie möglich und die große Mehrheit eben keine 1000€ GPU hat, sondern vielleicht eine für 300€ und die breite Masse vor einem 1080p(+)Monitor sitzt? Null.
maximus_hertus
2017-05-02, 09:50:09
....
Willkommen in 2017 ;) Die fps Balken sind "Geschichte", heute gibt man percentile / Frametimes an. Schaue dir die (noch heute) aktuelle PCGH an. Bei den avg fps führt Intel teils deutlich, bei den Frametimes sind es aber deutlich mehr Spikes bzw. das Spielgefühl ist teils deutlich schlechter als beim Ryzen.
Wie kann das sein?
Zum Teil.
Zum anderen aber auch nicht. Es gibt den bereich in den ein hochgetakteter 2-4 Kerner Vorteile bietet, man sollte persönlich abwiegen was man präferiert. Für den 0815 Gamer sind die Mehrmerner natürlich die bessere Wahl. Für die Early Access Spieler kann man keinen 8 Kerner empfehlen, das geht nicht, da braucht man jede mhz.
Ich habe meinen e8400auf 4ghz geliebt, er war auch nicht teuer. Als der Quad seine Vorteile ausspielen konnte, kam Sandybridge mit 4 Kernen und 4,8ghz, teilweise auch mehr. Da hätte ich den Kauf doch im nachhinein doch nur bereut.
So sieht es zum Teil auch heute mit Ryzen aus. Wenn er seine Vorteile wirklich ausspielen kann, gibt es bereits deutlich schnellere Hardware.
Diese ganze 4C - 8C diskussion liest sich wie damals das Dilemma mit der NV970.
"3,5 Gb reichen für alle Spiele 3,5GB sind Genug"
Da blieben (bleiben) die Fanboys auch Stur
Und heute ? da wird schon bei (nur) 8Gb gejammert.
Und in 1-2 Jahren "hoilen" die üblichen Verdächtigen dann das 4C zuwenig sind
Mehr Kerne werden die Zukunft sein.Mehr Takt erwarte ich nicht mehr, da hier Physikalische Probleme zum Tragen kommen.
(Preis/Leistung und HT noch nicht mal in die Betrachtung mit einbezogen)
Genau, willkommen in 2017 wo immernoch maximal n=3 ohne Angabe von Sandartabweichung , Varianz und Vertrauensintervall gemessen wird.
Das ist echter Qualitätsjournalismuss ! passt aber zum Zeitgeist.
Der Leser merkt es eh nicht ( Wenn er überhaupt noch aufmerksam und kritisch lesen kann, Die Youtube Videos mit den Performern gibts ja nicht von ungefähr )weil er viel zusehr mit seinen Grabenkriegt grün gegn Rot gegen Blau beschäftigt ist.
Der Post im HWL ist IMO auch für die Tonne da Gaming einfach zu vielschichtig und Verschieden ist.
Spielt wer viel Dayz,Arma3, Ark , Squad , CS , Overwatch, WoW, WoT, WoWs, Warthunder und andere Titel mit Sehr hohen Spielerzahlen ist nen Ryzen 8 Kerner quatsch weil deutlich langsamer und teurer, Laut HWL Forumspost spielt er dann falsch weil er nicht auf gut parralelisierte Titel setzt oder wie?. Das der Threadstarter anhand von maximal 10 gut parallelisierten Spielen von mehreren hundert die Zukunft für 2017 und 2018 Vorhersagen kann ist auch nicht gerade glaubwürdig. Gerade im Hinblick auf die Trägheit der der Software entwickler.
Der ganze Thread im HWL ist IMO Blödsinn weil sich mindesten genauso viele Gründe gegen Ryzen als Spiele CPU finden lassen wenn ich die Rahmenbedingungen in diese Richtung setze sage damit aber genauso wenig für Gaming als Ganzes aus. Wer 8 Kerne braucht weiß dies meist auch und wühlt sich dann nicht durch 50 Seiten Schlammschlacht und Markenfanatismuss.
Desweiten hinkt der vergleich E8600 gegen Q6600/9450/9550 etc
Mit steigender parallelisierung steigt auch der Overhead , die benötigte Bandbreite von Caches und Ram an , so das der zu erwartende Leistungsgewinn beim Sprung von 4K/8T auf 8K/16T als kleiner heraustellen sollte als von 2K auf 4K.
Alles in allem zeigt mir der Thread nur eins , wie gut das Marketing der Großen schon funktioniert und wie tief sich das in das Hirn einiger eingebrannt hat, Da klatschen sich die Mitarbeiter im Marketing in die Hände, evtl ist das die nächste Evolutionstufe der "Leuchturm" Verteiler :-)
"3,5 Gb reichen für alle Spiele 3,5GB sind Genug"Die Aussage ist völlig korrekt - und ich mag nVidia so sehr wie die Pest. Wo man mehr als 3,5GB braucht, ist die GPU idR nicht mehr schnell genug. NVidia hätte einfach die angeflickten 512MB weg lassen sollen und alles wäre gut gewesen. Und jetzt?
Dass Ryzen eine 'Spieleschwäsche hat, sollte inzwischen unstrittig sein. Die Frage ist eigentlich nur, ob/wann sich daran etwas ändert und wie relevant sie im echten Einsatz ist.
Hängt vielleicht einfach damit zusammen, das ich diesen YouTuber nicht kenne. So wie ich ansonsten auch keine anderen YouTuber kenne. Weil Videos als Nachrichtenmedium für Details so unglaublich schlecht sind, das es zum Weglaufen ist. Ein 10-Minuten-Video anschauen zu müssen für eine einzige interessante Aussage oder um eine bestimmte Stelle zu finden, ist einfach nur die Hölle.
In deinem eigenen Forum (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=579798) finden sich auch kürzere YT-Videos(ohne Selbstdarsteller) mit der Möglichkeit zum Endergebnis "vorzuspulen":
https://www.youtube.com/watch?v=fTJi_gLyXQQ
https://www.youtube.com/watch?v=QBf2lvfKkxA
https://www.youtube.com/watch?v=kmLtww8SMpE
Falls dir das trotzdem noch zu zeitaufwändig ist: Unter DX12 bremst der Nvidia-Treiber Ryzen-CPUs massiv aus.
Aber auch ohne solche Videos ist dies seit dem ersten CB-Review zu Ryzen offensichtlich, wenn man sich dort mal die Mühe macht, die DX11- und DX12-Ergebnisse zu vergleichen.
Schaffe89
2017-05-02, 14:09:48
.Wie kann das sein?
Ich sehe in der PCGH nur 3 Beispiele, beim CB Releasetest gab es derer 12.
Und da gab es keinerlei erwähnenswerte Unterschiede, Directx12 hebt die tendenziell schlechteren Frametimes unter Directx11 von 4C8t CPUs in BF1 wieder auf.
Ein umfassender Frametimetest wie der von CB würde ich in der PCGH zum Bleistift sehr begrüßen, denn dann könnte man die Ryzen Vorteile auch mit Fakten heraustreichen und nicht mit Cherry Picking.
Denn schlechte Frametimes gibt es auf Ryzen laut CB Review häufiger als andersrum auf einem 7700k, jedenfalls sind die Auschläge in Summe deutlich höher bei Ryzen, genauso gibt es umgekehrt Fälle wo sie mehr beim 7700k ausschlagen.
Eine allgemeine Aussage würde ich aber nicht ableiten wollen, macht der CB Test im übrigen auch nicht und das ist eigentlich die einzige ernstzunehmende Quelle die sich mehr als Einzelbeispiele angeschaut hat.
Aber auch ohne solche Videos ist dies seit dem ersten CB-Review zu Ryzen offensichtlich, wenn man sich dort mal die Mühe macht, die DX11- und DX12-Ergebnisse zu vergleichen.
Ein Artikel zur Directx12 Overhead-Multicore-Skalierungsproblematik ist definitiv fällig. Da habe sich mittlerweile schon genug Quellen hervorgetan, unter anderem auch Hardwareunboxed.
Im gleichen Atemzug könnte man aber auch Directx11 Treiberoverhead bei AMD unter die Lupe nehmen und das ganze CPU Limit GPU Limit, Treiberoverhead, Skalierungsproblem mal in einem Artikel aufarbeiten.
Gibt es bisher nirgendwo, es gibt ne fleißige Community die diese Probleme gefunden hat.
Iscaran
2017-05-02, 16:47:19
Es geht auch nicht NUR um den YouTuber, sondern eher darum, daß ähnliche Aussagen bezüglich der "Spieleschwäche" Ryzen ja/nein schon früher (z.B. in den Kommentaren zu deiner ersten Meldung hier) und auch anderswo gekommen sind, aber bei dir keinerlei Gehör gefunden haben.
Unter Anderem eben auch direkt hier im Forum, wo du die Leute eigentlich kennen bzw. einschätzen können solltest.
Jep. Und zwar direkt schon in der Diskussion zu den unsäglichen Newsartikeln von damals...
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11361327#post11361327
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11352145#post11352145
Es wird mit der heutigen News eigentlich nicht wirklich besser...
Da ist immer noch von der Gaming-Schwäche zu lesen obwohl diese de-Facto nur durch die Indexbildung Resultiert unter einbeziehung der DX12-Treiber Problematik.
=> Mittelt man diese dramatisch schlechteren Werte in die "Indexe" dann kommt eben rechnerisch minus 10% für Ryzen raus....weil trotz aller mittelung die 3-4 DX12 games @nVidia GPU dann ryzen so runterziehen.
Wayne interessierts - Der Mittelwert von 100 falschen Messungen MUSS richtig sein.
http://www.tutelman.com/golf/measure/precision.php
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11352705&postcount=11
"Das traurige. Redaktuere wurden mehrfach drauf hingewiesen. Es wird nichts überprüft und als Tatsachen stehen gelassen...."
Nothing to add.
downforze
2017-05-02, 16:57:20
Beim Ryzen scheint mir das gleiche Problem, wie beim Bulldozer aufzutauchen. 8 Threads sind das Optimum. Anders kann man sich den brauchbaren fps-Sprung von Core i 5 zu Core i 7 nicht erklären. Von mehr als 8 Threads haben wir im Großteil der Spiele nichts. So war es auch schon 2011. Die Grundperformance einer Engine wird erstmal von der CPU bestimmt. Erst danach kommen Spielereien wie Antialiasing, etc. durch die GPU.
Dass Ryzen eine 'Spieleschwäsche hat, sollte inzwischen unstrittig sein. Die Frage ist eigentlich nur, ob/wann sich daran etwas ändert und wie relevant sie im echten Einsatz ist.
Wenn Ryzen eine Spielschwäche hat müssten die 8C/16T von Intel für 1000 Euro ja genauso spielschwach sein, die frisst der 7700k auch!
Die Spieleentwicklung ist für 8C einfach noch nicht gerüstet, die Hardwareentwicklung ist dem schon wieder voraus. Intel hat über Jahre seine Vorherrschaft einfach nur ausgenutzt um sich die Preise für ihre 4C Hardware in Stein meiseln zu lassen. AMD konnte wegen felhlender IPC im Bereich der eignen Arch einfach nicht mithalten. Ich empfehle dir mal mit einen Ryzen 1700 oder einem 7700k ein 2K Video zu 4K zu upscalen. Auf dem billigeren Ryzen hat man dort in bicubischer AS2.0 Echtzeit keinen einzigen Ruckel. Der i7 ruckelt alle Nase lang und kostet auch noch mehr.
Spielen ist eben nicht alles, da könnte ich mir auch eine Konsole kaufen.
IchoTolot
2017-05-02, 17:41:32
Desweiteren hinkt der vergleich E8600 gegen Q6600/9450/9550 etc
Mit steigender parallelisierung steigt auch der Overhead , die benötigte Bandbreite von Caches und Ram an , so das der zu erwartende Leistungsgewinn beim Sprung von 4K/8T auf 8K/16T als kleiner herausstellen sollte als von 2K auf 4K.
Yes! :up: Sage ich schon seit Release von Ryzen. Aber mir wird das ja immer als Lobhudelei zu Intel ausgelegt. :rolleyes: 2 auf 4 ist was anderes als 8 auf 16. Die Effizienz sinkt einfach merklich und das kann man auch messen indem man Threads zuweist und schaut wie sich Spiele dann verhalten. Bei Battlefield 1 hat das jemand gemacht und oberhalb von 10-11 Threads geht es im 1 FPS Takt weiter nach oben.
Cyphermaster
2017-05-02, 18:13:12
2 auf 4 ist was anderes als 8 auf 16. Die Effizienz sinkt einfach merklich und das kann man auch messen indem man Threads zuweist und schaut wie sich Spiele dann verhalten.Mit Verlaub, das stimmt so nicht (genau wie das "8 Thread Optimum" weiter oben). Wie mittlerweile bekannt, skalieren Spiele stark unterschiedlich mit der Thread-Anzahl. Um den -unzweifelhaft vorhandenen- Effizienzunterschied 2 zu 4 gegenüber 8 zu 16 Threads vernünftig "messen" (besser: darstellen) zu können, müßte man ein Spiel haben, das quasi ideal mit beliebiger Threadanzahl skaliert. Tut es das nicht (Realfall), sieht man eine Mischung zwischen der Multithread-Effizienz der CPU und der der Software, mit nach oben hin zunehmend dominierender Limitation der Software, nicht der CPU.
Wie bei den C2D vs. C2D oder den FX6/8 auch, die mit der Weiterentwickung der Spiele in Richtung möglichst optimale Nutzung der vorhandenen Hardware (= mehr Kerne) plötzlich im Verhältnis besser gegenüber 2/4-Kernen rauskommen, wird sich das auch dieses Mal zeigen. Die Frage ist also nicht, OB mehr Kerne einen Vorteil bieten, sondern nur WANN (gemeint sowohl situativ wie zeitlich) sie WIE VIEL Vorteil gegenüber weniger Kernen haben werden. Und ab da geht's dann wieder Richtung Spekulation.
Man kann das auch ergänzen bis wann mehr/wieviel Kerne sinnvoll sind .
https://de.wikipedia.org/wiki/Amdahlsches_Gesetz
Das Ganze ist natürlich kein Ryzentypisches Problem aber es zeigt halt Das der
High IPC&Takt/Wenigkerner durchaus Vorteile und seine Berechtigung haben kann in Zukunft und es keineswegs sicher ist was nun das Maß der dinge in 2-3 Jahren ist.
Persönlich würde ich mir Wünschen das das mehr an verfügbarer Rechenleistung durch die 8+Kerner endlich mal in besserer Physik und KI mündet.
G3cko
2017-05-02, 19:13:16
Ryzen liefert auch nicht mehr FPS sehe ich da? :confused: Und was ist an einer hohen Auslastung schlimm? Erst wenn die GPU nicht mehr versorgt werden kann, wird es kritisch. Sorry, aber so sehe ich das.
Das ist echt paradox. Also willst du uns sagen, dass der 8 Kerner hier schlechter ist, da er noch freie Ressourcen hat? Interessante Sichtweise. :freak:
Der 7700k ist doch mit 100% bereits an der Kotz-Grenze. Zieh doch mal den 6600k, gerne auch mit OC heran. Der macht in BF1 bereits Probleme. Ihm fehlt schlicht Hyperthreading.
https://www.hardwareluxx.de/community/f11/ein-i5-6600k-bf1-und-die-performance-1158471.html
Gehst du noch einen Schritt weiter endet das dann hier:
https://www2.pic-upload.de/img/32976405/2600kDX12BF1.png
Der 2500k verliert mehr fps als theoretisch in Cinebench möglich wäre.
Ich frage mich was wohl wäre, wenn der 6900k und der 7700k gleich teuer wären. Würdest du immernoch zum 7700k greifen, weil is' so. ;D:D 500MHz mehr OC, yeah. :eek:
Wenn ich mal die letzten 20 Jahre zrückdenke. Ich hatte noch nie eine CPU für 350€/700DM die bereits bei Release an der Leistungsgrenze war...
Was soll einem die Spiele-"Performance" in 720p sagen?
Ich kann das nicht ernstnehmen.
Die Ironie bei der Sache ist, dass die Spieletests vor 6 Jahren (sic!) realistischer waren als heute mit einer Auflösung von immerhin 1680x1050.
Seitdem ist das Ganze degeneriert zu einer synthetischen Angabe, die für nichts zu gebrauchen ist.
Ja, jetzt wissen wir, dass Kaby Lake in einer Auflösung, die keiner benutzt (720p) mit Hardware, die keiner so kombiniert (300€ CPU + 1000€ GPU) in Einstellungen, die keiner mit einer High-End GPU wählen würde (alles LOW) schneller ist als Ryzen.
Großartig. Aussagewert für die Realität da draußen, wo jeder die Grafik so hoch dreht wie möglich und die große Mehrheit eben keine 1000€ GPU hat, sondern vielleicht eine für 300€ und die breite Masse vor einem 1080p-Monitor sitzt? Null.
Das Problem an den 720p Benchmarks ist, dass diese zwar sehr wichtig sind, jedoch der User mit den Ergebnissen alleine gelassen wird. Ich kann daher beide Seiten verstehen. Die Einen welche sagen: "Wer spielt denn in 720p" und die anderen "Man muss eine CPU im CPU-Limit testen". Das Problem ist nur, welchen Mehrwert hat man noch, wenn uralte Software getestet wird und teilweise mehr als 300fps erreicht werden? In den Rankings wird dann alles auf einen Prozentwert zusammengekloppt und ein Fazit gezogen. So einfach ist es nun mal nicht. 720p Benchmarks sind ein theoretischer Wert und man kommt eben nicht drum rum diesen zu bewerten. Und gerade wenn ich aus 720p Benchmarks eine Prognosse für die Zukunft ableiten möchte, ist es eben noch wichtiger genauer hinzuschauen und auch möglichst aktuelle Software zu verwenden.
Es gibt halt Leute die können Benchmarks lesen, und es gibt Schaffe... ;)
G3cko
2017-05-02, 19:15:18
Mal ein Beispiel:
Computerbase testet im neuen Parcours auschließlich moderne Spiele und selbst da profitiert der 8C Ryzen nicht 1% gegenüber dem 6C Ryzen.
Selbst der 8C Ryzen liegt bei gleicher Taktrate etwa 15% vor dem Ryzen 4C.
https://abload.de/img/frfrfr7qkgo.png
Und da bröckelt schon die gesamte Gegenargumentation. Anstatt mal selbst zu recherchieren wirfst du mir vor ich hätte falsch oder einseitig recherchiert.
Aber gut fangen wir einmal an.
Wenn man Benchmarks zur Zukunftsfähigkeit bewerten möchte, ist ersteinmal eine chronologische Einzelbetrachtung wichtig. Warum Einzelbetrachtung? Das sehen wir nun in der Einzelbetrachtung. ;D
Kommen wir zu dem ersten brandaktuellen 2 Jahre alten Anno 2205. Ich habe nichts gegen ältere Titel, nur muss man eben die 720p Ergebnisse in eine Releation setzten. Bereits der 2600k erreicht 90fps. Selbst der 170€ AMD 1400 kommt auf knapp 90 fps. Reicht das nicht für das extrem hektische Anno von vor 2 Jahren?:freak:
https://www2.pic-upload.de/img/33103894/Anno22052015.png
Auch dieser Titel ist aus 2015. Ich meine selbst dir sollte ProjectCars ein Begriff sein. Ich kenne kein anderes Rennfahrspiel das so CPU-lastig ist und kaum Kerne nutzt. Der Titel ist vollgespickt mit Nvidia Werbung. Auf den Autos, auf Bannern neben der Fahrbahn. Ich bin ja auch nicht so der Verschwörungtheoretiker, aber Zufälle gibts... :freak: Ich hätte diesen kontroversen Titel rausgenommen. Aber egal. 70 fps für den 2 Jahre alten kontroversen nvidia-Rennfahrspaß.
https://www2.pic-upload.de/img/33103901/ProjectCars2015.png
Leider gibt es nur eine Intel CPU im Test. Im Ersttest zum 1800x wurde der Titel nicht getestet. Ich kann daher keinen Vergleich ziehen.
https://www2.pic-upload.de/img/33103899/shadowwarrior22016.png
Zumindest hier wurden andere Intel CPUs getestet, welche recht gut skalieren. https://www.computerbase.de/2017-02/cpu-skalierung-kerne-spiele-test/#diagramm-shadow-warrior-2-fps
Auch hier wurde im "CPU-Limit" getestet. http://www.pcgameshardware.de/Shadow-Warrior-2-Spiel-55650/Specials/Benchmarks-Test-Gameplay-Release-1211483/
Generell reicht Ryzen (egal welcher) für 100 fps. PCGH testet mit einem 6900k@4GHz. Mit nur 2C/4T ist man schon mit 240fps wieder im GPU-Limit.
Alos Kategorie "Who Cares"
Nun kommen wir zum Kuriositätenkabinet. Zwar schreibt CB, dass die Werte nicht vergleichbar sind, aber solche Abweichungen sind nicht mehr normal. Gerade wenn man keine anderen Intel-CPUs im Nachtest hat auch absolut nicht vergleichbar. Zumal die Ergebnisse auch nicht zum sonstigen Verhalten der Intel-CPUs passen.
Vorabtest zum R7:
http://extreme.pcgameshardware.de/attachments/947430d1491575387-neuer-prozessor-i7-7700k-vs-r7-1700-vs-r5-1600-a-watchdogs-2.png
Nachtest beim R5:
https://www2.pic-upload.de/img/33103900/WatchDogs22016.png
Vorabtest zum R7:
https://www2.pic-upload.de/img/33103896/Dishonored2ProzentErsttest.png
Nachtest beim R5:
https://www2.pic-upload.de/img/33103898/Dishonored22016.png
https://www2.pic-upload.de/img/33103897/Dishonored2ProzentNachtest.png
Vorabtest zum R7:
https://www2.pic-upload.de/img/33103895/BF12016vorabtest.png
Nachtest beim R5: => mehr fps, weniger Multicorenutzung. leerer Server? Quasi Singleplayer im Multiplayer. Vielleicht hat man auch nur der 7600k mit dem 7700k verwechselt. ^^
https://www2.pic-upload.de/img/33103893/BF12016Nachtest.png
Ich möchte ja nichts unterstellen. Oh Moment, - solange man hier keinen Ryzen@DX12@AMD-Graka vs Nvidia DX12 liefert sind die HW-Seiten ersteinmal bei mir unten durch.
Egal an diesen Werten sieht ein Blinder, dass die Ryzen-Performance in Spielen garnicht korrekt erfasst ist. Bei diesen Abweichungen erst recht. Wie auch? Die Architektur ist neuer als die Spiele. Wer soll die Software angepasst haben? (Compailer, Graka-Treiber, Windows,...) Aber selbst wenn, was läuft denn aktuell nicht? Schaffe dir ist glaube ich nicht klar, dass es in den letzten 10 Jahren genau 1 neue Prozessorarchitektur gab. (Bulldozer). Den CoreDuo gibt es seit 2005. Die Core-Architektur wurde also nur häppchenweise verbessert. Zumal die Taktsteigerungen immer geringer werden im Gegensatz zu früher. Die Probleme bei einer neuen Architektur also nicht so sichtbar waren wie eben heute durch nur noch gringe Singlethreadverbesserungen. Ein nicht unwichtiger Punkt.
aufkrawall
2017-05-02, 19:16:00
Bei dem ganzen Kerne-Chaos HTT nicht vergessen. Je mehr Kerne, desto wahrscheinlicher/stärker stört es.
IchoTolot
2017-05-02, 20:17:28
Das ist echt paradox. Also willst du uns sagen, dass der 8 Kerner hier schlechter ist, da er noch freie Ressourcen hat? Interessante Sichtweise. :freak:
Das hab ich doch gar nicht gesagt. Wenn ein Ryzen in WD2 bei 8 Threads aber die gleiche Performance liefert wie bei 16 Threads ist hier die Frage was macht Ryzen da oder das Spiel? Diese tollen Schwanzvergleichs Benchmark Videos wo stolz die 16 Threads von Ryzen präsentiert werden sind völlig wertlos, wenn nicht geschaut wird, bis wieviel das Spiel eigentlich skaliert und wer die bessere Leistung letztlich abliefert. Und wenn Ryzen dann in diesen Titeln nicht mal mehr FPS hat als der "lächerliche" 4 Kerner, wird sogleich die Frametimeskeule rausgeholt.
Schnösel hat es doch selber gesagt, er hat keine Ruckler und nichts wahrgenommen, aber die Frametimes haben ja Ausreißer. :freak: Then who the fuck cares?? :confused: Frage ich mich..
Diese Benchmarkvergleiche mit Frametimes haben fast schon religiöse Auszüge angenommen. Merkt man es? Nein. Aber sie sind bei Ryzen besser. Yay. :rolleyes:
Der 7700k ist doch mit 100% bereits an der Kotz-Grenze.
Der 2500k verliert mehr fps als theoretisch in Cinebench möglich wäre.
?? In bisher keinem Spiel ist bei mir der 7700K an der "Kotzgrenze". Übertreib doch nicht. :rolleyes: Ausnahme bisher war nur AOTS und das war der CPU-Benchmark, Oh Wunder.
Durchschnitt:
GRW 35%
ME:A 30% (spiele ich grade)
Crysis 3 ~30~
Und der olle 2500K interessiert keinen. Der 7700K ist bei der IPC ja schon 40% schneller.
Wenn ich mal die letzten 20 Jahre zrückdenke. Ich hatte noch nie eine CPU für 350€/700DM die bereits bei Release an der Leistungsgrenze war...
Ist auch jetzt nicht der Fall. Sowas zu behaupten ist schon mutig. Merkwürdig dass bisher kein einziges Magazin dieser Meinung war. Da stehst du wohl alleine.
Iscaran
2017-05-02, 21:57:21
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=59882&d=1493739675
Die OFFENSICHTLICHE Antwort wenn ich mir die FPS-Resultate hier anschaue ist:
Das Game skaliert mit "KERNEN" und nicht wirklich mit Threads - oder es skaliert halt mit Intel-HT (Weil dafür schon der Code-optimiert wurde) und noch nicht mit Ryzen-SMT (weil noch unbekannt und der Default Windows-Scheduler fürn A**** ist).
7+8 Threads = 228 FPS
9+10 Threads = 241 FPS
usw.
=> "Mehrwert"- von Multithreading ca. 0.
Außerdem kann es gut sein dass man hier bei 250FPS einfach trotz nur 720P etc. im GPU-Limit ist...man bräuchte halt schon noch ein paar Vergleichsangaben um das korrekt einordnen zu können.
IchoTolot
2017-05-02, 21:58:48
Hast du Battlefield 1? Dann teste es doch einfach im Multiplayer. Mit dem Windows Scheduler ist alles tip top, sagt doch selbst AMD.
Ich hab aber auch mal Mass Effect Andromeda (https://www.youtube.com/watch?v=7MVNWwn2vtw&) getestet und alles aufgezeichnet. Nagelneues Game und nimmt sich grade mal 30-40% CPU-Leistung. Frametimes völlig in Ordnung. Also nix mit am Limit.. :rolleyes: Und Mass Effect kann man sogar ohne Nachteile mit 4 Threads (Kernen) spielen. Habs getestet.
Einmal gestorben und neu geladen den Level.
https://lh3.googleusercontent.com/HVYmSzbijYxBEKnSuP39cJB8fLpbEKfxke2fdNj4tH0-En7MCHv3ozLyHPAC-JfwvVopXJGOUPmglEzTHs1JY_W0PQ6ZDJ4an3-Ti-cznYXVnDLZGlhLDCu840YZC-twxzkK2Fk5H1kgXNz6mW5Hz8z9vxcVxwIgqdhK-yRoe0DO5kVceykesrPRU_jDWQeuUd2qerr7CIwLbKbd8i_o1ek6lWle9ByXAl3POljSwHjnG4VlsKxXV k7Ykb7BxV-c2ohbx0CanMUDZ2iRJcDFlKtrDHaLFL03ktZ-R-zUOyklZowztP8lKXwDB0pCfrdPnyYpNHI6WP_LPoqZz32533HJUK9JdWtHvUBaRGV114idi1kxx31Wch jp3PzMNfiLVuSB5pzl5OCGcP-8ga7n-XE_1S5IhGVKMRWXhQOl6x4xUq-7r9vMFLC1ckF5hR4gqeFibULc7nhFCJS2iCydYjDMV0i7jOr3oo8M6zMhaaUPoEF_M4f6E1Q1ika2LkP Y-GqM4x89uFXu_hstJj-7wqdLBTGWsNjTWa-NfGIopXzQByfs8IEavoHiCUQJdE1RKVIuFtG8V1rH_zwmy-aJEfHkMRctZciaOs1NmLd3ACxqFRlltN2GbA=w1597-h987-no
G3cko
2017-05-02, 22:08:09
100% CPU-Last ist ein CPU-Limit und das bereits mit aktuellen Highend Grafikkarten und nicht erst in ein paar Jahren. Ergo, ja die CPU ist bereits heute, wenn auch nur vereinzelt am Ende.
Noch ein paar alte bekannte Schinken
Release 2007
https://www2.pic-upload.de/img/33105324/Crysis.png
Release 2008
https://www2.pic-upload.de/img/33105326/FarCry2.png
Release 2011 (hier ist leider nur der Q6600 mit seinen geringen 2.4GHz dabei. Ich weiß noch dass mein Q6600@50% OC etwa auf dem Niveau eines i7 930@Stock lag.)
https://www2.pic-upload.de/img/33105325/Crysis2.png
Iscaran
2017-05-02, 23:32:29
@imaginez:
Ich versteh dein Beispiel (Mass Effect Andromeda) nicht.
Mit 40FPS im GPU-Limit bei 40-50% CPU Last ? Dann ist es egal ob ich 2 Kerne oder 4 Kerne habe ? Soll das die Aussage sein ?
Dann wäre ein G4560 Pentium mit 2C4T wohl ziemlich das optimum für das game ? für 50€. Gleichauf mit einem 7700K.
IchoTolot
2017-05-03, 00:31:59
Im Grunde hast du sogar Recht. Wenn man im GPU-Limit ist, ist es egal ob man einen Ryzen oder i7 verbaut hat.
Was soll einem die Spiele-"Performance" in 720p sagen?
Ich kann das nicht ernstnehmen.
Das, was du darauf folgend geschrieben hast, ist fast genau dasselbe wie zu sagen, dass man die Geschwindigkeit von Sportwagen im realen Stadtverkehr beurteilen sollte und nicht auf der Rennstrecke, weil ja selbst unter Sportwagenkäufern kaum jemand jemals eine Rennstrecke befährt. Das ist aber für die LeistungsFÄHIGKEIT des Wagens nicht repräsentativ.
Das hat ganz einfach TECHNISCHE Gründe, dass Low-Res-Tests für CPUs sinnvoll sind.
Der YouTuber aus dem Video kapiert das auch nicht. Der widerspricht sich dann sogar selbst.
Der zeigt BF1 und weist darauf hin, wie Ryzen noch Luft hat und viel stärker im GPU-Limit hängt, während der i7 für ca. dieselbe GPU-Auslastung und FPS schon ziemlich an seinem Limit kratzt.
Anstatt die Low-Res-Tests unsinnig am Ende zu kritisieren, sollte der Herr es in Battlefield doch einfach mal ausprobieren.
Denn GANZ GENAU dazu sind diese Tests da. Wenn man in der von ihm gezeigten Situation auf 720p runter geht, entlastet man die GPU. Diese schafft dann mehr Frames und die CPU wird dadurch stärker belastet.
Das wäre genau das Szenario, wo man dann sehen könnte, dass der i7 schon vorher dicht am Limit war und dann eben nicht viele FPS dazu gewinnt, während der Ryzen da dank seiner Reserven mehr FPS zulegen kann.
Das sieht man auch an den Tests. Es gibt doch bei CPUs praktisch keine Testergebnisse, wo CPUs sich gegenseitig in der Reihenfolge überholen, weil die Auflösung verändert wird. Natürlich gibt es die Fälle, wo man in der höheren Auflösung dann komplett im GPU-Limit hängt und dann Schwankungen im Bereich der Messungenauigkeit die Reihenfolge verändern.
Aber Fälle in denen im selben Spiel in 1080p CPU A 15% vorne liegt und in 10 720p CPU B um 15% vorne? Oder andere ähnlich deutliche Fälle? Fehlanzeige! Wenn man die technischen Hintergründe versteht, dann ist das auch ganz klar, warum es die nicht gibt.
Eine Reduzierung der Auflösung entlastet zu allererst die Grafikkarte. Die Auflösung hat annähernd keinen Einfluss auf das, was die CPU tut. Denn alles, was mit mehr Pixeln auch deutlich aufwendiger zu berechnen wird, wird sowieso auf der Grafikkarte berechnet, da diese der Co-Prozessor ist, der nunmal genau für diese simpleren aber hochparallelen Aufgaben im System steckt. Das ist nicht mit allen Grafikeinstellungen so. Es gibt auch einige, die auf der CPU berechnet werden (können). Aber diese hängen in ihrer Komplexität nicht von der Auflösung ab und bleiben mit veränderter Auflösung für die CPU in etwa gleich "anstrengend".
Das führt letztlich dazu, dass eine CPU gar nicht plötzlich besser oder schlechter sein kann, nur weil die Pixelanzahl verändert wurde, welche beinahe ausschließlich für Berechnungen relevant ist, die die CPU gar nicht ausführt.
Was man beobachtet ist vielmehr, dass die CPUs mit steigender Auflösung näher zusammenrücken. EGAL wer in diesem Spiel nun gerade vorne liegt. In Spielen wo Ryzen vorne liegt, kommt auch Intel bei niedriger Auflösung näher. In Spielen wo manche Leute sagen "In 1080p kommt der Ryzen dichter an den 6900K ran als in 720p", da findet man aber auch immer, dass z.B. ein alter 2600K, den z.B. Computerbase noch mittestet, deutlich dichter an den Ryzen ran kommt.
Es EXISTIERT einfach kein nennenswerter Vorteil für irgendeine CPU bei höheren/niedrigeren Auflösungen. Das Einzige, was dieses überall zu beobachtende "Zusammenrücken" ausdrückt, ist dass bei höheren Auflösungen die Leistung ALLER CPUs weniger relevant wird und weniger zu den erzielten FPS beiträgt, weil diese hier stärker von der GPU abhängen.
Und das gilt nicht nur für das "totale" GPU-Limit. Viele Leute sind der (eindeutig falschen) Auffassung, dass GPU-Limitierung bei CPU-Tests erst ein Thema ist, wenn alle oder viele CPU-Balken im Testdiagramm direkt nebeneinander kleben. Das ist aber einfach falsch.
Die in den Spielen ermittelten FPS sind Durchschnitts-FPS über eine Testszene. Innerhalb einer Testszene kann die Lastverteilung zwischen CPU und GPU sehr schnell sehr stark schwanken. Teilweise sogar extrem schnell, dass die Tools zur Auslastungsanzeige gar nicht hinterher kommen, das auch abzubilden, sodass man das beim normalen "im Auge behalten" der Auslastungen beim Spielen gar nicht unbedingt bemerkt.
Was man dann sieht, wenn alle Balken nebeneinander kleben, ist nur der Fall, dass die GPU in annähernd 100% der Testszene limitiert. Wenn das nun nicht mehr 100% sind, sondern beispielsweise nur noch 50%, dann limitiert in den anderen 50% die CPU. Man wird dann also in CPU-Tests mit identischen GPUs Unterschiede zwischen den CPUs sehen. Dann sind diese Unterschiede aber kein Hinweis auf die reine Leistungsfähigkeit CPU und die prozentualen Unterschiede verlieren ihren Wert. Das ist ganz einfach Mathematik. Wenn ich 50 und 100 habe ist das von 50 zu 100 ein Unterschied von 100%. Wenn ich auf beide 50 drauf addiere, dann habe ich von 100 zu 150 auch nur noch 50%.
Sehr ähnlich verhält es sich mit den FPS-Werten, bei denen dann die Hälfte des Ergebnisses von der für alle CPUs identischen Test-GPU abhängt (Die GPU wäre dann vergleichbar mit der dazuaddierten 25). Man testet dann halt einfach zur Hälfte die GPU und zieht zur Untersuchung der Leistungsunterschiede der CPUs FPS-Werte heran, deren reale prozentuale Unterschiede durch die identischen GPUs verfälscht sind.
An dieser Stelle sollte es nun offensichtlich sein, dass der Anteil der Szene, in der die GPU limitiert, für einen CPU-Vergleich möglichst gering sein sollte, damit die tätsächlichen Leistungsunterschiede der CPUs weniger stark durch das GPU-bedingte "Zusammenrücken" verfälscht werden.
Und genau diese Reduzierung des GPU-Anteils erreicht man durch das Senken der Auflösung.
Einen Optimalfall sieht man z.B. im ComputerBase-Test der Ryzen 7 im Spiel F1 2016. Dort limitiert über die komplette Testzene die CPU. Das sieht man dadurch, dass es nicht nur kein "Zusammenrücken" gibt, sondern auch daran, dass die FPS in 720p und 1080p praktisch identisch sind.
Die 720p-Tests sind also nicht irgendwie böse "Anti-AMD" oder sonst etwas. Sie zeigen nur Leistungsunterschiede deutlicher auf, anstatt sie über die GPU zu "verstecken".
Sie haben auch nicht weniger Aussagekraft für die CPU-Leistung, sondern mehr.
Schaffe89
2017-05-08, 14:33:30
Und da bröckelt schon die gesamte Gegenargumentation. Anstatt mal selbst zu recherchieren wirfst du mir vor ich hätte falsch oder einseitig recherchiert.
Für dich gilt ja quasi eine einzige Seite, das is CB, weil die ausnahmsweise mal die richtigen Spiele getestet haben, wo Ryzen (im Vergleoch zu PCGH, Gamestar, Heise, Hardwareunboxed oder 3D Center und vielen mehr) nicht ganz so schlecht dasteht und gerade die haben beim erneuten test mit viel schnellerer Grafikkarte festgestellt, dass ein i5 7600k wieder aufgeholt aht und demenstprechend ein 7700k deutlicher vor dem Ryzen 7 1800x liegen muss.
Diesen viel aktuelleren Test ignorierst du aber vollkommen, weil er nicht in deine Argumentation hinein passt.
Noch dazu ist es quasi bei dir permanent der Fall, dass du nur Spiele und Reviews anklickst die auch in die Richtung deiner Argumentation gehen und das sind mittlerweile sehr sehr wenige geworden.
Wenn man Benchmarks zur Zukunftsfähigkeit bewerten möchte, ist ersteinmal eine chronologische Einzelbetrachtung wichtig. Warum Einzelbetrachtung? Das sehen wir nun in der Einzelbetrachtung. ;D
Niemand bewertet Benchmarks zur Zukunftsfähigkeit, weil das unseriös ist.
Niemand kauft Hardware auf Vorrat.
Kommen wir zu dem ersten brandaktuellen 2 Jahre alten Anno 2205.
Du hast in dem Test gerade mal 2 Titel aus 2015 die anderen aus 2016 und es passt dir wieder nicht.
Was glaubst du wieviele Titel auch 2017 noch auf 2 bis 8 Threads usw. laufen werden? Tonnen. 99% der Spiele.
Es macht bei deinem Feldzug überhaupt keinen Sinn mit dir zu diskutieren.
Du hast gesehen dass Ryzen in Spielen schlechter abschneidet und hast dir das Schönreden von Ryzen eben ganz oben auf die Fahne geschrieben.
Ryzen skaliert in einem modernen Parcours von 4C8T gerade mal 15% auf 8c16T und das noch als einer der wenigen Reviews, üblicherweise sind es eher ~10%.
So eine Skalierung hatten wir auch schon vor 4 Jahren. FX6300--> FX8350.
Dass man mit dieser ständigen Lobhudelei auf die Nase fällt ist völlig klar.
Wir sehen uns dann in 5 Jahren und gucken dann auf den 3D Center Spiele Index wenn Intel für 80 Euro dann einen Pentium mit 4C4T herausbringt der den Ryzen 1800x mit 16T in Spielen ind Grund und Boden rechnet.
Noch ein paar alte bekannte Schinken
Release 2007
Ich kapiers einfach nicht. Eine Entwicklung von 2c auf 4c war absolut notwendig weil die Spiele auch enorm an Komplexität gewannen, irgendwann ist aber Schluss damit und es lohnt sich der Aufwand einfach nicht mehr.
Die weitere Entwicklung wird ergo ewig dauern, da wir hier von 8t auf 16t reden.
Wie schnell war ein Phenom II 1100T outdated? Eigentlich gleich nach Release von Sandy Bridge. Kann ein 1100t heute noch mit dem 2500k mithalten? Nein, nicht ansatzweise.
In 5 Jahren wenn sich deine Aussagen vielleicht langsam ernstzunehmende Realität werden ist ein Ryzen 1800x oder 1700 ein alter Hut und einfach eine lahme Krücke.
Dann gibt es erstens schon viel schnellere 4c8T CPu´s und weit schnellere 8c16t Prozessoren.
Cyphermaster
2017-05-08, 15:12:45
Wir sehen uns dann in 5 Jahren und gucken dann auf den 3D Center Spiele Index wenn Intel für 80 Euro dann einen Pentium mit 4C4T herausbringt der den Ryzen 1800x mit 16T in Spielen ind Grund und Boden rechnet.Ich heb mir das Zitat mal für 2023 auf, weil's so schön ist. :usweet:
Niemand kauft Hardware auf Vorrat.Es kauft sich aber auch niemand Hardware (oder Autos, Klamotten, Hausgeräte,...) nur für einen einzigen Moment, sondern für eine gewisse "Lebensdauer", die dadurch bestimmt wird, wie lange das Produkt eine den Benutzeranspruch zufriedenstellende Performance ohne Ausfall abliefern kann.
Auch, wenn man da natürlich aufgrund des großen Spekulatius-Anteils keine Schwanzmarks-Balken hat, die man sich in Foren wie hier zur Egovergrößerung in die Postings stecken kann, ist das schlichte, alltägliche Realität. Das solltest vielleicht auch du langsam akzeptieren.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.