PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - RYZEN 2/Zen+ (Pinnacle Ridge): Review-Thread


Seiten : 1 2 3 4 5 [6] 7 8

dildo4u
2019-02-20, 22:37:13
Das ist ja mal was, wenigstens das wurde gefixt, naja immerhin etwas. :smile:
Mein alter Ram wurde von 2015 an Produziert lange bevor Ryzen am Markt war,der neue ist von 2019.

SKYNET
2019-02-20, 22:44:13
Mein alter Ram wurde von 2015 an Produziert lange bevor Ryzen am Markt war,der neue ist von 2019.

mein corsair mit den MFR ist von 2014 :freak:

dadran lags also nicht... aber evtl. ist das wie mit meinen patriot viper mit b-die, mistig programmiertes SPD, da kann ich ja nichtmal ein timing ändern ohne das es instabil läuft, XMP und 3333MHz und fertig oder halt standard SPD(2133), alles andere verweigert den dienst :mad:

Rancor
2019-02-20, 23:01:35
Dumm, nur das Ryzen sehr sehr zickig bei RAM ist, man könnte doch anfangs froh sein (ist es immer noch so?) Wenn man überhaupt 2933er zum booten gebracht. Ich glaube Dildo4u bekommt nichtmal 3000er stabil hin. Also erzählt mir doch nix. 7700K Leistung - mal wieder Wahsinn 12T gegen 8T. Und AMD schafft es mal wieder grade so ranzukommen. Lächerlich. 9900k und ruhe, Ryzen rein und nach 3-4 Jahre musst man schon wieder wechseln.
Warum eierst du dann noch mit einem 4770k rum, wenn dir die CPU Leistung sooooooo wichtig ist? Du jabbelst dir hier echt einen Schmarn zusammen, das ist unglaublich. Ich frage mich wirklich woher sowas kommt und vor allem was das soll. Für das, was die Ryzen CPUs und die Platform kostet, ist die Leistung Top. Für High End kann man gerne zu Intel greifen und das muss man auch, wenn einem die letzten 30 - 40% Leistung im CPU Limit soo wichtig sind. Alle anderen kaufen vernünftiger Weise einen Ryzen und die AM4....

Der_Korken
2019-02-20, 23:20:00
9900k und ruhe, Ryzen rein und nach 3-4 Jahre musst man schon wieder wechseln.

Der 9900K kostet 200€ mehr als der 2700X, welcher preislich noch dichter am 9600K als am 9700K liegt. Das wäre schon ziemlich schwach, wenn der 9900K nicht länger halten würde. Bei so langen Zeiträumen dürften auch die 8 Kerne irgendwann durchschlagen und der 2700X steht gegen alles unterhalb des 9700K gut da.

der 7700k ist hartnäckig ^^

je mehr Kerne umso mehr sollte man in eine hohe Speicherbandbreite investieren hätte ich jetzt gesagt :freak:


Beim Ryzen ist quasi nur die Latenz der Flaschenhals. Die ist schon von sich aus deutlich höher als bei Intel, wo der Ertrag irgendwann auch wieder abnimmt. Würde AMD an der Bandbreite hängen, würden die Gamer sich alle nen Threadripper mit Quadchannel hinstellen :D.

dargo
2019-02-20, 23:32:55
Beim Ryzen ist quasi nur die Latenz der Flaschenhals. Die ist schon von sich aus deutlich höher als bei Intel, wo der Ertrag irgendwann auch wieder abnimmt. Würde AMD an der Bandbreite hängen, würden die Gamer sich alle nen Threadripper mit Quadchannel hinstellen :D.
So ist es.
https://www.overclock.net/content/type/61/id/3110408/width/350/height/700/flags/LL

Auch mit optimierten Subtimings und 100GB/s Bandbreite bleibt der Threadripper noch bei 60+ns Speicherlatenz.

SKYNET
2019-02-21, 02:10:05
So ist es.
https://www.overclock.net/content/type/61/id/3110408/width/350/height/700/flags/LL

Auch mit optimierten Subtimings und 100GB/s Bandbreite bleibt der Threadripper noch bei 60+ns Speicherlatenz.

man gebe mir einen 2950 zum testen... ich knacke auch die 58ns mit nem TR und 4 riegeln :tongue:

Ex3cut3r
2019-02-21, 03:58:17
Warum eierst du dann noch mit einem 4770k rum, wenn dir die CPU Leistung sooooooo wichtig ist? Du jabbelst dir hier echt einen Schmarn zusammen, das ist unglaublich. Ich frage mich wirklich woher sowas kommt und vor allem was das soll. Für das, was die Ryzen CPUs und die Platform kostet, ist die Leistung Top. Für High End kann man gerne zu Intel greifen und das muss man auch, wenn einem die letzten 30 - 40% Leistung im CPU Limit soo wichtig sind. Alle anderen kaufen vernünftiger Weise einen Ryzen und die AM4....

Weil ich in 3440x1440 spiele und die GPU (2080) in jeden AAA Game außer Assassins Creed Odyssey immer zu 95-99% ausgelastet bekomme? Ich habe immer den Eindruck, dass manche einfach nur "aufrüsten" weil Ihnen irgendwas juckt.

Mangel76
2019-02-21, 06:36:53
Weil ich in 3440x1440 spiele und die GPU (2080) in jeden AAA Game außer Assassins Creed Odyssey immer zu 95-99% ausgelastet bekomme? Ich habe immer den Eindruck, dass manche einfach nur "aufrüsten" weil Ihnen irgendwas juckt.
Er hat's kapiert, niemand braucht einen 9900K zum Gamen :-)

Menace
2019-02-21, 06:49:23
Er hat's kapiert, niemand braucht einen 9900K zum Gamen :-)

Aber warum bekundet er es hier im Ryzen-Thread? :confused:

Mangel76
2019-02-21, 06:55:08
Aber warum bekundet er es hier im Ryzen-Thread? :confused:

Entweder will er nur trollen oder er wird dafür bezahlt.

Rancor
2019-02-21, 08:09:00
Weil ich in 3440x1440 spiele und die GPU (2080) in jeden AAA Game außer Assassins Creed Odyssey immer zu 95-99% ausgelastet bekomme? Ich habe immer den Eindruck, dass manche einfach nur "aufrüsten" weil Ihnen irgendwas juckt.

Ja aber damit bestätigst du doch das wogegen du flamst. Für 90% aller User reicht eine Ryzen CPU, weil Sie für die Auflösungen genug FPS liefern und oftmals die Hälfte oder weniger als das Intel Pendant kosten.

Warum sollte ich mir einen 9900k kaufen, statt einen 2700x, wenn mir die Vorteile des 9900k nix bringen? Wenn der 2700x zu langsam ist, ist es der 9900k auch, denn ob ich 30 oder 39 FPS im CPU Limit habe intressiert mich dann auch nicht mehr.

Der_Korken
2019-02-21, 09:04:31
Warum sollte ich mir einen 9900k kaufen, statt einen 2700x, wenn mir die Vorteile des 9900k nix bringen? Wenn der 2700x zu langsam ist, ist es der 9900k auch, denn ob ich 30 oder 39 FPS im CPU Limit habe intressiert mich dann auch nicht mehr.

Das Argument ist Quatsch. Du würdest auch nicht sagen, dass eine 2080Ti keine Vorteile gegenüber der 2080 bringt, weil wenn eine 2080 nur noch 30fps schafft, dann schafft die Ti auch nur 39fps. Der 9900K hat seine Daseinsberechtigung, er ist nur eben ziemlich teuer.

SKYNET
2019-02-21, 09:24:45
Weil ich in 3440x1440 spiele und die GPU (2080) in jeden AAA Game außer Assassins Creed Odyssey immer zu 95-99% ausgelastet bekomme? Ich habe immer den Eindruck, dass manche einfach nur "aufrüsten" weil Ihnen irgendwas juckt.


in der auflösung völlig hirnrissig zu behaupten AMD bringt nicht genug frames, da du da eh immer im GPU limit hängst...

akuji13
2019-02-21, 09:27:32
Ich habe immer den Eindruck, dass manche einfach nur "aufrüsten" weil Ihnen irgendwas juckt.

Stimmt sogar. :D

Meine CPUs (z. B. 5930K) reichen ja selbst @stock noch aus.
Sogar eine 2080 Ti bekäme ich damit ordentlich ausgelastet

Aber die (CPUs) habe ich schon so lange! :freak:

Deshalb will ich auch tapfer auf die 3XXXx warten.
Aktuell gibts auch leider (oder zum Glück! :tongue:) kaum Auswahl bei den boards für mich.

4Fighting
2019-02-21, 10:00:49
in der auflösung völlig hirnrissig zu behaupten AMD bringt nicht genug frames, da du da eh immer im GPU limit hängst...


Falsch.
Bei Kingdom Come Deliverance bin ich oft im CPU Limit mit meinem 8700k@5,1ghz (angepasste Sichtweiten zugegebenermaßen). Jetzt könnten wir natürlich auch eine Engine-Diskussion führen, aber es gibt schon *wenige* Szenarien, wo man auch bei so einer Auflösung ins CPU Limit kommt.
Deswegen macht eine potente CPU bei der Auflösung schon Sinn

https://abload.de/thumb/kingdomcome_2019_02_2e9kfa.jpg (http://abload.de/image.php?img=kingdomcome_2019_02_2e9kfa.jpg)

dildo4u
2019-02-21, 10:11:54
Man kann massig Indie Games finden die Grottig laufen,das sagt aber nich so viel über die Hardware aus.PUBG lief Anfangs auch grottig auf Ryzen,das ist jetzt deutlich besser geworden,auch Cryengine sollte jetzt besser laufen Kingdome Come Version der Engine ist Asbach uralt so alt das sie nicht mal HDR kann.


Will Kingdom Come: Deliverance feature support for High Dynamic Range (HDR) displays and if so, on which platforms?

No, the CryEngine 3.8.6 does not support this technology.

https://wccftech.com/kingdom-come-1440p-xb1x-1080p-ps4-pro/

Die Aktuelle Version is 5.3.

SKYNET
2019-02-21, 10:16:20
Falsch.
Bei Kingdom Come Deliverance bin ich oft im CPU Limit mit meinem 8700k@5,1ghz (angepasste Sichtweiten zugegebenermaßen). Jetzt könnten wir natürlich auch eine Engine-Diskussion führen, aber es gibt schon *wenige* Szenarien, wo man auch bei so einer Auflösung ins CPU Limit kommt.
Deswegen macht eine potente CPU bei der Auflösung schon Sinn

https://abload.de/thumb/kingdomcome_2019_02_2e9kfa.jpg (http://abload.de/image.php?img=kingdomcome_2019_02_2e9kfa.jpg)


ja gut, bei CS und D3 wäre ich auch mit 8k noch im CPU limit :tongue:

Mangel76
2019-02-21, 10:17:18
Das Argument ist Quatsch. Du würdest auch nicht sagen, dass eine 2080Ti keine Vorteile gegenüber der 2080 bringt, weil wenn eine 2080 nur noch 30fps schafft, dann schafft die Ti auch nur 39fps. Der 9900K hat seine Daseinsberechtigung, er ist nur eben ziemlich teuer.

Solange du meistens im GPU-Limit spielst (was wohl die allermeisten tun) ist das totaler Quatsch. In höherer Auflösung und ordentlicher Bildqualität ist der Unterschied zwischen 2700X und 9900K meist überhaupt nicht mess- bzw. fühlbar (von einigen unrühmlichen Ausnahmen mal abgesehen). Den Unterschied zwischen einer 2080 und einer 2080Ti wirst du aber spüren.

Der_Korken
2019-02-21, 11:04:47
Solange du meistens im GPU-Limit spielst (was wohl die allermeisten tun) ist das totaler Quatsch. In höherer Auflösung und ordentlicher Bildqualität ist der Unterschied zwischen 2700X und 9900K meist überhaupt nicht mess- bzw. fühlbar (von einigen unrühmlichen Ausnahmen mal abgesehen). Den Unterschied zwischen einer 2080 und einer 2080Ti wirst du aber spüren.

Schon, aber die Aussage war ja, dass sobald der 2700X nicht mehr reicht, es der 9900K auch nicht mehr tut, weil er "nur" 30% schneller ist. Das meinte ich mit Quatsch.

Daredevil
2019-02-21, 11:13:47
ja gut, bei CS und D3 wäre ich auch mit 8k noch im CPU limit :tongue:
Bei D3 wäre ich mir nicht so sicher.
Da habe ich letztens mit 6k schon an der 90fps Marke geknabbert. :>

SKYNET
2019-02-21, 14:12:17
Bei D3 wäre ich mir nicht so sicher.
Da habe ich letztens mit 6k schon an der 90fps Marke geknabbert. :>


doom3? echt? habs grad erst wieder gezockt gehabt, frames waren durchweg >300 mit max out auf 1600*1200

frage mich nur grad, obs da nicht nen mood gibt, der auch andere auflösungen als 4:3 anbietet, weil balken links und rechts sind echt hässlich(nativ 1920*1200)...

Rancor
2019-02-21, 15:17:14
Das Argument ist Quatsch. Du würdest auch nicht sagen, dass eine 2080Ti keine Vorteile gegenüber der 2080 bringt, weil wenn eine 2080 nur noch 30fps schafft, dann schafft die Ti auch nur 39fps. Der 9900K hat seine Daseinsberechtigung, er ist nur eben ziemlich teuer.

Wenn man Hardware kauft, weil man denkt, das die schnellste Hardware länger hält, würde ich genauso argumentieren.

Einen 9900k und eine 2080TI kauft man jetzt, weil man jetzt das schnellste haben möchte was so geht und nicht weil die 2080TI länger hält als die 2080. ( VRAM mal ausgeklammert )

Denn ob ich 100 oder 130 FPS habe kann für jemanden, der viele schnelle Online Shooter spielt, schon einen Unterschied machen.. 30 und 39 FPS sind hingegen immer scheisse....

High FPS Gamern würde ich daher auch erstmal immer eine Intel CPU empfehlen. Otto normal Gamern hingegen erstmal nen Ryzen.

Daredevil
2019-02-21, 15:18:40
doom3? echt? habs grad erst wieder gezockt gehabt, frames waren durchweg >300 mit max out auf 1600*1200

frage mich nur grad, obs da nicht nen mood gibt, der auch andere auflösungen als 4:3 anbietet, weil balken links und rechts sind echt hässlich(nativ 1920*1200)...
Öh, Diablo 3 meinte ich. :D
Was ist die offizielle Abkürzung von Diablo3 und Doom3? ^^

Langlay
2019-02-21, 15:44:08
High FPS Gamern würde ich daher auch erstmal immer eine Intel CPU empfehlen. Otto normal Gamern hingegen erstmal nen Ryzen.

Wenn das Budget zu den Ambitionen passt dann ja. Wenn du allerdings ein eher knapperes Budget hast. Zum Beispiel 1000€ für Mobo + CPU + RAM + GPU. Sieht son Ryzen 5 2600(X) schonwieder ziemlich verlockend aus.

Weil Ryzen 2600X + 2080/1080ti wird halt unterm Strich dann doch wieder besser sein als i7 8700k oder i9 9900k + 2070/Vega.

Rancor
2019-02-21, 15:55:56
Deshalb ja auch erstmal. Wenn jemand natürlich das Budget nicht hat, muss man ja immer schauen.

w0mbat
2019-02-21, 16:38:46
Das muss doch gar nichts mit dem Budget zu tun haben. Ich hätte kein Problem 500€+ für eine CPU auszugeben, wenn sie es denn Wert wäre. Aber der 9900K hat mMn zu viele Nachteile um eine "gute" CPU zu sein.

Wenn wir uns Zen+ vs. CFL-R anschauen sehen wir, dass die IPC bei Anwendungen die nicht latenzabhängig sind auf dem gleichen Niveau liegen und bei latenzabhängigen Anwendungen, wie zB Spielen, CFL-R aktuell ca. 10% mehr IPC hat. Das liegt vor allem an ringbus vs. IF, siehe zB Skylake-X mit Intel's mesh und vergleichbarer IPC vs. Zen+ in Spielen.

Dazu kommt dann noch der Taktvorsprung, also 4,2GHz bei Zen+ vs. ca. 5GHz bei CFL-R. Klar, bei manchen Ryzen geht mehr und manche 9900K machen >5GHz, aber das ist so der Schnitt.

Für mich bedeutet dies, dass sich ein 9900K nur dann lohnt, wenn man ihn auch übertaktet, also mit ~5GHz betreibt. Dann braucht er aber absurd viel Strom und wird extrem heiß, was ihn wieder uninteressant macht. Mein 2600X @-100mV wir unter Prime95 schon >80C heiß, ein 9900K will ich da nichtmal geschenkt.

Wenn jetzt jemand Lust auf ein großes Gehäuse und/oder ne WaKü hat kann ein 9900K ja eine Option sein, aber für viele andere ist es das einfach nicht.

Rancor
2019-02-21, 16:42:12
Er ist nur dann eine Option, wenn ich die Kohle habe das drumerhum zu zahlen und ich maximale Performance haben will. Zb. 240HZ Monitore mit möglichst hohen FPS befeuern etc...
Sonst sehen ich da auch kein Anwendungsgebiet ( Im Gaming ). Gut E-Peen Vergrößerung... das soll ja für manche wirklich das wichtigste sein ;D

Lowkey
2019-02-21, 16:57:13
Der Preisrutsch geht los: https://geizhals.de/intel-core-i7-8700k-bx80684i78700k-a1685281.html

Mal schauen ob das so bleibt. Denn wenn Intel wieder liefern kann und der Preis fällt, dann ändern sich auch die Empfehlungen. AMD nimmt Otto nur, weil es im Preisbereich kaum eine Alternative gibt.

Menace
2019-02-21, 17:26:17
Der Preisrutsch geht los: https://geizhals.de/intel-core-i7-8700k-bx80684i78700k-a1685281.html

Mal schauen ob das so bleibt. Denn wenn Intel wieder liefern kann und der Preis fällt, dann ändern sich auch die Empfehlungen. AMD nimmt Otto nur, weil es im Preisbereich kaum eine Alternative gibt.

Schon erstaunlich wie intel es wohl selbst hier nötig hat im AMD Thread Werbung für diese CPUs für intel zu machen.

Wenn das bei Otto so ist, dann nur deshalb weil er keinen Plan hat und die ewig gleichen dem viralen Marketing aufsitzen.

hq-hq
2019-02-21, 18:11:35
Beim Ryzen ist quasi nur die Latenz der Flaschenhals. Die ist schon von sich aus deutlich höher als bei Intel, wo der Ertrag irgendwann auch wieder abnimmt. Würde AMD an der Bandbreite hängen, würden die Gamer sich alle nen Threadripper mit Quadchannel hinstellen :D.

ah jo stimmt da war ja was :freak:

dachte nur gerade wie sich 8 Kerne und 16 Threads 40GB/s teilen müssen...

über die Subtimings kann man schon ein paar ns gewinnen, vor allem aber Bandbreite wenn das Board sehr lasche auto Timings stellt...

Gibts dazu denn auch Zahlen wo man die Relation sehen kann?

(Am 7.7 kommt vielleicht eine AMD CPU auf die Wunschliste)

Langlay
2019-02-21, 18:25:46
Gibts dazu denn auch Zahlen wo man die Relation sehen kann?



https://abload.de/img/3200cr1dwkic.jpg

https://abload.de/img/3466gdmoffrhkzd.jpg

Ich kann nur mit den beiden Grafiken dienen. Subtimings sind allerdings auf beiden eher sportlich.

hq-hq
2019-02-21, 18:33:14
https://abload.de/img/3200cr1dwkic.jpg

https://abload.de/img/3466gdmoffrhkzd.jpg

Ich kann nur mit den beiden Grafiken dienen. Subtimings sind allerdings auf beiden eher sportlich.


oha, da ich FarCry 5 Benchmarkmüde bin lade ich gerade das neue New Dawn,

FarCry 5 hat ja recht schön auf schnellen Speicher reagiert und das Performance-Plus durch CPU OC etwas mehr als verdoppelt.

Man könnte sich jetzt abmühen die Latenz soweit es geht getrennt von der Bandbreite zu betrachten.

Also bei dir z.B. absichtlich die Latenz auf 70ns verschlechtern und ein paar mal mit 60ns und ein paar mal mit 70ns benchen.
Insofern der Benchmark halbwegs konstante Ergebnisse liefert.

Langlay
2019-02-21, 18:50:36
Ich hab das neue Far Cry leider nicht.

dargo
2019-02-21, 18:56:38
Man könnte sich jetzt abmühen die Latenz soweit es geht getrennt von der Bandbreite zu betrachten.

Guckst du hier...
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11932325&postcount=968

Es gibt Games die über DDR4-2933 noch einiger Maßen mit der Bandbreite skalieren. Es gibt aber auch welche die das kaum interessiert. Dazu zählen bsw. pCars 2 und Forza Horizon 3. Eine pauschale Aussage zu treffen was nun besser ist... Bandbreite oder Latenz, ist kaum möglich da sich Spiele unterschiedlich verhalten.

hq-hq
2019-02-21, 19:02:49
@Langlay - FarCry5 ?

das neue New Dawn kostet nur 26,67€ auf MMOGA (mit MMOGA2018 Gutschein), läd aber bissi laange, >30gig

@Dargo

ja das hab ich schon gesehen und wundere mich, gibt es die fps auch in Relation mit GB/s und Latenz?

FarCry5 reagiert da relativ sensibel, um zu sehen was es bringt müsste man sich halt was suchen wo man einen deutlichen Effekt hat.

Langlay
2019-02-21, 19:14:21
Leider garkein aktuelles Far Cry. Und ich hab auch so wenig Interresse an dem Spiel, daher sind mir 30€ auch zuviel nur zum rumspielen.

dargo
2019-02-21, 19:19:57
Geht auch weniger.
https://www.cdkeys.com/pc/games/far-cry-new-dawn-pc-uplay-cd-key?mw_aref=8023ef0aa94165947417b567beee956d&utm_source=keyforsteam.de&utm_medium=referral&utm_campaign=keyforsteam

Aber wenn man kein Interesse hat ist selbst das zu viel. :D

hq-hq
2019-02-22, 00:17:17
New Dawn verhält sich wie Farcry5, keine Überraschung.
Werd mal versuchen nur die Latenz zu verschlechtern ohne die Bandbreite zu verändern und dann einmal umgekehrt und dazu ein Aida Memory Bench-Pic... hab nur keinen Ryzen :-/ zumindest noch nicht ^^

Langlay
2019-02-22, 21:57:43
Ich hab jetzt Zugang zum neuen Far Cry, wenn ichs runtergeladen hab in mach ich mal ein paar Test. Kann aber durchaus bis morgen dauern. Je nachdem wie schnell das Gurkeninternet hier wieder ist.

x-force
2019-02-22, 22:49:14
New Dawn verhält sich wie Farcry5, keine Überraschung.
Werd mal versuchen nur die Latenz zu verschlechtern ohne die Bandbreite zu verändern und dann einmal umgekehrt und dazu ein Aida Memory Bench-Pic... hab nur keinen Ryzen :-/ zumindest noch nicht ^^

das würde mich auch interessieren, ich glaube aber du bekommst den speicher nicht so langsam, daß du bei 5,2ghz core auf ryzen leistung kommst.

Der_Korken
2019-02-22, 23:03:08
Auch wenn das eigentlich total bescheuert klingt, fände ich mit Benches mit CFL und Zen bei gleicher Speicherlatenz ziemlich interessant. Man würde damit besser sehen, ob die Intel-Kerne von sich aus schneller sind oder ob es "nur" an der Speicherlatenz hängt.

SKYNET
2019-02-23, 09:17:59
Auch wenn das eigentlich total bescheuert klingt, fände ich mit Benches mit CFL und Zen bei gleicher Speicherlatenz ziemlich interessant. Man würde damit besser sehen, ob die Intel-Kerne von sich aus schneller sind oder ob es "nur" an der Speicherlatenz hängt.

da bräuchte es jemanden mit nem quad channel system das man das simulieren kann....

einen riegel raus, im 3-channel laufen lassen bei 2400MHz :)

robbitop
2019-02-23, 10:11:07
Ach einfach RAM Takt/Latenz runter bis gleiche Latenz erreicht ist. Bandbreite ist in den Regionen für Spiele ziemlich unwichtig.

SKYNET
2019-02-23, 10:50:24
Ach einfach RAM Takt/Latenz runter bis gleiche Latenz erreicht ist. Bandbreite ist in den Regionen für Spiele ziemlich unwichtig.


naja, geht so:
https://www.computerbase.de/2018-04/amd-ryzen-2000-test/7/#abschnitt_benchmarks_mit_ddr43466_und_scharfen_timings

7% finde ich schon nicht unerheblich.

robbitop
2019-02-23, 11:42:38
Auf was wilst du dort genau hinaus? Wo kommen welche 7% her?

SKYNET
2019-02-23, 12:47:18
Auf was wilst du dort genau hinaus? Wo kommen welche 7% her?


nur durch erhöhung der bandbreite... spiele sind grossteils geil auf bandbreite, zumindest auf intel, bei AMD sinds eher die timings, da die, die latenzen drastisch reduzieren.

sieht man ja wunderbar im link oben, mehr takt bringt auf AMD und intel ca. gleich viel, timings dagegen bei intel nur halb soviel wie bei AMD.

von daher denke ich die aussage "Bandbreite ist in den Regionen für Spiele ziemlich unwichtig." ist eher falsch...

hq-hq
2019-02-23, 13:23:19
Ich hab jetzt Zugang zum neuen Far Cry, wenn ichs runtergeladen hab in mach ich mal ein paar Test. Kann aber durchaus bis morgen dauern. Je nachdem wie schnell das Gurkeninternet hier wieder ist.

gut, habs gesehen

ich kann jetzt mal den RAM-Takt auf deine DDR3466 CL14 runterstellen, aus der 1080Ti ein wenig den Takt rausnehmen (z.B. 1800/6100MHz) und versuchen mit dem 8700k auf deine fps zu kommen

und danach bei 3466MHz die Latenz so zu verschlechtern (z.B. Cl20) bis cih in Aida die 60.9ns erreiche

SKYNET
2019-02-23, 13:34:13
ah jo stimmt da war ja was :freak:

dachte nur gerade wie sich 8 Kerne und 16 Threads 40GB/s teilen müssen...

über die Subtimings kann man schon ein paar ns gewinnen, vor allem aber Bandbreite wenn das Board sehr lasche auto Timings stellt...

Gibts dazu denn auch Zahlen wo man die Relation sehen kann?

(Am 7.7 kommt vielleicht eine AMD CPU auf die Wunschliste)


also zumindest auf AMD gehen mehr als nur "ein paar" ns wenn man die timings strafft :D

FC5 könnte ich liefern default timings vs. optimiert.... 720p sollte langen?

hq-hq
2019-02-23, 13:45:37
also zumindest auf AMD gehen mehr als nur "ein paar" ns wenn man die timings strafft :D

FC5 könnte ich liefern default timings vs. optimiert.... 720p sollte langen?

oh ja gerne,

ich könnte auch noch mit einem 8600k, ddr4 ram bis 4000mhz und einer rx 580 8gb dienen die etwa 1500/2250MHz macht
- allerdings muss ich dann erst FC5/new dawn drauf runterladen :-D

JVC
2019-02-23, 15:25:00
https://www.userbenchmark.com/UserRun/14774084
UserBenchmarks: Game 66%, Desk 96%, Work 88%
CPU: AMD Ryzen 5 2600X - 99.2%
GPU: AMD RX 470 - 62.1%
SSD: Samsung 850 Evo 250GB - 112.4%
HDD: Seagate Barracuda 7200.14 1TB - 103.1%
RAM: G.SKILL Flare X DDR4 3200 C14 2x8GB - 138.6% , 56.6 ns
MBD: Asrock X370 Gaming-ITX/ac

Nicht mein PC ... aber 56ns :eek: is schon krass :up:

Dem seine Einstellungen würden mich interessieren !
(hab den gleichen RAM, und keine Angst davor auch 1,8v auf Dauer anzulegen:freak:)

m.f.g. JVC

edit: hier hat er sogar glatte 56ns !
https://www.userbenchmark.com/UserRun/13419952
Ich freu mich schon jetzt auf die neue CPU, meine will ja nicht über 3466mhz Ram Speed :/

hq-hq
2019-02-23, 15:31:17
Ich hab jetzt Zugang zum neuen Far Cry, wenn ichs runtergeladen hab in mach ich mal ein paar Test. Kann aber durchaus bis morgen dauern. Je nachdem wie schnell das Gurkeninternet hier wieder ist.


praktisch identische FPS bei folgenden Einstellungen (720p low details; [https://www.forum-3dcenter.org/vbulletin/showthread.php?t=587883&page=66]):

2700x @4200MHz DDR4 3466 14-15-14-28 mit Vega56
8700k @3000MHz DDR4 3466 14-15-15-28 mit 1080Ti (@1830/6100MHz)

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=65810&stc=1&d=1550932242
(durch den sehr niedrigen Uncore Takt leidet die Speicherbandbreite ein wenig)


warum ist hier der 2700x so dramatisch schlecht ?

JVC
2019-02-23, 15:42:04
praktisch identische FPS bei folgenden Einstellungen (720p low details; [https://www.forum-3dcenter.org/vbulletin/showthread.php?t=587883&page=66]):

2700x @4200MHz DDR4 3466 14-15-14-28 mit Vega56
8700k @3000MHz DDR4 3466 14-15-15-28 mit 1080Ti (@1830/6100MHz)

warum ist hier der 2700x so dramatisch schlecht ?

ich find den 2700X nicht so schlecht, wenn er eben mal mit ner V56 ne 1080Ti einholt :smile:

m.f.g. JVC

Screemer
2019-02-23, 15:45:08
Das ist 720p. Da sollte die GPU kaum Einfluss auf die gesamtperformance haben. Könnte man aber nur belegen, wenn man die Karten auch Mal zwischen den Systemen tauscht.
Dazu bräuchte es Frametimes oder zumindest 1%-lows. 40% mehr Takt für gleiche Leistung halte ich für ziemlich abwegig. Außer in Dunia ist irgendwas komplett im Arsch auf amd CPUs/GPUs.

JVC
2019-02-23, 15:51:24
Stimmt.
Da sollte ein Gegenvergleich mit getauschten Grakas her ;)
Danke @hq-hq :smile:

m.f.g. JVC

hq-hq
2019-02-23, 16:01:58
im New Dawn Bench-Thread gibt es auch einen 1700x mit 2080Ti, dort benötigt der 8700k (mit 4133MHz DDR4 Takt und 1080Ti) nur 2800MHz um auf die gleichen fps in 720p zu kommen...
von dem Speichervorteil der 8700k CPU bleibt mit 2800MHz Uncore Takt nicht mehr viel übrig...

ich frage mich warum Ryzen hier so schlecht ist

Screemer
2019-02-23, 16:05:34
Das kann nur kompletter engine fuckup sein. Das es sowas noch gibt. Ist das in fc5 auch schon so gewesen?

Gibt's Leute mit 7700k im Bench thread? Beschränkt die Dinger Mal alle auf 4/8 und 4/4 und macht noch Mal nen Run.

JVC
2019-02-23, 16:13:18
Von wie vielen FPS sprechen wir den überhaupt ?

Wen der 2700X über 100FPS kommt, würde mir das dicke reichen :)
(bin ja kein "high-fps-zocker" sondern stehe mehr auf "Eye-Candy")

m.f.g. JVC

Der_Korken
2019-02-23, 16:22:41
praktisch identische FPS bei folgenden Einstellungen (720p low details; [https://www.forum-3dcenter.org/vbulletin/showthread.php?t=587883&page=66]):

2700x @4200MHz DDR4 3466 14-15-14-28 mit Vega56
8700k @3000MHz DDR4 3466 14-15-15-28 mit 1080Ti (@1830/6100MHz)

warum ist hier der 2700x so dramatisch schlecht ?

Ich nehme mal an, dass die Leistung des 2700X sinkt, wenn du den Takt reduzierst? Falls nein, wäre die Speicherlatenz quasi der Flaschenhals und die Frage geklärt.

Ansonsten blieben neben der einfachsten Deutung, dass CFL schlicht 40% mehr IPC in dem Spiel hat, noch ein folgendes:
- Problem mit dem CCX Design. Dazu müsste man beim 2700X ein CCX deaktivieren und beim CFL entsprechend das Spiel so auf 8 logische Kerne pinnen, dass diese vier physischen Kernen entsprechen (oder zwei im BIOS deaktivieren falls das geht)
- Problem mit SMT bei AMD (oder dem Windows-Scheduler, wobei da mittlerweile längst alles gefixt sein sollte)

Langlay
2019-02-23, 17:30:37
Gibt's Leute mit 7700k im Bench thread? Beschränkt die Dinger Mal alle auf 4/8 und 4/4 und macht noch Mal nen Run.

Ich hatte 4/8 mal getestet, da gabs keinen Unterschied zu 8/16. Sowohl in 2+2 als auch in 4+0 Config.

Aber die Far Cry Geschichte läuft auch ziemlich bescheiden für die Grafikleistung

Ohne SMT hatte ichs allerdings noch nicht getestet.


/Edit SMT tests nochmal nachgereicht im Benchmarkthread (4+0 Kerne)


https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11935094#post11935094

hq-hq
2019-02-23, 19:40:01
Ich nehme mal an, dass die Leistung des 2700X sinkt, wenn du den Takt reduzierst? Falls nein, wäre die Speicherlatenz quasi der Flaschenhals und die Frage geklärt.

Ansonsten blieben neben der einfachsten Deutung, dass CFL schlicht 40% mehr IPC in dem Spiel hat, noch ein folgendes:
- Problem mit dem CCX Design. Dazu müsste man beim 2700X ein CCX deaktivieren und beim CFL entsprechend das Spiel so auf 8 logische Kerne pinnen, dass diese vier physischen Kernen entsprechen (oder zwei im BIOS deaktivieren falls das geht)
- Problem mit SMT bei AMD (oder dem Windows-Scheduler, wobei da mittlerweile längst alles gefixt sein sollte)

Hm, der 2700x ist der von Langlay, eventuell könnte Langlay SMT mal deaktivieren?
ah war zu langsam beim Lesen... ist ja schon geschehen ^^

Beim 8700k kann ich mal 2 Kerne deaktivieren also 4/8

gmb
2019-02-23, 23:04:19
praktisch identische FPS bei folgenden Einstellungen (720p low details; [https://www.forum-3dcenter.org/vbulletin/showthread.php?t=587883&page=66]):

2700x @4200MHz DDR4 3466 14-15-14-28 mit Vega56
8700k @3000MHz DDR4 3466 14-15-15-28 mit 1080Ti (@1830/6100MHz)

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=65810&stc=1&d=1550932242
(durch den sehr niedrigen Uncore Takt leidet die Speicherbandbreite ein wenig)


warum ist hier der 2700x so dramatisch schlecht ?


Das ist mal ein Unterschied und bestätigt den gamegpu Test fast 1:1. Die Intel CPUs regeln einfach in dem Spiel. Mein 4/8 7700k würde den auch abziehen. Ist für AMD schon erschreckend, das große Defizit von Ryzen. Coffeelake-S mit schnellem RAM ist einfach das nonplusultra fürs gaming.

w0mbat
2019-02-23, 23:10:21
Hast du die GPUs gesehen? Anscheinend nicht :ugly:

Der_Korken
2019-02-23, 23:18:34
Hm, der 2700x ist der von Langlay, eventuell könnte Langlay SMT mal deaktivieren?
ah war zu langsam beim Lesen... ist ja schon geschehen ^^

Beim 8700k kann ich mal 2 Kerne deaktivieren also 4/8

Sorry, hatte irgendwie gedacht du hättest beides :freak:. Ich glaub den 4/8-Bench kannst du dir sparen. Es ging nur darum zu gucken, ob ein CCX beim Ryzen schneller läuft als beide und dann wäre es fair gewesen beide mit 4 Kernen zu testen. Allerdings scheint es keinen Unterschied zwischen 4+0 und 2+2 zu geben.

Hast du die GPUs gesehen? Anscheinend nicht :ugly:

Es wurde doch 720p gebencht :confused:

N0Thing
2019-02-23, 23:21:28
Bei 720p low details sollte die GPU nicht relevant sein.

CyLord
2019-02-25, 13:15:49
Da wäre ich mir nicht so sicher. Kann mich an Tests der PCGH (Hefte vor Monaten) erinnern, wo genau die AMD-Karten mit AMD-CPUs grundsätzlich schlechter liefen im Vergleich zu AMD/nVidia inkl. Vergleich mit der Intel-Plattform. Also beide Grafikeinheiten wurden mit AMD- und Intelprozessoren verglichen. Die Testpartner sollten schon gleich sein, ansonsten bestehen immer Zweifel.

Screemer
2019-02-25, 14:10:17
den einwurf gab's schon mehrfach. zuletzt im dritten post auf dieser seite. scheint aber niemanden zu geben, der das mal nachstellen kann/will.

hq-hq
2019-02-25, 17:55:14
ich hatte noch eine RX580 8GB mit 8600k getestet, die RX580 ist aber halt ... eigentlich... eine langsame Grafikkarte

fc5 new dawn - avg fps gleich bei 720p low details taa on:

2700x @4200MHz DDR4 3466 14-15-14-28 mit Vega56
8700k @3000MHz DDR4 3466 14-15-15-28 mit 1080Ti (@1830/6100MHz)
8600k @3200MHz DDR4 3900 16-17-17-32 mit RX 580 (@1515/2250MHz, IMO noch etwas GPU limitiert)
8600k @3200MHz DDR4 3466 15-15-15-30 mit RX 580 ist einen Tick langsamer, 3300Mhz wären wohl equal

Rancor
2019-02-25, 18:12:28
ich hatte noch eine RX580 8GB mit 8600k getestet, die RX580 ist aber halt ... eigentlich... eine langsame Grafikkarte

fc5 new dawn - avg fps gleich bei 720p low details taa on:

2700x @4200MHz DDR4 3466 14-15-14-28 mit Vega56
8700k @3000MHz DDR4 3466 14-15-15-28 mit 1080Ti (@1830/6100MHz)
8600k @3200MHz DDR4 3900 16-17-17-32 mit RX 580 (@1515/2250MHz, IMO noch etwas GPU limitiert)
8600k @3200MHz DDR4 3466 15-15-15-30 mit RX 580 ist einen Tick langsamer, 3300Mhz wären wohl equal

Fehlen hier die Angaben zur Leistung oder bin ich blind?

Edit:

Ahh, jetzt raffe ich es :D In Far Cry ist das echt bitter für AMD.

SKYNET
2019-02-26, 01:27:54
oh ja gerne,

ich könnte auch noch mit einem 8600k, ddr4 ram bis 4000mhz und einer rx 580 8gb dienen die etwa 1500/2250MHz macht
- allerdings muss ich dann erst FC5/new dawn drauf runterladen :-D


FC5 mit 3600er C14 speicher, cpu lief auf PBO/XFR, low, 720p, TAA:

gmb
2019-02-26, 12:19:22
Hier ein neuer Spieletest zu Pinnacle Ridge:


https://abload.de/img/metrod4k3q.jpg
https://gamegpu.com/action-/-fps-/-tps/metro-exodus-v-1-0-1-1

hq-hq
2019-02-26, 12:20:39
FC5 mit 3600er C14 speicher, cpu lief auf PBO/XFR, low, 720p, TAA:


na das sieht ja mal nicht schlecht aus, also RAM ordentlich Zunder gegeben - 1.5v? - und CPU auf 4.35+GHz und der Knoten platzt

Menace
2019-02-26, 13:57:37
Hier ein neuer Spieletest zu Pinnacle Ridge:


Muhahaha.... Die Kasperlesauflösung mit einer 2080Ti? ;D

Danke für den Link. Alles richtig mit der AMD-CPU gemacht, wenn ich von 1440 und meiner aktuellen Grafikkarte ausgehe. :biggrin:

SKYNET
2019-02-26, 13:57:59
na das sieht ja mal nicht schlecht aus, also RAM ordentlich Zunder gegeben - 1.5v? - und CPU auf 4.35+GHz und der Knoten platzt

Jupp, 1.5V, kann bei dem board leider nur in 0.05 schritten einstellen, 1.45V rennt auch nahezu sauber(inkl. aida stresstest), evtl ein freeze in der woche beim zocken, darum denke ich evtl wären 1.46V schon ausreichend.. Beim nächsten board dann ;)

w0mbat
2019-02-26, 14:07:41
Ich glaube der RAM-Takt macht einfach viel aus und dazu die subtimings. Ob jetzt CL14 oder CL16 ist egal, wichtiger ist ein niedriges tRFC, tFAW und tRDRD/tWRWR, etc.

Mein RAM läuft mit DDR4-3400 CL16-15-15-1T und optimierten subtimings und ist im CPU-Limit zT >20% schneller als DDR4-3200 via XMP. Die paar hundert MHz mehr beim IF schlagen voll durch, das IF ist nämlich die Schwachstelle bei Ryzen wenn es ums gaming geht.

Effe
2019-02-26, 14:29:57
Hier ein neuer Spieletest zu Pinnacle Ridge:


https://gamegpu.com/action-/-fps-/-tps/metro-exodus-v-1-0-1-1

Haha, wer spielt das Spiel bitte auf low mit einer 2080ti? Ab High sieht man bereits wie unwichtig die Marke der CPU ist.

Cherrypicking at it's best.

dargo
2019-02-26, 15:01:18
Haha, wer spielt das Spiel bitte auf low mit einer 2080ti?
Die Frage müsste eher lauten wer spielt das Game überhaupt mit low Details? :wink: Ok... vielleicht jemand mit ner lowend Graka. Aber dann ist man eh komplett im GPU-Limit. Und bereits ab Medium Preset ist die CPU bei einer RTX 2080/Radeon VII @1080p auch egal, zumindest in der Testszene. Witzig finde ich aber den theoretischen Vergleich dennoch. Mit der Geforce ist der i5-8600K bei den min.fps schneller als der i7-8700K. Bei den avgs. nicht. Bei Radeon ist der i7-8700K sowohl bei den avgs. als auch min.fps schneller. Und auch allgemein sind die Frames mit der Radeon und dieser CPU höher. Aber wie gesagt... rein theoretischer Natur das ganze. In der Praxis komplett irrelevant.

Rancor
2019-02-26, 15:03:34
Vor allem warum muss man ständig in den Ryzen Thread kommen und Benchmarks im CPU Limit posten woraus hervorgeht, das die Intel CPUs schneller sind??

Raff ich nicht. Das ist doch mehr als hinlänglich bekannt. :confused:

Das ist aber ja auch gar kein Problem, denn die CPUs kosten die Hälfte der Intel Pendants ( 2600x vs 8700k zB ) und das ist auch der Grund warum Sie sich so gut verkaufen, weil Sie eben gutes P/L Verhältnis haben.

Wenn das endlich mal in die Birne von gmb und Executer reingehen würde, wäre schon viel gewonnen. Aber irgendwie scheinen die das nicht zu verstehen. :(

x-force
2019-02-26, 15:05:34
geht, nur weil du mit 30-60 fps leben kannst, muss das nicht für jeden gelten. es gibt auch menschen, die sich an high fps erfreuen.
um z.b. 144fps auch nur auf 1080p zu halten, muss man sich etwas einfallen lassen. details reduzieren liegt nahe.

Rancor
2019-02-26, 15:10:36
Also ich kann mit meinem Ryzen auch jenseits der 60 FPS spielen. Wenn man safe 144FPS in FULLHD haben will, dann sollte man eine Intel CPU kaufen, das ist richtig.

dildo4u
2019-02-26, 15:15:30
Schon auf Medium gibt es kaum noch skaling vom 4 Core Intel ohne HT,trotzdem würde niemand auf die Idee kommen Heute noch ein High-End System damit zu bauen.
Das Game ist einfach nicht CPU Lastig genug das es in irgend einer weise relevant wäre.Alles andere wäre auch komisch da das Game keine besondere Zerstörungs Physik hat oder Menschenmengen die die CPU belasten könnte.

dargo
2019-02-26, 15:24:48
Testet GameGPU eigentlich in DX11 oder DX12? Ich würde jetzt auf Anhieb auf DX12 tippen weil auch die Ryzen CPUs mit der Radeon mehr Frames im low Preset rausspucken als die Geforce (Radeon VII vs. RTX 2080).

aufkrawall
2019-02-26, 15:26:54
Ist halt auch die Frage, ob das low-Preset ggf. die Last weniger gleichmäßig verteilt und damit ST-Boliden bevorzugt.
Abgesehen davon finde ich die Ryzen-Ergebnisse absolut passabel, wenn man Timing-Tuning draufrechnet.

dargo
2019-02-26, 15:28:46
Abgesehen davon finde ich die Ryzen-Ergebnisse absolut passabel, wenn man Timing-Tuning draufrechnet.
Ich finde auch irgendwie nichts auf die schnelle zum verwendeten Speicher, geschweige denn Subtimings.

Edit:
Ah.. hier steht was von DDR4-3200.
https://gamegpu.com/%D1%82%D0%B5%D1%81%D1%82-gpu/%D1%82%D0%B5%D1%81%D1%82%D0%BE%D0%B2%D1%8B%D0%B5-%D0%BA%D0%BE%D0%BD%D1%84%D0%B8%D0%B3%D1%83%D1%80%D0%B0%D1%86%D0%B8%D0%B8/

Aber Ryzen auf Z370 Brett? :D

SKYNET
2019-02-26, 16:12:08
Ich finde auch irgendwie nichts auf die schnelle zum verwendeten Speicher, geschweige denn Subtimings.

Edit:
Ah.. hier steht was von DDR4-3200.
https://gamegpu.com/%D1%82%D0%B5%D1%81%D1%82-gpu/%D1%82%D0%B5%D1%81%D1%82%D0%BE%D0%B2%D1%8B%D0%B5-%D0%BA%D0%BE%D0%BD%D1%84%D0%B8%D0%B3%D1%83%D1%80%D0%B0%D1%86%D0%B8%D0%B8/

Aber Ryzen auf Z370 Brett? :D


klar, AMD chipsätze sind ja instabil und so... :freak:

Rancor
2019-02-26, 16:21:19
GameGpu ist ehh määhhhhh. Keine Ahnung. Ich traue dem Laden nicht.

JVC
2019-02-26, 17:19:29
... also RAM ordentlich Zunder gegeben - 1.5v? ...


Samsung B-Dies sind auf bis zu 1,5v freigegeben. Das ist "Quasi Standardspannung" :biggrin:
z.b.: https://geizhals.at/g-skill-trident-z-rgb-dimm-kit-16gb-f4-4600c18d-16gtzr-a1869248.html?hloc=at
"Spannung 1.50V"

+ den üblichen "10% Toleranz" = 1,65v = save für mich :tongue:
+ :freak: Zuschlag = 1,8v = ok für mich (auf die Temperatur achten)
+ pe***zuschlag für Messungen = max 2v + aktiver kühlung

Hier hat man gute B-Die bis auf 2,05v im BIOS (um 2,13v real) getestet :biggrin:
https://www.hardwareluxx.de/community/f13/g-skill-flarex-ddr4-3200-c14-14-14-34-1-35v-1160243.html

Mir ist noch nie ein Arbeitsspeicher durch übertakten gestorben.
(hatte nur ~ n halbes dutzend von haus aus (teil)defekte Riegel)

Wer aller hat es denn schon mal geschafft, ohne Absicht seinen RAM zu ruinieren?
(nicht mechanisch ;))

m.f.g. JVC

Zergra
2019-02-26, 17:46:26
Ist nicht der Speichercontroller der CPU eher das Problem? Die können da schon mal abrauchen?

JVC
2019-02-26, 17:53:03
Ist nicht der Speichercontroller der CPU eher das Problem? Die können da schon mal abrauchen?

Bei Intel ist das angeblich so .... kann ich aber nicht bestätigen oder dementieren :rolleyes:
(hieß mal, das teile der CPU mit Ram Spannung laufen oder so :confused:)

Bei meinem 3570K hieß es auch "ned mehr als 1,5v aufn RAM, sonnst is er bald hin" ...
und was ist 6Jahre später ??? NIX.
Läuft noch immer mit CPU 1,4v MAX 99°c , Ram ~1,65v DDR3....

Bei AMD angeblich ja nicht ?
(da hängt glaubi nix mit an der Speicherspannung)

m.f.g. JVC

Zergra
2019-02-26, 17:53:58
Okay ja stimmt bei Intel habe ich das mal gelesen, da hat jemand es mit 1.8V relativ schnell geschafft eine CPU zu zerstören, bzw den Speichercontroller..


War mir jetzt so nicht klar das es bei AMD anders ist.

JVC
2019-02-26, 18:12:36
War mir jetzt so nicht klar das es bei AMD anders ist.

Ich meine wo gelesen zu haben, das es bei Zen egal ist.
Wissen, tu ich es auch nicht.

m.f.g. JVC

p.s.: Samsung 8Gb B-die DDR4 SDRAM PDF
https://www.samsung.com/semiconductor/global.semi/file/resource/2017/11/8G_B_DDR4_Samsung_Spec_Rev2_1_Feb_17-0.pdf
"...Maximum DC Ratings ... ~ 1.5v..."

hq-hq
2019-02-26, 20:17:50
darum habe ich ja nach 1.5V gefragt :freak:

wobei "...evtl ein freeze in der woche beim zocken..." bei mir >>zum Benchen geeignet, 24/7 geht nicht<< heisst :biggrin:

mit meinem alten 4790k mit 2666MHz DDR3 war das bei FarCry Primal dann doch zu nervig, so dass ich dann auf 2600MHz runtergegangen bin :redface:

SKYNET
2019-02-26, 21:37:06
darum habe ich ja nach 1.5V gefragt :freak:

wobei "...evtl ein freeze in der woche beim zocken..." bei mir >>zum Benchen geeignet, 24/7 geht nicht<< heisst :biggrin:

mit meinem alten 4790k mit 2666MHz DDR3 war das bei FarCry Primal dann doch zu nervig, so dass ich dann auf 2600MHz runtergegangen bin :redface:

genau darum auch 1.5V anstelle der 1.45V ;) wie gesagt, Zwischenstufen gibt's leider nicht :frown:

und nein, ich hätte auch keine Probleme damit dem speicher 2V zu geben... C12 auf ryzen mit 3600, wie geil wäre das? ;D

leider ist das max vom board 1.5V X-D

gmb
2019-02-27, 00:39:50
Haha, wer spielt das Spiel bitte auf low mit einer 2080ti? Ab High sieht man bereits wie unwichtig die Marke der CPU ist.

Cherrypicking at it's best.


Das ist GPU limitiert in höheren settings, wäre sinnlos im Pinnacle Ridge Thread. Die hätten in 720p testen müssen.

Menace
2019-02-27, 06:16:40
Das ist GPU limitiert in höheren settings, wäre sinnlos im Pinnacle Ridge Thread. Die hätten in 720p testen müssen.

Nur dann, wenn man es dann auch bitte so spielt. Dass diese unwissenschaftliche Vorgehensweise, die an Esoterik grenzt, nie ausstirbt. :rolleyes:

Es sollte einen nur interessieren, wie die Ergebnisse sind mit
- der eigenen aktuellen oder kurzfristig zukünftigen Hardware
- den Spielen, die man auch spielt
- den Einstellungen, die man auch nutzt.

Da Du ein 720p Spieler bist, viel Spaß weiterhin.

Rancor
2019-02-27, 07:52:32
720P Tests sind schon sinnvoll, um zu beurteilen wie viel Gaming Leistung man theoretisch mit einer entsprechenden GPU erreichen könnte.

Allerdings weiss jeder, das Intel CPUs schneller sind, daher verstehe ich irgendwie nicht ganz, was gmb erreichen will. :confused:

JVC
2019-02-27, 07:54:57
...und nein, ich hätte auch keine Probleme damit dem speicher 2V zu geben... C12 auf ryzen mit 3600, wie geil wäre das? ;D

leider ist das max vom board 1.5V X-D

Wäre bestimmt geil :smile:, hätte gehofft du kannst das testen ;)
Meine CPU will ja scheinbar nicht mehr als 3466mhz :mad:

Nur 1,5v :eek:, dachte bis zumindestens 1,65v können alle Mobos :frown:

Mit etwas Glück könnten 3600Mhz CL12 mit ~1,65v laufen
und 3800Mhz CL12 mit ~1,8v.
Die 4000Mhz CL12 mit ~2,05v sind auf keinen fall mehr was für 24/7.

m.f.g. JVC

Effe
2019-02-27, 08:18:11
...daher verstehe ich irgendwie nicht ganz, was gmb erreichen will. :confused:
Trollen, wie immer. Seine AMD=doof, Intel=Gott - Agenda ist so vorhersehbar.

Metro ist kein CPU-Benchmark, daher ist 720p noch sinnloser als 1080p in low. Bei einem Spieletest(der ein Softwaretest ist), sollte die Spielbarkeit in Vordergrund stehen, da sind 720p allenfalls für Notebooks oder OEM-Officerechner interessant.
144Hz in allen Ehren, aber bei Metro? Ist das nicht ein langsamer Singleshooter, wozu soll man da 144Hz brauchen? 75+ und G-/ASync reichen doch mehr als aus.

Rancor
2019-02-27, 08:21:15
Naja, das ist ja relativ individuell ob man 144 FPS braucht oder nicht.

Wer das safe haben will, muss dann eben auch ~500€+ in die CPU investieren und natürlich das entsprechende Ökosystem erwerben, mit all seinen Vor und Nachteilen.

Wem 80 - 100 FPS reichen der zahlt halt nur 180 €. (R5 2600x)

Eigentlich ist es doch nur positiv das der Markt nun für jeden Geldbeutel eine adäquate Lösung anbietet. Daher verstehe ich diese Grabenkriege überhaupt nicht. Wer P/L kauft AMD, wer max Leistung haben will kauft Intel. So what?

Pirx
2019-02-27, 09:00:10
Ist ein Engine-Test, der nicht gerade ein Ruhmesblatt für die "4A Engine" ist, wenn ein i5 8600K besser abschneidet, als ein i7 8700K.:lol: Die Ukrainer(?) scheinen AMD/Ryzen völlig links liegen zu lassen.

Mortalvision
2019-02-27, 09:22:56
ja, die 15% im Schnitt auf einen i7-9700k@5GHz von r2700X@4,2 GHz sagt eigentlich alles aus. Das sind 200€ mehr, für was? Da brauchts eine 2080 oder mehr, um in FullHD den Unterschied zu spüren. Umgedreht bringts wenig bzw. garnix in wqhd und 4k...

dargo
2019-02-27, 09:40:31
Naja, das ist ja relativ individuell ob man 144 FPS braucht oder nicht.

Wer das safe haben will, muss dann eben auch ~500€+ in die CPU investieren und natürlich das entsprechende Ökosystem erwerben, mit all seinen Vor und Nachteilen.

Nee... ich warte dann lieber auf Ryzen 2 nur um gmb und Exe zu ärgern. :biggrin:

Trollen, wie immer. Seine AMD=doof, Intel=Gott - Agenda ist so vorhersehbar.

This!

Bei mancher Applikation frage ich mich welcher Compiler da wieder verwendet wurde? Ein für Ryzen optimierter bestimmt nicht. :wink:

btw.
Ich habe aktuell FH4 mit dem Ultra-Preset durch den Benchmark durchgejagt.

https://abload.de/img/fh4_3ttj0k.jpg

Die Anzahl der Ruckler kann man getrost ignorieren. Ich habe schon alles zwischen 0 und 20+ gesehen. Das wechselt immer zwischen Applikationsupdate/Windowsupdate und Treiber. ;D Keine Ahnung was die Software da als Ruckler definiert, ich sehe jedenfalls mit Freesync keine.

Zum Vergleich...
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11827918&postcount=36

Der i7-8700K ist mit 4,8Ghz und DDR4-4000 bei CPU-Render ganze 8% bei den avgs. und 5% bei den min.fps schneller als mein Ryzen 1 mit 3,8Ghz und DDR4-3333, bin schwer beeindruckt. :cool: Bei CPU-Simulation sind es 20+% mehr für den Intel. In der Praxis ist das aber auch irrelevant, CPU-Render wird schneller limitieren.

Hier noch paar Vergleiche zum i7-8700.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11828786&postcount=40
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11828187&postcount=38

Dort ist ein Hassi.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11921832&postcount=46

Und hier ein 4,8Ghz i7-8700K mit recht lahmen DDR4-2400.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11826371&postcount=35

SKYNET
2019-02-27, 10:23:48
Wäre bestimmt geil :smile:, hätte gehofft du kannst das testen ;)
Meine CPU will ja scheinbar nicht mehr als 3466mhz :mad:

Nur 1,5v :eek:, dachte bis zumindestens 1,65v können alle Mobos :frown:

Mit etwas Glück könnten 3600Mhz CL12 mit ~1,65v laufen
und 3800Mhz CL12 mit ~1,8v.
Die 4000Mhz CL12 mit ~2,05v sind auf keinen fall mehr was für 24/7.

m.f.g. JVC


dazu müsste ich das neuste bios drauftun, zum schauen ob mehr als die 3600 gehen(denke aber eher CPU macht dicht), aber habe keinen nerv meine profile alle neu zu erstellen :mad: oder gibts ne möglichkeit die profile bei asrock irgendwie extern zu saven? :confused: weil habe ja noch die ur agesa .1a

JVC
2019-02-27, 11:53:01
... oder gibts ne möglichkeit die profile bei asrock irgendwie extern zu saven? :confused: weil habe ja noch die ur agesa .1a

Asus kann das Bios auf USB sichern und davon laden.
(ka ob dabei unterschiedliche Bios Versionen kompatibel sind)

Ob Asrock so ne Option hat, weis ich nicht.

Bei mir waren nach nem Biosupdate alle Einstellungen weck :mad:
(das auf USB sichern hab ich noch nicht probiert)

Ich hoff echt, das ich dann mit dem 3700X, auf ~3800Mhz CL12 komme =)

m.f.g. JVC

p.s.: Zum testen, ob die CPU höher könnte, kannst ja mal auf laschen Timings ala 20/20/20 stellen...
(mit sowas laufen bei mir auch 3533Mhz fast stabil. höher komm ich nicht, egal was ich einstelle...)

Der_Korken
2019-02-27, 12:08:45
Afaik wird dringend davon abgeraten die BIOS-Einstellungen irgendwie zwischen Agesa-Versionen zu portieren, weil die nicht kompatibel sind. Man weiß nicht, was in einem Profil tatsächlich gespeichert wird. Zum einen Werte für Einstellungen, die (leider ...) in der neuen Version nicht mehr da sind und vielleicht auch jede Menge "versteckte" Werte, die in der alten Versionen vielleicht keinen Effekt hatten, in der neuen aber schon und jetzt alles durcheinander bringen.

Zergra
2019-02-27, 12:27:37
USB sichern ging bei mir nur bei gleichen BIOS Versionen. Daher im neuen BIOS war das Laden nicht mehr möglich.

SKYNET
2019-02-27, 14:19:50
Asus kann das Bios auf USB sichern und davon laden.
(ka ob dabei unterschiedliche Bios Versionen kompatibel sind)

Ob Asrock so ne Option hat, weis ich nicht.

Bei mir waren nach nem Biosupdate alle Einstellungen weck :mad:
(das auf USB sichern hab ich noch nicht probiert)

Ich hoff echt, das ich dann mit dem 3700X, auf ~3800Mhz CL12 komme =)

m.f.g. JVC

p.s.: Zum testen, ob die CPU höher könnte, kannst ja mal auf laschen Timings ala 20/20/20 stellen...
(mit sowas laufen bei mir auch 3533Mhz fast stabil. höher komm ich nicht, egal was ich einstelle...)

ja, das ganze bios kann ich auch saven, aber mir gehts nur um die angelegten profile die ich dann gerne mit dem neuen bios übernehmen würde.

schon gecheckt... alles auf max gestellt was geht, passiert nix, lüfter laufen 3x an, dann bootet er mit default einstellungen... könnte aber mal die timings checken nach unten hin, weil da habe ich nach dem 57.6ns lauf damals nicht weitergemacht, nachdem ne nacht aidastress + 3dquark im loop durchgelaufen ist ohne probleme und games auch nicht absemmelten... evtl. isses sonen goldspeicher, der zwar nicht hoch(haha, 3600 auf ryzen ist schon pervers;D) mag, aber dafür tief bei den timings :uponder:

SKYNET
2019-02-27, 14:21:29
Afaik wird dringend davon abgeraten die BIOS-Einstellungen irgendwie zwischen Agesa-Versionen zu portieren, weil die nicht kompatibel sind. Man weiß nicht, was in einem Profil tatsächlich gespeichert wird. Zum einen Werte für Einstellungen, die (leider ...) in der neuen Version nicht mehr da sind und vielleicht auch jede Menge "versteckte" Werte, die in der alten Versionen vielleicht keinen Effekt hatten, in der neuen aber schon und jetzt alles durcheinander bringen.


heisst im endeffekt, ich muss den ganzen shice neu einstellen, lüfterkurven, timings, spannungen usw... alleine das abschreiben wird schon 30 minuten oder mehr brauchen pro profil, weil alle einstellungen quer im bios verteilt versteckt sind :mad: und das bei 4 gespeicherten profilen... :mad:

einziger trost: endlich gehen mehr als 0.1V offset beim bios, das geht dann bis 0.2V runter... kann ich endlich mal checken wie weit runter der 2700X bei PBO/XFR mag :)

Twodee
2019-02-27, 14:30:35
:rolleyes: Fotos machen.

Vorzugsweise mit einem Tablet. So kann ich mich dann doch noch dazu bewegen den shice jedesmal upzudaten :freak:

SKYNET
2019-02-27, 14:53:20
:rolleyes: Fotos machen.

Vorzugsweise mit einem Tablet. So kann ich mich dann doch noch dazu bewegen den shice jedesmal upzudaten :freak:

geschätzt 4 dutzend bilder pro profil? eh, meh.... ahne, sogar mehr... weil man ja auch noch scrollen muss X-D

dildo4u
2019-02-27, 15:06:49
Hier ein Game was sich komplett anderes Verhält als die letzten Benches,tut gut wenn ein Game auf 60fps für Konsole ausgelegt ist.

Dirt Rally 2.

https://www.computerbase.de/2019-02/dirt-rally-2.0-benchmark-test/3/

dargo
2019-02-27, 15:17:51
War schon bei F1 2018 ähnlich.
https://www.computerbase.de/2018-08/f1-2018-benchmark/3/#diagramm-cpu-tests-in-f1-2018-auf-einer-gtx-1080-ti-1920-1080

Wobei dort bei den 99th Percentiles noch der i7-8700K an der Spitze war.

dildo4u
2019-02-27, 15:22:14
DX12 würde noch besser laufen aber die Version der Engine scheint älter zu sein immerhin hat es jetzt TAA.

https://www.computerbase.de/2018-11/f1-2018-dx12-benchmark/#abschnitt_prozessorbenchmarks_in_full_hd_und_ultra_hd

dargo
2019-02-27, 19:10:21
Ist das TAA wenigstens brauchbar? Sprich... gute Glättung + gute Bildschärfe?

gmb
2019-03-01, 01:24:56
Nur dann, wenn man es dann auch bitte so spielt.


Du hast keine Ahnung, wie man CPUs richtig testet. Für GPU Tests musst du woanders hin.




Allerdings weiss jeder, das Intel CPUs schneller sind, daher verstehe ich irgendwie nicht ganz, was gmb erreichen will. :confused:


Aufklärungsarbeit leisten. Du siehst doch selber, wie sich einige alles mit Ausreden zurechtbiegen wollen. Mal ist die Engine doof, beim nächsten mal ist die Auflösung zu niedrig, oder der Test ist geschmiert. Hauptsache es ist nie die CPU selber, die Defizite hat.

SKYNET
2019-03-01, 02:16:20
Du hast keine Ahnung, wie man CPUs richtig testet. Für GPU Tests musst du woanders hin.





Aufklärungsarbeit leisten. Du siehst doch selber, wie sich einige alles mit Ausreden zurechtbiegen wollen. Mal ist die Engine doof, beim nächsten mal ist die Auflösung zu niedrig, oder der Test ist geschmiert. Hauptsache es ist nie die CPU selber, die Defizite hat.


deine "aufklärungsarbeit" klingt aber eher nach, wie soll ichs diplomatisch ausdrücken? mhhh... ach egal, auf diplomatie is geschissen: wie nen kleiner blauer troll klingst du!

und komm mir nicht mit AMD fanboy, von 7 rechnern sind 5 mit intel bei mir(inkl. ein desktop system) und in 2 von den desktop rechnern stecken NV karten :P

und in normalen auflösungen(1080p & 1440p, alles auf max) liefern 2600X und 2700X @ stock durchweg spielbare frames, wer shooter zockt und 1080p mit 144Hz und min. details spielt, ist aber mit nem 8700k/9900k wohl besser beraten, alle anderen können den mehrpreis lieber in schnelleren speicher stecken und fahren im gesammtpaket mit nem ryzen besser und günstiger.

N0Thing
2019-03-01, 03:17:11
Ich finde es immer wieder faszinierend, dass selbst in einem Forum wie diesem, so oft Methoden für GPU-Benchmarks, CPU-Benchmarks und Spiele-Benchmarks zusammen geworfen werden.

Als ob irgendjemand der Meinung wäre, man sollte GPUs nur in 1080p testen, weil das die Auflösung ist, die von über 90% der Spieler nicht überschritten wird. CPUs sollten dann aber bitte mindestens in 1080p getestet werden, eigentlich ja besser in 1440p mit allen Grafikeffekten auf Maximum, um realistische Werte zu erreichen. Solche Kommentare verblüffen mich immer wieder auf ein neues.

Zergra
2019-03-01, 06:26:51
Naja was zurecht angezweifelt werden kann ob 720p Tests noch zu vergleichbaren Ergebnissen führen oder es ähnlich wie bei Grafikkarten zu Skalierungsproblemen kommt.

y33H@
2019-03-01, 07:09:54
Die CPU interessiert sich nicht für die Auflösung, ergo 720p ohne GPU-Limit.

Zergra
2019-03-01, 07:24:31
Die CPU interessiert sich nicht für die Auflösung, ergo 720p ohne GPU-Limit.

Nein die CPU nicht, aber was ist wenn die Engine sich anders verhält... Da kann es schon sein das die Threadskalierung auf 720p nicht mehr so passend ist.

dildo4u
2019-03-01, 07:51:43
Paar Anthem Benches bei CB ein ordentlicher Sprung vom 1600X zum 2600X.


https://www.computerbase.de/2019-02/anthem-benchmark-test/3/

Leider fehlt hier ein 9400f,den billigen Quads geht schon die Luft aus.

M4xw0lf
2019-03-01, 08:09:31
Paar Anthem Benches bei CB ein ordentlicher Sprung vom 1600X zum 2600X.


https://www.computerbase.de/2019-02/anthem-benchmark-test/3/

Leider fehlt hier ein 9400f,den billigen Quads geht schon die Luft aus.
Bei PCGH ist Intel deutlich weniger weit vorne: http://www.pcgameshardware.de/Anthem-Spiel-61039/Specials/Benchmarks-Test-1276223/2/
8700K ~12% vor 2700X, und der 9900K (fehlt bei CB) kann sich nur um ein paar Prozent vom 8700K absetzen.

dildo4u
2019-03-01, 08:25:55
Sieht sehr gut aus endlich dickes Skaling von den alten Quads,der Haswell sieht endlich alt aus.Wobei der 2600X vermutlich dicht am 2700X sitzen würde,6 Core ist immer noch der Sweet Spot.

y33H@
2019-03-01, 09:14:10
Nein die CPU nicht, aber was ist wenn die Engine sich anders verhält ... da kann es schon sein das die Threadskalierung auf 720p nicht mehr so passend ist.Wieso sollte sich die Thread-Skalierung anhand auf der Render-Auflösung ändern? :confused: hab ich noch nie gesehen.

Brillus
2019-03-01, 09:34:43
Die CPU interessiert sich nicht für die Auflösung, ergo 720p ohne GPU-Limit.

Wobei das so im allgemeinen auch nicht stimmt, erinnere mich an Sacrifice wo das LoD der 3D Modelle auch auflösungsabhängig war.

SKYNET
2019-03-01, 10:16:02
Bei PCGH ist Intel deutlich weniger weit vorne: http://www.pcgameshardware.de/Anthem-Spiel-61039/Specials/Benchmarks-Test-1276223/2/
8700K ~12% vor 2700X, und der 9900K (fehlt bei CB) kann sich nur um ein paar Prozent vom 8700K absetzen.

ich sehe 16% und nicht 12% :upara:

M4xw0lf
2019-03-01, 10:22:43
ich sehe 16% und nicht 12% :upara:
Beides richtig soweit ich das sehe. ;)

SKYNET
2019-03-01, 10:40:28
Beides richtig soweit ich das sehe. ;)

die 12% sind aber unwichtig ;)

M4xw0lf
2019-03-01, 10:46:40
"unwichtig" ist Käse.

SKYNET
2019-03-01, 10:54:58
"unwichtig" ist Käse.


naja, mit den avr und max frames ist niemanden geholfen, wenn die min. frames im keller hängen und es hier und da ruckelt im game... daher "unwichtig" ;)

dargo
2019-03-01, 11:15:19
Sieht sehr gut aus endlich dickes Skaling von den alten Quads,der Haswell sieht endlich alt aus.
Die Frage ist nur welches Scaling? Das der Engine wohl kaum, der Geforce Treiber schon eher. ;)

Edit:
Ich bleibe dabei... Anthem ist mies optimiert. Bis zu 40+fps unten rum mit einem Ryzen Sixcore ist einfach nur peinlich. Bioware hätte sich eventuell paar Sachen von DICE abgucken sollen bezüglich DX12.

dildo4u
2019-03-01, 11:37:06
Die Frage ist nur welches Scaling? Das der Engine wohl kaum, der Geforce Treiber schon eher. ;)

Edit:
Ich bleibe dabei... Anthem ist mies optimiert. Bis zu 40+fps unten rum mit einem Ryzen Sixcore ist einfach nur peinlich. Bioware hätte sich eventuell paar Sachen von DICE abgucken sollen bezüglich DX12.


Die Engine kann es BF5 läuft weit über dem Schnitt auf Vega auch in DX11.Radeon 7 scheint dort die 2080 im Griff zu haben.

Menace
2019-03-01, 11:37:56
Du hast keine Ahnung, wie man CPUs richtig testet.

Esoterik bleibt es immer noch, sofern Du es nicht auch nutzt. Eine Extrapolation müsste dann erst einmal stattfinden; macht hier aber keiner.

Die CPU interessiert sich nicht für die Auflösung, ergo 720p ohne GPU-Limit.

Um dann welche Empfehlung für welche Kunden auszusprechen? So viele Konjunktive könnt Ihr doch gar nicht finden.

y33H@
2019-03-01, 11:38:12
Wobei das so im allgemeinen auch nicht stimmt, erinnere mich an Sacrifice wo das LoD der 3D Modelle auch auflösungsabhängig war.Wir sind aber ca 20 Jahre weiter ... grundsätzlich ist derartiges möglich, aber ich sehe zB bei ausreichend schneller GraKa keine Unterschiede zwischen 720p und 1440p in heutigen Spielen.

w0mbat
2019-03-01, 11:51:37
Wenn ich die Leistung der CPU testen will, dann muss ich alle anderen Faktoren entfernen, also auch die GPU. 720p sind bei einem reinen CPU Test selbst mit einer 2080 Ti nicht komisch.

Man kann ja gerne noch ein 4K Test hinterher schicken der zeigt, dass im GPU Limit die Unterschiede viel kleiner sind.

Menace
2019-03-01, 12:07:32
Trotzdem bleiben es akademische Werte, weil es nur folgendes aussagt:

Wie schnell die CPU in diesem Spiel wäre, wenn
- eine 2080 Ti vorhanden ist;
- und ich dabei in 720p zocken möchte.

Gibt es eine Metaanalyse, die zeigt, in wie vielen Fällen solche Aussagen dann beim Kunden von Belang sind?

Und in wie viel Prozent bei den Kunden das für die nächsten 5 Jahre (solange er diese CPU benutzt) es keine Rolle spielen wird?

Ich akzeptiere dieses Vorgehen, wenn es bei 20+ % der Kunden der Fall wäre, dass sie dieses Testumfeld dann auch bei sich zu Hause haben und somit das Testergebnis für sie eine reelle Relevanz hatten. Ich bin mir aber sicher, dass die allermeisten ganz andere Probleme mit der CPU haben werden, falls überhaupt.

Rancor
2019-03-01, 12:11:41
Bei 720p Tests geht es ausschließlich darum die Geschwindigkeit der CPU in Spielen zu messen und dafür sind sie zulässig.

In wie fern das für den jeweiligen User relevant ist, muss dann selber entschieden werden.

N0Thing
2019-03-01, 12:22:45
Trotzdem bleiben es akademische Werte, weil es nur folgendes aussagt:

Wie schnell die CPU in diesem Spiel wäre, wenn
- eine 2080 Ti vorhanden ist;
- und ich dabei in 720p zocken möchte.

Nicht ganz, man möchte natürlich nicht in 720p zocken, man möchte einfach eine Rangliste der CPUs heraus arbeiten. Zieht man genug dieser Test heran, kann man eine allgemeine Aussage über die durchschnittliche Leistung in Spielen treffen.

Was du haben möchtest sind Spieletests und die findest du unter anderem bei Computerbase und PCGH und auch vielfach bei Youtube, wo in einem Spiel unterschiedliche Hardwarekonfigurationen mit alltagstauglichen Einstellungen verwendet werden. Anhand dieser Daten, kannst du dir die passende Hardware für das entsprechende Spiel heraus suchen.

Menace
2019-03-01, 12:52:45
Nicht ganz, man möchte natürlich nicht in 720p zocken, man möchte einfach eine Rangliste der CPUs heraus arbeiten. Zieht man genug dieser Test heran, kann man eine allgemeine Aussage über die durchschnittliche Leistung in Spielen treffen.


Kann man das wirklich? Was wenn auf Grund meiner ordentlichen Monitordimensionen und Grafikkarte im 500 € ich nie in diese Region komme? Dann trifft die "allgemeine Aussage" weder zu noch wird die "durchschnittliche Leistung" in Spielen angezeigt. Erst Recht nicht der suggerierte 15% Vorsprung.

Mangel76
2019-03-01, 12:56:05
kann man eine allgemeine Aussage über die durchschnittliche Leistung in Spielen treffen.


Ne, kannste eben nich. Die einzige Aussage, die du kriegst, ist die, wie schnell eine CPU im Mittel bei eben den getesteten Spielen mit einer bestimmten GPU zu einem bestimmten Datum (Treiberversion, Patchlevel des Spiels, Updatestand von Windows...) mit bestimmten Speichereinstellungen und sonstigen Umgebungsvariablen (z.B. TDP bei Intel) war.

Dieser Stand kann sich für enthaltene Spiele ändern, wenn:

neue GPU-Treiber erscheinen oder
Spiel/Windows upgedated wird
anderer Speicher benutzt wird
Umgebungsvariablen anders gesetzt werden
...

Und kann eben selbst für enthaltene Spiele sehr unterschiedlich ausfallen, ich sage nur SC- vs. MC-Optimierung von Engines. Vieles, was hier der CPU zugeschrieben wird, ist in vielen Fällen eher ein Softwareproblem.

Und wenn ich dann noch Aussagen über andere Spiele in anderen Auflösungen mit anderen GPUs auf einer anderen Windowsversion mit anderem Speicher treffen will, dann wird es ganz haarig. Natürlich bieten solche Leistungsvergleiche eine grobe Orientierung, aber so allgemein ist die Aussage eben auch nicht. Das haben viele CPU- und GPU-Tests doch gezeigt, die allein durch die Auswahl der verwendeten Spiele schon ordentliche Unterschiede in den Testwerten erhalten.

dargo
2019-03-01, 13:11:56
Die Engine kann es BF5 läuft weit über dem Schnitt auf Vega auch in DX11.Radeon 7 scheint dort die 2080 im Griff zu haben.
DICE ist nicht Bioware. ;)

Denniss
2019-03-01, 14:06:50
In 720p kann man nur erahnen wie gut (oder schlecht) die CPU mit dem Grafiktreiber zurechtkommt um die Grafikkarte mit Daten zu füttern.
Für einen richtigen Vergleich zwischen CPU darf aber nicht nur mit der 2080TI getestet werden sondern zur Vergleichbarkeit sollte man etwa gleichschnelle Karten von grün und rot benutzen. Nur so kann man Mist vom Treiber ausschließen.

N0Thing
2019-03-01, 14:08:27
Kann man das wirklich? Was wenn auf Grund meiner ordentlichen Monitordimensionen und Grafikkarte im 500 € ich nie in diese Region komme? Dann trifft die "allgemeine Aussage" weder zu noch wird die "durchschnittliche Leistung" in Spielen angezeigt. Erst Recht nicht der suggerierte 15% Vorsprung.

Meiner Ansicht nach kann man das. Ich bin in den meisten Spielen auch durch meine GPU eingeschränkt, zumindest seit ich von 1680x1050 auf 3440x1440 umgestiegen bin, aber hätte ich mich damals beim Kauf der CPU auf Benchmarks in 1080p verlassen, hätte ich nen Core i3 oder AMD Phenom II X4 gekauft und keinen i5 und hätte diese Entscheidung wohl schon vor ein paar Jahren bitter bereut.

Ich finde diese verbissene Einstellung, dass nur eine Art und Weise von Benchmarks richtig sein soll, komplett unnötig, man muss ich nur im klaren sein, was die Ergebnisse der Benchmarks bedeuten.
Wenn ich wissen will, wie eine GTX 1060 in Kombination mit einem RyZen 2600 in Tomb Raider abschneidet, sollte ich mir ein entsprechendes Review heraus suchen. Will ich wissen, wie unterschiedliche CPUs im allgemeinen über eine breite Basis an Spielen abschneiden, suche ich mir ein CPU Roundup wo alle diese CPUs zumindest ohne Einfluss der GPU getestet werden. Und natürlich freue ich mich auch über zusätzliche Tests in höheren Auflösungen, aber anhand derer werde ich keine Kaufentscheidung treffen.
Für mich ist das eine klare, logische und naheliegende Vorgehensweise.


@Mangel76
Ich kenne kein Spiel, bei dem sich durch Treiber-, Windows- oder Spiele-Updates etwas deutlich an der Leistung einzelner CPUs in einem Spiel geändert hat, offensichtliche Bugs mal außen vor, in dem Fall sollte so ein Titel eh nicht heran gezogen werden.
Und um mal ein persönliches Beispiel zu nehmen, meine CPU ist weder durch andere Spiele in anderen Auflösungen mit anderen GPUs auf einer anderen Windowsversion hinter den CPU meiner Bekannten zurück gefallen, deren CPUs schon zuvor langsamer waren, noch hat meine CPU andere überholt, die schon vorher schneller waren.

Ich hoffe, ihr könnte das irgendwie nachvollziehen, der Inhalt dieses Threads ist ja eigentlich ein anderer, von daher war es das von mir an dieser Stelle zu diesem Thema.

Menace
2019-03-01, 15:25:01
Meiner Ansicht nach kann man das.

Meiner Ansicht nach eher weniger. Und jetzt? :wink: Ich frage hier nicht umsonst um validierbare Analysen. Wir sind hier ja in einem Bereich, in dem mittels Messungen "Fakten" suggeriert werden. Dann müsste es doch auch bzgl. Voraussagen genauere Angaben geben als nur Gefühle und Anekdoten.

Letztere habe ich auch. Als ich meinen (und denen ersten) Phenom gekauft habe, wurde mir hier auch gesagt, dass 4 Kerne überflüssig wären. Meine Phenoms laufen noch immer auf 3 unterschiedlichen PCs. Auch denke ich, dass mehr Kerne bei geringere TDP immer zukunftsträchtiger sind, als weniger Kerne. Aber stimmt das wirklich für die Allgemeinheit und "durchschnittlich"?

Mangel76
2019-03-01, 15:49:01
@Mangel76
Ich kenne kein Spiel, bei dem sich durch Treiber-, Windows- oder Spiele-Updates etwas deutlich an der Leistung einzelner CPUs in einem Spiel geändert hat, offensichtliche Bugs mal außen vor, in dem Fall sollte so ein Titel eh nicht heran gezogen werden.
Und um mal ein persönliches Beispiel zu nehmen, meine CPU ist weder durch andere Spiele in anderen Auflösungen mit anderen GPUs auf einer anderen Windowsversion hinter den CPU meiner Bekannten zurück gefallen, deren CPUs schon zuvor langsamer waren, noch hat meine CPU andere überholt, die schon vorher schneller waren.

Ich hoffe, ihr könnte das irgendwie nachvollziehen, der Inhalt dieses Threads ist ja eigentlich ein anderer, von daher war es das von mir an dieser Stelle zu diesem Thema.

Ich erinnere nur an den ein oder anderen Ryzenpatch nach Veröffentlichung. Es ist auch völlig normal, dass ältere Spiele nicht auf neue CPUs optimiert sind. Selbst heute erscheinen noch Spiele, die damit arge Probleme haben, da sie auf älteren Engines basieren. Bei Intel hat sich dagegen seit vielen Jahren nichts substanzielles geändert. Das sieht aber bei den größeren CPUs mit Mesh auch anders aus.

aufkrawall
2019-03-01, 15:49:42
Hab jetzt auch mal Far Cry ND getestet. Zwar Polaris vs. Vega, aber dürfte in 720p egal sein:
2600 @ 4GHz, 3200er Fast Timings: 63min-fps
6700k @ 4,2GHz, RAM vergleichbar: 73min-fps

Die ganz normalen ~15%, die es auch schon in Unigine Valley oder Heroes of the Storm gab. Völlig typisch für Spiele, die Ryzen nicht mögen und schlechtes MT haben, sodass man mal ins CPU-Limit rutscht.
Mir erschließt sich gerade nicht, warum das hier für diesen Aufruhr sorgt...

Effe
2019-03-01, 16:20:28
Weil regelmäßig die selben Trolle(gmb, Blacki, Executer usw.) auftauchen und Ryzen als spieleuntauglich deklarieren anhand von extreme-Cherrypicking( Aber bei Starcraft 2 in 480p, da...)

SKYNET
2019-03-01, 16:30:43
Weil regelmäßig die selben Trolle(gmb, Blacki, Executer usw.) auftauchen und Ryzen als spieleuntauglich deklarieren anhand von extreme-Cherrypicking( Aber bei Starcraft 2 in 480p, da...)

darum habe ich sie auf igno... leider sehe ichs immer, wenn ihr sie zitiert :frown:

gbm31
2019-03-01, 16:30:50
ignore hilft... (manchmal)

Menace
2019-03-01, 16:45:42
Weil regelmäßig die selben Trolle(gmb, Blacki, Executer usw.) auftauchen und Ryzen als spieleuntauglich deklarieren anhand von extreme-Cherrypicking( Aber bei Starcraft 2 in 480p, da...)

Geht nur aufgrund solcher Eso-Tests mit niedrigen Auflösungen bei 1000+ € Grafikkarten. Kann man ja machen, es aber als Aussagekräftig zu verkaufen ist halt wirklich Hardware-Heilpraktiker-Verhalten.

SKYNET
2019-03-01, 16:47:45
Geht nur aufgrund solcher Eso-Tests mit niedrigen Auflösungen bei 1000+ € Grafikkarten. Kann man ja machen, es aber als Aussagekräftig zu verkaufen ist halt wirklich Hardware-Heilpraktiker-Verhalten.

ach, ich teste ja auch in 720p low zum schauen wie die CPU performt, aber spiele ich mit der auflösung? ne... 1920*1200 und max out, und grundsätzlich im GPU limit damit.

aufkrawall
2019-03-01, 17:06:27
Geht nur aufgrund solcher Eso-Tests mit niedrigen Auflösungen bei 1000+ € Grafikkarten. Kann man ja machen, es aber als Aussagekräftig zu verkaufen ist halt wirklich Hardware-Heilpraktiker-Verhalten.
Ändert bei FC ja nichts an den min-fps in höheren Auflösungen, gerade nicht mit einer 1000€ Grafikkarte. ;)
Dass die Intels ihre Spiele-Stärke haben, darf man schon noch erwähnen.

Gibts aber halt entweder nur per saftigem Aufpreis, oder durch eingeschränkte Lebensdauer (kein HTT).

Effe
2019-03-01, 17:34:43
Dass die Intel Sechs- und Achtkerner schneller sind, wird in jedem Spieletest erwähnt.

Allerdings ist der Vorsprung bei weitem nicht mehr so entscheidend wie zu Bulldozer-Zeiten und AMD auch für Gaming eine Alternative, wenn man nicht unbedingt das Schnellste haben will, oder sich ausschließlich beim Marktführer bedienen will.

N0Thing
2019-03-01, 17:51:57
Meiner Ansicht nach eher weniger. Und jetzt? :wink: Ich frage hier nicht umsonst um validierbare Analysen. Wir sind hier ja in einem Bereich, in dem mittels Messungen "Fakten" suggeriert werden. Dann müsste es doch auch bzgl. Voraussagen genauere Angaben geben als nur Gefühle und Anekdoten.


Sind deiner Meinung nach die gemessenen Werte keine Fakten? Du sprichst den 720p Messwerten jeden Nutzen ab, während ich meine, wenn man seinen Kopf benutzt, kann man auch mit 720p Werten etwas für die Praxis anfangen. Im Gegensatz dazu sind Messungen in 1440p mit vollen Details zwar ein schöner Test des Spiels, aber mit kaum vorhandener Aussagekraft, um CPUs miteinander zu vergleichen. Prognosen für die entferne Zukunft sind immer schwierig, aber meinst du wirklich, dass es mit 1440p Tests einfacher sei? :confused:

Ich erinnere nur an den ein oder anderen Ryzenpatch nach Veröffentlichung. Es ist auch völlig normal, dass ältere Spiele nicht auf neue CPUs optimiert sind. Selbst heute erscheinen noch Spiele, die damit arge Probleme haben, da sie auf älteren Engines basieren. Bei Intel hat sich dagegen seit vielen Jahren nichts substanzielles geändert. Das sieht aber bei den größeren CPUs mit Mesh auch anders aus.

Bei den entsprechenden Titeln war klar, dass der Ryzen unter Wert geschlagen wird. Und was spielt es für eine Rolle, in welcher Auflösung getestet wird, wenn eine CPU mit einer Engine harmoniert oder nicht? Oder geht es nur darum, einen Hersteller möglich gut aussehen zu lassen? Ich dachte, es geht um aussagekräftige Tests?


Geht nur aufgrund solcher Eso-Tests mit niedrigen Auflösungen bei 1000+ € Grafikkarten. Kann man ja machen, es aber als Aussagekräftig zu verkaufen ist halt wirklich Hardware-Heilpraktiker-Verhalten.

Wenn du keine überzeugenden Argumente hast, musst du also zur Verunglimpfung greifen, großes Kino. :uup:
Nutze du ruhig deine CPU Tests in 1440p, um auf die Ergebnisse zu bekommen, die du gerne sehen möchtest, aber erzähle doch bitte nicht, es würde dir um validierbare Analysen oder Fakten gehen.
Ein Ryzen ist auch in bei 720p Benchmarks eine super CPU, selbst wenn der Abstand zum Intel Topmodell größer ausfällt. Ist halt so. Macht aber nichts, wenn man die Werte einsortieren kann.

BlacKi
2019-03-01, 17:59:33
Weil regelmäßig die selben Trolle(gmb, Blacki, Executer usw.) auftauchen und Ryzen als spieleuntauglich deklarieren anhand von extreme-Cherrypicking( Aber bei Starcraft 2 in 480p, da...)
wo? danke fürs gespräch...

Menace
2019-03-01, 18:18:43
Dass die Intels ihre Spiele-Stärke haben, darf man schon noch erwähnen.


Das darf man durchaus. Und ich habe auch keine Probleme mit Diagrammen von mir aus mit allen Auflösungen und allen Kombinationen.

Aber aus einer Spielstarken CPU wird nicht automatisch eine zum Spielen nicht geeignete CPU wenn 15 % bei 720p fehlen. Und genau das wird häufig so hingestellt ("Spielschwäche").

Sind deiner Meinung nach die gemessenen Werte keine Fakten? Du sprichst den 720p Messwerten jeden Nutzen ab, während ich meine, wenn man seinen Kopf benutzt, kann man auch mit 720p Werten etwas für die Praxis anfangen.


Doch. Es sind z.B. die Fakten für 720p bei 2080 Grafikkarte. Wenn das die häufigste alltägliche Kombi ist, habe ich damit absolut kein Problem. Oder wenn es ein Teil der Tests sind. Mein Problem ist, dass man das als Aufhänger für Extrapolationen benutzt ohne dafür ein Beweis zu liefern, dass sich nicht systematisch Fehler einschleichen.

Z.B. bei 720p hat die CPU den Vorsprung von 15 %; also gilt das auch für andere Auflösungen.


Im Gegensatz dazu sind Messungen in 1440p mit vollen Details zwar ein schöner Test des Spiels, aber mit kaum vorhandener Aussagekraft, um CPUs miteinander zu vergleichen.


Doch. Wenn ich 1440p Auflösungen nutze, dann wäre dieser Test viel relevanter, da ich NIE in 720p-Auflösung spiele, wenn es irgendwie anders geht. War da nicht mal was mit Auto-Tests unter theoretischen und praktischen Bedingungen? :confused:

Prognosen für die entferne Zukunft sind immer schwierig, aber meinst du wirklich, dass es mit 1440p Tests einfacher sei? :confused:
Nein, mit 1440p wird es nicht einfacher. Aber es ist eine Auflösung, die mehr Praxisrelevanz hat, oder? Ich bestreite auch vehemend, dass man wirklich voraussagen kann, wie gut eine CPU oder GPU mit der Zeit reift. Tendenziell setze ich auf mehr Kerne, aber vielleicht ist ab einer gewissen Anzahl an Kerne einfach keine Verbesserung mehr möglich. Deshalb halte ich nicht viel von Voraussagen und empfinde das eben als esoterisch.

Würde ich mal irgendwelche Belege jenseits von "theoretischer Vergleichbarkeit" sehen, dann würde ich auch sagen, dass die 720p in der Praxis relevanz hätten. Vielleicht auch gerne mit Diagramme über die Zukunftsvoraussagen, Fehlerabweichungen, etc.


Nutze du ruhig deine CPU Tests in 1440p, um auf die Ergebnisse zu bekommen, die du gerne sehen möchtest, aber erzähle doch bitte nicht, es würde dir um validierbare Analysen oder Fakten gehen.
Ein Ryzen ist auch in bei 720p Benchmarks eine super CPU, selbst wenn der Abstand zum Intel Topmodell größer ausfällt. Ist halt so. Macht aber nichts, wenn man die Werte einsortieren kann.

Ich habe keine Probleme, dass sich jeder die CPU kauft, die ihm gefällt. Ob intel oder AMD. Ich habe massiv Probleme, dass hier Tests herangeführt werden, die in der Praxis so gut wie keine Relevanz haben. Ein 1440p oder ein HD-Test mit entsprechender GPU wäre weit aus validierbarer für den durchschnittlichen Gebrauch als Spiele-CPU. Für die Balkenlänge-Fetischsten darf man 720p-Tests zur persönlichen Bestätigung gerne weiterhin durchführen, aber das Fazit, was man daraus zieht sollte dann doch etwas abgeklärter erfolgen, als hier die ewig gleichen (oder CB mit "Spielschwäche") immer wieder zur Schau stellen.

Genauso gut könnte ich ein Test mit 720p laufen und lassen während im Hintergrund BOINC 6 Kerne nutzt um wissenschaftliche Berechnungen zu tätigen. Mehrkerner würden dann andere CPUs schlagen und die Leistungsfähigkeit zeigen. Relevant? Nicht die Bohne. Und trotzdem wären es Fakten.

Vorschlag zu Güte: Du zeigst mir, wo diese 720p Tests zu validierbaren Aussagen für die Mehrheit der Spieler wurden und man deshalb auf andere Auflösungen gerne verzichten kann. Und natürlich auch, wie sich das dann für die Zukunft extrapolieren ließ. Und ich sage, es hat nichts mit Esoterik zu tun. :smile:

Mangel76
2019-03-01, 18:32:41
Bei den entsprechenden Titeln war klar, dass der Ryzen unter Wert geschlagen wird. Und was spielt es für eine Rolle, in welcher Auflösung getestet wird, wenn eine CPU mit einer Engine harmoniert oder nicht? Oder geht es nur darum, einen Hersteller möglich gut aussehen zu lassen? Ich dachte, es geht um aussagekräftige Tests?

Ja eben, aussagekräftige Tests. Man muss halt nur wissen, worauf sich diese Aussagekraft bezieht, allgemeingültig sind die eben nicht. Es soll ja Leute geben, die noch SC spielen. Die brauchen auch ne andere CPU als jemand, der modernere Spiele spielt. Und wenn es um zukünftige Spiele geht, dann wird die Aussagekraft halt Recht schnell ziemlich dünn. Wie gesagt, grobe Orientierung ja. Jedes Prozentchen auf die Goldwaage legen ist dagegen völlig idiotisch. Und wenn man es dann noch auf verwendete GPU und Auflösung bezieht, dann reicht meist auch günstigerer 6-Kerner. Kein Mensch empfiehlt eine 2080Ti für 1080p @60 Hz, nur weil die 200 FPS schafft. Warum muss es dann immer ein 9900k sein?

y33H@
2019-03-01, 18:37:29
720p-Tests zeigen im Hier und Jetzt, welche CPUs bei aktuellen (!) Titeln was für ihren Preis liefert, nicht mehr und nicht weniger. Gibt übrigens genug Spiele, welche in 1440p mit einer Geforce RTX 2080 (Ti) auf einem Ryzen 5 2600X häufig CPU-limitiert sind, sehe ich daheim ständig ... etwa Grim Dawn oder Kingdom Come.

DeadMeat
2019-03-01, 18:49:22
720p-Tests zeigen im Hier und Jetzt, welche CPUs bei aktuellen (!) Titeln was für ihren Preis liefert, nicht mehr und nicht weniger. Gibt übrigens genug Spiele, welche in 1440p mit einer Geforce RTX 2080 (Ti) auf einem Ryzen 5 2600X häufig CPU-limitiert sind, sehe ich daheim ständig ... etwa Grim Dawn oder Kingdom Come.


Von den Steam Statistiken ausgehend dürften die meisten eher in FHD mit weniger als ultra Details bereits im GPU limit hängen. 720p bringt den meisten vermutlich nichts außer einem falschen Bild was sie erwarten können, sicher nicht schuld des Tests aber man sieht ja wie schnell Leute aus sowas eine "Spiele Untauglichkeit" ableiten. Vom Arbeitsaufwand her sicher kaum zu Realisieren aber Praxis nähere Settings zusätzlich würden solche offenbar im Vierteljahres Takt aufkommen Diskussionen deutlich reduzieren.

Menace
2019-03-01, 19:01:34
720p-Tests zeigen im Hier und Jetzt, welche CPUs bei aktuellen (!) Titeln was für ihren Preis liefert, nicht mehr und nicht weniger. Gibt übrigens genug Spiele, welche in 1440p mit einer Geforce RTX 2080 (Ti) auf einem Ryzen 5 2600X häufig CPU-limitiert sind, sehe ich daheim ständig ... etwa Grim Dawn oder Kingdom Come.

1. Satz wäre korrekt, wenn Du noch folgendes ergänzt: Was sie liefern, wenn in 720p mit der getesteten GPU gespielt werden würde. Nur dann gilt auch: Nicht mehr und nicht weniger.

2. Satz: Das sollte man auch entsprechend zeigen. Eine 2080 (Ti) haben zwar nicht viele, aber für diese Leute wären es dann absolut relevante Tests. Wie groß ist dann der prozentuale Abstand zu anderen CPUs bei den gleichen Spielen und Einstellungen? Gleich groß wie bei 720p und getesteter GPU?

Edit: Eigentlich haben es DeadMeat und Effe schon auf den Punkt gebracht.

Linmoum
2019-03-01, 19:21:55
1. Satz wäre korrekt, wenn Du noch folgendes ergänzt: Was sie liefern, wenn in 720p mit der getesteten GPU gespielt werden würde. Nur dann gilt auch: Nicht mehr und nicht weniger.
Nein, das ist Humbug.

Wenn eine CPU 64fps in 720p liefert, dann weiß ich: In WQHD/UHD habe ich dann, wenn ich mich im CPU-Limit befinde (und ja, das kann auch bei letzterem der Fall sein) ebenfalls 64fps.

Der Vorteil: Ich kann die GPU als limitierenden Faktor in dieser Auflösung ausschließen. Ich will nicht wissen, wie die GPU in einem CPU-Test performt, sondern wie die CPU performt, wenn sie an ihre Grenzen stößt. Für verlässliche Aussagen dafür kann ich nicht in höheren Auflösungen benchen, deswegen nehmen PCGH oder Golem eben 720p. Der Rest kann ja bei CB die CPU-Benches in FHD (oder vereinzelt auch UHD, lol) bewundern. Haben nur wenig(er) Aussagekraft für etwaige Rückschlüsse auf CPU-Limits.

Menace
2019-03-01, 19:26:55
Wenn eine CPU 64fps in 720p liefert, dann weiß ich: In WQHD/UHD habe ich dann, wenn ich mich im CPU-Limit befinde (und ja, das kann auch bei letzterem der Fall sein) ebenfalls 64fps.


Wenn das Spiel sich im CPU-Limit befindet gebe ich Dir Recht, sofern dieses Limit genauso im WQHD/UHD vorkommt. Wie häufig ist das der Fall, dass man eine realistische Extrapolation dafür anstellen kann (keine rhetorische Frage)? Ist der prozentuale Abstand gleich? Und als einer von vielen Tests habe ich nichts dagegen. Mir geht es um die Verallgemeinerung solcher Tests auf praxisrelevante Alltagssituationen.

Ich persönlich schaue nach ganz anderen Punkten bei CPU-Tests, aber das ist hier ja nicht die Frage. :)

Linmoum
2019-03-01, 19:30:32
Aber genau das ist der Punkt: Man will bei einer CPU wissen, wie diese performt. Das geht nur im CPU-Limit, weil man ansonsten den Einfluss der GPU hat, die das Bild völlig verzerrt.

GPUs bencht man ja genauso wenig in 720p, weil da das CPU-Limit greifen und die GPU-Benches verfälschen würde.

Menace
2019-03-01, 20:12:19
Ich glaube, Du verstehst nicht meine Kritik.

Man will bei einer CPU wissen, wie sie bei sich im Alltag performt. Und das geht nur bei alltäglichen Einstellungen.
Klar könnte mich das interessieren, wie es wäre wenn ich eine GPU-Karte XY hätte und in dieser Auflösung spielen würde(du merkst die vielen Konjunktive), aber spielt es für mich denn wenn ich die CPU besitze dann überhaupt eine Rolle?
Das letztere ist für mich (!) viel wichtiger. Ich muss nicht angeben, was meine CPU könnte, wenn ich sie ins Limit treibe. Sondern hätte jenseits der Balken bei pcgh auch in meinen Spielen einen Vorteil. Wenn nicht, dann müssten andere Faktoren für diese CPU eine Rolle spielen.

Du bist auch nicht auf meine konkrete Fragen eingegangen.

Freyberger
2019-03-01, 20:45:34
720p-Tests zeigen im Hier und Jetzt, welche CPUs bei aktuellen (!) Titeln was für ihren Preis liefert,

Sorry, aber wer spielt aktuelle Titel in 720p?
Keiner?

Also absolut keine Praxisrelevanz!

Aber wundert wohl niemanden, das so eine unsinnige Antwort von der unabhängigen Fachpresse kommt.

rentex
2019-03-01, 21:16:26
Das ist die ewige Diskussion...m.M. sind nur Ergebnisse in der genutzten Auflösung für den User brauchbar. Der Rest ist nur akademischer Natur. Avg., Min. und Frametimes sind interessant.

w0mbat
2019-03-01, 22:07:26
Da aber jeder unterschiedliche GPUs hat und in unterschiedlichen Auflösungen spielt, geht das nicht. Das kann man bei einem Spiele-Test machen.

Ein CPU-Test muss im CPU-Limit stattfinden, sonst ist es eben kein CPU-Test. Ganz einfach.

Effe
2019-03-01, 22:10:35
Eher ein CPU auf Software-Test. Spiele sind oft genug schlecht optimiert.

Freyberger
2019-03-01, 22:11:54
Ein CPU-Test muss im CPU-Limit stattfinden, sonst ist es eben kein CPU-Test. Ganz einfach.

Das ist so, als würde man bei Traktoren nur die Höchstgeschwindigkeit testen. Ganz sinnlos.

Effe
2019-03-01, 22:13:39
Oder Autos im Standgas testen.

y33H@
2019-03-01, 22:28:01
Das sollte man auch entsprechend zeigen. Eine 2080 (Ti) haben zwar nicht viele, aber für diese Leute wären es dann absolut relevante Tests. Wie groß ist dann der prozentuale Abstand zu anderen CPUs bei den gleichen Spielen und Einstellungen? Gleich groß wie bei 720p und getesteter GPU?Ja, habe ich vor mit 2500K und 4790K und 9900K sowie einer RTX 2080 Ti in 720p, 1440p und 4K.
Sorry, aber wer spielt aktuelle Titel in 720p?
Keiner? Also absolut keine Praxisrelevanz! Aber wundert wohl niemanden, das so eine unsinnige Antwort von der unabhängigen Fachpresse kommt.Du willst es nicht verstehen =)

Rancor
2019-03-01, 22:47:50
Sorry, aber wer spielt aktuelle Titel in 720p?
Keiner?

Also absolut keine Praxisrelevanz!

Aber wundert wohl niemanden, das so eine unsinnige Antwort von der unabhängigen Fachpresse kommt.

Darum geht es doch bei 720p Tests nicht.

Wenn jemand eine zB. eine 2080 hat und in 1080p spiel,t kann er anhand der CPU Tests sehen welche CPU seine Grafikkarte besser auslastet.

Würde er in 1440P würde es wiederum keine Rolle spielen, weil da seine GPU limitiert. Bei einer 2080TI wäre es dagegen wieder relevant.

Eigentlich ist das nicht schwer zu verstehen.

Du kannst ja nicht jede mögliche Konfiguration, die es draußen gibt, nachstellen und testen, sondern musst da schon einen Modus Operandi finden, der es ermöglicht von den gemessen Ergebnissen Rückschlüsse auf andere Szenarien zu ziehen...

Linmoum
2019-03-01, 22:56:37
Sorry, aber wer spielt aktuelle Titel in 720p?
Keiner?

Also absolut keine Praxisrelevanz!

Aber wundert wohl niemanden, das so eine unsinnige Antwort von der unabhängigen Fachpresse kommt.
Es geht nicht darum, in 720p zu spielen. Hat CPU A 60fps in 720p, hat CPU A 60fps in UHD. Ganz einfach. CPU-Leistung ist auflösungsunabhängig. Deswegen muss man, wenn man die Leistung der CPU messen will, in niedriger Auflösung benchen. Ansonsten kann man zur reinen Leistungsfähigkeit der CPU keine Aussage treffen, weil die GPU das Ergebnis beeinflusst. Was man natürlich nicht will, dann hätte man einen GPU-Test und keinen CPU-Test.

Andere von der Seite anmachen aber selbst Null verstehen. Das sind immer die Knaller.

Freyberger
2019-03-01, 23:14:39
Du willst es nicht verstehen =)

Das etwas in der Praxis total irrelevantes (als einziges) herangezogen wird um ein Produkt einzuordnen, ist gegen Sinn und Verstand, Logik und Vernunft.

Macht den Quatsch doch als theoretischen Sondertest, aber nehmt zur Einordnung was Praxisrelevantes.

Die 720p Tests helfen niemanden, der wirklich en Rechner zusammenstellen will (mit Ausnahme des einen Promille, das sich die schnelle Grafikkarte kauft, aber das ist NICHT die Masse eurer Leser!)

Aber die Fachpresse muss halt irgendwelche fetten Sprünge aufzeigen, mit denen Sie die Leser für dumm verkauft, anstatt eine sinnvolle Kaufberatung zu bieten.


Es geht nicht darum, in 720p zu spielen. Hat CPU A 60fps in 720p, hat CPU A 60fps in UHD.

Bestenfalls theoretisch. Und genau darum gehts ja. Denn praktisch nicht relevant.

Das das für die Fachpresse mehr Testaufwand bedeutet ist klar.
Aber wenn Sie den nicht bringt, für was braucht man dann die Fachpresse ...

y33H@
2019-03-01, 23:35:40
Alle Jahre wieder kommt einer, der es nicht kapieren will, willkommen im Club!

Ich teste ja auch keine Grafikkarten mit einem Singlecore-Atom und sage dann, sind alle gleich schnell ;D

EDIT

Übrigens, AMD und Intel testen intern auch im CPU-Limit.

Effe
2019-03-01, 23:54:47
Ja mit sinnvollen Benchmarks, nicht mit schlecht optimierten Spielen.

Freyberger
2019-03-01, 23:57:06
Übrigens, AMD und Intel testen intern auch im CPU-Limit.

Genau, die testen ja auch hauptsächlich, wie irgendwelche Gaming Engines auf ihren CPUs laufen ... :facepalm::facepalm::facepalm:

Kannst du mir bitte sagen, von welcher Publikation du kommst?

Rancor
2019-03-01, 23:58:53
Bestenfalls theoretisch. Und genau darum gehts ja. Denn praktisch nicht relevant.

Das das für die Fachpresse mehr Testaufwand bedeutet ist klar.
Aber wenn Sie den nicht bringt, für was braucht man dann die Fachpresse ...

Stell dir vor, das ist nicht nur theoretisch so, sonder sogar rein praktisch :eek:


Es ist also nicht relevant für die Praxis, wenn eine CPU nicht mehr als 60 FPS in einem Spiel schafft, die Grafikkarte aber schon? Soso
Wie willst du denn die CPU Leistung sonst bewerten, wenn nicht im CPU Limit?

Es werden doch auch Grafikkarten im GPU Limit getestet, da beschwert sich seltsamerweise nie jemand :rolleyes:

y33H@
2019-03-02, 00:29:42
Ja mit sinnvollen Benchmarks, nicht mit schlecht optimierten Spielen.Es wird an Spielen verwendet was verfügbar ist.

Freyberger
2019-03-02, 00:37:23
Genau, und alles ausser den Spieletests ist uninteressant. :facepalm:
Hör doch einfach auf!

y33H@
2019-03-02, 00:40:57
Du legst mir Worte in den Mund ... troll dich, danke.

Freyberger
2019-03-02, 00:51:26
Mich zweimal ohne irgendwelche belastbaren Beweise deinerseits als dumm hinstellen, aber ich troll rum?! WTF!?

Die Mythen und Märchen, das höhere Auflösung nicht zu höherer CPU-Last führt ...

Denk einfach an die Hitbox einer Spielfigur in 480p und 4k und jedem sollte klar sein, das es das nicht zum Nulltarif gibt.
Und wers immernoch nicht kapiert hat, denkt in beiden Fällen noch über die Kollisionsabfrage nach.

Und da haben wir noch nicht mal über eventuelle Limitierungen der jeweiligen Engine gesprochen.

Und jetzt Tschüß!

Effe
2019-03-02, 00:59:51
Also ein Engine-Skalierungstest.

Der_Korken
2019-03-02, 01:15:09
Die Mythen und Märchen, das höhere Auflösung nicht zu höherer CPU-Last führt ...

Denk einfach an die Hitbox einer Spielfigur in 480p und 4k und jedem sollte klar sein, das es das nicht zum Nulltarif gibt.


;D :facepalm:

Da fällt einem nichts mehr zu ein. Die CPU weiß im besten Fall nicht mal, in welcher Auflösung die Szene, die sich bereitstellt, später gerendert wird. Findet alles in der GPU statt. Ausnahme sind 2D-Spiele aus dem letzten Jahrtausend, wo mehr Auflösung = mehr Inhalt war.

Zum Thema CPU-Tests habe ich mir schon mehrmals die Finger wund geschrieben aber gegen Faktenresistenz kommt man leider nicht Argumenten an. y33H@ und Linmoum haben alles wesentliche gesagt.

Brillus
2019-03-02, 02:49:37
Mich zweimal ohne irgendwelche belastbaren Beweise deinerseits als dumm hinstellen, aber ich troll rum?! WTF!?

Die Mythen und Märchen, das höhere Auflösung nicht zu höherer CPU-Last führt ...

Denk einfach an die Hitbox einer Spielfigur in 480p und 4k und jedem sollte klar sein, das es das nicht zum Nulltarif gibt.
Und wers immernoch nicht kapiert hat, denkt in beiden Fällen noch über die Kollisionsabfrage nach.

Und da haben wir noch nicht mal über eventuelle Limitierungen der jeweiligen Engine gesprochen.

Und jetzt Tschüß!

Jetzt erklär doch mal bitte genau was die Auflösung mit der Kollisionsabfrage zu tun hat die sowieso in float oder double Präzision erfolgt.

gravitationsfeld
2019-03-02, 03:26:59
Das einzige was vielleicht Aufloesungs-Abhaengig ist, ist Level of Detail. Der Texture-Streamer hat vielleicht mehr zu tun weil er hoehere Mips laedt. Genauso kann es sein, dass es ein bisschen mehr Draw-Calls gibt weil feinere Mesh-LODs gewaehlt werden.

Im Grossen und Ganzen haelt sich das aber wirklich in Grenzen. Kollision hat mit der Aufloesung natuerlich gar nichts zu tun.

Als Entwickler kann ich ganz klar bejaen, dass 720p genau der richtige Test fuer CPUs ist. Intern ist das nicht noetig, weil man in den Profiling-Tools die CPU sowieso isoliert sieht, was praktisch null GPU-Aufloesung entspricht.

Menace
2019-03-02, 07:24:28
Es ist erstaunlich wie frei von Fakten, aber mit welcher vehemenz die Kritiker angegangen werden. Dabei sind beide Seiten dieser Diskussion relevant und richtig.

Keiner würde was sagen wenn die 720p Test ein kleiner Teil von Tests wäre unter vielen Auflösungen. Ihn als heiliger Gral mit einzig relevanten Aspekt hinzustellen ist aber imho mit auch eine Kundentäuschung.

Ich habe hier schon mehrmals um eine Fehlerberechnung für die Extrapolation für den Alltagsgebrauch oder die prozentuale Abweichung von 720p zu HD zu WQHD zu UHD bei unterschiedlichen Arten von GPUs gewünscht. Was als Antwort meist kommt ist.... willkommen im Club der Dummen. Diese Art der Diskussion kenne ich aus der Esoterikecke.

720p Test klar, aber nur wenn man dann einen gleich großen Test mit anderen Auflösungen macht um die potentiellen Kunden zu zeigen in wie weit die Testergebnisse in seiner Praxis überhaupt eine Rolle spielen.

Da aber zu Offtopic und sowieso eher frei von Argumenten lass ich es bis zum nächsten 720p Diagramm gut sein. Bis hier halt wieder virales intel Marketing betrieben wird.

Wenn ihr testen wollt wie gut und effizient CPUs sind testet BOINC. Wäre sowieso besser... ;)

Rancor
2019-03-02, 08:39:00
Warum beschwert ihr euch bei Grafikkarten nicht das Sie im GPU Limit getestet werden???

Menace
2019-03-02, 08:45:25
Warum beschwert ihr euch bei Grafikkarten nicht das Sie im GPU Limit getestet werden???

Weil sie das bei mir in der Praxis auch sein werden. Ist doch logisch. :biggrin:

SKYNET
2019-03-02, 10:24:34
Warum beschwert ihr euch bei Grafikkarten nicht das Sie im GPU Limit getestet werden???


werden sie doch... 4k max out :tongue:

unl34shed
2019-03-02, 10:38:55
Alle Jahre wieder kommt einer, der es nicht kapieren will, willkommen im Club!

Ich teste ja auch keine Grafikkarten mit einem Singlecore-Atom und sage dann, sind alle gleich schnell ;D

Anstatt hier so herablassend zu sein, solltest du dir als Redakteur doch eher Gedanken darüber machen, warum es die Leute nicht kapieren. Präsentiert ihr die Werte eventuell falsch, so dass es immer wieder zu solchen Fehlinterpretationen kommen kann? Werden die 720p Tests vielleicht zu stark in den Vordergrund gestellt ohne auf deren Bedeutung einzugehen? etc.

Der Punkt ist doch, nur weil CPU A im Benchmark den Längsten hat, ist sie dadurch nicht zwingend die beste Gaming CPU für jeden. Sobald ein Budget die Auswahl der Teile des PCs beschränkt, ist es doch um so wichtiger diese Benchmarks richtig lesen zu können.
Vielleicht solltet ihr hier ansetzen und in einem Sonderartikel genau darauf eingehen, wie sollten die Benchmarks gelesen werden. Ohne Budget grenzen natürlich immer das Schnellste, aber in der Realität sieht das ganz anders aus. Da gibt es halt eine Schmerzgrenze von z.B 800-1200€ und da macht es dann schon einen Unterschied ob ich zum Beispiel einen 9900K + GTX1060 nehme oder einen 2600x + GTX1080. Mit dem Ryzen wird man die meiste Zeit mehr spaß haben....

Rancor
2019-03-02, 10:42:28
Weil sie das bei mir in der Praxis auch sein werden. Ist doch logisch. :biggrin:
Oder aber deine CPU wenn man Zb in Full HD spielt...

w0mbat
2019-03-02, 11:09:23
Sorry, aber die Diskussion ist doch selten dämlich. Ein CPU-Test muss im CPU-Limit stattfinden, sonst ist es kein CPU-Test mehr. Ende der Diskussion.

Menace
2019-03-02, 11:16:34
....

Argumente geliefert, abgewogen, differenziert, Beispiele gebracht. Warum fällt es den anderen (s.u.) so schwer.

Oder aber deine CPU wenn man Zb in Full HD spielt...

Dann wären ja Tests für FullHD nicht schlecht, oder? :wink: Aber dann bin ich sowieso im Framelimiter und es interessiert mich nicht, ob ich noch höhere Frames bekomme.

Sorry, aber die Diskussion ist doch selten dämlich. Ein CPU-Test muss im CPU-Limit stattfinden, sonst ist es kein CPU-Test mehr. Ende der Diskussion.

Entweder die Kritik nicht verstanden oder ignoriert. Beides darfst Du machen, allerdings finde ich Klasse, dass Du so differenziert bestimmst, wann eine Diskussion beendet wird. Deine Argumente sind wirklich valide. :freak:

BlacKi
2019-03-02, 11:25:33
man macht ja auch keine geschwindigkeitstest im berufsverkehr. auch wenns praxisrelevanter ist.

dargo
2019-03-02, 11:30:11
Sorry, aber die Diskussion ist doch selten dämlich. Ein CPU-Test muss im CPU-Limit stattfinden, sonst ist es kein CPU-Test mehr. Ende der Diskussion.
Ich sorge dann auch mal bissel für Verwirrung. :upara:

In Games ist es in der Regel kein CPU-Limit. Eher ein Applikationslimit (mieses Multihreading, alter Compiler), API-Limit (DX11) und/oder Treiberlimit (DX11). :D

Menace
2019-03-02, 11:32:45
man macht ja auch keine geschwindigkeitstest im berufsverkehr. auch wenns praxisrelevanter ist.

Autovergleiche mit Autotests, ein Garant für Objektivität. Wichtigster Punkt: Höchstgeschwindigkeit! ... Auja. ;D Wir können die Diskussion wirklich noch verschlechtern. :wink:

Zum Glück habe ich noch nie Autos nach Tests gekauft und deshalb immer Autos gehabt mit mehr als 200 000 km Laufleistung ohne große Probleme (waren/sind meist auch die großen Citroëns).

@dargo: ;D

BlacKi
2019-03-02, 11:33:52
wir definieren es aber als cpu limit, wenn nur der takt zu weiteren fps führt.

aufkrawall
2019-03-02, 11:42:36
In Games ist es in der Regel kein CPU-Limit. Eher ein Applikationslimit (mieses Multihreading, alter Compiler), API-Limit (DX11) und/oder Treiberlimit (DX11). :D
Das ist aber eher eine nerdige Randbeobachtung, denn letztlich würde eine CPU mit besserer ST-Performance hier ja ebenfalls zumindest etwas Linderung verschaffen.

dargo
2019-03-02, 12:04:19
Linderung ist keine Beseitigung des Kernproblems. ;)

Achim_Anders
2019-03-02, 12:12:26
Ich bin selbst nun wirklich AMD Biased. Aber das alle Jahre wieder diese sinnlose Diskussion aufflammt bzgl.der 720p Tests ist irgendwie absurd.

Der Test ist sinnvoll, denn man kann aus dem 720p Test für die getesteten Spiele extrapolieren, wie viel FPS man erhalten kann. Dann schaut man sich einen Grafikkartentest zu dem Spiel an, hier logischerweise in der Auflösung, die für einen selbst relevant ist. Wenn die CPU mehr FPS/min FPS liefert als die Grafikkarte in dem Spiel und der Auflösung, ist die CPU schnell genug... Wenn nicht, kann man überlegen, ob die FPS einem reichen oder zu wenig sind. Das schreibt so auch jeder Test mittlerweile und daran ist auch nichts verwerfliches oder falsch dran.
Menace was du also willst, kannst du ja eben aus dem 720p Test extrapolieren. der Vorteil ist, alle anderen können das auch mit ihrer jeweiligen Grafikkarte. Win win win.

Menace
2019-03-02, 12:17:26
Menace was du also willst, kannst du ja eben aus dem 720p Test extrapolieren. der Vorteil ist, alle anderen können das auch mit ihrer jeweiligen Grafikkarte. Win win win.

Kann ich das? Stimmt es also, dass wenn die 9900K bei 720p und einer 2080 Grafikkarte einen Vorsprung von 20% auf eine 2700X hat, dieser auch noch vorhanden ist, wenn ich nur eine 580iger GraKa besitze und 1440p Auflösung nutze?

Wenn ja, dann keine Kritik mehr von meiner Seite.

Falls nein, wie lautet meine Extrapolationsrechnung? Mit wie viel Prozent Abweichung muss ich rechnen?

dargo
2019-03-02, 12:28:48
Ihr dreht euch im Kreis und es ist kein Ende ersichtlich. ;)

Es ist doch ganz einfach... man nimmt für CPU-Tests in Games kleinste Auflösung um eventuelle Limitierung der Grafikkarte auszuschließen. Über die Spielbarkeit beim User X mit Hardware Y sagt so ein Test erstmal gar nichts aus. Erst recht wenn da eine Szene mit wenigen Sekunden genommen wird und womöglich ein Worst Case ist. Sprich... in 99% der Spieldauer verhält sich das Game ganz anders bzw. weniger "schlimm". Um das Beispiel von Menace mal aufzugreifen... wer wissen will wie es um die Spielbarkeit von Game X mit CPU Y und Graka Z aussieht sucht nach entsprechender Hardware + Game bei Youtube und schaut sich einige Letsplays an. In der Regel ist ein OSD eingeblendet und man hat einen super Eindruck wie das Spiel auf dem eigenen Rechner performt. Diese ganzen, kurzen Tests diverser Redaktionen sind höchstens für Grabenkriege zu gebrauchen.

Achim_Anders
2019-03-02, 12:29:16
Die von dir skizzierte Extrapolation wäre falsch.
Ich mache es so:
720p - ryzen 2600x - 88fps
720p - i9 9900k - 160fps

1440p - rx 580 - 60fps --> beide CPU sind schnell genug.
1440p - rx 580 - 140fps --> der i9 hat sichtbare fps Vorteile, da der ryzen die rx580 nicht ausgelastet bekommt.

Bei letzterem kann man dann weiterhin ganz viele Dinge ableiten: habe ich 60hz v-sync an? Dann wäre für den usercase auch letzteres unerheblich. Falls 144hz mit so vielen fps wie möglich angestrebt werden, ist er i9 praktisch im Vorteil.

Man berichtige mich, falls ich vom Grundsatz falsch liegen sollte. Das Beispiel ist vereinfacht mit ausgedachten Zahlen dargestellt, um die Struktur dahinter zu erklären. Aus meiner Sicht ist das auf diese Weise interpretiert valide.

Das immer wieder Menschen andere überzogene Interpretation aus den Rohdaten machen, ist leider in diversen Foren auf allen "Seiten" zu sehen, dafür können aber die Daten erstmal nichts.

w0mbat
2019-03-02, 12:32:21
Achim_Anders bring es auf den Punkt. Mit einem CPU-Test finden man heraus, wie viel FPS die CPU liefern kann. Dann kann man anhand eines GPU-Tests schauen, ob die eigene CPU reicht oder nicht.

Rancor
2019-03-02, 12:34:26
Eben. Und das ist eigentlich nicht so schwer zu verstehen.

Effe
2019-03-02, 12:54:44
Zu beachten ist, dass das ganze Engine-abhängig ist und wenig bis keine Allgemeingültigkeit besitzt.

Freyberger
2019-03-02, 13:08:24
Als theoretischer Test, ok.
Aber in der Praxis absolut irrelevant, da keiner in den Auflösungen mehr spielt.

Und ohne praxisrelevante Tests wird auch die sog. Fachpresse irrelevant.

Wer im dt.-sprachigen Raum hat denn Tests wo ich die Leistung eines Mittelklasse-PCs sinnvoll ableiten kann? Keiner?!

Tests die nur das zehntel Promille, welches die schnellste Grafikkarte und schnellste CPU kaufen (und die hätten auch ohne "Test" sich das schnellste [teuerste] gekauft), bringen den restlichen 99,999% der Käufer nichts.


Und die Antworten der Vertreter der Fachpresse zeigen sehr schön, das nicht der Leser im Vordergrund steht, sondern Firmen.
Und solange das so ist, wünsche ich der Fachpresse Auflagenrückgang, Leserschwund und Adblocker.

Ist seid auf einer Stufe mit den 08/15 (gesponserten) Youtubern. Und das ist allein eure eigene Schuld!!!

Achim_Anders
2019-03-02, 13:10:35
@freyberger

Ähm lol?

SKYNET
2019-03-02, 13:42:55
ich fühle mich genötigt benchmarks zu machen, damit der faden mal wieder in die richtige richtung geht...

Brillus
2019-03-02, 14:17:05
ich fühle mich genötigt benchmarks zu machen, damit der faden mal wieder in die richtige richtung geht...

Aber bitte in 4k und einer voodoo1 alles andere ist ja nicht Praxis relevant.

JVC
2019-03-02, 14:24:20
https://www.youtube.com/watch?v=VGpNISFVC_o
"Was will China auf dem Mond? "

Kuckt n Filmchen, das beruhigt :)

@SKYNET Und schon mit dem neuen Bios den RAM getestet ?
(wie viel V gehen den jetzt ?)

m.f.g. JVC

Menace
2019-03-02, 14:41:41
Das immer wieder Menschen andere überzogene Interpretation aus den Rohdaten machen, ist leider in diversen Foren auf allen "Seiten" zu sehen, dafür können aber die Daten erstmal nichts.
:up: Aber genau deshalb macht man doch solche Tests. :biggrin: Deshalb sage ich ja auch, einen Service an Kunden ist es nicht.

Wenn ich einmal Zeit habe, nehme ich mir ein paar Seiten vor und versuche echte Zahlen und ihre mögliche Extrapolation gegenüber zu stellen. :smile:

@JVC: Die meisten sind ja ruhig und können halbwegs sachlich (wenn auch meist frei von validen Zahlen) diskutieren. Was auffällt ist, dass bisher für dieses Vorgehen noch nicht ein konkretes Beispiel, welches dann halbwegs allgemeingültig wäre, gefallen ist.

Screemer
2019-03-02, 14:57:23
Was mich viel mehr interessieren würde ist, ob sich diese Extrapolation von minfps mit zukünftigen GPUs auch wirklich bewahrheitet. Hat das schon Mal jemand nachgebenched? Soll jetzt nicht bedeuten, dass ich an der Interpretation der Daten zweifle.

JVC
2019-03-02, 15:05:16
Ich halt mich da raus ...

Kann nur aus Erfahrung sagen das z.b.:
Guildwars2 an einer stelle in FHD (alles auf MAX) im CPU Limit ~40fps schafft. (GPU dümpelt bei ~30% Auslastung)
Stell ich um auf 4K (alles auf MAX) sinken die Fps auf ~30fps, wieder CPU limitiert (~60% GPU Auslastung)

Warum sinken da die FPS, obwohl sich für die CPU nichts ändert ?

Darum ist das "CPU Limit" für mich so ne Sache und 720p Tests mit MIN Einstellungen erzeugen eher einen Richtwert...

m.f.g. JVC

gmb
2019-03-02, 15:28:28
Weil das an der GPU liegt. Es gibt nicht nur 100% Limits. Irgendwas limitiert leicht von der GPU, der fps Verlust ist sehr gering für den großen Sprung bei der Auflösung.

BlacKi
2019-03-02, 15:44:59
die taktrate der gpu wirkt sich ebenfalls auf das cpu limit aus. eine vega karte mit 1800mhz hat ein anderes cpu limit wie eine mit 1300mhz.

deshalb ist in 4k das cpu limit trotzdem eins genauso wie das in 720p.

maguumo
2019-03-02, 15:46:20
:confused:Was? Wie soll das denn gehen?

BlacKi
2019-03-02, 16:13:40
aber nicht nur takt, da spielen auch andere dinge mit rein. beim wechsel von 1070 zu 1080ti habe ich auch 5% bessere fps im cpu limit messen können und die hatten denselben takt.

man muss mit 720p test aber auch aufpassen das eine 2080ti nicht ab und an auf idle takt geht^^, das zerstört dann richtig die fps im cpu limit. dasselbe problem gabs wohl auch mit einer fury x mit schwacher cpu in WOW wo die gpu last so niedrig war, das sie ständig in idle gesprungen ist und wieder raus. damit geht das cpu limit richtig zugrunde.

y33H@
2019-03-02, 17:55:17
Genau, die testen ja auch hauptsächlich, wie irgendwelche Gaming Engines auf ihren CPUs laufen ... Die meisten Desktop-CPUs im mittleren Preissegment werden von DYI-Gamern gekauft und AMD/Intel fokussieren Spiele beim Marketing und in den Reviewer's Guides für diese Chip. Der Fokus hin zu Anwendungen erfolgt idR erst ab 10+ Kernen.
Der Punkt ist doch, nur weil CPU A im Benchmark den Längsten hat, ist sie dadurch nicht zwingend die beste Gaming CPU für jeden. Das sagt der gesunde Menschenverstand, denn das Stichwort lautet freilich Budget/Preis. Davon ab umfasst ein CPU-Test mehrere Spiele sowie Singlethread/Multithread-Anwendungen und ggf Multitasking, vermittelt also das komplette Bild. Davon ab ist, wie "dargo" schon sagte, ein Test immer eine Momentaufnahme der Hardware samt OS, Treiber, Engine/Spiel und kein Zukunftsausblick - denn die kann keiner ernsthaft vorhersagen.
Da gibt es halt eine Schmerzgrenze von z.B 800-1200€ und da macht es dann schon einen Unterschied ob ich zum Beispiel einen 9900K + GTX1060 nehme oder einen 2600x + GTX1080. Mit dem Ryzen wird man die meiste Zeit mehr Spaß haben.Auch hier
gesunder Menschenverstand: Eine 550-Euro-CPU ist wohl schwerlich der passende Partner für eine 200-Euro-GraKa, das zeigt jeder Test. Wenn der 9900K in 720 in Spiel X auf 90 fps kommt und die GTX 1060 in Spiel X in 1080p auf 45 fps, passt ergo was nicht.
Wer im dt.-sprachigen Raum hat denn Tests wo ich die Leistung eines Mittelklasse-PCs sinnvoll ableiten kann? Keiner?!Budget setzen, CPU Test angucken, GraKa Test angucken, Komponenten ableiten - so wie es "Achim_Anders" bereits dargelegt hat.

Menace
2019-03-02, 18:13:39
Davon ab umfasst ein CPU-Test mehrere Spiele sowie Singlethread/Multithread-Anwendungen und ggf Multitasking, vermittelt also das komplette Bild.

Oder auch nicht; Siehe das Problem, dass zum Beispiel dann nur Adobe Produkte getestet werden (ja, ich weiß die Mehrheit nutzt Adobe), aber diese Software noch nicht mal alle Kerne auslastet (besser wäre dann DXO oder C1). So kann die Aussagekraft für DXO Nutzer damit ziemlich verfälschen (ausdrücklich hier nochmals lobend erwähnt sei pcgh, die sich zumindest zum Teil dieses Problem angenommen haben mit OpenCl-Test von C1). Einen in dieser Richtung ordentlichen CPU Test fand ich dann nur bei den Franzosen oder Planet3D.

Es ist wirklich schwierig, alle Punkte für die Kunden abzuschätzen. Von daher warne ich ja auch vor den Diagrammen, mit die präzise einen genauen Wert suggerieren, der dann letztlich so gar nicht zu erfüllen ist.

unl34shed
2019-03-02, 18:18:18
Das sagt der gesunde Menschenverstand, denn das Stichwort lautet freilich Budget/Preis. Davon ab umfasst ein CPU-Test mehrere Spiele sowie Singlethread/Multithread-Anwendungen und ggf Multitasking, vermittelt also das komplette Bild. Davon ab ist, wie "dargo" schon sagte, ein Test immer eine Momentaufnahme der Hardware samt OS, Treiber, Engine/Spiel und kein Zukunftsausblick - denn die kann keiner ernsthaft vorhersagen.

Auch hier gesunder Menschenverstand: Eine 550-Euro-CPU ist wohl schwerlich der passende Partner für eine 200-Euro-GraKa, das zeigt jeder Test. Wenn der 9900K in 720 in Spiel X auf 90 fps kommt und die GTX 1060 in Spiel X in 1080p auf 45 fps, passt ergo was nicht.


Wenn es nur am gesunden Menschenverstand hängen würde, hätten wir nicht seitenlange Diskussionen (hier erst vor ein paar Tagen und in anderen Foren ebenso), in denen Ryzen die Spieleeignung abgesprochen wird. Gut man kann die natürlich alle als Idioten hinstellen, wovon es gefühlt leider immer mehr werden. Geholfen ist damit aber keinem.

Schade, dass du so einen Test/Artikel so abgeneigt bist. Wie gesagt, es gibt genug, die das nicht kapieren und da wäre so ein Test nicht verkehrt. Das kann man einmal alle x-Jahre machen und in jedem Test verlinken, wenn es gut gemacht ist, sollte es darüberhinaus auch noch durch alle Kaufberatungs-Foren gut clicks generieren.
Einfach drei/vier Systeme mit gleichem Budget vergleichen, einmal Top GPU mit low-end CPU, anders herum und ein ausgewogenes System. Man kann es auch noch mit dem Mainboard, RAM oder anderen Komponenten auf die Spitze treiben, wenn man denn will.

Klar, mit gesunden Menschenverstand weiß man was dabei wohl rauskommen wird, dem DAU ist das aber nicht unbedingt klar.

SKYNET
2019-03-02, 18:21:02
@SKYNET Und schon mit dem neuen Bios den RAM getestet ?
(wie viel V gehen den jetzt ?)

m.f.g. JVC

ne, bisher keine musse gehabt da was abzuschreiben... X-D

y33H@
2019-03-02, 19:26:58
Ein letztes Offtopic, hoffentlich ...

Oder auch nicht; Siehe das Problem, dass zum Beispiel dann nur Adobe Produkte getestet werden (ja, ich weiß die Mehrheit nutzt Adobe), aber diese Software noch nicht mal alle Kerne auslastet (besser wäre dann DXO oder C1). So kann die Aussagekraft für DXO Nutzer damit ziemlich verfälschen (ausdrücklich hier nochmals lobend erwähnt sei pcgh, die sich zumindest zum Teil dieses Problem angenommen haben mit OpenCl-Test von C1).Klar ist Adobe Software kein Fingerzeig für DXO Nutzer, weil es nun mal unterschiedliche Programme sind. Ist halt (leider?) so, dass das Adobe Zeug viel verbreiteter ist, aber ich schaue mir gerne auch DXO an - wenn es sich zeitlich machen lässt, was meist das Problem ist und nicht der Wille/Wunsch.

Wenn es nur am gesunden Menschenverstand hängen würde, hätten wir nicht seitenlange Diskussionen (hier erst vor ein paar Tagen und in anderen Foren ebenso), in denen Ryzen die Spiele-Eignung abgesprochen wird.Alle paar Jahre kommt einer an oder es ist ein Doppel-Account. Die allerallermeisten verstehen das Prinzip von CPU/GPU-Tests und überdies wird's jedes Mal dann auch wieder in aller Ausführlichkeit erläutert.

Schade, dass du so einen Test/Artikel so abgeneigt bist.Im Gegenteil: Habe solche Tests schon vor nem Jahrzehnt gemacht und habe seit Monaten vor (siehe u.a. hier (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11939951&postcount=1420)) es mit aktuellen Spielen und heutigen CPUs/GraKas zu wiederholen. Mir fehlt aber mit all den Events/Messen und Releases zumindest momentan die Zeit, das anzugehen ;( der Aufwand ist selbst bei 3 CPUs, 3 GraKas, 3 Spielen, 3 Auflösungen schon absolut horrend.

65896 65897 65898

Hatte ja auch mal den Test mit der Hintergrundlast (https://www.golem.de/news/coffee-lake-vs-ryzen-was-cpu-multitasking-mit-spielen-macht-1711-130488.html) gemacht, der sehr oft nachgefragt wurde, die Realität war aber leider, dass er sich nicht dolle gelesen hat - was die Frage aufwirft, ob es tatsächlich so viele interessiert oder doch nur einige wenige es ständig lauthals fordern. Zur Einordnung: Der Artikel lief etwas schlechter als der Test der RX 580/570, obwohl beides nur Refreshs waren.

65899 65900

Ich bin sicherlich einer der letzten, der Wünschen aus der Community nicht nachkommt, wenn ich es zeitlich hinkriege :cool: Parallel zu CPUs, GPUs, Notebooks, SSDs plus täglich News und dann noch Events/Messen ist das aber eben oft Overkill und meine private Freizeit geht für drauf ...

Menace
2019-03-02, 19:46:09
Ewenn es sich zeitlich machen lässt, was meist das Problem ist und nicht der Wille/Wunsch.


Semiofftopic zu Tests mit Multithread

Zeitlich wie auch finanziell. Die Programme müssen ja auch gekauft werden. Es gibt nur das Problem Adobe ist weit verbreitet -> Test mit Adobe -> Werbung für Adobe -> Adobe ist weit verbreitet (und ja, imho leider).

Cool wäre (ich weiß, Zeit) auch noch weitere Programme (gibt ja auch günstige von Affinity).


Zu Tests, welche sich nicht gerne lesen lassen: Ja, je differenzierter und komplexer die Tests werden, umso weniger Leser werden sie haben. Trotzdem wäre es gut, wenn man dann entsprechender Diskussionen dann darauf hinweisen könnte, dass es eben so oder so verhält. Wobei da es ja noch komplexer wird: Welche Hintergrundprogramme laufen bei dem einen, welche bei dem anderen.

Freyberger
2019-03-02, 23:27:31
CPU Test angucken, GraKa Test angucken, Komponenten ableiten -

Oder, und ich hab echt das Gefühl, das ist eine ganz verrückte Idee, die sogenannte Fachpresse macht mal etwas was einen echten Mehrwert hat. Z.B genau so einen Test.

Ich weiss, ich weiss, das ist völlig progressiv, mal was zu machen, was dem Leser einen echten Mehrwert bringt und nicht nur eine weitere Dauerwerbesendung bestimmter Firmen.

Echt progressiv ...

y33H@
2019-03-02, 23:34:51
Enttäuschend, dass du nach meinen ausführlichen Post weiterhin nur trollst.

unl34shed
2019-03-03, 00:08:46
@y33H@: Ja, wurde etwas OT, aber das will ich noch los werden.

Im Gegenteil: Habe solche Tests schon vor nem Jahrzehnt gemacht und habe seit Monaten vor (siehe u.a. hier (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11939951&postcount=1420)) es mit aktuellen Spielen und heutigen CPUs/GraKas zu wiederholen. Mir fehlt aber mit all den Events/Messen und Releases zumindest momentan die Zeit, das anzugehen ;( der Aufwand ist selbst bei 3 CPUs, 3 GraKas, 3 Spielen, 3 Auflösungen schon absolut horrend.

Ich glaube du hast mich nicht verstanden. Dein Test vor 10 Jahren geht in die Richtung, ist aber nicht das, was ich meine.
Und das was du Gestern vorgeschlagen hast mit 3 CPU, 3 Auflösungen und einer 2080Ti, kannst du dir Sparen, das bringt keinen Mehrwert. Das Ergebnis ist ziemlich vorhersehbar, i5 wird Probleme haben, aber je höher die Auflösung umso unwichtiger die CPU....

Bitte lese dir meine Posts noch einmal durch. Einen Artikel/Test "wie lese ich Benchmarks und wähle meine Komponenten", könntest du anders als den sehr speziellen Test mit Hintergrundslast, unter jeden CPU und GPU Benchmark verlinken und irgendjemand wird drauf klicken. Der ist auch über Jahre aktuell.
Du schreibst ja selbst "CPU Test angucken, GraKa Test angucken, Komponenten ableiten", mach da doch einen Artikel draus unter realen Bedingungen, also mit Berücksichtigung eines Budget, wie es eben normal ist. Ich kann mich nur noch einmal wiederholen, nimm einen 720p CPU Bench als Beispiel, einen GPU Bench als Beispiel, such danach verschiedene Komponenten aus, einmal beste GPU die ins Budget passt + low end CPU, beste CPU + lower end GPU und eben ein ausgeglichenes System.
Zum Schluss noch ein paar Benchmarks der 3 Systeme, die eben die Limits der Komponentenauswahl zeigen Bezugnehmend auf die 720p und GPU Benchmarks die man am Anfang gezeigt hat.

w0mbat
2019-03-03, 00:25:35
Enttäuschend, dass du nach meinen ausführlichen Post weiterhin nur trollst.
Schau an seit wann er hier ist und was er schreibt, das ist ein 2./Troll-Account.

Rancor
2019-03-03, 00:26:26
Oder, und ich hab echt das Gefühl, das ist eine ganz verrückte Idee, die sogenannte Fachpresse macht mal etwas was einen echten Mehrwert hat. Z.B genau so einen Test.

Ich weiss, ich weiss, das ist völlig progressiv, mal was zu machen, was dem Leser einen echten Mehrwert bringt und nicht nur eine weitere Dauerwerbesendung bestimmter Firmen.

Echt progressiv ...

Ich wusste garnicht das AMD neuerdings auch Firmen bezahlt.

Mortalvision
2019-03-03, 01:42:15
Mein R5 2600X sitzt und läuft stabil bei 4,2 GHz@1,375V. Geht da noch mehr? Temp in games so 55-60'C. DDR= 3200@cl15-16-16-36

Freyberger
2019-03-03, 02:18:50
Ich wusste garnicht das AMD neuerdings auch Firmen bezahlt.

Meinte eher Sachen wie die Direktbewerbung von pcgh für Nvidia, siehe z.B.

https://www.mindfactory.de/Highlights/NVIDIA_Benchmarks_Overwatch_PUBG


Da kann mir keiner mehr erzählen, das für soetwas kein Geld geflossen ist.


Und das gibts in mehreren Ausführungen. Schätze mal mittlerweile zweistellig.




Enttäuschend, dass du nach meinen ausführlichen Post weiterhin nur trollst.

Ich mein das mit entsprechenden Artikeln toternst.
Getrolle ist hingegen das, was du abläßt.

Rancor
2019-03-03, 08:31:57
Aber was hat Werbung bei Mindfactoy mit Artikeln und Tests der Fachpressen zu tun? Ich kann deinen Rant hier irgendwie nicht nachvollziehen..

Wirfst du den Redaktionen vor 720p Tests durchzuführen, weil Intel Sie dafür bezahlt oder was meinst du jetzt genau?
Und bei Multithreadding Tests bezahlt AMD die Redkationen dann?

Was ist dein Punkt?

dildo4u
2019-03-03, 08:51:25
PCGH hat doch sogar ein Preis Leistung Index mit aktuellen Preisen,Intels High-End CPU sehen dort grottig aus.


http://www.pcgameshardware.de/CPU-CPU-154106/Tests/CPU-Test-Benchmark-AMD-Intel-675663/3/

Ich sehe dort kein Bias,wäre das der Fall würde man bei diesem Index Performance deutlich höher bewerten.

y33H@
2019-03-03, 10:28:35
@y33H@: Ja, wurde etwas OT, aber das will ich noch los werden.

Ich glaube du hast mich nicht verstanden. Dein Test vor 10 Jahren geht in die Richtung, ist aber nicht das, was ich meine.

Und das was du Gestern vorgeschlagen hast mit 3 CPU, 3 Auflösungen und einer 2080Ti, kannst du dir Sparen, das bringt keinen Mehrwert. Das Ergebnis ist ziemlich vorhersehbar, i5 wird Probleme haben, aber je höher die Auflösung umso unwichtiger die CPU ...

Bitte lese dir meine Posts noch einmal durch. Einen Artikel/Test "wie lese ich Benchmarks und wähle meine Komponenten", könntest du anders als den sehr speziellen Test mit Hintergrundslast, unter jeden CPU und GPU Benchmark verlinken und irgendjemand wird drauf klicken. Der ist auch über Jahre aktuell.

Du schreibst ja selbst "CPU Test angucken, GraKa Test angucken, Komponenten ableiten", mach da doch einen Artikel draus unter realen Bedingungen, also mit Berücksichtigung eines Budget, wie es eben normal ist. Ich kann mich nur noch einmal wiederholen, nimm einen 720p CPU Bench als Beispiel, einen GPU Bench als Beispiel, such danach verschiedene Komponenten aus, einmal beste GPU die ins Budget passt + low end CPU, beste CPU + lower end GPU und eben ein ausgeglichenes System.

Zum Schluss noch ein paar Benchmarks der 3 Systeme, die eben die Limits der Komponentenauswahl zeigen Bezugnehmend auf die 720p und GPU Benchmarks die man am Anfang gezeigt hat.
Ah, jez habe ich es verstanden - das kann ich freilich schneller umsetzen, ggf erstmal ohne Benches.

Freyberger
2019-03-03, 11:27:09
Wirfst du den Redaktionen vor 720p Tests durchzuführen, weil Intel Sie dafür bezahlt oder was meinst du jetzt genau?


Du wirfst mir hier Sachen vor, die ich nie gesagt haben.

Ich habe zu keinem Zeitpunkt gesagt, das 720p Tests nicht gemacht werden sollen. Sondern, das Sie als das angesehen werden, was sie sind. Rein theoretischer Test, ohne praxisrelevanz bei wohl 98% der Gamingsysteme.

Und das man zusätzlich auch praxisrelevante Tests macht.
Und darauf bekomm ich ne Menge dumme Kommentare (klar, Mehrwert ist ja auch was böses).
Und ein Vertreter der Fachpresse hier sagt mir: Nö, ich solls mir doch selber suchen.

1. Dafür brauch ich keine Fachpresse und
2. wenn 98% der Leser scheiegal sind, womit machen Sie dann Geld?

BlacKi
2019-03-03, 11:39:10
wenn du einen 1440p/4k test anschaust mit ryzen und intel cpus die mit einer 2080ti gebencht wurden, haben die werte mit "deiner" rx 580/vega auch keinerlei praxisrelevanz.

für echte praxisrelevante tests musst der patch/treiber und deine hardware gleich sein, damit du 1 zu 1 praxisrelevanz erfährst.

stimmt eine sache davon nicht, musst du ableiten. da nun 99% aller tests nun nicht praxisrelevant sind was willst du nun tun?

natürlich ableiten, am besten für cpus aus 720p, nicht mit harten fps, sondern mit prozentualen differenzen.

Rancor
2019-03-03, 12:10:41
Du wirfst mir hier Sachen vor, die ich nie gesagt haben.

Ich habe zu keinem Zeitpunkt gesagt, das 720p Tests nicht gemacht werden sollen. Sondern, das Sie als das angesehen werden, was sie sind. Rein theoretischer Test, ohne praxisrelevanz bei wohl 98% der Gamingsysteme.

Und das man zusätzlich auch praxisrelevante Tests macht.
Und darauf bekomm ich ne Menge dumme Kommentare (klar, Mehrwert ist ja auch was böses).
Und ein Vertreter der Fachpresse hier sagt mir: Nö, ich solls mir doch selber suchen.

1. Dafür brauch ich keine Fachpresse und
2. wenn 98% der Leser scheiegal sind, womit machen Sie dann Geld?

Ich habe dir garnichts vorgeworfen, ich hab dich gefragt was du denn genau willst und meinst, weil ich nicht verstanden habe was dein Problem ist.

Was sind den praxisrelevante Tests für dich?

Ein R5 2600x mit einer 2060/70/80/80TI, RX580/90 V56/64/VII
Ein Intel 8700k mit einer 2060/70/80/80TI, RX580/90 V56/64/VII
Ein 8600k mit 2060/70/80/80TI, RX580/90 V56/64/VII
Ein R7 2700x 2060/70/80/80TI, RX580/90 V56/64/VII

Da wären übrigens alleine für die 4 CPUs 38 Tests. Dann muss man, weil es ja praxisnah sein soll, auch noch die gängigen Ram Profile mitesten. Da bist du dann schnell bei 72 Tests, für 4 CPUs. Du solltest selber bemerken das das kaum möglich ist.

Was macht man also jetzt? Man sucht sich ein Testverfahren, dessen Ergebnisse man skalieren kann und das sind eben die 720p Test. Die haben mehr praxisrelevanz als die lieb ist..

w0mbat
2019-03-03, 12:21:03
https://youtu.be/ZZoSWkyyDNE?t=446

Hier kann man sehr schön sehen, wieso CPU-Tests mit niedriger Auflösung bzw. schnellen GPUs Sinn machen :smile:

Stretcher
2019-03-03, 16:16:05
Ich glaube, Du verstehst nicht meine Kritik.

Die Kritik von dir kann grundsätzlich niemand verstehen, der sich mal mit dem Thema auseinandergesetzt hat. Ist hart formuliert, aber passend.
Erschütternd dass in einem Forum wie dem 3DC solche howtobenchbasics diskutiert werden.

Eher ein CPU auf Software-Test. Spiele sind oft genug schlecht optimiert.

Was würde man denn auch anderes auf einer CPU testen, außer Software?:tongue: Was hat eine geschätzte, schlechte Optimierung für die Leistunsgwerte der CPU für eine Bedeutung?


Macht den Quatsch doch als theoretischen Sondertest, aber nehmt zur Einordnung was Praxisrelevantes.

Theoretisch? Der Prozessor liefert in allen Auflösungen des gleichen Bildausschnittes diese FPS, 720p, 1080p, 1440p 2160p usw.
Ob dir der Prozessor mit der kombinierten GPU nutzt, liegt dann an deinen Settings und der Hardware.
Ein 9900K wird sich für 1440p Spieler mit 2080 Ti OC durchaus lohnen.
Für 4K Zocker die auch mit geringen Bildraten leben könnten, wirds auch ein Ryzen 2600 tun, as simple as possible as complicated as necessary.

Mangel76
2019-03-04, 09:18:04
Was hat eine geschätzte, schlechte Optimierung für die Leistunsgwerte der CPU für eine Bedeutung?


Ehrlich jetzt? Du siehst da keinen Zusammenhang zwischen der Optimierung von Software auf die Eigenschaften einer CPU und der Leistung, die die CPU mit dieser Software abliefert? Dann erübrigt sich jede weitere Diskussion.

y33H@
2019-03-04, 09:59:46
Als Endkunde hat man auf Software-Optimierung halt keinen Einfluss abseits von Patches sofern verfügbar.

Menace
2019-03-04, 10:08:04
Als Endkunde hat man auf Software-Optimierung halt keinen Einfluss abseits von Patches sofern verfügbar.

Naja, dafür müsste man Druck ausüben. Hat aber nicht auch massive Kritik von Seiten der Tester zu Änderungen geführt? Igor hat ja auch immer wieder erwähnt, dass er im engeren Kontakt zu Herstellern steht. Wäre da nicht anzusetzen?

y33H@
2019-03-04, 11:05:23
Klar geht da Feedback hin und her.

Mangel76
2019-03-04, 11:07:00
Als Endkunde hat man auf Software-Optimierung halt keinen Einfluss abseits von Patches sofern verfügbar.

Natürlich hat er das höchstens indirekt (indem er z.B. mehr AMD kauft wird auch Druck auf die Softwarehersteller ausgeübt.)

Allerdings kräuseln sich mir hier regelmäßig die Fußnägel, wenn ich diese Fehlinterpretationen solcher Tests lese. Beruflich muss ich meine Schlussfolgerungen sehr genau formulieren, vor allem, auf welcher Grundgesamtheit und welchen Annahmen diese erzielt werden. Eine Folgerung "Programm A läuft auf CPU B schlecht, also ist CPU B schlecht" ist jedoch völliger Bullshit, wenn ich das Programm selbst völlig aus der Gleichung nehme. So ein Zusammenhang nennt sich Korrelation, die Richtung des Zusammenhangs (Kausalität) ist jedoch damit nicht festgelegt. So kann die schlechte Performance dieser Kombination durch Programm A, durch CPU B oder eben durch beide hervorgerufen werden.

Kleines Beispiel aus meinem Alltag: Meine Software zur Datenanalyse hat für die Bequemlichkeit ein paar Befehle, mit denen sich einige Dinge sehr leicht mit einer Codezeile ermitteln lassen, die jedoch i.d.R. etwas langsamer laufen. Alternativ brauche ich 3-4 Codezeilen dafür. Bei kleinen Datensätzen mit Befehlslaufzeiten im ms-Bereich gibts keinen gefühlten Unterschied. Bei sehr großen Datensätzen unterscheiden sich die Laufzeiten zum Teil aber erheblich. Hier kann ich die Laufzeit einer Analyse auf einen Bruchteil verringern, wenn ich etwas mehr Aufwand in die Programmierung stecke. Die Performance unterscheidet sich unabhängig von der CPU deutlich!

Wenn nun der Großteil der Programmierer mit Intel-CPUs arbeitet und auch die verwendeten Compiler und eingesetzten Engines nur mehr oder weniger gut auf die Ryzen-Eigenarten optimiert sind, so liegt die Ursache für den beobachteten Rückstand zu einem großen Teil bei der Software, nicht bei der Hardware. Das kann man auch empirisch beobachten: vor allem ältere Spiele (SC) oder solche, die auf älteren Engines basieren (FCND) laufen auf Ryzen unterdurchschnittlich, während viele neuere Spiele mit moderneren Engines deutlich besser performen.

Richtig ist natürlich, dass der Endnutzer daran nicht so viel ändern kann. Jedoch wird da m.M.n. sehr oft der falsche Baum angebellt. Anstatt sich über die Spieleschwäche von Ryzen zu beschweren, sollte man sich lieber über die Ryzenschwäche vieler Spiele beschweren. Das es anders geht, belegen ja viele Spiele, die auf Ryzen sehr gut laufen. Die Performance ist ja da, sie wird nur leider all zu oft nicht ordentlich genutzt.

hq-hq
2019-03-04, 12:36:40
Die Schwäche liegt wohl u.a. am IMC, kann man bei AMD die physical memory load mit HWiNFO64 auslesen?
Latenz und Bandbreite (mit OC) sind bei Intel einen Tick besser, bei FC5 New Dawn liegt die physical memory load bei 60-70% (i7 8700k, DDR4@4133MHz).
Wahrscheinlich fällt das bei Games dann nicht so stark ins Gewicht wenn der Durchsatz niedriger ist und je höher die Last desto stärker fällt die Performance zu Intel ab.

y33H@
2019-03-04, 14:16:34
Das kann man auch empirisch beobachten: vor allem ältere Spiele (SC) oder solche, die auf älteren Engines basieren (FCND) laufen auf Ryzen unterdurchschnittlich, während viele neuere Spiele mit moderneren Engines deutlich besser performen.Du hast völlig Recht, bei den Summit Ridge war die Software noch schlecht optimiert, AMD hat auf der GDC eine eigene Session für Ryzen gehabt und mit Pinnacle Ridge liefen viele Anwendungen und Spiele relativ betrachtet deutlich runder als ein Jahr zuvor.

Mangel76
2019-03-04, 15:34:26
Du hast völlig Recht, bei den Summit Ridge war die Software noch schlecht optimiert, AMD hat auf der GDC eine eigene Session für Ryzen gehabt und mit Pinnacle Ridge liefen viele Anwendungen und Spiele relativ betrachtet deutlich runder als ein Jahr zuvor.

An CPU-Tests habe ich überhaupt nichts auszusetzen. Auch nicht an den heiß diskutierten 720p-Tests! Das Problem ist nicht der Test, sondern die Interpretation der Ergebnisse. In vielen Projekten, die ich als Statistiker begleite, besteht meine Hauptarbeit nicht in der eigentlichen Datenauswertung, sondern in der Erklärung, was man nun aus den Daten ableiten kann und was eben gerade nicht. Für Nicht-Statistiker ist der Unterschied zwischen Korrelation und Kausalität nur selten nachzuvollziehen.

ChaosTM
2019-03-04, 16:21:18
https://wccftech.com/amd-ryzen-3000-cpu-specs-prices-online-retailer-ryzen-9-3850x-leak/

Hoffentlich kommt das so..
16/32 mit über 5 ...

edit.: hab den falschen Thread erwischt.

Zergra
2019-03-04, 19:12:39
Da müssten ja 12/24 das meiste fürs Geld bringen. Da kann man dann auch SMT ganz gut abschalten. Der 3700X könnte mir so gefallen.

dargo
2019-03-04, 23:24:01
Da müssten ja 12/24 das meiste fürs Geld bringen. Da kann man dann auch SMT ganz gut abschalten. Der 3700X könnte mir so gefallen.
Hehe... die Idee hatte ich auch. :tongue: Nüchtern betrachtet kann man das aber auch mit dem 8C/16T machen wenn es ausschließlich um Games geht. :freak: