Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 2/Ryzen 3000 Review-Thread
Konsequenter/Interessant wäre es IMO die CPUs so zu konfigurieren, dass die Memorylatenz gleich ist.
Das gehört zur Architektur und damit zur IPC. Es macht kein Sinn, der einen Architektur absichtlich miese RAM Latenzen zu verpassen, nur um die Latenz auf das gleiche Niveau der anderen Architektur zu bringen. Erschreckend auf was für Ideen du kommst.
Screemer
2019-07-07, 21:17:31
14 nm - 10 nm aktuell bei Intel weit weniger Takt
FTFY
robbitop
2019-07-07, 21:18:12
Könnte schwierig/unmöglich werden bei solch unterschiedlichen Architekturen.
Gleiche Memory-Timings (wobei dies sicher auch nur bei den primären möglich sein wird) ist da wohl das naheliegenste das man machen kann und sich mit den gleichen RAM modulen erreichen lässt.
Das wird sich machen lassen. Ringtakt runter, Timings hoch, IMC Takt runter. Bis die Latenz gleich ist. Bandbreite ist in Spielen ziemlich uninteressant.
robbitop
2019-07-07, 21:19:38
Das gehört zur Architektur und damit zur IPC. Es macht kein Sinn, der einen Architektur absichtlich miese RAM Latenzen zu verpassen, nur um die Latenz auf das gleiche Niveau der anderen Architektur zu bringen. Erschreckend auf was für Ideen du kommst.
Nein das ist I/O. Hat mit der uArch eines Kernes nichts zu tun. Man könnte, wenn Skalierbarkeit für AMD weniger interessant wäre auch einen Ringbus verbauen.
Und Intel hat es auch mit dem mesh anders herum gezeigt.
Im Prinzip wäre ein taktnormierter Vergleich mit SKL-X schon in etwas das...
Der_Korken
2019-07-07, 21:20:46
Erschreckend auf was für Ideen du kommst.
:rolleyes:
Technische Benches, um was über die Architektur zu erfahren, sind anscheinend verboten.
Snoopy69
2019-07-07, 21:21:49
Gleicher Takt, gleiche Latenzen...
Ich hätte da noch gleiche Coreanzahl und gleiche Cachegröße zur Auswahl :ulol:
Sind ja nette Spielereien, aber leider nicht praxisnah
Eigentlich zählen nur Tests out of the box (für die Masse der User) und Tests mit max. OC für eine kleine OC-Szene. Mehr interessiert mich persönlich nichts.
Ach ja...
Auch wenn Benches in 4K-Gaming nahezu sinnfrei ist. Interessieren die mich aktuell mehr als FHD-Benches. Bräuchte ich nur ein System zum Zocken, hätte ich schon längst den boxed 9900K geöffnet, der seit fast einem Monat hier unnütz herum liegt. Aber ich wollte zumindest diesen Tag abwarten...
robbitop
2019-07-07, 21:24:15
Es geht bei solchen Tests nicht um die Bewertung des Produktes sondern un die Untersuchung von technischen Aspekten.
Was „zählt“ und was nicht, kann jeder für sich selbst entscheiden. ;-)
Für 99% der Spiele und Spielszenen ist CPU Leistung eh nicht der Bottleneck. ;)
Schnoesel
2019-07-07, 21:27:59
Technisch:
https://twitter.com/DrUnicornPhD/status/1147900751399833601
versteh zwar kein Wort aber vielleicht kann jemand anderes was mit anfangen.
Langlay
2019-07-07, 21:30:43
Technisch:
https://twitter.com/DrUnicornPhD/status/1147900751399833601
versteh zwar kein Wort aber vielleicht kann jemand anderes was mit anfangen.
CCX zu CCX kommuniziert immer über den IO Die auch wenn die CCX auf den gleichen Chiplet liegen. Daher ist die CCX zu CCX zeit immer gleich egal ob das CCX auf dem gleichen Chiplet liegt oder nicht.
Birdman
2019-07-07, 21:31:25
Das wird sich machen lassen. Ringtakt runter, Timings hoch, IMC Takt runter. Bis die Latenz gleich ist.
Dann müsste man doch aber auch anfangen die L1, L2 und L3 Cache's auf die gleiche Grösse zu bringen/gimpen.
Schliesslich kaschiert ein grösserer Cache dann in Applikationsbenchmarks automatisch eine allenfalls höhere Latenz zum Speicher.
robbitop
2019-07-07, 21:31:54
Inter CCX scheint ob im gleichen Die oder im Nachbardie ähnlich schnell zu sein.
Andererseits kann das für homogene Performance auch relevant sein, so dass sie ggf die Latenz innerhalb eines Dies künstlich unten halten.
Im Vergleich zu Zen 1 ist die Inter CCX Latenz auch im gleichen Die im okayen Bereich.
CCX zu CCX kommuniert immer über den IO Die auch wenn die CCX auf den gleichen Chiplet liegen. Daher ist die CCX zu CCX zeit immer gleich egal ob das CCX auf dem gleichen Chiplet liegt oder nicht.
Interessant und konkludent
Dann müsste man doch aber auch anfangen die L1, L2 und L3 Cache's auf die gleiche Grösse zu bringen/gimpen.
Schliesslich kaschiert ein grösserer Cache dann in Applikationsbenchmarks automatisch eine allenfalls höhere Latenz zum Speicher.
Bei Zen 2 müsste man einiges vom L3 cache deaktivieren :freak:
robbitop
2019-07-07, 21:33:23
Dann müsste man doch aber auch anfangen die L1, L2 und L3 Cache's auf die gleiche Grösse zu bringen/gimpen.
Schliesslich kaschiert ein grösserer Cache dann in Applikationsbenchmarks automatisch eine allenfalls höhere Latenz zum Speicher.
Das ist richtig - darauf hat man jedoch keinen Einfluss als Nutzer. Wobei die Branch prediction auch etwas damit zu tun hätte... ;)
robbitop
2019-07-07, 21:34:09
Bei Zen 2 müsste man einiges vom L3 cache deaktivieren :freak:
Wieviel L3 Cache ist am Ringbus des 9900K? Wieviel in einem Zen 2 CCX? ;)
Menace
2019-07-07, 21:43:16
hardware.fr? Wurden die nicht geschlossen, weil der Typ auch zu Intel ist? :D
Ah, Danke. Schade; das waren teilweise die ausführlichsten Tests mit der besten Bandbreite von Software. Aber von Planed3DNow kommt bestimmt noch mehr.
Ravenhearth
2019-07-07, 22:00:07
Warum kackt der 1600X bei CB eigentlich auf einmal so ab? Sogar der 2600 ist 23% schneller in Spielen.
Auch der 1800X ist 19% schneller als der 1600X, obwohl zwischen 2700X und 2600X nur 2% liegen. Da scheint beim 1600X also was zu klemmen.
Mega-Zord
2019-07-07, 22:01:07
Damit ist AMD wirklich wieder etwas gelungenn. Der 12- und 16-Kerner sind vermutlich aktuell eher nutzlos bei einem Spiele-PC, aber die 8-Kerner liefern ganz ordentlich ab.
Es bleibt nur zu hoffen, dass AMD daraus etwas Gewinn erwirtschaften kann. Der Retailmarkt ist ja recht klein und die großen OEMs werden sich nicht so viel für 3rd Gen. Rizen interessieren.
Sargnagel für Intel, einfach nur heftig. Einmal durchgewischt von AMD und das gesamte Intel-Lineup ab 200€ komplett obsolet gemacht. ;D
Ach verdammt, ich werden meinen 9900k sofort verkaufen :(
Windi
2019-07-07, 22:01:36
Wenn man wirklich nur die Architektur einzelner Kerne beurteilen möcht dann müsste man auf beiden Seiten viele Latenzen und Caches künstlich herunter Schrauben.
Das Intel dank Ringbus bessere Latenzen zum Speicher und unter den 8 Kernen hat, ist bei einem reinen Vergleich der Kerne nicht fair.
Die extrem guten Latenzen innerhalb eines CCX und der große L3 Cache bei AMD aber auch nicht.
Heutzutage kann man die Kerne einfach nicht mehr alleine betrachten. Das ganze Verbindungssystem innerhalb der CPU ist immer wichtiger geworden. Nur dank den Chiplets kann AMD momentan 7nm nutzen, dafür hat man halt schlechtere Latenzen. Beides gehört zusammen.
AMD hat den Nachteil, das sie eine Verbindungsarchitektur für alle CPU Modelle nutzen müssen, da sie sich mehr nicht leisten können.
Intel kann sich hingegen mehr leisten. Momentan hat man Ringbus, doppelter Ringbus und Mesh. In Zukunft kommen aber wahrscheinlich auch noch Chiplets dazu. Für die Spiele CPUs kann Intel aber noch länger beim Ringbus bleiben um die besseren Latenzen zu haben.(Einfacher bei 4-8 Kernen / Doppelter bei 10-12 Kernen)
Snoopy69
2019-07-07, 22:07:04
Es geht bei solchen Tests nicht um die Bewertung des Produktes sondern un die Untersuchung von technischen Aspekten.
Was „zählt“ und was nicht, kann jeder für sich selbst entscheiden. ;-)
Für 99% der Spiele und Spielszenen ist CPU Leistung eh nicht der Bottleneck. ;)
Zum Glück, sonst müsste ich den 9900K auspacken :freak:
fondness
2019-07-07, 22:08:26
Der Ringbus deckt bei Intel extrem viel zu. Man braucht sich ja nur anzusehen, wie der 12 Core Zen2 selbst hochgezüchtete HEDT Prozessoren mit mehr Kernen immer wieder alt aussehen lässt. Der 16 Kerner im Herbst macht defacto Intels HEDT-Plattform obsolet, der 64 Core EPYC im Servermarkt wird für Intel ein Desaster. Zumal man das mit den Ringbus auch am Desktop nicht mehr lange fortführen wird können.
Benutzername
2019-07-07, 22:12:10
Jain. AMD hat Zen2 (ursprünglich) in 7nm als Serverarchitektur mit niedrigem Takt geplant. Irgendwann hat AMD dann gemerkt, dass man die Chips doch höher takten kann und hat deswegen Zen2 auch in den Desktop gebracht.
Sollte Zen+ dann weiter im Desktop bleiben nach alter Planung?
Die ursprüngliche Planung dürfte sich aber dennoch bei den aktuellen Taktraten bemerkbar machen.
Also dann nächstes Jahr der "Zen2+" refresh mit 5GHz?
Thunder99
2019-07-07, 22:14:07
Was mich nur wundert sind die Recht zahmen Taktraten. War zwar bekannt im voraus aber das trotz OC an einem Beispiel nicht wirklich mehr ging ist komisch.
Limitiert da was am Chip oder ist 7nm doch nicht so taktfreudig wie gedacht.
Zergra
2019-07-07, 22:14:39
Sollte Zen+ dann weiter im Desktop bleiben nach alter Planung?
Also dann nächstes Jahr der "Zen2+" refresh mit 5GHz?
Eher nicht, nach oben wird sich da nicht mehr viel tun.
Ich gehe auch stark davon aus das 2020/2021 bei Intel die 10nm CPUs auch einen geringeren Takt als die aktuellen gaben werden.
Linmoum
2019-07-07, 22:16:08
Was mich nur wundert sind die Recht zahmen Taktraten. War zwar bekannt im voraus aber das trotz OC an einem Beispiel nicht wirklich mehr ging ist komisch.
Limitiert da was am Chip oder ist 7nm doch nicht so taktfreudig wie gedacht.
Wie gesagt, der eher niedrigere Takt lässt sich (wohl) hierdurch erklären:
Als Zen 2 im Jahre 2015 projektiert wurde, wurde schon eine Fertigung in 7 nm angestrebt. Zum damaligen Zeitpunkt war jedoch nicht ganz klar, ob dies auch funktionieren würde. So war Zen 2 als Serverarchitektur mit niedrigem Takt geplant und auch dementsprechend ausgelegt.
https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/50163-amds-ryzen-7-3700x-und-ryzen-9-3900x-im-test.html
Windi
2019-07-07, 22:17:29
Ryzen 3000 macht doch einen hervorragenden Eindruck.
Natürlich ist man nicht in jedem Punkt überlegen.
Aber man ist in jedem aktuellen Spiel mehr als schnell genug.
Und in Zukunft wird man wohl noch schneller werden, da die Software auf die CCX Architektur besser angepasst wird und man immer mehr Kerne nutzen kann.
Die 6 und 8 Kerner sind wirklich sehr interessante Alternativen zu Intel, dank des Preises und des niedrigen Stromverbrauches. Die 12 und 16 Kerner werden vor allem dann interessant, wenn man die CPU lange nutzen möchte. Schon 2020/21 werden sie wohl einen Sprung nach vorne machen, da die Spiele dank den Konsolen besser angepasst werden. Und in 6 Jahren wird die Leistung noch besser auf die Straße kommen. (Heute ein neues System mit neuem Prozessor und neuer Grafikkarte kaufen und dann die Grafikkarte nach 3 Jahren noch einmal Hochrüsten)
Für Leute, die Software einsetzen die wirklich mehr als 8 Kerne nutzen kann, ist die Sache eh klar.
Flusher
2019-07-07, 22:19:06
Hat irgendwer der Reviewer vielleicht schon einen Test mit der Unterstützung auf älteren Brettern gemacht?
Würde mich mal interessieren ob ich auf mein Prime B350-Plus einen 3900X schnallen kann :D
fondness
2019-07-07, 22:19:47
Eher nicht, nach oben wird sich da nicht mehr viel tun.
Ich gehe auch stark davon aus das 2020/2021 bei Intel die 10nm CPUs auch einen geringeren Takt als die aktuellen gaben werden.
Sehe ich auch so. Intel hatte nach den 10nm Problemen eh nur die Möglichkeit ihren 14nm Prozess möglichst gut zu optimieren um noch mehr Takt raus zu holen. Der 10nm Prozess wird diese Taktraten mit hoher Wahrscheinlichkeit nicht mehr erreichen (es sei denn es gibt ähnlich lange keinen Nachfolger :D).
Zergra
2019-07-07, 22:20:04
Würde mich mal interessieren ob ich auf mein Prime B350-Plus einen 3900X schnallen kann :D
Sobald es ein Bios gibt sollte es erstmal kein Problem sein, solange du auf OC verzichtest.
Nightspider
2019-07-07, 22:22:29
Gibts irgendwo zufällig Benchmarks zu PUBG oder Star Citizen?
VooDoo7mx
2019-07-07, 22:22:48
So wie es aussieht läuft der 3900X mit All Core Turbo immer auf 4,2GHz.
Wieso eigentlich? Was limitiert da oder istd as normal so eingestellt?
Kann man den auch mit allen Kernen stabil auf 4,6GHz laufen lassen? Ich hab bisher kaum was zu Overclocking gefunden.
Stretcher
2019-07-07, 22:25:16
Die CB Ergebnisse zu zitieren ist jetzt schon ein "bias"? Dein Ernst?
Es ist einfach lächerlich wie du mich hier mehrfach beleidigst, weil ich darauf hinweise, dass die Hälfte der Tests von CB in ein partielles oder saftiges GPU Bottleneck führen und daher dieses summary, welches dort aufgeführt wird, unmöglich stimmen kann. In Anno ist ein 2700x vor dem 3700x und du verneinst trotz eindeutigem Beleg jegliches vorhanden sein eines GPU Bottlenecks.
Dein Bias ist wirklich erschreckend. Golem hat auch Anno gebencht und zwar richtig und da ist der 9900K 20% vor dem 3700x, respektive 3900x.
Und wenn du dir gar nicht mehr zu helfen weißt, dann wird die persönliche Karte gezogen. Ganz arm sowas.
Du greifst mich persönlich an "du bist lächerlich" wenn ich 1:1 das sage, was CB sagt?
Warum zitierst du nicht gleich den Planet3DNow Test, da ist der 2700x gleichauf mit dem 3700x in 66% der Ergebnisse. Bei CB ist das teilweise ähnlich extrem. Dass Rißka so schlechte Arbeit abliefert, hätte ich ihm nicht zugetraut.
Beim Test des 9400F, lag der 9900K noch 19% vor selbigem.
https://abload.de/img/benchmarks123t0k8p.png
Jetzt sind es nur noch 10% und warum? Weil die Benchmarks hart GPU bottleneckt sind, das fällt doch jedem Kind auf.
https://abload.de/img/dwdwdwwdwdwdwdwdwdokk3p.png
Wieso ist es so schwer für dich das zu erkennen? Wie kann man CPU Benchmarks feiern, die die CPU Performance gar nicht richtig messen?:rolleyes: In jedem Nachtest wird die Leistung deiner tollen AMD Spieleprozessoren um mindestens 10% fallen, weil die GPU bereinigte Spieleleistung rund 15% höher ist als bei AMD.
Genauso wird hier der Abstand zwischen 2700x und 3700x viel zu gering beziffert. Der 9900K ist teilweise nur 4% vor dem 9400F, trotz fast 20% mehr Takt und mehr Cores/Threads. Der Computerbase Test hier ist genauso fehlerhaft und falsch, wie der in dem die Intel CPU´s die AMD Ryzen um 40 bis 50% abgezogen haben und CB ewig brauchte bis sie das revidiert haben.
Ich kenne außer CB keine einzige andere Veröffentlichung die den Ryzen 3000 auf Augenhöhe mit Intels Topmodellen sieht.
Weder PCGH, weder Golem, noch TPU, HardwareUnboxed, noch Hardwareluxx oder sonst wer.
Das kann auch gar nicht sein, weil die Spiele IPC und die Taktraten dafür nie reichen dürften, außer in Ausreißern wie Assassins Creed, doch dort ist selbst bei HardwareUnboxed der Intel mit gleichem RAM schneller, weil dort aus irgendwelchen Gründen Takt kaum was bringt, vermutlich liegt es an Kopierschutzsoftware.
Es ist eine absolute Tatsache, dass AMD in fairen Testbedingungen keinerlei Stich gegen die Intel Prozessoren macht und CB sich wie Planet3DNow einfach ein falsches Testverfahren einsetzen, um Prozessorleistung in Spielen zu messen. Das ist wie beim Ryzen 1800x Launch, dort benchte man auch im GPU Limit und in diesem Review ist dann der 7700K plötzlich 15% vor dem 1800x, obwohl es 2017 ja nur 4% gewesen sind, angeblich eben.
Fang doch mal selbst an CPU´s zu testen oder Harwdare zu reviewen, dann merkst du instant wer hier Blödsinn bencht und wer halbwegs Ahnung davon hat wie man es anstellen muss. Computerbase bencht sogar in 4K, obwohl deren 1080p Tests schon partiell GPU limitiert sind. Sinnfreier gehts ja nicht mehr.;)
Und Memorylatenz. Mit gleichem Takt und Speicherlatenz hätte der 9900K ernsthafte Probleme.
Wenn AMD diese Schwachstelle noch beseitigt, dann steigt auch die Spiele-IPC und schwubs ist der 3900x auch auf Augenhöhe mit dem 9900K, ich habe nur so das Gefühl, dass wir da in Zukunft nicht viel mehr Spieleperformance sehen werden, weil die Latenzen mit Chiplets begrenzt ausfallen, eventuell mit ED-RAM oder einfach noch mehr Caches.
@stretcher In welchen Szenarien siehst du die höhere Performance denn als praktisch relevant an?
Bzw. Wann bringen diese 0-25% mehr Performance im Alltag für welches Nutzerbild etwas?
Ich messe, ich lasse mich nicht bezüglich praktischer Relevanz aus. Meine Erfahrung ist diese, dass sich Parteien, egalb ob Intel, AMD oder Nvidia immer um die letzten Prozent Leistung streiten.
Es wurde früher, gerade bei den Athlon Prozessoren jedes % Merhleistung in der Spieleleistung als Sieg gegenüber Intel gefeiert und entsprechend empfohlen und ab dem Zeitpunkt wo jemand mit "praktisch relevant" oder "Alltag" argumentiert, nehme ich ihn nicht mehr so ganz ernst, denn jeder nimmt im Zweifel das schnellere Produkt für den gleichen Preis, oder gibt auch mal mehr Geld aus um das schnellere zu bekommen.
Bei Intel stehen Preissenkungen vor der Tür, das heißt, man muss das erneut bewerten. Und wer hohe Spieleleistung will greift meiner Meinung nach wie vor zu Intel, gesetz dem Fall die Preise sinken etwas.
Auch dann, wenn es nur 15% Merhleistung im CPU Bottleneck sein sollten, man vergisst hier ja relativ schnell, dass sich die Intel Prozessoren mit deutlich flotterem RAM noch tunen lassen.
Der HarwdareUnboxed test zeigt, dass man selbst n 1440P noch von einem Intel Prozessor profitieren kann, mit halbwegs schneller GPU, bis zu 35%.
Es gibt dort kein Spiel in dem ein AMD vorne ist.
https://abload.de/img/hitmanxljlg.png
Hier mal exemplarisch und jetzt nehme bei Intel noch entsprechenden Speicher. Ob das im Alltag nun jemandem wichtig ist oder nicht, ein Unterschied in der Leistung besteht nach wie vor.
Auch der 1800X ist 19% schneller als der 1600X, obwohl zwischen 2700X und 2600X nur 2% liegen. Da scheint beim 1600X also was zu klemmen.
Bei CB klemmt generell was, die Intel Werte widersprechen den alten Tests komplett und haben 10% oben raus verloren, obwohl der 9400F zu den AMD CPU´s auf dem gleichen Leistungslevel blieb.
Grendizer
2019-07-07, 22:26:38
So wie es aussieht läuft der 3900X mit All Core Turbo immer auf 4,2GHz.
Wieso eigentlich? Was limitiert da oder istd as normal so eingestellt?
Kann man den auch mit allen Kernen stabil auf 4,6GHz laufen lassen? Ich hab bisher kaum was zu Overclocking gefunden.
Etwas weiter oben ist ein Video vom Der8auer gelinkt gewesen. Mehr wie 4.3 AC ist wohl Glück 4,6 kannst du knicken.
Es bleibt auf jeden Fall interessant. Mich würde z.B. interessieren, ob die Speichertaktverbesserungen von Zen2 auch auf nicht X570 Brettern zum Tragen kommen.
Mortalvision
2019-07-07, 22:30:39
Hmm, mein 2600X läuft PBO auf 4,46 GHz. Dazu mit 3433 RAM bei ok Timings. Ein 3600X könnte vom Übertakten her die 4,2 allcore eventuell nicht packen, hätte aber 32 MB L2 Cache. Fürs Zocken wäre ein Upgrade aber wohl nix. Was meint ibr?
Zergra
2019-07-07, 22:30:50
So wie es aussieht läuft der 3900X mit All Core Turbo immer auf 4,2GHz.
Wieso eigentlich? Was limitiert da oder istd as normal so eingestellt?
Kann man den auch mit allen Kernen stabil auf 4,6GHz laufen lassen? Ich hab bisher kaum was zu Overclocking gefunden.
Nachdem ich das Video von Der8auer gesehen habe, sehe ich das Problem bei der Temperatur, das Chiplet ist so winzig, da muss man die Leistung erstmal weg bekommen. Könnte sein das man mit einer guten CPU und weniger Spannung auch an die 4.4-4.5GHz kommt, aber aktuell sieht es nicht danach aus.
Hmm, mein 2600X läuft PBO auf 4,46 GHz. Dazu mit 3433 RAM bei ok Timings. Ein 3600X könnte vom Übertakten her die 4,2 allcore eventuell nicht packen, hätte aber 32 MB L2 Cache. Fürs Zocken wäre ein Upgrade aber wohl nix. Was meint ibr?
Kommt auf die Auflösung an, ich Spiele viel in 4k, da wäre das eig total Sinnlos :D
Ich denke auch, dass die Wärmeabfuhr bei den immer kleiner werdenden Strukturen zum Hauptproblem werden wird. Das wird Intel bei 10nm und kleiner auch zum Spüren bekommen.
Linmoum
2019-07-07, 22:34:47
Beim Test des 9400F, lag der 9900K noch 19% vor selbigem.
Jetzt sind es nur noch 10% und warum? Weil die Benchmarks hart GPU bottleneckt sind, das fällt doch jedem Kind auf.
Du hast aber schon gecheckt, dass - bis auf KCD - es völlig andere Spiele in beiden Reviews sind? Scheinbar aber ja nicht, sonst würdest du solch einen unsinnigen Vergleich nicht anführen.
"Hey, Review A war das und Review B plötzlich so. Da ist was faul!!!!11einself"
Und dann waren es andere Spiele und damit gar nicht vergleichbar. :facepalm:
w0mbat
2019-07-07, 22:35:12
@Stretcher: Glückwunsch, nach über 10 Jahren 3DC bist du der erste auf meiner Ignorliste. Junger Account mit wenigen Beiträgen der nur zum Trollen genutzt wird. mMn sollte man sowas bannen, aber nun gut.
Viel Spaß noch in deiner Fantasiewelt, wo alle reviews die dir nicht passen "falsch" sind und der 9900K bei 50W Verbrauch 50% schneller ist. Kuckuck....
Mortalvision
2019-07-07, 22:35:44
Zocke auch 4k, das meiste aber Paradox Games...
Lehdro
2019-07-07, 22:38:06
CCX zu CCX kommuniert immer über den IO Die auch wenn die CCX auf den gleichen Chiplet liegen. Daher ist die CCX zu CCX zeit immer gleich egal ob das CCX auf dem gleichen Chiplet liegt oder nicht.
Das krasse daran ist das Zen 2 von Chiplet zu Chiplet MIT dem Umweg über das I/O Die schneller ist als Intels Mesh. IF ist wirklich ein Wunderwerk.
robbitop
2019-07-07, 22:38:59
Zum Glück, sonst müsste ich den 9900K auspacken :freak:
Ich vermute mal, wenn irgendwas auf dem 3900X zu langsam sein sollte, wird es auch nicht so wahnsinnig viel schneller auf dem 9900K sein. So groß ist der Unterschied nicht.
Lowkey
2019-07-07, 22:39:34
@w0mbat
Mir ist aber auch unabhängig von Stretcher aufgefallen, dass CB sehr AMD Freundlich agiert. Ich würde CB wieder einen Fehler im System zutrauen bzw. den Review unter Vorbehalt in eine Zusammenfassung einfließen lassen. Leonidas wird bestimmt in der Launchübersicht die einzelnen Tests auswerten und dann müßte CB stärker abweichen.
Linmoum
2019-07-07, 22:43:37
@w0mbat
Mir ist aber auch unabhängig von Stretcher aufgefallen, dass CB sehr AMD Freundlich agiert. Ich würde CB wieder einen Fehler im System zutrauen bzw. den Review unter Vorbehalt in eine Zusammenfassung einfließen lassen. Leonidas wird bestimmt in der Launchübersicht die einzelnen Tests auswerten und dann müßte CB stärker abweichen.
Also agiert TPU auch sehr AMD-freundlich? Bei denen liegt der Unterschied zwischen 9900K und 3900X auch nur im einstelligen Prozentbereich - trotz 3200 CL14 bei allen CPUs.
robbitop
2019-07-07, 22:43:57
Hat nicht neulich jemand Volker vorgeworfen, ein Intel bias zu haben? Bitte mal entscheiden...
Als Ex-Journalist finde ich den Gedanken eines bias bei einem seriösen Journalisten ein wenig albern. :)
Armaq
2019-07-07, 22:45:27
In allen Tests die Minimum FPS haben, sieht der 3900 nochmal etwas besser aus als 3700 und 9900k. Das sind die ganzen cleanen Systeme der Tester. Da rammelt nicht Win Update oder ein andere blödsinniges Programm los mitten beim zocken.
Schöne Architektur, die Frage ist ob sie sie noch auf mehr Takt bekommen, oder ob der jetzt aufgezeigte Weg weiterhin ausbaufähig ist. Der Taktnormvergleich auf 4 Ghz ist ein absoluter Win für AMD und zeigt die brutale Effizienz Mhz für Mhz.
Das krasse daran ist das Zen 2 von Chiplet zu Chiplet MIT dem Umweg über das I/O Die schneller ist als Intels Mesh. IF ist wirklich ein Wunderwerk.
Intra und Inter laufen immer über den gleichen Weg. Wurde schon gepostet. Das I/O Teil auf 7 nm und mit 4 Chiplets für Epyc 3 wird ein richtiger Kracher.
So wie es aussieht läuft der 3900X mit All Core Turbo immer auf 4,2GHz.
Wieso eigentlich? Was limitiert da oder istd as normal so eingestellt?
Kann man den auch mit allen Kernen stabil auf 4,6GHz laufen lassen? Ich hab bisher kaum was zu Overclocking gefunden.
Mehr als 4400-4500 Mhz (https://www.youtube.com/watch?v=WXbCdGENp5I&feature=youtu.be&t=80) sind nicht drin, aber das ist wirklich das Maximum. Es gibt Tester, die bei 4100 Mhz bereits am Limit angekommen sind.
Several motherboard vendors have told us that overclocking headroom is extremely limited on the Ryzen 3000 processors, and that exceeding the boost clocks, or even meeting them, isn't possible for all-core overclocking. Our resident overclocking expert Allen 'Splave' Golibersuch has also spent time with early Ryzen 3000 samples and was unable to break the 4.1 GHz barrier without sub-ambient cooling.
https://www.tomshardware.com/reviews/ryzen-9-3900x-7-3700x-review,6214-4.html
Screemer
2019-07-07, 22:48:24
Hat nicht neulich jemand Volker vorgeworfen, ein Intel bias zu haben? Bitte mal entscheiden...
Als Ex-Journalist finde ich den Gedanken eines bias bei einem seriösen Journalisten ein wenig albern. :)
vor kurzem? intelbase ist der offizielle nickname von cb.
Gebrechlichkeit
2019-07-07, 22:50:46
Resumierend :
Anstatt den 3800X lieber gleich den 3900X einplanen, vom 3600X Abstand halten und lieber den 3600 erwerben. Der 3700X scheint ein guter Kompromiss zu sein, zwischen dem 12 Thread Console CPU und 24 Thread Behemoth.
5700 TOP, 5700XT eher "naja ... "
Kann mir einer erklaeren, wieso beim SisostSandra der Output nur halb so schnell ist? Versteh kein Down Underish :redface:
https://youtu.be/oDVUdpcKZMA?t=1362
Linmoum
2019-07-07, 22:51:38
vor kurzem? intelbase ist der offizielle nickname von cb.
Immerhin lassen sie nicht einen Volontär (der auch erst seit dem 01.07 in der Redaktion ist) den größten CPU/Hardware-Launch seit vielen Jahren begleiten und das Review dafür schreiben... ;D
Lehdro
2019-07-07, 22:52:52
Hat nicht neulich jemand Volker vorgeworfen, ein Intel bias zu haben? Bitte mal entscheiden...
Wir können uns auch einfach darauf einigen das er ein schlechter Tester/Journalist ist. CB hat in den letzten Jahren sehr oft Mist gebaut und tendenziös geschrieben, Beispiele gab es im entsprechenden Thread (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=577870)genug. CB ist dort sehr oft negativ aufgefallen.
Flusher
2019-07-07, 22:56:30
Sobald es ein Bios gibt sollte es erstmal kein Problem sein, solange du auf OC verzichtest.
Wieso sollte OC ein Problem sein? Nicht genügend Spannungswandler?
Screemer
2019-07-07, 22:58:38
Immerhin lassen sie nicht einen Volontär (der auch erst seit dem 01.07 in der Redaktion ist) den größten CPU/Hardware-Launch seit vielen Jahren begleiten und das Review dafür schreiben... ;D
jup. das war heute auch mein highlight :ugly:
Armaq
2019-07-07, 22:58:58
Immerhin lassen sie nicht einen Volontär (der auch erst seit dem 01.07 in der Redaktion ist) den größten CPU/Hardware-Launch seit vielen Jahren begleiten und das Review dafür schreiben... ;D
Vll. war er der einzig Willige Intel und 9900k genauso oft im Review Text zu tippen wie AMD neuen Prozessoren? Auf Seite 2 wird es einfach abstrus. Intel wird sogar vor AMD im Text erwähnt und es gibt eigentlich keinen Textabsatz der 9900k nicht enthält. :biggrin:
Strg+F ist manchmal erheiternd.
Snoopy69
2019-07-07, 22:59:47
Ist es wahr, was ich gerade gelesen hab - dass der 3950X noch auf der 2000er-Architektur basieren soll?
Wenn ja, warum?
Lehdro
2019-07-07, 23:01:34
Ist es wahr, was ich gerade gelesen hab - dass der 3950X noch auf der 2000er-Architektur basieren soll?
Wenn ja, warum?
So ein Schwachsinn. Meide die Stelle wo die Information herkam.
dildo4u
2019-07-07, 23:01:36
Ist es wahr, was ich gerade gelesen hab - dass der 3950X noch auf der 2000er-Architektur basieren soll?
Wenn ja, warum?
Nein der ist auch 7nm.Threadripper ist noch 2 Gen.
KrisNeme
2019-07-07, 23:01:39
Ist es wahr, was ich gerade gelesen hab - dass der 3950X noch auf der 2000er-Architektur basieren soll?
Wenn ja, warum?
Wäre mir neu.
vor kurzem? intelbase ist der offizielle nickname von cb.
Einige der Spiele Tests sind bei CB definitiv von der GPU limitiert, das lässt sich nicht abstreiten, zum Beispiel F1 2018. Damit ist es automatisch AMD freundlich, weil das immer der schnelleren gaming CPU am meisten wehtut, wird sie doch am stärksten limitiert. Außerdem haben sie die Intel nur mit DDR4-2666 getestet. Ok kann man testen, sie hätten aber zusätzlich wenigstens noch 1-2 der Intel mit DDR4-3200 vermessen können, weil eben kein zurechnungsfähiger 9900k Besitzer nur mit DDR4-2666 unterwegs ist. Spec hin oder her, das ist praxisfern in dem Fall.
Screemer
2019-07-07, 23:02:17
@gmb: mal ne neue platte?
Ist es wahr, was ich gerade gelesen hab - dass der 3950X noch auf der 2000er-Architektur basieren soll?
Wenn ja, warum?
wer verbreitet denn sowas?
TwoBeers
2019-07-07, 23:10:21
Ein paar Tests mit gut optimiertem RAM bei Intel (5GHz) und bei AMD (3200, scharfe subtimings) ist aber sicherlich noch etwas das fehlt.
Das ganze dann mit fps/Watt/Preis.
Stretcher
2019-07-07, 23:12:00
Du hast aber schon gecheckt, dass - bis auf KCD - es völlig andere Spiele in beiden Reviews sind?
Das macht doch kaum einen Unterschied, welche Spiele das sind.:rolleyes:
Takt gewinnt immer, egal ob das Spiel nun wenige Kerne oder mehr Kerne befeuert.:redface: Und nein der 9900K bietet mehr als 10% mehr Takt als ein 9400F.
Scheinbar aber ja nicht, sonst würdest du solch einen unsinnigen Vergleich nicht anführen.
Das ist nicht unsinnig, da ja die anderen Prozessoren in der Leistung auf dem gleichen Level bleiben, nur obenhin abgeschnitten wird. Das ist übrigens auch bei AMD so. Zudem haben sich die Spiele teilweise nicht geändert.;)
KCD alt.
https://abload.de/img/altf6jkp.png
KCD neu.
https://abload.de/img/kcdcpkqi.png
So und was sehen wir da nun?
Im alten Test war der 9900K 37% vor dem 9400F und im neuen Test liegt er nur noch 14% vorne, also satte 23% Punkte weniger und das im gleichen Spiel.
Aus dem 15% Vorsprung des 9900K gegenüber dem 8700K werden nun ein Rückstand von satten 4%, also verändert sich auch hier das Performancebild des 9900K um 20% Punkte. PCGH testet KCD auch und da ist der 9900K klar vor dem 8700K, mhm.. was läuft da bei CB nur falsch?:redface:
"Hey, Review A war das und Review B plötzlich so. Da ist was faul!!!!11einself"
Ja, ich weiß schon, du willst das halt nicht zugeben, dass CB Mist misst, aber dass Computerbase diese wahnsinnigen Leistungsunterschiede selbst nicht auffallen und sie es mit keiner Silbe erwähnen, zeugt schonmal nicht davon, dass sie saubere Arbeit leisten, ich kann dir jetzt schon sagen, dass sie einen Fehler finden werden, früher oder später.
Und dann müssen sie das ganze erneut durchjagen und dann heißt es wieder, warum ist AMD langsamer. ;)
Und dann waren es andere Spiele und damit gar nicht vergleichbar. :facepalm:
Erzähl mir mehr davon, belegst immer wieder, dass du keinen Schimmer von CPU Benchmarks hast und rein IHV motiviert hier deine Beiträge schreibst.
Klar, wenn ich mir eine 3900x Spiele-Luftpumpe bestellt hätte, die nicht schneller als ein 230 Euro 9600K rechnet, würde ich mich vielleicht auch derart verhalten.;)
Ravenhearth
2019-07-07, 23:13:59
Was hat CB denn gemacht, dass sie auf einmal im GPU-Limit sind? War ja vorher schon 1080p und die GPU ist auch nicht langsamer geworden.
maximus_hertus
2019-07-07, 23:15:26
Es ist einfach lächerlich wie du mich hier mehrfach beleidigst, weil ich darauf hinweise, dass die Hälfte der Tests von CB in ein partielles oder saftiges GPU Bottleneck führen und daher dieses summary, welches dort aufgeführt wird, unmöglich stimmen kann. In Anno ist ein 2700x vor dem 3700x und du verneinst trotz eindeutigem Beleg jegliches vorhanden sein eines GPU Bottlenecks.
Dein Bias ist wirklich erschreckend. Golem hat auch Anno gebencht und zwar richtig und da ist der 9900K 20% vor dem 3700x, respektive 3900x.
Und wenn du dir gar nicht mehr zu helfen weißt, dann wird die persönliche Karte gezogen. Ganz arm sowas.
Warum zitierst du nicht gleich den Planet3DNow Test, da ist der 2700x gleichauf mit dem 3700x in 66% der Ergebnisse. Bei CB ist das teilweise ähnlich extrem. Dass Rißka so schlechte Arbeit abliefert, hätte ich ihm nicht zugetraut.
Beim Test des 9400F, lag der 9900K noch 19% vor selbigem.
https://abload.de/img/benchmarks123t0k8p.png
Jetzt sind es nur noch 10% und warum? Weil die Benchmarks hart GPU bottleneckt sind, das fällt doch jedem Kind auf.
https://abload.de/img/dwdwdwwdwdwdwdwdwdokk3p.png
Wieso ist es so schwer für dich das zu erkennen? Wie kann man CPU Benchmarks feiern, die die CPU Performance gar nicht richtig messen?:rolleyes: In jedem Nachtest wird die Leistung deiner tollen AMD Spieleprozessoren um mindestens 10% fallen, weil die GPU bereinigte Spieleleistung rund 15% höher ist als bei AMD.
Genauso wird hier der Abstand zwischen 2700x und 3700x viel zu gering beziffert. Der 9900K ist teilweise nur 4% vor dem 9400F, trotz fast 20% mehr Takt und mehr Cores/Threads. Der Computerbase Test hier ist genauso fehlerhaft und falsch, wie der in dem die Intel CPU´s die AMD Ryzen um 40 bis 50% abgezogen haben und CB ewig brauchte bis sie das revidiert haben.
Ich kenne außer CB keine einzige andere Veröffentlichung die den Ryzen 3000 auf Augenhöhe mit Intels Topmodellen sieht.
Weder PCGH, weder Golem, noch TPU, HardwareUnboxed, noch Hardwareluxx oder sonst wer.
Das kann auch gar nicht sein, weil die Spiele IPC und die Taktraten dafür nie reichen dürften, außer in Ausreißern wie Assassins Creed, doch dort ist selbst bei HardwareUnboxed der Intel mit gleichem RAM schneller, weil dort aus irgendwelchen Gründen Takt kaum was bringt, vermutlich liegt es an Kopierschutzsoftware.
Es ist eine absolute Tatsache, dass AMD in fairen Testbedingungen keinerlei Stich gegen die Intel Prozessoren macht und CB sich wie Planet3DNow einfach ein falsches Testverfahren einsetzen, um Prozessorleistung in Spielen zu messen. Das ist wie beim Ryzen 1800x Launch, dort benchte man auch im GPU Limit und in diesem Review ist dann der 7700K plötzlich 15% vor dem 1800x, obwohl es 2017 ja nur 4% gewesen sind, angeblich eben.
Fang doch mal selbst an CPU´s zu testen oder Harwdare zu reviewen, dann merkst du instant wer hier Blödsinn bencht und wer halbwegs Ahnung davon hat wie man es anstellen muss. Computerbase bencht sogar in 4K, obwohl deren 1080p Tests schon partiell GPU limitiert sind. Sinnfreier gehts ja nicht mehr.;)
Wenn AMD diese Schwachstelle noch beseitigt, dann steigt auch die Spiele-IPC und schwubs ist der 3900x auch auf Augenhöhe mit dem 9900K, ich habe nur so das Gefühl, dass wir da in Zukunft nicht viel mehr Spieleperformance sehen werden, weil die Latenzen mit Chiplets begrenzt ausfallen, eventuell mit ED-RAM oder einfach noch mehr Caches.
Ich messe, ich lasse mich nicht bezüglich praktischer Relevanz aus. Meine Erfahrung ist diese, dass sich Parteien, egalb ob Intel, AMD oder Nvidia immer um die letzten Prozent Leistung streiten.
Es wurde früher, gerade bei den Athlon Prozessoren jedes % Merhleistung in der Spieleleistung als Sieg gegenüber Intel gefeiert und entsprechend empfohlen und ab dem Zeitpunkt wo jemand mit "praktisch relevant" oder "Alltag" argumentiert, nehme ich ihn nicht mehr so ganz ernst, denn jeder nimmt im Zweifel das schnellere Produkt für den gleichen Preis, oder gibt auch mal mehr Geld aus um das schnellere zu bekommen.
Bei Intel stehen Preissenkungen vor der Tür, das heißt, man muss das erneut bewerten. Und wer hohe Spieleleistung will greift meiner Meinung nach wie vor zu Intel, gesetz dem Fall die Preise sinken etwas.
Auch dann, wenn es nur 15% Merhleistung im CPU Bottleneck sein sollten, man vergisst hier ja relativ schnell, dass sich die Intel Prozessoren mit deutlich flotterem RAM noch tunen lassen.
Der HarwdareUnboxed test zeigt, dass man selbst n 1440P noch von einem Intel Prozessor profitieren kann, mit halbwegs schneller GPU, bis zu 35%.
Es gibt dort kein Spiel in dem ein AMD vorne ist.
https://abload.de/img/hitmanxljlg.png
Hier mal exemplarisch und jetzt nehme bei Intel noch entsprechenden Speicher. Ob das im Alltag nun jemandem wichtig ist oder nicht, ein Unterschied in der Leistung besteht nach wie vor.
Bei CB klemmt generell was, die Intel Werte widersprechen den alten Tests komplett und haben 10% oben raus verloren, obwohl der 9400F zu den AMD CPU´s auf dem gleichen Leistungslevel blieb.
Wenn man wirklich alle GPU Limits eliminieren möchte, müsste man heute auf alle Reviews von Skylake und Ryzen verzichten. Selbst in 720p gibt es teilweise GPU Limits. Aber das will ja wohl keiner.
Am Ende ist vieles eh wurscht. "Früher" war es relativ einfach => größere CPU = mehr Takt und / oder Cache. Mit den Dualcores wurde es schwieriger und spätestens mit den Quadcores und modernerer Software hat sich "alles" geändert.
Quasi niemand wird die GPU Leistung einer 2080 Ti und darüber mit dem 3700X bzw einem i7 9700K kreuzen. Ergo werden diese beiden CPUs IMMER im GPU Limit verweilen. Wirklich immer. Was bringen mir die 720p Tests? Und nochmals, es ist keine Messungenauigeit, in 720p limitiert teils der Treiber der Grafikkarte, vor allem bei nV zu sehen. Das ist Fakt und muss einbezogen werden.
Noch eine Sache zu den Intel Benches, die du kritisierst: Stixhwort Spectre und Co, Patches, neues Windows, andere bzw. neuere Games, etc.
dildo4u
2019-07-07, 23:15:32
Die Kingdom Come Performance wurde durch Patches verbessert daher ist es nicht mehr Vergleichbar.
Das wird jetzt GPU Limitierter sein.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12040737&postcount=1233
Snoopy69
2019-07-07, 23:16:51
So ein Schwachsinn. Meide die Stelle wo die Information herkam.
Von heise.de... :confused:
https://www.heise.de/newsticker/meldung/AMD-Prozessor-Ryzen-3000-Ab-7-Juli-auf-Intel-Jagd-ab-September-auch-mit-16-Kernen-4443362.html
Insgesamt acht Ryzen-3000-Prozessoren stellt AMD für den Sockel AM4 vor. Neben den bereits von der Computex bekannten Ryzen-9-, -7- und -5-Modellen ist der zuvor von den Gerüchteköchen angebotene Sechzehnkerner Ryzen 9 3950X sowie zwei Ryzen-APUs mit integrierter Grafik dabei. Diese basieren allerdings noch auf der Zen-Architektur und sind eigentlich Ryzens zweiter Generation, was AMD auch nicht zu verstecken versucht.
Oder ist damit lediglich die APU in zweiter Generation gemeint? Dann hab ich das falsch interpretiert...
M4xw0lf
2019-07-07, 23:18:30
Von heise.de... :confused:
https://www.heise.de/newsticker/meldung/AMD-Prozessor-Ryzen-3000-Ab-7-Juli-auf-Intel-Jagd-ab-September-auch-mit-16-Kernen-4443362.html
Wegen der integrierten Grafik kann es wohl nicht sein, oder?
Die Formulierung ist zweideutig, bezieht sich aber nur auf die APUs.
Linmoum
2019-07-07, 23:20:48
Das macht doch kaum einen Unterschied, welche Spiele das sind.:rolleyes:Also zu der Aussage fällt einem wirklich nichts mehr ein.
Aber gut, kannst ja mal BFV und Witcher 3 benchen, am besten mit 4C. Und dann nochmal herkommen und sagen, dass die Spiele ja quasi egal sind.
Stretcher
2019-07-07, 23:21:22
Was hat CB denn gemacht, dass sie auf einmal im GPU-Limit sind? War ja vorher schon 1080p und die GPU ist auch nicht langsamer geworden.
Garantiert ein Windows Performanceproblem mit dem Testrechner, was 9900K Performance teilweise um über 20% im Vergleich zum letzten Test killt, aber den 9400F unerührt lässt. Vermutlich haben sie die 9900K Werte zuletzt vermessen.
Die CPU ist oft langsamer als ein 8700K, das ist nicht möglich. Aber wie immer haben sie die Werte trotzdem rausgehauen, für die Klicks und werden sie dann nach Monaten revidieren.
Wenn man wirklich alle GPU Limits eliminieren möchte, müsste man heute auf alle Reviews von Skylake und Ryzen verzichten. Selbst in 720p gibt es teilweise GPU Limits. Aber das will ja wohl keiner.
Ne, man kann auch 1080p nehmen, nur halt erstens ein ordentliches Spiel wählen (zum Beispiel nicht Resident Evil oder F12018) wo auch CPU Power gefragt ist, Far Cry 5 ist ja zum Bleistift ganz gut und eben mal ein bisschen seine Erfahrung spielen lassen. Ich meine wie kann ich es anstellen in Anno 1800 kein Savegame zu finden, in dem der Prozessor limitiert? :freak: Das ist schon schwer, sowas zu schaffen. Ich glaube aber eher deren Testsystem hat nen Schuss weg.
Die Kingdom Come Performance wurde durch Patches verbessert daher ist es nicht mehr Vergleichbar.
Das wird jetzt GPU Limitierter sein.
Und die des 9900K ist auch angestiegen, und nicht gefallen, wie im CB Test.
Also belegt Marc von Golem genau das. Da stinkt was.
KCD ist ein Spiel das von Threads und Takt noch profitiert. Der 9900K kann dort niemals langsamer sein als ein 8700K wie bei CB.
Naja, sollen sie halt mal die Fehler finden. Ich guck jetzt Stranger Things.
Also zu der Aussage fällt einem wirklich nichts mehr ein.
Jo, 9900K ist langsamer als ein 8700K, save.
Daneben ist auch ein 9400F regelmässig auf 9900K Niveau.
Kannst du deiner Oma erzählen, dass dies so sei.:rolleyes:
Spannend wie groß die Bereitschaft bei dir ist, Quatsch zu schreiben, nur um recht zu behalten. EOD + Ignore.
Snoopy69
2019-07-07, 23:21:32
Die Formulierung ist zweideutig, bezieht sich aber nur auf die APUs.
Zum Glück...
Will im September keine alte CPU kaufen :ulol:
Ravenhearth
2019-07-07, 23:23:14
del
Linmoum
2019-07-07, 23:23:57
Garantiert ein Windows Performanceproblem mit dem Testrechner, was 9900K Performance teilweise um über 20% im Vergleich zum letzten Test killt, aber den 9400F unerührt lässt. Vermutlich haben sie die 9900K Werte zuletzt vermessen.
Die CPU ist oft langsamer als ein 8700K, das ist nicht möglich. Aber wie immer haben sie die Werte trotzdem rausgehauen, für die Klicks und werden sie dann nach Monaten revidieren.
Würde es ein Performanceproblem sein, dann tritt das garantiert nicht nur bei einer CPU auf.
dildo4u
2019-07-07, 23:25:33
Deswegen setzt sich der 9900k dort nicht mehr ab.
Die Kingdom Come Performance wurde durch Patches verbessert daher ist es nicht mehr Vergleichbar.
Das wird jetzt GPU Limitierter sein.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12040737&postcount=1233
mczak
2019-07-07, 23:25:46
Was mich nur wundert sind die Recht zahmen Taktraten. War zwar bekannt im voraus aber das trotz OC an einem Beispiel nicht wirklich mehr ging ist komisch.
Also wenn ich mir da so die Summe aus Stromverbrauch, Spannungen, effektiven Taktraten und (kläglichen) OC-Versuchen ansehe, scheinen mir sowohl der 3700x wie auch der 3900x bei Default-Werten massiv über dem Sweetspot betrieben zu werden.
Schade dass 88W das neue 65W ist, ich denke diese CPUs wären auch bei ~25% geringerem Stromverbrauch höchstens 10% langsamer. Hat aber leider noch keiner getestet (genau so wie UV, das wäre auch interessant).
Snoopy69
2019-07-07, 23:36:00
Welches X570-MB würdet ihr eig. kaufen (wenn überhaupt)?
VRM mit Phasenverdopplung, oder zweifach parallel geschaltet, oder dreifach parallel geschaltet, oder 5-fach verknotet??? Da blickt man echt nicht durch...
https://geizhals.de/?cat=mbam4&xf=317_X570%7E493_4x+DDR4+DIMM
Was hier manche rumjaulen wegen 10%. Alle CPUs aus den Top 10 sind mehr als schnell genug. Und wenn man sieht, wie bei Anwendungen der 3700X den 9900K vernascht, dann kann man man nur feststellen, dass manche Spiele-Engines nur suboptimal programmiert sein müssen.
Ravenhearth
2019-07-07, 23:40:18
Vor allem sprechen Spiele auf andere Dinge an.
CompuJoe
2019-07-07, 23:47:05
Bin gespannt wie der 3900X auf meinem Prime X370-Pro rennt.
Bereits vorhanden:
https://geizhals.de/crucial-ballistix-sport-lt-rot-dimm-kit-32gb-bls2c16g4d32aese-bls2k16g4d32aese-a1971778.html?hloc=de
Liefertermin Mittwoch ^^
y33H@
2019-07-07, 23:47:25
Die Sache mit mehr Fps in 1080p statt 720p schaue ich mir morgen auf dem 3700X samt RTX 2080 Ti noch mal an, ist schon paar Monate (oder Jahre?) her zugegeben.
Dino-Fossil
2019-07-07, 23:52:50
Ist eigentlich außer bei HardwareLuxx und TomsHW noch irgendwo der seltsam niedrige Speicher-Schreibdurchsatz beim 3700X aufgetreten?
Auslesefehler oder BIOS-Problem? Copy war ja interessanterweise normal...
y33H@
2019-07-08, 00:01:41
Wir alle haben das beim 3700X gemessen, soll laut AMD so sein.
maximus_hertus
2019-07-08, 00:02:49
Ist eigentlich außer bei HardwareLuxx und TomsHW noch irgendwo der seltsam niedrige Speicher-Schreibdurchsatz beim 3700X aufgetreten?
Auslesefehler oder BIOS-Problem? Copy war ja interessanterweise normal...
Kein Fehler, dass ist generell beim Ryzen 3700 so.
CCX to IO Die read = 32bit, write "nur" 16bit breit.
maguumo
2019-07-08, 00:04:34
Ja, bei Anandtech steht's auch drin.
Deeper into the DRAM regions, however we see that AMD is still lagging behind Intel when it comes to memory controller efficiency, so while the 3900X improves copy bandwidth from 19.2GB/s to 21GB/s, it still remains behind the 9900K’s 22.9GB/s. The store bandwidth (write bandwidth) to memory is also a tad lower on the AMD parts as the 3900X reaches 14.5GB/s versus Intel’s 18GB/s.
https://www.anandtech.com/show/14605/the-and-ryzen-3700x-3900x-review-raising-the-bar/2
Ich hatte auch irgendwo eine Erklärung dazu gelesen, aber ich weiß nicht mehr wo. Irgendwas in Richtung nur die Leserate verbessert und die Schreibrate praktisch beim alten belassen da die nicht Performancekritisch ist.
pipin
2019-07-08, 00:06:34
Ist eigentlich außer bei HardwareLuxx und TomsHW noch irgendwo der seltsam niedrige Speicher-Schreibdurchsatz beim 3700X aufgetreten?
Auslesefehler oder BIOS-Problem? Copy war ja interessanterweise normal...
Ja, wir haben auch bei AMD nachgefragt. Das ist eine Designentscheidung. Alle Prozessoren mit nur einem Compute-Chiplet haben diese “Anomalie”.
https://www.planet3dnow.de/cms/47396-zen-2-amd-ryzen-7-3700x-und-ryzen-9-3900x-im-test/11/
Edit: Too late. Wurden ja schon 3 Antworten dazu gebeben. ;)
crux2005
2019-07-08, 00:09:26
Welches X570-MB würdet ihr eig. kaufen (wenn überhaupt)?
VRM mit Phasenverdopplung, oder zweifach parallel geschaltet, oder dreifach parallel geschaltet, oder 5-fach verknotet??? Da blickt man echt nicht durch...
https://geizhals.de/?cat=mbam4&xf=317_X570%7E493_4x+DDR4+DIMM
Habe noch kein X570 Board mit schlechter Spannungsversorgung gesehen.
Würde zu Asrock Taichi, GB Aorus Ultra, Asus E-Gaming oder MSI Gaming Pro Carbon greifen.
maximus_hertus
2019-07-08, 00:23:49
Die Sache mit mehr Fps in 1080p statt 720p schaue ich mir morgen auf dem 3700X samt RTX 2080 Ti noch mal an, ist schon paar Monate (oder Jahre?) her zugegeben.
Super Sache, wenn auch wohl nicht das ganz große / wichtige Ding :)
Ein älteres Posting zu der Thematik (2 Jahre her) =>
PCGH 05/2017, Seite 14, Battlefield 1 MP. Fps vom Ryzen 1800X in:
720p - 143,1 fps avg, 128 fps min
1080p - 144,4 fps avg, 128 fps min
1440p - 145,1 fps avg, 133 fps min
Das ganze lief auf einer Titan X Pascal.
Gleiche Grafikkarte bei Computerbase, Watch Dogs 2, 1800X.
720p - 61,9 fps
1080p - 63,9 fps
Je 2 fps avg, jedoch +5(!) fps beim Min (wobei ich mir nicht sicher bin, ob es sich dabei nicht schon um das 99% Perzentil handelt). Eigentlich unwichtig, aber z.B. BF1 -> je mehr Pixel, desto mehr fps? Selbst in 1440p?
Fast 3,3% Performancegewinn in Watch Dogs 2, nur durch erhöhen(!) der Auflösung? Es geht mir nicht um die 3,3%, jedoch um die "720p ist die einzige vernünftige Benchmark Auflösung".
Allgemeine Frage in die Runde:
Welche Spiele rennen den bei einer 2080 Ti in ein CPU Limit bei 1080p? Bevor man 150 oder gar 200+ fps erreicht. Wenn ein Spiel so viele JAhre auf dem Buckel hat und / oder Anspruchslos ist, dass man 200, 300 oder gar mehr fps erzielt, dann kann man es aus dem Parkour rausnehmen. Ja, der ein oder andere Profizocker wrd dann meckern. Aber für 95+% der Leser ist es irrelevant ob 350 oder 330 fps bei Strichmännchen XY unbekannt erreicht werden (imo).
Auf jeden Fall ein großes Dankeschön für deinen Einsatz bei golem und hier im Forum! Die golem Tests sind immer einer der ersten, die "konsumiert" werden :)
chaospanda
2019-07-08, 00:25:17
Mir fehlen ja noch Benches vom 3600X. Evtl. ist er nochmal eine günstigere Alternative zum 3700X.
Linmoum
2019-07-08, 00:25:39
Hier übrigens jemand, der bei drei BIOSen keinen Erfolg hatte, den Boost anliegen zu haben. Bei einem vierten lief's dann aber (was lustigerweise das älteste von allen war).
https://i2.wp.com/www.xanxogaming.com/wp-content/uploads/2019/07/X570-AORUS-XTREME-BIOS-F1-1.png
https://www.xanxogaming.com/reviews/amd-ryzen-9-3900x-review-en-espanol-destronando-al-intel-core-i9-9900k/#Problemas_con_el_lanzamiento_Codigo_AGESA_1003_y_errores_WHEA_PCI_Express_en_ta rjetas_NVIDIA_GeForce
Scheint also nicht an der CPU zu liegen, dass der Boost bei so gut wie keinem Review(er) zu sehen war.
ChristianTHB
2019-07-08, 00:28:33
Bin gespannt wie der 3900X auf meinem Prime X370-Pro rennt.
Bereits vorhanden:
https://geizhals.de/crucial-ballistix-sport-lt-rot-dimm-kit-32gb-bls2c16g4d32aese-bls2k16g4d32aese-a1971778.html?hloc=de
Liefertermin Mittwoch ^^
Auf die Kombination bin ich auch schon gespannt :biggrin:
Emil_i_Lönneberga
2019-07-08, 00:28:40
Bin gespannt wie der 3900X auf meinem Prime X370-Pro rennt.
Bereits vorhanden:
https://geizhals.de/crucial-ballistix-sport-lt-rot-dimm-kit-32gb-bls2c16g4d32aese-bls2k16g4d32aese-a1971778.html?hloc=de
Liefertermin Mittwoch ^^
Möglicherweise interessant: 3900X + X470 (X370), Speichertakt & Timings beim 3900X, PCIe 4.0 vs. 3.0:
https://www.techpowerup.com/review/amd-ryzen-3900x-3700x-tested-on-x470/
https://www.techpowerup.com/review/amd-zen-2-memory-performance-scaling-benchmark/
https://www.techpowerup.com/review/pci-express-4-0-performance-scaling-radeon-rx-5700-xt/
dargo
2019-07-08, 01:14:30
Hier übrigens jemand, der bei drei BIOSen keinen Erfolg hatte, den Boost anliegen zu haben. Bei einem vierten lief's dann aber (was lustigerweise das älteste von allen war).
https://i2.wp.com/www.xanxogaming.com/wp-content/uploads/2019/07/X570-AORUS-XTREME-BIOS-F1-1.png
https://www.xanxogaming.com/reviews/amd-ryzen-9-3900x-review-en-espanol-destronando-al-intel-core-i9-9900k/#Problemas_con_el_lanzamiento_Codigo_AGESA_1003_y_errores_WHEA_PCI_Express_en_ta rjetas_NVIDIA_GeForce
Scheint also nicht an der CPU zu liegen, dass der Boost bei so gut wie keinem Review(er) zu sehen war.
Was ein Chaos. Was heißt das nun konkret? Alle Reviews für die Katz weil die CPU zu niedrig taktete? :freak:
Linmoum
2019-07-08, 01:20:50
Keine Ahnung, was das generell für den Takt heißt. Volker meinte ja, dass es Freitag noch ein neues BIOS mit (primär) OC-Bugfixes gab. Das hatten sie aber nicht weiter genutzt weil OC halt weniger relevant war für das Review als anderes.
Wird man schauen müssen.
Hammer des Thor
2019-07-08, 01:27:01
Das macht doch kaum einen Unterschied, welche Spiele das sind.:rolleyes:
Takt gewinnt immer, egal ob das Spiel nun wenige Kerne oder mehr Kerne befeuert.:redface: Und nein der 9900K bietet mehr als 10% mehr Takt als ein 9400F.
Dann hätten ja die FX Bulldozer mit ihren hohen Taktraten alle Intel in Spielen schlagen müssen!
Sorry aber diese Vorstellung von Laien war schon in den 90ern widerlegt, wo ein 25 MHZ 486er schneller war als ein 386er mit mit 33 MHZ!
Sweepi
2019-07-08, 01:28:02
Ich denke es sehr schwierig, die Spielperformance final zu beurteilen.
https://www.tomshw.de/2019/07/07/amd-ryzen-3900x-und-3700x-im-test-igorslab/5/
https://www.anandtech.com/show/14605/the-and-ryzen-3700x-3900x-review-raising-the-bar/2
zeigen das mal AMD, mal Intel vorne liegt bzgl. Speicher Latenzen und Durchsatz (overrall liegt Intel häufiger vorne, aber das kann völlig egal sein, wenn z.B. die Größe des L3 ausschlaggebend ist)
Daraus folgt für mich folgendes:
1. Benchmarkresultate können sich noch viel mehr als sonst zwischen verschiedenen Reviewern unterscheiden, ohne das einer von beiden "falsch" liegt.
2. 720p Benchmarks lassen keine Rückschlüsse auf die Performance im Regelbetrieb zu. Du musst das benchen, was das Target ist. Es kann durchaus sein, dass in 720p die Größe des L3 Cache - und in 1440p die Latenz des RAMs der limitierende Faktor ist, was in 720p AMD und in 1440p Intel bevorzugen würde (und natürlich jegliche denkbare andere Kombination).
720p ist nunmehr nicht "messen im CPU Limit" sondern "messen in irgendeinen Limit außer GPU"
Hammer des Thor
2019-07-08, 01:32:29
Damit ist AMD wirklich wieder etwas gelungenn. Der 12- und 16-Kerner sind vermutlich aktuell eher nutzlos bei einem Spiele-PC, aber die 8-Kerner liefern ganz ordentlich ab.
Es bleibt nur zu hoffen, dass AMD daraus etwas Gewinn erwirtschaften kann. Der Retailmarkt ist ja recht klein und die großen OEMs werden sich nicht so viel für 3rd Gen. Rizen interessieren.
:(
Du vergisst den Servermarkt und Rome mit 64 Kernen wird knallen, Amazon hat für AWS Rome Zen 2 bestellt in, Stutttgard ist ein Superrechner mit 640.000 Zen 2 Kernen mit Rome-CPUs geplant.
[MK2]Mythos
2019-07-08, 01:53:08
Du vergisst den Servermarkt und Rome mit 64 Kernen wird knallen, Amazon hat für AWS Rome Zen 2 bestellt in, Studtgard ist ein Superrechner mit 640.000 Zen 2 Kernen mit Rome-CPUs geplant.
Sorry für Offtopic, aber was ist denn Studtgard? :ulol:
Edit, ich verstehe. Muss wohl am Nick liegen.;D
Hammer des Thor
2019-07-08, 02:01:00
Mythos;12042567']Sorry für Offtopic, aber was ist denn Studtgard? :ulol:
Edit, ich verstehe. Muss wohl am Nick liegen.;D
Ja, es ist spät, da habe nicht auf Rechtsschreibfehler geachtet!
SKYNET
2019-07-08, 02:02:15
Einige der Spiele Tests sind bei CB definitiv von der GPU limitiert, das lässt sich nicht abstreiten, zum Beispiel F1 2018. Damit ist es automatisch AMD freundlich, weil das immer der schnelleren gaming CPU am meisten wehtut, wird sie doch am stärksten limitiert. Außerdem haben sie die Intel nur mit DDR4-2666 getestet. Ok kann man testen, sie hätten aber zusätzlich wenigstens noch 1-2 der Intel mit DDR4-3200 vermessen können, weil eben kein zurechnungsfähiger 9900k Besitzer nur mit DDR4-2666 unterwegs ist. Spec hin oder her, das ist praxisfern in dem Fall.
gerne für dich auch: wenn die intels mit 3200er rennen, werden die AMDs mit 3733 1:1 C14 + subtimings ins rennen geschickt... gleiches recht für alle = +533MHz :P
weil auf AMD lässt ja auch niemand den speicher mit 2666, 2933 oder 3200 laufen, nur weis stock ist... na, klingelts?
btw. 99% aller rechner, laufen @ stock
SKYNET
2019-07-08, 02:08:35
Hier übrigens jemand, der bei drei BIOSen keinen Erfolg hatte, den Boost anliegen zu haben. Bei einem vierten lief's dann aber (was lustigerweise das älteste von allen war).
https://i2.wp.com/www.xanxogaming.com/wp-content/uploads/2019/07/X570-AORUS-XTREME-BIOS-F1-1.png
https://www.xanxogaming.com/reviews/amd-ryzen-9-3900x-review-en-espanol-destronando-al-intel-core-i9-9900k/#Problemas_con_el_lanzamiento_Codigo_AGESA_1003_y_errores_WHEA_PCI_Express_en_ta rjetas_NVIDIA_GeForce
Scheint also nicht an der CPU zu liegen, dass der Boost bei so gut wie keinem Review(er) zu sehen war.
evtl. garnicht so schlecht das der 3900X 2 wochen lieferfrist hat hier X-D
und trotzdem hasse ich warten :frown:
Ich denke es sehr schwierig, die Spielperformance final zu beurteilen.
https://www.tomshw.de/2019/07/07/amd-ryzen-3900x-und-3700x-im-test-igorslab/5/
https://www.anandtech.com/show/14605/the-and-ryzen-3700x-3900x-review-raising-the-bar/2
Anandtech testet im GPU Limit und tomshw testet nur 2 Spiele, wo ein Spiel davon auch von der GPU ausgebremst wird.
Man kann sich ein Bild machen, man muss es nur richtig rausfiltern können. Ich würde von einem 15% Vorsprung vom 9900k gegenüber dem 3700x mit gleichen RAM sprechen. Das zeigt sich in den Tests ohne offensichtliches GPU Limit bzw. bei einigen wie der PCGH oder CB muss man noch mit beachten, dass die Intel 10% durch den langsameren Speicher verlieren.
Und nun? Geht Dir nun einer ab, weil Intel ein paar unwichtige Prozente schneller ist?
(del)
2019-07-08, 03:45:17
Man kann sich ein Bild machen, man muss es nur richtig rausfiltern können. Ich würde von einem 15% Vorsprung vom 9900k gegenüber dem 3700x mit gleichen RAM sprechen. Das zeigt sich in den Tests ohne offensichtliches GPU Limit bzw. bei einigen wie der PCGH oder CB muss man noch mit beachten, dass die Intel 10% durch den langsameren Speicher verlieren.
Ja Intel ist in ein paar Spielen minimal schneller.
Dafür ist Ryzen anderen Spielen schneller als als ein 9900K
Und nun?
Fakt ist doch das AMD mit der Ryzen 3000 Serie einfach die besseren Produkte hat.
Spiele laufen im Schnitt genau so gut wie auf einem 9900K und sobald auch nur ein Workload daher kommt der mehr verlangt wie Spielen z.b und gleichzeitig Streamen oder Productivity hat Intel das Nachsehen.
Da kann man schön reden so viel man will.
Intel muss jetzt halt nachlegen.
Und Intel hat einfach derzeit nichts was es mit einem 3900X und sicher erst recht nicht mit einem 3950X aufnehmen kann.
Warte mal ab bis die Threadripper 3000 Serie kommt.
Das wird noch richtig ungemütlich für Intel.
denjudge
2019-07-08, 06:56:47
Ich denke es sehr schwierig, die Spielperformance final zu beurteilen.
https://www.tomshw.de/2019/07/07/amd-ryzen-3900x-und-3700x-im-test-igorslab/5/
https://www.anandtech.com/show/14605/the-and-ryzen-3700x-3900x-review-raising-the-bar/2
zeigen das mal AMD, mal Intel vorne liegt bzgl. Speicher Latenzen und Durchsatz (overrall liegt Intel häufiger vorne, aber das kann völlig egal sein, wenn z.B. die Größe des L3 ausschlaggebend ist)
Daraus folgt für mich folgendes:
1. Benchmarkresultate können sich noch viel mehr als sonst zwischen verschiedenen Reviewern unterscheiden, ohne das einer von beiden "falsch" liegt.
2. 720p Benchmarks lassen keine Rückschlüsse auf die Performance im Regelbetrieb zu. Du musst das benchen, was das Target ist. Es kann durchaus sein, dass in 720p die Größe des L3 Cache - und in 1440p die Latenz des RAMs der limitierende Faktor ist, was in 720p AMD und in 1440p Intel bevorzugen würde (und natürlich jegliche denkbare andere Kombination).
720p ist nunmehr nicht "messen im CPU Limit" sondern "messen in irgendeinen Limit außer GPU"
Wichtiger Beitrag! Sehe ich genauso. Das lapidare "Wir messen die Spiele-Leistung in 720p, um herauszufinden welche CPU schneller ist" ist einfach überholt. Das müsste jetzt nur noch in die Köpfe.
Niall
2019-07-08, 07:30:21
Zumal diese Diskussion ja nicht neu ist, so richtig was getan hat sich leider immer noch nicht. :freak:
Rancor
2019-07-08, 07:45:50
Ja Intel ist in ein paar Spielen minimal schneller.
Dafür ist Ryzen anderen Spielen schneller als als ein 9900K
Und nun?
Fakt ist doch das AMD mit der Ryzen 3000 Serie einfach die besseren Produkte hat.
Spiele laufen im Schnitt genau so gut wie auf einem 9900K und sobald auch nur ein Workload daher kommt der mehr verlangt wie Spielen z.b und gleichzeitig Streamen oder Productivity hat Intel das Nachsehen.
Da kann man schön reden so viel man will.
Intel muss jetzt halt nachlegen.
Und Intel hat einfach derzeit nichts was es mit einem 3900X und sicher erst recht nicht mit einem 3950X aufnehmen kann.
Warte mal ab bis die Threadripper 3000 Serie kommt.
Das wird noch richtig ungemütlich für Intel.
Naja das kann man so jetzt nicht sagen. Es ist nach wie vor so, das wenn jemand maximale Gaming Performance haben will, er zum 9900k greifen muss, denn man darf nicht vergessen, das die CPU auch 5GHZ @ AllCore läuft uns somit nochmal ca. 10 % schneller ist als Stock.
Trotzdem halte ich die Ryzen CPUs insgesamt fürs bessere Paket. Falls es stimmen sollte, das der Max Boost durch einen aktuellen AGESA Bug nicht erreicht werden kann, dann kann es auch sein, das der Vorsprung von Intel nochmal schrumpft.
Ich hatte, nach den ganzen Leaks im Vorfeld, aber schon erwartet, das da nen bischen mehr Gaming Performance rumkommt.
Armaq
2019-07-08, 08:03:08
AMD hat es hoffentlich nicht wieder geschafft den Start zu verkacken, indem sie Testern keine vernünftigen Versionen geschickt haben ...
Das die CPUs nicht boosten ist schon ungewöhnlich, der 2700x wurde für sein Boostverhalten gelobt und hier finden sich in Tests diverse Interpretationen samt Taktwall bei rund 4300 Mhz.
Ich versteh nicht warum man sich über die Standardtests hier beschwert? War doch im Forum die Diskussion Standard vs Standard und Max vs Max. Wer mehr Zeit investiert und optimiert bekommt bessere Performance, das ist nun wirklich nicht neu. Ich hoffe die Redaktionen können im Verlauf des Montags bei AMD nachfassen und sie fragen, ob ihre Tests für die Tonne waren. ;)
Schnoesel
2019-07-08, 08:26:29
Finde ich irgendwie auch seltsam. Die ganzen Reviews decken sich eigentlich mit der Performance die AMD angekündigt hat (ca. 9900k lvl bzw. etwas darunter) und bei PBO kündigen sie plötzlich etwas an das nicht mal ansatzweise der Realität entspricht? Na mal sehen ob sich das aufklären lässt. Nicht dass ich denke dass die paar Mhz einen großen Unterschied machen aber die Redaktionen sollte da wirklich nochmal nachfragen warum die Diskrepanz so groß ist.
Rancor
2019-07-08, 08:27:49
Vor allem das der Boost halt garnicht erreicht wird, ist schon seltsam. Bei den bisherigen Ryzens war das ja noch der Fall.
Armaq
2019-07-08, 08:29:34
Vor allem das der Boost halt garnicht erreicht wird, ist schon seltsam. Bei den bisherigen Ryzens war das ja noch der Fall.
Es wäre schon ein Armutszeugnis, wenn mit einem weiteren BIOS Update auf einmal die Boost-Taktraten anliegen ...
Ab Donnerstag kann ich meine eigene Kiste kaputt flashen. :D
dildo4u
2019-07-08, 08:32:43
Finde ich irgendwie auch seltsam. Die ganzen Reviews decken sich eigentlich mit der Performance die AMD angekündigt hat (ca. 9900k lvl bzw. etwas darunter) und bei PBO kündigen sie plötzlich etwas an das nicht mal ansatzweise der Realität entspricht? Na mal sehen ob sich das aufklären lässt. Nicht dass ich denke dass die paar Mhz einen großen Unterschied machen aber die Redaktionen sollte da wirklich nochmal nachfragen warum die Diskrepanz so groß ist.
Die AMD Benches sind halt GPU Limitierter,sie werden keine 2080 Ti genutzt haben.
Rancor
2019-07-08, 08:35:40
Es wäre schon ein Armutszeugnis, wenn mit einem weiteren BIOS Update auf einmal die Boost-Taktraten anliegen ...
Ab Donnerstag kann ich meine eigene Kiste kaputt flashen. :D
Mangels Bios für mein B350 Tomahawk kann ich leider garnix machen zur Zeit :/
MiamiNice
2019-07-08, 08:39:33
Sollte es nicht egal mit den Bios? Laut dem Bauer laufen die Teile eh am Limit. PDO hin oder her, da ist nichts mehr zu holen.
Grendizer
2019-07-08, 08:40:31
Sollte es nicht egal mit den Bios? Laut dem Bauer laufen die Teile eh am Limit. PDO hin oder her, da ist nichts mehr zu holen.
Speicher läuft dann aber wohl nur mit 2.133 Mhz,
Lowkey
2019-07-08, 08:40:46
Strange, aber für mein MSI ist ein Update raus.
Rancor
2019-07-08, 08:42:38
Sollte es nicht egal mit den Bios? Laut dem Bauer laufen die Teile eh am Limit. PDO hin oder her, da ist nichts mehr zu holen.
Es geht ja um den 1 oder 2 Core Boost, selbst da wird das nicht erreicht, was imho, sollte es kein Bug sein, an Lächerlichkeit kaum noch zu überbieten sein dürfte :biggrin:
gbm31
2019-07-08, 08:44:50
Hier übrigens jemand, der bei drei BIOSen keinen Erfolg hatte, den Boost anliegen zu haben. Bei einem vierten lief's dann aber (was lustigerweise das älteste von allen war).
https://i2.wp.com/www.xanxogaming.com/wp-content/uploads/2019/07/X570-AORUS-XTREME-BIOS-F1-1.png
https://www.xanxogaming.com/reviews/amd-ryzen-9-3900x-review-en-espanol-destronando-al-intel-core-i9-9900k/#Problemas_con_el_lanzamiento_Codigo_AGESA_1003_y_errores_WHEA_PCI_Express_en_ta rjetas_NVIDIA_GeForce
Scheint also nicht an der CPU zu liegen, dass der Boost bei so gut wie keinem Review(er) zu sehen war.
Vielleicht weil man sich endlich an gewisse Grenzen halten möchte, die eigentlich schon länger gesteckt sind?
Bzw halten muss wegen der neuen Architektur?
Jedenfalls ist es bei meinem B450M so, dass mit alten BIOS Versionen der 2700x mit PBO locker über 160W ziehen darf (EDC 168A), einfach mit Aktivierung von PBO im BIOS.
Mit den neuen BIOSsen für Matisse hält sich der 2700x an de 140A für EDC, was ein bisschen über 120W ergibt.
Erst mit manueller Aktivierung via Ryzen Master lässt sich die 140A Begrenzung auf 168 anheben, und der 2700x geht wieder wie früher.
Aber man muss die (die Garantie verwerfende) Funktion jedes mal wieder neu bestätigen und händisch aktivieren.
Wenn das kein Bug einer frühen Version ist, könnte das auch eine Schutzfunktion für die feineren Strukturen sein? Oder für die Boards mit "unterdimensionierten" VRM (unterdimensioniert für die verlangte Leistung in Zukunft, wenn alle Lanes genutzt werden sollten, bevor AM4 abgelöst wird).
So mit dem Prozessortod bei DF im Hinterkopf...
Rancor
2019-07-08, 08:46:18
Falls du recht hast bleibt nur die Frage warum AMD dann mit Taktraten wirbt, die niemals erreicht werden?
Schnoesel
2019-07-08, 08:49:34
Oder nur von einigen wenigen erreicht werden (siehe vorherigen Screenshot) mit genau einem einzigen BIOS.
elhomomomo
2019-07-08, 08:50:26
Gab es Tests, bei denen die Games auf ein Chiplet bei dem 3900x gepinnt wurden? Habe das bisher nur kurz angeschitten bei Linusblablubb auf YT gesehen. Hier wurde bei einem Game (BF?) so die Performance noch weiter erhöht. Ggf ist der Windowsscheduler noch verbugged?
gbm31
2019-07-08, 08:50:32
Falls du recht hast bleibt nur die Frage warum AMD dann mit Taktraten wirbt, die niemals erreicht werden?
Vielleicht ist die manuelle Aktivierung von PBO via Master gewollt (wegen Garantie und Transparenz bei Benches nach dem 95W Debakel des...) und die ganzen Reviewer haben das vergessen?
stav0815
2019-07-08, 08:51:39
Falls jemand nicht warten kann/will:
Arlt hat in jeder Filiale welche auf Lager - sofort abholbereit.
Vom Preis her tatsächlich ok (R5 3600 für 209€ + Gutschein = 202,73 - damit sogar Bestpreis!)
https://abload.de/thumb/r53600hoj6k.png (https://abload.de/image.php?img=r53600hoj6k.png)
dildo4u
2019-07-08, 08:53:06
12 Core auf einem billigen B350 gebootet(AB350 Gaming K4),läuft erstmal.
https://youtu.be/vpYiJ9h05JM
M4xw0lf
2019-07-08, 09:00:18
Hat sich irgendein Test auch mit dem Ryzen Master beschäftigt? Vielleicht gibts da noch smartere Optionen für PBO, wie zb anpassbare Spannung für die Boost-Taktraten - iirc konnte man das ja alles individuell für jeden Kern ausloten und festlegen.
Dass das automatisch überhaupt nicht funktioniert, scheint ja an thermischen Limits zu liegen, die bei der hohen Spannung sofort erreicht/geknackt werden.
Radeonfreak
2019-07-08, 09:01:20
12 Core auf einem billigen B350 gebootet(AB350 Gaming K4),läuft erstmal.
https://youtu.be/vpYiJ9h05JM
Sehr gute Nachrichten.
gbm31
2019-07-08, 09:03:18
Hat sich irgendein Test auch mit dem Ryzen Master beschäftigt? Vielleicht gibts da noch smartere Optionen für PBO, wie zb anpassbare Spannung für die Boost-Taktraten - iirc konnte man das ja alles individuell für jeden Kern ausloten und festlegen.
Dass das automatisch überhaupt nicht funktioniert, scheint ja an thermischen Limits zu liegen, die bei der hohen Spannung sofort erreicht/geknackt werden.
So kompliziert muss man gar nicht ran.
Ryzen Master starten, in einem Profil die PBO-Grenzwerte für PPT EDC und TDC hochsetzen (z.B. 300W, 168A, 114A) und aktivieren.
Fertig.
BlacKi
2019-07-08, 09:08:28
Falls du recht hast bleibt nur die Frage warum AMD dann mit Taktraten wirbt, die niemals erreicht werden?
wie meinst du das?
https://abload.de/img/gnnhkes.png
https://abload.de/img/gncgkv3.png
M4xw0lf
2019-07-08, 09:09:11
So kompliziert muss man gar nicht ran.
Ryzen Master starten, in einem Profil die PBO-Grenzwerte für PPT EDC und TDC hochsetzen (z.B. 300W, 168A, 114A) und aktivieren.
Fertig.
Darum gings mir nicht, sondern darum, die besten Kerne identifizieren, und nur denen die hohen Boostclocks zuzuweisen, bzw bei denen die Frequenz/Spannungs-Kurve zu optimieren, sodass der Boost auch wirklich anliegen kann.
blood_spencer
2019-07-08, 09:11:17
Strange, aber für mein MSI ist ein Update raus.
Für mein B350m Gaming Pro gab es bis vor kurzem noch ein Beta BIOS für Zen2, das wurde aber wieder zurückgezogen (sind wohl noch weitere Modelle betroffen).
Da gibt es anscheinend noch Entwicklungsbedarf. Mal sehen ob und wann sie eine finale Version nachschieben.
BlacKi
2019-07-08, 09:24:44
12 Core auf einem billigen B350 gebootet(AB350 Gaming K4),läuft erstmal.
https://youtu.be/vpYiJ9h05JM
das asrock ab320 pro4 scheint auch dieselbe agesa zu haben mit der selben formulierung für next gen.
Rancor
2019-07-08, 09:27:03
wie meinst du das?
https://abload.de/img/gnnhkes.png
https://abload.de/img/gncgkv3.png
Hmm. Das ist alles so ein durcheinander.
Ich dachte die Max Boost Clocks werden nicht erreicht, auch nicht bei einzelnen Kernen.
Darum geht es doch die ganze Zeit? Das die ALL Core ( ohne OC ) nicht erreicht werden war ja von Anfang an klar. Das bei Zen 2 keinerlei sinnvolles OC möglich ist, ist natürlich jetzt dumm.
seba86
2019-07-08, 09:27:42
Vor allem der Ryzen 3900X bzw. 3950X wird locker 2stellige Jahreszahlen reichen bzw. eher den Alterstod sterben als dass man ihn aus Performance-Gründen auswechseln wird. Ähnlich wie der Q6600, der schon 12 Jahre alt ist.
Ich habe noch einen Q6600. Selbst in der default-Taktung mit 2.4 Ghz reicht er für 1440p AV01 Youtube (also Mainstream), ohne dass alle Kerne voll ausgelastet werden. Braucht zum booten, vlt. 5s länger als ein Ryzen 2000er.. sonst merkt ein 0815 Anwender keinen Unterschied zu topaktuellen Systemem (Ryzen 2600, i5 9400F u.ä.)...
Komplette Systeme mit 4GB, 500GB und GTX 460 sind selbst für 30-40 € schwer verkäuflich, insofern habe ich den verschenkt -.-
nairune
2019-07-08, 09:29:23
Einige scheinen den Boost zu meinen, andere dass PBO keine 200 MHz drauf packt.
Wo genau existiert jetzt das Problem mit der BIOS Version?
Linmoum
2019-07-08, 09:33:10
Dass die CPUs nicht auf ihren Boost kommen, also z.B. 4.6GHz beim 3900X.
Liegt am BIOS bzw. AGESA, mit 1.0.0.3 gibt's scheinbar Probleme, bei 1.0.0.2 nicht.
Schnoesel
2019-07-08, 09:34:10
Also laut Jan liegt es wohl auch? am Chipsatztreiber ob er boostet oder nicht:
https://www.computerbase.de/forum/threads/amd-ryzen-3000-im-test-das-ist-die-kroenung.1880423/page-81#post-22845226
Ohne diesen boostet die CPU wohl nicht so häufig. Er verweist auf diesen Test:
https://www.computerbase.de/2019-07/amd-ryzen-3000-test/2/#abschnitt_softwareoptimierungen_fuer_ryzen_3000
Tigershark
2019-07-08, 09:42:03
Hat eigentlich noch keiner was zu den halbierten Write-werten bei Zen2 gesagt oder habe ich das überlesen (halbiert ggü. Zen1 und Zen+)?
gbm31
2019-07-08, 09:46:13
Hat eigentlich noch keiner was zu den halbierten Write-werten bei Zen2 gesagt oder habe ich das überlesen (halbiert ggü. Zen1 und Zen+)?
Hast du überlesen - Design-Entscheidung für CPUs mit nur einem CCX
Tigershark
2019-07-08, 09:50:38
Ja, das hatte ich im Video von ich glaube Hardware unboxed gesehen, aber was bedeutet das zb für den 3900x und sind die Auswirkungen wirklich so gering? Sieht ja einfach erst mal kaputt aus, wenn man den Memory bench anschaut...:-)
Flusher
2019-07-08, 09:54:28
12 Core auf einem billigen B350 gebootet(AB350 Gaming K4),läuft erstmal.
https://youtu.be/vpYiJ9h05JM
Wie siehts eigentlich aus mit PB 2.0 und PBO? Wird das von den alten Brettern unterstützt?
BlacKi
2019-07-08, 10:00:02
hat jemand gaming benchmarks mit ram oc gesehen die über 3600mhz takten? skaliert die performance noch mit oder bricht die leistung dann zusammen?
MSABK
2019-07-08, 10:02:54
Ich verstehe die Diskussion um 720p nicht. Ich meine wer spielt den in dieser Auflösung. Die meisten haben doch FHD oder sogar mehr. Da sehe ich mir doch lieber die Tests in dieser Auflösung an. Wenn da die CPUs ähnlich schnell sind dann kann mir doch 720p egal sein.
Hier https://www.techpowerup.com/review/amd-zen-2-memory-performance-scaling-benchmark/
gbm31
2019-07-08, 10:08:25
Ich verstehe die Diskussion um 720p nicht. Ich meine wer spielt den in dieser Auflösung. Die meisten haben doch FHD oder sogar mehr. Da sehe ich mir doch lieber die Tests in dieser Auflösung an. Wenn da die CPUs ähnlich schnell sind dann kann mir doch 720p egal sein.
Och Leute.
Irgendwie muss man doch die CPU Leistung vergleichen.
Und ein Ansatzpunkt ist halt, die Anforderungen an die Grafikkarte so weit zu reduzieren, dass der Einfluss minimiert wird.
Aber vollständig ausschließen lässt er sich nicht. Bzw ist es auch so dass oft eine höhere Grafikeinstellung bei manchen Engines auch höhere Anforderungen an der Prozessor mit sich bringt.
Daher sind die Ergebnisse nicht zu pauschalisieren, und spiegeln eher Tendenzen wider.
Und deswegen sind auch(!) Tests bei üblichen Voraussetzungen wichtig, damit man sieht, wie der Einfluss im Alltag aussehen wird.
Damit kann sich jeder seinen Vorteil einer evtl. Neuanschaffung rausziehen.
Aber für Fanboys gibt das anscheinend immer wieder genug Futter, um über nicht spürbare Differenzen zu streiten. Mit einem Eifer und einer Loyalität, die mir immer unverständlicher wird - meine Ignore wächst in letzter Zeit immer mehr. Ich werde wohl alt und intolerant...
dildo4u
2019-07-08, 10:09:17
Erster Test eines 3600X.Top Gameing CPU,ich vermute mal der ist auf Level mit dem 3800X/3900X.
n0uB17Io2is
BlacKi
2019-07-08, 10:16:26
Hier https://www.techpowerup.com/review/amd-zen-2-memory-performance-scaling-benchmark/
danke. also doch keine alternative. vl noch mit fclock oc.
Piefkee
2019-07-08, 10:16:37
Sollte es nicht egal mit den Bios? Laut dem Bauer laufen die Teile eh am Limit. PDO hin oder her, da ist nichts mehr zu holen.
Bauer hat nicht das richtige AGESA benutzt beziehungsweise auch nicht das finale BIOS. Jan von CB hat schon im Forum bestätigt, dass mit die Ryzen den Boost nicht erreichen mit alten BIOS. Er besätgit das alle Ryzen die versprochenen Boost-Raten auch schaffen.
Alle CPUs im Test erreichen den maximalen Turbo in Ein-Kern-Lasten. Ohne den neuen Chipsatztreiber war das bei uns allerdings nur sehr selten der Fall, ja. Mit schon häufiger, siehe die deutlich besseren Single-Core-Ergebnisse. Aber in der Tat ist das bei Ryzen 3000 nicht mehr so wie von Intel (und alten AMD) bekannt: Single-Core-Last = in der Regel max Single-Core-Turbo, Dual-Core-Last = in der Regel alle Kerne auf einem x-Kern-Turbo. Ist das ein Bug, den man jetzt schon wieder über YT brüllen muss? Nein. Ist das etwas geschönt in den Unterlagen? Ansichtssache. Ist der neue Ryzen-3000-Turbo einfach anders als der alte? Ja.
Wenn ich mir die ganzen 205-Cinebench-R15-Ergebnisse des 3900X im Netz ansehe, liegt das Problem in meinen Augen aber vielerorts erst einmal am nicht genutzten Chipsatz-Treiber. Denn ohne hatten wir den Wert ja auch als Maximum, mit dann konstant 213 (mit deutlich häufiger an die 4,6 GHz Takt).
Mich hat vielmehr noch das Gegeier um Aufmerksamkeit mit geleakten Benchmarks oder mit Videos über geleakte Benchmarks genervt. Aber wenn sich alle auf einer Plattform treffen, wird's zwangläufig lauter und es kriegt nur noch der was ab, der richtig laut brüllt. Wir hatten einen R5 3600 am Freitag vor der Präsentation von AMD Ende Mai (!). Damals lief er schon auf dem X470, allerdings nur mit DDR4-2400 max etc. pp. Zu wissen, was das teilweise für Murks fabrizierte, und andere bauen auf der vergleichbaren Basis dann solche Wolkenkuckucksheime, hat richtig Puls verursacht.
nairune
2019-07-08, 10:17:56
Wurde schon irgendwo etwas UV angegangen? Das scheint mir mittlerweile wie bei den GPUs zielführender auf Grund der Boost-Mechanismen. Die Spannung auf den meisten Screenshots sieht ja recht kräftig aus, mglw. hilft da ein Offset Wunder.
dargo
2019-07-08, 10:24:47
Sollte es nicht egal mit den Bios? Laut dem Bauer laufen die Teile eh am Limit. PDO hin oder her, da ist nichts mehr zu holen.
Der Typ testete keine Games sondern ließ alle Cores mit max. Last laufen. Solange die CPU bei Teillast (Games) betrieben wird sollte sie auch höher boosten.
12 Core auf einem billigen B350 gebootet(AB350 Gaming K4),läuft erstmal.
https://youtu.be/vpYiJ9h05JM
Cool... ein weiterer Beweis. Kann man schon sagen jedes Board bootet mit einem älteren Bios und der neuen CPU oder ist es dafür noch zu früh?
M4xw0lf
2019-07-08, 10:28:55
Erster Test eines 3600X.Top Gameing CPU,ich vermute mal der ist auf Level mit dem 3700X/3900X.
https://youtu.be/n0uB17Io2is
Intels Lineup vom 9900K abwärts -und aufwärts- ist obsolet. Sprich: der 9900K ist Intels einziger (Desktop)Prozessor, der noch einen unique selling point hat.
Legendenkiller
2019-07-08, 10:29:23
Also erstmal sehr nice was AMD da gemacht hat. Super Allrounder mit guter P/L.
Ich finde die Disskusionen über Gaming CPU aber immer etwas komisch.
Solange man keine 700€+ Graka im System hat sind die "besten" Gaming CPUs sind aktuelle der R5-2600 und I5-8400 :-)
Preislimit CPU+Graka = 500€
-> R5-2600 + 1660TI >> irgendwas
Preislimit CPU+Graka = 1000€
R5-2600X+2080 > I9900+2070 außer FullHD 144hz lowdetail Fetischisten ;-)
Über I9-9900 vx. 3700X/3900X braucht man sich als bester Gaming CPU eigentlich nur streiten wenn man eine 2080TI im Rechner und keinerlei Preislimits hat.
Rancor
2019-07-08, 10:36:18
Erster Test eines 3600X.Top Gameing CPU,ich vermute mal der ist auf Level mit dem 3800X/3900X.
https://youtu.be/n0uB17Io2is
Es ist allerdings schon beeindruckend das er selbst einen 5 GHZ 8700k in manchen Workloads hinter sich lässt, bzw gleich zieht. Könnte man diese Leistung nur auch in Games abrufen.
BlacKi
2019-07-08, 10:37:03
Also erstmal sehr nice was AMD da gemacht hat.
Ich finde die Disskusionen über Gaming CPU aber immer etwas komisch.
Solange man keine 700€+ Graka im System hat sind die "besten" Gaming CPUs sind aktuelle der 2600 und I5-8400 :-)
Preislimit CPU+Graka = 500€
-> R2600 + 1660TI >> irgendwas
Preislimit CPU+Graka = 1000€
R2600X+2080 > I9900+2070 außer FullHD 144hz lowdetail Fetischisten ;-)
Über I9-9900 vx. 3700X/3900X braucht man sich als bester Gaming CPU eigentlich nur streiten wenn man eine 2080TI im Rechner und keinerlei Preislimits hat.
kommt aufs spiel an. es gibt spiele, da reicht auch der schnellste 9900k nicht aus. deshalb favorisiere ich 8-12t mit hoher singlecore leistung. aber du hast recht, als ordinärer 60hz gamer braucht man kaum mehr als einen 2600x mit 3200-3466mhz ram.
Rancor
2019-07-08, 10:39:57
Diese Games würde ich gerne mal sehen, wo ein 9900k nicht "ausreichend" ist.... Jetzt komm nicht mit Anno 1800, denn da limitiert zum größten Teil die Engine und nicht die CPU.
dargo
2019-07-08, 10:40:44
danke. also doch keine alternative. vl noch mit fclock oc.
Wann begreift ihr endlich, dass solche Tests ohne Angaben zu Subtimings wertlos sind? Hier wird nur über Bandbreite skaliert (diese ist bei Ryzen 2 dank großen Caches nahezu wurscht). Und je höher die Frequenz umso lascher die Subtimings ohne manuellen Eingriff im Bios.
PS: auch fehlen wichtige Angaben ob DR oder SR Module.
kommt aufs spiel an. es gibt spiele, da reicht auch der schnellste 9900k nicht aus.
Das sind keine Spiele, das ist Softwaremüll.
Legendenkiller
2019-07-08, 10:45:14
edit: gelöscht
Marodeur
2019-07-08, 10:46:43
Was ich noch nicht ganz gecheckt habe:
Wie verhält es sich beim Thema Speicher wenn auf eine x370 Platine eine Zen 2 geschnallt wird? Gibt es hier irgendwelche Kompatibilitätsabstriche oder ist es davon völlig unabhängig weil der Controller im IO Die hockt und es kommt nur auf ein vernünftiges BIOS an?
Manche x570 Boards werben ja mit Unterstützung von DDR4-4000 und mehr. Da fragt man sich was bei alten Boards drin ist.
Ich hab aktuell DDR4-3200 Hynix CJR auf meinem Crosshair VI Hero den ich auf 3200 mit dem XMP Profil betreibe.
Es ist allerdings schon beeindruckend das er selbst einen 5 GHZ 8700k in manchen Workloads hinter sich lässt, bzw gleich zieht. Könnte man diese Leistung nur auch in Games abrufen.
Was läuft in den Game Engines bloß falsch? Rohleistung hat der 3600X mehr als genug.
dildo4u
2019-07-08, 10:48:38
Was ich noch nicht ganz gecheckt habe:
Wie verhält es sich beim Thema Speicher wenn auf eine x370 Platine eine Zen 2 geschnallt wird? Gibt es hier irgendwelche Kompatibilitätsabstriche oder ist es davon völlig unabhängig weil der Controller im IO Die hockt und es kommt nur auf ein vernünftiges BIOS an?
Manche x570 Boards werben ja mit Unterstützung von DDR4-4000 und mehr. Da fragt man sich was bei alten Boards drin ist.
Der Sweet Spot liegt lau AMD um 3600 das sollte immer machbar sein,4000 ist reines Geld verbrennen.
dargo
2019-07-08, 10:56:41
Was läuft in den Game Engines bloß falsch? Rohleistung hat der 3600X mehr als genug.
Alte, ineffiziente Engines, ganz einfach. Es dauert halt etwas bis ne moderne Engine auf die Beine gestellt wird. Manchmal schleppt man ineffiziente Software über mehrere Spiele mit.
Stretcher
2019-07-08, 11:01:02
Dann hätten ja die FX Bulldozer mit ihren hohen Taktraten alle Intel in Spielen schlagen müssen!
Seit wann haben Skylake CPUs untereinander eine untersch. IPC?
Takt gewinnt da halt immer.
Marodeur
2019-07-08, 11:02:06
Der Sweet Spot liegt lau AMD um 3600 das sollte immer machbar sein,4000 ist reines Geld verbrennen.
Jetzt aktuell halt. Ich hol mir ja auch nicht jetzt sofort den Zen 2. Ich denke es wird dann kommen wenn ich auch den RAM von 16 auf 32 GB aufstocken will/werde denn dann wird sich auch die Frage stellen ob nur 2 weitere Riegel oder 2 Neue was das Performance/Preis-Verhältnis angeht. ;)
BlacKi
2019-07-08, 11:03:06
Das sind keine Spiele, das ist Softwaremüll.
kann man nicht ändern. deal with it. du kaufst dir spiele die zum pc passen, ich umgekehrt.
Ja leider. Jahrelang haben sich die Spielehersteller auf kümmerliche 4C/8T beschränken müssen.
Marodeur
2019-07-08, 11:05:44
Wenn selbst der 9900er eben nicht ausreicht warum dann kaufen? Ob jetzt der "Softwaremüll" 20 oder 24 FPS im Extremszenario produziert ist ja auch schon egal. Sind ja immerhin 20 % Unterschied auf dem Papier, praktisch halt fürn Arsch. Ruckelt halt etwas schneller für den doppelten Preis oder so. Ole. ;)
Kenn ja auch noch so Spiele. Das alte X3 z.B. mal eben einen Xenonsektor platt machen. Oder die eigene Fabrik begutachten und man hat 4 FPS im Sektor. Da hilft dann eben auch kein 9900 und daher wäre ein kauf auch sinnfrei. Da muss man schon auch etwas Glück haben das man genau beim favorisierten Spiel den kleinen Unterschied zwischen halbwegs flüssig und ruckelig rein durch die CPU Leistung hat aber wie warscheinlich ist das schon?
Bl@de
2019-07-08, 11:09:56
Tolles Gesamtpaket von AMD. Vor allem der 3700X ist eine gelungene CPU mit guter Leistung bei relativ geringem Stromverbrauch.
Aber irgendwie seh ich immer noch kaum einen Grund für ein Upgrade vom Xeon 1230v3 (vor allem wenn ich den Preis für das Gesamtpaket mit MB,RAM und CPU beim 3700X betrachte). Dabei hätte ich Lust auf was Neues :D.
In Spielen wird bei 2560x1440 kaum ein großes Plus übrigbleiben. Und ich benutze weder Cinebench noch andere getestete Applikationen. Meine Anwendungsprofil langweilt selbst den Xeon. Mal die Preisentwicklung abwarten...
BlacKi
2019-07-08, 11:11:16
Wenn selbst der 9900er eben nicht ausreicht warum dann kaufen? Ob jetzt der "Softwaremüll" 20 oder 24 FPS im Extremszenario produziert ist ja auch schon egal. Sind ja immerhin 20 % Unterschied auf dem Papier, praktisch halt fürn Arsch. Ruckelt halt etwas schneller für den doppelten Preis oder so. Ole. ;)
Kenn ja auch noch so Spiele. Das alte X3 z.B. mal eben einen Xenonsektor platt machen. Oder die eigene Fabrik begutachten und man hat 4 FPS im Sektor. Da hilft dann eben auch kein 9900 und daher wäre ein kauf auch sinnfrei. Da muss man schon auch etwas Glück haben das man genau beim favorisierten Spiel den kleinen Unterschied zwischen halbwegs flüssig und ruckelig rein durch die CPU Leistung hat aber wie warscheinlich ist das schon?
mach ich auch nicht. der 8700k reicht da vollkommen. es sind aber eher 80 vs 100fps zb. pubg. ich überlege aber auf 4400er ram zu wechseln.
games die mit mehr als 12 kernen skalieren haben auch keine performanceprobleme mit 12 t. umgekehrt schon, wenn die die ST leistung darunter leidet.
Stretcher
2019-07-08, 11:11:43
zeigen das mal AMD, mal Intel vorne liegt bzgl. Speicher Latenzen und Durchsatz (overrall liegt Intel häufiger vorne, aber das kann völlig egal sein, wenn z.B. die Größe des L3 ausschlaggebend ist)
Die zeigen nur eines, dass sie keine Ahnung haben wie man CPUs bencht.
Wenn in einemTest mal AMD und Intel vorne liegt, dann liegt das an einem immer mal wieder vorliegenden GPU Bottleneck.
Daraus folgt für mich folgendes:
1. Benchmarkresultate können sich noch viel mehr als sonst zwischen verschiedenen Reviewern unterscheiden, ohne das einer von beiden "falsch" liegt.
Nein, das ist wie bei jedem Review von Prozessoren.
Manche machen richtig, die anderen messen Kauderwelsch.
2. 720p Benchmarks lassen keine Rückschlüsse auf die Performance im Regelbetrieb zu.
Nimm im Regelbetrieb 1080p eine stärkere GPU und du hast dieselben FPS.
720p ist nunmehr nicht "messen im CPU Limit" sondern "messen in irgendeinen Limit außer GPU"
Und der Beleg dafür sind für dich Messungen im GPU Bottleneck wie von Anandtech? Nein das ergibt gar keinen Sinn, gar nicht.
https://abload.de/img/anandtech3wljew.png
https://abload.de/img/anandtech2qgk6b.png
https://abload.de/img/gpulimitmjk59.png
Du vertraust ernsthaft solchen scheiss-benchmarks? Auweia.
MiamiNice
2019-07-08, 11:17:49
Wie ihr wieder alle so tut als könne man sich eine perfekte Multicoreskalierung in Games aus dem Hintern ziehen. Wann kapiert ihr endlich das das so nicht ist? Alle paar Wochen das selbe Thema?
Wenn es so einfach wäre, wäre es schon lange da. Ist es aber nicht und wird auch nicht so schnell kommen.
kann man nicht ändern. deal with it. du kaufst dir spiele die zum pc passen, ich umgekehrt.
Das ist ja eine generelle AMD Taktik. Öfter mal ein eigenes Süppchen ohne tieferen Support und/oder Marktmacht und es auch einzuführen.
Taigatrommel
2019-07-08, 11:18:45
kann man nicht ändern. deal with it. du kaufst dir spiele die zum pc passen, ich umgekehrt.
Sehe ich ähnlich, es gibt nunmal Spiele, die brauchen in diversen Szenarien schlichtweg CPU Leistung ohne Ende. World of Warcraft ist das in meinem Fall, da kann man gar nicht genug Leistung vom Prozessor abrufen in bestimmten Gebieten und Situationen. Ob man solche Titel nun als Müll deklariert oder nicht bleibt jedem selbst überlassen, doch es ändert nichts an der Tatsache, das Leute nunmal auf mehr und mehr Leistung hoffen, weil auch der 9900K eben nicht das liefert, was erwartet wird.
gbm31
2019-07-08, 11:20:55
Lieber Stretcher, was bringt dir dein missionarisches Gehabe?
Also konktet: was bringt dir die Zustimmung irgendwelcher fremden Leute dass der 9900K die beste CPU für Spiele ist?
Sei glücklich, und langweile hier nicht ständig mit den gleichen Inhalten. Hier werden einfach weil es der Zen 2 Thread ist die ganze Zeit Leute aufschlagen, die Zen 2 gelungen finden.
Mit völlig unterschiedlichen Motivationen und aus völlig verschiedenen Gründen.
Willst du jetzt die nächsten 6 Monate immer das gleiche posten?
Rancor
2019-07-08, 11:33:31
Sehe ich ähnlich, es gibt nunmal Spiele, die brauchen in diversen Szenarien schlichtweg CPU Leistung ohne Ende. World of Warcraft ist das in meinem Fall, da kann man gar nicht genug Leistung vom Prozessor abrufen in bestimmten Gebieten und Situationen. Ob man solche Titel nun als Müll deklariert oder nicht bleibt jedem selbst überlassen, doch es ändert nichts an der Tatsache, das Leute nunmal auf mehr und mehr Leistung hoffen, weil auch der 9900K eben nicht das liefert, was erwartet wird.
Ja, aber die Frage ist einfach ob dir ein 9900k dann noch irgendwas bringt? Wenn ein 3900x keine spielbaren FPS mehr schafft, dann schafft es eine 9900k auch nicht mehr.
Ob du in Boralus zB. nun 50 oder 57,5 FPS hast, spielt doch absolut keine Rolle.
Ich bin auch enttäuscht von der Spieleleistung der Zen2 CPUS. Ich habe da mehr erwartet, aber das jetzt hier wieder einige so tun, als ob man damit überhaupt nicht spielen kann, ist doch absoluter Quatsch.
BlacKi
2019-07-08, 11:36:50
Ja, aber die Frage ist einfach ob dir ein 9900k dann noch irgendwas bringt? Wenn ein 3900x keine spielbaren FPS mehr schafft, dann schafft es eine 9900k auch nicht mehr.
1.Ob du in Boralus zB. nun 50 oder 57,5 FPS hast, spielt doch absolut keine Rolle.
Ich bin auch enttäuscht von der Spieleleistung der Zen2 CPUS.2.Ich habe da mehr erwartet, aber das jetzt hier wieder einige so tun, als ob man damit überhaupt nicht spielen kann, ist doch absoluter Quatsch.
1.mit dem richtigen ram ist der unterschied größer.
2.ich frag mich die ganze zeit wer sowas behauptet. jeder erwähnt es, aber keiner hat sowas behauptet.
Der_Korken
2019-07-08, 11:37:19
Was läuft in den Game Engines bloß falsch? Rohleistung hat der 3600X mehr als genug.
Ich sehe dafür zwei mögliche Gründe:
Der Code könnte einen extrem gestreuten random access auf den Speicher haben, sodass ständig auf Daten aus dem RAM gewartet werden muss. In diesem Fall nützen Cache, Takt und IPC nichts. Natürlich sind Spiele nicht komplett latenzlimitiert, sondern Instruktions- und Latenzlimit wecheln sich ständig ab. Anwendungen sind meist so programmiert, dass man ein working set hat, welches in den Cache passt. Deswegen ist Speicherlatenz und -bandbreite hier oft nicht so wichtig. Außer bei Algorithmen, die prinzipbedingt viel auf den Speicher zugreifen müssen, da natürlich nicht.
Eine andere Sache sind Compiler. Man darf nicht vergessen, dass Intel seit je her der Platzhirsch ist und es sich im Zweifelsfall mehr lohnt Assemblies auf Intel zu optimieren statt auf AMD. Zudem ist es so, dass Intel seit 2008 mit Haswell eine Grundarchitektur gelegt hat, die bis heute immer nur weiter optimiert, aber nicht fundamental geändert wurde. Und zusätzlich war AMD von 2012 bis 2017 so ziemlich abgemeldet aus dem CPU-Business. Wenn einige Sachen auf AMD also merkwürdig langsam laufen, kann das auch einfach daran liegen, dass die Instruktionsfolge aus dem Compilat den Ryzens einfach überhaupt nicht schmeckt. Das könnte sich aber in Zukunft ändern, wenn AMD seinen Marktanteil im Server ausbaut.
dargo
2019-07-08, 11:39:37
kann man nicht ändern. deal with it.
Na ich komme damit klar, du scheinbar nicht. :tongue:
Tolles Gesamtpaket von AMD. Vor allem der 3700X ist eine gelungene CPU mit guter Leistung bei relativ geringem Stromverbrauch.
Aber irgendwie seh ich immer noch kaum einen Grund für ein Upgrade vom Xeon 1230v3 (vor allem wenn ich den Preis für das Gesamtpaket mit MB,RAM und CPU beim 3700X betrachte). Dabei hätte ich Lust auf was Neues :D.
In Spielen wird bei 2560x1440 kaum ein großes Plus übrigbleiben. Und ich benutze weder Cinebench noch andere getestete Applikationen. Meine Anwendungsprofil langweilt selbst den Xeon. Mal die Preisentwicklung abwarten...
Sag das nicht zu laut weil hier spielen viele noch in 720p mit ihrer 2080 TI. ;)
Nimm im Regelbetrieb 1080p eine stärkere GPU und du hast dieselben FPS.
Welche stärkere GPU? Wo kann man was schnelleres als die RTX Titan kaufen? Was eh schon Blödsinn³ wäre in Bezug auf P/L.
Das ist ja eine generelle AMD Taktik. Öfter mal ein eigenes Süppchen ohne tieferen Support und/oder Marktmacht und es auch einzuführen.
Das erinnert mich eher an NV :wink:
Ganz toll ...
Österreich scheint diese Woche noch nicht beliefert zu werden :mad:
(3 Geschäfte angerufen und die wissen noch nicht mal einen Liefertermin :eek:)
Naja, wünsch euch schon mal viel Spaß beim basteln :smile:
(und nicht vergessen, versucht unter 60°c zu bleiben für den PBO ;))
M.f.G. JVC
BlacKi
2019-07-08, 11:41:48
Na ich komme damit klar, du scheinbar nicht. :tongue:
hab ich auch nicht gesagt, sondern ich lebe damit.
dargo
2019-07-08, 11:47:28
Wie ihr wieder alle so tut als könne man sich eine perfekte Multicoreskalierung in Games aus dem Hintern ziehen. Wann kapiert ihr endlich das das so nicht ist? Alle paar Wochen das selbe Thema?
Wenn es so einfach wäre, wäre es schon lange da. Ist es aber nicht und wird auch nicht so schnell kommen.
Also ich sehe bei modernen Engines schon besseres Multithreading. Und wenn es dieses nicht gibt gibt es DX12/Vulkan. Ob die Mehrperformance jetzt vom besseren Multithreading kommt oder low level ist mir erstmal wurscht. Beides gehört in die Rubrik effizientere Software.
Matrix316
2019-07-08, 11:48:49
Hmmm, ich überlege mir ob ich nicht der Tradition treu bleibe und doch nur zum 3700X wechsel (nach dem 1700X und 2700X). Die Performance in Games ist ziemlich gut und die Anwendungen wo der 3900X besser wäre, nutze ich eigentlich garnicht so wirklich (bis auf Ligthroom vielleicht).
Auch wäre es dann nicht so dramatisch mit dem Geld, wenn dann der 3950X kommt.;D
Taigatrommel
2019-07-08, 11:49:19
Ja, aber die Frage ist einfach ob dir ein 9900k dann noch irgendwas bringt? Wenn ein 3900x keine spielbaren FPS mehr schafft, dann schafft es eine 9900k auch nicht mehr.
Ob du in Boralus zB. nun 50 oder 57,5 FPS hast, spielt doch absolut keine Rolle.
Ich bin auch enttäuscht von der Spieleleistung der Zen2 CPUS. Ich habe da mehr erwartet, aber das jetzt hier wieder einige so tun, als ob man damit überhaupt nicht spielen kann, ist doch absoluter Quatsch.
Sicher reißt es ein 9900K dann auch nicht heraus, ich wollte damit auch nur sagen, dass es durchaus Titel gibt, wo man einfach brachiale Leistung braucht, um entsprechende Bildraten zu bekommen und selbst die aktuellen Top-Prozessoren eben nicht genug sind. Ich denke mal jedem ist bewusst, dass die 3000er Serie den 9900K nicht deutlich hätte schlagen können, das werden auch nur die wenigsten erwartet haben. Ich selbst jedoch bin irgendwo enttäuscht und habe einfach mehr erwartet. Es ist ja wirklich nicht so, dass die CPUs schlecht sind, im Gegenteil, doch der Abstand in der Praxis auf Intels Prozessoren hätte eben noch geringer ausfallen können.
Vielleicht war auch der Hype daran schuld, dass zu hohe Erwartungen geschürt wurden, welche nun nicht in der Form erfüllt werden konnten.
Klar spielt RAM auch bei vielen Titeln eine entscheidende Rolle, ich nutze 3200 CL14, welcher in einer 4x8GB Konfigurationen auf meinem Ryzen 2700X nur mit Ach und Krach stabil läuft. Da hoffe ich, dass es auf einem Ryzen 3xxx eben völlig stabil läuft oder ich zumindest Takt bzw. Timings noch optimieren kann. Dies ist aktuell undenkbar. Doch davon abgesehen dürfte Aebeitsspeicher dann auch kein Dealbreaker in punkto Performance sein, zumindest nicht ab einem bestimmten Bereich.
Schnoesel
2019-07-08, 11:52:13
Naja schau dir mal Stretchers Postings an. Der is ja nicht mehr normal. Sieht überall Aluhüte und Reviews die seiner Meinung nach keine sind weil sie ihm nicht in den Kram passen.
Über das 8auer Video kann ich nur lachen. Imo hat er sich damit echt selbst ins Knie geschossen. Andere bringen den max. Boost takt auch hin aber unser Hardcore OCler sieht diesen kein einziges Mal? War es nicht der 8auer der gegen Lot gewettert hat weils angeblich Mikrorisse verursacht und Intels Pampe verteidigt hat (gut hat er mehr Delid Dingens verkauft). Kurz darauf waren auch Intel wieder verlötet. Da weiß man gar nicht mehr was man dazu sagen soll..
Rancor
2019-07-08, 11:52:26
1.mit dem richtigen ram ist der unterschied größer.
2.ich frag mich die ganze zeit wer sowas behauptet. jeder erwähnt es, aber keiner hat sowas behauptet.
Zu 1. ) Was nichts an der Aussage ändert.
ZU 2. ) Unterschwellig klingt es unter anderem von dir immer mit.
dargo
2019-07-08, 11:52:53
Ich sehe dafür zwei mögliche Gründe:
Der Code könnte einen extrem gestreuten random access auf den Speicher haben, sodass ständig auf Daten aus dem RAM gewartet werden muss. In diesem Fall nützen Cache, Takt und IPC nichts. Natürlich sind Spiele nicht komplett latenzlimitiert, sondern Instruktions- und Latenzlimit wecheln sich ständig ab. Anwendungen sind meist so programmiert, dass man ein working set hat, welches in den Cache passt. Deswegen ist Speicherlatenz und -bandbreite hier oft nicht so wichtig. Außer bei Algorithmen, die prinzipbedingt viel auf den Speicher zugreifen müssen, da natürlich nicht.
Eine andere Sache sind Compiler. Man darf nicht vergessen, dass Intel seit je her der Platzhirsch ist und es sich im Zweifelsfall mehr lohnt Assemblies auf Intel zu optimieren statt auf AMD. Zudem ist es so, dass Intel seit 2008 mit Haswell eine Grundarchitektur gelegt hat, die bis heute immer nur weiter optimiert, aber nicht fundamental geändert wurde. Und zusätzlich war AMD von 2012 bis 2017 so ziemlich abgemeldet aus dem CPU-Business. Wenn einige Sachen auf AMD also merkwürdig langsam laufen, kann das auch einfach daran liegen, dass die Instruktionsfolge aus dem Compilat den Ryzens einfach überhaupt nicht schmeckt. Das könnte sich aber in Zukunft ändern, wenn AMD seinen Marktanteil im Server ausbaut.
Ich gehe auch davon aus, dass die neuen Konsolen hier einen ordentlichen Schub geben werden. Wenn dort schon ein Ryzen drin steckt sollte sich das auch positiv am Desktop bezüglich Compiler machen.
Stretcher
2019-07-08, 11:58:02
Lieber Stretcher, was bringt dir dein missionarisches Gehabe?
Was bringt das missionarische Gehabe AMD CPU´s vorne zu sehen, wenn doch eindeutig die GPU limitiert und somit gar keine CPU "vorne" ist?:rolleyes:
Was bringt das missionarische Gehabe in einen CPU Test im GPU Bottleneck zu fordern, das fordert doch auch niemand bei GPU Tests oder?
Also ich habe noch niemanden gehört, der GPU´s in mit einem Atom Prozessor bencht, damit alle die gleichen FPS anzeigen.:redface:
Also konktet: was bringt dir die Zustimmung irgendwelcher fremden Leute dass der 9900K die beste CPU für Spiele ist?
Darum geht es überhaupt nicht. Es geht um die richtige Messmethodik von CPU´s und die erzielt man gerantiert nicht mit CPU Messungen in einem GPU Bottleneck. Ich weiß ja nicht was Anandtech sich von sowas verspricht:
Aber es zeigt, dass dort Amateure ihrer Arbeit nachgehen.
https://abload.de/img/anandtech3wljew.png
https://abload.de/img/anandtech2qgk6b.png
https://abload.de/img/gpulimitmjk59.png
Und dann sieht jemand den Test und sagt sich, hey geil, wie die AMD CPU´s abgehen. Merkt aber nicht, dass jede CPU die gleichen Frames liefert.
Sei glücklich, und langweile hier nicht ständig mit den gleichen Inhalten. Hier werden einfach weil es der Zen 2 Thread ist die ganze Zeit Leute aufschlagen, die Zen 2 gelungen finden.
Zen ist ohne Zweifel gelungen und es geht auch überhaupt nicht um den Punkt, aber das war wieder klar, dass die Forderung nach vernünftigen Tests wieder auf taube Ohren stößt. Am besten wir messen in Zukunft alle GPU´s mit einer Atom-CPU.:rolleyes:
Willst du jetzt die nächsten 6 Monate immer das gleiche posten?
Willst du echt diesen Unsinn, dass Anandtech richtig testet und die anderen die in 720p testen es falsch machen und 720p Tests keine Berechtigung haben, in einem Tech-Forum wie diesem stehen lassen? Das verursacht einfach nur Schmerzen.
Wie ihr wieder alle so tut als könne man sich eine perfekte Multicoreskalierung in Games aus dem Hintern ziehen. Wann kapiert ihr endlich das das so nicht ist? Alle paar Wochen das selbe Thema?
Das ist das gleiche wie mit der Forderung nach CPU Benchmarks im GPU Limit.:rolleyes: Die merken nicht, dass sich die Spiele so langsam weiterentwickeln, dass noch in 5 Jahren kein relevanter Profit aus einem 12 Kerner in Spielen gegenüber einem 6 oder 8 Kerner mit SMT geschlagen werden kann.
BlacKi
2019-07-08, 11:58:03
Zu 1. ) Was nichts an der Aussage ändert.
ZU 2. ) Unterschwellig klingt es unter anderem von dir immer mit.
p1, warum? 20% ist schon spürbar.
p2 einbildung. das sind verm. amd user minderwertigkeitskomplexe. wenn man bahauptet, das amd langsamer ist, triggert man das ganze vespennest.
Darum geht es überhaupt nicht. Es geht um die richtige Messmethodik von CPU´s und die erzielt man gerantiert nicht mit CPU Messungen in einem GPU Bottleneck. Ich weiß ja nicht was Anandtech sich von sowas verspricht:
Aber es zeigt, dass dort Amateure ihrer Arbeit nachgehen.
https://abload.de/img/anandtech3wljew.png
der punkt hier bei ist, das zu 99% der benchmark aufnahme gpu limit herscht, ich mich aber nur für den framedrop, also dort wo die differenzen sind, interessiere. die unterschiede in den wichtigen 1% der benchmarkaufnahme geht durch die 99% der zeit im gpu limit komplett verloren. deshalb sind realistische auflösungen nur interessant, wenn die benchmarks zu keiner zeit im gpu limit gemessen werden. ist das nicht möglich, interessiert der benchmark auch eigentlich garnicht. darf somit eigentlich auch in keine gesammtbewertung aufgenommen werden.
Stretcher
2019-07-08, 12:07:13
Ja, aber die Frage ist einfach ob dir ein 9900k dann noch irgendwas bringt? Wenn ein 3900x keine spielbaren FPS mehr schafft, dann schafft es eine 9900k auch nicht mehr. #
Wenn ein 2700x keine spielbaren FPS mehr schafft, schafft es ein 3700x auch nicht, warum ist dann jeder so heiß auf ein Upgrade?
Ich bin auch enttäuscht von der Spieleleistung der Zen2 CPUS. Ich habe da mehr erwartet, aber das jetzt hier wieder einige so tun, als ob man damit überhaupt nicht spielen kann, ist doch absoluter Quatsch.
Dann zeige mal konkret eine Aussage die diesen Umstand auch nur in irgendeiner Weise andeutet. Ich warte auf den Beleg.:rolleyes:
w0mbat
2019-07-08, 12:18:11
Hört doch bitte auf Stretcher zu zitieren, dann muss ich sein Geschwurben nämlich weiterhin lesen :(
Er hat noch nicht einmal Verstanden was ein GPU Limit ist und denkt, nur weil sich zB ein 9900K nicht von einem 8700K absetzen kann ist es ein GPU Limit. Dabei kann die Engine einfach nichts mit mehr threads anfangen.
Er glaubt echt das wäre ein hartes GPU Limit. Mit ner 2080 Ti in 1080p :ugly: Malt er immer noch seine falschen Pfeile in die Grafiken? ;D
Für Ihn ist der CCleaner wahrscheinlich auch ein wichtiges Tool. Hat bestimmt was mit dem GPU Limit zu tun...
Tesseract
2019-07-08, 12:22:07
die diskussion um die spieleleistung ist etwas fehlgeleitet. engineentwicklung richtet sich nach der installierten hardwarebasis der user und die ist nunmal ~quad core am PC und ein mobile-class octa auf den konsolen und dementsprechend haben CPUs mit vielen cores bzw. threads momentan einen nachteil. CPUs mit mehr cores bzw. mehr threads werden in zukunft relativ zulegen, ganz besonders wenn nächstes jahr die neuen konsolen rauskommen.
wer seine system nicht jedes jahr aufrüstet sollte das bedenken.
gbm31
2019-07-08, 12:23:07
...der Übersicht wegen und aus Rücksicht auf Ignores gekürzt Der Link zeigt den Post.
Dann mach es richtig und schreib die Redaktionen an, hier bringt es nichts.
Oder bist du glücklich wenn du hier Zustimmung erfährst? Was ist die denn wert?
Selbst wenn du teilweise im Recht bist und viele Tests nicht wirklich von Sachverstand getrieben waren, sondern eher nach dem Motto: Wir waren dabei! - du machst dich hier zum Hampelmann. Einfach weil falsches Publikum.
Ich weiss warum ich damals den 2700x geholt habe und warum ich jetzt auf den 3900x umsteige. Wohl wissen dass es da CPUs gibt, die in Szenarien schneller sind als meine. Auch wohl wissend, in welchen meine diesen davonläuft und wie oft ich das nutze bzw ob mir die Mehrleistung in den anderen Bereichen wichtig ist und auch entsprechend Geld wert ist.
Genauso wie ich die Jahre davor mit Sandy und Ivy glücklich war.
Möglicherweise macht auch der Ton die Musik (und der eigene Anspruch, die Weisheit mit Löffeln gefressen zu haben, während bei gestandenen Redaktionen natürlich Amateure arbeiten, hilft da auch nicht weiter).
Bl@de
2019-07-08, 12:29:02
Hmmm, ich überlege mir ob ich nicht der Tradition treu bleibe und doch nur zum 3700X wechsel (nach dem 1700X und 2700X). Die Performance in Games ist ziemlich gut und die Anwendungen wo der 3900X besser wäre, nutze ich eigentlich garnicht so wirklich (bis auf Ligthroom vielleicht).
Auch wäre es dann nicht so dramatisch mit dem Geld, wenn dann der 3950X kommt.;D
Mal rein aus Interesse: Was läuft denn hier soviel schneller als beim 2700X im Alltag? Selbst bei CB mit Tests in 1080p bleiben gerade mal 15% Mehrleistung zum 2700X. Bei höheren Auflösungen bleiben 0-5%. Diesen Schritt kann ich nur nachvollziehen wenn Geld gar keine Rolle spielt. Seit 3 Jahren denke ich an ein Upgrade, aber ich sehe kein wirklich spürbares Upgrade auf dem Markt. Der Sprung von z. B. 50 zu 57 FPS (14% Leistungsplus) sind da (v.a. mit GSync) irgendwie zu popelig :/
Die Diskussion über Sinn und Unsinn von Tests mit 720p/1080p oder UHD mal unbeachtet.
Lasst doch die Intelianer in frieden.
Die sind es nicht gewohnt zu verlieren :comfort:
Ich erwarte in "SC-Spielen", unter ner guten Wakü, beim 3900X 4,7-4,8Ghz ...
Langsam sickert es ja durch, das der PBO erst seit "Heute" brauchbar funktioniert ;)
Das dann auch der 3900X ordentlich Watt verbrennt war abzusehen...
(geheiligt sei eine üppige Spannungsversorgung und selig die, die mit Wasser kühlen :wink:)
M.f.G. JVC
basix
2019-07-08, 12:30:05
Gibt es zu Ryzen 3000 schon eine "TheStilt" Strictly Technical Analyse oder ähnliches? Mich würde so Voltage/Frequency Scaling etc. interessieren.
Bei Techpowerup gibt es ein nT vs. Frequency Diagramm des 3700X und des 3900X. Interessant ist, dass beide mit 4.2 GHz auf allen Threads arbeiten, sogar das 65W Modell. Für den 3950X würde ich anhand der Diagramme ähnliches erwarten oder vielleicht 4.1 GHz All-Core. Das wäre schon ziemlich fett für 16C in 105W. Und anscheinend hat Ryzen 3000 bei ca. 4.2 GHz eine "Wall". Ab da schiesst die Leistungsaufnahme durch die Decke, deswegen ist da oder knapp darüber auch mit OC Schluss.
https://www.techpowerup.com/review/amd-ryzen-7-3700x/20.html
https://www.techpowerup.com/review/amd-ryzen-9-3900x/20.html
dargo
2019-07-08, 12:30:34
Was bringt das missionarische Gehabe AMD CPU´s vorne zu sehen, wenn doch eindeutig die GPU limitiert und somit gar keine CPU "vorne" ist?:rolleyes:
Was bringt das missionarische Gehabe in einen CPU Test im GPU Bottleneck zu fordern, das fordert doch auch niemand bei GPU Tests oder?
Deine Schallplatte nervt langsam. :rolleyes:
Dein verlinkter Test spiegelt nun mal mehr die Praxis ab als dir lieb ist. Erstens spielen wesentlich mehr Leute mit einer 1080 als mit einer 2080TI. Zweitens gibt es nichts Schnelleres als die 2080TI/RTX Titan. Drittens spielt auch keiner mit der GTX1080 in 720p.
Edit:
Man könnte auch einfach sagen... aktulle CPUs und auch ältere liefern in Games Leistung satt, mal einzelne Bananensoftware außen vor.
Rancor
2019-07-08, 12:35:59
p1, warum? 20% ist schon spürbar.
30 vs 36 FPS ist spürbar? 80 vs. 96 ist spürbar? 150 vs 180 FPS ist sprübar? Ich gehe jede Wette ein, das du keinen Blindtest bestehen würdest.
p2 einbildung. das sind verm. amd user minderwertigkeitskomplexe. wenn man bahauptet, das amd langsamer ist, triggert man das ganze vespennest.
Nope. AMD ist langsamer. Das ist ein Fakt. Da gibt es nichts zu triggern.
Freestaler
2019-07-08, 12:36:25
..Ich erwarte in "SC-Spielen", unter ner guten Wakü, beim 3900X 4,7-4,8Ghz ...
Langsam sickert es ja durch, das der PBO erst seit "Heute" brauchbar funktioniert..
Hast Link zu Quellen?
Ein bisschen tragisch ist es halt auch für AMD. Die CPUs sind bedingt durch 7nm sparsamer/effizienter und in Anwendungen in der Regel ein wenig schneller bei gleicher Kern/Threadanzahl. Was den positiven Ausblick trübt, ist die Spieleleistung. Sie liegen ~15% hinter Intel, was einer ganzen Generation entsprechen kann. Wenns blöd läuft, schließen sie mit Ryzen 3 nur auf. Das ist gegen eine Architektur von 2015 nicht so rosig.
y33H@
2019-07-08, 12:37:38
Super Sache, wenn auch wohl nicht das ganz große / wichtige Ding :)Stichproben bisher (3900X, 16GB DDR-3200-CL14-1T, RTX 2080 Ti) mit Avg-Fps und P99-Fps, wie üblich drei Runs:
Anno 1800
720p = 51,8 / 41,1
1080p = 48,8 / 38,5
Ark SE
720p = 88,8 / 62,8
1080p = 66,8 / 49,8
CSGO
720p = 347,1 / 178,6
1080p = 287,1 / 172,4
F1 2019
720p = 203,5 / 149,3
1080p = 182,5 / 128,2
Schneller wird's nicht, aber es tritt oft schon ein GPU-Limit ein bzw es wird stärker.
Auf jeden Fall ein großes Dankeschön für deinen Einsatz bei golem und hier im Forum! Die golem Tests sind immer einer der ersten, die "konsumiert" werden :)Danke, freut mich zu hören.
Rancor
2019-07-08, 12:37:55
Es ist eher ärgerlich, da man halt so das gesamte positive Bild ein wenig zerstört
y33H@
2019-07-08, 12:39:46
Langsam sickert es ja durch, das der PBO erst seit "Heute" brauchbar funktioniert.Ich dir schon vor dem Launch gesagt, dass das Unfug ist. Wie sollen +200 MHz bei über 4 GHz denn was reißen? :confused: :freak: davon ab, Quelle für diese Aussage und Kontext? sprichst du von Agesa 1003?
basix
2019-07-08, 12:40:55
Ein bisschen tragisch ist es halt auch für AMD. Die CPUs sind bedingt durch 7nm sparsamer/effizienter und in Anwendungen in der Regel ein wenig schneller bei gleicher Kern/Threadanzahl. Was den positiven Ausblick trübt, ist die Spieleleistung. Sie liegen ~15% hinter Intel, was einer ganzen Generation entsprechen kann. Wenns blöd läuft, schließen sie mit Ryzen 3 nur auf. Das ist gegen eine Architektur von 2015 nicht so rosig.
Gegenüber Intel nur Vorteile (Preis, Effizienz, Performance, Kerne, weniger Sicherheitslücken, Plattform, PCIe 4.0, Upgradepfad usw.) ABER wahrscheinlich nicht fühlbare 10% geringere Spieleperformance in 1080p und nochmals weniger bei realistischeren Systemen (1440p+ für eine 2080 Ti oder langsamere GPUs). Ergo FAIL :facepalm:
dargo
2019-07-08, 12:41:50
Ein bisschen tragisch ist es halt auch für AMD. Die CPUs sind bedingt durch 7nm sparsamer/effizienter und in Anwendungen in der Regel ein wenig schneller bei gleicher Kern/Threadanzahl. Was den positiven Ausblick trübt, ist die Spieleleistung. Sie liegen ~15% hinter Intel, was einer ganzen Generation entsprechen kann. Wenns blöd läuft, schließen sie mit Ryzen 3 nur auf. Das ist gegen eine Architektur von 2015 nicht so rosig.
:facepalm: :facepalm: :facepalm:
Ja... das ist richtig tragisch für AMD.
cIA9-2UDKHs
Zumal die AMD CPU sogar 43% in DE weniger kostet. :crazy: Ich kann dir jetzt schon sagen der R5 3600 wird langfristig der Verkaufsschlager schlechthin.
Stretcher
2019-07-08, 12:43:29
Er hat noch nicht einmal Verstanden was ein GPU Limit ist und denkt, nur weil sich zB ein 9900K nicht von einem 8700K absetzen kann ist es ein GPU Limit.
Jaja, versuch nur meine Person schlecht zu machen.
Du hast vermutlich selbst noch nie ein review geschrieben und dir die letzten Tage 24h Dauerarbeit angetan.:redface:
Dabei kann die Engine einfach nichts mit mehr threads anfangen.
Dabei geht es nicht um 8700K und 9900K, sondern um alle CPU´s.
Die spucken bei Anandtech nämlich innerhalb von 5% Abstand alle dieselben FPS aus und du willst mir sagen, dass das kein GPU Einfluss ist?;D
Deine Schallplatte nervt langsam. :rolleyes:
Dann hör doch auf Tests in Bottlenecks zu fordern, um dir dein AMD schönzureden. :rolleyes: Würdest du das nicht machen, wäre doch eh alles okay.
Oder bist du glücklich wenn du hier Zustimmung erfährst? Was ist die denn wert?
Selbst wenn du teilweise im Recht bist und viele Tests nicht wirklich von Sachverstand getrieben waren, sondern eher nach dem Motto: Wir waren dabei! - du machst dich hier zum Hampelmann. Einfach weil falsches Publikum.
Ich habe nur entsprechend auf Beiträge geantwortet die an mich gerichteten waren, thats all.;)
Man könnte auch einfach sagen... aktulle CPUs und auch ältere liefern in Games Leistung satt, mal einzelne Bananensoftware außen vor.
Wen interessierts? Es interessiert ausschließlich wer schneller ist.
Und da müssen die Tester eben die notwendigen Bedingungen schaffen um das heauszuarbeiten.
dargo
2019-07-08, 12:49:18
Wen interessierts?
99,x% der Kaufinteressenten. :rolleyes:
gbm31
2019-07-08, 12:49:18
Ich habe nur entsprechend auf Beiträge geantwortet die an mich gerichteten waren, thats all.;)
Die können sich nur an dich richten wenn du was postest. ;-)
Aber gut - deine Zeit. Viel Spaß noch!
Ontopic: noch keine Versandbestätigung seitens Amazon, auch keine Preisanpassung. Nur weiterhin Liefertermin morgen bis 20:00. Naja, ich bin eh auf einem Konzert...
Rancor
2019-07-08, 12:50:28
@Stretcher
Es intressiert nicht wer ausschließlich schneller ist. Das mag dich vllt. interessieren, aber es gibt auch Nutzer die die CPUS nicht ausschließlich nach Leistung aussuchen.
Stretcher
2019-07-08, 12:52:38
Naja schau dir mal Stretchers Postings an. Der is ja nicht mehr normal. Sieht überall Aluhüte und Reviews die seiner Meinung nach keine sind weil sie ihm nicht in den Kram passen.
Und mal wieder jemand der es nicht verstanden hat. Wie groß muss der Aluhut sein, wenn man Spielebenchmarks favorisiert, in denen alle CPU´s bis auf Messungenauigkeiten die gleiche Leistung bringen.:confused:
Birdman
2019-07-08, 12:53:12
Für den 3950X würde ich anhand der Diagramme ähnliches erwarten oder vielleicht 4.1 GHz All-Core. Das wäre schon ziemlich fett für 16C in 105W.
Es sind schon beim 3900X weit mehr wie 105W und ein 3950X wird gegen die 200W gehen, falls der All-Core mit 4.1Ghz+ unterwegs sein sollte.
Diese 105W sind ähnlich geschönte Werte wie die 95W eines 9900K.
Stretcher
2019-07-08, 12:54:35
Welche stärkere GPU? Wo kann man was schnelleres als die RTX Titan kaufen? Was eh schon Blödsinn³ wäre in Bezug auf P/L.
Also eine GTX 1080 TI, ist sicher nicht die stärkste GPU.:rolleyes:
Und dann auch noch Medium, statt High. Klasse Test.
https://abload.de/img/anandtech3wljew.png
Aber bei dir kommt eh nur Blödsinn rum. Eine 1080 ist asbach uralt 3 Jahre alt, stärkste GPU. Guter Witz.
Schneller wird's nicht, aber es tritt oft schon ein GPU-Limit ein bzw es wird stärker.
Das kann nicht sein, dass die GPU limitiert, wir haben doch jetzt von vielen gehört, dass ein GPU Limit nur Panikmache ist.:freak:
Sie liegen ~15% hinter Intel, was einer ganzen Generation entsprechen kann. Wenns blöd läuft, schließen sie mit Ryzen 3 nur auf. Das ist gegen eine Architektur von 2015 nicht so rosig.
Wenn sie den gleichen Speed-bump wie mit Zen + zu Zen schaffen, ist ein Gleichstand möglich, da Intel nichts bahnbrechendes liefern kann.
Schnoesel
2019-07-08, 12:57:21
Ich hätte hier gerne ein Kickvote System... Ignoriert ihn doch bitte oder zitiert ihn wenigstens nicht. Danke.
BlacKi
2019-07-08, 12:58:57
ABER wahrscheinlich nicht fühlbare 10% geringere Spieleperformance in 1080p und nochmals weniger bei realistischeren Systemen (1440p+ für eine 2080 Ti oder langsamere GPUs). Ergo FAIL :facepalm:
ich frag mich immernoch wer hier ryzen 3000 als fail bezeichnet, link bitte.
avg aus einem mix mit gpu limit mit langsamem speicher kommen die 10% hin. diese werte interessiert aber keiner.
30 vs 36 FPS ist spürbar? 80 vs. 96 ist spürbar? 150 vs 180 FPS ist sprübar? Ich gehe jede Wette ein, das du keinen Blindtest bestehen würdest.
ja, das ist mir der aufpreis wert. zumal es zum zeitpunkt des kaufes eh keine alternative gab und der performance unterschied erheblich größer war. er wird in 3 monaten 2 jahre alt ;) trotz fixed 1,4v, soviel zum thema degradation, was igor mal meinte.
dargo
2019-07-08, 12:59:50
Also eine GTX 1080 TI, ist sicher nicht die stärkste GPU.:rolleyes:
Und dann auch noch Medium, statt High. Klasse Test.
https://abload.de/img/anandtech3wljew.png
Aber bei dir kommt eh nur Blödsinn rum. Eine 1080 ist asbach uralt 3 Jahre alt, stärkste GPU. Guter Witz.
Arbeite mal an deiner Lesekompetenz. Im Zitat spreche ich von RTX Titan!
Der_Korken
2019-07-08, 13:00:01
Gibt es zu Ryzen 3000 schon eine "TheStilt" Strictly Technical Analyse oder ähnliches? Mich würde so Voltage/Frequency Scaling etc. interessieren.
Bisher habe ich nur das hier gesehen:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12042148#post12042148
TwoBeers
2019-07-08, 13:00:45
Gibt es zu Ryzen 3000 schon eine "TheStilt" Strictly Technical Analyse oder ähnliches? Mich würde so Voltage/Frequency Scaling etc. interessieren.
Noch keine tiefgehende Analyse, aber das gibt es bisher von ihm zu Zen 2:
https://www.overclock.net/forum/10-amd-cpus/1728758-strictly-technical-matisse-not-really.html
dildo4u
2019-07-08, 13:01:13
Neues MSI Bios bringt den 3900x zumindest auf 4.5Ghz.
https://twitter.com/andreif7/status/1148170909322293248?s=09
Rancor
2019-07-08, 13:04:14
ja, das ist mir der aufpreis wert. zumal es zum zeitpunkt des kaufes eh keine alternative gab und der performance unterschied erheblich größer war.
Achso jetzt verstehe ich es. Dir geht es im wesentlichen um deinen 8700k. Sag das doch gleich. Ja den hast du toll gekauft... :comfort: :facepalm:
MSABK
2019-07-08, 13:05:50
Neues MSI Bios bringt den 3900x zumindest auf 4.5Ghz.
https://twitter.com/andreif7/status/1148170909322293248?s=09
Hmm, dann müssten ja viele Tests wieder neu durchgeführt werden oder?
Niall
2019-07-08, 13:06:15
Ich denke gerade über ein Sidegrade vom 4,2GHz 5820K zum 3600(X) bis zum 16-Ender im September nach. den 3600(X) könnte ich dann nachher zu einem kleinen Rendernode umfunktionieren. :freak:
dargo
2019-07-08, 13:07:36
Achso jetzt verstehe ich es. Dir geht es im wesentlichen um deinen 8700k. Sag das doch gleich. Ja den hast du toll gekauft... :comfort: :facepalm:
Einfach zu geil die Argumente mancher hier. :ulol:
Auch von mir ein großes Lob an diejenigen die sich damals einen Intel geholt haben, habt ihr fein gemacht. :comfort: Oh man...
Deathcrush
2019-07-08, 13:08:12
Ich gebe ja zu, der Reiz ist da, mal wieder ein neues System zusammen zu stellen und ein wenig zu OC. Aber ich würde wahrscheinlich in den Spielen dann doch schlechter darstehen als mit meiner jetzigen Non OC 8700 CPU. Es wird mal wieder Zeit für eine neue Killer CPU, wie damals der Core2Duo. (egal ob AMD oder Intel) Irgendwie schliesst AMD immer nur auf, dann erhöht Intel ein wenig und AMD schliesst wieder auf.
maximus_hertus
2019-07-08, 13:08:58
Stichproben bisher (3900X, 16GB DDR-3200-CL14-1T, RTX 2080 Ti) mit Avg-Fps und P99-Fps, wie üblich drei Runs:
Anno 1800
720p = 51,8 / 41,1
1080p = 48,8 / 38,5
Ark SE
720p = 88,8 / 62,8
1080p = 66,8 / 49,8
CSGO
720p = 347,1 / 178,6
1080p = 287,1 / 172,4
F1 2019
720p = 203,5 / 149,3
1080p = 182,5 / 128,2
Schneller wird's nicht, aber es tritt oft schon ein GPU-Limit ein bzw es wird stärker.
Danke, freut mich zu hören.
Es scheint also nicht mehr der Fall zu sein, dass man in 720p minimal fps verliert. Auch wenn es noch unzählige Spiele gibt ;)
Danke für den Kurz-Test :)
Heftig, wie einige Games selbst bei einer 2080 Ti in 1080p spürbar fps verlieren. Umgekehrt spielt die CPU in Ark SE wohl keine wesentliche Rolle, wenn selbst eine 2080 Ti die 60 fps in 1080p nicht halten kann (49,8 fps P99).
Auch wenn das einen echten Aufwand bedeuten würde, wäre eine andere Darstellung durchaus intressant:
statt einfach nur Zahlen und Balken wäre eine Tabelle interessant
__________CPU1 CPU2 CPU3
Spiel A
Spiel B
usw.
Dann füllt man die einzelnen Spalten mit farben ;) Schafft eine CPU eim P99 die 144 fps, dann z.B. Dunkelgrün, bei 60 fps Hellgrün, bei z.B. 45 fps Hellgelb, bei z.B. 30 fps Orange und darunter Rot.
Das ganze soll die bisherige Darstellung nicht(!) ersetzen sondern lediglich ergänzen. Natürlich sollten es möglichst viele Spiele sein (was natürlich enormen Aufwand bedeutet), um möglichst Aussagekräftig zu sein.
Wie ja schon in der Vergangenheit gesehen, sagen heutige Testergebnisse nicht viel aus, wenn es um die fps in zukünfigen Spielen geht. Siehe Bulldozer vs Sandy Bridge. Zuerst war Bulldozer hoffnungslos zurück, mittlerweile jedoch immer wieder vorne. Die Aussage, CPU' A ist HEUTE in 720p x% schneller und damit auch in Zukunft schneller ist damit obsolet. Auch schön zu sehen => https://www.computerbase.de/2017-11/cpu-aufruesten-benchmarks-test/2/#diagramm-rating-99th-percentile-frametimes-in-fps-720p => bei P99 in 2160p ist selbst ein 4.6 GHz i7 Sandy zu lahm und schafft es nicht die GPU auszulasten.
Auch wenn jeder eine Allumfassende Aussage zur Zukunftfähigkeit haben möchte - gerade bei Spielen ist es nicht möglich. Von daher wären statt den 200 zu 220 fps in 720p ganz interessant, ob eine CPU in wirklich jedem Game die 60fps beim P99 halten kann. Gerade wenn wir über wenige % Differenz in 720p reden, eine durchaus interessantere Übersicht. Oder ob eine CPU x die 144fps (144 Hz) halten kann.
y33H@
2019-07-08, 13:08:58
@ dildo4u
Das war aber vorher auch ganz offensichtlich zu lahm.
Die Aussage, CPU' A ist HEUTE in 720p x% schneller und damit auch in Zukunft schneller ist damit obsolet.Ein Spiel ist ja immer eine Momentaufnahme - genauso wie Firmware, OS, Treiber etc ... es gibt nur eine Tendenz, dass eine CPU, die heute +33% vorne ist bei gleicher (!) Kernzahl, dass sich das grob halten wird.
Birdman
2019-07-08, 13:08:59
Neues MSI Bios bringt den 3900x zumindest auf 4.5Ghz.
https://twitter.com/andreif7/status/1148170909322293248?s=09
Einmal mehr hält das Sprichwort dass AMD bei einem Produkt-Launch immer etwas verkackt.
Sowas ein paar Tage früher released und die ganzen Reviews könnten wohl durchs Band noch etwas besser aussehen.
Im nachhinein geht das ganze aber komplett unter - klar einige Seiten werden Nachtests durchführen, aber sicher nicht alle. Zudem haben sich die Balken der initialen Reviews doch bereits in alle Köpfe eingebrannt...
Rancor
2019-07-08, 13:10:17
@ Deathcrush
Schneller als ein 8700 non k sind die Zen 2 schon. "Lohnen" in Sachen Mehrleistung würde es sich aber wohl nicht.
BlacKi
2019-07-08, 13:10:34
Achso jetzt verstehe ich es. Dir geht es im wesentlichen um deinen 8700k. Sag das doch gleich. Ja den hast du toll gekauft... :comfort: :facepalm:
nope, mir gehts um die performance. aber nice try.
aufkrawall
2019-07-08, 13:12:12
Es scheint also nicht mehr der Fall zu sein, dass man in 720p minimal fps verliert. Auch wenn es noch unzählige Spiele gibt ;)
Kann etwa durchs Streaming passieren, ändert aber nichts an 720p als präferierte Auflösung für CPUs. Diese Abweichungen in höheren Auflösungen sind doch eh nur Peanuts.
dargo
2019-07-08, 13:12:20
Zudem haben sich die Balken der initialen Reviews doch bereits in alle Köpfe eingebrannt...
Ja... und diese sind sehr posititiv ausgefallen. :P Wenn die CPUs jetzt etwas höher boosten gibts halt einen kleinen Bonus oben drauf.
Rancor
2019-07-08, 13:12:38
nope, mir gehts um die performance. aber nice try.
Deshalb schreibst du auch zum Zeitpunkt des Kaufes :rolleyes:.... Passt scho Chekov..
Natürlich geht es dir um deinen Kauf, daher auch der permanente Hinweis von dir, das CFL ja mit krass schnellem Speicher und OC nochmal vielmal heftiger ist als ohne....
Sweepi
2019-07-08, 13:14:06
Die zeigen nur eines, dass sie keine Ahnung haben wie man CPUs bencht.
Wenn in einem Test mal AMD und Intel vorne liegt, dann liegt das an einem immer mal wieder vorliegenden GPU Bottleneck.
Anandtech misst alle Spiele in 4 Settings, meist 720p, 1080p, 1440p und 4k.
Ich habe mich allerding auf die synthetischen Latenz- und Bandbreiten-Benchmarks von Cache und RAM bezogen.
https://www.tomshw.de/2019/07/07/amd-ryzen-3900x-und-3700x-im-test-igorslab/5/
https://www.anandtech.com/show/14605/the-and-ryzen-3700x-3900x-review-raising-the-bar/2
Allerdings zeigt sich auch in Games ein nicht lineares Verhalten:
Nimm im Regelbetrieb 1080p eine stärkere GPU und du hast dieselben FPS.
World of Tanks, 768p, 1080p Medium, 1080p Ultra, 4k Ultra, 95th:
https://images.anandtech.com/graphs/graph14605/111230.png
https://images.anandtech.com/graphs/graph14605/111232.png
https://images.anandtech.com/graphs/graph14605/111234.png
https://images.anandtech.com/graphs/graph14605/111236.png
4k laufen alle ins GPU-Limit.
1080p Ultra: 7700k knapp vor 3700X (+ 1%), kein GPU-Limit, 9900k ist 6.2% schneller als 3700X
1080p Medium: 7700K deutlich hinter 3700X (-17.8%)
768p Medium: 7700K deutlich hinter 3700X (-16.8%)
Gäbe es nur CPU- und GPU-Limit, lässt sicher der Unterschied
zwischen 1080p Ultra und 1080p/768p Medium nicht erklären.
Es gibt jedoch unterschiedliche Cache (und RAM) Größen, Latenzen und Durchsatzraten, welche nicht linear sind!;
Beispiel: Ist das Bottleneck die Cache Latenz, liegt Intel vorne. Ändere ich nun Parameter A, bekommt Intel vermehrt Cache Misses und muss häufiger auf den RAM zugreifen, während AMD mit dem L3 auskommt -> AMD liegt vorne. Ändere ich nun Parameter A weiter, verliert der größere L3 Cache nach und nach an Bedeutung, bis schließlich die RAM Latenz ausschlaggebend ist, folglich liegt wieder Intel vorne.
maximus_hertus
2019-07-08, 13:14:43
Kann etwa durchs Streaming passieren, ändert aber nichts an 720p als präferierte Auflösung für CPUs. Diese Abweichungen in höheren Auflösungen sind doch eh nur Peanuts.
2% langsamer als die Konkurrenz => EPIC FAIL
2% schneller => Wow! Revolutionär!
Das ist doch die "Wahrheit". Egal wo, ob hier, Computerbase oder sonstwo, es ist teils extrem emotional und oft unlogisch.
Ich sehe das entspannt, ob nun 70 oder 75 fps macht eh keinen relevanten Unterschied.
aufkrawall
2019-07-08, 13:19:20
Macht es auch nicht, aber im Extremfall wie Dunia kann die Differenz offenbar immer noch größer sein.
SKYNET
2019-07-08, 13:20:25
Hier https://www.techpowerup.com/review/amd-zen-2-memory-performance-scaling-benchmark/
werde dann wohl mein setting von jetzt übernemhmen, 3600 mit superscharfen timings... das wird drücken ;D
Stretcher
2019-07-08, 13:21:10
Arbeite mal an deiner Lesekompetenz. Im Zitat spreche ich von RTX Titan!
Und beziehst dich mit deinem Kommentar auf die Anandtech Benchmarks die gar keine Titan einsetzen.
Irren ist menschlich.
Deathcrush
2019-07-08, 13:22:30
@ Deathcrush
Schneller als ein 8700 non k sind die Zen 2 schon. "Lohnen" in Sachen Mehrleistung würde es sich aber wohl nicht.
Sicher? Die ersten Spielebenchmark´s die ich mir so angeschaut habe, lag der 8700k sehr oft vor dem AMD und ab und zu nur leicht dahinter. Wechselstimmung ist da, aber irgendwie siegt da die vernunft. Wäre der AMD jetzt durchgehend Non OC schneller und durch´s OC dann noch mal 10-15% oben drauf, würde ich wechseln. Bei einem quasi Gleichstand ist mir das Geld dann doch zu schade, auch wenn ich mal wieder Bock auf ein AMD System habe.
MiamiNice
2019-07-08, 13:23:49
werde dann wohl mein setting von jetzt übernemhmen, 3600 mit superscharfen timings... das wird drücken ;D
Ich bin sehr gespannt wie weit Du die Kiste drücken kannst. Hoffentlich erwischst Du kein Montags Sample.
BlacKi
2019-07-08, 13:25:30
2% langsamer als die Konkurrenz => EPIC FAIL
2% schneller => Wow! Revolutionär!
Das ist doch die "Wahrheit". Egal wo, ob hier, Computerbase oder sonstwo, es ist teils extrem emotional und oft unlogisch.
Ich sehe das entspannt, ob nun 70 oder 75 fps macht eh keinen relevanten Unterschied.
wo? ich finde hier keine solchen kommentare. ich frag schon zum 4. mal.
dargo
2019-07-08, 13:25:38
Und beziehst dich mit deinem Kommentar auf die Anandtech Benchmarks die gar keine Titan einsetzen.
Du hast immer noch Schwierigkeiten mit deiner Lesekompetenz. Bei den Tests von Anandtech habe ich dir explizit geschrieben, dass die GTX1080 wesentlich besser die Praxis widerspiegelt als eine RTX 2080TI oder die völlig überteuerte RTX Titan.
Ravenhearth
2019-07-08, 13:28:23
Bei Hardwareunboxed ist der Intel im Mittel 15 bis 20% schneller, beide mit gleichem RAM, außer in Assassins Creed gibt es einen knappen Gleichstand.
Aber in keinem einzigen Spiel ist ein AMD vorne, teilweise unterschiede in den Low 1% bis zu 30%.
Im Mittel von 9 Spielen ist der i9-9900k 10% vor den Ryzen, nicht 15-20% (siehe 28:10)
Ich möchte noch anfügen: Bei Hardwareunboxed wurden die Ryzen mit dem Stock-Kühler getestet und die Intels mit Wasserkühlung. Das wurde zwar in die Perf/$-Betrachtung mit einbezogen, aber als Vergleich der absoluten Performance taugt der Test daher nicht zu 100%. Bei CB brachte der Noctua NH-U14S-Luftkühler statt Stock beim 3900X schon 3-5% mehr Performance...
Rancor
2019-07-08, 13:30:33
Sicher? Die ersten Spielebenchmark´s die ich mir so angeschaut habe, lag der 8700k sehr oft vor dem AMD und ab und zu nur leicht dahinter. Wechselstimmung ist da, aber irgendwie siegt da die vernunft. Wäre der AMD jetzt durchgehend Non OC schneller und durch´s OC dann noch mal 10-15% oben drauf, würde ich wechseln. Bei einem quasi Gleichstand ist mir das Geld dann doch zu schade, auch wenn ich mal wieder Bock auf ein AMD System habe.
Aber du hast doch einen non K oder nicht? Aber wie gesagt, lohnen tut es sich nicht, da hast du recht
MiamiNice
2019-07-08, 13:30:55
Mir fällt da gerade ein eines möchte ich unbedingt loswerden. AMDs "Werbung" war ja bisher immer nicht wirklich existent. Wissen wir alle, kräht kein Hahn mehr nach. Aktuell geht es dann so: "Zen2 kann bis zu 5100+ Ram, bla bla, Werbetrommel rühr". Ich mein aggressive Werbung machen ist OK. Aber 5100 dran schreiben und dann mit einem 2:1 Teiler um die Ecke kommen sollte auch AMD nicht nötig haben. So ein Mittelmaß fände ich persönlich dann schon passender.
Stretcher
2019-07-08, 13:31:56
Anandtech misst alle Spiele in 4 Settings, meist 720p, 1080p, 1440p und 4k.
Haste recht, da sind 720p dabei und da sind die Unterschiede auch erträglicher.
Teilweise scheint dort aber selbst in 720p und "nur" einer 1080 trotzdem die GPU zu limitieren.
Grand Theft Auto ist so ein Kandidat.
dargo
2019-07-08, 13:35:23
Sicher? Die ersten Spielebenchmark´s die ich mir so angeschaut habe, lag der 8700k sehr oft vor dem AMD und ab und zu nur leicht dahinter. Wechselstimmung ist da, aber irgendwie siegt da die vernunft. Wäre der AMD jetzt durchgehend Non OC schneller und durch´s OC dann noch mal 10-15% oben drauf, würde ich wechseln. Bei einem quasi Gleichstand ist mir das Geld dann doch zu schade, auch wenn ich mal wieder Bock auf ein AMD System habe.
Dann schau mal hier.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12042953&postcount=449
Deine Erwartungshaltung ist einfach zu hoch. Ein richtiges Upgrade wäre bei dir mindestens ein R7 3700X. Aber auch nur wenn Games von 16 Threads gut profitieren, das dauert noch. Vielleicht 2020/2021. Schön zurücklehen und schauen was Ryzen 3 wenn nicht sogar Ryzen 4 bringen.
Savay
2019-07-08, 13:37:42
Aber 5100 dran schreiben und dann mit einem 2:1 Teiler um die Ecke kommen sollte auch AMD nicht nötig haben. So ein Mittelmaß fände ich persönlich dann schon passender.
Du suchst doch echt in den absurdesten Dingen ein Haar in der Suppe.
Bisher war der IMC fix am Fabric gekoppelt...jetzt nicht mehr zwingend 1:1. :rolleyes: Das ist doch wohl klar ein Fortschritt.
Hat Intels Mesh oder Ringbus und deren DMI etwa keinen BClk der irgendwie mit dem IMC usw. synchronisiert werden muss?
dargo
2019-07-08, 13:38:43
Mir fällt da gerade ein eines möchte ich unbedingt loswerden. AMDs "Werbung" war ja bisher immer nicht wirklich existent. Wissen wir alle, kräht kein Hahn mehr nach. Aktuell geht es dann so: "Zen2 kann bis zu 5100+ Ram, bla bla, Werbetrommel rühr". Ich mein aggressive Werbung machen ist OK. Aber 5100 dran schreiben und dann mit einem 2:1 Teiler um die Ecke kommen sollte auch AMD nicht nötig haben. So ein Mittelmaß fände ich persönlich dann schon passender.
:confused:
Der Speichertakt läuft doch mit seiner hohen Frequenz, auch beim anderen IF-Teiler. Suchst du wieder das Haar in der Suppe? Zumal AMD ganz offiziell auf den Teiler hingewiesen hat.
https://www.heise.de/imgs/18/2/6/9/3/8/8/7/Ryzen_3000_Speicher-OC-eca667d408e5e53d.jpeg
AMD gibt sogar eine Sweetspot Empfehlung beim Speicher und es wird trotzdem gemeckert. Unfassbar...
Stretcher
2019-07-08, 13:39:13
Du hast immer noch Schwierigkeiten mit deiner Lesekompetenz. Bei den Tests von Anandtech habe ich dir explizit geschrieben, dass die GTX1080 wesentlich besser die Praxis widerspiegelt als eine RTX 2080TI oder die völlig überteuerte RTX Titan.
Es geht bei CPU benchmarks aber nicht um die "Praxis".
Anandtech hat zumindest 754p Benchmarks noch gemacht, die das Bild schon verbessern, jetzt brauchen die nur noch ein paar Titel die CPU lastiger sind, bzw eine fettere GPU.
werde dann wohl mein setting von jetzt übernemhmen, 3600 mit superscharfen timings... das wird drücken ;D
:up:
Hab haufenweise Zettel mit Tabellen... für Meinen RAM :biggrin:
(leider nur bis 3466, aber mehr Saft drauf und Gut :freak:)
Leider werde ich diese Woche wohl noch keine CPU bekommen :mad:
No, no limits, we'll reach for the sky
No temperature to deep, no voltage too high
No, no limits, won't give up the fight
We do what we want and we do it with pride
M.f.G. JVC
aufkrawall
2019-07-08, 13:43:15
Hat Intels Mesh oder Ringbus und deren DMI etwa keinen BClk der irgendwie mit dem IMC usw. synchronisiert werden muss?
Intel hatte doch deshalb den "Cache"-Takt irgendwann nach Sandy wieder entkoppelt, weil der mit den neuen Architektur zum Takt-Krüppel verkommen ist (was aber für die Performance egal ist)?
dargo
2019-07-08, 13:44:49
Anandtech hat zumindest 754p Benchmarks noch gemacht, die das Bild schon verbessern, jetzt brauchen die nur noch ein paar Titel die CPU lastiger sind, bzw eine fettere GPU.
Zukünftig gehen immer mehr Spiele Richtung DX12/Vulkan. Ergo wird sich das ganze noch stärker Richtung GPU-Limit verschieben. Eine fettere GPU wird vor Ende 2020 nicht kommen. Bis dahin hast du schon den nächsten Ryzen. Zudem erwarte keine Wunder von der nächsten GPU. Irgendwo bei +50-60% wird man wohl landen, das wars.
maximus_hertus
2019-07-08, 13:45:40
Ich möchte noch anfügen: Bei Hardwareunboxed wurden die Ryzen mit dem Stock-Kühler getestet und die Intels mit Wasserkühlung. Das wurde zwar in die Perf/$-Betrachtung mit einbezogen, aber als Vergleich der absoluten Performance taugt der Test daher nicht zu 100%. Bei CB brachte der Noctua NH-U14S-Luftkühler statt Stock beim 3900X schon 3-5% mehr Performance...
Echt? Wakü gegen boxed? Ernsthaft? WTF?!
Achim_Anders
2019-07-08, 13:45:49
Haste recht, da sind 720p dabei und da sind die Unterschiede auch erträglicher.
Teilweise scheint dort aber selbst in 720p und "nur" einer 1080 trotzdem die GPU zu limitieren.
Grand Theft Auto ist so ein Kandidat.
Magst du mir bitte noch mal erklären, inwiefern das relevant?
Ab 1080p ist bei den CPU´s in den Frametimes quasi kein Unterschied feststellbar. Da reden wir noch nicht mal darüber, dass es nie und nimmer fühlbar/wahrnehmbar ist, wenn nicht gerade die Frametimes getrackt werden, oder man beim Zocken nicht auf das Spiel, sondern einen FPS Counter schaut...
Alle deine Beispiele widerlegen deine Argumentation... Für 95% der Käufer gibt es zwischem nem 3600 und nem i9 9900 im Alltag beim zocken KEINEN bemerkenswerten Unterschied.
ALLE diese Tests sind letztlich Kaufberatungen. --> Ergo geht es da NUR um die Praxis. Ausnahme sind Sondertests oder Abschnitte in Tests, die auf die Architekturunterschiede etc. eingehen. Geschenkt.
Du selbst hast gestern geschrieben, dass aus einer praktischen Perspektive Ryzen nun zu bevorzugen sei.
Bitte, welche Diskussion führst du hier? Ich verstehe es echt nicht?! Was genau ist dein Punkt, deine These, Aussage?!
Theoretisch ist der i9 in den Framestimes x% schneller in 720p ? Und nun, was bringt dir und uns diese Erkenntnis?!
MiamiNice
2019-07-08, 13:45:49
Du suchst doch echt in den absurdesten Dingen ein Haar in der Suppe.
Bisher war der IMC fix am Fabric gekoppelt...jetzt nicht mehr zwingend 1:1. :rolleyes: Das ist doch wohl klar ein Fortschritt.
Hat Intels Mesh oder Ringbus und deren DMI etwa keinen BClk der irgendwie mit dem IMC usw. synchronisiert werden muss?
Es geht mir nicht um die Leistung oder Technik dahinter. Man lässt 5100+ Ramtakt durchsickern und dem Hype zu schüren und hinterher erfährt man was vom dem Teiler. Ich bemängele die Art des gezielten Informationsflusses, nicht das Produkt.
BlacKi
2019-07-08, 13:46:54
Bisher war der IMC fix am Fabric gekoppelt...jetzt nicht mehr zwingend 1:1. :rolleyes: Das ist doch wohl klar ein Fortschritt.
wenn das entkoppeln eine bessere performance ermöglicht, dann ja. aber derzeit sehe ich das nicht, bzw. klebt da noch ein großes fragezeichen ob das noch kommt.
Man lässt 5100+ Ramtakt durchsickern und dem Hype zu schüren und hinterher erfährt man was vom dem Teiler. Ich bemängele die Art des gezielten Informationsflusses, nicht das Produkt.
Ich wusste davor vom Teiler :tongue:
(und jeder der die Information finden wollte, fand sie auch ;))
M.f.G. JVC
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.