PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 2/Ryzen 3000 Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 [20] 21 22 23 24 25 26 27 28 29 30 31

Swissr
2019-09-20, 20:27:42
Es gibt doch schon offizielle ABBA?

Nein, nicht für mein MB

Zossel
2019-09-20, 21:00:32
Ryzen 9 3950X erscheint mit Threadripper v3 im November

https://www.golem.de/news/16-kern-cpu-ryzen-9-3950x-erscheint-mit-threadripper-v3-im-november-1909-144003.html

https://community.amd.com/community/amd-corporate/blog/2019/09/20/an-update-of-amd-ryzen-processors-availability

Könnte da ein Respin oder eine neue Maskenrevison dahinter stecken?
Es gibt ja auch eine neue Servervariante mit anderem Taktverhalten.

w0mbat
2019-09-20, 21:13:45
Ich denke AMD hat einfach die Nachfrage unterschätzt.

Radeonfreak
2019-09-20, 21:24:33
Nein, nicht für mein MB

Wenn das einfach so irgend jemand auf die schnelle erstellen kann wieso kann das MSi nicht? :uconf:

MR2
2019-09-20, 22:42:20
Der 3900X bei MF steht jetzt bei 3260 St. Was haben die da diese Woche verkauft? 600 - 800 St?
Am 25. sollen die nächsten kommen. Geile Scheiße! Der FX51 bzw. FX53 kamen damals auch 1000DM. Wurden da auch soviele verkauft?;D

Matrix316
2019-09-20, 22:48:54
Wäre es nicht sinnvoller gewesen den 3950X gleich als Threadripper anzubieten? Ich meine, der 3900X ist ja eigentlich grenzwertig für viele Boards, aber überlegt mal zwei 3800X die noch höher boosten... ob da AM4 ausreicht? Die X570 Boards kosten eh schon so viel wie TR Boards...

robbitop
2019-09-20, 22:50:20
Der 3900X bei MF steht jetzt bei 3260 St. Was haben die da diese Woche verkauft? 600 - 800 St?
Am 25. sollen die nächsten kommen. Geile Scheiße! Der FX51 bzw. FX53 kamen damals auch 1000DM. Wurden da auch soviele verkauft?;D
K8 war längst zu Euro Zeiten. ;)
DM war höchstens noch K7.

MR2
2019-09-20, 22:55:52
Stimmt, fast 800 Euronen kostete der FX53. Wäre der 3950X Preis.

Snoopy69
2019-09-20, 23:55:24
3950X erst im November - ich kotze ;(
Hab mich total auf die nächsten Tage eingestellt

Wenn der dann gleichzeitig mit dem Threadripper kommt und die Dinger nicht zu teuer sind, nehm ich evtl. einen Threadripper (vorausgesetzt die Leistung stimmt auch)

Lehdro
2019-09-21, 00:00:35
Wäre es nicht sinnvoller gewesen den 3950X gleich als Threadripper anzubieten? Ich meine, der 3900X ist ja eigentlich grenzwertig für viele Boards, aber überlegt mal zwei 3800X die noch höher boosten... ob da AM4 ausreicht? Die X570 Boards kosten eh schon so viel wie TR Boards...
Was soll an einem 3950X auf den X570 grenzwertig sein? Der Stromverbrauch kann es schon einmal nicht sein, denn die TDP und damit der Maximalverbrauch ist identisch zum 3900X @ Stock (~144W). Zum Boost: Beim Single Core Boost ist die TDP wohl eher das Letzte was begrenzt.

Achja: Die X570 sind durch die Bank dicker bestückt mit VRMs als es noch X370 und X470 waren und selbst die hatten bei vernünftiger Bestückung eher keine Probleme mit 200W reiner CPU Last. Intel verballert mit ähnlicher VRM Bestückung auch mal eben 250W unter Last bei starkem OC, da hört man auch gar nix von abgerauchten Mainboards - also bitte keine Probleme herbeireden wo keine existieren. Ob die Silicon Quality die 4,7 GHz zuverlässig hergibt ist allerdings eine andere Baustelle, denke aber das AMD da doch schon ordentlich aussiebt.

Armaq
2019-09-21, 00:58:16
Der 3950x und auch Threadripper haben einen deutlich niedrigeren Basistakt als der 3900x. Ganze 300 Mhz weniger Basistakt hat ein 3950 ggü 3900.

Wenn ihr jetzt schon spastische Anfälle bekommt, weil der Boost-Takt nicht erreicht wird, dann freut euch auf den Chip. 16 Kerne haben ggü. 12 Kernen die gleiche oder größere Nachteile als der 12er im Verhältnis zum 8er.

Noch etwas zum abba BIOS auf dem C7H. Wenn ich die Lüfter zügele, verhält sich der Boost ggü. abb genau gleich. PBO führt bei mir ungezügelt sogar (500 Amp. etc.) zu 4650 Mhz SC Boost, aber der Multicore Boost sinkt signifikant auf unter 4000 Mhz. Ich werde daher auch mal mit Offset experimentieren und kann nur empfehlen PBO nicht zu nutzen.

x-force
2019-09-21, 01:48:29
Der 3950x und auch Threadripper haben einen deutlich niedrigeren Basistakt als der 3900x. Ganze 300 Mhz weniger Basistakt hat ein 3950 ggü 3900.

logisch, wie willst du sonst mit steigenden kernen die tdp halten?
selektion hilft nur zum gewissen grad.


Wenn ihr jetzt schon spastische Anfälle bekommt, weil der Boost-Takt nicht erreicht wird, dann freut euch auf den Chip.

ich rechne damit, dass sich der single core boost ähnlich wie bei den kleineren cpus verhält.

Armaq
2019-09-21, 01:52:28
Der SC Boost steht schon fest und du bist doch einer von den Meckerköpfen die nicht mal einen Ryzen haben und sich wegen 50 Mhz aufregen. Ist nur ne fair gemeinte Warnung, nicht das jmd. noch einen Herzinfarkt erleidet.

Thunder99
2019-09-21, 07:35:59
Bei gleicher Thread Nutzung sollte er aber besser laufen als 3900x.

genervt
2019-09-21, 07:37:03
Ansonsten als Tipp, die Outlet-Stores der üblichen Händler stalken, vereinzelnd gibts da auch mal Rückläufer und ähnliches, hab so mein 3900X bei Alternate deutlich früher bekommen und 40 € günstiger ;) (der Karton hatte eine Delle).
Kann ich auch nur empfehlen. 60€ gespart auf den 3700X. Mein Bruder hat sogar ne 2060 Super für 349€ an Land gezogen. Da war nix dran.

Zossel
2019-09-21, 07:55:57
Wäre es nicht sinnvoller gewesen den 3950X gleich als Threadripper anzubieten? Ich meine, der 3900X ist ja eigentlich grenzwertig für viele Boards, aber überlegt mal zwei 3800X die noch höher boosten... ob da AM4 ausreicht? Die X570 Boards kosten eh schon so viel wie TR Boards...

Das Gute wird wahrscheinlich sein das du die Wahl haben wirst.

Armaq
2019-09-21, 09:39:07
Bei gleicher Thread Nutzung sollte er aber besser laufen als 3900x.
Wie kommst du darauf? Weil die Idle Kerne zusätzlich Wärme aufnehmen können? Boostclock ist ja nur 100 Mhz über dem 3900x, daher ist das Limit hier ein anderes.


Zum Offset:
Ich habe mit dem Offset noch Werte gesammelt. Bei mir hat das definitiv negativen Einfluss auf die Multicore-Performance. Die ohnehin nicht so gut taktbaren Kerne verlieren mit Offset deutlich an Takt (teilweise 225-150 Mhz) in den Benchmarks die alle Threads belegen. Da ich ansonsten bis zu 4200 Mhz raushole mit angepassten Lüfterprofilen würde eine bessere Temperatur im Kern sich mMn. sogar besser bemerkbar machen. Das ist nicht der Fall. Die schlechten Kerne brauchen einfach mehr Dampf.

SKYNET
2019-09-21, 10:26:26
Oder aber (ich weiß, verrückt) AMD priorisiert Rome. Die Chiplets wandern schließlich nicht nur in die Ryzens dieser Welt. ;)

bringt AMD aber für die mundpropaganda nix, wenn die server verfügbar sind, aber desktop leer ausgeht... nicht zwingend wegen umsatz, da gibts im server bereich mehr zu holen, aber die desktop community ist einiges grösser als die der server, und wenn das ding totgeredet wird, is das eher wenig zuträglich

SKYNET
2019-09-21, 10:27:53
Der 3950x und auch Threadripper haben einen deutlich niedrigeren Basistakt als der 3900x. Ganze 300 Mhz weniger Basistakt hat ein 3950 ggü 3900.

Wenn ihr jetzt schon spastische Anfälle bekommt, weil der Boost-Takt nicht erreicht wird, dann freut euch auf den Chip. 16 Kerne haben ggü. 12 Kernen die gleiche oder größere Nachteile als der 12er im Verhältnis zum 8er.

Noch etwas zum abba BIOS auf dem C7H. Wenn ich die Lüfter zügele, verhält sich der Boost ggü. abb genau gleich. PBO führt bei mir ungezügelt sogar (500 Amp. etc.) zu 4650 Mhz SC Boost, aber der Multicore Boost sinkt signifikant auf unter 4000 Mhz. Ich werde daher auch mal mit Offset experimentieren und kann nur empfehlen PBO nicht zu nutzen.


sag mir mal ein szenario wo nen ryzen(egal ob 1k, 2k oder 3k) jemals auf basistakt läuft(ausser bei sachen die die leistung eh nicht brauchen, und wo es puppe ist ob das ding mit 2GHz rennt oder mit 5GHz)? die dinger boosten durchweg ;)

Armaq
2019-09-21, 11:36:18
In prime hab ich noch 3950 MHz. Der Basis Takt hat einen Grund und ist kein Betrug. Mit dem Stock Kühler wird das nichts mit dem Boost.

Zossel
2019-09-21, 11:43:29
bringt AMD aber für die mundpropaganda nix, wenn die server verfügbar sind, aber desktop leer ausgeht... nicht zwingend wegen umsatz, da gibts im server bereich mehr zu holen, aber die desktop community ist einiges grösser als die der server, und wenn das ding totgeredet wird, is das eher wenig zuträglich

Doppelt soviel Rumms und Bumms pro Rack bei gleichen Verbrauch, was gibt es da groß zu diskutieren oder zu hinterfragen?

SKYNET
2019-09-21, 11:46:04
In prime hab ich noch 3950 MHz. Der Basis Takt hat einen Grund und ist kein Betrug. Mit dem Stock Kühler wird das nichts mit dem Boost.

spielst du prime? :rolleyes::freak::tongue:

und den boxed beim 12 oder sogar 16er zu verwenden, ist dann ja wirklich dummheit... wenn luft muss da was fettes rauf, optimal ist wasser oder nen chiller.

Snoopy69
2019-09-21, 13:46:32
Die schlechten Kerne brauchen einfach mehr Dampf.
Hab ja noch kein Ryzen, aber kann man jedem einzelnen Core einen passenden VCore geben?

Wenn nein, dann sollte man für die Zukunft da auch mal dran arbeiten. So kann man das Maximum herausholen bzw. ihn noch energieeffizienter betreiben
Im BIOS mit einer Standard-Einstellung (einen einzigen VCore) und eine erweiterte Einstellung für Feintuning (jeder Core)

Isen
2019-09-21, 14:06:58
Hab ja noch kein Ryzen, aber kann man jedem einzelnen Core einen passenden VCore geben?


Nur pro CCX
Dafür gibt es ein Tool.

Snoopy69
2019-09-21, 14:16:26
Ok, danke

Armaq
2019-09-21, 14:33:47
Hab ja noch kein Ryzen, aber kann man jedem einzelnen Core einen passenden VCore geben?

Wenn nein, dann sollte man für die Zukunft da auch mal dran arbeiten. So kann man das Maximum herausholen bzw. ihn noch energieeffizienter betreiben
Im BIOS mit einer Standard-Einstellung (einen einzigen VCore) und eine erweiterte Einstellung für Feintuning (jeder Core)
Ja per CCCX geht das sogar, aber es ist extrem aufwendig und ich fahre mit den Standards besser. Alle "Geheimtipps" die ich bisher probiert habe, waren wenig funktional.

Per Core OC habe ich nur von nem "Profi" gesehen und der hatte damit gute Ergebnisse, aber auch ne andere Infrastruktur und ich hab ja nun keine Schlechte.

In Spielen boostet der 3900x munter auf 4400 Mhz, aber ich glaube nie alle wirklich gleichzeitig, das ist einfach nicht mehr darstellbar und bedürfte anderer Messreihen.

Bin jetzt mit allen Einstellungen durch mit dem ABBA BIOS und werde, insofern nichts dramatisches passiert, das auch gar nicht mehr updaten. Ich habe jetzt folgende Maxboost-Werte auf den Cores 0-11

4551
4652
4499
4501
4652
4549
_____
4399
4349
4399
4326
4326
4349

Die Zäsur bei den Chiplets ist mehr als deutlich. Aber das Upselling Potential für AMD ist hoch. Sie können später Golden Samples mit 2 guten Chiplets rausgeben.

Snoopy69
2019-09-21, 14:36:11
aber auch ne andere Infrastruktur und ich hab ja nun keine Schlechte.

Welche Infrastruktur meinst du?

Linmoum
2019-09-21, 14:45:59
Ich hab jetzt mit ABBA 4 Kerne, die >=4400MHz schaffen (vorher 2).

https://i.gyazo.com/06300268aa02991b4095f49b48fda774.jpg
#0: 4400
#1: 4300
#2: 4350
#3: 4350
#4: 4425
#5: 4375
#6: 4400
#7: 4400

#4 schafft über den gesamten CB20-Run einen Avg. Clock von rund 4380MHz. Man sieht jetzt auch sehr deutlich, dass nur noch ein Kern wirklich hoch taktet und die anderen deutlich dahinter bleiben. Vorher hatte ich idR immer mindestens noch einen zweiten, der ähnlich hoch getaktet hat und zwischen denen es immer am hin- und herspringen war. Punktzahl für den SC-Run lag bei 511 Punkten.

BCLK-OC bei allem rausgerechnet.

Snoopy69
2019-09-21, 15:02:11
Ich hab jetzt mit ABBA 4 Kerne, die >=4400MHz schaffen (vorher 2).

https://i.gyazo.com/06300268aa02991b4095f49b48fda774.jpg
#0: 4400
#1: 4300
#2: 4350
#3: 4350
#4: 4425
#5: 4375
#6: 4400
#7: 4400

#4 schafft über den gesamten CB20-Run einen Avg. Clock von rund 4380MHz. Man sieht jetzt auch sehr deutlich, dass nur noch ein Kern wirklich hoch taktet und die anderen deutlich dahinter bleiben. Vorher hatte ich idR immer mindestens noch einen zweiten, der ähnlich hoch getaktet hat und zwischen denen es immer am hin- und herspringen war. Punktzahl für den SC-Run lag bei 511 Punkten.

BCLK-OC bei allem rausgerechnet.
Sicher, dass das normal ist mit so wenig Last?
Ok, vom Ryzen hab ich null Ahnung...

Müsste das nicht in etwa so aussehen? (all-core 100%)

https://abload.de/img/cb20x86kji.png

Radeonfreak
2019-09-21, 15:32:18
4551
4652
4499
4501
4652
4549
_____
4399
4349
4399
4326
4326
4349

Hab ja nur Ab aber so viel anders siehts jetzt nicht aus.

https://abload.de/img/unbenannt66jdi.png

Mangel76
2019-09-21, 15:49:05
Ich hab jetzt mit ABBA 4 Kerne, die >=4400MHz schaffen (vorher 2).

https://i.gyazo.com/06300268aa02991b4095f49b48fda774.jpg
#0: 4400
#1: 4300
#2: 4350
#3: 4350
#4: 4425
#5: 4375
#6: 4400
#7: 4400

#4 schafft über den gesamten CB20-Run einen Avg. Clock von rund 4380MHz. Man sieht jetzt auch sehr deutlich, dass nur noch ein Kern wirklich hoch taktet und die anderen deutlich dahinter bleiben. Vorher hatte ich idR immer mindestens noch einen zweiten, der ähnlich hoch getaktet hat und zwischen denen es immer am hin- und herspringen war. Punktzahl für den SC-Run lag bei 511 Punkten.

BCLK-OC bei allem rausgerechnet.
Du schummelst ja auch 😁. Mit Basetakt 101 geht kaum ein Kern auf Faktor 44 in deinem Screenshot.

Armaq
2019-09-21, 15:52:16
Hab ja nur Ab aber so viel anders siehts jetzt nicht aus.

https://abload.de/img/unbenannt66jdi.png
Das scheint der Standardbausatz für einen 3900x zu sein.

Ich hab nur bei mir die ganze Lüfteraction deutlich nach unten geschraubt und bin in 90% der Fälle jetzt lautlos unterwegs, das geht ja mit Stock Lüftereinstellungen nicht. 4650 gab es vor abba halt nicht, jetzt nutzt er den maximal möglichem Multiplikator halt aus.

Snoopy69
2019-09-21, 16:19:56
Mal durch die Runde gefragt...
Ist der 3900X eure teuerste CPU, die ihr jemals gekauft habt?

Morpog
2019-09-21, 16:41:09
Jep, ist sie. 529€ gegen meine letzte CPU für damals 178€ (ein 2500K im März 2011).
Mal sehen ob der 3900x genausolange hält wie mein von Anfang an übertakteter 2500K @ 4,5Ghz.

Snoopy69
2019-09-21, 16:49:18
Warum nicht?
Mir ist noch nie eine CPU kaputt gegangen. Auch nicht nach Extrem-OC mit viel Spannung
Kann beim Ryzenaber anders sein. Wird man sehen...

Morpog
2019-09-21, 16:51:56
Ich mein eher so leistungstechnisch. Der 2500K war da schon eine Ausnahme CPU durch die sehr gute Taktbarkeit.

Snoopy69
2019-09-21, 16:53:46
Ich dachte, mein 9900K wäre die teuerste CPU, die ich jemals hatte, aber ich hab mich getäuscht und bin sehr erschrocken, als ich eine Rechnung von 2007 gefunden hatte :eek:

dildo4u
2019-09-21, 17:06:06
Intel hat schon zu Pentium 4 Zeiten eine Extreme Edition verkauft.
Man konnte schon damals ordentlich Kohle für wenig Leistung verprassen.

Snoopy69
2019-09-21, 17:09:25
Die Rechnung von 2007 war vom QX9650 Core 2 Extreme mit 764,86€ von Mindfactory :ucrazy:
Der 3950X wird wohl einiges darüber liegen, denke ich mal...

Lehdro
2019-09-21, 20:15:45
Der 3950X wird wohl einiges darüber liegen, denke ich mal...
Warum sollte er? Der Preis steht doch schon fest: 749 $. Wenn wir uns die anderen UVPs anschauen können wir den Preis sehr gut in Euro interpolieren: etwa 750 € +/- 50€.

dargo
2019-09-21, 21:34:55
Bin ich eigentlich der einzige der den Preisunterschied zwischen 3600 und 3700X zu krass findet? Jetzt rein auf Games bezogen.

3600 = 187,90€
3700X = 326,90€

Der Preis vom R5 3600 ist echt mal krass.

y33H@
2019-09-21, 21:39:56
Games sind halt kein Scaling Faktor.

robbitop
2019-09-21, 21:41:23
Über 70% mehr Kosten für nur 33% mehr Kerne (was in heutigen Spielen vielleicht 10-15% ausmacht) -> der 3600 ist klar der bessere Deal.

dargo
2019-09-21, 21:42:56
Games sind halt kein Scaling Faktor.
Für viele hier im Forum schon. :)

Über 70% mehr Kosten für nur 33% mehr Kerne (was in heutigen Spielen vielleicht 10-15% ausmacht) -> der 3600 ist klar der bessere Deal.
Eben... wobei ich deine 10-15% für zu hoch gegriffen halte. Ich werde immer unsicherer ob ich nicht lieber doch zum 3600 greifen soll und in aller Ruhe dann Zen 3 abwarten. :uponder: Eigentlich hätte ich von dem 3700X in Games quasi nix. Ist halt die Frage ob Zen 3 noch mit X370 läuft? Aber selbst wenn nicht. In 1-2 Jahren wird so ein 3700X oder gar 3900X auch viel weniger kosten als heute.

Megamember
2019-09-21, 21:52:43
Beim 3600 wird halt auch meist der "Abfall" der Chipproduktion genommen. Lassen sich normal deutlich schlechter übertakten und laufen Auto auch viel niedriger.

dildo4u
2019-09-21, 21:54:37
Der 3600 ist nicht die unterste Stufe die kommen erst noch.
Intel hat unten Rum die Preise angepasst bzw der Markt man bekommt den 9400f für 140€.Für reines Gameing ist der nicht schlecht daher bringt AMD noch Modelle ohne SMT.

dargo
2019-09-21, 21:59:28
Beim 3600 wird halt auch meist der "Abfall" der Chipproduktion genommen. Lassen sich normal deutlich schlechter übertakten und laufen Auto auch viel niedriger.
Wen interessiert übertakten bei Zen 2? :tongue: Das Ding macht alles automatisch am besten sofern das Bios ordnungsgemäß seine Arbeit verrichtet. Hier bsw. läuft das Teil nahezu dauerhaft mit 4,2Ghz, auch wo die CPU mit low Details (ab 3:55) gut gefordert wird.
https://www.youtube.com/watch?v=YpQzs1dJDZc

Und ich glaube kaum, dass das Game eine Singlecore-Applikation ist. ;)

Thunder99
2019-09-21, 22:01:37
Hab mich daher für den 3600 entschieden. Zen 3 muss es dann richten vom Takt :wink:

Tesseract
2019-09-21, 22:08:35
Über 70% mehr Kosten für nur 33% mehr Kerne

eine CPU ist aber kein alleinstehendes produkt sondern teil eines gesamtsystems, ergo funktioniert die rechnung so nicht da der relative aufpreis viel geringer ist. ganz extrem ist die situation z.B. bei grakas wo +30% gesamtkosten (wo ram, netzteil, case usw. dabei sind) nur in die graka investiert mal eben zu +100% mehr fps führen kann obwohl die graka am papier weniger fps/€ hätte als die alternative. bei der CPU ist der effekt natürlich nicht so stark aber trotzdem vorhanden. außerdem kann man vom 3600 nicht mal eben 2 oder 3 nehmen um das doppelte oder dreifache zu bekommen.

der 3600 ist für den preis natürlich trotzdem außergewöhnlich gut, aber nicht so dominant wie es hier suggeriert wird.

robbitop
2019-09-21, 22:10:03
Wenn es bestes PL sein soll dann der 3600. Aufrüsten wenn es nicht reicht kann man ja immer. AMD bringt ja jetzt jedes Jahr neue CPUs. Echte Zukunftssicherbeit givt es bei PCs nicht. Man fährt IMO relativ gut damit immer so gut wie möglich im PL zu kaufen wenn man ein Upgrade braucht.

@Tesseract
Das stimmt objektiv schon. Aber IMO rechnet man es sich damit ein wenig schön.

dargo
2019-09-21, 22:20:47
der 3600 ist für den preis natürlich trotzdem außergewöhnlich gut, aber nicht so dominant wie es hier suggeriert wird.
Naja... ich sehe aktuell beim 3700X einen Aufpreis von 74% für 5% mehr Leistung. :freak:
https://www.computerbase.de/thema/prozessor/rangliste/#diagramm-test-performancerating-fuer-spiele-fps-fhd

P/L beim 3900X ist sogar extrem schlecht wenn wir das ganze jetzt rein auf Games übertragen.

dildo4u
2019-09-21, 22:28:27
Laut Mindfactory verkauft sich der 3700X fast so gut wie der 3600,könnte sogar sein das AMD da noch Marge liegen lässt mit den aktuellen Preis.
Bei der 2000 Serie liegt der 2600 hingegen massiv vor den 8 Cores.
Es hilft vermutlich das bekannt ist das die neuen Konsolen 8 Cores bekommen,fraglich ist natürlich ob die mit 4Ghz laufen selbst mit 7nm+.

dargo
2019-09-21, 22:44:39
Die 8 Cores in den neuen Konsolen ist imo nur "Panikmache". Die Konsolen werden eh nicht alle 16 Threads für Games verwenden können. Ich tippe auf 6C/12T oder max. 7C/14T. Zudem gehe ich von einem schleichenden Prozess aus was die Gameengines und stärkeres Multithreading angeht. Soll heißen... ich glaube nicht, dass schon Ende 2020 / Anfang 2021 ein R5 3600 ernsthafte Probleme was Threadanzahl angeht bekommt. Das mag u.U. 2022+ der Fall sein. Aber was juckt mich das heute schon? :) Bis dahin haben wir am Desktop schon Zen 4 in 5nm. :tongue:

Tesseract
2019-09-21, 23:02:21
es geht weniger um probleme vom 3600 als darum, dass spiele mit 12T+ einen 12C+ wesentlich besser auslasten können als vieles was momentan am markt ist und dementsprechend der corevorteil deutlicher ausfallen wird.

dargo
2019-09-21, 23:09:19
Spiele mit 12T+? Lol... :D

Was sagt deine Glaskugel wann die kommen sollen? Noch vor 2025? :tongue:

Morpog
2019-09-21, 23:22:30
Es soll tatsächlich Menschen geben die ihren PC nicht ausschließlich zum Zocken verwenden...

Armaq
2019-09-22, 00:05:34
Spiele mit 12T+? Lol... :D

Was sagt deine Glaskugel wann die kommen sollen? Noch vor 2025? :tongue:
Es braucht dafür nur eine neue Engine die das gut macht.

6 Kerne ist ein "jetzt" Kauf und kann total viel Sinn machen, wenn man aus P/L Sicht drauf schaut. Ich hab viel Spaß beim basteln mit dem 12 Kerner ;)

Snoopy69
2019-09-22, 00:10:43
Spiele mit 12T+? Lol... :D

Was sagt deine Glaskugel wann die kommen sollen? Noch vor 2025? :tongue:
Hm, ich könnte einen auf Greta Snoopberg machen und Demos für "Gaming for Future" anzetteln. Vielleicht gehts bis dahin... :ulol:

Ich hätte halt gerne mehr als 8 Cores für mehrere VMs gleichzeitig. Und da ich oft viel zippe, kämen 16 Cores auch ganz gut

Nightspider
2019-09-22, 00:39:33
Die 8 Cores in den neuen Konsolen ist imo nur "Panikmache". Die Konsolen werden eh nicht alle 16 Threads für Games verwenden können. Ich tippe auf 6C/12T oder max. 7C/14T.

2C/4T nur für das OS wäre absoluter Blödsinn. Das wäre die gesamte CPU Leistung der PS4, vielleicht sogar der PS4 Pro.

Wenn man nicht vor hat sinnfrei Leistung zu vergeuden würde, rein leistungstechnisch ein halber Kern oder 1-2 SMT Threads (keine echten Kerne) locker ausreichen.
Alles was Bideoverarbeitung betrifft läuft doch über Hardware-Beschleunigung und können schon die alten Konsolen.
Womit willst du denn während des Spieles noch Leistung beim OS verschleudern?

Soll heißen... ich glaube nicht, dass schon Ende 2020 / Anfang 2021 ein R5 3600 ernsthafte Probleme was Threadanzahl angeht bekommt. Das mag u.U. 2022+ der Fall sein. Aber was juckt mich das heute schon? :) Bis dahin haben wir am Desktop schon Zen 4 in 5nm. :tongue:

Naja was sind Probleme? Für den Einen sind 30fps ein Problem, für den anderen schon 45fps.

Dennoch werden die Konsolen die 4 bis 5 fache CPU Leistung der PS4 haben und die direkte Programmierung auf die Hardware zugeschnitten spart bei Konsolen Leistung, die bei PC Ports mit der brute force methode wieder herausgeholt werden muss.

Klar wird ein 3600er die PS5 Ports wiedergeben können, die Frage ist nur wie gut.

Spiele mit 12T+? Lol... :D

Wieso, er hat doch Recht?

Es gibt doch jetzt schon viele Games die zig Threads haben. Da sind dann halb zig kleine Threads dabei, die man in der Gesamtauslastung vielleicht kaum wahrnimmt aber ich glaube viele der neuen Konsolengames haben jetzt schon weit über 8 Threads. Davon liegen dann manchmal 3-5 Threads auf einem Kern um ihn halbwegs gut auszulasten.

Und mit den neuen Konsolen werden es nicht nur mehr Threads sondern die einzelnen Threads werden deutlich mehr Leistung ziehen dürfen.

Nightspider
2019-09-22, 00:41:12
Es braucht dafür nur eine neue Engine die das gut macht.

6 Kerne ist ein "jetzt" Kauf und kann total viel Sinn machen, wenn man aus P/L Sicht drauf schaut. Ich hab viel Spaß beim basteln mit dem 12 Kerner ;)

Sehe ich auch so. Der 3600er ist im Moment eine tolle Wahl.

Und nächstes Jahr wird man wahrscheinlich günstig, dank gleichem Sockel auf Zen 3 aufspringen können und dann gegebenfalls zu einer Variante mit mehr Kernen wechseln können.

w0mbat
2019-09-22, 02:18:37
Eben... wobei ich deine 10-15% für zu hoch gegriffen halte. Ich werde immer unsicherer ob ich nicht lieber doch zum 3600 greifen soll und in aller Ruhe dann Zen 3 abwarten. :uponder: Eigentlich hätte ich von dem 3700X in Games quasi nix. Ist halt die Frage ob Zen 3 noch mit X370 läuft? Aber selbst wenn nicht. In 1-2 Jahren wird so ein 3700X oder gar 3900X auch viel weniger kosten als heute.
Genau das war auch meine Überlegung als ich (völlig unnötigerweise) von 2600X auf 3600 gewechselt bin.

Ich bastel gerne und wenn Zen3 auf meinem Mobo läuft kommt nächstes Jahr sowieso wieder ne neue CPU.

x-force
2019-09-22, 04:21:52
Spiele mit 12T+? Lol... :D

Was sagt deine Glaskugel wann die kommen sollen? Noch vor 2025? :tongue:

ubi nutzt das bei ac jetzt schon ziemlich gut. das ist eines der ganz wenigen guten spiele, wo amd vor intel liegt, weil die engine so gut skaliert.

ich wette der erste ac teil für die neuen konsolen frisst jede cpu. ich würde keine gaming cpu unter 16t mehr kaufen wollen

Odal
2019-09-22, 07:23:22
So also ich habe jetzt auch mal diverse AGESA (AB, ABB, ABBA) durch und der Boost ist zumindest von der Anzeige jedesmal gestiegen und mit ABBA mittlerweile auf dem ausgewiesenen min. Niveau (also 175Mhz gestiegen).

Soviel zu den ganzen selbsternannten Experten damals und dem "Es gibt kein Boost Problem", "Da hast du selbst was falsch eingestellt" und "Der Boost ist da man kann es nur nicht auslesen".

Ob dies allerdings nur getrickst ist muss man mal nachmessen. Im Cinebench SingleCore habe ich jetzt zumindest Normpunktzahl. Gefühlt (schwankt ja) braucht das System jetzt aber 3-5 Watt an der Dose mehr (sowohl idle als auch Last). Und die Temperatur scheint ganz anders zu sein als vorher (vielleicht ist das ja der ABBA Trick - niedriegere Temperatur vorgaukeln -> boostet höher) d.h. mit eingebremsten PPT bei BF5 sind es max. 43°C (ich muss mal ohne PPT Limit testen)

D.h. Mindestanforderung ist erfüllt. Beim Rest gibts aber noch Probleme ( Aufwachen aus Suspend to Ram geht seit 2 Bios Versionen nicht mehr). System hat seit ABBA einmal keinen Kaltstart (Strom war getrennt) durchgeführt. Undervolting / OC kann man scheinbar trotzdem vergessen.

HOT
2019-09-22, 08:47:10
Ich sags ja nur ungern, aber es gab kein Boostproblem mit ABB. Es gab ein Teillastproblem mit der Auslastung der falschen Kerne, das hatte jedoch keinen signifikanten Einfluss auf die Leistung.

Viele Boardhersteller haben im Zuge dieses BIOS-Updates aber ihre fehlerhafte Auslesung und Berechnung von PPT, TCD und ECD korrigiert, daher der Unterschied in Leistung und Stromverbrauch.

Zossel
2019-09-22, 08:58:11
[ .. Halbgares Zeug ... ]

Davon liegen dann manchmal 3-5 Threads auf einem Kern um ihn halbwegs gut auszulasten.

[ .. Noch mehr halbgares Zeug ... ]



Kauf dir bitte mal ein Buch über das Design von Betriebssystemen und lese es, insbesondere die Kapitel über Prozessverwaltung, danke.

dargo
2019-09-22, 09:07:23
ubi nutzt das bei ac jetzt schon ziemlich gut. das ist eines der ganz wenigen guten spiele, wo amd vor intel liegt, weil die engine so gut skaliert.

ich wette der erste ac teil für die neuen konsolen frisst jede cpu. ich würde keine gaming cpu unter 16t mehr kaufen wollen
Kompletter Bullshit!

Bei AC lastet nur der Geforcetreiber dank Steinzeit-API mehrere Threads aus. Das ist mit einer Radeon überhaupt nicht der Fall. Erzähle also keinen Unsinn hier. Wir sind gerade in einem Umbruch was APIs angeht. Und auch der Geforceuser wird von mehr Cores/Threads zukünftig nichts haben wenn erstmal die Engines auf DX12/Vulkan umgestellt werden. Denn dafür muss die Engine gut multithreaden können und nicht wie aktuell bei AC nur der Treiberoverhead auf andere Threads ausgelagert wird. Mit DX12/Vulkan gibt es diesen Overhead nicht mehr.

btw.
Ubi hat mit Division das DX12-Zeitalter eingeläutet. Das nächste Watchdogs kommt auch schon mit DX12. Es ist nur eine Frage der Zeit bis ein neues AC ebenfalls mit DX12 kommt. In einem aktuellen Division 2 hat ein relativ aktueller 8 Threader @DX12 überhaupt keine Probleme. Mich würde es nicht mal wundern wenn das der Fall auch beim 4 Threader wäre. Letzteres müsste ich aber selbst testen, nur geht es aktuell wegen fehlender Graka nicht. Was bei Ubi jetzt noch fehlt ist natives DX12. Denn damit erwarte ich noch mehr als wir jetzt schon sehen. Zur meiner Überraschung liefert gerade Activision natives DX12 mit dem neuen CoD. Genau sowas brauchen wir öfter.

Genau das war auch meine Überlegung als ich (völlig unnötigerweise) von 2600X auf 3600 gewechselt bin.

Ja... ok. Bei dir bringt dann die neue CPU noch weniger als schon bei mir wo ich grob +30% erwarte. Selbst das ist eigentlich kein Upgrade wert. Aber was will man machen wenn man langsam wieder was Neues haben will? :wink: Vielleicht schaffe ich es noch Zen 2 zu überspringen. ;D Wird aber schwierig wenn ich aktuell sehe wo der 3600 preislich liegt. :freak:

Es soll tatsächlich Menschen geben die ihren PC nicht ausschließlich zum Zocken verwenden...

6 Kerne ist ein "jetzt" Kauf und kann total viel Sinn machen, wenn man aus P/L Sicht drauf schaut. Ich hab viel Spaß beim basteln mit dem 12 Kerner ;)

Ich hätte halt gerne mehr als 8 Cores für mehrere VMs gleichzeitig. Und da ich oft viel zippe, kämen 16 Cores auch ganz gut
Es muss sich jetzt nicht jeder rechtfertigen wofür er viele Cores/Threads braucht. Jeder Anwendungsfall ist anders und ich kann durchaus nachvollziehen, dass es User gibt denen bsw. ein 3900X oder gar 3950X viel bringt. Ist halt bei mir nicht der Fall. :)

Daredevil
2019-09-22, 09:31:53
Wie messt ihr denn CPU Nutzung?
Weil der Afterburner zeigt was anderes an als der Taskmanager als Aida. :<

-QSF4n3Znk0

Trotz "nur" 74% CPU Utilisation laut AB bin ich hier knallhart im CPU Limit, weil sonst würde die Vega gerne mehr als 100w verbrauchen. :D

dargo
2019-09-22, 09:50:04
@Daredevil

In deinem Fall ist die Bezeichnung CPU-Limit eigentlich falsch (ich weiß, wird trotzdem immer so bezeichnet, es ist eher ein Applikationslimit) denn sie hat noch Reserven. Diese werden nur halt nicht komplett ausgeschöpft weil die Applikation nicht perfekt mit 12 Threads skaliert. Damit das passiert muss sie schon mit 16(+) Theads sehr gut skalieren. Und davon sind mir noch paar Jährchen imo entfernt.

dildo4u
2019-09-22, 09:55:44
Das ist kein API Problem ans sich sondern ein Vega Problem.
Techspot hat Division 2 und AC: O auf dem selben Performance Level mit der 5700XT im Verhältnis zur 2070S.

https://live.staticflickr.com/65535/48773759416_afdfa1069d_h.jpg (https://flic.kr/p/2hiYgqu)1440p (https://flic.kr/p/2hiYgqu) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

https://www.techspot.com/review/1902-geforce-rtx-2070-super-vs-radeon-5700-xt/

genervt
2019-09-22, 09:56:22
Wie sieht es denn eigentlich mit den MultiThreading Fähigkeiten von Vulkan und DX12 aus. Ich habe z.B. im Hinterkopf, dass DX12 ein Thread Limit von 10 oder so hat. Wurde das inzwischen aufgeweicht? Ich meine es ist ja toll, dass Intel und AMD die Cores erhöhen, aber was ist mit der Software?

Zossel
2019-09-22, 09:57:28
Trotz "nur" 74% CPU Utilisation laut AB bin ich hier knallhart im CPU Limit, weil sonst würde die Vega gerne mehr als 100w verbrauchen. :D

Gibt es bei Windows eigentlich keine Möglichkeit die Aktionen des Schedulers zu loggen, dann könnte man einfach mal schauen ob es "ready to run" Tasks gibt die mangels Cores/Threads nicht sofort in den State "running" gehen können.

Und ja, aus diesen Daten könnte man auch schicke Balken bauen :-)

Odal
2019-09-22, 10:08:25
Naja... ich sehe aktuell beim 3700X einen Aufpreis von 74% für 5% mehr Leistung. :freak:
https://www.computerbase.de/thema/prozessor/rangliste/#diagramm-test-performancerating-fuer-spiele-fps-fhd

P/L beim 3900X ist sogar extrem schlecht wenn wir das ganze jetzt rein auf Games übertragen.

Ja da macht dann ein 9700 eher Sinn, zumindest wenn man quasi alles neu kauft. Ein 4600 wird dann vermutlich auch wieder den 3700X outperformen. Bei den vielen Cores+HT liegt halt das meiste brach. Für Gaming Verschwendung.

myMind
2019-09-22, 10:43:43
Wie messt ihr denn CPU Nutzung?
Weil der Afterburner zeigt was anderes an als der Taskmanager als Aida.
Kannst Du die Battlefield-Prozessgruppe im Taskmanager mal aufklappen. Aktuell bekommst Du da nur die Gruppenauslastung angezeigt und nicht den einzelnen Prozess.

gbm31
2019-09-22, 11:05:47
So also ich habe jetzt auch mal diverse AGESA (AB, ABB, ABBA) durch und der Boost ist zumindest von der Anzeige jedesmal gestiegen und mit ABBA mittlerweile auf dem ausgewiesenen min. Niveau (also 175Mhz gestiegen).

Soviel zu den ganzen selbsternannten Experten damals und dem "Es gibt kein Boost Problem", "Da hast du selbst was falsch eingestellt" und "Der Boost ist da man kann es nur nicht auslesen".



Ich sags ja nur ungern, aber es gab kein Boostproblem mit ABB. Es gab ein Teillastproblem mit der Auslastung der falschen Kerne, das hatte jedoch keinen signifikanten Einfluss auf die Leistung.

Viele Boardhersteller haben im Zuge dieses BIOS-Updates aber ihre fehlerhafte Auslesung und Berechnung von PPT, TCD und ECD korrigiert, daher der Unterschied in Leistung und Stromverbrauch.


Odal, es wurde ständig geposted dass CPUs ein Problem haben, und dagegen haben "wir" geschrieben, einerseits weil Zen 2 eben anders funktioniert als Zen/+ , und vor allem weil die UEFIs so beta waren und teils noch sind dass eben viele "schlaue" Einstellungen sehr kontraproduktive Auswirkungen hatten. (und das haben wir ebensao geschrieben!)

Also lass das Nachtreten - du triffst nur daneben.

Armaq
2019-09-22, 11:10:47
So also ich habe jetzt auch mal diverse AGESA (AB, ABB, ABBA) durch und der Boost ist zumindest von der Anzeige jedesmal gestiegen und mit ABBA mittlerweile auf dem ausgewiesenen min. Niveau (also 175Mhz gestiegen).

Soviel zu den ganzen selbsternannten Experten damals und dem "Es gibt kein Boost Problem", "Da hast du selbst was falsch eingestellt" und "Der Boost ist da man kann es nur nicht auslesen".

Ob dies allerdings nur getrickst ist muss man mal nachmessen. Im Cinebench SingleCore habe ich jetzt zumindest Normpunktzahl. Gefühlt (schwankt ja) braucht das System jetzt aber 3-5 Watt an der Dose mehr (sowohl idle als auch Last). Und die Temperatur scheint ganz anders zu sein als vorher (vielleicht ist das ja der ABBA Trick - niedriegere Temperatur vorgaukeln -> boostet höher) d.h. mit eingebremsten PPT bei BF5 sind es max. 43°C (ich muss mal ohne PPT Limit testen)

D.h. Mindestanforderung ist erfüllt. Beim Rest gibts aber noch Probleme ( Aufwachen aus Suspend to Ram geht seit 2 Bios Versionen nicht mehr). System hat seit ABBA einmal keinen Kaltstart (Strom war getrennt) durchgeführt. Undervolting / OC kann man scheinbar trotzdem vergessen.
Das ist das Problem mit gefühlten Werten. Was ich zum Thema Boost gesagt habe, kann ich belegen. Ich hab das x-Mal getestet. Ich hab kein professionelles Messequipment, aber immerhin noch was für die Steckdose, ein Multimeter und Laserthermometer.

Tesseract
2019-09-22, 11:22:39
Spiele mit 12T+? Lol... :D

Was sagt deine Glaskugel wann die kommen sollen? Noch vor 2025? :tongue:

viele engines haben die grundsteine dafür seit jahren gelegt. wir haben nicht mehr die frühen 2000er wo single thread engines von mehreren cores überrumpelt wurden. aktuelle spiele sind auf so viele threads optimiert wie sie sind weil ein großteil aller user (beide konsolen, laptops und die meisten non-high-end desktops) ganz einfach nicht mehr threads hatten und deswegen kaum einer entwicklerressourcen dafür verschwenden will. das wird sich mit den neuen konsolen schlagartig ändern.

dargo
2019-09-22, 11:51:57
viele engines haben die grundsteine dafür seit jahren gelegt. wir haben nicht mehr die frühen 2000er wo single thread engines von mehreren cores überrumpelt wurden. aktuelle spiele sind auf so viele threads optimiert wie sie sind weil ein großteil aller user (beide konsolen, laptops und die meisten non-high-end desktops) ganz einfach nicht mehr threads hatten und deswegen kaum einer entwicklerressourcen dafür verschwenden will. das wird sich mit den neuen konsolen schlagartig ändern.
Seit wann haben wir die XB1 und PS4? Seit November 2013. Wir haben selbst heute noch 6 Jahre später Engines die kaum über 4 Threads skalieren. Dafür muss man sich das ganze natürlich mit einer Radeon anschauen und keiner Geforce wo nur die ausgelagerte Treiberlast unter DX11 für mehr Performance sorgt. Zudem wird imho der Schritt zum noch stärkeren Multithreading schwieriger sein als es noch der Fall von Singlecore auf Dualcore bzw. später auf 4 Threads war.

Ja da macht dann ein 9700 eher Sinn, zumindest wenn man quasi alles neu kauft.
Hier wird es schon etwas schwieriger. Man darf natürlich den Preis nicht aus den Augen verlieren. Für den Preis vom i7-9700 bekomme ich schon den 3700X. Letzterer hat doppelt so viele Threads. Dürfte also zukunftssicherer sein, wenn man jetzt längerfristig plant. SMT kannst du bei dem im Bios einfach deaktivieren und machst es wieder an sobald entsprechende Spiele siginifikant von mehr als 8 Threads profitieren. Mich würde es nicht mal wundern wenn der Vorsprung bei CB von 6-9% mit deaktivierten SMT bei Zen 2 etwas schrumpfen würde. Es gibt heute immer noch Engines die leichte Performancedefizite mit 8C/16T haben.

myMind
2019-09-22, 11:56:45
Gibt es bei Windows eigentlich keine Möglichkeit die Aktionen des Schedulers zu loggen, dann könnte man einfach mal schauen ob es "ready to run" Tasks gibt die mangels Cores/Threads nicht sofort in den State "running" gehen können.

Und ja, aus diesen Daten könnte man auch schicke Balken bauen :-)
Mit perfmon.msc kriegt man das IMO nicht raus.

Das klassische Tool dafür: xperf
https://randomascii.wordpress.com/2012/05/11/the-lost-xperf-documentationcpu-scheduling/

Moderner: Windows Performance Toolkit: WPR und WPA:
https://docs.microsoft.com/en-us/windows-hardware/test/wpt/
https://docs.microsoft.com/en-us/windows-hardware/test/wpt/windows-performance-recorder
https://docs.microsoft.com/en-us/windows-hardware/test/wpt/windows-performance-analyzer
https://docs.microsoft.com/en-us/windows-hardware/test/wpt/cpu-analysis

Eigentlich wünscht man sich eine durchschnittliche Ready Time im Task Manager. Also wie lange warten meine Prozesse/Threads durchschnittlich, um loslaufen zu können.

Beim ESX Hypervisor ist %Ready eine der wichtigsten KPIs und wird auch im esxtop angezeigt. Dort freilich in einem anderen Kontext (wie lange wartet meine VM um endlich loslaufen zu können). Warum wir ein vergleichbares KPI für Prozesse/Threads nicht direkt bei den Windows Boardmitteln haben, ist mir nicht ganz klar. Aber zumindest ist der "Event Tracing for Windows"-Unterbau da.

aufkrawall
2019-09-22, 11:56:53
viele engines haben die grundsteine dafür seit jahren gelegt. wir haben nicht mehr die frühen 2000er wo single thread engines von mehreren cores überrumpelt wurden. aktuelle spiele sind auf so viele threads optimiert wie sie sind weil ein großteil aller user (beide konsolen, laptops und die meisten non-high-end desktops) ganz einfach nicht mehr threads hatten und deswegen kaum einer entwicklerressourcen dafür verschwenden will. das wird sich mit den neuen konsolen schlagartig ändern.
Es werden Entwickler auch weiterhin den PC grob missachten. Vergleiche das Multithreading von Borderlands 2 und 3...

Lehdro
2019-09-22, 12:11:47
Wir haben selbst heute noch 6 Jahre später Engines die kaum über 4 Threads skalieren.
Und wir haben ebenso eine große Menge an Engines welche absolut beschissen auf nur 4 Threads laufen. :freak:

dargo
2019-09-22, 12:15:03
Und wir haben ebenso eine große Menge an Engines welche absolut beschissen auf nur 4 Threads laufen. :freak:
Meinst du mit zu niedrigen Frameraten? Dagegen hilft verdammt gut DX12/Vulkan. Da müssen wir natürlich erstmal flächendeckend hin. Ist leider heute immer noch nicht gegeben.

Zossel
2019-09-22, 12:32:15
Aber zumindest ist der "Event Tracing for Windows"-Unterbau da.

Ah, sehr schön. Wer hier im Thread lässt mal ein paar Spiele unter diesem Tool laufen um mal bessere Daten zu bekommen die man den diskutieren kann?

Armaq
2019-09-22, 12:33:10
viele engines haben die grundsteine dafür seit jahren gelegt. wir haben nicht mehr die frühen 2000er wo single thread engines von mehreren cores überrumpelt wurden. aktuelle spiele sind auf so viele threads optimiert wie sie sind weil ein großteil aller user (beide konsolen, laptops und die meisten non-high-end desktops) ganz einfach nicht mehr threads hatten und deswegen kaum einer entwicklerressourcen dafür verschwenden will. das wird sich mit den neuen konsolen schlagartig ändern.
Ich fände es ja interessant, wenn wir die neuen Boost-Mechaniken in Zukunft in noch besserer funktionsweise erleben, sodass bestimmte Abhängigkeiten aufgefangen werden was das Threading angeht.

Für einen fiktiven 4900x sähe das dann so aus:

Die besten Kerne boosten bis 4.6 Ghz (2 Stück) und die Threads (4) bearbeiten alles sequentielle und nicht parallelisierbare an Tasks.

Die anderen Kerne Takten etwas niedriger um die 4 Ghz und räumen die grobe Masse weg. So würde man mMn. Performance in den kritischen Threads beschleunigen und die Fähigkeiten der neuen CPU Generation bestens ausnutzen.

Ah, sehr schön. Wer hier im Thread lässt mal ein paar Spiele unter diesem Tool laufen um mal bessere Daten zu bekommen die man den diskutieren kann?
Welche Spiele?

Lehdro
2019-09-22, 12:54:32
Meinst du mit zu niedrigen Frameraten? Dagegen hilft verdammt gut DX12/Vulkan. Da müssen wir natürlich erstmal flächendeckend hin. Ist leider heute immer noch nicht gegeben.
Ahja. (https://www.techspot.com/review/1754-battlefield-5-cpu-multiplayer-bench/)
Was kommt als nächste Ausrede? Vulkan?
Ah, hier bitte. (https://cdn.wccftech.com/wp-content/uploads/2019/05/RAGE2-CORE-SCALE.jpg)

Um dir mal die Hyperventilierung abzunehmen: Ich stimme dir grundsätzlich zu das DX12 und Vulkan viele Lösungen in dem Bereich beinhalten, allerdings sind 4 Threads einfach viel zu wenig. ;)

dargo
2019-09-22, 13:13:05
Keine Ahnung was du mir mit deinen Beispielen jetzt genau beweisen möchtest? Dass Dice den DX12-Renderer in BF5 nur stiefmütterlich behandelt? Ja... das ist schon lange bekannt. Was glaubst du warum ich ständig natives DX12/Vulkan am liebsten hätte? Natürlich setze ich auch voraus, dass der/die Entwickler Ahnung davon haben was sie da machen. Zu deinem Beispiel mit Rage 2... ein schönes Beispiel wo man sieht, dass mehr als 6 Threads nichts bringen. Ein 3600 hat ganze 12 davon. ;)

Und auf was genau bezieht sich deine Aussage mit 4 Threads sind zu langsam? Auf Rage 2? Ich sehe dort 93 avg.fps, das dürfte den meisten reichen. Zudem... seit wann läuft ein 9900K mit nur 3,5Ghz? ;) Mit der normalen Frequenz ist man da eher bei ~120fps mit 4C/4T. Bevor das hier wieder ausartet... ich würde natürlich niemanden heute eine CPU der hauptsächlich Gaming betreibt noch eine 4C/4T CPU empfehlen. Das würde ich nicht mal bei 6C/6T tun.

Edit:
Lol... verguckt. Der 3,5Ghz 9900K liefert mit 4C/4T sogar 142 avg.fps in Rage 2. X-D Die 93 sind ja 1% low. Worüber diskutieren wir dann überhaupt noch? :tongue:

Armaq
2019-09-22, 13:27:52
Ich finde gerade die 1% low Werte interessant und wichtig. Da sind 6C/6T ggü. 6C/12T schlechter. Das mag nicht dramatisch erscheinen, aber in diversen Tests hat man ja gesehen, dass zB ein 3900x in diesen 1% Low Szenarien besonders gut aussieht - er hat eben immer noch Reserven. 1%low fps sind für 144 Hz Sync Monitore interessant, denn dann hätte ich "immer" die 144 Hz.

An den average fps Werten erkenne ich ja die kniffligen Stellen nicht, aber die sind halt besonders spannend. Wo es an die Reserve geht, da wird in Zukunft die Performance hergeholt. Wenn 6 Threads jetzt schon nachteilig ggü. 12 Threads sind, dann kommt die Performance in Zukunft daher.

Edit: Auch die Nutzung des PCs wird einfach angenehmer. Ich lasse bspw. gerade einen Backup-Task laufen, der dauert noch ca. 3 Stunden. 4-9% Grundlast erzeugt diese Aufgabe. Wenn ich jetzt 4 Kerne hätte, würde das zippen und auf die externe Platte schrubben mein System deutlich ausbremsen. So ist es mir total egal, dass der Task insgesamt 5-6 Stunden läuft und immer Last produziert.

aufkrawall
2019-09-22, 13:33:30
6C/12T hat momentan in Spielen auch immer noch Reserven. Der 3900X hat auch einfach den höchsten Boost, was eher gegen die MT-These spricht.

Lehdro
2019-09-22, 13:33:40
Lol... verguckt. Der 3,5Ghz 9900K liefert mit 4C/4T sogar 142 avg.fps in Rage 2. X-D Die 93 sind ja 1% low. Worüber diskutieren wir dann überhaupt noch? :tongue:
Ok, du findest also das 144 fps dauerhaft für einen 144Hz Monitor in einem eher schnellen Shooter unwichtig sind. Interessante Meinung, aber eben nur deine Meinung.

Aber egal, ich habe meinen Punkt deutlich gemacht: Deine Aussage mit den 4 Threads is absoluter Schwachsinn, schönen Tag noch.

dargo
2019-09-22, 13:39:59
Ich finde gerade die 1% low Werte interessant und wichtig. Da sind 6C/6T ggü. 6C/12T schlechter.
Also bei dem Link von Lehdro liefert sowohl 6C/6T als auch 6C/12T identische 130fps bei 1% low (nicht vergessen, wir reden hier immer noch von nur 3,5Ghz Frequenz). Die 0,1% Werte ignoriere ich in der Regel da sie zu störanfällig sind. Das ist schon mit min.fps vergleichbar. Man weiß auch nie genau wie ein externer Tester bei seinen Tests vorgeht. Zum Beispiel wieviele Messwiederholungen hat er hier durchgeführt? Ich sehe zb. in diesem Test auch unlogische Werte. Ein 8C/8T kann nicht langsamer sein als ein 6C/6T (avg. + 1% low), was hier der Fall ist. Sind höchstwahrscheinlich Messtoleranzen.

Snoopy69
2019-09-22, 13:43:31
Aufwachen aus Suspend to Ram geht seit 2 Bios Versionen nicht mehr.
Ist das bei jedem hier so?
Das wäre schlecht, da ich den Modi oft benutze

dargo
2019-09-22, 13:47:02
Ok, du findest also das 144 fps dauerhaft für einen 144Hz Monitor in einem eher schnellen Shooter unwichtig sind. Interessante Meinung, aber eben nur deine Meinung.

Da musst du was falsch verstanden haben. Ich sehe das aus der Perspektive der Masse und nicht unbedingt aus der Sicht von einem Hardcore fps-ler dem höchste Frameraten absolut wichtig sind. Hinzu kommt noch das Problem, dass du auch erstmal eine Grafikkarte haben musst die deine 144fps mit max. Details dauerhaft halten kann. Welche soll das bei bsw. 1440p schaffen? Selbst eine 2080 TI kratzt bei den avgs. bei 100fps rum laut CB.
https://www.computerbase.de/2019-05/rage-2-benchmark-test/2/#diagramm-rage-2-2560-1440

Und wir wissen nicht mal ob das schon Worst Case ist. Mit 4k fange ich erst gar nicht an.

Armaq
2019-09-22, 14:14:59
6C/12T hat momentan in Spielen auch immer noch Reserven. Der 3900X hat auch einfach den höchsten Boost, was eher gegen die MT-These spricht.
Ich habe keine Ahnung, ob in modernen Spielen der SC Takt und Boost so anliegt wie du das implizierst.

Ausschließlich auf eine Anwendung (hier Spiel) bezogen, ist der Fall das noch ein Kern mitarbeiten muss (über 6 Kerne hinaus), sicherlich eher selten, aber er kommt vor. Eigentlich müssten uns Strategiespiele das viel deutlicher zeigen, aber die sind derzeit nicht in Mode.

In einem wirklichen genutzten Umfeld - im Spielesegment wäre das zocken und streamen - hat der Ryzen ja schon gezeigt, was er kann und den 9900k in seine Schranken verwiesen. Die "Stärke in Anwendungen" kann Zen2 hier auch im Spielsegment zeigen.

Ich denke und hoffe das viele PC-Spieler eben nicht nur Spieler sind, sondern auch andere Dinge mit der Wunderkiste machen. Sobald es dann, wie schon gesagt, um Wartung oder so Lästiges nebenbei geht, sind viele Kerne einfach nur ein Segen.

robbitop
2019-09-22, 14:28:26
ubi nutzt das bei ac jetzt schon ziemlich gut. das ist eines der ganz wenigen guten spiele, wo amd vor intel liegt, weil die engine so gut skaliert.

ich wette der erste ac teil für die neuen konsolen frisst jede cpu. ich würde keine gaming cpu unter 16t mehr kaufen wollen
Wobei ich mir bei ac Odyssey immer die Frage stelle, ob das nun tatsächlich gut ist. Ja es lastet viele Cores aus. Aber wie ist das BQ/Performance Level? Einfach nur langsam auf wenigen Cores und weniger langsam auf vielen Cores zu laufen ist für sich isoliert ja noch nicht gut. The Witcher 3 braucht deutlich weniger CPU Leistung und, ist auch open world und sieht gefühlt nicht schlechter aus.
Bitte korrigieren wenn ich falsch liege.

Frage: bei AC Origins sagte man, dass der Kopierschutz die CPU Cores auch ordentlich mitbelastet. Ist das bei Odyssee auch so? Könnte dann ein Teilgrund dafür sein. Und das wäre dann Performanceverschwendung.

Wie gesagt bitte korrigieren wenn ich falsch liege. Ich persönlich finde das Gebotene für den CPU Leistungshunger in Relation zu anderem nicht besonders beeindruckend.

Armaq
2019-09-22, 14:31:02
Wobei ich mir bei ac Odyssey immer die Frage stelle, ob das nun tatsächlich gut ist. Ja es lastet viele Cores aus. Aber wie ist das BQ/Performance Level? Einfach nur langsam auf wenigen Cores und weniger langsam auf vielen Cores zu laufen ist für sich isoliert ja noch nicht gut. The Witcher 3 braucht deutlich weniger CPU Leistung und, ist auch open world und sieht gefühlt nicht schlechter aus.
Bitte korrigieren wenn ich falsch liege.

Frage: bei AC Origins sagte man, dass der Kopierschutz die CPU Cores auch ordentlich mitbelastet. Ist das bei Odyssee auch so? Könnte dann ein Teilgrund dafür sein. Und das wäre dann Performanceverschwendung.

Wie gesagt bitte korrigieren wenn ich falsch liege. Ich persönlich finde das Gebotene für den CPU Leistungshunger in Relation zu anderem nicht besonders beeindruckend.
Ich bin ja großer Witcher Fan, aber AC:Odyssey ist optisch meilen vor dem Hexer. Die Weitsicht und der Detailgrad sind ein anderes Niveau.

aufkrawall
2019-09-22, 14:33:35
Hat trotzdem keine tolle Multicore-Skalierung, denn das ist in erster Linie der NV-Treiber. Mit AMD-GPU läuft das auf Ryzen 1000 das Gegenteil von toll...

dargo
2019-09-22, 15:05:36
Hat trotzdem keine tolle Multicore-Skalierung, denn das ist in erster Linie der NV-Treiber.
So ist es, mit Radeon skaliert die Engine kaum über 4 Threads. Das einzige Game was brauchbar über 6 Threads skaliert ist afaik BF5, auch mit DX11. Über 8 Threads wirds schon wieder schwierig. Die Zuwächse sind nur minimal. Stets mit Radeon versteht sich. Mit Geforce kann man es vergessen da hier unter DX11 immer mal wieder die Treiberlast mehr oder weniger stark multithreaded wird. Wenn jemand Multithreading der Engines am PC mit einer Geforce bewerten will muss er sich zwangsläufig auf DX12/Vulkan beschränken.

Nightspider
2019-09-22, 15:18:28
Kompletter Bullshit!

Bei AC lastet nur der Geforcetreiber dank Steinzeit-API mehrere Threads aus. Das ist mit einer Radeon überhaupt nicht der Fall.

Hast du dazu irgendwelche Nachweise oder Links?


Wie viel % der Belastung soll denn durch den Treiber kommen? 5%? 10%?

Als ob die neuesten Ubisoft Spiele nur durch den Nvidia Treiber so extrem gut von vielen Kernen profitieren würden. :rolleyes:


Edit

Theoretisch müsste mal wieder jemand einen 8-12 Kern Prozessor hernehmen, diesen auf 2 Ghz untertakten und Benchmarks mit 4/6/8/12/16 Threads durchführen.
Da hat die Vergangenheit schon manchmal gezeigt wie die breite Auslastung der Kerne zunahm.

Dafür das die Konsolen für die Spiele nur 7 Kerne bereitstellen ohne SMT, skalieren diese doch teilweise schon sehr beachtlich mit 8 bis 16 Threads.

Denniss
2019-09-22, 15:44:55
Vieleicht spielt er auf die CPU-Seitige bearbeitung der nvidia-Treibersoftware (Softwarescheduler) an die durchaus mal Last auf Kerne schieben kann die von der Grafikengine des Spiels nicht genutzt werden.

Armaq
2019-09-22, 16:03:55
Hast du dazu irgendwelche Nachweise oder Links?


Wie viel % der Belastung soll denn durch den Treiber kommen? 5%? 10%?

Als ob die neuesten Ubisoft Spiele nur durch den Nvidia Treiber so extrem gut von vielen Kernen profitieren würden. :rolleyes:


Edit

Theoretisch müsste mal wieder jemand einen 8-12 Kern Prozessor hernehmen, diesen auf 2 Ghz untertakten und Benchmarks mit 4/6/8/12/16 Threads durchführen.
Da hat die Vergangenheit schon manchmal gezeigt wie die breite Auslastung der Kerne zunahm.

Dafür das die Konsolen für die Spiele nur 7 Kerne bereitstellen ohne SMT, skalieren diese doch teilweise schon sehr beachtlich mit 8 bis 16 Threads.
Der Test wurde ja gemacht, ich such ihn gerade.

Auf einer Radeon finde ich nichts. Hat hier jemand mehr als 8 Kerne und ne 5700XT?

dargo
2019-09-22, 16:41:24
Hast du dazu irgendwelche Nachweise oder Links?

Ja... das eigene System.


Wie viel % der Belastung soll denn durch den Treiber kommen? 5%? 10%?

Als ob die neuesten Ubisoft Spiele nur durch den Nvidia Treiber so extrem gut von vielen Kernen profitieren würden. :rolleyes:

Du unterschätzst die Treiberlast bei AC in DX11 völlig. Du glaubst gar nicht wie hoch diese ist. Ohne DX11 würde eine Radeon locker die doppelten Frameraten in den kritischen Szenen liefern.


Theoretisch müsste mal wieder jemand einen 8-12 Kern Prozessor hernehmen, diesen auf 2 Ghz untertakten und Benchmarks mit 4/6/8/12/16 Threads durchführen.
Da hat die Vergangenheit schon manchmal gezeigt wie die breite Auslastung der Kerne zunahm.

Dafür das die Konsolen für die Spiele nur 7 Kerne bereitstellen ohne SMT, skalieren diese doch teilweise schon sehr beachtlich mit 8 bis 16 Threads.
Nein... tun sie nicht. Wann begreift ihr endlich, dass Treiberlast nicht gleich Enginelast? Ich hätte übrigens nichts gegen so einen Test den du da vorschlägst. Dann aber bitte entweder nur mit Radeon oder bei Geforce nur mit DX12/Vulkan Games. Alles andere führt nur mal wieder zu völlig falschen Schlussfolgerungen.

Snoopy69
2019-09-22, 16:42:15
Hat zufällig jmd neben einem 3900X noch einen 9900K und könnte für mich was testen?

Ich packe oft große bzw. viele Dateien...
Ein reales Szenario wäre zb ein oder mehrere Dateien von 50GB (oder größer) mit 7zip oder Winrar zu packen.

Die voraussichtliche Packzeit sollte mit einer Stoppuhr gestoppt werden. Auf keinen Fall einfach nur von Monitor ablesen.
Wenn jmd Zeit und Lust dazu hätte, wäre das klasse :wink:

Ein 9900K @ 5GHz allcore ist zwar klasse, aber bei großen Dateien zum Packen schon nervig lahm ;( (packe gerade eine 75GB große Datei)


Ist das bei jedem hier so?
Das wäre schlecht, da ich den Modi oft benutze
Bitte nicht vergessen... :wink:

Odal
2019-09-22, 19:39:21
Bitte nicht vergessen... :wink:


Ich vermute mal das liegt an meinem Board / Bios und nicht am AGESA (das macht ja auch mit neustem Bios laut reddit bei manchen Kaltstartprobleme).

Aber nervig ja, da ich suspend to ram eigentlich auch öfter nutze, jetzt fahr ich immer komplett runter.

Armaq
2019-09-22, 19:39:23
Hat zufällig jmd neben einem 3900X noch einen 9900K und könnte für mich was testen?

Ich packe oft große bzw. viele Dateien...
Ein reales Szenario wäre zb ein oder mehrere Dateien von 50GB (oder größer) mit 7zip oder Winrar zu packen.

Die voraussichtliche Packzeit sollte mit einer Stoppuhr gestoppt werden. Auf keinen Fall einfach nur von Monitor ablesen.
Wenn jmd Zeit und Lust dazu hätte, wäre das klasse :wink:

Ein 9900K @ 5GHz allcore ist zwar klasse, aber bei großen Dateien zum Packen schon nervig lahm ;( (packe gerade eine 75GB große Datei)



Bitte nicht vergessen... :wink:
Ich hab gerade 600 GB auf ne externe Platte in ZIP gepackt. Hat ne Weile gedauert.

MiamiNice
2019-09-23, 10:00:40
Limitiert beim zippen nicht meist der i/o statt der cpu?
Die Frage von Snoopy69 ist, imo, so unpräzise gestellt, nicht zu beantworten :)

genervt
2019-09-23, 10:16:49
Limitiert beim zippen nicht meist der i/o statt der cpu?
Die Frage von Snoopy69 ist, imo, so unpräzise gestellt, nicht zu beantworten :)
Beim zippen auf 1,44" Floppy messe ich für 9900k und 3900X dieselbe Zeit. Was mache ich falsch?

y33H@
2019-09-23, 11:19:50
I/O limitiert nicht, sonst gäbe es wohl kaum große Unterschiede bei diversen CPUs.

Hat zufällig jmd neben einem 3900X noch einen 9900K und könnte für mich was testen?

Ich packe oft große bzw. viele Dateien ... ein reales Szenario wäre zB ein oder mehrere Dateien von 50GB (oder größer) mit 7zip oder Winrar zu packen.Nur 5GB, aber reales Packen statt integrierter Benchmark:

https://scr3.golem.de/screenshots/1907/Ryzen-3900X-3700X-Test/09-7-zip-v19.00-(5gb-compression,-lzma2-ultra,-aes-256)-chart.png

Tesseract
2019-09-23, 11:33:39
Limitiert beim zippen nicht meist der i/o statt der cpu?

hängt vom algorithmus ab aber ich tippe darauf, dass die meisten (pro core gesehen) in den gängigen konfigurationen cache-limitiert sein werden, ähnlich wie beim kompilieren.

aufkrawall
2019-09-23, 12:06:43
I/O ist nur bei unzähligen kleinen Dateien bedeutsam, wobei Windows NTFS hier abartig schlecht ist vs. Linux ext4.

Birdman
2019-09-23, 12:31:20
I/O ist nur bei unzähligen kleinen Dateien bedeutsam, wobei Windows NTFS hier abartig schlecht ist vs. Linux ext4.
halte ich für eine sehr grosse urban legend.
NTFS ist auch bei vielen kleinen Dateien genauso schnell, wenn nicht schneller als EXT3/4 oder XFS.
Natürlich nicht wenn man NTFS unter Linux nutzt, sondern die native Windows Implementation.

Problematisch ist nur der Explorer von Windows, der einem jede Kiste krüppelt wenn man irgendwas mit mehreren 10k Dateien machen will....

Hammer des Thor
2019-09-23, 12:41:11
Spiele mit 12T+? Lol... :D

Was sagt deine Glaskugel wann die kommen sollen? Noch vor 2025? :tongue:
Star Citizen nutzt laut SC Twich Communety heute schon die 16 threads des 9990K.
Sobald der Wechsel auf die Vulcan API erfolgt ist wird SC, denke ich noch mehr nutzen können!

dargo
2019-09-23, 12:45:31
Star Citizen nutzt laut SC Twich Communety heute schon die 16 threads des 9990K.

Bullshit! Mal abgesehen davon... wird das Game überhaupt noch in diesem Leben fertig? X-D

Radeonfreak
2019-09-23, 12:53:36
Also ich glaub nicht.

dildo4u
2019-09-23, 12:55:09
Das Game bricht immer noch massiv ein wenn man auf ein Planet mit Gebäuden zusteuert egal wie viele Cores man dagegen wirft.
Der 9900K läuft wegen dem Takt am besten.

aufkrawall
2019-09-23, 13:08:57
halte ich für eine sehr grosse urban legend.
NTFS ist auch bei vielen kleinen Dateien genauso schnell, wenn nicht schneller als EXT3/4 oder XFS.

Ist keine Urban Legend, archivier den ffmpeg-Source ohne Kompression...

MiamiNice
2019-09-23, 13:16:34
I/O limitiert nicht, sonst gäbe es wohl kaum große Unterschiede bei diversen CPUs.

Nur 5GB, aber reales Packen statt integrierter Benchmark:

https://scr3.golem.de/screenshots/1907/Ryzen-3900X-3700X-Test/09-7-zip-v19.00-(5gb-compression,-lzma2-ultra,-aes-256)-chart.png

So wie ich das sehe packst Du nicht bloß, Du verschlüsselst auch noch mit AES 256. Snoopy69 hat es nicht genau definiert was er mit "packen" meint. Wenn man die Daten bloß zusammen packt limitiert imo der I/O.
Das sind nicht mal standard Settings und AMD hat mit Zen2 AES massiv beschleunigt. Cherry Picker Du bist ^^

Hammer des Thor
2019-09-23, 13:17:31
Bullshit! Mal abgesehen davon... wird das Game überhaupt noch in diesem Leben fertig? X-D


Bullshit? Es streamer hat mir bei SC sogar die Rhyzen-Master Daten gezeigt die beim 3900x alle Kerne gut belastet haben und noch mehr threads, letzte aber unregamässig so dass wohl nicht alle 24 threads von SC genutzt wurden, 16 aber schon.
Ausserdem halte ich den mit den 9900K nicht für einen Lügner.
Es ist CIGs explizite Aussage soviel Kerne/threads wie möglich nutzen zu können.
Bitte erst mal informieren bevor "Bullshit" kommt!

Hammer des Thor
2019-09-23, 13:18:53
Das Game bricht immer noch massiv ein wenn man auf ein Planet mit Gebäuden zusteuert egal wie viele Cores man dagegen wirft.
Der 9900K läuft wegen dem Takt am besten.


Kann auch gut sein, dass die Graka dann zu viel zu rackern hat!

aufkrawall
2019-09-23, 13:21:38
So wie ich das sehe packst Du nicht bloß, Du verschlüsselst auch noch mit AES 256. Snoopy69 hat es nicht genau definiert was er mit "packen" meint. Wenn man die Daten bloß zusammen packt limitiert imo der I/O.
Ist so pauschal falsch, du interpretierst vermutlich die schwankende CPU-Auslastung falsch.
Die kommt aber vornehmlich durch unterschiedlich gut komprimierbare Daten zustande, nicht durch I/O.

y33H@
2019-09-23, 13:43:00
Ob AES-256 oder nicht - es ändert nichts am Ranking der CPUs.

Nazar
2019-09-23, 15:02:57
Star Citizen nutzt laut SC Twich Communety heute schon die 16 threads des 9990K.
Sobald der Wechsel auf die Vulcan API erfolgt ist wird SC, denke ich noch mehr nutzen können!

Sobald SC released wird, ist eine 12C/24T CPU für unter 100 World Dollar (Achtung, fiktive Währung ;)) zu haben und der Mars ist eine Kolonie der USS (Vereinigten Solar Staaten). ;D
Die Frage ist doch nicht ob ein Spiel alle Kerne nutzt, sondern wie effektiv es getan wird und da ist SC mit Abstand ein Krüppel vor dem Herren, da diese Anwendung immer noch eine PRE Alpha ist.

@ Thema
Interessant ist doch, wie ständig zwischen den verschiedenen Szenarien gewchselt wird.
Ist der Vorspung bei Spielen nicht mehr so groß wie suggeriert, muss jetzt das Packen von Zip Dateien herhalten. Jeden Tag wieder etwas zum Lachen... ;D

MiamiNice
2019-09-23, 15:03:46
Sehen andere Webseiten unter Umständen ein wenig anders:

https://abload.de/img/unbenanntm9kno.png

Man achte auf den 2700X und 9900K, die in beiden Listen vorkommen. Und das ist nur ein 95W 9900K. Also mega beschnitten und mit standard Ram.

aufkrawall
2019-09-23, 15:05:12
Warum postest du Bildchen von Ryzen 2000 im 3000 Thread? Ist dir langweilig?

MiamiNice
2019-09-23, 15:09:49
Weil in der Tabelle von y33H@ auch einer dabei war. Und da steht auch die Relation vom 2700X zum 3700X. Pi übern Daumen kann die Tabelle von y33H@ nicht allgemein gültig sein sondern eben nur für AES. Das hat mit "Packen" wenig zu tun, sondern fällt unter Verschlüsselung ;)

https://scr3.golem.de/screenshots/1907/Ryzen-3900X-3700X-Test/09-7-zip-v19.00-(5gb-compression,-lzma2-ultra,-aes-256)-chart.png

aufkrawall
2019-09-23, 15:10:43
Dann weißt du trotzdem nicht, wie sich der 3000er bei Anand schlagen würde.

Schnoesel
2019-09-23, 15:16:50
Stock Settings sind das neue "beschnitten" :biggrin: Intel hat ganze Arbeit geleistet

Tesseract
2019-09-23, 15:18:40
das ist ultra vs (wahrscheinlich) normal auf unterschiedlichen daten mit anderen programmversionen, natürlich wirkt sich das auf die ergebnisse aus. AES-NI verschlüsselt auf allen modernen CPUs mehrere GB/s, das sollte absolut nicht ins gewicht fallen.

dildo4u
2019-09-23, 15:19:32
Weil in der Tabelle von y33H@ auch einer dabei war. Und da steht auch die Relation vom 2700X zum 3700X. Pi übern Daumen kann die Tabelle von y33H@ nicht allgemein gültig sein sondern eben nur für AES. Das hat mit "Packen" wenig zu tun, sondern fällt unter Verschlüsselung ;)

https://scr3.golem.de/screenshots/1907/Ryzen-3900X-3700X-Test/09-7-zip-v19.00-(5gb-compression,-lzma2-ultra,-aes-256)-chart.png
Du musst doch nicht raten einfach die 3000 Werte von anandtech posten.

https://www.anandtech.com/show/14605/the-and-ryzen-3700x-3900x-review-raising-the-bar/10

https://live.staticflickr.com/65535/48781707841_466f412ef4_o.png (https://flic.kr/p/2hjF1di)111196 (1) (https://flic.kr/p/2hjF1di) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

MiamiNice
2019-09-23, 15:21:48
del

MiamiNice
2019-09-23, 15:23:05
Du musst doch nicht raten einfach die 3000 Werte von anandtech posten.

https://www.anandtech.com/show/14605/the-and-ryzen-3700x-3900x-review-raising-the-bar/10

https://live.staticflickr.com/65535/48781707841_466f412ef4_o.png (https://flic.kr/p/2hjF1di)111196 (1) (https://flic.kr/p/2hjF1di) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

Danke ^^
Hab das nicht gefunden.

Ich sehe da einen Unterschied zu Golem Tabelle mit AES.


Stock Settings sind das neue "beschnitten" :biggrin: Intel hat ganze Arbeit geleistet


Das ist nicht erst seit gestern so. Das war schon zu meinen Schulzeiten mit AMD Hardware der Fall vor über 20 Jahren.
Nicht wirklich etwas neues.

Schnoesel
2019-09-23, 15:41:13
Ich denke bei 7 Zip compression kannst du den 9900k betreiben wie du willst. Gegen den "beschnittenen" AMD sieht er kein Land

Tesseract
2019-09-23, 15:41:55
hab eben ~3,5GB einmal mit und einmal ohne AES komprimiert. der unterschied war, wie erwartet, mit <1% innerhalb der messtoleranz.

MiamiNice
2019-09-23, 15:53:21
Das wollte ich später @home auch testen. Danke dafür, dann lag es an den vers. Versionen. Nix für ungut @ Golem :wink:

y33H@
2019-09-23, 16:04:26
Anandtech nutzt kein reales Packen sondern nur den integrierten Benchmark ... also Obacht bei Vergleichen.

N0Thing
2019-09-23, 16:18:11
Danke ^^
Hab das nicht gefunden.

Ich sehe da einen Unterschied zu Golem Tabelle mit AES.

Welche entscheidenden Unterschiede siehst du denn? Bei beiden liegt der R9 3900X deutlich vorne, bei beiden liegt der R7 3700X knapp vor dem i9-9900K. Den einzigen deutlichen Unterschied findet man beim i7-9700K, der bei Golem.de deutlich näher am 9900K dran ist als bei Anandtech.

y33H@
2019-09-23, 16:26:36
Beim realen Packen ist gegen Ende hin noch einiges an ST-Last, daher ist der 9700K näher am 9900K - der (etwas verzerrende) interne Benchmark ist rein MT.

Odal
2019-09-23, 17:26:35
Wenn man die Daten bloß zusammen packt limitiert imo der I/O.

Das ist Quark, das limitiert höchstens wenn dein Ram zu knapp ist und "store" als Kompression gewählt ist, aber sicher nicht bei ultra. Selbst entpacken hängt noch mit an der CPU. Kannst ja mal 7zip auf deinem 9900k auf einen Core pinnen und gucken wielang es dauert.

Zossel
2019-09-23, 18:31:54
I/O limitiert nicht, sonst gäbe es wohl kaum große Unterschiede bei diversen CPUs.

Was allerdings keine Aussage darüber zulässt ob die schnellen CPUs nicht bereits zu einem gewissen Anteil durch io-waits gebremst werden.

Zossel
2019-09-23, 18:43:21
Ob AES-256 oder nicht - es ändert nichts am Ranking der CPUs.

Wobei sich die AES-Opcodes hinsichtlich throughput und latency zwischen Intel und AMD unterscheiden, siehe auch hier: https://www.agner.org/optimize/instruction_tables.ods

Startet der benutzte Packer für jeden HW-Thread einen SW-Thread? Ryzen kann 2 AES Operationen pro Takt starten, Intel nur eine pro Takt. Möglicherweise hat der benutzte Packer eine "Optimierung" für Intel.

Nightspider
2019-09-23, 21:36:54
Du unterschätzst die Treiberlast bei AC in DX11 völlig. Du glaubst gar nicht wie hoch diese ist. Ohne DX11 würde eine Radeon locker die doppelten Frameraten in den kritischen Szenen liefern.

Im Umkehrschluss müsste AC-O mit einer Radeon dann ja schlechte bzw. merklich schlechtere Mehrkernauslastung aufweisen.

Gibts irgendwo AC-O CPU Benchmarks mit einer Radeon 7 oder RX 5700XT ?

Bzw. gibts hier jemand im Forum der eine Core Skaleriung testen könnte mit Navi oder Vega2?

x-force
2019-09-23, 22:15:22
Im Umkehrschluss müsste AC-O mit einer Radeon dann ja schlechte bzw. merklich schlechtere Mehrkernauslastung aufweisen.

Gibts irgendwo AC-O CPU Benchmarks mit einer Radeon 7 oder RX 5700XT ?

Bzw. gibts hier jemand im Forum der eine Core Skaleriung testen könnte mit Navi oder Vega2?

https://www.pcgameshardware.de/Assassins-Creed-Odyssey-Spiel-61696/Specials/Assassins-Creed-Odyssey-Benchmarks-1266222/2/

der bench hört leider mit 8 kernen auf, jetzt müsste man ein review des 3900x mit amd grafik und ac finden.

Das ist mit einer Radeon überhaupt nicht der Fall. Erzähle also keinen Unsinn hier.

du erzählst mal wieder einen vom pferd und verrennst dich in api bullshit.
erkläre lieber warum auch amd im gegensatz zu deinen überheblichen ausführungen trotzdem zulegt.

aufkrawall
2019-09-23, 22:17:26
Er hat recht. Schau dir den Gewinn von 4C HTT Radeon vs. Geforce an. Ist doch nicht so kompliziert...

Armaq
2019-09-23, 22:30:53
Der Gewinn ist gering, aber es gibt sogar einen Gewinn von 4/8 zu 6/12. Scaling muss doch nicht immer 1 zu 1 erfolgen. Der Gesetz des abnehmenden Grenzertrages gilt doch noch?

aufkrawall
2019-09-23, 22:38:07
Ändert nichts daran, dass die Skalierung mit NV besser und die CPU-Auslastung wesentlich höher ist.

Armaq
2019-09-23, 22:41:48
Wie kommst du zu der Annahme? Weil mehr FPS erreicht werden? Die Karte ist signifikant schwächer, vll ist bei 1280p auch ein Limit der Grafik ab einem bestimmten Punkt erreicht?

kmf
2019-09-23, 23:44:50
Bullshit! Mal abgesehen davon... wird das Game überhaupt noch in diesem Leben fertig? X-DWer erwartet, dass das Game fertig wird, hat das dahinter steckende Geschäftsmodell net verstanden. :devil:

sry for OT xD

aufkrawall
2019-09-24, 00:00:07
Wie kommst du zu der Annahme? Weil mehr FPS erreicht werden? Die Karte ist signifikant schwächer, vll ist bei 1280p auch ein Limit der Grafik ab einem bestimmten Punkt erreicht?
Es darf gerne jemand den Test mit 5700 XT und reduzierten Details durchführen...

Armaq
2019-09-24, 00:16:13
Es darf gerne jemand den Test mit 5700 XT und reduzierten Details durchführen...
Ja, wäre total interessant. Wir haben sicherlich jmd. der komplett Rot ist? Einfach 4/4 gegen 8/8 wäre super!

x-force
2019-09-24, 00:22:24
Er hat recht. Schau dir den Gewinn von 4C HTT Radeon vs. Geforce an. Ist doch nicht so kompliziert...

sprechen wir die gleiche sprache?
"überhaupt nicht der fall" entspricht leider nicht dem was pcgh gemessen hat.

amd skaliert ebenfalls.

Zossel
2019-09-24, 07:01:49
Ändert nichts daran, dass die Skalierung mit NV besser und die CPU-Auslastung wesentlich höher ist.

CPU-Auslastung als solches ist keine Maßstab, wenn schon bitte die CPU-Auslastung in Relation zu FPS bzw. Min-Frames.

dargo
2019-09-24, 10:07:54
amd skaliert ebenfalls.
Dann zeige mal den Test.

aufkrawall
2019-09-24, 10:20:32
Ach dargo. Was wissen wir schon, die das Spiel selbst auf Ryzen oder sowohl GeForce und Radeon am laufen hatten.

SKYNET
2019-09-24, 10:33:48
Ach dargo. Was wissen wir schon, die das Spiel selbst auf Ryzen oder sowohl GeForce und Radeon am laufen hatten.

kanns leider nicht wirklich nachstellen, da ne RX580 und ne 1080Ti eher schwer zu vergleichen sind... sonst würd ich mich da glatt mal nen abend hinsetzen.

robbitop
2019-09-24, 10:35:20
Im CPU Limit testen. Niedrigste Auflösung sollte reichen um beide ins CPU Limit zu bringen.
Auch könnte man die Taktrate der CPU optional auch senken um sicherzugehen im CPU Limit zu sein.

aufkrawall
2019-09-24, 10:40:33
Im CPU Limit testen. Niedrigste Auflösung sollte reichen um beide ins CPU Limit zu bringen.

Reicht nicht:
Damit ein gewisser Dildo Ruhe gibt:
https://youtu.be/utMZcEWxnNw
Das Spiel ist eine ziemlich Bitch, was die Reduzierung der GPU-Last über die Auflösung angeht.

Stellt bei der Glattheit der Frametimes nicht unbedingt neue Rekorde auf, fühlt sich aber noch nicht unrund an und ist um Dimensionen besser als das Shader Compile Stuttering in The Witcher 3.
Ist btw. der RTSS-Graph, der standardmäßig empfindlicher ausschlägt als der von Afterburner.

robbitop
2019-09-24, 10:43:20
Wie gesagt, man kann ja auch zusätzlich die CPU Taktrate absernken. 800x600 und 2 GHz oder weniger und man ist mit ziemlicher Sicherheit im CPU Limit.

aufkrawall
2019-09-24, 10:47:53
Hach ja, kann man machen. Hat dann aber schon ziemlichen Synthie-Charakter, anders als die Messung des realistisch vorkommenden CPU-Limits.

Mangel76
2019-09-24, 10:57:14
Im CPU Limit testen. Niedrigste Auflösung sollte reichen um beide ins CPU Limit zu bringen.
Auch könnte man die Taktrate der CPU optional auch senken um sicherzugehen im CPU Limit zu sein.

Ist das dann noch der richtige Test? Es geht doch unter anderem um die CPU-Last des NVIDIA-Treibers, die hier den Eindruck erweckt, dass Spiele mehr als eine bestimmte Zahl an Threads nutzen. Wenn du aber die Grafik-Last deutlich reduzierst, reduzierst du ja wohl auch die CPU-Last des NV-Treibers. Könnte mir vorstellen, dass man damit dann deutlich weniger Auslastungsunterschiede zwischen NVIDIA und AMD sehen wird als mit normaler Grafiklast.

Und wie sieht es bei den Spieleengines aus? Wird die Zahl der genutzten Threads von den dargestellten Effekten/Objekten beeinflusst? Falls ja, würde so ein Test völlig falsche Ergebnisse liefern, sowohl für die Threadnutzung moderner Engines als auch für die CPU-Belastung des NV-Treibers.

robbitop
2019-09-24, 11:17:59
IMO geht es da mehr um die Drawcalls. Dem Treiber ist die Auflösung in der Hinsicht mWn egal.

Ja es ist synthetisch - aber wenn man ein spezifisches Verhalten herausarbeiten möchte (und in diesem Fall keine gleich starken GPUs vorhanden aind), muss das nicht falsch sein.

Es geht doch nur um die Aussage der Skalierung der Performance mit den CPU Cores/Threads und ggf un die maximale Leistung im CPU Limit. Da sollten Relativwerte ausreichen um die Aussage treffen zu können.

Gipsel
2019-09-24, 11:19:28
Ist das dann noch der richtige Test? Es geht doch unter anderem um die CPU-Last des NVIDIA-Treibers, die hier den Eindruck erweckt, dass Spiele mehr als eine bestimmte Zahl an Threads nutzen. Wenn du aber die Grafik-Last deutlich reduzierst, reduzierst du ja wohl auch die CPU-Last des NV-Treibers. Könnte mir vorstellen, dass man damit dann deutlich weniger Auslastungsunterschiede zwischen NVIDIA und AMD sehen wird als mit normaler Grafiklast.

Und wie sieht es bei den Spieleengines aus? Wird die Zahl der genutzten Threads von den dargestellten Effekten/Objekten beeinflusst? Falls ja, würde so ein Test völlig falsche Ergebnisse liefern, sowohl für die Threadnutzung moderner Engines als auch für die CPU-Belastung des NV-Treibers.
Von der Anzahl der dargestellten Effekte hängt die Last im Spiel (und im Treiber) natürlich ab (deswegen sollte man auch eine hohe Detailstufe für so einen Test wählen). Aber solange das Spiel das nicht automatisch mit der Auflösung skaliert (was wohl die allerwenigsten machen), bleibt die CPU-Last von Engine und Treiber völlig unabhängig von der Auflösung.

Edit:
robbitop war schneller.

SKYNET
2019-09-24, 11:25:13
mhhh, bessere überlegung: PT aufs max runterschrauben und den taktregler nach links schieben bei der 1080Ti? muss mich nur mal jemand am WE dran erinnern dann bitte :D

aufkrawall
2019-09-24, 11:27:03
Du willst die Leistung der GPU verkrüppeln? Macht voll Sinn, wenn man das CPU-Limit testen will. Nicht. :freak:

robbitop
2019-09-24, 11:30:58
Die Überlegung ist mMn nicht besser. CPU Limit herstellen und fertig.

Dimon
2019-09-24, 11:32:02
Soo, wie erwartet kam der 3900x wieder nicht :freak:


Will nun den 3700x kaufen, habe aber gelesen das er in der Transferrate um die hälfte beschränkt ist, wisst ihr wo sich dieses Defizit auswirken kann bzw. könnte bei anwendungen oder Spielen?


Ansonsten gefällt mir auch der 3800x ganz gut, nur der aufpreis gefällt mir nicht :rolleyes:


Viele Grüsse

SKYNET
2019-09-24, 11:34:14
Du willst die Leistung der GPU verkrüppeln? Macht voll Sinn, wenn man das CPU-Limit testen will. Nicht. :freak:

stimmt... denkfehler :hammer:

x-force
2019-09-24, 12:15:24
Dann zeige mal den Test.

ist im gleichen post verlinkt:confused:

Niall
2019-09-24, 12:42:02
Soo, wie erwartet kam der 3900x wieder nicht :freak:


Will nun den 3700x kaufen, habe aber gelesen das er in der Transferrate um die hälfte beschränkt ist, wisst ihr wo sich dieses Defizit auswirken kann bzw. könnte bei anwendungen oder Spielen?


Ansonsten gefällt mir auch der 3800x ganz gut, nur der aufpreis gefällt mir nicht :rolleyes:


Viele Grüsse
Haben nicht alle R3000 ab 8 Kernen zwei Chiplets? :confused:

Schnoesel
2019-09-24, 12:55:14
Nein nur der 12 und 16 Kerner. 6 und 8 kerner haben ein Chiplet.

nairune
2019-09-24, 13:38:48
... Was aber nicht nur Nachteil ist. Ein 3700X/3800X hat 4 Kerne im selben CCX statt nur 3 wie der 3900X. Vielleicht liegt er auch deshalb manchmal leicht hinter den Achtkernern.

Niall
2019-09-24, 14:03:10
Nein nur der 12 und 16 Kerner. 6 und 8 kerner haben ein Chiplet.
Ah, merci. :)

Freestaler
2019-09-24, 14:38:36
Zur Info wegen der "halben" Schreibgeschwindigkeit bei den 1 ccdler , welche vollkommen reicht, da sowie 2:1 operationverhältnis existiert: https://www.igorslab.media/amd-aeussert-sich-zu-dem-drastischen-unterschied-bei-der-ddr4-speicherbandbreite-zwischen-ryzen-r9-3900x-und-r7-3700x/

Zossel
2019-09-24, 20:57:16
Zur Info wegen der "halben" Schreibgeschwindigkeit bei den 1 ccdler , welche vollkommen reicht, da sowie 2:1 operationverhältnis existiert: https://www.igorslab.media/amd-aeussert-sich-zu-dem-drastischen-unterschied-bei-der-ddr4-speicherbandbreite-zwischen-ryzen-r9-3900x-und-r7-3700x/

Jein, Richtung L[123] kann der Core sowieso mehr abdrücken als das DRAM schafft.

Hammer des Thor
2019-09-25, 01:36:31
Soo, wie erwartet kam der 3900x wieder nicht :freak:


Will nun den 3700x kaufen, habe aber gelesen das er in der Transferrate um die hälfte beschränkt ist, wisst ihr wo sich dieses Defizit auswirken kann bzw. könnte bei anwendungen oder Spielen?


Ansonsten gefällt mir auch der 3800x ganz gut, nur der aufpreis gefällt mir nicht :rolleyes:


Viele Grüsse

Gerade in Spielen wohl eher nicht da diese sicher viel mehr aus dem RAM lesen als schreiben, theoretisch. Bin zwar kein Programmierer, aber denke mal das meiste in den RAM schreiben ist beim Laden von HD/SSD und da sollte der RAM auch dann noch viel schneller sein. ME dürften zeitkritische Zugriffe fast nur beim Lesen sein und da hats ja die volle Transferrate!
Edit: Der 3800X ist in der Schreibrate genauso beschnitten wie der 3700X. Die brauchen 2 CCDs für volles Tempo!

SKYNET
2019-09-25, 10:19:03
gute chiplets hat AMD anscheinend genug, kneift woanders:
https://www.computerbase.de/2019-09/amd-ryzen-9-3950x-taktprobleme/

Der_Korken
2019-09-25, 10:29:54
Dass es Taktprobleme mit 3950X gibt, kommt nicht so überraschend. Der 3900X tut sich schon sehr schwer damit die 4,6Ghz zu erreichen und dabei ist dieser auch noch sehr schlecht lieferbar. Wäre der Takt kein Problem, gäbe es keinen Grund warum der 3900X schlechter lieferbar sein soll als ein 3600. Eventuell schiebt AMD ein neues Stepping ein, um noch 100-200Mhz rauszukitzeln und die Highend-Modelle besser bedienen zu können. Vom Zeitplan her könnte das zu November passen, denn das Problem wird AMD intern sicher schon länger erkannt haben.

SKYNET
2019-09-25, 10:30:51
Dass es Taktprobleme mit 3950X gibt, kommt nicht so überraschend. Der 3900X tut sich schon sehr schwer damit die 4,6Ghz zu erreichen und dabei ist dieser auch noch sehr schlecht lieferbar. Wäre der Takt kein Problem, gäbe es keinen Grund warum der 3900X schlechter lieferbar sein soll als ein 3600. Eventuell schiebt AMD ein neues Stepping ein, um noch 100-200Mhz rauszukitzeln und die Highend-Modelle besser bedienen zu können. Vom Zeitplan her könnte das zu November passen, denn das Problem wird AMD intern sicher schon länger erkannt haben.

aufmerksamer lesen, der max. takt ist kein problem, eher der durchschnittliche takt bei belastung mehrerer kerne gleichzeitig.

dildo4u
2019-09-25, 10:32:13
Das widerspricht sich die Chiplets sind ebend nicht gut genug sie wären es nur für eine Low Power Version mit zu wenig Takt zum zocken.
Ich vermute das es bei dem Core Count deutlich sinnvoller ist Threadripper zu kaufen da er nicht so massiv im TDP beschränkt ist.

SKYNET
2019-09-25, 10:46:49
Das widerspricht sich die Chiplets sind ebend nicht gut genug sie wären es nur für eine Low Power Version mit zu wenig Takt zum zocken.
Ich vermute das es bei dem Core Count deutlich sinnvoller ist Threadripper zu kaufen da er nicht so massiv im TDP beschränkt ist.

da warte ich immer noch auf nen ITX oder potentes mATX board X-D

robbitop
2019-09-25, 10:47:27
Naja es ist doch auch klar, dass je mehr Kerne im gleichen Envelope sind, der erreichbare Takt bei Vollauslastung sinken muss.
Im Teillastbereich (was auf viele Anwendungen und auf nahezu alle Spiele bei einem 16C zutreffen sollte) sollte das aber wieder besser aussehen, da nicht genutzte Kerne schlafen gelegt werden.

SKYNET
2019-09-25, 11:02:06
Naja es ist doch auch klar, dass je mehr Kerne im gleichen Envelope sind, der erreichbare Takt bei Vollauslastung sinken muss.
Im Teillastbereich (was auf viele Anwendungen und auf nahezu alle Spiele bei einem 16C zutreffen sollte) sollte das aber wieder besser aussehen, da nicht genutzte Kerne schlafen gelegt werden.


AMD sollte einfach die CPU spezifikationen hochschrauben, 120W und fertig. würde dann grad das problem lösen mit zuwenig takt in MC anwendungen.

oder es müssten ggf. die boardpartner einspringen und alle boards die keine min. 200A liefern können vom support ausschliessen bzw. grad vermerken "auf eigene gefahr, keine garantie auf sicheren betrieb auf den boards xxx, xxx, xxx, xxx" usw.

Korvaun
2019-09-25, 12:46:53
Theoretisch könnte ein 16Kerner ja 1 komplettes Die schlafen legen wenn überwiegend <9 Kerne belastet werden (zumindest in Spielen). Aufgrund des Binnings müsste der 8Kerner dann immer noch schneller sein als 3700/3800X. Fragt sich wie groß der Aufwand für so was wäre und ob das performancetechnisch insgesamt besser wäre.
Neues Stepping kann ich mir nicht vorstellen, ZEN3 sollte ja bald schon in (Vor-)Produktion gehen, da heißt es einfach Zähne zusammenbeißen und durch...

Armaq
2019-09-25, 12:55:39
Dass es Taktprobleme mit 3950X gibt, kommt nicht so überraschend. Der 3900X tut sich schon sehr schwer damit die 4,6Ghz zu erreichen und dabei ist dieser auch noch sehr schlecht lieferbar. Wäre der Takt kein Problem, gäbe es keinen Grund warum der 3900X schlechter lieferbar sein soll als ein 3600. Eventuell schiebt AMD ein neues Stepping ein, um noch 100-200Mhz rauszukitzeln und die Highend-Modelle besser bedienen zu können. Vom Zeitplan her könnte das zu November passen, denn das Problem wird AMD intern sicher schon länger erkannt haben.
Geil wie man es einfach nicht liest und dennoch poltert.

Allcore geht die Temperatur mächtig durch die Decke, auch bei 12 Kernen sichtbar. Wenn der 3950x bei 16 Kernen "nur noch" Basistakt fährt, dann will AMD einfach nicht wieder von den ganzen "Experten" auf YouTube und daraus resultierender negative Berichterstattung überrollt werden. Sie haben offensichtlich aus dem Boost-Takt Thema gelernt und verstanden, dass Infaulencer und Co. das nicht so einfach nachvollziehen können.

Matrix316
2019-09-25, 13:01:10
Aus dem CB Link oben:

Und die TDP hat AMD auch für 16 Kerne auf vergleichsweise geringe 105 Watt gesetzt – damit sind bereits Acht-Kerner wie der Ryzen 7 3800X (Test) unterwegs. Das ist primär auf die Infrastruktur zurückzuführen, der nun langsam in die Jahre gekommene Sockel AM4 wurde nur für diese Werte ausgelegt.

Ich zitiere mich sinngemäß: Wäre es nicht besser, der 16 Kerner wäre als Threadripper gekommen? Das wären zwei 3800X und einer davon zieht schon ziemlich Strom.

Außerdem hätte es den Vorteil, dass die Nachfrage eventuell nicht so hoch wäre wie für AM4, da man halt auch ein TR Board bräuchte.

MiamiNice
2019-09-25, 13:04:44
Man hat den Mund einfach ein wenig zu voll genommen, das hätte gar nicht sein müssen. Zumindest halten sie den CPU zurück bis sie eine Lösung für das Problem haben. Finde ich gut.

Opprobrium
2019-09-25, 13:06:31
Jo, dann hätte man aber nicht den ersten 16-Core Komsumentenprozessor auf seiner Errungenschaftsliste.

Bei Anandtech wurde in einem Kommentar vorgeschlagen, dass AMD zukünftig einfach die kumulative Frequenz aller Kerne angibt, also bei einem 16 Kerner mit 3,6 Ghz Basistakt 57,6 Ghz. Find ich gar nicht so blöd, und meckern könnte dann auch keiner mehr ;)

Daredevil
2019-09-25, 13:07:30
Wieso?
Ein 16 Kerner mit 105w ist halt immer noch deutlich schneller als ein 8 Kerner mit 105w, von daher kann es schon seinen Sinn haben, nur halt nicht für jeden Workload.

Matrix316
2019-09-25, 13:08:51
Jo, dann hätte man aber nicht den ersten 16-Core Komsumentenprozessor auf seiner Errungenschaftsliste.

Bei Anandtech wurde in einem Kommentar vorgeschlagen, dass AMD zukünftig einfach die kumulative Frequenz aller Kerne angibt, also bei einem 16 Kerner mit 3,6 Ghz Basistakt 57,6 Ghz. Find ich gar nicht so blöd, und meckern könnte dann auch keiner mehr ;)
Man muss nur Threadripper zur Konsumentplattform machen.

Ist es ja eigentlich auch, weil für professionelle Dinge gibt's ja Epyc...

basix
2019-09-25, 13:37:21
Ich glaube das Problem ist das Load Balancing bei "Light MT" wie Spielen. Am besten die Last auf 8-10 Kerne mit höherem Takt verteilen als auf alle 16 Kerne verschmieren.

Thunder99
2019-09-25, 13:45:02
Jo, dann hätte man aber nicht den ersten 16-Core Komsumentenprozessor auf seiner Errungenschaftsliste.

Bei Anandtech wurde in einem Kommentar vorgeschlagen, dass AMD zukünftig einfach die kumulative Frequenz aller Kerne angibt, also bei einem 16 Kerner mit 3,6 Ghz Basistakt 57,6 Ghz. Find ich gar nicht so blöd, und meckern könnte dann auch keiner mehr ;)
Kumulativ, das ist sowas von falsch...

Es ist eher erstaunlich das sie 16 Kerne in 105W verpacken. Effizienz ist da richtig gut :)

Der_Korken
2019-09-25, 13:47:36
Geil wie man es einfach nicht liest und dennoch poltert.

Allcore geht die Temperatur mächtig durch die Decke, auch bei 12 Kernen sichtbar. Wenn der 3950x bei 16 Kernen "nur noch" Basistakt fährt, dann will AMD einfach nicht wieder von den ganzen "Experten" auf YouTube und daraus resultierender negative Berichterstattung überrollt werden. Sie haben offensichtlich aus dem Boost-Takt Thema gelernt und verstanden, dass Infaulencer und Co. das nicht so einfach nachvollziehen können.

Und wie erklärst du dir dann die schlechte Lieferbarkeit des 3900X, wenn der Boost angeblich kein Problem sein soll? Für mich klingt das alles ziemlich komisch. Der 3950X dürfte in jeder Lage mindestens so schnell wie der 3900X sein, weil er bei leichter MT-Last genauso hoch takten kann und die nicht benötigten Kerne schlafen legt (da er aus 16 statt aus 12 Kernen auswählt, hat er statistisch im Schnitt auch höherwertigere Kerne, die bei gleicher Leistungsaufnahme mehr Takt schaffen) bzw. bei hoher MT-Last zwar niedriger taktet, dafür aber 33% mehr Kerne hat. Der der 3700X schon 8x3,7Ghz Basetakt in 65W presst (vermutlich eher 55W wegen IO), klingen 16x3,5Ghz in 95W(+10W IO) eigentlich gut erreichbar. Wenn es ein Problem mit dem "Boost-Scheduling", also welchen Kern man wann wie hoch taktet, gäbe dann müsste der 3900X davon auch betroffen sein.

Langlay
2019-09-25, 13:50:14
Ich glaube das Problem ist das Load Balancing bei "Light MT" wie Spielen. Am besten die Last auf 8-10 Kerne mit höherem Takt verteilen als auf alle 16 Kerne verschmieren.
^

In Spielen (PUBG) zieht mein 3800X so ~50W und mindestens 4 Kerne takten >=4.4 GHz.

Unter Vollast (CB20) liegt der 3800X so bei ~100W.

(Vorrausgesetzt die Messung der Stormstärke ist einigermassen genau, weil die CPU Package Power und CPU Core Power kann man beim C6H ziemlich in den Skat drücken)

Isen
2019-09-25, 13:51:48
Ist mMn eher am Sockel begründet, zu Zen3 erwarte ich da nichts gutes (Gen1/400) ...

Opprobrium
2019-09-25, 13:55:34
Ist mMn eher am Sockel begründet, zu Zen3 erwarte ich da nichts gutes (Gen1/400) ...

Naja, wenn Zen3 mit der gleichen Kernzahl in optimiertem Prozess daher kommt dürften die Leistungsanforderungen eher einen kleinen Schritt zurück machen als den recht großen Schritt, den eine Kernverdopplung nunmal mit sich bringt.

SKYNET
2019-09-25, 14:35:15
Ist mMn eher am Sockel begründet, zu Zen3 erwarte ich da nichts gutes (Gen1/400) ...


Zen3 ist nix anderes wie Zen2+, wird sich da verhalten wie ryzen 1000 zu ryzen 2000, mehr takt, trotzdem weniger verbrauch(siehe 1800X vs. 2700X)... von daher sehe ich da eher bessere karten für alte AM4 boards.

Isen
2019-09-25, 15:01:56
Dachten viele Boardpartner auch ;-)

Tesseract
2019-09-25, 15:02:51
AMD hat doch schon gesagt ohne einen "major inflection point" (z.B. DDR5, gravierende änderungen an PCIe oder ähnliches) gibt es keinen grund von AM4 weg zu gehen.

robbitop
2019-09-25, 15:10:46
Ich tippe darauf, dass Zen 3 ein bisschen mehr als Zen+ war. Zen+ war ja auf Transistorebene identisch zu Zen. IIRC war ein Großteil der Masken sogar gleich.

Bei Zen 3 könnte ich mir vorstellen, dass man zumindest das Design neu kompiliert und die HDLibs für das Layout leicht anders parametriert (bzgl. Optimierungskriterium). Aktuell scheint die Packdichte das primäre Optimierungsziel der automatisierten Layouterstellung zu sein. Ich könnte mir vorstellen, dass man das etwas mehr in Richtung Takt auf Kosten der Packdichte tunt.
7nm+ soll ja etwas mehr Dichte bringen - den Gewinn kann man ja gut in diese Richtung investieren.

SKYNET
2019-09-25, 16:02:58
Ich tippe darauf, dass Zen 3 ein bisschen mehr als Zen+ war. Zen+ war ja auf Transistorebene identisch zu Zen. IIRC war ein Großteil der Masken sogar gleich.

Bei Zen 3 könnte ich mir vorstellen, dass man zumindest das Design neu kompiliert und die HDLibs für das Layout leicht anders parametriert (bzgl. Optimierungskriterium). Aktuell scheint die Packdichte das primäre Optimierungsziel der automatisierten Layouterstellung zu sein. Ich könnte mir vorstellen, dass man das etwas mehr in Richtung Takt auf Kosten der Packdichte tunt.
7nm+ soll ja etwas mehr Dichte bringen - den Gewinn kann man ja gut in diese Richtung investieren.

jopp, und ist nun ja die frage für alle die plan(t)en sich nen 3950X in rechner zu stopfen, ob sich das für die überhaupt lohnt wenn im mai schon Zen3 kommt... wobei ich mir vorstellen könnte das AMD das so macht wie jetzt auch, erst den schrott(4600-4800X) und den 2. schnellsten aka 4900X um später den 4950X nachzuschieben.

Matrix316
2019-09-25, 16:04:41
jopp, und ist nun ja die frage für alle die plan(t)en sich nen 3950X in rechner zu stopfen, ob sich das für die überhaupt lohnt wenn im mai schon Zen3 kommt... wobei ich mir vorstellen könnte das AMD das so macht wie jetzt auch, erst den schrott(4600-4800X) und den 2. schnellsten aka 4900X um später den 4950X nachzuschieben.
Da der 4950X aber dann im November 2020 kommt... kann man auch jetzt noch den 3950X kaufen. :D

SKYNET
2019-09-25, 16:12:49
Da der 4950X aber dann im November 2020 kommt... kann man auch jetzt noch den 3950X kaufen. :D

oder sie haben grad draus gelernt und sammeln vorweg die guten chiplets zusammen... :confused::freak:

an AMDs stelle würde ich eh erst highend bringen und 2-3 monate später den schrott nachschieben, gibt genug die nicht warten wollen und dann zu den dicken greifen = mehr umsatz.

Mangel76
2019-09-25, 16:19:48
Eventuell schiebt AMD ein neues Stepping ein, um noch 100-200Mhz rauszukitzeln und die Highend-Modelle besser bedienen zu können.


Bei der Sichtung (https://www.pcgameshardware.de/Matisse-Codename-268193/News/AMD-Ryzen-5-3500X-taucht-in-Benchmarks-auf-und-soll-i5-9400F-beackern-1333100/) des kommenden 3500X war ja schon die Rede vom neuen Stepping B0:
Dort wird die weitere Matisse-CPU mit den bekannten Daten vermerkt - neu ist das B0-Stepping.

SKYNET
2019-09-25, 16:32:37
Bei der Sichtung (https://www.pcgameshardware.de/Matisse-Codename-268193/News/AMD-Ryzen-5-3500X-taucht-in-Benchmarks-auf-und-soll-i5-9400F-beackern-1333100/) des kommenden 3500X war ja schon die Rede vom neuen Stepping B0:

ob die nachfolgenden steppings besser sind, ist ja immer sone sache, mein 2700X war erste charge und wahl wohl einer der besten 2700X, die je vom band gelaufen sind :biggrin:

Matrix316
2019-09-25, 16:33:04
oder sie haben grad draus gelernt und sammeln vorweg die guten chiplets zusammen... :confused::freak:

an AMDs stelle würde ich eh erst highend bringen und 2-3 monate später den schrott nachschieben, gibt genug die nicht warten wollen und dann zu den dicken greifen = mehr umsatz.

Dann ist der einzige Unterschied, dass die kleinen CPUs dann erst später kommen, während die großen trotzdem keiner kaufen kann, wegen der riesen Nachfrage und weil AMD nicht liefern kann. ;)

SKYNET
2019-09-25, 16:35:18
Dann ist der einzige Unterschied, dass die kleinen CPUs dann erst später kommen, während die großen trotzdem keiner kaufen kann, wegen der riesen Nachfrage und weil AMD nicht liefern kann. ;)

das sollten sie dann halt von vornherrein einplanen... im notfall 4950/4900 non-X als erstes... die dürften vom takt ja auf niveau der jetzigen X modelle liegen wenns alles gut geht... X dann später nachschieben und am ende den abfall rauswerfen ;D

Unicous
2019-09-25, 16:37:22
@Mangel76

Das zugehörige Bild hast du dir dabei aber nicht angeschaut, oder?

Ich bin mir ziemlich sicher, dass B0 das Auslieferungs-Stepping ist, wie es auch zuvor schon der Fall war. Sehr selten hat AMD Chips mit einem Ax Stepping ausgeliefert.

Das B0-Stepping wurde schon im Mai entdeckt, vor Launch der Chips.

Ich würde eher sagen, dass PCGH mal wieder irgendeinen Schmarren geschrieben hat, weil sie selbst keinen Durchblick haben. PCGH fällt immer wieder unangenehm mit schlecht recherchierten Artikeln auf. Hauptsache schnell sein ist da die Devise. Wobei man hier eindeutig sagen kann, dass einfach nicht nachgedacht wurde und einfach drauflosgeschrieben wurde.

Kann man übrigens auch hier verfolgen, Crashtest ist in der Regel sehr gut informiert: https://www.planet3dnow.de/vbulletin/threads/433472-AMD-OPN-Erneuerung-Chaos-eine-Uebersicht-der-neuen-ZEN2-CPUs

N0Thing
2019-09-25, 17:35:13
Bei der Sichtung (https://www.pcgameshardware.de/Matisse-Codename-268193/News/AMD-Ryzen-5-3500X-taucht-in-Benchmarks-auf-und-soll-i5-9400F-beackern-1333100/) des kommenden 3500X war ja schon die Rede vom neuen Stepping B0:

Verstehe nicht ganz, wie die PCGH zu dieser Einschätzung kommt. Selbst auf deren als Quelle verlinkten Seite von MSI (https://de.msi.com/Motherboard/support/MEG-X570-GODLIKE#support-cpu), werden alle CPUs mit dem B0 Stepping ausgewiesen, nicht nur der 3500X. Und schon zum Zeitpunkt der Markteinführung war das Stepping B0, wie man z.B. auf dem Screenshot von AIDA64 bei Computerbase sehen kann: https://www.computerbase.de/2019-07/amd-ryzen-3000-test/5/

KORE
2019-09-25, 21:34:48
So 3900X ist heute angekommen, erster Test mit altem System nur CPU getauscht.

B350 I-Gaming, max Temp 73° Wassertemperatur 33°

5 Kerne erreichen 4,6 GHz

https://s17.directupload.net/images/190925/temp/ocsjy9x5.png (https://www.directupload.net/file/d/5586/ocsjy9x5_png.htm)

https://s17.directupload.net/images/190925/temp/ezlowl8g.png (https://www.directupload.net/file/d/5586/ezlowl8g_png.htm)

Thunder99
2019-09-26, 08:42:01
Nice

Bei mir sind es zwei die an die 4,2 GHz kommen. Was interessant ist, dass der Ryzen Master auch zeigt welcher Kern der Beste und zweitbeste ist.

HOT
2019-09-26, 09:25:18
Zen3 ist nix anderes wie Zen2+, wird sich da verhalten wie ryzen 1000 zu ryzen 2000, mehr takt, trotzdem weniger verbrauch(siehe 1800X vs. 2700X)... von daher sehe ich da eher bessere karten für alte AM4 boards.
Unfug. Allein AVX512 erfordert tiefgreifende Änderungen. Zen3 wird rein technisch ein größerer Sprung als Zen2 und ich bin mir ziemlich sicher, dass Zen3 dann später mit einem neuen I/O-Chip nochmals refresht wird. Ob das von der Performance her gewaltig wird, sehen wir dann. Aber Matisse lebt nur so lange, wie Rome lebt. Mit Milan (voraussichtlich Ende 21) geht dieser Chip wieder vom Markt. Ich bin mir ziemlich sicher, dass alle neuen Serverplattformen auch neue Zen-Iterationen sind, die diesen Namen auch verdienen.

JVC
2019-09-26, 10:04:41
So 3900X ist heute angekommen, erster Test mit altem System nur CPU getauscht.

B350 I-Gaming, max Temp 73° Wassertemperatur 33°

5 Kerne erreichen 4,6 GHz

https://s17.directupload.net/images/190925/temp/ocsjy9x5.png (https://www.directupload.net/file/d/5586/ocsjy9x5_png.htm)

https://s17.directupload.net/images/190925/temp/ezlowl8g.png (https://www.directupload.net/file/d/5586/ezlowl8g_png.htm)
Und der schlechteste Kern immerhin noch 4,35Ghz :up:

Hast du die Möglichkeit die Max-Temp auch merklich unter 70°c zu drücken ?
(Auto-PBO versucht immer unter 70°c zu bleiben)
Vielleicht geht dann noch mehr :smile:

M.f.G. JVC

Armaq
2019-09-26, 10:28:08
Und wie erklärst du dir dann die schlechte Lieferbarkeit des 3900X, wenn der Boost angeblich kein Problem sein soll? Für mich klingt das alles ziemlich komisch. Der 3950X dürfte in jeder Lage mindestens so schnell wie der 3900X sein, weil er bei leichter MT-Last genauso hoch takten kann und die nicht benötigten Kerne schlafen legt (da er aus 16 statt aus 12 Kernen auswählt, hat er statistisch im Schnitt auch höherwertigere Kerne, die bei gleicher Leistungsaufnahme mehr Takt schaffen) bzw. bei hoher MT-Last zwar niedriger taktet, dafür aber 33% mehr Kerne hat. Der der 3700X schon 8x3,7Ghz Basetakt in 65W presst (vermutlich eher 55W wegen IO), klingen 16x3,5Ghz in 95W(+10W IO) eigentlich gut erreichbar. Wenn es ein Problem mit dem "Boost-Scheduling", also welchen Kern man wann wie hoch taktet, gäbe dann müsste der 3900X davon auch betroffen sein.
Ich hab son 3900x und es gibt kein Problem mit dem scheiss Boost. Der SC Boost ist kein Thema. Das haben entweder Trolle behauptet oder Clickbait-Huren die sich profilieren wollten. Singlecore Boost hat mit 1002 funktioniert. Mein Mainboardhersteller hat hier Probleme gemacht mit den folgenden BIOS Updates, weil sein BIOS schlecht programmiert war und die Funktionen nicht das machten, was sie sollten. Dafür kann der Boost des Chip nichts. Bisher sieht es so aus als ob es immer ein sehr gutes Chiplet gibt (4600+)und ein weniger gutes (4300+). Im SC Boost erreiche ich übrigens 4650 Mhz auf zwei Kernen, wenn ich das will.


Die Temperatur bei echter Allcore-Last (ins. Prime und andere Synths) ist selbst bei einem NDH15 grenzwertig auf einem 3900x. Ich habe keine längeren Render Sessions o.ä. gemacht und wie bekannt sind Games überhaupt kein Problem. Dennoch habe ich bei Mischbelastung (Games und anderes) über längere Zeit über 74°C.

In Mitteleuropa wird es mit dem 3950x vll. weniger Probleme geben als in bestimmten Regionen in Asien. Wenn AMD den 3950x nicht mit einer AiO ausliefert, wird das wohl nichts werden.

Thunder99
2019-09-26, 11:04:27
Doch, nur wird er entsprechend langsamer sein. Aber AMD will genau das verhindern, daher die Verspätung. Es müsste mindestens die gleiche Performance geben bei gleicher Thread Ausnutzung. Ansonsten muss man damit leben und hat nur den Kern Vorteil.

chiller
2019-09-26, 11:08:53
Ist das der Spekulationsthread?

MR2
2019-09-26, 11:39:15
https://www.pcgameshardware.de/CPU-CPU-154106/Tests/Rangliste-Bestenliste-1143392/

Sieht gut aus für den 3900X, auch bei Games im Vergleich zum 9900K. ABBA hat schon was gebracht!
Wenn er denn nur etwas besser lieferbar wäre;-).

dildo4u
2019-09-26, 12:13:19
Die alten AMD Modelle und Intel werden da durch den Ram ein gebremst,auch ist es komisch das der 2600 bei den Anwendungen auf Level mit dem 9400F ist obwohl dem SMT fehlt.

KORE
2019-09-26, 12:49:31
@JVC

an die 70° komm ich nicht ran, der Steckt in einem ITX Case mit komplett Custom-WaKue das bedeutet 280er Radiator. ;)

Jetzt mit ABBA BIOS sind es 80° in der Spitze und der 6. Kern schafft die 4,6 GHz

https://s17.directupload.net/images/190926/temp/4d28jmlx.png (https://www.directupload.net/file/d/5587/4d28jmlx_png.htm)

JVC
2019-09-26, 13:12:36
Wenn AMD den 3950x nicht mit einer AiO ausliefert, wird das wohl nichts werden.
Default muss locker Lukü gehen, da er genau so viel wie der 3800X und 3900X verbraucht ... (voraussichtlich)
Beim OC schrei ich ja schon n Jahr, das man dann ne wirklich gute Kühlung und Versorgung brauchen wird ...

https://www.pcgameshardware.de/CPU-CPU-154106/Tests/Rangliste-Bestenliste-1143392/

Sieht gut aus für den 3900X ...

Und der 3950X bekommt "soll bekommen" auch noch 2 "gute Chipplets" :smile:
(AMD binnt schon wie Blöd, soll ja kein Paper-Launch werden...)
(bessere Chipplets als der 3800X besitzt :wink: *lechtz*)

@KORE Ok, schade aber Danke :smile:
6 Kerne ? Also ein komplettes Chipplet :up:

M.f.G. JVC

p.s.: falls der 3950X wieder nur ein gutes Chipplet bekommt, wird's bei mir n 3800X.
(ich käme mir dann verarscht vor.)
Wie sonnst könnte AMD den 3950X bei gleichem Verbrauch schneller als den 3900X machen !?
Ich bin guter dinge das er 2 gute Chipplets bekommt ;)

aufkrawall
2019-09-26, 13:29:46
halte ich für eine sehr grosse urban legend.
NTFS ist auch bei vielen kleinen Dateien genauso schnell, wenn nicht schneller als EXT3/4 oder XFS.

Ist keine Urban Legend, archivier den ffmpeg-Source ohne Kompression...
Hatte ich btw. auch mal hier gepostet:
~98k kleine Dateien mit 7-Zip (gleiche Version unter Linux in Wine) unter Windows und Linux in einer 7z-Datei ohne Kompression gespeichert:
Windows NTFS: ~53s
Linux ext4: ~16s

Linmoum
2019-09-26, 18:42:11
Alternate hat den 3900X übrigens auf Lager.

MR2
2019-09-26, 22:17:02
Erstaunlicherweise immernoch. Bei mf ist er wohl rausgefallen? Grad nicht auffindbar...

Zossel
2019-09-27, 06:30:45
~98k kleine Dateien mit 7-Zip (gleiche Version unter Linux in Wine) unter Windows und Linux in einer 7z-Datei ohne Kompression gespeichert:
Windows NTFS: ~53s
Linux ext4: ~16s

Und als Kontrast muss sich mal anschauen wie hier wegen marginaler Unterschiede der 3. Weltkrieg ausgerufen wird.

BTW: Gibt es eigentlich irgendwo belastbare Benchmarks DXVK/Proton vs. native Windows?

Tarkin
2019-09-27, 08:03:18
Alternate hat den 3900X übrigens auf Lager.

Lustig ist, MF hat den 3900x als "nicht mehr lieferbar" markiert ;D

https://www.mindfactory.de/product_info.php/AMD-Ryzen-9-3900X-12x-3-80GHz-So-AM4-BOX_1313647.html

Ich glaub da ist jemand beleidigt, dass Alternate wohl eine deutliche Anzahl an Chips bekommen hat (heute noch immer als "auf Lager" gekennzeichnet)!!

https://www.alternate.de/AMD/Ryzen-9-3900X-Prozessor/html/product/1553398

Zergra
2019-09-27, 08:16:06
Da haben eher viele bei MF bestellt, die haben alleine in der letzten Woche 1000 Stück ausgeliefert, wie hoch die Anzahl von Bestellungen wirklich ist weiß ja keiner.
Sieht eher danach aus das die Lieferzeiten so lang geworden sind, das sie den Verkauf bis auf weiteres einstellen.

Wenn natürlich bei alternate keiner bestellt, dann haben die den auch bei der nächsten Lieferung auf Lager

dildo4u
2019-09-27, 08:23:39
Das MF keine Bestellungen mehr entgegen nimmt ist nicht negativ sondern positiv vermutlich ist AMD endlich ehrlich und sagt bis November kommt nix mehr.
Das ewige entlangziehen der Kunden ist eine widerliche Praxis.

Freestaler
2019-09-27, 08:24:41
...p.s.: falls der 3950X wieder nur ein gutes Chipplet bekommt, wird's bei mir n 3800X.
(ich käme mir dann verarscht vor.)
Wie sonnst könnte AMD den 3950X bei gleichem Verbrauch schneller als den 3900X machen !?
Ich bin guter dinge das er 2 gute Chipplets bekommt ;)

MMn. sollten 16 Cores in einem MT tauglichen load schneller sein als 12 leicht höher taktende Cores bei gleicher verlustleistung (z.B. 105w). Dies schlicht, weil effektive erbrachte Leistung nicht linear mit dem Verbrauch, sondern diese progressiv ansteigt mit dem Takt (erbrachte Leistung).
Amd muss also nicht 2 CCD höchster Güte verwenden um den 16 schneller als den 12 zu machen. Es reicht wenn immer im vergleich 8 Core der 12 beim 16ner höher Takten. Erst recht wenn eben über 12 hinausgeht.

SKYNET
2019-09-27, 10:12:53
MMn. sollten 16 Cores in einem MT tauglichen load schneller sein als 12 leicht höher taktende Cores bei gleicher verlustleistung (z.B. 105w). Dies schlicht, weil effektive erbrachte Leistung nicht linear mit dem Verbrauch, sondern diese progressiv ansteigt mit dem Takt (erbrachte Leistung).
Amd muss also nicht 2 CCD höchster Güte verwenden um den 16 schneller als den 12 zu machen. Es reicht wenn immer im vergleich 8 Core der 12 beim 16ner höher Takten. Erst recht wenn eben über 12 hinausgeht.

selbst wenn der 3950X nur auf grundtakt(=3.5GHz) rennt, würde der den 3900X bei 4.4GHz allcore complett auffressen in MT szenarien, die 1:1 mit den threads skalieren.

HOT
2019-09-27, 10:17:06
Das wird mMn alles völlig fehlinterpretiert. Es wird weder ein Problem damit geben, die Takte zu schaffen noch mit der Die-Ausbeute. Das ist alles vollkommener Unsinn. Die Ausbeuteprobleme standen ja schon länger im Raum -> BIOSse mit Boardfixes und abba erscheinen -> busted. War also Unsinn.

Ich denke, dass es Unsinn ist, die schlechte Verfügbarkeit des 3900X mit der Verschiebung des 3950X auf eine Stufe zu stellen, das sind völlig unterschiedliche Sachen. Beim 3900er wird AMD die Nachfrage einfach grandios unterschätzt haben aber im Nachhinein die Produktionsmenge nicht genug erhöht haben. Die Ware bleibt also knapp, jedenfalls in Europa. Ganz normale Kalkulation. Andere CPUs sind ja nicht im Ansatz knapp, Ausbeute kann also nicht das Problem sein. Beim 3950X wird man sich einfach dazu entschieden haben, den zusammen mit TR zu launchen, damit man als Kunde die Wahl hat. Erscheint der 3950X vorher, wär das einfach unklug, denn dann würde man TR-Verkäufe gefährden, nur weil der "kleinere" früher ist, das macht marktwirtschaftlich einfach keinen Sinn, zumal zu erwarten ist, dass es auch einen 16-Kern-TR geben wird.

Marktgründe sind viel realistischere Erklärungen für die Verschiebung und Verknappung als technische Gründe.

SKYNET
2019-09-27, 10:34:00
Das wird mMn alles völlig fehlinterpretiert. Es wird weder ein Problem damit geben, die Takte zu schaffen noch mit der Die-Ausbeute. Das ist alles vollkommener Unsinn. Die Ausbeuteprobleme standen ja schon länger im Raum -> BIOSse mit Boardfixes und abba erscheinen -> busted. War also Unsinn.

Ich denke, dass es Unsinn ist, die schlechte Verfügbarkeit des 3900X mit der Verschiebung des 3950X auf eine Stufe zu stellen, das sind völlig unterschiedliche Sachen. Beim 3900er wird AMD die Nachfrage einfach grandios unterschätzt haben aber im Nachhinein die Produktionsmenge nicht genug erhöht haben. Die Ware bleibt also knapp, jedenfalls in Europa. Ganz normale Kalkulation. Andere CPUs sind ja nicht im Ansatz knapp, Ausbeute kann also nicht das Problem sein. Beim 3950X wird man sich einfach dazu entschieden haben, den zusammen mit TR zu launchen, damit man als Kunde die Wahl hat. Erscheint der 3950X vorher, wär das einfach unklug, denn dann würde man TR-Verkäufe gefährden, nur weil der "kleinere" früher ist, das macht marktwirtschaftlich einfach keinen Sinn, zumal zu erwarten ist, dass es auch einen 16-Kern-TR geben wird.

Marktgründe sind viel realistischere Erklärungen für die Verschiebung und Verknappung als technische Gründe.

wird eh keinen TR mehr mit 16 kernen geben... den namen hat sich AM4 abgeholt: 2950X / TR4 --> 3950X / AM4... die TR3000 familie wird bei 24 kernen = TR3970WX starten, fangen also fast da an, wo intel aufhört(was ziemlich sicher beabsichtigt ist) ;D

HOT
2019-09-27, 10:46:47
Was spricht gegen WX3950? Wir werden es sehen, aber ich bin davon überzeugt, dass es einen geben wird. Zumal man damit die Plattform pushen kann. Macht eigentlich keinen Sinn keinen zu bringen.

SKYNET
2019-09-27, 10:48:27
Was spricht gegen WX3950? Wir werden es sehen, aber ich bin davon überzeugt, dass es einen geben wird. Zumal man damit die Plattform pushen kann. Macht eigentlich keinen Sinn keinen zu bringen.

WX ging jetzt schon erst bei 24 kernen los, alles drunter bis 16 kerne war X... dadran wird sich ziemlich sicher auch nix ändern... und der 3950X samt PCIe 4.0 ist ja schon workstation light.

Matrix316
2019-09-27, 10:59:16
Also ich denk immer noch, dass man den 3950X als TR hätte bringen sollen.

Gibt bestimmt Hansel die ein B(illig) AM4 Mainboard mit dem und dem Boxed Kühler betreiben werden und dann die Bude abfackeln. ;)

HOT
2019-09-27, 11:32:09
Wird eh beides geben.

kunibätt
2019-09-27, 17:38:47
Mein 3900X ist gerade angekommen. Hatte vor 2 Tagen bei Alternate bestellt.

Linmoum
2019-09-27, 18:00:55
Ist auch immer noch lagernd bei Alternate, die scheinen da endlich mal 'ne größere Menge reinbekommen zu haben.

Matrix316
2019-09-27, 20:10:56
Ich hab seit gestern mal wieder meinen 1700X drinnen um zu schauen ob er noch geht und wie sich der Unterschied zum 3800X anfühlt und ehrlich gesagt... unter Windows merk ichs nur in Benchmarks, aber nicht vom handling. In Games merk ich es wenn nur bei Ladezeiten. Selbst Anno 1800 läuft noch gut. Bei Metro Exodus dauerts ewig bis man in den Settings was übernimmt, aber da bin ich nicht sicher ob das vorher nicht genauso war. Project Cars 2 und Formel 1 2018 laufen gefühlt genauso gut wie vorher. Selbst Arma 3. Hmmm...

x-force
2019-09-27, 23:30:38
unter Windows merk ichs nur in Benchmarks

schon eigenartig bei der gestiegenen single core leistung!

ich konnte den sprung von 3,5 ghz auf 4,5 ghz mit skylake ziemlich ordentlich spüren.
insbesondere beim booten, updates und chrome mit 50 tabs und adblockern mit riesigen listen öffnen.

Armaq
2019-09-27, 23:44:19
schon eigenartig bei der gestiegenen single core leistung!

ich konnte den sprung von 3,5 ghz auf 4,5 ghz mit skylake ziemlich ordentlich spüren.
insbesondere beim booten, updates und chrome mit 50 tabs und adblockern mit riesigen listen öffnen.
Trolling trolling trolling. :)

Der 1700x war kein schlechter Prozessor und hatte auch 8 Kerne. Das der Windows kann und der Skylake schon buckeln musste, dafür kann ja keiner was.

Matrix316
2019-09-27, 23:58:48
schon eigenartig bei der gestiegenen single core leistung!

ich konnte den sprung von 3,5 ghz auf 4,5 ghz mit skylake ziemlich ordentlich spüren.
insbesondere beim booten, updates und chrome mit 50 tabs und adblockern mit riesigen listen öffnen.
Ich bin so keiner der immer 50 Tabs offen hat. :D Aber ich glaube die Festplatte bzw. SSD spielt unter Windows eine größere Rolle als die CPU. Auch der Internetzugang, gerade im Browser. Bei vielen Tabs natürlich auch der RAM. Aber die CPU? Ich kann locker 8 K Video auf YT abspielen und das juckt den Ryzen 1 garnet...

x-force
2019-09-28, 00:14:11
...
schön, dass du begriffen hast, was single core leistung ist.

Ich bin so keiner der immer 50 Tabs offen hat. :D Aber ich glaube die Festplatte bzw. SSD spielt unter Windows eine größere Rolle als die CPU. Auch der Internetzugang, gerade im Browser. Bei vielen Tabs natürlich auch der RAM. Aber die CPU? Ich kann locker 8 K Video auf YT abspielen und das juckt den Ryzen 1 garnet...

die m2 limitiert den browser bei mir nicht.
am deutlichsten hab ich das bei windows updates und der datenträgerbereinigung(update files löschen) gemerkt. das skaliert nicht wirklich und läuft nur auf 1-2 kernen.

Freestaler
2019-09-28, 00:30:25
X-force, wie merkst du unterschiedliche CPU Leistung bei Updates? Da sind die unterschied von Update zu Update sehr gross und dann noch mehrere Tage dazwischen. Ich kann mir bei leibe nicht vorstellen, dass du hier ein CPU Delta von nichtmal 30% wirklich bemerkst. Da sind die Unterschiede der jeweiligen Updates viel grösser.

Armaq
2019-09-28, 00:37:58
schön, dass du begriffen hast, was single core leistung ist.



die m2 limitiert den browser bei mir nicht.
am deutlichsten hab ich das bei windows updates und der datenträgerbereinigung(update files löschen) gemerkt. das skaliert nicht wirklich und läuft nur auf 1-2 kernen.
Und in welcher Disziplin war das wichtig? Bei 50 Tabs, die schon an sich threads sind? trolling trolling trolling ...

x-force
2019-09-28, 00:45:15
X-force, wie merkst du unterschiedliche CPU Leistung bei Updates? Da sind die unterschied von Update zu Update sehr gross und dann noch mehrere Tage dazwischen. Ich kann mir bei leibe nicht vorstellen, dass du hier ein CPU Delta von nichtmal 30% wirklich bemerkst. Da sind die Unterschiede der jeweiligen Updates viel grösser.

das image von dem ich installiere ist nur bis zum zeitpunkt x gepatcht.
die prozedur danch ist immer gleich.

Freestaler
2019-09-28, 01:12:04
Wieviele male installierst und Patches du deine Kiste da so in der Woche neu? Wenn das jetzt nicht xfach ist, wirds unglaublich. Dank Cumulativupdate sind doch auch so die deltas zu unterschiedlich. MMn. täuscht dich da deine Wahrnehmung.

Armaq
2019-09-28, 01:12:54
das image von dem ich installiere ist nur bis zum zeitpunkt x gepatcht.
die prozedur danch ist immer gleich.
Selten so einen Schwachsinn gelesen. Wem willst du das denn verklickern? Ein hirntotes Pferd hebt da noch die Augenbraue und wiehert laut.

x-force
2019-09-28, 01:28:52
Wieviele male installierst und Patches du deine Kiste da so in der Woche neu? Wenn das jetzt nicht xfach ist, wirds unglaublich. Dank Cumulativupdate sind doch auch so die deltas zu unterschiedlich. MMn. täuscht dich da deine Wahrnehmung.

ich kümmer mich um mehr als einen rechner ;)

aber wir können da auch von der anderen seite rangehen, wir sind uns doch über folgendes einig:
-die updates nutzen nicht alle cores
-30% ist deutlich im spürbaren bereich.

Legas-theniker
2019-09-28, 08:07:46
Die Verfügbarkeit des 3900 ist schon Länger gegeben.
Ich bin die Letzten Wochen sehr oft an einem vollem Regal vorbeigelaufen ;)
Gestern wars nur noch einer in seiner Hübschen Schachtel.
Wir bekommen Montag allerdings auch wieder Welche.

Das bei MF soviel Chaos bezüglich Verfügbarkeiten herrscht ist Normal.
Asus hatte davon vor kurzem auch mal die Schnauze voll ;)

Die haben gerade sehr große Probleme intern. Mit mir ist der letzte Ausgebildete IT Systemelektroniker dort gegangen. Nun gibts nur noch Zeitarbeiter oder YouTube Kids, welche nicht mal in der Lage sind auf der Hersteller Seite Informationen zu Finden.

Und nein einen Liefertermin zum 3950X kann ich nicht nennen :D

BlacKi
2019-09-28, 09:13:15
Das bei MF soviel Chaos bezüglich Verfügbarkeiten herrscht ist Normal.
Asus hatte davon vor kurzem auch mal die Schnauze voll ;)
kannst du das näher erläutern? ist die lieferbarkeit von MF nicht ähnlich zu anderen händlern? und wieso stinkt das asus?

Freestaler
2019-09-28, 09:34:10
ich kümmer mich um mehr als einen rechner ;)

aber wir können da auch von der anderen seite rangehen, wir sind uns doch über folgendes einig:
-die updates nutzen nicht alle cores
-30% ist deutlich im spürbaren bereich.

Nene, bleiben wir bei deiner Aussage das du den wechsel 3,5 gegen 4,5 bemerkst. So wie du das jetzt beschreibst, redest du jedoch vom Stagen in Firmen umgebung.
Und da vermute ich vergleichste du verschiede Rechnermodelle bzw. Generationen. Korrekt? Die wieder haben deutlich mehr deltas als nur das eine Ghz. Und dank cumulativen updates, wieder die Frage, was willst du hier genau bemerken? Entpackungspeed?

Ich pers. kann in Dinge wie Chrome oder Windowsupdate nicht merklich deltas feststellen von meinem 1700 (3,9@3466c16) zu 3800x (103@3708c16). Nicht in normalen use szenarien. In Games z.B. PUBG Bilde ich mir ein das es weniger Drops richtung 80fps gibt (144hzmoni). Ob dies nicht jedoch auch einfach im moment besser läuft seitens PUBG Server lässt aich jedoch nicht erruieren. Freude machts, und der gefühlte Speed ist da.

aufkrawall
2019-09-28, 09:36:22
Eh, natürlich merkt man diesen Taktunterschied ganz deutlich. Ist aber trotzdem völlig OT...

JVC
2019-09-28, 09:44:40
...Und nein einen Liefertermin zum 3950X kann ich nicht nennen :D
Respekt, über 3 Jahre dabei und erst jetzt der erste Post :eek:
Also willkommen :smile:

M.f.G. JVC

robbitop
2019-09-28, 10:44:07
Es ist tatsächlich so, dass viele Datentransfers/Operationen an der Singlecoreleistung hängen und nicht an der SSD. Wurde im SSD Thread vor ca 18 Monaten diskutiert und belegt. Dazu gehören Programmstarts, Spielestarts, OS Start und sicherlich auch Updates. Das ist leider etwas, was noch nicht auf MT optimiert wurde.

Ich merke den Unterschied blind, wenn ich von meinem Dell XPS13 (15W Whiskeylake 4c/8T mit nvme ssd) unterwegs bin im Vergleich zu mienem Desktop (4,6 ghz 4c/8t und sata ssd). Am Notebook ist das OS sogar frisch. Updates, Starts. Alles ist wirklich deutlich fixer am PC. Merke ich blind.