Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 2/Ryzen 3000 Review-Thread
gbm31
2019-07-22, 13:32:53
Das mit den Kühlern könnte durchaus tricky sein. Man hat ja mit Ryzen 3000 mehrere Hotspots, insbesondere mit den 12/16-Kernern sinds dann 3 (2*Die+I/O). Je nachdem wie der Kühler montiert wurde können die Heatpipes jetzt entweder je einen Hotspot treffen oder es läuft ganz dumm und 1 Heatpipe liegt direkt über 2 Dies. Bei "direct-touch"-Kühlern verschärft sich die Problematik dann nochmal...
Ob das merkbare Unterschiede macht?
Genau dazu ist doch ein Heat Spreader da - um diese Hotspots flächig zu verteilen.
Was anderes wäre es bei On-Die-Kühlung wie bei Grafikkarten.
Die Direct-touch-Heatpipekühler, die ich kenne, haben abgeflachte und verschliffene Heatpipes, die ohnehin kaum Lücken zueinander haben.
Ich werde heute Abend auch mal den Wasserkühlblock abnehmen und schauen wie sich die WLP verteilt hat - ich war diesmal faul und geizig und habe einfach ein Kreuz mit der Tube gezogen und dann montiert.
ich glaube ein problem ist auf jeden fall die kleine chipfläche.
75qmm pro chiplet ist 4x kleiner als ein Gpu chip. das müsste grosse auswirkung auf den wärmetransport haben.
Niall
2019-07-22, 13:52:35
ich glaube ein problem ist auf jeden fall die kleine chipfläche.
75qmm pro chiplet ist 4x kleiner als ein Gpu chip. das müsste grosse auswirkung auf den wärmetransport haben.
Halte ich für eine realistische Einschätzung - umso wichtiger dass der Kühler so plan wie eben möglich liegt. Große Dice verzeihen da natürlich mehr.
ich war diesmal faul und geizig und habe einfach ein Kreuz mit der Tube gezogen und dann montiert. da hättest du dir eine wakü. auch sparen können :redface:
ich werde mein 3600 erstmal boxed laufen lassen.
mal schauen was dabei raus kommt.
dildo4u
2019-07-22, 14:19:09
uIWO-821vik
https://youtu.be/uIWO-821vik
16Kerne würden bestimmt auch die 4-Spiele noch umkehren ...
M.f.G. JVC
Birdman
2019-07-22, 15:01:14
Das glaub ich nicht
Ich vermute allerdings, dass es mit einer Radeon GPU in weniger Fällen zu SMT bedingten Einbussen kommt, als es mit GeForce der Fall ist.
Thunderburne
2019-07-22, 15:10:22
16Kerne würden bestimmt auch die 4-Spiele noch umkehren ...
M.f.G. JVC
Das denke ich auch.
Schade das es auch wieder 1080P Tests sind!
y33H@
2019-07-22, 15:11:14
nope
dargo
2019-07-22, 15:52:02
Das glaub ich nicht
Ich vermute allerdings, dass es mit einer Radeon GPU in weniger Fällen zu SMT bedingten Einbussen kommt, als es mit GeForce der Fall ist.
Die Vermutung habe ich zwar auch, aber leider testet mal wieder keiner mit einer Radeon.
qiller
2019-07-22, 16:14:36
https://youtu.be/uIWO-821vik?t=561
Seine Vermutung find ich interessant und ich hatte hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12053702#post12053702) ja schon gefragt, ob SMT nicht vielleicht doch wichtiger ist, da ja sonst häufiger auf andere CCX oder gar Chiplets zurückgegriffen werden muss.
BlacKi
2019-07-22, 16:39:25
Das denke ich auch.
Schade das es auch wieder 1080P Tests sind!
ist mir auch aufgefallen, in 720p gäbe es sicher deutlichere unterschiede.
Die Vermutung habe ich zwar auch, aber leider testet mal wieder keiner mit einer Radeon.
zig leute hier haben einen ryzen (3000) mit ner radeon aber keiner benched selbst und schauen dafür lieber ins internet^^
https://youtu.be/uIWO-821vik?t=561
Seine Vermutung find ich interessant und ich hatte hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12053702#post12053702) ja schon gefragt, ob SMT nicht vielleicht doch wichtiger ist, da ja sonst häufiger auf andere CCX oder gar Chiplets zurückgegriffen werden muss.
warum haben die anderen non chiplet und non ccd cpus praktisch dieselben auswirkungen?
Armaq
2019-07-22, 16:44:18
Holla - wieviele Punkte wirft dann der CB(20) bei dir aus? Ich sehe da 4100-4125MHz Allcore
548 für Single und 75xx für Allcore waren so die besten Werte aus mehrere Durchgängen. Ich habe dabei nichts geändert und nur mehrmals getestet. Niedrige single core Werte waren 53x. Wenn ich das mit den Werten ein paar Seiten weiter vorne vergleiche, scheint das in Ordnung.
Schnoesel
2019-07-22, 17:20:05
Ja genau den Memory Cache Benchmark Aida bei 3800 MHz CL 16 wäre gut.
Ja ist verständlich das MSN kein bock hat zu testen wen noch Updates ausstehen.
Gruß
Also hier RAM auf 3800 Mhz @ IF 1900Mhz @ CL 16-16-16-36 2T @ 1.375V
Keine Änderungen an Timings oder Subtimings nur XMP Profil geladen, RAM-Takt erhöht, IF Takt erhöht:
https://i.postimg.cc/QC1jtpxT/4.png
Aida ist nicht up to date daher keine Werte beim L3 Cache.
Thunderburne
2019-07-22, 18:29:42
Also hier RAM auf 3800 Mhz @ IF 1900Mhz @ CL 16-16-16-36 2T @ 1.375V
Keine Änderungen an Timings oder Subtimings nur XMP Profil geladen, RAM-Takt erhöht, IF Takt erhöht:
https://i.postimg.cc/QC1jtpxT/4.png
Aida ist nicht up to date daher keine Werte beim L3 Cache.
Danke dir!
DoubleR
2019-07-22, 18:33:06
Gibt es hier wen der einen 3700x auf einem X570 von MSI betreibt?
Idealerweise auf einem MSI MPG X570 GAMING PRO CARBON WIFI. (Bios ist 7B93v11)
https://s18.directupload.net/images/190722/gqtqwgto.jpg (https://www.directupload.net)
Das sind die Werte bei CB 20 mit dem Ergebnis von 4407 Punkten.
Die Werte kommen mir recht hoch vor, zumal er sich im Test auf Allcore 3900Mhz eingependelt hat. PBO ist deaktiviert.
Was mich auch wundert das er immer an der 90W Grenze bleibt.
Gruß
DoubleR
dildo4u
2019-07-22, 18:43:25
Scheint normal 65 TDP lässt 88 Watt zu.
Graphing the three processors together, we see two main aspects: Again the 3900X and 3700X both consuming notably less power than the 2700X, and the 3700X’s hard limit when reaching the 88W PPT limit while the 3900X is able to scale further up till it hits the 142W limit.
https://live.staticflickr.com/65535/48348597432_7c55b679e3_b.jpg (https://flic.kr/p/2gEpczs)111362 (https://flic.kr/p/2gEpczs) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr
https://www.anandtech.com/show/14605/the-and-ryzen-3700x-3900x-review-raising-the-bar/19
gbm31
2019-07-22, 18:44:21
548 für Single und 75xx für Allcore waren so die besten Werte aus mehrere Durchgängen. Ich habe dabei nichts geändert und nur mehrmals getestet. Niedrige single core Werte waren 53x. Wenn ich das mit den Werten ein paar Seiten weiter vorne vergleiche, scheint das in Ordnung.
Krass - scheinst einen guten erwischt zu haben! Oder mein Mainboard macht dicht - wobei mich dann die 250W wundern...
Das sind die Werte bei CB 20 mit dem Ergebnis von 4407 Punkten.
Die Werte kommen mir recht hoch vor, zumal er sich im Test auf Allcore 3900Mhz eingependelt hat. PBO ist deaktiviert.
Was mich auch wundert das er immer an der 90W Grenze bleibt.
Gruß
DoubleR
Da ist noch Luft nach oben, mein 3700X auf einem poppeligen B350 macht ~4800 beim CB20 bei ~90W. Welcher Lüfter, welches RAM?
DoubleR
2019-07-22, 18:55:13
Lüfter ist ein Scythe Mugen 5 Rev.B mit 2 Kaze Flex 120 PWM Lüfter (2x der Standard Lüfter) Quasi eine höher Drehende Version der PCGH-Edition.
RAM ist ein G.Skill DIMM 32 GB DDR4-3600 Kit (silber/rot, F4-3600C17D-32GTZ, Trident Z) / Timings: CL17 19-19-39
Armaq
2019-07-22, 19:02:30
Krass - scheinst einen guten erwischt zu haben! Oder mein Mainboard macht dicht - wobei mich dann die 250W wundern...
Ich glaube mehr Watt ist kein Problem, aber das wird nicht mehr Leistung. Bisher ist das alles noch buggy. Bin froh, dass der Chip direkt die Taktrate ab Werk macht und DDR 3600 cl16 sofort läuft bei 4 Riegeln
Kühler noch ein zusatz:
Hab kryonaut sehr sorgfältig aufgetragen und nicht gegeizt.
nairune
2019-07-22, 19:10:00
Lüfter ist ein Scythe Mugen 5 Rev.B mit 2 Kaze Flex 120 PWM Lüfter (2x der Standard Lüfter) Quasi eine höher Drehende Version der PCGH-Edition.
RAM ist ein G.Skill DIMM 32 GB DDR4-3600 Kit (silber/rot, F4-3600C17D-32GTZ, Trident Z) / Timings: CL17 19-19-39
Mein System ist recht ähnlich: X370 Crosshair VI, 3700X (komplett stock), Mugen 5 PCGH, Ballistics laufen auf 3533/CL14.
Ergibt etwa 4950 CB20 Punkte, wobei die CPU bei etwa 4,2GHz läuft.
Deine taktet nicht richtig hoch schätze ich, Chipsatztreiber ist drauf? Irgendwas an Spannung oder Energiesparplan rumgespielt?
mein 2500 mit gtx 1080 verbraucht 160W
bei assetto competizione.:smile:
ohne vsync sind es 250W.
DoubleR
2019-07-22, 19:32:24
Hab den Chipsatztreiber von der MSI Seite drauf gemacht, also der Aktuelle.
Spannungen hab ich im UEFI alle auf Auto gelassen, was quasi Stock ist.
Energiesparplan ändern bringt nix. Auf Höchstleistung kommt der jetzt auf 4475 Punkte.
nairune
2019-07-22, 19:37:20
Chipsatztreiber von AMD, nichts vom Mainboardhersteller.
Solange pbo deaktiviert ist, ist es völlig normal.
DoubleR
2019-07-22, 19:58:49
Hab den Chipsatzreiber jetzt direkt von der AMD Homepage genommen (Ist übrigens die gleiche Version wie beim Mainboardhersteller) Und es hat sich nicht wirklich was geändert. 4560 Punkte...
CPU Package Power (SMU)
Das ist doch das Gesamte von den Kernen, richtig?
Wie kann ich dann auf meinem Screenshot max. 90.322W haben aber jeder Kern im max. rund 8.5xx W?
8,5 x 8 Kerne = 68W.
Oder nimmt sich der I/O Chip soviel?
Man möge mich bitte erleuchten.
Vielen Dank.
Screemer
2019-07-22, 20:20:17
@schnoesel: du solltest if und ramtakt nicht asynchron betreiben. Da verliert man Leistung Das kommt von 1mus, dem coder des dran calculators.
Linmoum
2019-07-22, 20:31:08
Die 3800 sind ja nur der effektive (Double Data Rate) Takt. Tatsächlich ist's ja immer dementsprechend die Hälfte, also 1900 wie auch bei ihm die IF. ;)
Screemer
2019-07-22, 20:35:39
Hatte gedacht, dass er 3800 RAM und 1800 If fährt. Hatte ich irgendwie falsch "gelesen". My bad.
DoubleR
2019-07-22, 20:37:28
Ok das ganze x570 Zeugs scheint echt noch sehr kaputt...
Gerade wieder das Original Bios (7B93v10) drauf gemacht.
https://s18.directupload.net/images/190722/s9j25cxk.jpg (https://www.directupload.net)
CB 20 Punkte sind 4766 wobei er scheinbar PBO anschaltet (siehe Temps) obwohl es im UEFI auf deaktiviert steht.
Ich berichte, falls sich was ändert...
nairune
2019-07-22, 21:34:48
Das ist kein PBO. Bzw. schau im Ryzen Master nach, da siehst du was eingestellt ist.
https://i.imgur.com/Om1wop5.jpg
ChaosTM
2019-07-22, 23:42:28
Wurde möglicherweise schon gepostet.
Ryzen 3000 RAM Scaling
https://lab501.ro/procesoare-chipseturi/amd-ryzen-3000-part-iv-ddr4-scaling-english-version
Wenn das so stimmt, dann ist es ziemlich wurscht welche Speicher man nimmt, solange sie > 2800mhz und mit halbwegs guten Timings laufen.
Als "Sieger" gilt der 3730er.
Nur synthetische Benchmarks wie Aida zeigen logischerweise größere Abweichungen.
BK-Morpheus
2019-07-23, 00:56:34
@Nairune:
Dein Mainboard scheint die Vorgaben der CPU aber nicht ganz einzuhalten bzw. passen die Werte aus Ryzenmaster für das PPT und TDC nicht.
HWInfo zeigt ebenfalls bei der CPU Package Power (SMU) deutlich zu wenig an und die CPU rennt streng genommen minimal über Stock / PBO aus.
Meine hält in dem Bench auf 89-90W und boostet dafür nicht mit 1,325V auf 4125Mhz, sondern nur auf 1,297V mit 3992-4017MHz.
Entsprechend komme ich dann auch nur auf knapp 4800Punkte, wobei mein langsamer 3000MHz RAM dazu natürlich auch beiträgt.
https://abload.de/thumb/cinetestrzj6u.jpg (https://abload.de/image.php?img=cinetestrzj6u.jpg)
SKYNET
2019-07-23, 01:00:52
@Nairune:
Dein Mainboard scheint die Vorgaben der CPU aber nicht ganz einzuhalten bzw. passen die Werte aus Ryzenmaster für das PPT und TDC nicht.
HWInfo zeigt ebenfalls bei der CPU Package Power (SMU) deutlich zu wenig an.
Meine geht in dem Bench auf 89-90W und boostet dafür nicht mit 1,325V auf 4125Mhz, sondern nur auf 1,297V mit 3992-4017MHz.
Entsprechend komme ich dann auch nur auf knapp 4800Punkte, wobei mein langsamer 3000MHz RAM dazu natürlich auch beiträgt.
speicher hat nahezu keinen einfluss bei CB.
BK-Morpheus
2019-07-23, 01:14:24
speicher hat nahezu keinen einfluss bei CB.
Beim R20 weiß ich es nicht, aber beim R15 konnte ich zwischen DOCP und manuell optimierten Timings durchaus mehr als 30 Punkte rausholen.
Kann ja auch sein, dass bei hohem Ram Takt die ebenfalls höher taktenden IF sich im CB20 deutlich macht, aber laut dem Link von ChaosTM scheint das (auch wenn CB nicht dabei ist) wohl nicht wirklich was zu bringen.
kikakeule
2019-07-23, 03:45:31
Von mir auch ein paar Zahlen ;)
Sind glaube ich die ersten Ergebnisse auf einem MSI B450M Mortar
4816 / 507 Punkte im CB20 (multi / single, best of three)
3700X auf MSI B450M Mortar mit AGESA 1.0.0.3ab und Micron-E auf 3600Mhz mit 14-18-14-32-58-530T (aber schlechte gemessene Latenzen, siehe Post im Subtimings-Thread (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12056100&postcount=136))
Multi bei 1,276V und 3925-4000 Mhz allcore, single bei 1,456V und 4375Mhz wobei der Core recht erratisch auf dem ersten CCX springt... 4400Mhz habe ich bisher noch nicht gesehen...:confused:
Zu den anderen diskutierten Themen:
- CPU taktet problemlos herunter, Spannungen zwischen etwa 0,3V und 1,5V habe ich schon beobachtet
- Keine Fehler in Windows trotz Nvidia Grafikkarte
- Temperaturen im Idle ca 45°C mit NH-D15 im notorisch schlecht belüfteten Fractal Design Define Mini (ohne C)
- Temperaturen beim Cinebench max 64°C, im AIDA Stresstest im Schnitt 73°C
maximus_hertus
2019-07-23, 08:05:05
Wurde möglicherweise schon gepostet.
Ryzen 3000 RAM Scaling
https://lab501.ro/procesoare-chipseturi/amd-ryzen-3000-part-iv-ddr4-scaling-english-version
Wenn das so stimmt, dann ist es ziemlich wurscht welche Speicher man nimmt, solange sie > 2800mhz und mit halbwegs guten Timings laufen.
Als "Sieger" gilt der 3730er.
Nur synthetische Benchmarks wie Aida zeigen logischerweise größere Abweichungen.
Danke für den Link. Echt interessant. In 1920X1080 gibt es häufiger einen anderen Sieger als z.B. In 4K. Gerade in 4K scheinen die Timings wichtiger zu sein als die reinen MHz.
nairune
2019-07-23, 08:23:26
@Nairune:
Dein Mainboard scheint die Vorgaben der CPU aber nicht ganz einzuhalten bzw. passen die Werte aus Ryzenmaster für das PPT und TDC nicht.
Stimmt, ich weiß gar nicht mehr, wann er damit angefangen hat - das wurde schon mal richtig ausgelesen.
Asus halt, immer 3% mehr rauslutschen :D
Bei weniger als Volllast / single core macht das aber keinen Unterschied, daher erstmal nicht so wichtig.
Es ging mir eher darum, dass bei DoubleR kein PBO läuft.
Bambuslooter
2019-07-23, 08:33:28
Wäre wirklich cool, wenn die Ryzen 3000 Besitzer paar schnelle Benches in 720p mit SMT off/on testen und kurz berichten.
Wird sicher gefühlte 50% der Spiele drauf ansprechen wie das in den Videos so rüberkommt.
Skinny12
2019-07-23, 09:53:30
In der Firma habe ich ja jetzt einen X3700 und es ist wirklich spannend zu sehen, wie anders sich eine CPU verhält, wenn sie A plan ist und B auf einem X470 (MSI) läuft.
Im Idle ohne irgendwas zu machen 37-45° C ohne Schwankungen und unter harter Last 60-68°C bei knapp 4400 Mhz. Meine beiden Rechner haben den Noctua drauf. Hatte ihn sogar mal untereinander ausgetauscht, weil ich dachte, einer gut der andere nicht...war aber kein Unterschied.
LG
Nils
vielleicht ist die cpu defekt.
reklamieren :D
eratte
2019-07-23, 10:32:35
AMD Ryzen 9 3900X, SMT on vs SMT off, vs Intel 9900K (TechPowerUp) (https://www.techpowerup.com/review/amd-ryzen-9-3900x-smt-off-vs-intel-9900k/)
Für die SMT OFF Freaks
Skinny12
2019-07-23, 10:36:34
vielleicht ist die cpu defekt.
reklamieren :D
LOL :)
BK-Morpheus
2019-07-23, 10:46:34
Habe zwar nicht SMT getestet, aber in Kerbal Space Program etwas lustiges beobachtet.
Das Spiel hängt recht stark an einem Thread, nutzt aber in Summe ca. 3 Threads.
Wenn ich ihm erlaube alle Kerne zu nutzen (also default), bricht auf der Startbahn mit meinem Flugzeug die Framerate auf ca. 46fps ein. Weise ich dem Spiel nur echte Kerne zu, bringt das auch nichts oder max. 3fps mehr. Weise ich nur 2 echte Kerne vom gleichen CCX zu, gibt's schonmal 57fps und bei Zuweisung von 3 echten Kernen im gleichen CCX dann ca. 66fps. Kommt noch der vierte Kern vom gleichen CCX dazu, wird es nicht besser.
Wird zusätzlich noch ein 5tern Kern (also einer aus dem anderen CCX) dazugenommen, sinken die FPS wieder.
Auch bei Diablo 3 bringt eine Limitierung auf nur 4 Kerne (dafür aber im gleichen CCX und ohne SMT Kerne) mitunter 20-30fps mehr, als die default-Zuweisung aller Kerne.
Hinzu kommt, dass der Boost-Takt steigt, wenn ich weniger Kerne zuweise...auch das hat also etwas Einfluss. Wenn ich explizit den von Ryzen Master als "besten" Kern markierten Core zuweise und keine Last auf den anderen Kernen anliegt, sehe ich auch die auf der CPU Packung beworbenen 4,4GHz. Aktiviere ich dann noch PBO mit advanced und stelle ein, dass der Scalar Faktor 5x oder höher ist und der Boost mit 200Mhz überschrieben werden soll, sind sogar 4425MHz zu sehen (TDP ist weiterhin auf 88W).
Genau deswegen ist Intel so oft vorne mit dem Ringbus :D. Für Spiele wär so ein 6-Kerne-CCX schon ne echt super Sache.
w0mbat
2019-07-23, 10:55:43
Da kann auf jeden Fall noch einiges besser laufen für Ryzen. Ich frage mich wieviel davon einfach daran liegt, dass Intel seit Sandy Bridge quasi 10 Jahre vorne lag und seit dem alles auf diesen Aufbau optimiert wird.
Schnoesel
2019-07-23, 10:56:53
Ich habe die vergangene Tage einfach mal HWinfo mitloggen lassen, wenn ich gezockt habe und da sind doch tatsächlich ein paar Kerne über 4,55Ghz geboostet. Allerdings frage ich mich was das für used case sein sollen, wo wirklich nur ein Kern Last hat. Normalerweise hat man ja doch einige Hintergrundprogramme laufen, die einen hohen Singlecore Boost verhindern. Das war aber auch bei meinem 1800X und den theoretischen 4.1GHZ mit XFR schon so. Das hat man praktisch nie gesehen. Ist für mich reines Marketing und theoretischer Natur.
Der Boost wird erst dann ideal laufen, wenn die Temperatur ideal ist - also wenn die CPU meint, sie hätte Luft nach oben, das befürchte ich jedenfalls nach meinen bisherigen Erfahrungen. Das Hauptproblem scheint aber echt die Wärmeabnahme zu sein. Da kann man noch so gute Kühler haben, oder gar WaKü, wenn die Wärmeabgabe nicht ideal funktioniert, hat man leider pech gehalbt und er läuft wie mit nem Referenzkühler.
Matrix316
2019-07-23, 11:11:22
Habe zwar nicht SMT getestet, aber in Kerbal Space Program etwas lustiges beobachtet.
Das Spiel hängt recht stark an einem Thread, nutzt aber in Summe ca. 3 Threads.
Wenn ich ihm erlaube alle Kerne zu nutzen (also default), bricht auf der Startbahn mit meinem Flugzeug die Framerate auf ca. 46fps ein. Weise ich dem Spiel nur echte Kerne zu, bringt das auch nichts oder max. 3fps mehr. Weise ich nur 2 echte Kerne vom gleichen CCX zu, gibt's schonmal 57fps und bei Zuweisung von 3 echten Kernen im gleichen CCX dann ca. 66fps. Kommt noch der vierte Kern vom gleichen CCX dazu, wird es nicht besser.
Wird zusätzlich noch ein 5tern Kern (also einer aus dem anderen CCX) dazugenommen, sinken die FPS wieder.
Auch bei Diablo 3 bringt eine Limitierung auf nur 4 Kerne (dafür aber im gleichen CCX und ohne SMT Kerne) mitunter 20-30fps mehr, als die default-Zuweisung aller Kerne.
Hinzu kommt, dass der Boost-Takt steigt, wenn ich weniger Kerne zuweise...auch das hat also etwas Einfluss. Wenn ich explizit den von Ryzen Master als "besten" Kern markierten Core zuweise und keine Last auf den anderen Kernen anliegt, sehe ich auch die auf der CPU Packung beworbenen 4,4GHz. Aktiviere ich dann noch PBO mit advanced und stelle ein, dass der Scalar Faktor 5x oder höher ist und der Boost mit 200Mhz überschrieben werden soll, sind sogar 4425MHz zu sehen (TDP ist weiterhin auf 88W).
Hat das Problem vielleicht auch hier mit zu tun?
M2LOMTpCtLA
gbm31
2019-07-23, 12:16:50
Ich habe die vergangene Tage einfach mal HWinfo mitloggen lassen, wenn ich gezockt habe und da sind doch tatsächlich ein paar Kerne über 4,55Ghz geboostet. Allerdings frage ich mich was das für used case sein sollen, wo wirklich nur ein Kern Last hat. Normalerweise hat man ja doch einige Hintergrundprogramme laufen, die einen hohen Singlecore Boost verhindern. Das war aber auch bei meinem 1800X und den theoretischen 4.1GHZ mit XFR schon so. Das hat man praktisch nie gesehen. Ist für mich reines Marketing und theoretischer Natur.
Geht schon - wird wohl halt auch selten geloggt da die CPU extem schnell schaltet, und bei mir kocht grad das Wasser im DG...
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=67236&stc=1&d=1563876978
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=67237&stc=1&d=1563876978
Schnoesel
2019-07-23, 12:20:20
Ist halt die Frage was der tatsächliche Nutzen ist wenn ein Kern für ne Millisekunde (wenn überhaupt) auf den Takt kommt. Aber ja ich denke die meisten sehen den Boost nicht weil die Abfrageintervalle zu lang sind. Ich muss das heut Abend mal das schärfer stellen, da bin ich dann auch sicher, dass ich öfter Kerne boosten sehe.
qiller
2019-07-23, 12:32:52
Habe zwar nicht SMT getestet, aber in Kerbal Space Program etwas lustiges beobachtet.
Das Spiel hängt recht stark an einem Thread, nutzt aber in Summe ca. 3 Threads.
Wenn ich ihm erlaube alle Kerne zu nutzen (also default), bricht auf der Startbahn mit meinem Flugzeug die Framerate auf ca. 46fps ein. Weise ich dem Spiel nur echte Kerne zu, bringt das auch nichts oder max. 3fps mehr. Weise ich nur 2 echte Kerne vom gleichen CCX zu, gibt's schonmal 57fps und bei Zuweisung von 3 echten Kernen im gleichen CCX dann ca. 66fps. Kommt noch der vierte Kern vom gleichen CCX dazu, wird es nicht besser.
Wird zusätzlich noch ein 5tern Kern (also einer aus dem anderen CCX) dazugenommen, sinken die FPS wieder.
Auch bei Diablo 3 bringt eine Limitierung auf nur 4 Kerne (dafür aber im gleichen CCX und ohne SMT Kerne) mitunter 20-30fps mehr, als die default-Zuweisung aller Kerne.
Hinzu kommt, dass der Boost-Takt steigt, wenn ich weniger Kerne zuweise...auch das hat also etwas Einfluss. Wenn ich explizit den von Ryzen Master als "besten" Kern markierten Core zuweise und keine Last auf den anderen Kernen anliegt, sehe ich auch die auf der CPU Packung beworbenen 4,4GHz. Aktiviere ich dann noch PBO mit advanced und stelle ein, dass der Scalar Faktor 5x oder höher ist und der Boost mit 200Mhz überschrieben werden soll, sind sogar 4425MHz zu sehen (TDP ist weiterhin auf 88W).
Daran sieht man auch, dass es wohl doch keine Priorisierung im Windows Scheduler gibt und auch die Spiele selber keine Ahnung vom CCX-/Chiplet-System der AMD-Ryzen CPUs haben.
Ich werd wohl meine alte Batch-Datei wieder ausbuddeln, die die "problematischen" Spiele dann mit entsprechend gepinnten Kerne startet :>.
Edit: Bei den meisten moderneren Spielen wird es da keine/kaum Auswirkungen geben und selbst wenn, muss man auch die min-FPS im Auge behalten (die durch weniger nutzbare Threads/Kerne auch nach unten gehen kann, obwohl der Avg steigt). Aber gerade bei so Spielen wie D3, kann ich mir das gut vorstellen, das Corepinning bei Ryzen was bringt.
BK-Morpheus
2019-07-23, 12:33:56
Der Boost wird erst dann ideal laufen, wenn die Temperatur ideal ist - also wenn die CPU meint, sie hätte Luft nach oben, das befürchte ich jedenfalls nach meinen bisherigen Erfahrungen. Das Hauptproblem scheint aber echt die Wärmeabnahme zu sein. Da kann man noch so gute Kühler haben, oder gar WaKü, wenn die Wärmeabgabe nicht ideal funktioniert, hat man leider pech gehalbt und er läuft wie mit nem Referenzkühler.
Die Temperatur hat (solange nicht im Bereich von >80°C) fast keinen Einfluß, siehe der8auer Video
https://youtu.be/upItmJkHsy0
Auch bei max 30°C Temp, erreicht er den Boost nicht.
Der von Ryzen Master als "bester core" markierte Kern schafft bei mir noch am ehesten mal 4,4Ghz ab und an, aber halt nicht, wenn Windows meint ständig auch die Idle Kerne auf >4Ghz takten zu müssen, nur weil eine Hintergrundanwendung 0,8% Thread Last erzeugt oder ein paar andere Threads tatsächlich eine nennenswerte Teillast haben.
Daran sieht man auch, dass es wohl doch keine Priorisierung im Windows Scheduler gibt und auch die Spiele selber keine Ahnung vom CCX-/Chiplet-System der AMD-Ryzen CPUs haben.
Ich werd wohl meine alte Batch-Datei wieder ausbuddeln, die die "problematischen" Spiele dann mit entsprechend gepinnten Kerne startet :>.
Jap, da kann sich Process-Lasso oder ne Batch durchaus lohnen. Optimal wäre natürlich, wenn Windows die Last schlauer auf die Kerne verteilen würde...wenn möglich also erst mal im gleichen CCX bleiben.
Bambuslooter
2019-07-23, 12:45:25
Wenn ich ihm erlaube alle Kerne zu nutzen (also default), bricht auf der Startbahn mit meinem Flugzeug die Framerate auf ca. 46fps ein. Weise ich dem Spiel nur echte Kerne zu, bringt das auch nichts oder max. 3fps mehr. Weise ich nur 2 echte Kerne vom gleichen CCX zu, gibt's schonmal 57fps und bei Zuweisung von 3 echten Kernen im gleichen CCX dann ca. 66fps.
Auch bei Diablo 3 bringt eine Limitierung auf nur 4 Kerne (dafür aber im gleichen CCX und ohne SMT Kerne) mitunter 20-30fps mehr, als die default-Zuweisung aller Kerne.
Sollte sowas nicht durch das Microsoft Mai Update behoben sein?
Die Zuwächse sind ja nicht ohne.
Bei Assetto Corsa Competizione müsste so ein Effekt auch sichtbar werden @gbm31
qiller
2019-07-23, 12:50:37
... aber halt nicht, wenn Windows meint ständig auch die Idle Kerne auf >4Ghz takten zu müssen, nur weil eine Hintergrundanwendung 0,8% Thread Last erzeugt oder ein paar andere Threads tatsächlich eine nennenswerte Teillast haben.
...
Kann es sein, dass Ryzen 3000 das anders als z.B. Intel händelt und bei der kleinsten Last direkt versucht maximal zu boosten um dann direkt wieder in den None-Powered Mode zu gehen, wenn er paar µs nix zu tun bekommt? Bei meinem i7-4770k (min=0.8GHz, max 4.3GHz) sieht das nämlich anders aus. Da hab ich durch Speedstep auch mal so Zwischenfrequenzen von 2.8GHz oder 1.5GHz bei Teil- oder Hintergrundlast. AMDs Technik dürfte wohl stark die "Schwupdiness" erhöhen.
BK-Morpheus
2019-07-23, 13:00:44
Ja, die optimierten Schaltzeiten werden da bestimmt reinspielen und die agressiveren Thresholds von Windows 1903 für das Boosten.
Die Topology Awareness scheint aber nicht so optimal zu arbeiten. Kann sein, dass die Last jetzt weniger durch die veschiedenen Cores geschubst wird, aber manuelles Zuordnen von Kernen im gleichen CCX bringt in einigen Games scheinbar wesentlich mehr. Vielleicht kann MS und AMD da ja nochmal zusammen nacharbeiten.
aufkrawall
2019-07-23, 13:10:26
Da kann auf jeden Fall noch einiges besser laufen für Ryzen. Ich frage mich wieviel davon einfach daran liegt, dass Intel seit Sandy Bridge quasi 10 Jahre vorne lag und seit dem alles auf diesen Aufbau optimiert wird.
Für Ringbus muss abseits von HTT die Thread-Verteilung nicht angefasst werden, und bei Mesh sind die Unterschiede zwischen den Cores offenbar auch geringer ausgeprägt (aber halt allgemein höher als bei Ringbus, siehe kackige FC5 Performance von SKL-X) als bei dem CCX-Ansatz.
Das OS kann da auch nicht alles "fixen". Spätestens wenn ein Spiel Last auf allen Kernen erzeugt, muss der Entwickler des Spiels selbst sicherstellen, dass die latenzkritischsten Berechnungen innerhalb des gleichen CCX stattfinden. Dass das nicht immer klappt, sieht man offenbar bei SotTR (sofern es nicht doch der NV-Treiber ist).
Savay
2019-07-23, 13:41:52
Jap, da kann sich Process-Lasso oder ne Batch durchaus lohnen. Optimal wäre natürlich, wenn Windows die Last schlauer auf die Kerne verteilen würde...wenn möglich also erst mal im gleichen CCX bleiben.
Also 1903 bringt diesbezüglich schon was.
Die Threads bleiben während einer Session offensichtlich durchaus im CCX und das OS macht erst scheinbar nur physische Kerne voll bevor es dann die zugehörigen logischen auch dicht macht!
Die 2-4 Threads die mein NAS Sync Tool regelmäßig frisst, bleiben während einer Session bspw. soweit ich das bisher beobachtet habe eigentlich immer auf dem gleichen CCX, meist sogar auf den gleichen Kernen, allerdings wechseln die dort durchaus gerne mal zwischen den 8 logischen hin und her...je nachdem was zwischen zeitig so lief oder ob die Kiste mal im Standby war oder so.
Ist wohl nur ggf. nicht genug Priorisierung...ggf. müsste man die Threads dafür einzeln genauer differenzieren zwischen Hoch- und Niedriglast?! Und dann ist sicher die Frage ob das OS das ohne weiteres beurteilen kann...da sind sicher auch die Anwendungen selbst gefragt?!
BlacKi
2019-07-23, 13:53:20
meint ihr die ganze zeit CCD oder wirklich CCX?
Matrix316
2019-07-23, 13:54:33
Also mir ist nur aufgefallen während Cinebench Singlecore, dass die Taktfrequenz dauernd hoch und runter geht. Und das ist irgendwie komisch. Dann hab ich gesehen, dass da immer zwischen den Threads hin und hergesprungen wird.
BK-Morpheus
2019-07-23, 14:06:02
meint ihr die ganze zeit CCD oder wirklich CCX?
Ich meine Thread (0, 2, 4, 6) und (8, 10, 12, 14).
Müsste beim 3700x also CCX sein.
SKYNET
2019-07-23, 14:27:40
wieder nen mail... "auf unbestimmte zeit verschoben"... ich brech zusammen, das ist so ätzend, könnte kotzen, habe denen geantwortet, falls ich bis morgen kein genaues lieferdatum bekomme bzw. keine abholungseinladung, storniere ich... bestelle ich halt bei MF und lasse mir den zu meiner adresse in konstanz schicken. :mad:
aufkrawall
2019-07-23, 14:33:04
allerdings wechseln die dort durchaus gerne mal zwischen den 8 logischen hin und her
Ist nicht jeder HTT/SMT-Thread fest einem physischen Kern zugeordnet?
Savay
2019-07-23, 14:38:04
Ist nicht jeder HTT/SMT-Thread fest einem physischen Kern zugeordnet?
Ich dachte die kommen aus OS Sicht eh in gleichberechtigten Paaren daher...den Rest macht doch die CPU!?
Ist nur der eine dicht...sollte nur der andere erst dann belegt werden wenn sonst kein "Platz" mehr ist.
Also bei 2 Threads erst entweder zunächst bspw. 0&2 oder 1&3...aber nicht direkt 0&1 oder 2&3 und wenn die anderen beiden Kerne noch ganz frei sind dann bei weiteren Threads erst die...und das hat 1903 durchaus weitgehend gefixt wenn ich mir die Ausschläge durch meine Hintergrundanwendungen so ansehe.
Das OS lässt einen Task scheinber zunächst recht sicher im selben CCX und macht dann erst entweder die Threads 0,2,4,6 oder 1,3,5,7 zu...und dann erst die jeweils andere "Hälfte".
Gemeint war damit auch nur, das die Threads im selben CCX durchaus mal ihre Kerne bzw. den Thread wechseln können, vor allem wenn der Task zwischenzeitig im idle war und während dessen was anderes mit hoher Last/Prio lief...es scheint aber keine feste Regel zu geben erst die graden oder die ungraden Threads nutzen zu müssen oder eine fixe Reihenfolge.
Dem CCX sind sie über eine komplette Session dagegen scheinbar schon doch recht starr zugeordnet.
Ist zumindest meine eher beiläufige Beobachtung und Eindruck seit ich 1903 drauf habe aber ich habe es nicht wirklich systematisch untersucht. :uponder:
Man könnte ja mal beim 7Zip Benchmark an der Threadzahl drehen und dann schauen wie Windoof die Threads befüllt.
Benutzername
2019-07-23, 14:42:39
AMD Ryzen 9 3900X, SMT on vs SMT off, vs Intel 9900K (TechPowerUp) (https://www.techpowerup.com/review/amd-ryzen-9-3900x-smt-off-vs-intel-9900k/)
Für die SMT OFF Freaks
Also wenn Ich den Artikel richtig verstehe, dann kostet SMT 2% Leistung an overhead zur Verwaltung und wegen des Wärmebudgets, wenn das Programm nicht mit extrem vielen Kernen rechnen kann.Wenn aber Programme alle Kerne (virtuelle wie echte) nutzen können wie zB cinebench, dann verliert man natürlich reichlich Leistung, weil die Hälfte der Kerne fehlt. Etwas weniger als 50%, wegen des overhead. Habe Ich das so richtig verstanden?
Schnoesel
2019-07-23, 16:08:23
wieder nen mail... "auf unbestimmte zeit verschoben"... ich brech zusammen, das ist so ätzend, könnte kotzen, habe denen geantwortet, falls ich bis morgen kein genaues lieferdatum bekomme bzw. keine abholungseinladung, storniere ich... bestelle ich halt bei MF und lasse mir den zu meiner adresse in konstanz schicken. :mad:
Zumindest bei MF sollte in Kürze wieder was lieferbar sein:
https://www.computerbase.de/forum/threads/amd-ryzen-3000-im-test-das-ist-die-kroenung.1880423/page-391#post-22915614
SKYNET
2019-07-23, 16:17:46
Zumindest bei MF sollte in Kürze wieder was lieferbar sein:
https://www.computerbase.de/forum/threads/amd-ryzen-3000-im-test-das-ist-die-kroenung.1880423/page-391#post-22915614
jupp, 26.7. schreibe denen noch mal nen mail, ob noch welche "frei" sind, oder die neue charge schon komplett verkauft...
Morpog
2019-07-23, 17:27:35
Hab die Tage schon mehrmals überlegt den 3900x zu stornieren und auf den 3700X zu gehen.
Zum einen weil mich die Warterei nervt :freak:
Zum anderen wäre mehr budget und Anreiz vorhanden nächstes Jahr auf den 7nm+ 4950X - 16 Kern Nachfolger umzusteigen :freak:
Armaq
2019-07-23, 19:49:24
Hab die Tage schon mehrmals überlegt den 3900x zu stornieren und auf den 3700X zu gehen.
Zum einen weil mich die Warterei nervt :freak:
Zum anderen wäre mehr budget und Anreiz vorhanden nächstes Jahr auf den 7nm+ 4950X - 16 Kern Nachfolger umzusteigen :freak:
Wie wird aus 1x500 denn 300 plus 700?
Niall
2019-07-23, 19:52:33
jupp, 26.7. schreibe denen noch mal nen mail, ob noch welche "frei" sind, oder die neue charge schon komplett verkauft...
Für mich klingt das so, als seien ab dem 26. erstmal wieder genug "auf Halde". Wenn alle Vorbesteller beliefert werden und diese Menge dann nochmal verfügbar ist, hört sich das nach "genug für alle" an. Vermutlich hat AMD die erste Welle des Ansturms geschafft. :D
Morpog
2019-07-23, 20:39:53
Wie wird aus 1x500 denn 300 plus 700?
Ist ja ein Jahr dazwischen Zeit 😉
TheAntitheist
2019-07-23, 21:13:59
wieder nen mail... "auf unbestimmte zeit verschoben"... ich brech zusammen, das ist so ätzend, könnte kotzen, habe denen geantwortet, falls ich bis morgen kein genaues lieferdatum bekomme bzw. keine abholungseinladung, storniere ich... bestelle ich halt bei MF und lasse mir den zu meiner adresse in konstanz schicken. :mad:
die Oberspinner bei MF verschieben einfach und sagen dir kein Wörtchen, entschuldigen sich nicht dafür und kommen einem auch Null entgegen für ihre Fehler.
SKYNET
2019-07-23, 23:04:46
die Oberspinner bei MF verschieben einfach und sagen dir kein Wörtchen, entschuldigen sich nicht dafür und kommen einem auch Null entgegen für ihre Fehler.
öhm, MF verschiebt nix, aber digitec hier in der schweiz :mad:
Swissr
2019-07-23, 23:34:56
öhm, MF verschiebt nix, aber digitec hier in der schweiz :mad:
Seltsam, bei mir steht weiterhin Mitte August. Habe aber nun noch zusätzlich bei alternate.ch bestellt, da diese AMD Hauslieferant sind gehe ich davon aus, dass sie schneller als Digitec liefern können, die Bestellung dort wird dann storniert, sobald ich Näheres weiss
SKYNET
2019-07-23, 23:48:10
Seltsam, bei mir steht weiterhin Mitte August. Habe aber nun noch zusätzlich bei alternate.ch bestellt, da diese AMD Hauslieferant sind gehe ich davon aus, dass sie schneller als Digitec liefern können, die Bestellung dort wird dann storniert, sobald ich Näheres weiss
10 tage sagen sie bei alternate... eine schande das MF nicht mehr ins ausland liefert... muss man alles über ne paketstation in konstanz machen :frown:
aber in 10 tagen ist schon der 2.8... dann sinds auch nur noch 40 tage bis zum 3950X
Tatwaffe
2019-07-24, 00:38:48
Ryzen 4000 in Aida Benchmarks aufgetaucht:biggrin: (Codename Genesis)
mironicus
2019-07-24, 10:12:59
36m_1FJUCGM
taddy
2019-07-24, 10:25:04
Laut Rücksprache mit MF kommen in 2 Tagen neue 3900er rein, angeblich auch mehr als es Vorbesteller gibt.
"So say we all"
Matrix316
2019-07-24, 12:28:07
Hab die Tage schon mehrmals überlegt den 3900x zu stornieren und auf den 3700X zu gehen.
Zum einen weil mich die Warterei nervt :freak:
Zum anderen wäre mehr budget und Anreiz vorhanden nächstes Jahr auf den 7nm+ 4950X - 16 Kern Nachfolger umzusteigen :freak:
Also wie mein Lüfter beim 3800X jetzt so hochjagt, auch im Silent Modus, weiß ich garnet ob ich mehr als 8 Kerne in meinem Gehäuse haben will. ;)
Swissr
2019-07-24, 13:25:09
Seltsam, bei mir steht weiterhin Mitte August. Habe aber nun noch zusätzlich bei alternate.ch bestellt, da diese AMD Hauslieferant sind gehe ich davon aus, dass sie schneller als Digitec liefern können, die Bestellung dort wird dann storniert, sobald ich Näheres weiss
Uuuund bei Digitec storniert, da plötzlich ebenfalls nicht lieferbar. Werde ich zukünftig meiden..
bnoob
2019-07-24, 13:32:32
Also wie mein Lüfter beim 3800X jetzt so hochjagt, auch im Silent Modus, weiß ich garnet ob ich mehr als 8 Kerne in meinem Gehäuse haben will. ;)
Naja, wenn es wie hier gerade 34°C hat...
Ich weiß schon warum ich mit meinem 3900X bis September warte :freak:
kikakeule
2019-07-24, 13:57:55
Also wie mein Lüfter beim 3800X jetzt so hochjagt, auch im Silent Modus, weiß ich garnet ob ich mehr als 8 Kerne in meinem Gehäuse haben will. ;)
Ja, diese Temperatur-Spikes sind fürchertlich für die Temperatursteuerung. Die Regelung ist einfach nicht für solche steilen Temperaturgradienten ausgelegt...
Ich musste die Steuerung bis 70° vollkommen deaktivieren damit ich nicht dauernd die Lüfter beim Geschwindigkeitswechsel höre...
Matrix316
2019-07-24, 14:02:51
Naja, wenn es wie hier gerade 34°C hat...
Ich weiß schon warum ich mit meinem 3900X bis September warte :freak:
Ein Argument für zwei Rechner - einen für Winter und einen für Sommer. :D
Freestaler
2019-07-24, 14:04:25
Genau deshalb habe ich bereits bei meinen x370 asrock taichi und 1700 Ryzen als Quelle für Lüftersteuerung nicht die interne CPU Diode sondern Board CPU Diode. Diese ist Träger (ca. 2 Sekunden ), ergo springt der Lüfter nicht wild herum. Evtl. kannst das auch anpassen bei dir.
BlacKi
2019-07-24, 14:14:17
Ein Argument für zwei Rechner - einen für Winter und einen für Sommer. :D
dafür gibts doch OC preset saving. einfach auf 65w drosseln, dann klappt das auch bei 40° selbst mit dem 16c.:wink:
kikakeule
2019-07-24, 14:41:55
Genau deshalb habe ich breits bei meinen x370 asrock taichi umd 1700 ryzen als Quelle für Lüftersteuerung nicht die CPU Diode sondern Board CPU Diode. Diese ist Träger (ca. 2 Sekunden ), ergo springt der Lüfter nicht wild herum. Evtl. kannst das auch anpassen bei dir.
Kann ich leider nicht auswählen :(
Aber wichtiger Hinweis für die, die die Option haben!
Immerhin habe ich durch die etwas höhere Lüfterdrehzahl auch im Idle die meiste Zeit zwschen 40-50°C
Savay
2019-07-24, 15:06:31
Genau deshalb habe ich breits bei meinen x370 asrock taichi umd 1700 ryzen als Quelle für Lüftersteuerung nicht die CPU Diode sondern Board CPU Diode. Diese ist Träger (ca. 2 Sekunden ), ergo springt der Lüfter nicht wild herum. Evtl. kannst das auch anpassen bei dir.
Hat die Lüftersteuerung bei Asrock dafür keine Nachstellzeit?
Bei meinem MSI kann man die Nachstellzeit für steigende und fallende Temperaturgradienten getrennt einstellen...ergo sogar ne Art "Nachlauf" realisieren.
Diese Sprünge und Sägezahn Temperaturverhalten hat ja auch Zen+ schon, vor allem im Idle und Teillast....wenn auch aufgrund der langsameren Taktsteuerung sicher nicht so extrem.
Für die CPU habe ich 0,7s und 0,1s eingestellt...auf Temperatursprünge nach oben reagiert sie verzögert was die Lüfterkurve erfolgreich glättet, nach unten regelt er dagegen nahezu unverzögert was einfach dazu führt das der CPU Lüfter schnell wieder leise wird auch wenn länger eine hohe Last anlag.
Für die Gehäuselüfter habe ich 0,7s und 2s eingestellt...die laufen damit ne Weile noch etwas nach auch wenn die Temperatur sofort sinkt.
nairune
2019-07-24, 15:12:32
Bei Zen 2 würde (und tue) ich die Gehäuselüfter gar nicht mehr direkt von der CPU abhängig machen.
Durch die warmen Chips gibt das Teil sonst immer Gas, wo das Gehäuse eigentlich kühl ist. Wärme von der GPU kommt ja eh noch separat. Aktuell bin ich ganz zufrieden mit Mainboardtemperatur als Quelle und "Turbo" Profil bei Asus (da das Mainboard tendenziell kühler ist und sein sollte). Zudem hat man da absolut keine Sprünge.
Savay
2019-07-24, 15:13:59
Bei Zen 2 würde (und tue) ich die Gehäuselüfter gar nicht mehr direkt von der CPU abhängig machen.
Die würde ich generell nie an die CPU hängen, vorallem auch dann wenn man keine Alibi-GPU im Rechner hat...bei Gaming CPU Teillast wenn primär die GPU heizt, ist das nämlich mehr als ungünstig.
Grade bei nem 250W+ Brocken!
Gehäuselüfter hängen bei mir deshalb von der Boardtemperatur ab...quasi Gehäusetemperatur.
Glätten und nen Nachlauf (wenn möglich) würde ich da eh immer realisieren wollen!
...aber in 10 tagen ist schon der 2.8... dann sinds auch nur noch 40 tage bis zum 3950X
Die köma a nu woatn ^^
Aber ob man dann den 3950X wirklich für nur 749.- bekommt ?
M.f.G. JVC
p.s.: Klima ist schon supi ... aber kostet auch ~5.- Strom pro Tag :freak:
(Solarpaneele für die Klima ... hmm, vielleicht mal ^^)
Vielleicht frisst sie dann 6.- wenn der 16Kerner freien Lauf genießt :ulol:
(spar ich im Winter dann beim Heizen ;))
Es wird hier nicht wärmer, sondern nur teurer :ubeer:
SKYNET
2019-07-24, 16:01:43
Uuuund bei Digitec storniert, da plötzlich ebenfalls nicht lieferbar. Werde ich zukünftig meiden..
ich warte noch die supportanfrage ab... bekam heute schon rückmeldung, das es an den zuständigen kollegen weitergeleitet wurde...
Morpog
2019-07-24, 17:16:49
Bei Mindfactory steht jetzt 14.08. als Termin 🤬
Letzte Woche bei reichelt bestellt (3900x), war als Lagernd markiert. PayPal-Überweisung.
Dann war es doch nicht lagernd, sollte am 24. (oder 25.) wieder reinkommen.
Eben kam die Mail mit Lieferdatum 02.09.
Mindfactory soll also genug kriegen? Mag die zwar nicht (mal mit Geschäftsführung vor vielen Jahren mal persönlich gesprochen, nachdem ich eine negative wahre Bewertung gab), aber was solls.
taddy
2019-07-24, 18:42:00
Bei Mindfactory steht jetzt 14.08. als Termin 🤬
*********! Dabei hieß es heute morgen noch, ja ja, klappt 100%
Swissr
2019-07-24, 18:45:26
Hier ein Schnapper: Bei Conrad.ch mit Gutscheincode "FROG2019" für 520 CHF = 470 Eur laut Anzeige in 3 Wochen zu haben
Unicous
2019-07-24, 18:54:31
Userbench hat "heimlich" seinen Score-Index verändert.:freak:
67252
https://web.archive.org/web/20190604055624/https://cpu.userbenchmark.com/Faq/What-is-the-effective-CPU-speed-index/55
67253
https://cpu.userbenchmark.com/Faq/What-is-the-effective-CPU-speed-index/55
Ich frage mich nur warum. :uponder:
blood_spencer
2019-07-24, 18:54:52
Ich habe gestern einen 3600er auf mein Billo-B350-Board geschnallt. Bislang nur Beta-Bios, aber ansonsten recht unspektakulär, hat fehlerfrei und fix gebooted.
Den neuen Chipset-Treiber habe ich einfach drüber installiert. Hat jemand Erfahrungen mit dem 3600 auf alten B350-Boards und kann was zu den Bench-Ergebnissen sagen? Max Boost auf den einzelnen Kernen liegt bei 4.2 GHz, das scheint also zu funktionieren. VCORE schwankt stark, mit 1.480V je Core maximal.
https://abload.de/thumb/cinebenchjejoh.png (https://abload.de/image.php?img=cinebenchjejoh.png)
https://abload.de/thumb/cpuzbyk47.png (https://abload.de/image.php?img=cpuzbyk47.png)
https://abload.de/thumb/hwinfowskxu.png (https://abload.de/image.php?img=hwinfowskxu.png)
Danke & Gruß,
Matze
Hott3X
2019-07-24, 19:22:12
dafür gibts doch OC preset saving. einfach auf 65w drosseln, dann klappt das auch bei 40° selbst mit dem 16c.:wink:
Würde meinen 3700x auch gerne auf 65watt festnageln, wo kann man das im
BIOS einstellen? Man müsste doch nur pbo deaktivieren, oder ?
BK-Morpheus
2019-07-24, 19:29:37
Bei mir im X370 Prime Pro ist unter Advanced ganz unten ein AMD Overclocking Punkt und wenn ich dort PBO von Auto auf Advanced stelle, kann man die TDP ändern (wird auch korrekt übernommen).
gbm31
2019-07-24, 20:00:53
Seid froh, bei den aktuellen Temperaturen ist der 3900x kein Spass wenn man ihn von der Leine lässt.
Ich hab grad Wassertemperaturen (Dank DG-Wohnung) von ~45°C. Der heizt locker das doppelte vom 2700x mit PBO.
Die VII musste auf 1950 runter, weil sie sonst absturzgefährdete Hotspottemps erreicht.
Lüfter aufdrehen mag ich nicht, hab einen weiteren 240er günstig in der Grabbelkiste abgegriffen um die Wakü zu erweitern.
Schnoesel
2019-07-24, 20:02:52
Würde meinen 3700x auch gerne auf 65watt festnageln, wo kann man das im
BIOS einstellen? Man müsste doch nur pbo deaktivieren, oder ?
PPT im BIOS auf 65 Watt einstellen.
Ich frage mich nur warum. :uponder:
Die freuen sich auch über Spenden ;)
M.f.G. JVC
Hott3X
2019-07-24, 20:15:08
PPT im BIOS auf 65 Watt einstellen.
Vielen Dank, mal die Option suchen.
mironicus
2019-07-24, 20:32:18
Seid froh, bei den aktuellen Temperaturen ist der 3900x kein Spass wenn man ihn von der Leine lässt.
Ich hab grad Wassertemperaturen (Dank DG-Wohnung) von ~45°C. .
Ich glaube bei hohen Zimmertemperaturen ist eine reine Luftkühlung besser, da der Airflow alle Komponenten mitkühlt.
BlacKi
2019-07-24, 20:42:26
Vielen Dank, mal die Option suchen.
ist aber letztendlich egal. denn ob er nun wegen hitze runtertaktet oder wegen powertarget :confused:
Hott3X
2019-07-24, 21:42:08
ist aber letztendlich egal. denn ob er nun wegen hitze runtertaktet oder wegen powertarget :confused:
Naja bin über jedes Grad froh das ich nicht aus meinem nasse raus pusten muss :-) und Ganz ehrlich mir langt der Speed bei 65w.
Armaq
2019-07-24, 23:29:16
Seid froh, bei den aktuellen Temperaturen ist der 3900x kein Spass wenn man ihn von der Leine lässt.
Ich hab grad Wassertemperaturen (Dank DG-Wohnung) von ~45°C. Der heizt locker das doppelte vom 2700x mit PBO.
Die VII musste auf 1950 runter, weil sie sonst absturzgefährdete Hotspottemps erreicht.
Lüfter aufdrehen mag ich nicht, hab einen weiteren 240er günstig in der Grabbelkiste abgegriffen um die Wakü zu erweitern.
Wasser von 45°C? Wie überlebst du denn da drin? 45°C ist lebensgefährliches Fieber, soviel kannst du doch gar nicht schwitzen?
Meine CPU wird auch relativ warm gerade. Es laufen aber gerade auch zig Prozesse und sie boostet froh auf 4500 Mhz. Lufttemperatur ist auch noch über 30°C.
Asus hat für das c7h ein neues BIOS rausgebracht, damit man die Maus wieder benutzen kann ... Wer braucht im BIOS ne Maus?
BlacKi
2019-07-24, 23:41:34
DG wohnungen können ganz schön warm werden. bei 36-38° luft temp. hat man sicherlich 45° wasser temp. bei 700rpm müssen es nichtmal 35° lufttemp sein.
ich mache mir mehr sorgen um den Chipsatz.
meiner ist ziemlich heiss (msi b450).
auch sitzt die grafikkarte nur 2mm davon enfernt.
die heizen sich gegenseitig. gahz schlaue Konstruktion.
im Moment kann ich leider nicht viel machen. monitor bleibt schwarz am DVI.
VGAled leuchtet auf Mainboard.
keine lösung in sicht. :confused:
gbm31
2019-07-25, 06:21:43
Wasser von 45°C? Wie überlebst du denn da drin? 45°C ist lebensgefährliches Fieber, soviel kannst du doch gar nicht schwitzen?
Meine CPU wird auch relativ warm gerade. Es laufen aber gerade auch zig Prozesse und sie boostet froh auf 4500 Mhz. Lufttemperatur ist auch noch über 30°C.
Asus hat für das c7h ein neues BIOS rausgebracht, damit man die Maus wieder benutzen kann ... Wer braucht im BIOS ne Maus?
Luft war bei gut 35°C.
Der CPU war das auch relativ egal, nur die VII war ziemlich grenzwertig unterwegs.
Heute wurde ein neues BIOS für mein Board released mit Agesa 1.0.0.3 - keine Indices angegeben...
dildo4u
2019-07-25, 07:36:58
Ich habs ja gesagt Userbench ist der größte Schrott die haben jetzt die Bewertungen angepasst damit Intel besser dasteht.
Da kommt kompletter Blödsinn raus 3800X vor 3900X,oder auf Intel Seite 9600kf vor 8700k.
https://live.staticflickr.com/65535/48370578377_b4b7d36256_b.jpg (https://flic.kr/p/2gGkRKg)userbench (https://flic.kr/p/2gGkRKg) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr
Schnoesel
2019-07-25, 11:02:16
Ist natürlich sehr sinnvoll den Anteil von Multicore zu reduzieren im Hinblick auf die Zukunft beim Gaming beim Userbench, aber man wollte Intel halt noch eine Chance geben. Userbench ist eh nicht relevant, aber ein Geschmack hat das schon.
Ist natürlich sehr sinnvoll den Anteil von Multicore zu reduzieren im Hinblick auf die Zukunft beim Gaming beim Userbench, aber man wollte Intel halt noch eine Chance geben. Userbench ist es nicht relevant, aber ein Geschmack hat das schon.
:freak: Armes Intel-chen ... muss man natürlich retten :freak:
Cui Bono, wem nützt es - und wieviel ist es ggf Intel wert ... Geld oder hübsche neue CPUs für die Server :freak:
Screemer
2019-07-25, 11:09:14
Ich habs ja gesagt Userbench ist der größte Schrott die haben jetzt die Bewertungen angepasst damit Intel besser dasteht.
Da kommt kompletter Blödsinn raus 3800X vor 3900X,oder auf Intel Seite 9600kf vor 8700k.
https://live.staticflickr.com/65535/48370578377_b4b7d36256_b.jpg (https://flic.kr/p/2gGkRKg)userbench (https://flic.kr/p/2gGkRKg) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr
Das wäre doch wirklich Mal ne News auf den Techseiten wert.
mironicus
2019-07-25, 11:12:02
wF8EuEfKH3Q
SKYNET
2019-07-25, 11:37:43
Das wäre doch wirklich Mal ne News auf den Techseiten wert.
hat intel die seite gekauft? ;D
y33H@
2019-07-25, 12:12:31
Das wäre doch wirklich Mal ne News auf den Techseiten wert.Die gescheiten Tech Seiten haben Userbench bisher eh schon ignoriert weil Quatsch ^^
basix
2019-07-25, 12:19:43
Die gescheiten Tech Seiten haben Userbench bisher eh schon ignoriert weil Quatsch ^^
Das Problem sind nicht die Techseiten, sondern "uninformierte" User, welche diese Liste als Referenz nehmen. Und das sind vermutlich mehr als man denkt, ist ja schön übersichtlich...
Stray_bullet
2019-07-25, 15:02:34
alt:
https://abload.de/img/ub_oldvekvi.png
neu:
https://abload.de/img/ub_newejjrn.png
https://abload.de/img/ub_cudkrn.png
Der User sieht das, und denkt: Ja mit dem i3-8350K bin ich bestens für die Zukunft gerüstet. Ist ja 3% "Effektiv" schneller.
Die sollten den Index nicht "effective CPU speed index" nennen, sondern "Single core gaming CPU speed index.
Unicous
2019-07-25, 15:11:20
Ist es wirklich so schwierig eine Seite zurückzublättern?:confused:
Benutzername
2019-07-25, 15:20:41
diese rumänischen RAM benches hatten wir noch nicht, oder?
https://lab501.ro/procesoare-chipseturi/amd-ryzen-3000-part-iv-ddr4-scaling-english-version
wirklich umfangreich getestet wie das alles funktioniert.
TwoBeers
2019-07-25, 15:21:51
Ist es wirklich so schwierig eine Seite zurückzublättern?:confused:
Das fand ich jetzt lustig, weil ich nicht wusste worauf du dich beziehst und eine Seite zurück blättern musste. :D
Unicous
2019-07-25, 15:32:54
Das fand ich jetzt lustig, weil ich nicht wusste worauf du dich beziehst und eine Seite zurück blättern musste. :D
:freak:
Als ich den Post abgeschickt hatte ist mir die Ironie auch nicht ganz entgangen.:biggrin:
SKYNET
2019-07-25, 16:39:19
so, 3900X abbestellt, war mir zu blöde das dämliche gewarte, kommt jetzt nen 3600 als übergang bis zum 3950X... bis dahin ist auch das asus DTX board verfügbar(ende august haben sie gesagt)... dann gibts einmal alles neu :)
Schnoesel
2019-07-25, 16:44:45
Dann am Besten den 16Kerner direkt bei AMD bestellen falls möglich, nicht dass das Drama von neuem beginnt.
SKYNET
2019-07-25, 16:51:55
Dann am Besten den 16Kerner direkt bei AMD bestellen falls möglich, nicht dass das Drama von neuem beginnt.
bestelle bei alternate(board und CPU), da stimmen die liefertermine immer(bisher), dann weiss ich wenigstens wann das ding kommt, zumal ich da mit 2 klicks mit meinem schweizer konto bestellen kann, bei AMD muss ich meine CC nutzen, das mache ich ungern online.
dildo4u
2019-07-25, 16:52:07
Die 16 Kerne werden doch noch seltener sein,PCPEr hat das im Podcast gesagt die werden alle von den Pros aufgekauft,da man sich den ganzen Numa Mist von Threadripper sparen kann.
BlacKi
2019-07-25, 16:54:14
Der User sieht das, und denkt: Ja mit dem i3-8350K bin ich bestens für die Zukunft gerüstet. Ist ja 3% "Effektiv" schneller.
Die sollten den Index nicht "effective CPU speed index" nennen, sondern "Single core gaming CPU speed index.
der userbenchmark ist, so wie alle anderen cpu tests in balkenform, immer auf die getesteten spiele im duchschnitt bezogen. wenn das der user, egal auf welcher plattform, fehlinterprätiert, dann ist halt der user schuld. das ist und war aber schon immer so. damals waren es eben i3 vs i5 vs i7. balken haben eben noch nie exakt die zukünftige spieleperformance wiedergegeben.
gbm31
2019-07-25, 16:55:42
Dann am Besten den 16Kerner direkt bei AMD bestellen falls möglich, nicht dass das Drama von neuem beginnt.
bestelle bei alternate(board und CPU), da stimmen die liefertermine immer(bisher), dann weiss ich wenigstens wann das ding kommt, zumal ich da mit 2 klicks mit meinem schweizer konto bestellen kann, bei AMD muss ich meine CC nutzen, das mache ich ungern online.
Bestell bei AMD! Da stimmt alles. Ausserdem stimmt das mit der CC nicht - ich hab mit Paypal gezahlt.
Und ein AMD Konto hast du sicher auch schon wegen irgendeiner AMD Prämie (Spiel oder sonstwas)
Du hast schon den 3900x verpasst deswegen - wenn du den wirklich wolltest...
Armaq
2019-07-25, 17:24:30
Meiner kommt von AMD. Warum Händlermarge beim Prestigeprodukt abgeben?
hat intel die seite gekauft? ;D
Nicht gekauft, aber wohl "gespendet" und "gebettelt" ^^
diese rumänischen RAM benches hatten wir noch nicht, oder?
https://lab501.ro/procesoare-chipseturi/amd-ryzen-3000-part-iv-ddr4-scaling-english-version
wirklich umfangreich getestet wie das alles funktioniert.
Schöner umfangreicher Test. Danke :up:
Jo, bleibt bei mir alles beim alten ^^
Ich wird versuchen DDR3800 - 4000 CL 14/12?... 1:1:1 zu erreichen ;)
(in dem Punkt hat unsere "Stammtischplauderei" letzten Oktober ins schwarze getroffen :smile:)
Wobei DDR5000+ CL18/16?... mit 2:1 könnten auch interessant werden ...
(uuuu das schreit nach Tabellen und tagelangem testen ...)
(Samsung hat währenddessen den B-Die-"high Voltage"-Ram wirklich eingestellt)
so, 3900X abbestellt, war mir zu blöde das dämliche gewarte, kommt jetzt nen 3600 als übergang bis zum 3950X... bis dahin ist auch das asus DTX board verfügbar(ende august haben sie gesagt)... dann gibts einmal alles neu :)
Gleichfalls :biggrin: (aber ohne übergangs-CPU, bin auf deine sehr guten! Max OC RAM-Tests gespannt ;))
Den 2700X hab ich ja absichtlich AMD "geschenkt" ...
aber auch das Mobo wechseln :confused: NE, da ist die Gefahr für n TR dann zu groß :freak: ...
Ich hoffe mein 470 nimmt Zen3 wirklich ohne Probleme auf.
(der "neue" Rechner ist nun 9 Monate alt und wartet noch immer auf seinen "einstand" ^^)
(mein 3570K hat wohl ablöseangst, oder die Klima tut ihm gut, denn er zeigt sich momentan nur von seiner besten Seite)
M.f.G. JVC
Benutzername
2019-07-25, 17:25:19
der userbenchmark ist, so wie alle anderen cpu tests in balkenform, immer auf die getesteten spiele im duchschnitt bezogen. wenn das der user, egal auf welcher plattform, fehlinterprätiert, dann ist halt der user schuld. das ist und war aber schon immer so. damals waren es eben i3 vs i5 vs i7. balken haben eben noch nie exakt die zukünftige spieleperformance wiedergegeben.
Kommt auf die Balken an. Man kann ja auch Mittelwert, Minimalwert und durchschnittlie FPS für X% der Zeit angeben zum Beispiel. Ein reiner Mittelwert ist natürlich etwas allbern, besonders wenn die Spannbreite der WErte zu groß ist und die FPS hin und her springen.
BlacKi
2019-07-25, 17:42:30
Kommt auf die Balken an. Man kann ja auch Mittelwert, Minimalwert und durchschnittlie FPS für X% der Zeit angeben zum Beispiel. Ein reiner Mittelwert ist natürlich etwas allbern, besonders wenn die Spannbreite der WErte zu groß ist und die FPS hin und her springen.
gescheinte cpu tests wünsche ich mir schon seit langem, wo man explizit die worst case szenarien rauspickt. also einmal welche wo ST worst cases und max thread szenarien abgebildet werden. vermutlich würde das wiederum die user abschrecken, weil es dann verschiede gewinner gäbe. der mix wert ist für die normalo user natürlich recht einfach.
@Blacki: Deine CPU sollte noch bis Zen4 durchhalten können, oder bist du high-Fps-Zocker?
Wer weiß, vielleicht hat dann Intel schon wieder was feines im Angebot ;)
M.f.G. JVC
basix
2019-07-25, 17:48:13
Die 16 Kerne werden doch noch seltener sein,PCPEr hat das im Podcast gesagt die werden alle von den Pros aufgekauft,da man sich den ganzen Numa Mist von Threadripper sparen kann.
Numa fällt doch mit den 3000er TR doch sehr wahrscheinlich weg...
Numa fällt doch mit den 3000er TR doch sehr wahrscheinlich weg...
Sollte ohne funktionieren.
(wobei man besser fürs Zocken bei 16+Kernen SMT deaktiviert)
M.f.G. JVC
BlacKi
2019-07-25, 17:58:34
@Blacki: Deine CPU sollte noch bis Zen4 durchhalten können, oder bist du high-Fps-Zocker?
Wer weiß, vielleicht hat dann Intel schon wieder was feines im Angebot ;)
M.f.G. JVC
ich erwarte sehnlichst ddr5. solange wird er wohl noch durchhalten.
ich erwarte sehnlichst ddr5. solange wird er wohl noch durchhalten.
Jaaa DDR5 :smile:
Dem sagt man nach das er auch DDR4 OC Ram recht schnell den Rang ablaufen wird ...
Dein Rechner scheint verdammt Rund und durchdacht ...
Den würde ich nicht so schnell wechseln ;)
(mich killt im Moment meine "HT" Verweigerung ...)
Ich würde noch versuchen den Ram auf CL16 zu straffen (ist doch B-die? ich liebe runde Zahlen^^ 5,2Ghz??? an sonnst lieber 5...)
(oder war da nicht was mit Intel und zu hohen Spannungen am Ram"-Controller" ?
Meiner lebt schon seit jeher mit ~1,65v ^^)
(Sub-Timings sind wohl schon optimiert, auch Intel profitiert davon ;))
M.f.G. JVC
nairune
2019-07-25, 23:06:50
3900X auf Lager für 555€, versandkostenfrei. Schnell sein ;)
https://cab-computer.de/shop/prozessoren/amd-am4/cpu-am4-amd-ryzen-9-3900x-12x3-8ghz?hersteller=amd
N0Thing
2019-07-26, 01:41:15
diese rumänischen RAM benches hatten wir noch nicht, oder?
https://lab501.ro/procesoare-chipseturi/amd-ryzen-3000-part-iv-ddr4-scaling-english-version
wirklich umfangreich getestet wie das alles funktioniert.
Schade, dass sie nicht auch die Brot und Butter Variante mit DDR4-3200 CL16 getestet haben. Zwischen diesen und den im Benchmark verwendeten DDR4 3200 CL14 und DDR4 3600 CL16 liegen ja sportliche 150€.
Benutzername
2019-07-26, 01:46:18
@N0thing: Ja, habe Ich etwas vermisst nach Lektüre der Tests. die meisten kaufen sich was das Budget hergibt und das sind eher nicht die teuren Riegel.
------------------------------------------
Numa fällt doch mit den 3000er TR doch sehr wahrscheinlich weg...
"wahrscheinlich". nix genaues weiss man nicht, was AMD da machen wird. Müssen wir bis zum Herbst warten, was im neuen Threadripper (und Epyc) stecken wird.
qiller
2019-07-26, 03:19:55
Wenn das dieselben Compute-Chiplets sind, wie bei Ryzen 3000 und Epyc Rome (wovon ich mal stark ausgehe), müssen die RAM-Controller im (größeren) IO-Die sein. Das würde bedeuten, dass die UMA/NUMA-Geschichte sich bei TR erledigt hat und nur noch bei Mehrsockel-Systemen von Epyc-Rome eine Rolle spielen.
Die größere Frage wird sein, wie die interne Anbindung zwischen Chiplets und IO-Die aussieht. TR bietet Quadchannel nach außen an, Epyc sogar 8 RAM-Kanäle. Also das kann unmöglich dieselbe Infinity Fabric (falls es hier überhaupt noch so heißt) wie bei Ryzen 3000 sein, ohne massive Performanceeinbußen im RAM-Durchsatz hinzunehmen.
mczak
2019-07-26, 10:42:43
Die größere Frage wird sein, wie die interne Anbindung zwischen Chiplets und IO-Die aussieht. TR bietet Quadchannel nach außen an, Epyc sogar 8 RAM-Kanäle. Also das kann unmöglich dieselbe Infinity Fabric (falls es hier überhaupt noch so heißt) wie bei Ryzen 3000 sein, ohne massive Performanceeinbußen im RAM-Durchsatz hinzunehmen.
Ich sehe das Problem nicht?
Um den maximalen Lese-Speicherdurchsatz zu erreichen braucht man halt bei Quad-Channel 2 CCDs, und bei den Epycs entsprechend 4. Beim Schreiben entsprechend sogar das Doppelte (was ja aber in der Praxis nicht so entscheidend sein dürfte). Das heisst natürlich ein Single-Thread Task der alle Bandbreite brauchen kann die die 4 Kanäle bei TR hergeben wird trotzdem nicht schneller laufen als mit 2 Kanälen. War aber jetzt ja auch nicht anders.
Ich frage mich höchstens ob die Speicherlatenzen bei Eypc/TR schelchter sind als bei Ryzen 3000, das i/o die ist doch erheblich komplexer...
SKYNET
2019-07-26, 11:50:10
alt:
https://abload.de/img/ub_oldvekvi.png
neu:
https://abload.de/img/ub_newejjrn.png
https://abload.de/img/ub_cudkrn.png
Der User sieht das, und denkt: Ja mit dem i3-8350K bin ich bestens für die Zukunft gerüstet. Ist ja 3% "Effektiv" schneller.
Die sollten den Index nicht "effective CPU speed index" nennen, sondern "Single core gaming CPU speed index.
ist einfach nur lächerlich von UB.... aus reddit:
Before Ryzen was released the ranking was based on:
30% Single core performance 60% Quad core performance 10% multi core performance
(Proof here: https://web.archive.org/web/20190604055624/https://cpu.userbenchmark.com/Faq/What-is-the-effective-CPU-speed-index/55 )
The new post Ryzen ranking system only gives multi core performance a 2% weighting and mostly looks at single core performance, which makes Intel CPUs look artificially much better than AMD Ryzen in the rankings and also has some hilarious results such as 9600k being ranked higher than 8700k
ahja, 40% gewichtung für SC in 2019... :freak: selbst ältere games nutzen schon 2-4 threads... logischer weise hätten sie SC eher auf 20% oder weniger runterschrauben sollen
Zossel
2019-07-26, 12:03:54
Die größere Frage wird sein, wie die interne Anbindung zwischen Chiplets und IO-Die aussieht. TR bietet Quadchannel nach außen an, Epyc sogar 8 RAM-Kanäle. Also das kann unmöglich dieselbe Infinity Fabric (falls es hier überhaupt noch so heißt) wie bei Ryzen 3000 sein, ohne massive Performanceeinbußen im RAM-Durchsatz hinzunehmen.
ROME & Co ist eine auf Bandbreite und reale Server Workloads optimierte Architektur. Infinity Fabric ist ein Design welches von vornherein auf skalierbare Bandbreite ausgelegt wurde mit der bewussten Inkaufnahme einer leicht höheren Latenz. Ob an der Infinity Fabric weitere RAM-Channels, PCIe-Lanes, Cores oder GPUs dranhängen ist erstmal nebensächlich.
Das Telespiele, welche real oft durch GPUs limitiert werden, darauf auch gut laufen ist nichts weiter als netter Nebeneffekt. Das ganze ist einfach ein klassischer Designtradeoff. Ringbus ist wegen des mangelnden Skalierungspotenzial eine Sackgasse.
basix
2019-07-26, 12:45:38
"wahrscheinlich". nix genaues weiss man nicht, was AMD da machen wird. Müssen wir bis zum Herbst warten, was im neuen Threadripper (und Epyc) stecken wird.
Das ist so. Da bei Ryzen mit 2 Chiplets ebenfalls keine NUMA Domains entstehen, sollte man das aber auf TR & EPYC übertragen können. Der einzige Unterschied wird wohl eine etwas erhöhte Latenz sein. Bei identischen Speichertaktraten wie bei Ryzen erwarte ich aber keinen allzu grossen Unterschied (<10%). Und das ist auf Naples bezogen ein riesiger Schritt nach vorne, wo man Worst Case bis zu 3x Latenz zwischen geringster und höchster Latenz hatte. Jetzt wird man vermutlich über alle Kerne hinweg im Bereich der minimalen Infinity Fabric Latenz von Naples sein. https://www.servethehome.com/amd-epyc-infinity-fabric-latency-ddr4-2400-v-2666-a-snapshot/
myMind
2019-07-26, 13:14:12
ist einfach nur lächerlich von UB.... aus reddit:
ahja, 40% gewichtung für SC in 2019... :freak: selbst ältere games nutzen schon 2-4 threads... logischer weise hätten sie SC eher auf 20% oder weniger runterschrauben sollen
Um zu verstehen, ob das irgendwie plausibel ist, müsste man mal wissen wie die "FPS Estimates" Sektion von Userbench funktioniert. Das ist mir ziemlich schleierhaft. Habe auf der Userbenchmark-Seite auch nichts dazu gefunden. Wo kommen denn die "samples" her?
Beispiel:
https://www.userbenchmark.com/PCGame/FPS-Estimates-The-Witcher-3--Wild-Hunt/3855/251565.0.0.0.0 The Witcher 3: Wild Hunt on a GTX 1080-Ti
Average FPS: 107 702 samples. Davon z.B. 134 samples mit einem i7-700K. Wo kommen denn diese 134 Messungen her? Sind das Userbench Samples?
Wenn ja, wie kommen dann die FPS-Werte zustande?
Wenn nein, wenn die Samples als echte Ingame-Messungen der FPS sind, dann könnte das schon bedeuten, dass man die Berechnung des GCPU-Werts beim Auftauchen neuer Prozessoren anpassen muss. Der GCPU-Wert soll ja möglichst gut reflektieren welche Spieleleistung ich aktuell erwarten kann.
Schnoesel
2019-07-26, 13:22:50
Die Messungen sind das eine, die sind aber gleich geblieben, die Gewichtung ist nun eine völlig andere. Mit so etwas kannst du nahezu jede Messung nach deinen Wünschen manipulieren. Eine Gewichtung ist nichts anderes als eine Interpretation der Messungen nach deinen Wünschen.
Beispiel:
10 Games: Bei 5 liegt AMD vorn, bei den anderen 5 Intel also quasi Gleichstand ohne große Aureißer. Jetzt gewichte ich aber die Ergebnisse der Intel Spiele mit 70% weil mir danach ist, oder weil ich diese Spiele für relevanter halte oder weil mir jemand ein dickes Bündel Scheine in die Tasche gesteckt hat.
So wird aus einem Gleichstand ein klarer Sieg für die eine Seite.
myMind
2019-07-26, 13:47:26
Die Messungen sind das eine, die sind aber gleich geblieben, die Gewichtung ist nun eine völlig andere. Mit so etwas kannst du nahezu jede Messung nach deinen Wünschen manipulieren. Eine Gewichtung ist nichts anderes als eine Interpretation der Messungen nach deinen Wünschen.
Beispiel:
10 Games: Bei 5 liegt AMD vorn, bei den anderen 5 Intel also quasi Gleichstand ohne große Aureißer. Jetzt gewichte ich aber die Ergebnisse der Intel Spiele mit 70% weil mir danach ist, oder weil ich diese Spiele für relevanter halte oder weil mir jemand ein dickes Bündel Scheine in die Tasche gesteckt hat.
So wird aus einem Gleichstand ein klarer Sieg für die eine Seite.
Das ist schon klar, aber es gibt ja auch die "FPS Estimates" bei Userbench. Ich gehe mal davon aus, dass der GCPU-Wert daran angeleht ist. Die FPS-Estimates müssen irgendwie korrelieren mit den GCPU-Werten. Aber ich kann die FPS-Werte ja nicht nur raten. Ich muss die doch irgendwie auch mal messen, um zu schauen, ob meine FPS-Schätzung valide ist. Frage: Woher kommen die FPS samples? Werden die bei Futurmark eingekauft oder wo kommen die her?
Wenn es echte Ingame FPS-Messungen gibt und diese nach der aktuellen Anpassung besser mit dem Userbench GCPU-Wert korrelieren, dann kann man sich eigentlich nicht beschweren.
Cb test zu den Reste Rampe CPUs 3600x und 3800x ist raus. Eigentlich müssten die beiden CPU deutlich günstiger als 3600 und 3700x Angeboten werden. Einfach nur lol...
Zitat
https://www.computerbase.de/2019-07/amd-ryzen-3600x-3800x-test/
Der Ryzen 5 3600X scheint so ein Modell zu sein, das schon fast ein wenig mit der Brechstange durch hohe TDP auf Takt gebracht wird, dabei aber folglich sehr hohe Temperaturen ohne wirkliche Mehrleistung gegenüber dem Ryzen 5 3600 hervorbringt. Der Ryzen 7 3800X liegt dort sogar noch drüber, schon im Cinebench-Test ist er schnell mit 85 Grad unterwegs, am Maximum entsprechend noch darüber.
Schnoesel
2019-07-26, 14:16:48
Warum sollten die deutlich günstiger angeboten werden?
Warum sollten die deutlich günstiger angeboten werden?
Test lesen.
Oder oben mein eingefügtes Zitat anschauen.
Schreibe vom phone...
Schnoesel
2019-07-26, 14:21:52
Hab den Test gelesen und versteh immer noch nicht warum diese CPUs deutlich günstiger als die beiden anderen verkauft werden müssten. Ich sehe das Argument nicht. was macht diese CPUs so viel schlechter, dass AMD diese günstiger als den 3600 respektive 3700X verkaufen sollte?
Man könnte sagen die beiden CPUs sind überflüssig, aber günstiger verkaufen?
MSABK
2019-07-26, 14:22:18
https://www.reddit.com/r/Amd/comments/chyeh6/got_my_3700x_voltages_idling_correctly/?utm_source=share&utm_medium=ios_app
Ein Nutzer hat alle Hintergrund Apps geschlossen und geschaut wie sie Spannung ist, die Rauer Synapse App hat bei ihm die Idle Spannung hochgejagt.
Hab den Test gelesen und versteh immer noch nicht warum diese CPUs deutlich günstiger als die beiden anderen verkauft werden müssten. Ich sehe das Argument nicht. was macht diese CPUs so viel schlechter, dass AMD diese günstiger als den 3600 respektive 3700X verkaufen sollte?
Man könnte sagen die beiden CPUs sind überflüssig, aber günstiger verkaufen?Noch mal den test lesen du musst.
Schnoesel
2019-07-26, 14:31:59
So schwer dein Argument vorzubringen? Evtl. weil du keines hast?
https://www.reddit.com/r/Amd/comments/chyeh6/got_my_3700x_voltages_idling_correctly/?utm_source=share&utm_medium=ios_app
Ein Nutzer hat alle Hintergrund Apps geschlossen und geschaut wie sie Spannung ist, die Rauer Synapse App hat bei ihm die Idle Spannung hochgejagt.
Die APP ist auch der letzte Dreck. Vor allem der Game Manager Scanner oder wie der Rotz heißt scannt permanent die Platte wozu auch immer. Ich mag die Maus und die Tastatur weil das Handling super ist aber die Software ist der letzte Schrott.
Freestaler
2019-07-26, 14:35:37
Hab den Test gelesen und versteh immer noch nicht warum diese CPUs deutlich günstiger als die beiden anderen verkauft werden müssten. Ich sehe das Argument nicht. was macht diese CPUs so viel schlechter, dass AMD diese günstiger als den 3600 respektive 3700X verkaufen sollte?
Man könnte sagen die beiden CPUs sind überflüssig, aber günstiger verkaufen?
Ich lese das gleiche wie du. ;-) keine Ahnung was Dorn da will.
SKYNET
2019-07-26, 14:36:05
mein 3600er ist dann zur abholung am pick-up standort bereit... mal sehen ob ich heute abend schon fummlen mag, oder erst morgen, weil kühler :)
2 gleiche CPU einer verbraucht mehr welcher sollte der Hersteller günstiger anbieten?
Schnoesel
2019-07-26, 14:56:01
Ach daher weht der Wind? Lol. Gehst ins Bios stellst die PPT so ein wie beim kleineren Modell (verlierst dadurch auch keine Garantie) hast quasi nen 3700X oder 3600. Kein Grund die CPU billiger zu verkaufen.
Dass die CPUs überflüssig sind, hatte ich ja bereits erwähnt.
es gibt Mainboards die haben keine Möglichkeit die ppt einzustellen.
der preis wird sich automatisch einpendeln.
Angebot und nachfrage.
im moment sind eh alle zu teuer
viel interessanter fand ich den intel9700.
zum spielen ist der super auch der preis ist ok.
blöd nur dass man ihm so viel Leistung gegeben hat wie er wollte. damit ist der test unbrauchbar.(für den 9700)
Schnoesel
2019-07-26, 15:03:22
es gibt Mainboards die haben keine Möglichkeit die ppt einzustellen.
Sicher? Ist mir noch nicht untergekommen. Spätestens wenn man PBO aktiviert lässt sich die PPT einstellen.
exzentrik
2019-07-26, 15:06:09
Windows 10 vs. Ubuntu 18.04 LTS Performance On AMD Ryzen 9 3900X (https://www.phoronix.com/scan.php?page=article&item=3900x-windows10-ubuntu&num=1) (Phoronix)
When looking at the geometric mean of all the benchmarks carried out on Ubuntu 18.04.2 LTS and Windows 10 1903 with this AMD Ryzen 9 3900X, Ubuntu Linux led by approximately 8%.
Sicher? Ist mir noch nicht untergekommen. Spätestens wenn man PBO aktiviert lässt sich die PPT einstellen.
nicht bei MSI.
leider habe ich so ein board :rolleyes:
du kannst ein 45W eco-modus einstellen.
das wars.
kunibätt
2019-07-26, 15:21:58
Oder besser formuliert: GCC spuckt idR 8% schnelleren Code als VS aus.
kikakeule
2019-07-26, 15:31:34
nicht bei MSI.
leider habe ich so ein board :rolleyes:
du kannst ein 45W eco-modus einstellen.
das wars.
Beim MSI B450M Mortar problemlos möglich sowohl im Bios als auch im Ryzen Master.
Wie bereits erwähnt muss man halt die Settings im PBO ändern...
Niall
2019-07-26, 15:40:18
Gibts eigentlich unterdessen mal irgendwelche Infos zu neuer AGESA und Co. oder dauert so etwas bei AMD/ respektive den MB Herstellern idR länger? :)
Lehdro
2019-07-26, 15:52:46
Test lesen...dort stehen alle Argumente.
Außer bei der Leistung, denn die zwei bieten davon etwas mehr, bei deutlich höherer Leistungsaufnahme. Exakt deshalb werden sie am Ende noch einige Käufer finden.
Du tauscht halt Effizienz gegen ein paar Prozent Mehrleistung. Das kann man durchaus mal machen, wenn der Preis stimmt oder man unbedingt die Leistung ootb braucht. Warum die deswegen billiger als die non X bzw 3700X Variante sein sollen, obwohl sie schneller sind, verstehtst wohl nur du.
Ich gebe dir mal noch einen Tipp: AMD bepreist die CPUs hauptsächlich nach der Leistung und nicht nach der Effizienz. Ausnahmen sind Produkte wie Fury nano, T-Prozessoren von Intel und das ganze sonstige Stromspargerödel was es sonst noch so gibt.
Matrix316
2019-07-26, 15:53:46
2 gleiche CPU einer verbraucht mehr welcher sollte der Hersteller günstiger anbieten?
Eigentlich ist das falsch formuliert. Der 3800X und 3600X ist jeweils genauso effizient wie der 3700X und der 3600. Sie dürfen sich nur mehr austoben. ;) Wenn du die kleinen entsprechend mit Strom versorgst, verbrauchen die genauso viel wie die großen, oder? Die größeren garantieren dir halt out of the box etwas mehr Leistung aber im Prinzip sollten die von der Hardware identisch sein.
SKYNET
2019-07-26, 16:11:12
Eigentlich ist das falsch formuliert. Der 3800X und 3600X ist jeweils genauso effizient wie der 3700X und der 3600. Sie dürfen sich nur mehr austoben. ;) Wenn du die kleinen entsprechend mit Strom versorgst, verbrauchen die genauso viel wie die großen, oder? Die größeren garantieren dir halt out of the box etwas mehr Leistung aber im Prinzip sollten die von der Hardware identisch sein.
da anscheinend eh bei den meisten bei 4.4GHz schluss ist mit takten, kann man die sich wohl wirklich schenken... ist ja nicht wie beim 2700 vs. 2700X wo es in den meisten fällen mal gute 200-400MHz waren, die den unterschied machten.
Brillus
2019-07-26, 17:00:38
Windows 10 vs. Ubuntu 18.04 LTS Performance On AMD Ryzen 9 3900X (https://www.phoronix.com/scan.php?page=article&item=3900x-windows10-ubuntu&num=1) (Phoronix)
Von den Benchmarks die ich kenne sieht es mir eher nsch besserem Scheduling in Muötithreaded sachen aus.
aufkrawall
2019-07-26, 17:19:11
Kann man nicht 1:1 vergleichen, weil andere Compiler.
Matrix316
2019-07-26, 17:44:49
da anscheinend eh bei den meisten bei 4.4GHz schluss ist mit takten, kann man die sich wohl wirklich schenken... ist ja nicht wie beim 2700 vs. 2700X wo es in den meisten fällen mal gute 200-400MHz waren, die den unterschied machten.
Wobei 200-400 MHz auch nicht den riesen Unterschied machen. ;) AMD muss einfach auf 5 GHz kommen. Oder noch mehr Cache einbauen.
Wahrscheinlich hat man den 3800X rausgebracht um halt mit vergleichbaren Intels besser dazustehen. Die kosten ja auch nicht unbedingt weniger.
Oder die kleinen Ryzens sind zu gut. ;)
4.5GHz -> 5Ghz sind nur etwas mehr als 10%. Das wird auch nicht so weltbewegend sein. Abgesehen davon, dass die Hitzeabfuhr auf den immer kleineren Chips das Hauptproblem sein wird.
robbitop
2019-07-26, 18:03:49
IMO muss beides passieren, wenn man Intel souverän in Spielen besiegen will. Die Sunny Cove Kerne kommen zwar erst in einiger Zeit, aber die legen im Ernstfall nochmal ordentlich Leistung nach.
Mehr Takt und noch bessere durchschnittliche Speicherlatenz (mehr Cache, besserer Prefetcher, schnelleres I/O - führt ja alles zu geringeren durchschnittlichen Zugriffszeiten in der Praxis), mehr Takt und gegen Sunny Cove wird man auch noch etwas mehr IPC drauflegen müssen.
Allerdings wird der sich zu AMDs Glück erst mit Zen3/4 anlegen...
Benutzername
2019-07-26, 18:05:19
4.5GHz -> 5Ghz sind nur etwas mehr als 10%. Das wird auch nicht so weltbewegend sein. Abgesehen davon, dass die Hitzeabfuhr auf den immer kleineren Chips das Hauptproblem sein wird.
Die 5GHz sind aber die magische Grenze in der Wahrnehmung vieler. Wie damals die 1 GHz. Mir persönlich sind die Hertzchen relativ egal, wichtig ist was am Ende an Rechenleistung dabei rauskommt.
Beim MSI B450M Mortar problemlos möglich sowohl im Bios als auch im Ryzen Master.
ja ich muss wohl zurück rudern
habe soeben entdeckt dass die tasten + und - eine Funktion haben:redface:
enter funktioniert nicht aber plus minus.
da muss man auch erstmal drauf kommen
grobi
2019-07-26, 18:27:49
Hallo!
Habe vom Agesa 1.0.0.3a auf 1.0.0.3ab gewechselt auf meinem MSI X470 Gaming Pro und nun boostet mein 3600X nicht mehr auf 4,4GHZ. Dafür ist die Spannung ein bisschen niedriger. Es wird wohl noch eine Weile dauern bist das alles optimal läuft.
mfg grobi
Wobei 200-400 MHz auch nicht den riesen Unterschied machen
ich finde das ist ein sehr großer unterschied.
leider ist es nicht möglich so hoch zu übertakten.
alle ryzens laufen quasi auf der selben Frequenz von 4,1 bis 4,2GHZ
durch die hohe IPC würden sich 400MHZ deutlich bemerkbar machen.
meinen kleinen 3600 hab ich gerade -0.025V weniger gegeben.
Temperatur ging von 80 auf 75 runter.
BlacKi
2019-07-26, 18:52:16
Wobei 200-400 MHz auch nicht den riesen Unterschied machen. ;) AMD muss einfach auf 5 GHz kommen. Oder noch mehr Cache einbauen.
Wahrscheinlich hat man den 3800X rausgebracht um halt mit vergleichbaren Intels besser dazustehen. Die kosten ja auch nicht unbedingt weniger.
Oder die kleinen Ryzens sind zu gut. ;)
man hat zwar versucht die ST performance durch den verdoppelten cache mit der 14% gaming ipc zu steigern, aber die negativen aspekte der cache verdoppelung sind viel gravierender. ohne sie, wäre ryzen 3000 zwar schwächer, aber wesentlich effizienter, günstiger und einfacher zu kühlen. wer weis, vl wäre dadurch auch mehr takt drin gewesen, aber zumindest mal mehr kerne.
Freestaler
2019-07-26, 19:04:12
Wieso das den? Hast du Daten dazu oder ist dies deine Interpretation? Gerade Kühler und Effizienz bezogen. Ich pers. denke das gerade die zusätzlich Cache also das Silizium hilft die Wärme abzuführen. Haben ja sonst kein Vergleich 7nm und vorallem AMD bei TSMC.
TwoBeers
2019-07-26, 19:26:41
ich finde das ist ein sehr großer unterschied.
leider ist es nicht möglich so hoch zu übertakten.
alle ryzens laufen quasi auf der selben Frequenz von 4,1 bis 4,2GHZ
durch die hohe IPC würden sich 400MHZ deutlich bemerkbar machen.
meinen kleinen 3600 hab ich gerade -0.025V weniger gegeben.
Temperatur ging von 80 auf 75 runter.
Ja, maximal gemeldete Temperatur geht runter, Takt aber auch. Tools können das manchmal nicht sehen, aber ist ja irgendwie logisch.
An den Zen 2 kann man nichts rumbasteln, kein Allcore OC/UV betreiben, man kann nur den maximalen Verbrauch eingrenzen und dadurch natürlich auch die maximale Performance.
BlacKi
2019-07-26, 19:45:45
Wieso das den? Hast du Daten dazu oder ist dies deine Interpretation? Gerade Kühler und Effizienz bezogen. Ich pers. denke das gerade die zusätzlich Cache also das Silizium hilft die Wärme abzuführen. Haben ja sonst kein Vergleich 7nm und vorallem AMD bei TSMC.
großer cache ist langsamer (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12031061#post12031061)
Cache ist da eigentlich optimal was Geschwindigkeit angeht, aber was Power Consumption und Skalierbarkeit anbelangt, ist man da gegenüber herkömmlichem DRAM im Nachteil. (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12031326#post12031326)
Matrix316
2019-07-26, 20:15:26
ich finde das ist ein sehr großer unterschied.
leider ist es nicht möglich so hoch zu übertakten.
alle ryzens laufen quasi auf der selben Frequenz von 4,1 bis 4,2GHZ
durch die hohe IPC würden sich 400MHZ deutlich bemerkbar machen.
meinen kleinen 3600 hab ich gerade -0.025V weniger gegeben.
Temperatur ging von 80 auf 75 runter.
Ich dachte jetzt man meint den Takt bei den alten Ryzens. Da war ja 4,2 max oder so.
Ich denke auch immer noch der 3700X (und 3600) ist eigentlich zu gut. Würde man den etwas einschränken hätte er der 3700 sein können. Und der 3800X der 3700X. Aber dann bitte auch mit dem alten Preisschema von 2700 und 2700X. ;) So ist der 3700X im Vergleich zum 2700X viel zu schnell um nur ein 3700 zu sein.
Linmoum
2019-07-26, 20:15:44
Ist schön, dass größerer Cache langsamer ist. Ist nur völlig irrelevant, da die Performance hier trotzdem spürbar steigt.
Es wäre übrigens schön, wenn du deine Behauptungen mit Fakten untermauern würdest. Also belastbare Zahlen, wie viel effizienter Zen2 denn wäre, wenn man den Cache nicht verdoppelt hätte. Oder wie viel kleiner genau denn das Chiplet bzw. CCX von Zen2 wäre, wenn man den L3 nicht verdoppelt hätte.
Mit Zen+ war der übrigens ~16mm² groß (das ganze CCX 60mm²), jetzt sind wir bei 31.3mm² für ein CCX. Für die Aufteilung gibt's keine konkrete Angabe von AMD (oder ich habe sie nur übersehen).
Tesseract
2019-07-26, 20:27:03
größerer cache ist nicht "langsamer", größerer cache hat mehr latenz aber dafür auch eine höhere hitrate und ist dadurch für die aufgaben die CPUs im normalfall machen in der regel auch "schneller". CPUs sind keine number cruncher, CPUs sind superscaler und sollen in möglichst vielen szenarien schnell sein. zum crunchen hat man GPUs, ASICs oder fixed function units.
Mangel76
2019-07-26, 20:31:01
IMO muss beides passieren, wenn man Intel souverän in Spielen besiegen will. Die Sunny Cove Kerne kommen zwar erst in einiger Zeit, aber die legen im Ernstfall nochmal ordentlich Leistung nach.
.
Weiß man schon, wie Spiele auf die neuen Kerne reagieren? Es gab Fälle, die stark profitierten, aber auch solche, wo die neue Arch langsamer als SKL war. Ist sicher, dass Spiele schneller laufen?
Freestaler
2019-07-26, 21:01:10
Blacki, kann dann der grössere l3 nicht durch Reduktion der Zugriffe auf den deutlich langsameren Ram dies locker ausgleichen? Und mmn. sollte er beim Kühlen helfen.
y33H@
2019-07-26, 21:03:15
Kleine Vorschau #1 auf 3600(X) inklusive 2600X und 1600X --- Spiele
67274 67275 67276 67277 67278
y33H@
2019-07-26, 21:03:55
Kleine Vorschau #2 auf 3600(X) inklusive 2600X und 1600X --- Anwendungen
67279 67280 67281 67282 67283
TwoBeers
2019-07-26, 21:07:34
Huih, nice, danke dir. :)
SKYNET
2019-07-26, 21:33:50
bei den 99th gibts kaum unterschiede bei den 6 zu 8 kernern... nur bei den avr, die eh vollkommen mumpitz sind und niemanden interessieren der ahnung hat. :)
in anwendungen siehts natürlich wieder anders aus, aber schön zu sehen das mein "downgrade" vom 2700X zum 3600 kaum negativen einfluss hat, hoffe bei cubase macht der ne ähnlich gute figur :)
Schnoesel
2019-07-26, 21:36:37
bei den 99th gibts kaum unterschiede bei den 6 zu 8 kernern... nur bei den avr, die eh vollkommen mumpitz sind und niemanden interessieren der ahnung hat. :))
Äh in Kingdom Come und Total war dropt der Intel 6 Kerner doch hart... Ah du meinst die AMD, ja die sind nahezu gleich :D
SKYNET
2019-07-26, 21:51:09
alt:
https://abload.de/img/ub_oldvekvi.png
neu:
https://abload.de/img/ub_newejjrn.png
https://abload.de/img/ub_cudkrn.png
Der User sieht das, und denkt: Ja mit dem i3-8350K bin ich bestens für die Zukunft gerüstet. Ist ja 3% "Effektiv" schneller.
Die sollten den Index nicht "effective CPU speed index" nennen, sondern "Single core gaming CPU speed index.
achtung festhalten... ;D ;D ;D
https://cpu.userbenchmark.com/Compare/Intel-Core-i3-8350K-vs-AMD-Ryzen-TR-2990WX/3935vsm560423
An den Zen 2 kann man nichts rumbasteln, kein Allcore OC/UV betreiben, man kann nur den maximalen Verbrauch eingrenzen und dadurch natürlich auch die maximale Performance
wäre ich mir nicht sicher
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=595831
BlacKi
2019-07-26, 22:28:00
Blacki, kann dann der grössere l3 nicht durch Reduktion der Zugriffe auf den deutlich langsameren Ram dies locker ausgleichen? Und mmn. sollte er beim Kühlen helfen.
hitze die nicht auf der cpu entsteht muss dort nicht weggekühlt werden.
hier sieht man wieviel cache an fläche kostet. man bedenke, das ryzen 3000 deutlich mehr cache hat als im video zu sehen. leider finde ich keine aufnahmen zum ryzen.
https://youtu.be/Mkfr3e8lyKY?t=1068
Schnoesel
2019-07-26, 22:37:52
Im FAQ steht eine Reaktion von Userbench:
https://cpu.userbenchmark.com/Faq/What-is-the-effective-CPU-speed-index/55
"AMD community
Shortly after the Ryzen 3000 release, which we welcomed emphatically, we noticed that our CPU gaming and desktop estimates were unrealistically overestimating CPUs with core counts beyond 8 so we corrected them. The underlying data points for single, quad and multi core performance remain unchanged and are clearly visible together with gaming, desktop and workstation scores on each of our pages. Back in the early days of the AMD FX-8350 our effective speed index was predominantly single core and at that time we were heavily lobbied with cries of "cores are only getting more and more relevant". We are constantly tuning and updating our effective speed indices to match the latest developments and will continue to do so independently. Presently we are aware that we slightly overestimate the latest batch of AMD 5700 graphics cards but, unsurprisingly, nobody is crying fire and continuously spamming us about that. "
Linmoum
2019-07-26, 22:42:47
Lol, vorhin stand da unter "More than four cores are nice to have" noch
Higher core counts are only useful after the first four cores are fully utilized.
Warum haben sie das wohl geändert? Komplett planlos samt Bankrotterklärung. ;D
TwoBeers
2019-07-26, 23:06:49
Komplett planlos samt Bankrotterklärung. ;D
Bankrott wohl nicht dank neuer Server und Taschengeld von Intel. ;D
myMind
2019-07-26, 23:18:10
.., we noticed that our CPU gaming and desktop estimates were unrealistically overestimating CPUs with core counts beyond 8 so we corrected them.
Nur, wie haben sie gemerkt, dass sie etwas falsch einschätzen? Dazu müssen sie selbst Referenzmessungen in den Spielen machen.
Linmoum
2019-07-26, 23:30:11
Dann würden sie aber feststellen, dass z.B. ein 9900K dem 7700K um einiges davon zieht dafür, dass ja angeblich bei vier Kernen Schluss ist.
basix
2019-07-26, 23:46:41
Cache ist da eigentlich optimal was Geschwindigkeit angeht, aber was Power Consumption und Skalierbarkeit anbelangt, ist man da gegenüber herkömmlichem DRAM im Nachteil. (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12031326#post12031326)
Du hast mich da falsch verstanden :) Mehr Cache ist eigentlich immer besser was Bandbreite und Latenz angeht. Man kann halt keine Gigabyte davon verbauen, weil der Flächenbedarf und der Stromverbrauch durch die Decke geht. Das meinte ich mit Skalierbarkeit. Mit DRAM passiert das nicht, ist aber deutlich langsamer. Bei ähnlichen Performance-Werten wie Cache wäre DRAM ausserdem einiges ineffizienter. Deswegen Processing in Memory (PiM), damit man die Datenlokalität nochmals steigern kann: Möglichst wenige Daten hin und her schieben ;) Dann noch den DRAM oben drauf stacken und viel besser geht es dann nicht mehr. Ausser man bringt so exotische Konzepte wie Quantenverschränkung ins Spiel, wo man die Daten nicht mal mehr verschieben müsste :D
Schnoesel
2019-07-26, 23:55:20
Sie haben noch mehr "Intelligentes" von sich gegeben, habe das gar nicht mitbekommen aber das ist ein Highlight:
https://www.computerbase.de/forum/threads/userbenchmark-aenderung-des-cpu-speed-index-sorgt-fuer-viel-kritik.1884293/page-11#post-22930893
"Die dargelegte Meinung geht sogar soweit, dass behauptet wird, dass „für typische Verbraucheranwendungsfälle“ jeder weitere Kern nach dem ersten „zunehmend weniger relevant“ werde. Auf „einem gut gewarteten PC“ würden „nur bei Workstation-Anwendungen mit hohem Thread-Aufkommen“ vier Kerne überhaupt vollständig ausgelastet."
TwoBeers
2019-07-27, 00:07:44
What? Welcher Doktor hat denn das von sich gelassen? Kann man das bitte noch mehr akademischer ausdrücken? Ich kenne Leute, die das im Schlaf verstehen.:cool:
Ich leider nicht. :freak:
Unicous
2019-07-27, 00:37:47
Allein schon dass sie den Abschnitt "AMD community" betiteln zeigt woher der Wind weht.
Sie hätten auch gleich schreiben können: "An die AMD fanbois *zwinkersmiley*"
Das ist zutiefst herablassend und der Fakt, dass i3 und i5 andere Chips mit mehr Kernen schlagen (egal ob Intel oder AMD) zeigt doch, dass das Ganze ein vollkommener Schuss in den Ofen ist.:freak:
myMind
2019-07-27, 01:10:06
Dann würden sie aber feststellen, dass z.B. ein 9900K dem 7700K um einiges davon zieht dafür, dass ja angeblich bei vier Kernen Schluss ist.
Im Einzelfall tun sie das auch.
Beispiel Witcher 3. Für beide CPUs in brauchbarer Menge vorhanden sind Messungen mit der 1080 Ti.
9900K (https://www.userbenchmark.com/PCGame/FPS-Estimates-The-Witcher-3--Wild-Hunt/3855/251565.605967.Max.1440p.0) > 98,3 FPS
7700K (https://www.userbenchmark.com/PCGame/FPS-Estimates-The-Witcher-3--Wild-Hunt/3855/251565.178732.Max.1440p.0) > 82,3 FPS
Passt im Endeegebnis gefühlt auch gar nicht so schlecht (https://cpu.userbenchmark.com/Compare/Intel-Core-i9-9900K-vs-Intel-Core-i7-7700K/4028vs3647).
Beim Ryzen X 3xxx gibt es 1 einziges Sample unter diesen Randbedingungen.
Ryzen 5 3600X (https://www.userbenchmark.com/PCGame/FPS-Estimates-The-Witcher-3--Wild-Hunt/3855/251565.837264.Max.1440p.0) > 82 FPS
Die Datenbasis bei den FPS samples ist ultradünn. Kein Vergleich zum Userbench selbst. Und die Varianzen sind groß. Aber prinzipiell müsste das die Datenbasis sein, mit der sie herausfinden, ob ihre FPS Estimates plausibel sind.
Hier mal ein Negativbeispiel:
PUBG, 1080 Ti
6700K (https://www.userbenchmark.com/PCGame/FPS-Estimates-PlayerUnknowns-Battlegrounds/3944/251565.32631.Max.1440p.0) > 94,6 FPS
7700K (https://www.userbenchmark.com/PCGame/FPS-Estimates-PlayerUnknowns-Battlegrounds/3944/251565.178732.Max.1440p.0) > 86,1 FPS
Auffällig ist auch, wie wenig der neue Ryzen Prozessor in den Samples überhaupt vorkommt. Das sind nur eine Handvoll Messungen.
Zossel
2019-07-27, 07:57:41
großer cache ist langsamer (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12031061#post12031061)
Nein, Cachegrößen sind ein Designtradeoff.
Sieht man zum Beispiel daran das der I-Cache zugunsten eines größeren µOP-Cache verkleinert wurde.
taddy
2019-07-27, 08:10:15
Die Seite ist tot, wisst ihr, was noch lustiger ist als UB selbst? Die Leute die bei CB erzählen, dass UB richtig liegt
Freestaler
2019-07-27, 08:53:31
Mymind, und der 8086k macht 115fps (17% mehr als ein 9900k), also mehr als... Die Zahlen sind Zufall.. da passt nichts. https://www.userbenchmark.com/PCGame/FPS-Estimates-The-Witcher-3--Wild-Hunt/3855/251565.516988.Max.1440p.0 oder 4790k macht 89, also mehr als der 7700k.. https://www.userbenchmark.com/PCGame/FPS-Estimates-The-Witcher-3--Wild-Hunt/3855/251565.11601.Max.1440p.0
Aber mal ehrlich, ub gesamtrating war doch auch vor dem Change schon ne schlechte Basis. Jetzt ist einfach offensichtlich. Vergleiche innerhalb der selben Arch und Word/Excel Leistung lässt sich erahnen, für den Rest unbrauchbar.
SKYNET
2019-07-27, 10:07:31
Wobei 200-400 MHz auch nicht den riesen Unterschied machen. ;) AMD muss einfach auf 5 GHz kommen. Oder noch mehr Cache einbauen.
Wahrscheinlich hat man den 3800X rausgebracht um halt mit vergleichbaren Intels besser dazustehen. Die kosten ja auch nicht unbedingt weniger.
Oder die kleinen Ryzens sind zu gut. ;)
doch, weil ryzen 2000 hat doppelt profitiert... mehr takt und weil die speicherlatenz linear bis ca. 4375 sank, dadrüber wurde die kurve dann degressiv, brache von 4375 auf 4500 nur 0.1ns bei mir, aber von 4250 auf 4375 zb. 1ns :cool:
myMind
2019-07-27, 10:46:31
Mymind, und der 8086k macht 115fps (17% mehr als ein 9900k), also mehr als... Die Zahlen sind Zufall.. da passt nichts. https://www.userbenchmark.com/PCGame/FPS-Estimates-The-Witcher-3--Wild-Hunt/3855/251565.516988.Max.1440p.0 oder 4790k macht 89, also mehr als der 7700k.. https://www.userbenchmark.com/PCGame/FPS-Estimates-The-Witcher-3--Wild-Hunt/3855/251565.11601.Max.1440p.0
Aber mal ehrlich, ub gesamtrating war doch auch vor dem Change schon ne schlechte Basis. Jetzt ist einfach offensichtlich. Vergleiche innerhalb der selben Arch und Word/Excel Leistung lässt sich erahnen, für den Rest unbrauchbar.
Ich sehe es so, dass der eine Teil beim Userbench wirklich klasse ist und das ist die Datenbasis für einzeln gemessene Komponentenleistungen. Man kann super sehen, wo man relativ zur gleichen Komponente in andern Systemen liegt. Für grobe Vergleiche Altsysteme- Neusysteme ist das auch wunderbar zu gebrauchen. Und auch die gegebenen Tipps sind erstaunlich wertvoll.
Was nicht so gut zu funktionieren scheint, sind die Rückschlüsse für Fragen wie "Wie gut ist mein System für Spiele geeignet?". Wie man auch an deinem 8086k Beispiel sieht sind die veröffentlichten Ingame-FPS-Samples jedenfalls sehr sehr dürftig. Wo sie herkommen ist unklar. Wenn dann so Aussagen kommen wie "durch Messungen mit dem neuen Ryzen haben wir neue Erkenntnisse" dann frage ich mich, wo denn diese Daten sind. Veröffentlicht sind sie jedenfalls nicht.
Im Grunde liefern sie allen die sagen, dass die GCPU-Ergebnisse gekauft sind Futter, weil sie nicht klarstellen, wie sie das Mapping von Userbench-Werten auf Ingame-FPS-Samples machen. Es ist für mich aber vorstellbar, dass sie sich die Ingame-Sample-Daten, die sie letzten Endes benutzen, anderweitg besorgen, gar nicht veröffentlichen und deshalb ein Problem damit haben, mehr Transparenz zu zeigen.
robbitop
2019-07-27, 10:50:56
Wieso das den? Hast du Daten dazu oder ist dies deine Interpretation? Gerade Kühler und Effizienz bezogen. Ich pers. denke das gerade die zusätzlich Cache also das Silizium hilft die Wärme abzuführen. Haben ja sonst kein Vergleich 7nm und vorallem AMD bei TSMC.
Nicht nur das. Je Signalübertragung kostet Energie. Je mehr Datenlokalität desto weniger weit die Strecke. Desto weniger Energie verbraucht man.
BlacKi
2019-07-27, 10:56:26
Du hast mich da falsch verstanden :) Mehr Cache ist eigentlich immer besser was Bandbreite und Latenz angeht. Man kann halt keine Gigabyte davon verbauen, weil der Flächenbedarf und der Stromverbrauch durch die Decke geht. Das meinte ich mit Skalierbarkeit. Mit DRAM passiert das nicht, ist aber deutlich langsamer. Bei ähnlichen Performance-Werten wie Cache wäre DRAM ausserdem einiges ineffizienter. Deswegen Processing in Memory (PiM), damit man die Datenlokalität nochmals steigern kann: Möglichst wenige Daten hin und her schieben ;) Dann noch den DRAM oben drauf stacken und viel besser geht es dann nicht mehr. Ausser man bringt so exotische Konzepte wie Quantenverschränkung ins Spiel, wo man die Daten nicht mal mehr verschieben müsste :D
mein punkt ist, statt 25% der fläche mit zusätlichem ram zuzukleistern, wäre es für anwendungen effizienter gewesen, die fläche für weitere kerne zu verwenden. viele anwendungen skalieren mit der kernzahl 1 zu1, daher wäre der tradeoff zu mehr kerne, statt verdoppelung des caches ausgefallen. ich finde zwar, das die spiele sowieso genug kerne haben, aber anwendungsbasiert ist der doppelte cache eher ein nachteil.
robbitop
2019-07-27, 11:06:33
großer cache ist langsamer (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12031061#post12031061)
Cache ist da eigentlich optimal was Geschwindigkeit angeht, aber was Power Consumption und Skalierbarkeit anbelangt, ist man da gegenüber herkömmlichem DRAM im Nachteil. (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12031326#post12031326)
Was Powerconsumption angeht meinte er sicherlich dass DRAM bei gleier Entfernung besser ist als SRAM. Ggf weniger bit pro Zelle als Ursache?
Aber je weiter die Wege, desto mehr Energie braucht das Signal, damit es noch sinnvoll ankommen kann.
Sieht man ja auch sehr schön an GPUs und deren Entwicklung der letzten Jahre. Auch im Mobilebereich. Ein wesentlicher Teil der Effizienzsteigerung kommt von Datenlokalität. Also auch größere Caches.
Auch ist die Energiedichte von SRAM verglichen mit dem Logikteil einer COU recht klein. Ich würde sagen, der Einfluss auf die Wärmeabführung selbst ist vermachlässigbar. Silizium ist leider auch kein guter Wärmeleiter. Entsprechend wird dessen Fläche auch kaum bei der Verteilung der Energie aus dem Core helfen.
Weiß man schon, wie Spiele auf die neuen Kerne reagieren? Es gab Fälle, die stark profitierten, aber auch solche, wo die neue Arch langsamer als SKL war. Ist sicher, dass Spiele schneller laufen?
IIRC waren Intels Angaben bis dato eigentlich immer ziemlich realistisch was - auch was Spiele betrifft.
BlacKi
2019-07-27, 11:14:57
Was Powerconsumption angeht meinte er sicherlich dass DRAM bei gleier Entfernung besser ist als SRAM. Ggf weniger bit pro Zelle als Ursache?
Aber je weiter die Wege, desto mehr Energie braucht das Signal, damit es noch sinnvoll ankommen kann.
Sieht man ja auch sehr schön an GPUs und deren Entwicklung der letzten Jahre. Auch im Mobilebereich. Ein wesentlicher Teil der Effizienzsteigerung kommt von Datenlokalität. Also auch größere Caches.
ja, aber der massiv größere cache bringt eben nur 14-15%. absolut gesehen ist der stromverbrauch mit kleinerem cache vl größer, aber er findet nicht auf dem Die statt, muss dort also nicht weggekühlt werden. ein nebeneffekt ist wohl auch, das die cpu länger warten muss, ergo auch weniger rechnet, das führt dann zu niedrigerem verbrauch (rein auf den Die gesehen) und hitze, genau ebendeswegen, weil weniger gerechnet wird, bzw. langsamer wird.
Freestaler
2019-07-27, 11:27:22
Durch die grösseren Cache wird die IPC höher und die kerne kühlbarer. Auch sind Fehler im Silizium im Cache mit leichter überprovisionierung easy händelbar. Und wenn ich sehe, wie jetzt schon am TDP limit agiert wird, kann ich mir nicht vorstellen, dass hier mehre Kerne je chiplet die Lösung wären inkl. den höheren Temp. ( Müsste ja ein weiterer ccx also 4 kerne sein)
Linmoum
2019-07-27, 11:34:22
ja, aber der massiv größere cache bringt eben nur 14-15%. absolut gesehen ist der stromverbrauch mit kleinerem cache vl größer, aber er findet nicht auf dem Die statt, muss dort also nicht weggekühlt werden. ein nebeneffekt ist wohl auch, das die cpu länger warten muss, ergo auch weniger rechnet, das führt dann zu niedrigerem verbrauch (rein auf den Die gesehen) und hitze, genau ebendeswegen, weil weniger gerechnet wird, bzw. langsamer wird.Wo muss das denn sonst weggekühlt werden? :confused: Und wie kommst du auf "massiv größeren Cache"?
Bei Zen+ war der L3 16mm² groß.
Bei Zen2 ist ein CCX inkl. L3 31,3mm² groß.
Oder beziehst du das einfach nur auf 32MiB vs. 16Mib? Dann ist das aber sinnlos, ohne die genaue Größe bei Zen2 zu kennen. Die sich allerdings nicht viel vom L3 bei Zen+ unterscheiden dürfte. Wenn überhaupt.
Gipsel
2019-07-27, 11:42:26
mein punkt ist, statt 25% der fläche mit zusätlichem ram zuzukleistern, wäre es für anwendungen effizienter gewesen, die fläche für weitere kerne zu verwenden. viele anwendungen skalieren mit der kernzahl 1 zu1, daher wäre der tradeoff zu mehr kerne, statt verdoppelung des caches ausgefallen.Noch mehr Kerne?!? Hattest Du nicht auch schon mal geschrieben, daß heutzutage kaum einer mehr Kerne benötigt und man lieber schnellere Kerne benötigt (und zählt für Dich nicht sowieso nur Spieleleistung)? Wem wäre denn geholfen, wenn AMD 25% mehr Kerne anbieten würde, also bis zum 20-Kerner, die dafür aber 14-15% pro Kern langsamer wären (und insgesamt auf gleichem Takt wohl 20% mehr Strom ziehen würden)? Richtig, praktisch keiner.
ich finde zwar, das die spiele sowieso genug kerne haben,Siehst Du!aber anwendungsbasiert ist der doppelte cache eher ein nachteil.Wie das denn? Allerhöchstens in einer kleinen Nische, gemittelt über viele Anwendungsszenarien sicher nicht.
ja, aber der massiv größere cache bringt eben nur 14-15%. absolut gesehen ist der stromverbrauch mit kleinerem cache vl größer, aber er findet nicht auf dem Die statt, muss dort also nicht weggekühlt werden.Der Großteil des Stromverbrauchs von externem Speicher findet in den Interfaces statt, also nein.
ein nebeneffekt ist wohl auch, das die cpu länger warten muss, ergo auch weniger rechnet, das führt dann zu niedrigerem verbrauch (rein auf den Die gesehen) und hitze, genau ebendeswegen, weil weniger gerechnet wird, bzw. langsamer wird.Oder die OoOE-Logik schiebt Extraschichten und spekuliert sich beinahe umsonst fast zu Tode, was ebenfalls Strom kostet. Daten schnell zu bekommen spart Energie im Kern für die Erledigung einer Aufgabe (Energieeffizienz steigt).
Windi
2019-07-27, 12:00:47
Mit 75mm2 sind die Chiplets auch Recht klein. Hätte man nicht die Caches vergrößert, dann wären sie halt noch kleiner geworden. Aber wofür? Die Chiplets sind relativ günstig in der Herstellung, das wäre nicht nötig gewesen.
Hätte man stattdessen die Anzahl der Kerne erhöht? Wahrscheinlich nicht. 8 Kerne sind langfristig einfach eine gute Anzahl für den Mainstream, für den normalen HighEnd werden 16 Kerne auch erst einmal reichen. Ich sehe momentan noch keinen Grund auf 12 Kerne pro Chiplet zu gehen.
AMDs Aufgabe ist es erst einmal die Leistung der einzelnen Kerne zu steigern.
Es gibt einfach noch genügend Software, die 8c/16t nicht richtig nutzt, geschweige denn 16c/32t. Auch SMT scheint generell noch nicht gut unterstützt zu werden.
Und für Leute die wirklich noch mehr Kerne nutzen wollen gibt es Epyc und Threadripper.
Die Sache ist nun einmal die, dank der Chiplets kann AMD die Anzahl der Kerne Recht günstig erhöhen. Jetzt irgendwelche Nachteile einzugehen, damit man mehr Kerne auf das Chiplet pressen kann, macht überhaupt keinen Sinn.
So ein Chiplet kostet in der Herstellung vielleicht 15€ und die Kundschaft, die mehr Kerne braucht, ist auch bereit dafür zu bezahlen. Deshalb steigen auch die Verkaufspreise deutlich stärker, als die Produktionskosten. Zwischen einem Ryzen 3600 und 3950X liegen gerade einmal 15€ in der Herstellung.
BlacKi
2019-07-27, 12:51:02
Noch mehr Kerne?!? Hattest Du nicht auch schon mal geschrieben, daß heutzutage kaum einer mehr Kerne benötigt und man lieber schnellere Kerne benötigt (und zählt für Dich nicht sowieso nur Spieleleistung)? Wem wäre denn geholfen, wenn AMD 25% mehr Kerne anbieten würde, also bis zum 20-Kerner, die dafür aber 14-15% pro Kern langsamer wären (und insgesamt auf gleichem Takt wohl 20% mehr Strom ziehen würden)? Richtig, praktisch keiner.
Siehst Du!Wie das denn? Allerhöchstens in einer kleinen Nische, gemittelt über viele Anwendungsszenarien sicher nicht.
Der Großteil des Stromverbrauchs von externem Speicher findet in den Interfaces statt, also nein.
Oder die OoOE-Logik schiebt Extraschichten und spekuliert sich beinahe umsonst fast zu Tode, was ebenfalls Strom kostet. Daten schnell zu bekommen spart Energie im Kern für die Erledigung einer Aufgabe (Energieeffizienz steigt).
ich überlese mal den rest, ich hab schon vorher mehrmals gesagt: rein auf anwendungsbasis gesehen!
effektiv auf zeit gesehen braucht eine cpu mit kleinerem cache pro kern weniger strom, weil langsamer. effektiv pro aufgabe wohl weniger. d.h. ein zen2 mit halbem cache würde weniger verbrauchen, aber auch weniger schnell sein. ausserdem umso höher die IPC, umso wärmer wird auch der kern. weil er kann durch den größeren cache mehr rechenaufgaben durchdrücken pro zeit. stromverbrauch und effizienz muss man getrennt betrachten.
letztendlich gibt es nicht zuviel kerne, sonst gäbs nicht den 64c epyc.
Mit 75mm2 sind die Chiplets auch Recht klein. Hätte man nicht die Caches vergrößert, dann wären sie halt noch kleiner geworden. Aber wofür? Die Chiplets sind relativ günstig in der Herstellung, das wäre nicht nötig gewesen.
nur um mal ein paar sachen anzuführen.
80 core Epyc?
höhere produktionszahlen
vl noch niedrigere ausschusskosten
65w 12c und 95w 16c
höhere boostraten(speziell bei den größeren cpus über 8c)
hätte zen+ den doppelten cache, wäre die cpu ebenfalls heißer und stromhungriger, aber eben auch schneller. man hätte schon 2017/18 den cache deutlich vergrößern können. damals scheint man einfach andere ziele gehabt zu haben.
nichts desto trotz bin ich eurer meinung das die cacheverdoppelung eine positive entwicklung ist, auch wenn sie nur ein tradeoff ist.
SKYNET
2019-07-27, 12:54:00
Mit 75mm2 sind die Chiplets auch Recht klein. Hätte man nicht die Caches vergrößert, dann wären sie halt noch kleiner geworden. Aber wofür? Die Chiplets sind relativ günstig in der Herstellung, das wäre nicht nötig gewesen.
Hätte man stattdessen die Anzahl der Kerne erhöht? Wahrscheinlich nicht. 8 Kerne sind langfristig einfach eine gute Anzahl für den Mainstream, für den normalen HighEnd werden 16 Kerne auch erst einmal reichen. Ich sehe momentan noch keinen Grund auf 12 Kerne pro Chiplet zu gehen.
AMDs Aufgabe ist es erst einmal die Leistung der einzelnen Kerne zu steigern.
Es gibt einfach noch genügend Software, die 8c/16t nicht richtig nutzt, geschweige denn 16c/32t. Auch SMT scheint generell noch nicht gut unterstützt zu werden.
Und für Leute die wirklich noch mehr Kerne nutzen wollen gibt es Epyc und Threadripper.
Die Sache ist nun einmal die, dank der Chiplets kann AMD die Anzahl der Kerne Recht günstig erhöhen. Jetzt irgendwelche Nachteile einzugehen, damit man mehr Kerne auf das Chiplet pressen kann, macht überhaupt keinen Sinn.
So ein Chiplet kostet in der Herstellung vielleicht 15€ und die Kundschaft, die mehr Kerne braucht, ist auch bereit dafür zu bezahlen. Deshalb steigen auch die Verkaufspreise deutlich stärker, als die Produktionskosten. Zwischen einem Ryzen 3600 und 3950X liegen gerade einmal 15€ in der Herstellung.
wenn sonen teil 15€ kosten würde, würde AMD fast soviel gewinn wie umsatz machen... kannste also knicken, weil zu der herstellung gehören auch die entwicklungskosten... der reine materialwert sind evtl. 15, aber das wars auch dann schon.
Thunder99
2019-07-27, 14:12:20
Nach dem Test vom 3600X/3800X wird es wenn doch ein 3700X :freak:
Welches + an Performance könnte ich bei ST und MT erwarten, wohl genommen Spiele :wink: . Leider finde ich kein Vergleich gegen mein E3 1230v3
BeetleatWar1977
2019-07-27, 14:15:41
Nach dem Test vom 3600X/3800X wird es wenn doch ein 3700X :freak:
Welches + an Performance könnte ich bei ST und MT erwarten, wohl genommen Spiele :wink: . Leider finde ich kein Vergleich gegen mein E3 1230v3
https://www.youtube.com/watch?v=UpyDZ7oPZTw&t=1107s
suchst du so was?
dildo4u
2019-07-27, 14:20:51
vGNG9AZKtsg
Unicous
2019-07-27, 14:22:01
"Ich überlese mal den Rest" ist wohl Blackis choix de vie.:rolleyes:
Da wird ihm lang und breit erklärt, warum er falsch liegt und dass er die Zitate für seine Zwecke falsch interpretiert hat und es kommt ein schnödes "Ich überlese mal den Rest".:freak:
Thunder99
2019-07-27, 14:36:44
https://www.youtube.com/watch?v=UpyDZ7oPZTw&t=1107s
suchst du so was?
Optimal, danke :D :)
Freestaler
2019-07-27, 14:46:28
Blacki, wenn die core weniger ipc haben rechnen sie an der gleichen Aufgabe länger, und brauchen somit länger Strom, auch wenn ein bisschen weniger.. und der io Chip braucht wegen Ram Zugriff noch mehr (tiefere hitrate). Sackgasse. Cache ist meistens kein Tradeoff, sondern schlicht teuer
BlacKi
2019-07-27, 14:52:35
"Ich überlese mal den Rest" ist wohl Blackis choix de vie.:rolleyes:
war nicht auf die technischen erklärungen bezogen. sondern auf meine angeblichen wiedersprechungen
Blacki, wenn die core weniger ipc haben rechnen sie an der gleichen Aufgabe länger, und brauchen somit länger Strom, auch wenn ein bisschen weniger.. und der io Chip braucht wegen Ram Zugriff noch mehr (tiefere hitrate). Sackgasse. Cache ist meistens kein Tradeoff, sondern schlicht teuer
wie du meinst. es passt nur nicht zu meiner these, das man so schon früher schellere cpus hätte produzieren können. und eurer these nach, hätte es nur vorteile gebracht schon ze(+) mit deutlich mehr cache auszustatten.
ich sehe das deshalb anders, aber so ist das eben halt.
Freestaler
2019-07-27, 15:10:14
Wo ist die These das man früher schnellere CPU bauen hätte können? "Wie du meinst" ist ne nette Aussage. Wie soll man in einem Forum diskutieren wenn du "den Rest nicht lesen willst" und wie du meinst als Argument nimmst. Komm schon. Du sagt doch, das man effizientere und schneller bauen könnte, wenn man die Caches kleiner wählt dafür mehr Cores, nur eben das glaube icht nicht. Den dir verhungert die CPU am Speicherinterfaces bzw. sie wartet länger auf Daten (Ram anstatt L3). Damit Rechnet sie länger am gleichen. Dies ist nicht effizienter. Deine "negativen Aspekte" der Cache vergrösserung sehen wir nicht und du kannst sie nicht erläutern bzw. Herleiten.
BlacKi
2019-07-27, 15:33:07
Wo ist die These das man früher schnellere CPU bauen hätte können?
zen1(+) mit doppeltem cache?
Du sagt doch, das man effizientere und schneller bauen könnte, wenn man die Caches kleiner wählt dafür mehr Cores, nur eben das glaube icht nicht. Den dir verhungert die CPU am Speicherinterfaces bzw. sie wartet länger auf Daten (Ram anstatt L3). Damit Rechnet sie länger am gleichen. Dies ist nicht effizienter. Deine "negativen Aspekte" der Cache vergrösserung sehen wir nicht und du kannst sie nicht erläutern bzw. Herleiten.
1. die verdoppelung des cache hilft nur auf einem teil der rechenoperationen zu.
2. der core rechnet nicht, wenn sie wartet. das ist der punkt, wo ich meine das sie sparsamer wird. weil sie warten muss kann sie nicht rechnen, ergo geringerer verbrauch weil weniger gearbeitet pro zeit. effizienter wird die rechenoperation schon. aber verbraucht pro zeit dabei mehr(arbeitet in der gleichen zeit auch mehr, das nennt man dann effizienter).
ich hab die sachen aber schon mehrmals erwähnt. du kannst also nicht sagen, das ich nicht diskutieren will. es wird garnicht versucht zu verstehen was ich meinte. deshalb fehlt mir solangsam einfach die motivation hier weiter zu machen.
Freestaler
2019-07-27, 15:40:50
Der Cacheverdoppelung hilft bei den meisten Workloads. Du sagst das 20 Cores mit 90% Auslastung (warten 10% auf Ram) effizienter sind als 16 mit 100%? Das wird jedoch auch von Gispel verneint, insbesondere weil Ram Zugriff mehr energie braucht als l3. Die pro Core effizenz alleine kann man ja auch nicht isoliert anschauen, wenn ich mehr davon brauche für die Arbeit. Offensichtlich verstehen wir dich alle nicht.
robbitop
2019-07-27, 16:04:25
ja, aber der massiv größere cache bringt eben nur 14-15%. absolut gesehen ist der stromverbrauch mit kleinerem cache vl größer, aber er findet nicht auf dem Die statt, muss dort also nicht weggekühlt werden. ein nebeneffekt ist wohl auch, das die cpu länger warten muss, ergo auch weniger rechnet, das führt dann zu niedrigerem verbrauch (rein auf den Die gesehen) und hitze, genau ebendeswegen, weil weniger gerechnet wird, bzw. langsamer wird.
Natürlich fällt Verbrauch am DIE an. Die Interfaces.
Ob die Wartezyklen das kompensieren, was an Strom in die Interfaces angeht, weiß wahrscheinlich nur AMD. Perf/W und damit Effizienz steigt in jedem Fall.
eratte
2019-07-27, 16:07:56
deshalb fehlt mir solangsam einfach die motivation hier weiter zu machen.
Das wäre klasse, weil dein suchen nach negativen Aspekten hier im Thread nervig ist. Warum stellst diese Thesen nicht bei den intel Threads im Spekulationsteil?
Freestaler
2019-07-27, 17:08:10
Eratte, das ist jetzt auch nicht fair. Im Intelthread ist im moment ja tot, daher ist doch richtig mal hier zu posten. Auch wenn es eine sehr allgemeine Diskussion ist (Intel und Amd cpu sind da gleichwertig im Aufbau)
BlacKi
2019-07-27, 17:13:41
Der Cacheverdoppelung hilft bei den meisten Workloads. Du sagst das 20 Cores mit 90% Auslastung (warten 10% auf Ram) effizienter sind als 16 mit 100%? Das wird jedoch auch von Gispel verneint, insbesondere weil Ram Zugriff mehr energie braucht als l3. Die pro Core effizenz alleine kann man ja auch nicht isoliert anschauen, wenn ich mehr davon brauche für die Arbeit. Offensichtlich verstehen wir dich alle nicht.
ich glaube ein 3950x mit 72mb cache wird effizienter sein als ein 3900x mit 70mb (selbst mit 1 kern weniger um bei den 25% zu bleiben) beim selben takt (selbst beim selben PT) in anwendungen. aber nicht wegen den 2mb mehr l2 cache ;) der vergleich passt zwar nicht perfekt, aber für das auf was ich hinausmöchte reichts. der 3900x hat deutlich mehr cache zur verfügung pro kern als der 3950x, das wird aber nicht das fehlen der kerne ausgleichen können. vl wars jetzt verständlicher. der extra l3 cache gleicht keine 3 extra kerne aus in anwendungen.
Das wäre klasse, weil dein suchen nach negativen Aspekten hier im Thread nervig ist. Warum stellst diese Thesen nicht bei den intel Threads im Spekulationsteil?
hab ich nicht. ich hab mich nur erklären wollen. so wie ich es schon gefühlt 5x sagte, im grunde gibt mehr positive effekte durch den großen cache.
ich finde nur, das die negativen effekte nicht erwähnt werden, weil angeblich nicht vorhanden. auf die frage warum zen nicht schon früher mit dem großen cache kam, gibts auch keine vernünftige anwort von den leuten. das einzigste argument war, das cache verdoppelung die cpu teurer macht. aber das hätte es früher schon getan und tut es heute immernoch. hätte man damals die höhere ipc nicht gebrauchen können?
basix
2019-07-27, 17:52:20
Eigentlich ist ja einfach was Blacki sagen will: Pro mm2 wird ein zusätzlicher Kern mehr Leistung liefern als wenn der gleiche mm2 für Cache verwendet würde.
Hoffe das ist richtig so ;)
Sam Pau
2019-07-27, 17:52:28
Zum Thema Temperaturen. Ich verwende einen 3700X mit einem Thermalright ARO-M14. Dieser hat im Gegensatz zu den meisten Luftkühlern eine plane Auflagefläche.
Wahrscheinlich ist Abschleifen des HS und ein Kühler mit echt planer Abnahme garniert mit einem Hauch einer sehr viskosen Paste wieder die richtige Variante.
Evtl. sieht man hier verstärkt, dass die AMD IHS konvex und die Intel IHS konkav sind?!
Die meisten Kühler werden halt von der Auflagefläche eher für Intel optimiert, weshalb die nicht selten auch eher konvex sein sollten.
Konvexer IHS + Konvexe Auflagefläche vom Kühler fällt bei ner mittigen Wärmequelle doch weniger auf, weshalb das bisher zumeist absolut wurscht war. (Vorallem bei nem verlöteten IHS)
Dies ist ein interessantes Thema, welches meiner Meinung nach etwas zu wenig Beachtung findet.
Ich habe hier einen neuen Le Grand Macho liegen und dieser ist auch ziemlich stark konvex.
Über Thermalright liest man nicht nur hier über Probleme, sondern drüben bei overclockers auch. Gibt es wirklich keine Liste/Erfahrungen welche Kühler denn nun plan sind?
Wie sieht es mit Noctua, Phantek und BeQuiet aus?
Hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12044122#post12044122) wurde das Thema auch kurz angerissen.
Und auf Planschleifen und verlorene Garantie habe ich zumindest am Anfang keine Lust.
Freestaler
2019-07-27, 17:54:42
Also 3900x vs 3950x @ 3Ghz und dann Stromzähler an? Wäre da nicht auch 3700x vs 3700x mit 1 deaktivierten core @ 3Ghz das gleiche für nen test?
Windi
2019-07-27, 18:11:37
wenn sonen teil 15€ kosten würde, würde AMD fast soviel gewinn wie umsatz machen... kannste also knicken, weil zu der herstellung gehören auch die entwicklungskosten... der reine materialwert sind evtl. 15, aber das wars auch dann schon.
Natürlich meine ich nur die reinen Produktionskosten, die hängen halt stark von der Größe des Chips ab.
Die ganzen Forschungs- und Entwicklungskosten müssen noch aufgeschlagen werden. Aber, die sind halt sehr flexibel. Je nachdem was der Kunde bereit ist zu zahlen, kann man unterschiedlich viel auf die Produkte umlegen.
Bei Zen1 haben wir es ja auch gesehen. CPU und APU sind fast gleich groß und alle Prozessoren basierten auf diese beiden Chips. Trotzdem reicht die Preisspanne von 50€ für den kleinen Athlon bis hin zu 300€ für den schnellsten Ryzen 2700X. In der Herstellung waren beide allerdings gleich teuer, so viel Ausschuss hat AMD sicher nicht gehabt.
Auch bei Ryzen 3000 sieht man ähnliches. Der Unterschied zwischen dem Ryzen 3600 und dem 3950X ist gerade einmal ein Chiplet. Preislich trennt beide aber 600€.
Es ging hier ja darum, das der Platz auf dem Silizium so teuer wäre. Genau dem habe ich wiederspochen. Dank den Chiplets braucht man keine gigantischen Chips, bei denen die Kosten explodiert wären. Die Chiplets sind kostengünstig herzustellen und man muss nur so viele nehmen, wie viel man auch wirklich benötigt. Die Teile sind schließlich nur 75mm2. Wenn man jetzt die Leistung pro Kern merkbar steigern kann, indem man die Chipfläche etwas für größere Caches erweitert, dann ist das gar nicht so schlimm.
Eigentlich ist ja einfach was Blacki sagen will: Pro mm2 wird ein zusätzlicher Kern mehr Leistung liefern als wenn der gleiche mm2 für Cache verwendet würde.
Hoffe das ist richtig so ;)
Nur kann die meiste Software mit so vielen Kernen gar nicht richtig umgehen. Da kommt dann von der theoretischen Zusatzleistung kaum noch etwas an. Von mehr Leistung pro Kern kommt hingegen immer etwas an.
Und für den Mainstream reichen 8 Kerne ja locker aus. Da jetzt 12 zu verbauen wäre Verschwendung, gerade bei den günstigen Modellen. Für die teureren Prozessoren ist es hingegen nicht so schlimm wenn man dort noch ein zweites Chiplet verbauen muss, dort ist die Gewinnspanne eh viel größer.
Langlay
2019-07-27, 18:13:59
Wie sieht es mit Noctua, Phantek und BeQuiet aus?
Ich kann nur für den Noctua NH-D15 sprechen und da ist der Kühlerboden absolut plan.
BlacKi
2019-07-27, 18:45:29
Also 3900x vs 3950x @ 3Ghz und dann Stromzähler an? Wäre da nicht auch 3700x vs 3700x mit 1 deaktivierten core @ 3Ghz das gleiche für nen test?
man könnte eigentlich bei jeder cpu cores deaktivieren glaub ich. gerade wenig schwankende synth. tests könnten interessante werte liefern zum herunterrechnen. praktisch direkte werte sind wohl nicht möglich. aber man könnte die werte ins verhältnis setzen. vl cinebench?
ich für meinen teil könnte 3 cores deaktivieren(somit hätten 3 cores den doppelten l3 cache(wohl auch einen ramriegel raus, und wenn wir dabei sind halbierung der ringspeed?)) die performance fällt dann ungefähr um die hälfte. aber nicht ganz. das nicht ganz wäre dann der einfluss von einer l3 verdoppelung. vl mach ich das mal die tage, mich interessiert das auch mal selbst. aber ich kann da leider nicht einfach nen kern aktivieren für einen 1 zu1 test, weil das 33% wären und ihm zuviel cache zur verfügung stünde.
Lehdro
2019-07-27, 18:46:06
auf die frage warum zen nicht schon früher mit dem großen cache kam, gibts auch keine vernünftige anwort von den leuten.
Ich vermute die kam nicht, weil die Antwort sehr einfach ist:
Bei der Konzeption wird genau abgewogen wie die Positionierung des Produktes am Ende sein soll. Macht es sind die CPU um y mm² aufzublasen mit Cache um z % mehr Leistung herauszubekommen (nicht einmal in allen Fällen, die Latenz kann eventuell steigen) was AMD dann am Ende x $ mehr kostet, da mehr Waferfläche gebraucht wird und die yield eventuell schlechter wird. AMD hatte diese Werte damals alle und hat sich für Zeppelin so wie er ist entschieden. Warum hat sich Intel erst beim Refresh von SKL-X für mehr Cache entschieden und nicht beim originalen Release? Kosten, Yield, Performance und Entwicklungszeit müssen halt immer im Rahmen bleiben, da macht man schonmal Abstriche um die Margen zu halten, die Yield zu verbessern, die Entwicklungszeit kurz zu halten und das Produkt trotzdem gut im Markt zu positionieren. Zen war ein massiver Schritt, etwas was noch niemand unternommen hatte, ist doch klar das man nicht überall das Maximum herausgepresst hat. Cache wird seit Jahrzehnten größer, die Frage warum CPU xyz vor 2 Jahren eben nicht schon den größeren Cache hatte ist eigentlich ungefähr so sinnvoll zu fragen, wie warum HDDs früher nur 2 MB groß waren...
Mangel76
2019-07-27, 19:31:58
IIRC waren Intels Angaben bis dato eigentlich immer ziemlich realistisch was - auch was Spiele betrifft.
Ich kenne nur eine Folie von Intel, und da sind je nach Anwendung IPC-Zuwächse von leicht negativ bis +50% oder so dabei. Im Durchschnitt waren es wohl +18%. Leider stand mWn nicht dabei, welche Anwendungen betrachtet wurden. Daher meine Frage, wo in dem breiten Bereich Spiele liegen. Bei Zen2 war die Spanne ja auch Recht groß, je nachdem ob von der doppelten FP-Leistung Gebrauch gemacht werden konnte oder nicht.
Langlay
2019-07-27, 19:34:56
ich für meinen teil könnte 3 cores deaktivieren(somit hätten 3 cores den doppelten l3 cache(wohl auch einen ramriegel raus, und wenn wir dabei sind halbierung der ringspeed?)) die performance fällt dann ungefähr um die hälfte. aber nicht ganz. das nicht ganz wäre dann der einfluss von einer l3 verdoppelung. vl mach ich das mal die tage, mich interessiert das auch mal selbst. aber ich kann da leider nicht einfach nen kern aktivieren für einen 1 zu1 test, weil das 33% wären und ihm zuviel cache zur verfügung stünde.
Ist mit einen 8 Kern Ryzen easy zu testen. 4+0 sollte 8MB L3 haben und 2+2 16 MB L3. Bei Zen2 CPUs natürlich doppelt soviel L3.
Welche Test wären da den interressant?
/edit
Yup hatte ich richtig im Kopf falls CPU-Z nich lügt.
4+0
https://abload.de/img/40x6k2e.jpg
2+2
https://abload.de/img/22yok26.jpg
Locuza
2019-07-27, 19:54:31
Das war eine Folie mit Ergebnissen in Bezug auf SPEC 2016, SPEC2017, SYSMark 2014 SE, WebXPRT und Cinebench R15:
https://abload.de/img/blueprint-series_may-i6j7m.jpg
Im Schnitt ist Sunny-Cove 18% schneller.
In SPEC2017 war Zen2 pro Takt 15% schneller, als Zen+:
https://images.anandtech.com/graphs/graph14605/111165.png
https://www.anandtech.com/show/14605/the-and-ryzen-3700x-3900x-review-raising-the-bar/6
Bei CB lag Zen2 14-16% vor Zen+ unter Anwendungen:
https://www.computerbase.de/2019-07/amd-ryzen-3000-test/#abschnitt_ipc_zen_2_zen_und_zen_im_vergleich
Unter FHD mit Default-Specs war Zen2 (3700X vs. 2700X) 15-17% schneller:
https://www.computerbase.de/2019-07/amd-ryzen-3000-test/3/#diagramm-test-performancerating-fuer-spiele-fps-fhd
Zen2 profitiert ein wenig vom schnelleren Ram und höheren Taktfrequenzen, aber der Test ist auch ein wenig GPU limitiert, im Endeffekt sollte das nicht weit von 15% mehr Leistung pro Takt sein.
In Spielen würde ich für Sunny Cove Resultate erwarten, die im Schnitt auch nicht weit weg von den 18% sind, die Intel bis dato angibt.
Freestaler
2019-07-27, 20:19:51
Langlay, cool, cb als test? Evtl. Ub Wobei testen man so nicht noch if wegen cross ccx?
Screemer
2019-07-27, 20:46:42
Ich bin mir absolut sicher, dass 2+2 sowohl bei Leistungsaufnahme und perf/w gewinnt.
Langlay
2019-07-27, 21:15:31
Cinebench R20
2+2
https://abload.de/img/22cb20uqkkc.jpg
4+0
https://abload.de/img/40cb20b6kpb.jpg
4+0 ist reproduzierbar in CB20 einen Hauch schneller. Kann natürlich sein das der IF hier limitiert, aber ich hätte vermutet das der IF nicht gross limitiert da ja im Normalfall 2x soviel Kerne drüber kommunizieren.
BlacKi
2019-07-27, 21:26:20
weniger l3 ist schneller? gleichschnell oder schneller wäre hier meine vermutung, max 15% bei einem zen2hätte ich vermutet wenn ihr recht habt. leider scheint das ergebnis überhaupt nicht zu passen.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.