PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Threadripper 2000: Review-Thread


y33H@
2018-08-13, 15:38:32
Tests zu 2990WX und 2950X:

https://www.golem.de/news/threadripper-2990wx-und-2950x-im-test-viel-hilft-nicht-immer-viel-1808-135832.html
https://www.computerbase.de/2018-08/amd-ryzen-threadripper-2990wx-2950x-test/
https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/47081-amd-ryzen-threadripper-2990wx-und-2950x-im-test-mit-vollgas-an-intel-vorbei.html
https://nl.hardware.info/reviews/8565/amd-ryzen-threadripper-2990wx-a-2950x-review-een-core-te-ver
https://www.tomshardware.com/reviews/amd-ryzen-threadripper-2-2990wx-2950x,5725.html
https://www.anandtech.com/show/13124/the-amd-threadripper-2990wx-and-2950x-review (erst halb fertig)

Raff
2018-08-13, 15:40:03
Tests zu 2990WX und 2950X:

https://www.golem.de/news/threadripper-2990wx-und-2950x-im-test-viel-hilft-nicht-immer-viel-1808-135832.html
https://www.computerbase.de/2018-08/amd-ryzen-threadripper-2990wx-2950x-test/
https://nl.hardware.info/reviews/8565/amd-ryzen-threadripper-2990wx-a-2950x-review-een-core-te-ver
https://www.tomshardware.com/reviews/amd-ryzen-threadripper-2-2990wx-2950x,5725.html
https://www.anandtech.com/show/13124/the-amd-threadripper-2990wx-and-2950x-review (erst halb fertig)

Die erste Seite kenne ich nicht. Meinst du die?

http://www.pcgameshardware.de/Ryzen-Threadripper-2990WX-CPU-267793/Tests/und-2950X-im-Test-1262448/

:biggrin:

MfG,
Raff

y33H@
2018-08-13, 15:43:05
Im RSS kam nur das Die-Aufbau-Zeug :freak:

BlackBirdSR
2018-08-13, 16:41:45
Beeindruckend wie AMDs Infinity Fabric mal eben 70% bis 40% der Prozessorverlustleistung ausmacht..... 😳.
Plötzlich erscheint Intels Mesh in anderem Licht.
(Anand)

MikePayne
2018-08-13, 16:48:14
https://www.phoronix.com/scan.php?page=article&item=amd-linux-2990wx


While the Threadripper 2990WX may seem like a lot -- and it is -- it's actually with great value as shown by our performance-per-dollar results. For 32-cores / 64-threads at $1799 USD, consumers are getting a lot of performance potential and right now it blows the Core i9 7980XE out of the water in not only raw performance and performance-per-dollar. Intel will definitely need to respond before potentially losing much market-share in the HEDT space. The Threadripper 2990WX has also proven to be very competitive in performance-per-Watt to round out this offering.

Overall, the AMD Threadripper 2990WX is a very capable high-end desktop/workstation offering with enormous potential. The 2990WX works great under Linux -- and should under most any recent Linux distribution -- and in the days ahead we'll be running plenty more benchmarks on this powerful processor.

mczak
2018-08-13, 16:53:23
Auch das bevorzugte Nutzen der Kerne mit direkter Speicherverbindung scheint nicht wirklich zu klappen - ich hätte gedacht der Scheduler kriegt das einigermassen hin, aber die Resultate in Spielen sind ja katastrophal.
Und ja der Stromverbrauch des IF ist wirklich enorm hoch. Ich frage mich allerdings zumindest bei wenig Last ob man das nicht massiv optimieren könnte - pcie z.B. kann ja auch Lanes abschalten, sowas müsste doch da auch klappen.

Loeschzwerg
2018-08-13, 17:00:11
Beeindruckend wie AMDs Infinity Fabric mal eben 70% bis 40% der Prozessorverlustleistung ausmacht..... ��.


Das sind mal sehr interessante Messungen von Anandtech, hätte ich so nicht erwartet.
Möglicherweise erklärt das auch so manches "Problem" mit RR bei den Mobiles?

---

Zum 32 und 24 Kerner: Wie erwartet ziemliche Nische, aber wenn man in diese fällt, dann gibt es viel Leistung für wenig Geld.

mczak
2018-08-13, 17:10:05
https://www.phoronix.com/scan.php?page=article&item=amd-linux-2990wx
Interessanterweise gibt's da keinen einzigen wirklichen Ausreisser nach unten (also dass der 32-Kerner deutlich langsamer ist als der 16-Kerner). Das gilt auch für den compile-Benchmark (für mich immer der interessanteste...) - der skaliert recht gut, bei Anandtech hatte der Compile-Benchmark (auch wenn der nicht vergleichbar ist) noch deutlich negative Skalierung. Da gibt's wohl tatsächlich noch Optimierungspotenzial beim Windows-Scheduler.

Complicated
2018-08-13, 17:11:45
Möglicherweise erklärt das auch so manches "Problem" mit RR bei den Mobiles?

Wie viel Infinity Fabric denkst du ist in RR verbaut? Mit einem CCX und Dual-Channel gleicht sich da so ziemlich wenig:


https://en.wikichip.org/w/images/thumb/c/cc/raven_ridge_die_%28annotated%29.png/950px-raven_ridge_die_%28annotated%29.png

y33H@
2018-08-13, 17:11:46
Qt 5.11 Compile lief bei Golem auf 32C unter Ubuntu langsamer als auf 16C, kommt wohl (wie bei Blender) auf das Projekt an.

Eldoran
2018-08-13, 17:13:33
Naja der Vergleich zwischen intel und AMD bezüglich dem Mesh ist nicht ganz fair - bei intel ist es on-die, bei AMD eben auch off-die. Noch schlimmer ist das ganze bei den dual socket EPYC.
Allerdings zeigt es eben auch die Schattenseite des MCP Designs.

aufkrawall
2018-08-13, 17:18:51
Qt 5.11 Compile lief bei Golem auf 32C unter Ubuntu langsamer als auf 16C, kommt wohl (wie bei Blender) auf das Projekt an.
Wurde denn explizit die Anzahl der Jobs dem Corecount angepasst?

r-or
2018-08-13, 17:22:21
Beeindruckend wie AMDs Infinity Fabric mal eben 70% bis 40% der Prozessorverlustleistung ausmacht..... 😳.
Plötzlich erscheint Intels Mesh in anderem Licht.
(Anand)
Wie genau konnte er das überhaupt messen, welcher Anteil (un)core ist? Das ist mir nicht ganz klar...

y33H@
2018-08-13, 17:51:56
Wurde denn explizit die Anzahl der Jobs dem Corecount angepasst?Muss ich beim Kollege nachfragen, aber ich gehe davon aus - der weiß, was er tut.

Wie genau konnte er das überhaupt messen, welcher Anteil (un)core ist? Das ist mir nicht ganz klar ...HW-Info liest das aus, wenn man den Werten denn traut.

OC_Burner
2018-08-13, 17:53:28
Das schlechte Abschneiden des 2990WX in Spielebenchmarks habe ich irgendwie genauso erwartet und würde mich nicht wundern wenn da noch ein fieser Bug mit reinhaut. Zumindest auf Intel Setups mit 32C/64T sind die FPS in absolut CPU lastigen Spieleszenen (720p) um ca. 50% geringer. Sobald im Bios HTT deaktiviert oder die Kernanzahl reduziert wird (es reichen sogar 31C/62T), verschwindet der extreme Performanceeinbruch. Kernzuweisungen mittels Taskmanager können das Problem nicht lösen. Kurioserweise konnte ich vor kurzem feststellen das dieser Performanceeinbruch nur mit NVIDIA Grafikkarte geschah und auf einer uralten Radeon dagegen nicht (auf 2x18 Haswell-Kerner getestet). Die Reviews scheinen auf Nvidiakarten zu setzen, mich würden Ergebnisse einer aktuellen Radeon interessieren (scheinbar keine Angaben bei pcgh u. computerbase).

aufkrawall
2018-08-13, 18:09:59
Muss ich beim Kollege nachfragen, aber ich gehe davon aus - der weiß, was er tut.

Mit "-j$(nproc)" anstatt der konkreten Kernanzahl, hatte ich schon das Kuriosum, dass nicht immer alle Threads genutzt wurden. Etwa während des Kompilierens einiger Netzwerktreiber, die Teil des Linux-Kernels sind.

mczak
2018-08-13, 18:44:25
Qt 5.11 Compile lief bei Golem auf 32C unter Ubuntu langsamer als auf 16C, kommt wohl (wie bei Blender) auf das Projekt an.
Ah ja interessant. Könnte mir vorstellen dass kernel-compile Zeit wirklich durchs Kompilieren dominiert wird, Chromium und QT hingegen eher linking-lastig sind (je nach dem könnte man auch nicht immer genug Dateien zum parallel Kompilieren haben).

Edit: Ausserdem kann Linking enorme Speichermengen brauchen, gerade bei c++ und Debug-Libraries habe ich da schon gesehen dass man da pro executable locker ein paar GB brauchen kann. Kriegt man es also hin dass man viele Dinge parallel linken kann (was meist nicht der Fall ist) könnte es passieren dass der Benchmark zum reinen HD-Test (wegen Swapping) degeneriert. Habe ich selbst schon mit bloss 8 Kernen und 32GB Speicher gesehen, war dann viel schneller mit -j4 kompiliert...

YfOrU
2018-08-13, 18:48:09
Wie viel Infinity Fabric denkst du ist in RR verbaut? Mit einem CCX und Dual-Channel gleicht sich da so ziemlich wenig
...


Bei Anandtech hat man auch den 2700X untersucht und der ist kein MCM:
https://www.anandtech.com/show/13124/the-amd-threadripper-2990wx-and-2950x-review/4

Raven Ridge hat ein CCX weniger aber dafür eine IGP und ebenfalls ein DC DDR4 SI.

Endlich hat sich mal jemand die Arbeit gemacht und die Interconnects in diesem Kontext übergreifend verglichen. Heißt aber auch das es für Consumer (Mobile/Desktop) wohl (weiterhin) eigenständige/deutlich angepasste Lösungen wie Intels Ringbus braucht.

Leonidas
2018-08-13, 19:07:59
Noch kein Thread? Alle noch im Sommerschlaf? Oder gierig auf NVs Siggraph-Event heute Nacht? .... Update: Eigenen Thread gegründet.

Ryzen Threadripper 2990WX und 2950X Launchreviews siehe hier:
https://www.3dcenter.org/news/launch-von-threadripper-2000-erste-testberichte-gehen-online

Auswahl:
ComputerBase (https://www.computerbase.de/2018-08/amd-ryzen-threadripper-2990wx-2950x-test/)
PC Games Hardware (http://www.pcgameshardware.de/Ryzen-Threadripper-2990WX-CPU-267793/Tests/und-2950X-im-Test-1262448/)
Tom's Hardware (https://www.tomshw.de/2018/08/13/amd-ryzen-threadripper-2990wx-und-2950x-im-test-echter-fortschritt-mit-bis-zu-32-kernen/)
AnandTech (https://www.anandtech.com/show/13124/the-amd-threadripper-2990wx-and-2950x-review)
TechPowerUp (https://www.techpowerup.com/reviews/AMD/Ryzen_Threadripper_2950X/)
TechSpot (https://www.techspot.com/review/1678-amd-ryzen-threadripper-2990wx-2950x/)

Daredevil
2018-08-13, 19:09:25
Die sinnvolle Grenze ist halt bei 3.5-3.7Ghz, dafür sind 236w ( = Vier 2700x ) doch ganz annehmbar. :)
Danach geht man halt den Bulldozer Weg und haut mit dem Brechhammer drauf. :D

https://abload.de/img/unbenannt69djr.png

Quelle: der8auer
a0WB5ByTPv4

Loeschzwerg
2018-08-13, 19:21:49
Bei Anandtech hat man auch den 2700X untersucht und der ist kein MCM:
https://www.anandtech.com/show/13124/the-amd-threadripper-2990wx-and-2950x-review/4

Raven Ridge hat ein CCX weniger aber dafür eine IGP und ebenfalls ein DC DDR4 SI.


Jup, so war auch meine Überlegung. Können wir dann aber gerne weiter im RR Thema durchkauen.

fondness
2018-08-13, 19:32:58
Beeindruckend wie AMDs Infinity Fabric mal eben 70% bis 40% der Prozessorverlustleistung ausmacht..... ��.
Plötzlich erscheint Intels Mesh in anderem Licht.
(Anand)

Nachdem man insgesamt absolut konkurrenzfähig ist, was Perf/Watt betrifft, ist entweder der Wert einfach Murks, oder das Mesh benötigt auch nicht viel weniger, oder AMD kann das mit den anderen Chipteilen kompensieren.

Allerdings ist der Aufbau, wo 2 Dies keinen direkten MC nach außen geführt haben natürlich alles andere als ideal. Wundert mich, dass man nicht von jedem Die einen MC nach außen geführt hat.

Linmoum
2018-08-13, 19:38:31
Was genau und wie anandtech da gemessen hat, ist leider komplett undurchsichtig.

AT is refering the power draw of SoC domain as "IF Power", correct?
If that is the case then it is pretty inaccurate, as the SoC power plane powers the memory controllers and the IO as well (among other misc blocks).
https://forums.anandtech.com/threads/2990wx-review-thread-its-live.2552534/page-2#post-39534103

mczak
2018-08-13, 20:35:03
Was genau und wie anandtech da gemessen hat, ist leider komplett undurchsichtig.
https://forums.anandtech.com/threads/2990wx-review-thread-its-live.2552534/page-2#post-39534103
Das kann schon sein aber gerade im Vergleich vom 2950 zum 2990 ist das egal. Denn da ist rein gar kein zusätzlicher i/o aktiv, nur die Die-to-Die Links zwischen den CPU-Kernen kommen dazu.
Auch die zusätzlichen pcie-links die man gegenüber intel hat dürften kaum eine Rolle spielen, die sind ja auch nicht aktiv wenn nichts angeschlossen ist. Wenn hingegen bei intel der MC und i/o überhaupt nicht in den Zahlen inbegriffen ist würde das sicher was ausmachen. Aber wie gesagt, die Zahlen von 2990 zu 2950 deuten schon darauf hin dass es die Verbindungen zwischen den CPUs sind die sehr viel Energie brauchen. Wobei die Zahlen bei 16-18 Kernen die man miteinander verbinden muss (2950WX gegen 7980XE) ja eigentlich sehr ähnlich sind unter Last, "nur" bei wenig Last hat da intel wirklich deutlich weniger Verbrauch, was für ein besseres Stromsparmanagement spricht (wobei ich jetzt auch nicht unbedingt davon ausgehen würde dass das bei EPYC zwingend auch so ist - falls ein Stromsparfeature etwas Performance kostet ist es allenfalls denkbar dass es bei Threadripper deaktiviert wäre).

Edit: Der 2950X und 2990X bei anandtech benutzen ausserdem ddr4-2933 Speicher. Das ist natürlich offiziell unterstützt und für die Performance optimal, aber da ist die SoC-Spannung wohl auch schon deutlich höher als sonst. Bei normalen Ryzen macht das im Stromverbrauch nicht so viel aus, aber bei derart viel IF dürfte der Unterschied deutlich sein. Ist natürlich etwas ungünstig, weil man so viele Kerne hat kann man alle Interconnect-Bandbreite brauchen die man kriegen kann aber gleichzeitig geht dann der Stromverbrauch steil nach oben.

(del)
2018-08-13, 21:28:42
Die Leistung bei Spielen ist ja teils extrem schlecht. :eek:
Ich rendere zwar sehr viel aber spiele auch gerne mal zwischendurch etwas.
Hoffentlich war das am Ende nicht die falsche Entscheidung das ich die CPU bestellt habe.
Denn es kommt ja schienbar auch beim rendern auf die Software an, bei mancher Software ist die Skalierung richtig gut, bei anderer eher sehr schlecht.
Schade das es keine Tests mit Lightwave 3D gibt.

Savay
2018-08-13, 21:36:05
Beim 32C ist haben wir IMO eher das Problem das wieder nen ganz andere interne Organisation vorliegt als bei jeder bisherigen CPU...da muss sicher sowohl Windows als auch die Anwendungen ggf. dran angepasst werden.

War beim Zen Start ja auch schon zu sehen, dass schon der CCX Aufbau zu Problemen und Hickups geführt hat...hier kommt halt das Routing der Memcontroller nochmal oben drauf, was beim Scheduling im Idealfall sicher berücksichtig werden sollte! (Bugs und Probleme mit mehr als n-Threads mal außen vor!)
Beim 16C sieht man dagegen keine bis wenige Probleme, weil dessen Aufbau und Organisation quasi 1:1 mit den bisherigen TR übereinstimmt.

BTW das aktualisierte Ryzen Master mit dem direkten PBO Zugriff funktioniert auch auf den kleineren Ryzen!


Allerdings ist der Aufbau, wo 2 Dies keinen direkten MC nach außen geführt haben natürlich alles andere als ideal. Wundert mich, dass man nicht von jedem Die einen MC nach außen geführt hat.

Naja...das wäre wohl der faulere Kompromiss! Da hast du an jedem Die prinzipiell zumindest nen Singlechannel mit halbwegs ordentlicher Latenz, aber an der Bandbreite verhungert das Ding theoretisch trotzdem in seiner Gesamtheit...d.h. bei voller Auslastung und Bandbreitensensitiven Workloads hast du keinen Vorteil...und bei kleiner Auslastung und Bandbreitensensitven Workloads sogar eher Nachteile.

Mit dem 2*I/O+2*Compute Aufbau kann man nämlich wenigsten die ersten bis zu 32Threads mit bisheriger Bandbreite/Latenz bedienen...der Scheduler/Anwendunge usw. muss nur wissen das er die "zusätzlichen" 32 Threads eher nachrangig nutzen sollte, vor allem bei latenzsensitiven Anwendungen!
Wenn wir eine Situation hätten wo wir ausschließlich perfekt skalierende MT Software hätten könnte man wohl auch nen 4*I/O mit halber Bandbreite/Die nehmen...aber die haben wir halt nicht.

Geldmann3
2018-08-13, 22:44:12
Ich denke es wird langsam mal Zeit für Windows den Umgang mit vielen Kernen zu lernen. (Wobei es darauf jetzt wohl echt kaum vorbereitet sein konnte.) Das OS sollte, je nach Anwendung, im Optimalfall automatisch darauf kommen, bestimmte Kerne schlafen zu legen. Besonders bei TR ist es natürlich sau schlecht, wenn die Daten eines Prozesses/Threads unnötig zwischen den Dies hin und her geschoben werden. Außerdem könnte man nur die performantesten Kerne aktiv lassen und den Takt entsprechend managen. Bei TR braucht man eigentlich eine Art Anwendungsprofil wie für Crossfire Games nur einfacher. Sodass der Entwickler konfigurieren kann, wo auf der CPU der Code läuft. Das beste CCX der 32 Kerne würde sicher 4,3Ghz schaffen, während man ein anliegendes nur mit 4,0 und alle anderen mit 3,4 laufen lassen könnte. Die Leistungsaufnahme würde passen und in Spielen wäre das Ding sau schnell, solange der Mainthread auf dem schnellen CCX liegt. Meist braucht man eh nur 3-4 Kerne die richtig schnell sind und genügend andere, die das ganze Kleinzeug abarbeiten.

(del)
2018-08-14, 03:05:14
Scheinbar müsste Microsoft da einiges am Scheduler verbessern damit der 2990WX besser laufen kann.
Der 7zip Benchmarkvergleich zwischen Windows 10 und Linux ist wirklich interessant.
Klick (https://www.phoronix.com/scan.php?page=article&item=2990wx-linux-windows&num=2)

y33H@
2018-08-14, 08:04:33
Der integrierte Benchmark sagt wenig aus, weil reales Packen zumindest unter Win10 auf 32 Threads begrenzt ist und mehr von der RAM Latenz abhängt. Dennoch interessante Werte.

grobi
2018-08-14, 08:26:23
Scheinbar müsste Microsoft da einiges am Scheduler verbessern damit der 2990WX besser laufen kann.
Der 7zip Benchmarkvergleich zwischen Windows 10 und Linux ist wirklich interessant.
Klick (https://www.phoronix.com/scan.php?page=article&item=2990wx-linux-windows&num=2)


Linux ist da ja durch die Bank performanter.

dargo
2018-08-14, 09:28:20
Lol... das ist ja wieder geil. Ein aktuelles OS hinkt der Hardware mal wieder hinterher. :freak:

Freestaler
2018-08-14, 09:39:23
Vorallem Blender, welches ja sowohl auf linux wie auch auf Windows exskt das gleiche verabeiten muss ist der Deltas auch hart. So auf den ersten Blick überalles lässt Windows mehr als 30% liegen gegen linux (vergleichbarkeit bei all dwn Test kann ich nicht wirklich beurteilen). Also, wann kommt der patch von MS?

BlackArchon
2018-08-14, 10:10:48
Ohje, Windows ist wirklich extrem schlecht in der Performance, wenn es um CPUs mit mehreren NUMA-Nodes wie den 2990WX geht, zumindest führe ich das auf die offenbar nicht vorhandene Berücksichtigung von NUMA zurück.
Hier ein Vergleich von Windows 10 mit einigen Linux-Distris: https://www.phoronix.com/scan.php?page=article&item=2990wx-linux-windows&num=1

Matrix316
2018-08-14, 10:17:51
Die Leistung bei Spielen ist ja teils extrem schlecht. :eek:
Ich rendere zwar sehr viel aber spiele auch gerne mal zwischendurch etwas.
Hoffentlich war das am Ende nicht die falsche Entscheidung das ich die CPU bestellt habe.
Denn es kommt ja schienbar auch beim rendern auf die Software an, bei mancher Software ist die Skalierung richtig gut, bei anderer eher sehr schlecht.
Schade das es keine Tests mit Lightwave 3D gibt.
Also ich war sehr gespannt auf den neuen TR, aber ich glaube mein 2700X ist die vernünftigere Wahl. :freak:

Ich würde ja gerne mal sehen wie ein 4 Sockel AM4 System mit 4 2700X performen würde im Vergleich. Schafft es der höhere Takt die Latenzen zwischen den Sockeln auszugleichen? ;)

kunibätt
2018-08-14, 11:09:11
Das Delta beim Blendertest wäre praktisch null, wenn die aktuelle 2.79b oder neuer genommen hätten. Des Weiteren hätte man unbedingt den gooseberry bench nehmen sollen. Sprich, die Tests von Phoronix taugen in Bezug auf Blender nix.

Complicated
2018-08-14, 11:18:08
Bei Anandtech hat man auch den 2700X untersucht und der ist kein MCM:
https://www.anandtech.com/show/13124/the-amd-threadripper-2990wx-and-2950x-review/4

Schöner Test. Hierbei wird der Tradeoff deutlich den AMD gehen musste um mit einem Die eine so breite Produktpalette zu bedienen. Es zeigt ebenfalls wo AMD noch Potential hat wenn sie sich dazu entschließen wieder mehr als einen Die (+APU) aufzulegen für die Produktpallette. Raven Ridge hat ja keine 2 CCX wo IF zum Einsatz kommt. Ich schätze Optimierungen am Uncore/IF werden bei Zen 3 im Fokus stehen.

Pirx
2018-08-14, 11:30:26
Schön, da werden die "Schwächen" von Windows / die Politik von M$ ja nebenbei schonungslos aufgedeckt.

BlackArchon
2018-08-14, 11:37:35
Schön, da werden die "Schwächen" von Windows / die Politik von M$ ja nebenbei schonungslos aufgedeckt.
Prinzipiell ja, aber Kevin-Pascal (also der Durchschnittsnutzer) sieht nur, dass der 2990WX oft unglaublich langsam ist, und lastet das AMD an.

Complicated
2018-08-14, 11:39:56
Niemand der entscheidet den 2990WX zu kaufen ist ein Durchschnittsnutzer. Der checkt genau wie sein Workload aussieht.

BlackArchon
2018-08-14, 11:44:59
Zum einen gibt es durchaus Leute mit zu viel Geld und zu wenig Hirn, die einfach das Beste (=teuerste) kaufen.
Außerdem geht es ja auch um das Image von AMD. Und hier werden die Versäumnisse von Microsoft AMD angelastet. Fairerweise muss man natürlich dazu sagen, dass AMD das sicher wusste, und trotzdem diese CPU released haben.

kruemelmonster
2018-08-14, 12:09:40
Danach geht man halt den Bulldozer Weg und haut mit dem Brechhammer drauf. :D

Brechhammer...ist dass das Gegenstück zur Vorschlagstange? SCNR ;D

Allerdings ist der Aufbau, wo 2 Dies keinen direkten MC nach außen geführt haben natürlich alles andere als ideal. Wundert mich, dass man nicht von jedem Die einen MC nach außen geführt hat.

Das hätte das Routing der bestehenden Boards wohl nicht zugelassen, TR1 hat nunmal 2 Dice mit jeweils DC. Und ist es auch fraglich ob es performanter gewesen wäre jeweils 8 Kerne an einem SC-Interface zu betreiben.

robbitop
2018-08-14, 12:14:16
Bei Phoronix gab es ja leider keine Videoencoding Benchmarks (x265 / x264) für den 32C Prozessor. Mich würde interessieren, ob das Ergebnis unter Linux (mit offenbar besser geeigneten Sheduler) besser aussieht als unter Windows.

MartinRiggs
2018-08-14, 12:49:26
Prinzipiell ja, aber Kevin-Pascal (also der Durchschnittsnutzer) sieht nur, dass der 2990WX oft unglaublich langsam ist, und lastet das AMD an.

Dieses ach die armen bei AMD-Leier kann auch keiner mehr hören:rolleyes:
Es wäre doch an AMD gewesen auf Microsoft zuzugehen und zu sagen wir haben hier ein absolutes Monster an CPU.

Menace
2018-08-14, 12:56:10
Dieses ach die armen bei AMD-Leier kann auch keiner mehr hören:rolleyes:
Es wäre doch an AMD gewesen auf Microsoft zuzugehen und zu sagen wir haben hier ein absolutes Monster an CPU.

Haben Sie das nicht gemacht? Weißt Du das? Und immer die gleiche Leier, AMD die Schuld zu geben. :rolleyes:

aufkrawall
2018-08-14, 12:56:27
Es wird MS schlicht nicht interessieren, weil auf CPUs mit dem Thread-Count normalerweise kein Consumer-Windows genutzt wird. Sie haben auch bei Ryzen über ein halbes Jahr gebraucht, das Coreparking im ausbalanciert-Energieprofil abzuschalten.

(del)
2018-08-14, 13:38:09
Ich frage mich ob die Performance bei Windows Server 2016 vielleicht besser ausfallen würde als bei Windows 10?

dildo4u
2018-08-14, 13:41:32
Wird vermutlich gefixt bevor der 28 Core Intel kommt,bis dahin ist das Fall Update raus.

MSABK
2018-08-14, 13:43:23
Wird vermutlich gefixt bevor der 28 Core Intel kommt,bis dahin ist das Fall Update raus.

Vielleicht bringt Intel große Stückzahlen von den "Monster-CPUs" unter die Leute und erst dann lohnt es sich für Microsoft tätig zu werden.

maguumo
2018-08-14, 13:47:18
Das Teil können sie doch gar nicht günstig genug anbieten um große Stückzahlen unter die Leute zu bringen, oder?. Das Serveräquivalent kostet irgendwas um 10000$.

dildo4u
2018-08-14, 13:59:58
Intel scheint mir deutlich mehr Einfluss auf MS zu haben als AMD,vergleichbar mit Nvidias push für Raytracing Support in DX12.
Ich glaube nicht das wenn der 28 Core kommt,er irgendwo schlechter als der 18 Core abschneidet.

Dino-Fossil
2018-08-14, 16:30:22
AMD hat doch schon Stellung genommen:

Was AMD vorab gegenüber der Presse nicht groß thematisiert hatte, sind die mit den Einschnitten (aktuell und) potentiell noch einhergehenden Leistungseinbußen in Anwendungen. Und auch mit 64 Threads müssen viele Programme überhaupt erst einmal umgehen können. Hier sei auch der Scheduler von Windows nicht unbeteiligt, so AMD. Zusammen mit Microsoft arbeitet man bereits daran, Windows für den Umgang mit mehr als 32 Threads auf Threadripper 2000 zu optimieren

Es ist bekannt, es wird daran gearbeitet, auch zusammen mit Microsoft.

aufkrawall
2018-08-14, 16:33:44
Ist ja schon wieder bezeichnend, dass Windows so etwas erst wieder lernen muss, während das unter Linux offenbar kaum ein Thema ist. Für solche MT-Workstations sollte man dann vielleicht von Windows nach Möglichkeit lieber gleich die Finger lassen, z.B. Blender ist ja unter Linux allgemein eh deutlich schneller...

y33H@
2018-08-14, 17:35:59
Das ist per se nicht korrekt für Blender. siehe Post #56

dildo4u
2018-08-14, 17:44:59
Bei Phoronix gab es ja leider keine Videoencoding Benchmarks (x265 / x264) für den 32C Prozessor. Mich würde interessieren, ob das Ergebnis unter Linux (mit offenbar besser geeigneten Sheduler) besser aussieht als unter Windows.

Ist das hier nicht mit dem 32 Core?

https://i.imgur.com/byZ00rV.png

https://www.phoronix.com/scan.php?page=article&item=2990wx-linux-windows&num=2

aufkrawall
2018-08-14, 18:04:49
Das ist per se nicht korrekt für Blender.
RyzenGraphic_27.blend
Linux: 34,4s
Windows: 40,1s

y33H@
2018-08-14, 18:12:58
Ich muss meine Aussage revidieren, bin in der Zeile verrutscht - du hast Recht: Vergangenes Jahr mit dem 1950X waren in Blender 2.78c mit BMW27 nämlich 135 sec (Linux) gegen 161 secs (Windows 10) und im Frühling 2018 beim 2700X waren es in Blender 2.79b mit BMW27 dann 230 sec (Linux) gegen 301 sec (Windows 10).

kunibätt
2018-08-14, 18:14:21
Mit aktuellen builds sind die Renderzeiten unter Cycles fast identisch. Das ist ein seit Jahren bekannter "Bug" der Visualstudio Builds und hat mit der Windowsperformance an sich nichts zu tun. Mit dem Scheduler auch nicht. Das ist schlicht einfach nie gescheit optimiert worden.

aufkrawall
2018-08-14, 18:15:56
=)
Thx für die Werte, mit dicker CPU + komplexerem Projekt scheint die Differenz ja sogar noch größer zu werden.
Dürfte imho aber weniger auf den OS-Kernel zurückzuführen sein als auf Compiler-Optionen.

Meine Werte oben sind mit dem aktuellsten Final-Build bzw. dem Stand aus dem Arch-Repository.

kunibätt
2018-08-14, 18:20:08
Die Windows/Linux Leistung ist erst ab relativ aktuellen masterbuilds identisch. Der letzte release ist zu alt. Hier gibt es aktuelle Versionen: https://builder.blender.org/download

OC_Burner
2018-08-14, 19:35:37
Jede Wette das sämtliche 2990WX Spielebenches fast aller Reviews für die Tonne sind.

Ausnahmslos alle aufgelisteten Reviews auf der 3DC Hauptseite nutzen für ihre Spielebenches Nvidiakarten. Der Nvidiatreiber scheint mir mit 32/64T nicht klar zu kommen und die Leistung bricht in CPU lastigen Szenen um die Hälfte ein. Wie schon geschrieben, existiert diese Auffälligkeit auch bei Intel Systemen bei derart hohen Kernzahlen (schon seit Jahren provozierbar). Wenn Windows mit 64 logischen Prozessoren gebootet wird, bricht die Performance massiv ein. Abhilfe schafft das Deaktivieren von Multi-Threading oder mindestens, das Deaktivieren von einem Kern im Bios, um nicht mehr auf 64 logische Prozessoren zu kommen. AMD-Grafikkarten scheinen diese Auffälligkeiten nicht zu besitzen und zeigen immer volle Performance. Mangels flotter Radeon (nur R7 260 vorhanden) kann ich das nicht mit absoluter Gewissheit sagen.

Der Performancedrop in den Reviews ist signifikant und zeigt immer grob die Hälfte der möglichen Leistung im Vergleich zu den anderen 2990WX-Modis. Die ausgesuchten Links im Spoiler, sollten immer recht nah im CPU-Limit sein. Ob die Grafikkarte nicht vielleicht doch gebremst hat, ist ungewiss. Bei GTA5, Witcher3, Assassins Creed:Origins und F1 2017 sticht das Symptom immer besonders stark hervor. Das Review von Tom's Hardware ist da eine Ausnahme, denn dort lassen sich (warum auch immer) keine Performancedrops erkennen.



[URL=]https://www.techspot.com/review/1678-amd-ryzen-threadripper-2990wx-2950x/page5.html (]https://techreport.com/review/33977/amd-ryzen-threadripper-2990wx-cpu-reviewed/10[/URL)

[URL=]https://wccftech.com/review/amd-ryzen-threadripper-2990wx-32-core-cpu-review/6/ (]https://www.tweaktown.com/reviews/8706/amd-ryzen-threadripper-2990wx-2950x-review/index7.html[/URL)

[URL=]https://nl.hardware.info/reviews/8565/16/amd-ryzen-threadripper-2990wx-a-2950x-review-een-core-te-ver-gaming-benchmarks-gtx-1080-ti-gta-v (]https://lab501.ro/procesoare-chipseturi/amd-ryzen-threadripper-2990wx-2950x-part-iii-gaming-performance/5[/URL)

[URL=]https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/47081-amd-ryzen-threadripper-2990wx-und-2950x-im-test-mit-vollgas-an-intel-vorbei.html?start=8 (]https://tweakers.net/reviews/6441/8/de-tweede-generatie-threadripper-2990wx-en-2950x-met-16-en-32-cores-gameprestaties-in-gamemodus.html[/URL)

[URL=]https://hexus.net/tech/reviews/cpu/120659-amd-ryzen-threadripper-2990wx/?page=6 (]https://www.tomshw.de/2018/08/13/amd-ryzen-threadripper-2990wx-und-2950x-im-test-echter-fortschritt-mit-bis-zu-32-kernen/4/[/URL)


Meine Erfahrungen beziehen sich nur auf ein Intelsystem mit ebenso hoher Kernzahl aber warum sollte das auf AMD-System nicht auch gelten. Der Knackpunkt ist einfach, diese halbierte Leistung bei 32C/64T bzw 64 logische Prozessoren unter Windows. Dieser Leistungsrückgang gleicht praktisch 1:1 mein getestetem Intel System und das kann einfach kein Zufall sein. Dies ist definitiv ein Nvidia Treiberbug oder warum verschwindet der Performancerückgang bei Nutzung einer Radeon Grafikkarte oder das deaktivieren eines Kerns bzw. Multithreading?

adding intel benches:
https://www.grafik-feti.de/ftp/incoming/32C_64T_nv_driver_benchmarks.zip

aufkrawall
2018-08-14, 19:36:16
Die Windows/Linux Leistung ist erst ab relativ aktuellen masterbuilds identisch. Der letzte release ist zu alt. Hier gibt es aktuelle Versionen: https://builder.blender.org/download
Kann ich nicht bestätigen, mit dem 2.80 Git-Build von dort sind es immer noch 35,9s vs. 41,5s.

kunibätt
2018-08-14, 20:35:58
Liegt trotzdem am compiler und nicht an Windows.

aufkrawall
2018-08-14, 20:55:12
Hat auch keiner behauptet. Gibt aber genug andere Fälle, bei denen das so ist, siehe Phoronix-Test.

kunibätt
2018-08-14, 21:10:24
Genau der Phoronix-Test ist ja fehlerhaft und zieht falsche Schlüsse. Eigentlich dürfte man über deren Ergebnisse nicht mal einen Gedanken verschwenden müssen.

aufkrawall
2018-08-14, 21:14:34
Was ist denn an den Anwendungsbenchmarks falsch?

kunibätt
2018-08-14, 21:17:48
Weiß ich nicht. Wenn das aber so gehandhabt wird, wie bei Blender, dann äh alles?

kunibätt
2018-08-14, 21:20:05
Mal von den Messergebnissen abgesehen, ist deren Parcour auch einfach ziemlich ....

aufkrawall
2018-08-14, 21:20:36
Weiß ich nicht. Wenn das aber so gehandhabt wird, wie bei Blender, dann äh alles?
Ähh, nein, weil es die Realität abbildet? :freak:

kunibätt
2018-08-14, 21:22:02
Sie nehmen veraltete Software. Das ist nicht die Realität. Das habe ich dir bereits erklärt und wurde auch von den devs bestätigt.

aufkrawall
2018-08-14, 21:29:24
Du sprachst nur von Blender und deine Aussage war nicht haltbar. Diese Diskussion scheint zu nichts zu führen...

y33H@
2018-08-15, 15:32:53
Jede Wette das sämtliche 2990WX Spiele Benches fast aller Reviews für die Tonne sind. Ausnahmslos alle aufgelisteten Reviews auf der 3DC Hauptseite nutzen für ihre Spielebenches Nvidia-Karten. Der Nvidia-Treiber scheint mir mit 32/64T nicht klar zu kommen und die Leistung bricht in CPU lastigen Szenen um die Hälfte ein.Du hast Recht: https://www.golem.de/news/32-kern-cpu-threadripper-2990wx-laeuft-mit-radeons-besser-1808-136016.html

Linmoum
2018-08-15, 15:46:04
Du meinst sicherlich GTA 5, oder? Ansonsten erstaunlich, die fps-Einbrücke sind ja schon ziemlich heftig.

dildo4u
2018-08-15, 16:02:49
Nich wirklich AMD könnte das vor Release testen.NV kann sich das erst jetzt angucken.

maguumo
2018-08-15, 16:09:16
OC_Burner hat er das Problem doch zuerst auf seinem 32C/64T Intel System festgestellt, oder? Scheint also nicht AMD-spezifisch zu sein.

Blediator16
2018-08-15, 17:28:24
Du hast Recht: https://www.golem.de/news/32-kern-cpu-threadripper-2990wx-laeuft-mit-radeons-besser-1808-136016.html

Skandal? :freak:

(del)
2018-08-15, 18:55:56
Meine Güte die CPU zieht so viel Strom beim rendern das mein 860 Watt Netzteil sich Teil abschaltet wenn ich den Prozessor nicht undervolte. Bei Spitzen von 700 Watt Systemverbrauch wird der Bildschirm schwarz und der Verbrauch sinkt auf 100 Watt.

kunibätt
2018-08-15, 20:21:37
Hast du den 2990WX schon? Ist er overclocked? Welches Mainboard hast du genommen?

(del)
2018-08-15, 20:50:33
Hast du den 2990WX schon? Ist er overclocked? Welches Mainboard hast du genommen?
Ja hab ihn seit Heute.
Ich habe das MSI MEG X399 Creation.
Kleine Korrektur, ich hatte ohne es zu merken Precision Boost Overdrive aktiv, das hat dazu geführt das die CPU zu beginn einer Last (rendern) extrem viel Strom gezogen hat.
Habe mir zur Sicherheit lieber eben ein 1200 Watt Netzteil eingebaut, möchte nicht riskieren das das alte Netzteil kaputt geht und mir den Rest des PCs mit nimmt.

kunibätt
2018-08-15, 20:54:18
Wenn du mal Zeit hast, könntest du vielleicht mal eine aktuelle Blenderversion von hier https://builder.blender.org/download herunterladen und diesen Bench https://gooseberry.blender.org/gooseberry-production-benchmark-file/ darauf laufen lassen und deine Werte hier mitteilen?

Freestaler
2018-08-15, 21:33:49
Hmm gilt das Treiberverhalten ab 64 Threads von NVidia auch für Quadros? Vorallem dann auch für Dinge wie CUDA? Wird ja dann interessant im Wissen um einige CPU vergleiche die mit RTX kommen werden ;-)

dargo
2018-08-15, 22:20:21
Du hast Recht: https://www.golem.de/news/32-kern-cpu-threadripper-2990wx-laeuft-mit-radeons-besser-1808-136016.html
WTF? Was für krudden Dinger macht der NV-Treiber da schon wieder? :D Hat sich eigentlich einer schon das ganze unter DX12/Vulkan angeschaut? Ähnliches Verhalten oder völlig anders?

Nich wirklich AMD könnte das vor Release testen.NV kann sich das erst jetzt angucken.
Ähm... ja.
Ausnahmslos alle aufgelisteten Reviews auf der 3DC Hauptseite nutzen für ihre Spielebenches Nvidiakarten. Der Nvidiatreiber scheint mir mit 32/64T nicht klar zu kommen und die Leistung bricht in CPU lastigen Szenen um die Hälfte ein. Wie schon geschrieben existiert diese Auffälligkeit auch bei Intel Systemen bei derart hohen Kernzahlen (schon seit Jahren provozierbar).

(del)
2018-08-15, 22:31:43
Wenn du mal Zeit hast, könntest du vielleicht mal eine aktuelle Blenderversion von hier https://builder.blender.org/download herunterladen und diesen Bench https://gooseberry.blender.org/gooseberry-production-benchmark-file/ darauf laufen lassen und deine Werte hier mitteilen?

Hab ich gemacht.
611,9 Sekunden.
http://lemonwolf.de/gooseberry.png

kunibätt
2018-08-15, 23:02:37
Hab ich gemacht.
611,9 Sekunden.
http://lemonwolf.de/gooseberry.png

Danke dir. Ist das ohne Übertaktung? RAM auf welcher Geschwindigkeit? OS ist WIN10 nehme ich an. Das ist ca. 50% schneller als was die Reviews gebencht haben, und deren Blenderwerte halte ich für fehlerbehaftet.

gravitationsfeld
2018-08-15, 23:08:26
Mit "-j$(nproc)" anstatt der konkreten Kernanzahl, hatte ich schon das Kuriosum, dass nicht immer alle Threads genutzt wurden. Etwa während des Kompilierens einiger Netzwerktreiber, die Teil des Linux-Kernels sind.
Kann auch einfach I/O-Limitierung sein. Mit so vielen Prozessen hast du einiges an Stau im Filesystem-Teil des Kernels.

(del)
2018-08-15, 23:12:42
Danke dir. Ist das ohne Übertaktung? RAM auf welcher Geschwindigkeit? OS ist WIN10 nehme ich an. Das ist ca. 50% schneller als was die Reviews gebencht haben, und deren Blenderwerte halte ich für fehlerbehaftet.
Ich habe PBO aktiv, damit liegt der Takt bei dem Benchmark bei ca 3,4 Ghz auf allen Cores. Ich denke das mein Noctua Kühler hier etwas limitiert.
RAM läuft auf 3266, bin da aber noch am testen. OS ist Windows 10.

gravitationsfeld
2018-08-15, 23:48:16
Hmm gilt das Treiberverhalten ab 64 Threads von NVidia auch für Quadros? Vorallem dann auch für Dinge wie CUDA? Wird ja dann interessant im Wissen um einige CPU vergleiche die mit RTX kommen werden ;-)
CUDA hat keine Treiber-Threads.

kunibätt
2018-08-16, 01:17:17
Ich habe PBO aktiv, damit liegt der Takt bei dem Benchmark bei ca 3,4 Ghz auf allen Cores. Ich denke das mein Noctua Kühler hier etwas limitiert.
RAM läuft auf 3266, bin da aber noch am testen. OS ist Windows 10.

Hättest du die Möglichkeit den selben Test noch mal unter Linux durchzuführen?

Freestaler
2018-08-16, 08:28:02
CUDA hat keine Treiber-Threads.

Sorry, indemfall ist klar wie der Fehler auftritt, nur bei einem TreiberThread mut 64 Core? Und da Cuda keinen TreiberThread hat, kann der Fehler dann nicht zuschlagen. Okay.

y33H@
2018-08-16, 09:35:54
Danke dir. Ist das ohne Übertaktung? RAM auf welcher Geschwindigkeit? OS ist WIN10 nehme ich an. Das ist ca. 50% schneller als was die Reviews gebencht haben, und deren Blenderwerte halte ich für fehlerbehaftet.Ich habe ca 900 sec mit dem 2990WX stock mit DDR4-2933, kann mir das nicht erklären. Wo liegt deiner Ansicht nach der Fehler? Frisches Win10 mit Blender 2.79b

MusicIsMyLife
2018-08-16, 10:21:58
Ich habe ca 900 sec mit dem 2990WX stock mit DDR4-2933, kann mir das nicht erklären. Wo liegt deiner Ansicht nach der Fehler? Frisches Win10 mit Blender 2.79b

Vielleicht ist es ja kein Fehler.

- es gibt definitiv Taktunterschiede bei CPU und RAM (Speicherbandbreite?)
- eventuell nutzt er eine andere Blender-Version (immerhin wurde eine Downloadseite verlinkt, wo 2.80 vorhanden ist)

Zusätzlich frage ich mich, ob der NV-Treiber, nachdem er bei Spielen Probleme macht, eventuell auch dann dazwischenfunken kann, wenn er eigentlich überhaupt nicht gebraucht wird. Nämlich zum Beispiel beim Rendering mittels Blender.

Das ist zwar wahnsinnig weit hergeholt und äußerst unwahrscheinlich, ich würde es aber zumindest mal austesten. Soll heißen: Sofern dein Ergebnis mit einer NV-GPU zustande gekommen ist, würde ich nochmal den Gegentest mit einer AMD-GPU in Blender machen.

kunibätt
2018-08-16, 10:28:41
Ich habe ca 900 sec mit dem 2990WX stock mit DDR4-2933, kann mir das nicht erklären. Wo liegt deiner Ansicht nach der Fehler? Frisches Win10 mit Blender 2.79b

Die Windows Versionen von Blender kämpf(t)en seit Jahren mit deutlich gedämpfter Renderleistung unter Cycles ( der Renderengine in dem Test), was auf Visual Studio zurückzuführen war. Die von mir verlinkten Blenderversionen nutzen das aktuelle Visualstudio, 2.79b release hingegen eine alte Version. Die neueren Visualstudio Builds scheinen massive Leistungsteigerungen beim 2990wx freizusetzen.

Um herauszufinden, ob der 2990wx für Blender eine gute Wahl ist, gilt nun herauszufinden:
1.) Sind die Leistungssteigerungen auf 1950x und 7980x eventuell genau so groß?

2.) Sind die Unterschiede zur Linuxversion immer noch vorhanden.

Das solche Eigenheiten der Software einem Tester unter Zeitdruck nicht klar sind, ist mir verständlich. Nur könnte man so zu dem Schluss kommen, das sich dieser Prozessor für Rendering in Blender aus P/L-Sicht nicht lohnt, obwohl er nur von Compilerbugs ausgebremst wird.

kunibätt
2018-08-16, 10:30:30
Vielleicht ist es ja kein Fehler.

- es gibt definitiv Taktunterschiede bei CPU und RAM (Speicherbandbreite?)
- eventuell nutzt er eine andere Blender-Version (immerhin wurde eine Downloadseite verlinkt, wo 2.80 vorhanden ist)
......
.

Natürlich nutzt er eine aktuelle Version, ich habe explizit darum gebeten.

aufkrawall
2018-08-16, 15:44:40
Kann auch einfach I/O-Limitierung sein. Mit so vielen Prozessen hast du einiges an Stau im Filesystem-Teil des Kernels.
Mit dem Linux-Subsystem des Windows-Kernels, Linux nativ mit ext4 so ziemlich gar nicht. Wird imho einfach ein gcc-Bug sein, mit der konkret angegebenen vorhandenen Threadzahl hab ich das noch nicht gesehen (außer natürlich bei ./configure, aber das mein ich nicht).

y33H@
2018-08-16, 15:48:07
Die Windows Versionen von Blender kämpf(t)en seit Jahren mit deutlich gedämpfter Renderleistung unter Cycles ( der Renderengine in dem Test), was auf Visual Studio zurückzuführen war. Die von mir verlinkten Blenderversionen nutzen das aktuelle Visualstudio, 2.79b hingegen eine alte Version. Die neueren Visualstudio Builds scheinen massive Leistungsteigerungen beim 2990wx freizusetzen. Ich wollt die in KW32 aktuelle Blender 2.80 Experimental nutzen, damit ist Gooseberry aber unter Win10 immer abgestürzt, daher habe ich die 2.79b genommen und die 2.80 nur für BMW27.

dildo4u
2018-08-16, 15:53:33
Ähm... ja.
Bei welcher Core Zahl?Der 18 Core macht keine Probs,macht irgendwie wenig sinn Geforce Karten mit Server Xeons zu testen,die über 2000€ kosten.

https://geizhals.de/?cat=cpu1151&xf=12099_Server~25_20&asuch=&bpmin=&bpmax=&v=l&hloc=de&plz=&dist=&mail=&sort=p

maguumo
2018-08-16, 16:07:42
Na bei 32Kernen/64Threads. OC_Burner schrieb von einem 2 Sockel System meine ich. Die Karten muss man damit ja auch nicht testen, aber diese Anomalie sollte berücksichtigt werden wenn man eben entsprechende CPUs testet.

dildo4u
2018-08-16, 16:11:00
Ich schätze ehrlich gesagt das ganze löst sich in Luft auf sobald der Windows Sheduler gefixt ist,das sollte eh der erste Ansatz Punkt sein,da die CPU zum Arbeiten gedacht ist.

Linmoum
2018-08-16, 16:14:38
Oder Nvidia könnte das ganze auch einfach fixen. Aber wer weiß, vielleicht hätte dieser potentielle Fix nicht nur Auswirkungen auf die Performance mit (zu) vielen Threads. ;)

Und da es bei AMD funktioniert, sollte man für dieses Problem jetzt nicht Microsoft in die Verantwortung nehmen.

kunibätt
2018-08-16, 16:23:02
Ich wollt die in KW32 aktuelle Blender 2.80 Experimental nutzen, damit ist Gooseberry aber unter Win10 immer abgestürzt, daher habe ich die 2.79b genommen und die 2.80 nur für BMW27.

2.8 rendert es mittlerweile auch. Auf buildbot gibt es auch 2.79b Versionen mit den entsprechenden Neuerungen.

y33H@
2018-08-16, 16:46:34
Dann probiere ich morgen mal eine neuere 2.80 aus unter Win10.

kunibätt
2018-08-16, 17:51:23
Dann probiere ich morgen mal eine neuere 2.80 aus unter Win10.

Wenn du Zeit (und Lust :) ) hast, könntest du den gooseberry vielleicht auch unter Linux testen. Im Netz gibt es dazu bisher keine Werte.

aufkrawall
2018-08-16, 19:44:37
Phoronix hat nun noch mehr Windows (Server) vs. Linux und der CPU getestet, u.a. x264:
https://www.phoronix.com/scan.php?page=article&item=windows-server-2990wx&num=2
Interessanter ist in dem Zusammenhang eigentlich eher, wie die Clear Linux Compiler Flags abgehen.

registrierter Gast
2018-08-16, 20:10:30
Dieses Clear Linux?

The Clear Linux* Project for Intel® Architecture is a distribution built for cloud, client, and IoT use cases. We want to showcase the best of Intel architecture technology and performance, from low-level kernel features to complex applications that span across the entire OS stack.

aufkrawall
2018-08-16, 20:13:53
Gibts denn noch ein anderes? ;)
Damit optimiert Intel halt nicht nur für ihre CPUs, sondern auch auf Performance allgemein. Intel ist ein extrem wichtiger Linux-Contributor.

Ludi
2018-08-16, 20:23:09
Der Windows Scheduler scheint einfach nur kaputt zu sein und kann wohl nicht mit mehr als 8 oder 16 Cores umgehen, anders kann ich es mir nicht vorstellen, dass Windows in fast allen Benchmarks "zerlegt" wird.

Das hinterlässt ehrlich gesagt auch einen faden Beigeschmackt zu allen bisherigen Testergebnissen, da zu 99% auf Windows getestet wurde.

(del)
2018-08-16, 20:29:48
Hättest du die Möglichkeit den selben Test noch mal unter Linux durchzuführen?
Ich habe leider nicht so viel Ahnung von Linux und habe es auch nirgends installiert.

y33H@
2018-08-16, 23:14:44
Das hinterlässt ehrlich gesagt auch einen faden Beigeschmackt zu allen bisherigen Testergebnissen, da zu 99% auf Windows getestet wurde. Bei uns sah Linux auch nicht dolle aus, nur bei Phoronix.

robbitop
2018-08-17, 09:30:49
@y33h@

Ist es möglich, 2 oder mehr Instanzen einer Videotranscodierung zu testen?

z.B. 2...4x Handbrake aufmachen und jeweils 4x Testvideos parallel zu transcodieren.
Mich würde interessieren, ob der 2990WX hier ggü dem 2950X deutlich zulegt.

hwunboxed hat einen Test gemacht, wo sie verschiedene Programme gleichzeitig (z.B. Povray, 7-Zip und handbrake) laufen lassen haben und eines davon dann (z.B. Videoencoding) den Messwert lieferte. Je nach Konstellation hat das dem 2990WX geholfen.

y33H@
2018-08-17, 09:55:52
Dann probiere ich morgen mal eine neuere 2.80 aus unter Win10.11 min statt 15 min, aber kA ob das auch bei Intel entsprechend schneller wird.

kunibätt
2018-08-17, 10:59:52
Danke dir.

aufkrawall
2018-08-17, 13:02:46
Bei uns sah Linux auch nicht dolle aus, nur bei Phoronix.
x264 ist hier auf Windows auch ca. 5% schneller mit dem 6700k. Ein Windows-Build in Wine zeigt auch so ziemlich den gleichen Abstand.

y33H@
2018-08-17, 13:13:49
z.B. 2...4x Handbrake aufmachen und jeweils 4x Testvideos parallel zu transcodieren. Mich würde interessieren, ob der 2990WX hier ggü dem 2950X deutlich zulegt.Ich kann mehrere Instanzen unseres x265-Encoding laufen lassen, ja.

EDIT
Die CPU-Auslastung pendelt heftig zwischen 30 Prozent und 100 Prozent mit oft leerlaufenden Threads.

robbitop
2018-08-17, 14:17:06
Bei wievielen Instanzen? :)

y33H@
2018-08-17, 15:25:53
Ist egal ob 2, 3, 4.

Ganon
2018-08-17, 19:55:21
Skalierungs-Test unter Linux bei Phoronix: https://www.phoronix.com/scan.php?page=article&item=2990wx-linux-scaling&num=2

Phoronix-typisch ist die Qualität eher unteres Niveau, aber naja.

gmb
2018-08-18, 14:50:16
https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/47081-amd-ryzen-threadripper-2990wx-und-2950x-im-test-mit-vollgas-an-intel-vorbei.html?start=8


Mit niedrigen Details getestet, sind die lächerlich ;D

dildo4u
2018-08-18, 15:10:39
Hier ist mit High.

https://farm2.staticflickr.com/1874/44061771692_324408c59e_b.jpg (https://flic.kr/p/2a8A6CQ)ACO (https://flic.kr/p/2a8A6CQ) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

https://www.techspot.com/review/1678-amd-ryzen-threadripper-2990wx-2950x/page5.html

Achill
2018-08-19, 19:58:42
Es gibt einen neuen Test von phoronix: A Look At The Windows vs. Linux Scaling Performance Up To 64 Threads With The AMD 2990WX (https://www.phoronix.com/scan.php?page=article&item=2990wx-linwin-scale&num=1) inkl. unterschiedlicher CCX Konfiguration und jeweils ein aktuelles Linux (Kernel 4.18) sowie Win10.

Kurzgefasst, Windows 10 hat massive Probleme mit 64 Thread (wussten wir schon) - Linux aber nicht. Man kann also die HW vorerst ausschließen. Ansonsten ist noch interessant, dass Win10 der TR mit SMT deaktiviert und damit 32 Threads deutlich besser schmeckt. Hier würde mich ein Re-Test mit NV/AMD GPU unter Win10 nochmal interessieren, ich könnte mir vorstellen das dies deutlich besser aussieht, nicht nur weil es <64 Threads ist.

Lehdro
2018-08-19, 21:39:43
Warum testet keiner von den großen Testseiten diese 4 Konfigurationen?

32C/64T + NV
32C/64T + AMD
31C/62T + NV (oder ähnlich, hauptsache unter 64T)
31C/62T + AMD (oder ähnlich, hauptsache unter 64T)

Dann kann man auch wirklich den Einfluss vom NV Treiber klar erkennen und gleichzeitig beurteilen wie NV mit den beiden I/O-losen CCX umgeht beim Gaming.

dargo
2018-08-19, 21:42:07
Weil sie das NDA unterzeichnet haben. X-D

Spaß bei Seite... keine Ahnung was daran so schwer sein soll.

Weil Gaming mit so einer CPU derzeit eher theoretischen Charakter hat?
Warum testet man dann damit überhaupt Games?

aufkrawall
2018-08-19, 21:42:07
Weil Gaming mit so einer CPU derzeit eher theoretischen Charakter hat?

Lehdro
2018-08-19, 21:53:40
Weil Gaming mit so einer CPU derzeit eher theoretischen Charakter hat?
Deswegen testen es 99% aller Seiten mit und "stellen fest" das IF "Gift" fürs Gaming ist, was einfach nur unbewiesener FUD ist bis man das endlich mal testet. Golem hat den Anfang gemacht, wo bleibt der Rest?

Kriton
2018-08-19, 22:23:31
Bringt wahrscheinlich zu wenig clicks.

OC_Burner
2018-08-19, 22:59:12
Nvidia hat sich übrigens in der Zwischenzeit bei mir gemeldet und nach weiteren Angaben zum verwendeten Intelsystem gefragt. Natürlich ging ein Treiber-Feedback-Formular raus mit diversen Angaben zum System und ein paar Benchmarks zum Intelsystem. Die Benchmarks lassen sich auch hier finden.: 32C_64T_nv_driver_benchmarks.zip (https://www.grafik-feti.de/ftp/incoming/32C_64T_nv_driver_benchmarks.zip)

Der Bug/Fehler ist recht offensichtlich wenn man sieht das der Fehler bei Radeons so nicht auftritt. Sieht nach einen ziemlich dummen und unglücklichen Treiber-Bug aus, dessen Beseitigung wohl nicht sehr schwer sein sollte. Trotzdem ändert das nichts an der Tatsache, dass der Treadripper in theoretischen Spielebenchmarks nun schlechter dasteht als er wirklich ist.

hilo
2018-08-20, 00:40:54
"Stockfish" (oder eine andere Schach-Engine) wäre auch eine gute Testsoftware für den 2990WX. Stockfish ist OSS und kostenfrei und kann mit bis zu 512 (!) threads arbeiten. Bietet sich meiner Meinung nach jedenfalls sehr viel eher an als Spiele.

JVC
2018-08-20, 17:18:38
X - Positiver Ersteindruck, könnte interessant werden für eine Neuanschaffung.

Wobei ich zugestehen möchte das ich noch auf den 7nm AM4 mit 16 Kernen warte.
Aber Threadripper bleibt eine Option wenn das mit dem 16 Kerner auf AM4 irgendwie nicht so klappen sollte wie ich es mir vorstelle.

m.f.g. JVC

basix
2018-08-21, 19:22:44
Nvidia hat sich übrigens in der Zwischenzeit bei mir gemeldet und nach weiteren Angaben zum verwendeten Intelsystem gefragt. Natürlich ging ein Treiber-Feedback-Formular raus mit diversen Angaben zum System und ein paar Benchmarks zum Intelsystem. Die Benchmarks lassen sich auch hier finden.: 32C_64T_nv_driver_benchmarks.zip (https://www.grafik-feti.de/ftp/incoming/32C_64T_nv_driver_benchmarks.zip)

Der Bug/Fehler ist recht offensichtlich wenn man sieht das der Fehler bei Radeons so nicht auftritt. Sieht nach einen ziemlich dummen und unglücklichen Treiber-Bug aus, dessen Beseitigung wohl nicht sehr schwer sein sollte. Trotzdem ändert das nichts an der Tatsache, dass der Treadripper in theoretischen Spielebenchmarks nun schlechter dasteht als er wirklich ist.

Besten Dank für deine Zeit und Mühe :up: Schlussendlich profitieren alle davon.

dildo4u
2018-08-28, 11:52:54
2gen Threadripper im PCGH Index.


http://www.pcgameshardware.de/CPU-CPU-154106/Tests/Rangliste-Bestenliste-1143392/

DeadMeat
2018-08-28, 12:17:27
Gibt es in dem PCGH Index denn nicht auch wieder den Nvidia Treiber Bug, oder hab ich da etwas überlesen?

BBig
2018-09-21, 21:24:43
Den Linux Kernel "zusammen schrauben" in ~30 secs?
- Omg, bitte was?

Und dabei noch flüster-leise?
- Niemals, her damit! ;D

JvuDrrFHrhQ

Ich bin nur Home-User; das System wäre der totale overkill.
Geil ist es trotzdem, :tongue:

Bennington
2018-09-24, 20:16:41
Das hinterlässt ehrlich gesagt auch einen faden Beigeschmackt zu allen bisherigen Testergebnissen, da zu 99% auf Windows getestet wurde.

Blediator16
2018-09-24, 20:37:24
Das hinterlässt ehrlich gesagt auch einen faden Beigeschmackt zu allen bisherigen Testergebnissen, da zu 99% auf Windows getestet wurde.

Und dem kaputten Nvidia Treiber.

dildo4u
2018-10-05, 23:48:09
Die 12 und 24 Core 2 Gen Threadripper kommen am 29.10 und angeblich soll es Verbesserungen für 64 Thread CPU's geben in Win 1809.
Zusätzlich gibt es ein neuen Modus der den Speicherbandbreitenzuteilung optimal für Desktop Anwendungen konfiguriert.

https://www.tomshardware.com/news/amd-cpu-threadripper-2970wx-2920x,37895.html

Previewing Dynamic Local Mode for the AMD Ryzen™ Threadripper WX Series Processors

https://community.amd.com/community/gaming/blog/2018/10/05/previewing-dynamic-local-mode-for-the-amd-ryzen-threadripper-wx-series-processors


https://farm2.staticflickr.com/1944/31249618498_189b1f676f_b.jpg (https://flic.kr/p/PBqsRQ)thread (https://flic.kr/p/PBqsRQ) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

nazgul77
2018-10-06, 13:21:28
Wird vermutlich gefixt bevor der 28 Core Intel kommt,bis dahin ist das Fall Update raus.

Es gibt doch schon seit einem Jahr 28 Core Intel zu Intel-Preisen :)

https://ark.intel.com/products/120496

nazgul77
2018-10-06, 13:29:56
Der Windows Scheduler scheint einfach nur kaputt zu sein und kann wohl nicht mit mehr als 8 oder 16 Cores umgehen, anders kann ich es mir nicht vorstellen, dass Windows in fast allen Benchmarks "zerlegt" wird.

Das hinterlässt ehrlich gesagt auch einen faden Beigeschmackt zu allen bisherigen Testergebnissen, da zu 99% auf Windows getestet wurde.

Damit hast du den Punkt exakt getroffen. Es wurde mit shitty Software getestet.

Shitty OS aus Redmond und shitty Treiber aus Santa Clara, das perfekte shitty-Duo.

Der Test von Planet3Dnow zeigt: mit gescheiter Software knallt die CPU richtig.

y33H@
2018-10-06, 14:31:50
P3DN hat keinen Test des 2990WX.

MSABK
2018-10-06, 15:57:16
Es gibt doch schon seit einem Jahr 28 Core Intel zu Intel-Preisen :)

https://ark.intel.com/products/120496

Naja das ist ja rin Xeon, ich weiss nicht in wie fern da ein consumer OS darauf optimiert wird.

SKYNET
2018-10-06, 16:18:46
Naja das ist ja rin Xeon, ich weiss nicht in wie fern da ein consumer OS darauf optimiert wird.

Haben doch jenste nen xeon laufem im desktop, von daher sehe ich da keine probleme :)