PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - RYZEN (Summit Ridge): Review Thread


Seiten : 1 2 3 4 5 6 7 8 9 [10] 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31

Schlammsau
2017-03-14, 21:47:47
Einfach auf Ignore, dass hilft! ;)

Alleine das Bild zeigt doch die Problematik des ganzen:

https://abload.de/img/unbenannttdk9y.jpg

Von Review zu review gibt es stark schwankende Ergebnisse, im Mittel (-14%) steht Ryzen gar nicht so übel da. CB zB sieht nur 6% hinter dem 7700K in 720p Games ....

Was er macht, ist nur trollen und euch provozieren. Mehr nicht, der lacht sich gerade nen Ast ab weil er euch immer auf die Palme bringt.

Also Ignore und gut ist.

StefanV
2017-03-14, 22:10:39
Soll das heißen, dass die Leistung sinkt, wenn man eine bestehende Installation auf einem anderen MB+CPU betreibt?
Ja, genau das heißt das...

Tru
2017-03-14, 22:15:43
Wie die Taktraten des R7 1600X es schon ahnen lassen, liegt die TDP bei 95 Watt.

G3cko
2017-03-14, 22:23:31
Ich verstehe nicht wie du zu der Annahme kommst, anscheinend zählt für dich Wunschdenken mehr als jeder Test.
Nimm das 3DCenter Performancerating, da erreicht der 1700 78% des 7700k in Games und danach richte ich mich zumindest wenn ich eine CPU für Gaming wähle.

Und natürlich ist ein Prozessor mit wenigen Kernen auch prozentual höher ausgelastet, das hat nichts mit Kotzgrenze zu tun.:rolleyes:

Und ein paar ältere Spiele? Eher 99% des kompletten Spielemarktes laufen mit maximal 8 Threads.
Die Zukunft wird den 1700 in 5 Jahren bestimmt auf die Leistung des 7700k in Games hieven, da habe ich aber schon lange eine andere CPU gekauft.

Und Apropos Multithreaded-Games. Ein 1800x ist in Cinebench 60% vor dem 7700k in den besten multithreaded Games nehmen sich ein 7700k OC und ein 1800x OC trotzdem nichts.
Heißt du kannst darauf ewig warten bis sich da was weltbewegendes tut.

Für Streaming kann man einen OC 1700 Ryzen definitiv dem 7700k ohne großartige Nachteile vorziehen, aber nicht für reines Gaming und darum gehts dir doch.
Dir gehts darum zu verbreiten Ryzen sei die beste Spiele CPU überhaupt, deshalb dieser ganze Aufriss bei Hardwareluxx und diese irrationale Bewertung abseits realer Testergebnisse.
Komm mal wieder runter vom Hypetrain das tut dir nicht gut.

Ich habe schon an Tag 1 geschrieben, dass die Reviews zu 90% fürn Hintern sind. Die Ergebnisse ergeben teilwese überhaupt keinen Sinn und werden ohne zu hinterfragen von den Testern so hingenommen. Immerhin steht in der ct ein vernünftiges und realistisches Fazit.

Aus eigener Erfahrung mit einem 5960x kann ich dir sagen, welche Auswirkungen ein verkorkstes Energiemanagment auf die Performance hat. Wenn die Singlethreadperformance durch ständiges hin- und herschubsen selten über den Basistakt kommt (3Ghz) gegenüber den 4,5GHz OC.

Immerhin hat Intel CoreParking unter Win10 deaktiviert, sodass das Problem nun nicht mehr existent ist (aber auch nicht gelöst). Bei Ryzen aber offensichtlich sehrwohl auch ein Problem ist.

Was du aber nicht verstehen willst, dass die Zeit der QuadCores sich dem Ende neigt. Auch das pure Threads durch Hyperthreading nicht gleich Cores sind. Du warst sicherlich auch so ein SignelCore oder später DualCore-Verfächter. Die glaubten auch, dass die 200-500MHz irgend eine Relevanz hätten. Der Unterschied zu damals, bereits heute zeihen Mehrkern-CPUs gleich und gleichen mehre hunderte MHz aus. Nicht nur das, in BF1 hat man sogar weniger Rucker als beim hochgelobten 7700k. Aber das ist bestimmt der einzige Frostbyte Titel. Einmalige Sache. ;D

Wie gesagt ist halt Core2Duo E8600 reloaded. :eek:

Mangel76
2017-03-14, 22:56:55
Der Vorteil daraus liegt teilweise in der Messungenauigkeit von <5%.

Falsch.
1. Es gibt keine starre Grenze nach dem Motto "Alles unter X% ist Messungenauigkeit." Das hängt vom Anwendungsfall und der Güte des Messverfahrens ab. Und natürlich von der Anzahl der Versuche wenn es um statistische Signifikanz geht.
2. Messungenauigkeit in Form zufälliger Abweichungen würde sich durch Abweichungen in beide Richtungen zeigen. Wenn aber mehrere Tests immer eine Differenz in gleicher Richtung messen, dann ist es mit hoher Signifikanz eben keine solche Messungenauigkeit, sondern ein realer Unterschied.
3. Einzige Möglichkeit einer "gerichteten" Messungenauigkeit ist ein systematisch falsch messendes Messverfahren. Da hier aber in beiden Varianten das gleiche Verfahren verwendet wird, ist davon nicht auszugehen. Im schlimmsten Fall würde es bei beiden Tests in gleicher Weise verzerrt messen, die Differenz aber wieder unverzerrt sein.

dargo
2017-03-14, 23:03:43
Also auf welchen Stand die Mainboardhersteller bei AM4 aktuell sind finde ich schon leicht erschreckend. Vor kurzem hat Asrock bsw. beim Fatal1ty AB350 Gaming K4 mit dem Beta Bios 1.42 SMT On/Off ins Bios intergriert. :freak:
http://www.asrock.com/mb/AMD/Fatal1ty%20AB350%20Gaming%20K4/#BIOS

Hat AMD Ryzen bis zur letzten Minute geheim gehalten? X-D

Gipsel
2017-03-14, 23:53:02
Kontext:
Dass das für Dich, Schaffe, der natürlich etwas ganz anderes vorhergesagt hat, bitter ist, kann ich verstehen, aber werde damit endlich fertig.Die Anwendungsperformance ist abgesehen von Packen/Entpacken absolut bombe, ich hab nach dem Release nie was anderes gesagt.:confused:Mal den wichtigen Teil gefettet. Da mußt Du gar nicht verwirrt sein.Doch doch, das muss ich. Wenigstens hier könnte man erwarten dass man halbwegs im Kontext antwortet.;D
Ja, der Kontext ist schon wichtig. An dem hast Du nämlich versucht, Dich vorbei zu mogeln.

Oder noch mal zum Mitmeißeln: Deine Vorhersagen haben Dich unglaubwürdig gemacht, also das, was Du vor dem Launch behauptet hast (so Perlen wie nur +5% IPC zu Excavator, Baseteakt wird nicht gehalten und noch viel mehr) aus sicheren Quellen von irgendwelchen Kumpels zu wissen. Das war schlicht Bullshit. Steh dazu!

Mayk-Freak
2017-03-15, 00:59:47
Unterstützt Netflix 4k den Ryzen oder braucht man dafür Kaby?

Armaq
2017-03-15, 01:18:35
Also auf welchen Stand die Mainboardhersteller bei AM4 aktuell sind finde ich schon leicht erschreckend. Vor kurzem hat Asrock bsw. beim Fatal1ty AB350 Gaming K4 mit dem Beta Bios 1.42 SMT On/Off ins Bios intergriert. :freak:
http://www.asrock.com/mb/AMD/Fatal1ty%20AB350%20Gaming%20K4/#BIOS

Hat AMD Ryzen bis zur letzten Minute geheim gehalten? X-D
Ich überlege mir ein Ryzen System zu bauen, aber zwei Bedingungen:

1. kein Kompromiss bei MB
2. kein Kompromiss bei RAM

Kannst derzeit vergessen.

Linmoum
2017-03-15, 01:56:52
Das wurde doch jetzt schon getestet bei CB brachte das 2% im Schnitt.
Abgeschaltenes SMT brachte 3%, genausoviel wie bei Intel.
Und die CCX Geschichte ist genauso banal, das hat PCGH in 4 Spielen bereits gemessen.
Und jetzt gehen wir einfach mal etwas näher darauf ein. CB hat in Project Cars einen Zuwachs von +18% mit HPET off und Höchstleistungsmodus verzeichnen können. Das ist... doch recht viel.
PCGH hat in Far Cry 4 mit SMT off +39% an avg. fps (65,4 vs. 90,6) verzeichnen können. Das ist... enorm viel.
Und auch von hardware.fr hat man noch diverse Vergleichswerte, die haben ihr Launch-Review nämlich dahingehend noch mal ergänzt - und ebenfalls teilweise doch recht deutliche Unterschiede bei der Performance feststellen können.

https://i.gyazo.com/0f3845f57afe98cc5dcbf8738ac5f4cf.png
http://www.hardware.fr/articles/956-8/retour-smt-mode-high-performance.html

Es gibt aktuell schlicht kein pauschales "das und das bringt eh (so gut wie) nichts". Es gibt Spiele, wo kaum bis gar keine Unterschiede festzustellen sind und dann gibt es wiederum Spiele, bei denen die Unterschiede enorm sind. Vor allem dann, wenn man bedenkt, dass man u.a. nur den Energiesparmodus in Windows umstellen muss.

Foobar2001
2017-03-15, 05:13:09
Unterstützt Netflix 4k den Ryzen oder braucht man dafür Kaby?
Was soll die Frage? Ryzen hat keine GPU. Das funktioniert auch mit "Kaby" nur mit der integrierten Grafik.

Loeschzwerg
2017-03-15, 06:56:08
Hier:

https://www.computerbase.de/forum/showthread.php?t=1666948&p=19879227#post19879227

Hat das hier jetzt schon mal jemand überprüft? Ich vermute mal NEIN, denn es wird sich ja andauernd in irgendwelchen Bullshit verzettelt...

Edit:
https://www.reddit.com/r/Amd/comments/5zdn7p/nvidia_threaded_optimization_and_ryzen_problems/

dargo
2017-03-15, 08:34:04
Ich überlege mir ein Ryzen System zu bauen, aber zwei Bedingungen:

1. kein Kompromiss bei MB
2. kein Kompromiss bei RAM

Kannst derzeit vergessen.
Da gehts dir aktuell wie mir. :freak: Ich möchte auch keine Lotterie beim Speicher. Da ich es aber eh nicht so eilig habe warte ich noch. Erstens bis der Sixcore kommt, zweitens bis es mehr Bretter gibt und die Biose gereift sind. Und drittens bis es AMD AM4 zertifizierte Speicherriegel der jeweiligen Hersteller gibt.

dargo
2017-03-15, 08:41:09
@dargo: wenn du beim board auf qualität und verläßlichkeit setzt, solltest du nicht unbedingt asrock verwenden. das ist bei denen immer wieder aufs neue ein bios-drama...
Sorry, aber da muss ich dir widersprechen. Mit dem aktuellen Asrock Brett bin ich absolut zufrieden. Das Asus-Brett davor (für Lynnfield) war gar zickiger.

Edit:
Lol... 219$ für den R5 1600. X-D
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11320773&postcount=6861

Und schon am 11.04.17 gehts los. :up:

Pirx
2017-03-15, 08:50:42
Weiß jemand, ab wann die Asrock-Boards lieferbar sein sollen?

Loeschzwerg
2017-03-15, 08:50:48
@dargo: wenn du beim board auf qualität und verläßlichkeit setzt, solltest du nicht unbedingt asrock verwenden. das ist bei denen immer wieder aufs neue ein bios-drama...

Da nehmen sich die Hersteller doch alle nicht mehr so viel, die Athlon/Pentium Zeiten sind vorbei.

Godmode
2017-03-15, 09:00:17
Gefühlt muss hier jeden Tag aufgeräumt werden. Muss das wirklich sein? :rolleyes:

user0815
2017-03-15, 09:01:01
Weiss jemand wann es ITX Boards geben wird? Biostar hat ja schon eins gezeigt, aber mehr Info gabs auch nicht

[MK2]Mythos
2017-03-15, 09:01:47
April wurde von diversen Herstellern genannt.

MechWOLLIer
2017-03-15, 09:02:23
Schade dass nicht das neuste gestet wurde.
Das gab es zum Testzeitpunkt leider noch nicht.

Threaded-Optimization in den Systemsteuerungen bei NV...wurde das bei CB und auch Golem, PCGH etc deaktiviert oder Aktiviert?
Die Einstellung ist aktiviert.

Und auch wenn mir das mal wieder keiner glauben wird: Nein, auf einer Radeon-Grafikkarte wurde hier im CPU-Limit nicht plötzlich alles schneller. Das haben wir vor ein, zwei Wochen bereits gegengeprüft (und auch schon vor dem Launch) und bei uns war dort die Performance gleich gut bzw. manchmal Nvidia besser. Ich bezweifle ja nicht, dass es Spiele gibt, wo man mit einer AMD-GPU im CPU-Limit schneller ist. Generell ist das aber definitiv nicht der Fall.

Nur müsste man die HPET, Höchstleistung und Windows7 Tests auch mit den Intel CPUs durchführen, um einen korrekten Vergleich zu haben.
So werden hier nur Äpfel mit Birnen verglichen, bzw. es lässt sich lediglich herauslesen wie viel ein Ryzen durch diese Massnahmen gewinnt, nicht aber ob sich am Verhältnis zu andern CPUs etwas ändert.
Intel gewinnt weder durch abgeschaltetes HPET, noch durch Höchstleistung etwas (Intel nutzt ja auch gar kein Core Parking). Windows 7 habe ich jetzt nicht ausprobiert.

Die Bemerkungen/Ergebnisse zu HPET halte ich allerdings für eher fragwürdig. Erstens lässt sich HPET auf zweierlei Weise aktivieren/deaktivieren: (1) Im BIOS und (2) in Windows.
Auf dem großen Asus-Board lässt sich HPET im BIOS nicht abschalten. Wir haben es also unter Windows per Konsolenbefehl ab- und angeschaltet.

Lowkey
2017-03-15, 09:05:58
Ich überlege mir ein Ryzen System zu bauen, aber zwei Bedingungen:

1. kein Kompromiss bei MB
2. kein Kompromiss bei RAM

Kannst derzeit vergessen.

Mainboard Asus Crosshair VI wegen der Popularität, wobei das Gigabyte 7 die zweite Option ist.
Und dazu die empfohlenen Gskill 3200 CL14 Module (weil sie garantiert einseitig sind). Mehr als 16gb sind deutlich langsamer bzw. genaueres für 32gb habe ich spontan noch nicht gefunden. Für Intel gibt es nun die ersten 3600er Kits mit 32gb, vermutlich mit optimiertem Anordnungsdesign.

Das Nonplusultra wäre also ein Speichertakt von 3200 CL14 oder schneller/höher. Und dafür zahlt man den Aufpreis bei Board und Speicher.

deekey777
2017-03-15, 09:07:31
Was soll die Frage? Ryzen hat keine GPU. Das funktioniert auch mit "Kaby" nur mit der integrierten Grafik.

Die hat Skylake auch, aber es funktioniert nicht. Genau wie KL in Verbindung mit der aktuellesten dedizierten Grafikkarte.

Die Frage zeigt die allgemeine Unsicherheit, wenn es um die Wiedergabe von geschützten 4K-Medien geht. Die ersten Spekulationen waren, Intel dreht da ein eigenes Ding. Als UHD-BD-Software&Laufwerke für PC angekündigt worden sind, rückte Intels SGX in den Vordergrund, was aber schon mit Skylakes angekündigt worden ist. Laut Anandtech ist SGX auch im Mainboard festverankert: Hat man das falsche BIOS, das falsche Mainboard bzw. den falschen Chipset, so gibt es kein SGX. Als heise-online darüber berichtete, dass Netflix UHD auch in der Windows-App verfügbar ist und eben nur auf KL-Systemen, dachte ich auch, es liegt an SGX. Die Antwort im Forum war: Im BIOS sei das SGX deaktiviert gewesen, Netflix erlaube die Wiedergabe nur dann, wenn auf dem PC von Netflix zertifizierte Treiber installiert sind, die es weder von AMD noch von Nvidia gibt.

Lowkey
2017-03-15, 09:13:40
Intel gewinnt weder durch abgeschaltetes HPET, noch durch Höchstleistung etwas (Intel nutzt ja auch gar kein Core Parking). Windows 7 habe ich jetzt nicht ausprobiert.

Auf dem großen Asus-Board lässt sich HPET im BIOS nicht abschalten. Wir haben es also unter Windows per Konsolenbefehl ab- und angeschaltet.

Damals, vor Jahren, hatte jemand festgestellt, dass man HPET im Bios und in Windows deaktivieren muss. Ob das auf Ryzen zutrifft?
Jedenfalls ist Intel im Encoding Benchmark ohne HPET 10% schneller.

Welche Aufgabe hatten eigentlich die ganzen Anti-Intel-Coreparking-Tools? Oder besteht hier gerade immer das Problem, welche Plattform man zum Vergleich antreten läßt (2011 oder 1151)?

Birdman
2017-03-15, 09:29:03
Es gibt aktuell schlicht kein pauschales "das und das bringt eh (so gut wie) nichts". Es gibt Spiele, wo kaum bis gar keine Unterschiede festzustellen sind und dann gibt es wiederum Spiele, bei denen die Unterschiede enorm sind.
Das ist echt ein Wildwuchs.
Es gibt aber durchaus eine - imho interessante - pauschale. Deaktiviert man SMT dann hat man in jeder Situation die beste Spieleleistung und dies komplett unabhängig vom eingestellen Energieprofil.
Wobei da halt auch noch einige Optionen fehlen, wie z.B. Performance Profil ohne SMT oder kein Parking und kein SMT in Kombination.

Hasenpfote
2017-03-15, 09:31:45
Und auch von hardware.fr hat man noch diverse Vergleichswerte, die haben ihr Launch-Review nämlich dahingehend noch mal ergänzt - und ebenfalls teilweise doch recht deutliche Unterschiede bei der Performance feststellen können.

...

Es gibt aktuell schlicht kein pauschales "das und das bringt eh (so gut wie) nichts". Es gibt Spiele, wo kaum bis gar keine Unterschiede festzustellen sind und dann gibt es wiederum Spiele, bei denen die Unterschiede enorm sind. Vor allem dann, wenn man bedenkt, dass man u.a. nur den Energiesparmodus in Windows umstellen muss.Also was ich da sehe ist, dass man mit Balanced Energieprofil und SMT=off unter Spielen am Besten fährt. Schade, dass man SMT nicht unter Windows zur Laufzeit ändern kann (oder kann man?). Änderungen am Energieprofil könnte man ja automatisch vorm Start eines Spiels vornehmen (Batch-file schreiben o.ä.)

Die Preise für den R5 sehen ja mal echt nett aus.
Aber ich werde standhaft bleiben und nen 1700 holen.
Hatte vor Jahren schon nen Athlon XP 1700, der mir Gute Dienste geleistet hat. ;D

edit:
zum Thema Frametimes und weniger gefühltes Stottern sagt folgendes Bild das genaue Gegenteil (oder ich bin zu blöd Diagramme zu lesen):
https://pics.computerbase.de/7/6/7/3/7/diagramme/209-630.1488454496.png

dargo
2017-03-15, 09:38:36
Es gibt aber durchaus eine - imho interessante - pauschale. Deaktiviert man SMT dann hat man in jeder Situation die beste Spieleleistung und dies komplett unabhängig vom eingestellen Energieprofil.

Das ist schlicht und ergreifend falsch.

Birdman
2017-03-15, 09:39:24
..noch durch Höchstleistung etwas (Intel nutzt ja auch gar kein Core Parking). Windows 7 habe ich jetzt nicht ausprobiert.
Also die Intel Serverplattformen tun es und da macht es im Virtualisierungs- sowie Storage/IO Umfeld ziemlich viel aus, ob man dies aktiviert hat oder nicht.

Ist aber gut möglich dass dies bei Consumerboards allein schon durchs BIOS so gesteuert wird, dass die Cores im Normalfall nie in die entsprechenden C-States gehen und daher das Energieprofil von Windows quasi keine Rolle mehr spielt.

dargo
2017-03-15, 09:40:28
edit:
zum Thema Frametimes und weniger gefühltes Stottern sagt folgendes Bild das genaue Gegenteil (oder ich bin zu blöd Diagramme zu lesen):
https://pics.computerbase.de/7/6/7/3/7/diagramme/209-630.1488454496.png
Du solltest aktuell den DX12 Renderpfad von BF1 ignorieren, das hat DICE immer noch nicht auf die Reihe bekommen was traurig genug ist.

Screemer
2017-03-15, 10:29:35
Deaktiviert man SMT dann hat man in jeder Situation die beste Spieleleistung und dies komplett unabhängig vom eingestellen Energieprofil.
das kann man so pauschal auch nicht sagen. hardware.fr zeigt zumindest für witcher 3 die beste performance mit smt on.

vinacis_vivids
2017-03-15, 10:35:42
Aber ich werde standhaft bleiben und nen 1700 holen.
Hatte vor Jahren schon nen Athlon XP 1700, der mir Gute Dienste geleistet hat. ;D

edit:
zum Thema Frametimes und weniger gefühltes Stottern sagt folgendes Bild das genaue Gegenteil (oder ich bin zu blöd Diagramme zu lesen):
https://pics.computerbase.de/7/6/7/3/7/diagramme/209-630.1488454496.png

Hier sind die "korrekten" Frametimes für bf1@DX11 für Nvidia Karten.

https://abload.de/img/bf1ft1sumv.png

dildo4u
2017-03-15, 10:35:46
Battlefield 1 mit DLC: Neue und aktualisierte Multiplayer-CPU-Benchmarks inklusive Ryzen R7 1700


http://abload.de/img/ryzenqdz4j.png


http://www.pcgameshardware.de/Battlefield-1-2016-Spiel-54981/Specials/Battlefield-1-They-Shall-not-Pass-Benchmarks-1223170/

Ein 1800X wäre noch interessant bzw der 1700@4 Ghz wenn Möglich.

Grumbart
2017-03-15, 10:43:28
Oder der i7-6900K @ 3 Ghz

devastor
2017-03-15, 10:44:42
Was ist das denn für ein Unsinniger Test? Den 1700 lässt man auf Standardtakt und die i7 zieht man auf 4 Ghz OC?

vinacis_vivids
2017-03-15, 10:45:40
Und der Ram bei Ryzen 1700? 2133Mhz?

dildo4u
2017-03-15, 10:47:10
Diese Benchmarks sind nicht(!) direkt vergleichbar, sondern bilden die Performance von unterschiedlichen Testsystemen ab. Allerdings können sie diese Werte nutzen, um die etwaige Performance eines ähnlichen Systems zu abstrahieren...

devastor
2017-03-15, 10:47:20
Und der Ram bei Ryzen 1700? 2133Mhz?

Gute Frage, steht natürlich nicht dabei. Sehr in transparent.

ChaosTM
2017-03-15, 10:57:53
Noch 2 Monate abwarten und das Reifen der Treiber beobachten und dann wird entschieden.

Die Spieleperformance sollte sich irgendwo im einstelligen Prozentbereich (+/-) vom Intels Top Modellen ein-pendeln , speziell unter 4k.
Der Rest ist sowieso sauschnell.

fondness
2017-03-15, 11:07:14
Und der Ram bei Ryzen 1700? 2133Mhz?

DDR4 2400 und Takt auf 3 Ghz fixiert bei Ryzen. Die i7 haben hingegen DDR4-3000. Seltsamer Test, man bräuchte zumindest einen Vergleich beim selben Takt und mit dem selben RAM, aber man sieht natürlich schön, dass die Leistung fast linear mit der Coreanzahl skaliert.

Michalito
2017-03-15, 11:08:27
Ich bin auch immer wieder erstaunt was die Leute so an erwartungshaltung an AMD haben..
Tenor: Kaufe ich wenn die das Rad neuerfinden..

Ryzen ist besser geworden als "realistische" Optimisten geglaubt haben, vom absolut hammermäßigen P/L gar nicht zu reden. Und, das wird noch schlimmer für Intel. Gut so.

dargo
2017-03-15, 11:09:16
Battlefield 1 mit DLC: Neue und aktualisierte Multiplayer-CPU-Benchmarks inklusive Ryzen R7 1700


http://abload.de/img/ryzenqdz4j.png


http://www.pcgameshardware.de/Battlefield-1-2016-Spiel-54981/Specials/Battlefield-1-They-Shall-not-Pass-Benchmarks-1223170/

Ein 1800X wäre noch interessant bzw der 1700@4 Ghz wenn Möglich.
Ca. 165 avg.fps mit 3,7Ghz Allcore wenn die Testszene komplett cpu-limitiert ist. Mit 4Ghz Allcore ca. 179 avg.fps.

DDR4 2400 und Takt auf 3 Ghz fixiert bei Ryzen. Die i7 haben hingegen DDR4-3000.
Achso... auf 3Ghz fixiert? WTF? :freak:

Dann ergibt ein R7 1800X mit Default 3,7Ghz Allcore ca. 176 avg.fps und ein R7 1700 mit 4Ghz Allcore ca. 190 avg.fps.

dildo4u
2017-03-15, 11:11:52
Also ziemlich genau 2x vom 8350 bei selbem Takt krank,warum ist nur der Ram grad so teuer verdammte Kacke.

dargo
2017-03-15, 11:18:34
Also ziemlich genau 2x vom 8350 bei selbem Takt krank,warum ist nur der Ram grad so teuer verdammte Kacke.
Das wurmt mich aktuell auch etwas. :usad:

Michalito
2017-03-15, 11:29:43
Wohl dem der gebunkert hat..Habe leider nicht bein den Latenzen aufgepasst. (F4-3200C16D-32GVK & CMK16GX4M2B3000C15)


€: Huch..

MechWOLLIer
2017-03-15, 11:52:43
Also die Intel Serverplattformen tun es und da macht es im Virtualisierungs- sowie Storage/IO Umfeld ziemlich viel aus, ob man dies aktiviert hat oder nicht.

Ist aber gut möglich dass dies bei Consumerboards allein schon durchs BIOS so gesteuert wird, dass die Cores im Normalfall nie in die entsprechenden C-States gehen und daher das Energieprofil von Windows quasi keine Rolle mehr spielt.
Zu den Serverplattformen kann ich nichts sagen. Aber ich habe hier gerade einen Core i7-6850K unter Windows 10 mit allen Updates laufen. Und da gibt es auf ausbalanciert kein Core Parking. Genau dasselbe macht der Core i7-7700K.

MadPenguin
2017-03-15, 12:17:32
Zu den Serverplattformen kann ich nichts sagen. Aber ich habe hier gerade einen Core i7-6850K unter Windows 10 mit allen Updates laufen. Und da gibt es auf ausbalanciert kein Core Parking. Genau dasselbe macht der Core i7-7700K.

Beim Ryzen wird bei ausbalaciert hingegen Core-Parking aktiviert. Wird mit einem Update bald behoben

dildo4u
2017-03-15, 12:30:13
Danke an die PCGH das ging schnell.

http://abload.de/img/ryzensu8s62.png

http://www.pcgameshardware.de/Battlefield-1-2016-Spiel-54981/Specials/Battlefield-1-They-Shall-not-Pass-Benchmarks-1223170/

dargo
2017-03-15, 12:32:22
358€ vs. 1.100€ = Gleichstand. ;D ;D ;D

dildo4u
2017-03-15, 12:34:42
Leider ist Frostbite noch die Ausnahme was das Corescaling angeht,Dice hat es einfach drauf seit sie DX11.1 nutzen.

Disco_STFU
2017-03-15, 12:34:45
Oder der i7-6900K @ 3 Ghz

Das hab ich auch net verstanden. WIeso testet man den 6900k nicht @3Ghz... :freak:

dargo
2017-03-15, 12:36:51
Hat man jetzt nachgetragen.

Ist das eigentlich ein Fehler in der Grafik mit i7-6950X @3Ghz und 8C/16T? Normalerweise ist das eine 10C/20T CPU. Oder hat die PCGH damit nur einen Octacore simuliert?

Leider ist Frostbite noch die Ausnahme was das Corescaling angeht,Dice hat es einfach drauf seit sie DX11.1 nutzen.
Es wird sicherlich in den kommenden Jahren keine Ausnahme bleiben. ;) Bin schon auf das neue Mass Effect gespannt.

dildo4u
2017-03-15, 12:37:14
Das hab ich auch net verstanden. WIeso testet man den 6900k nicht @3Ghz... :freak:
Siehe zwei Post's über dir PCGH liest hier immer mit. :up:

Hat man jetzt nachgetragen.

Ist das eigentlich ein Fehler in der Grafik mit i7-6950X @3Ghz und 8C/16T? Normalerweise ist das eine 10C/20T CPU. Oder hat die PCGH damit nur einen Octacore simuliert?

Es wird sicherlich in den kommenden Jahren keine Ausnahme bleiben. ;)

Sie haben ein 8 Core aber vermutlich sitzt jetzt der 10 Core im System.

Godmode
2017-03-15, 12:38:15
Im Fließtext steht dann übrigens: Der R7 1700 läuft bei diesen Tests mit 3,0 GHz und nur 2400er-RAM, wir tasten uns noch an stabile Taktraten dieses Testsystems heran.


Hat man jetzt nachgetragen.

Ist das eigentlich ein Fehler in der Grafik mit i7-6950X @3Ghz und 8C/16T? Normalerweise ist das eine 10C/20T CPU. Oder hat die PCGH damit nur einen Octacore simuliert?


Text lesen, es steht alles drinnen.

Wir haben den i7-6950X nun außerdem mit den selben Taktraten (sowohl CPU als auch RAM) getestet und bei diesem 2 Kerne deaktiviert, um einen Pro-Takt-Vergleich mit Ryzen zu ermöglichen. Kleine Überraschung: Die beiden Prozessoren bewegen sich nun auf einer Augenhöhe.

http://www.pcgameshardware.de/Battlefield-1-2016-Spiel-54981/Specials/Battlefield-1-They-Shall-not-Pass-Benchmarks-1223170/

blaidd
2017-03-15, 12:40:34
Das hab ich auch net verstanden. WIeso testet man den 6900k nicht @3Ghz... :freak:

Weil ich den grad nicht da hab. Kann ich dann schwerlich testen ;).
Raff ergänzt grad noch ein paar Werte mit übertaktetem Ryzen...

dargo
2017-03-15, 12:42:26
Text lesen, es steht alles drinnen.

http://www.pcgameshardware.de/Battlefield-1-2016-Spiel-54981/Specials/Battlefield-1-They-Shall-not-Pass-Benchmarks-1223170/
Für mich etwas unverständlich da der 10 Kerner 25% mehr L3 hat. Und den 8 Kerner hat man eh schon da.

Edit:
Ok... der 8 Kerner ist auf Wanderschaft. :D

Disco_STFU
2017-03-15, 12:46:56
Ich frag mich wie lange diese unsägliche Situation mit den Mainboards noch anhält... Was könnte AMD CPUs verkaufen wenn es Verfügbarkeit in breiter Masse gäbe...

Raff
2017-03-15, 12:50:48
Das letzte Update ging bei PCGH soeben live: R7 1700 @ 3,9 GHz als Best-Case-Konfiguration. :naughty:

MfG,
Raff

dildo4u
2017-03-15, 12:54:32
Das letzte Update ging bei PCGH soeben live: R7 1700 @ 3,9 GHz als Best-Case-Konfiguration. :naughty:

MfG,
Raff
Rockt hoffentlich bekommen mehr Board's ein hohen Ram takt hin.Das Ding scheint zu fliegen sobald man schnellen Ram nutzt.

Isen
2017-03-15, 12:57:07
Das letzte Update ging bei PCGH soeben live: R7 1700 @ 3,9 GHz als Best-Case-Konfiguration. :naughty:

MfG,
Raff

Kriegt ihr Zeitnah irgendwo nen Gigabyte K5 oder 7 in die Fuchteln?
Wenn ja, testet dann mit denen - wenn möglich mit Trident Z Ram.

Damit laufen auch mehr als 3200

dargo
2017-03-15, 13:00:25
Das letzte Update ging bei PCGH soeben live: R7 1700 @ 3,9 GHz als Best-Case-Konfiguration. :naughty:

Da bremst aber beim Ryzen System ganz schön was. 30% mehr Takt ergeben nur 18% mehr Leistung. Die Speicherbandbreite?

Edit:
Ich sehe jetzt erst, dass der i7-6900K @4Ghz gegenüber dem simulierten 8C/16T @3Ghz bei i7-6950X auch nur mit 23% bei +33% Takt skaliert. Kann es sein, dass da oben die Graka wieder etwas limitiert?

Sven77
2017-03-15, 13:01:58
Sind 4Ghz beim 1700 nicht Best Case?

dildo4u
2017-03-15, 13:03:19
Sind 4Ghz beim 1700 nicht Best Case?
3.8-3.9 sind normal,die 1800X gehen meist 100mhz mehr.

https://www.reddit.com/r/Amd/comments/5xybp7/silicon_lottery_ryzen_overclock_statistics/

dargo
2017-03-15, 13:03:48
Sind 4Ghz beim 1700 nicht Best Case?
Nicht mit einer gesunden Vcore.

Isen
2017-03-15, 13:03:51
Takt, da fehlt aber noch der RAM der da noch ordentlich mit rein spielt ... Aktuell, sofern die Messung korrekt ist auf Intel Niveau (77ns, statt +100ns)

Sven77
2017-03-15, 13:09:02
Hm schade.. ob 3,9 oder 4 macht zwar kaum Unterschied aber ist so eine psychologische Barriere. Ich glaube ich möchte dieses Jahr doch noch meinen Ivy ersetzen..

Th3o
2017-03-15, 13:11:14
@Isen
gehen die 3200 auch mit 2x16GB?

Isen
2017-03-15, 13:12:29
Kann ich nächste Woche für dich testen - weitere 16GB sind auf dem Weg.
Edit: Ah - 32Gb Kit.. hm... ich hau mal meinen Kumpel an, welche er in seiner Möhre hat. Ich guck mal :)

Edit:

@Th3o

Wie eilig isses denn? Er hätte die 3000 CL15 vo G.Skill die könnte ich mal rein stecken und probeweise auf 3200 hiefen. Reicht dir das?

deekey777
2017-03-15, 13:13:01
Sind 4Ghz beim 1700 nicht Best Case?
Ich weiß nicht einmal, was er meint.

Die Frage ist, welchen Aufwand ich als Nutzer betreiben muss, um einen 1700 auf 3,9 GHz oder mehr zu bringen. Sprich: Kühlung (Spyre ausreichend?), Mainboard (reichen einfachere B350-Boards oder müssen es wirklich X370er sein).

Menace
2017-03-15, 13:15:19
Schöner Test, danke dafür. :up:

Gibt es dazu auch ein Vergleich des Verbrauchs (vor allem zwischen 1700 @ 3 GHz und 3.9 GHz?

Th3o
2017-03-15, 13:27:09
@Isen
Bin über jeder Info diesbezüglich froh. Ich denke in spätestens 2-3 Wochen werde ich zuschlagen, brauch was Neues.

Armaq
2017-03-15, 13:38:55
Jetzt brauch ich ne Info zu Board und Ram, nen 1700/x würde ich mir gönnen. Aber bei 400 € für 32 GB wird mir schon übel.

fondness
2017-03-15, 14:38:16
Das letzte Update ging bei PCGH soeben live: R7 1700 @ 3,9 GHz als Best-Case-Konfiguration. :naughty:

MfG,
Raff

/Edit: Mein Fehler. Bitte löschen. Sehe gerade läuft zumindest mit 2800 RAM.

Grumbart
2017-03-15, 14:43:37
@blaidd Alles klar und Danke. Zum IPC Vergleich reicht das. In diesem Test 1:0 Ryzen ;-)
Core i7 6950X @ 3,0 GHz (8C/16T)
vs
Ryzen 7 1700 @ 3,0 GHz (8C/16T)

M4xw0lf
2017-03-15, 14:48:57
Jetzt brauch ich ne Info zu Board und Ram, nen 1700/x würde ich mir gönnen. Aber bei 400 € für 32 GB wird mir schon übel.
Same here. :mad:

Dino-Fossil
2017-03-15, 14:51:31
Wurde das schon gepostet?
http://i.imgur.com/UTHepzS.png


Angeblich Ryzen 5 ab dem 11.04. - laut einem wieder verschwundenen Artikel (NDA bis morgen?) bei Guru3d.

Wenn was dran ist will AMD Ryzen 5 wohl noch vor den 500er GPUs bringen, die kommen am 18. laut CB?

fondness
2017-03-15, 14:56:24
Tja, ich hoffe das dann auch die Mainboardverfügbarkeit steigt. Aktuell würden zusätzliche CPUs gar nichts bringen, da die Mainboards fehlen.

eratte
2017-03-15, 14:58:56
Mainboards sind selbst bei Händlern hier vor Ort lieferbar (Düsseldorf/Niederrhein). Nicht alle aber einige.

y33H@
2017-03-15, 15:00:07
Obacht, die Meldung ist teils falsch.

Unicous
2017-03-15, 15:02:22
Dann hoffen wir mal, dass die Tatraten bei den 4-Kerner deutlich höher sind als angegeben.:wink:

Aber ich schätze mal es sind eher die Preise (und der Release-Termin?).:freak:

Linmoum
2017-03-15, 15:06:34
Takt bei den Vierkernern würde doch passen, wenn man das in Relation zu Intel setzt.

$189 für 'nen 3.3/3.7 Ryzen, bei Intel bekommst du für $195 (laut newegg) 'nen 7400 mit 3.0/3.5.

Tru
2017-03-15, 15:14:08
Dann hoffen wir mal, dass die Tatraten bei den 4-Kerner deutlich höher sind als angegeben.:wink:

Fast. :P

Linmoum
2017-03-15, 15:16:12
Die der Sechskerner sind höher? :freak:

Unicous
2017-03-15, 15:28:23
@Linmoun

Nun ist es aber so, dass Ryzen von der IPC noch nicht ganz so gut mithalten kann und 10% höherer Basistakt, respektive knapp 6% höherer Single-Turbo (knapp 9% mit XFR:freak:) das nicht unbedingt ausgleichen können.:wink:

Und das ist dann schon eine Mainstream-CPU wo dann auch nicht immer Battlefield gespielt wird, also viele Kerne/Threads nicht immer zum Tragen kommen.


edit:

Ich finde die Taktraten jedenfalls für einen "halben" Zeppelin zu niedrig wenn man bedenkt, dass die TDP bei 65W liegt ( und hoffentlich nicht bei 95W:eek:). Bei Intel quetscht man da immerhin auch noch eine iGPU rein.

BlacKi
2017-03-15, 15:36:52
Das letzte Update ging bei PCGH soeben live: R7 1700 @ 3,9 GHz als Best-Case-Konfiguration. :naughty:

MfG,
Raff
könnt ihr mal ne radeon reinhauen und im cpu limit testen?

dargo
2017-03-15, 15:42:23
Ich finde die Taktraten jedenfalls für einen "halben" Zeppelin zu niedrig wenn man bedenkt, dass die TDP bei 65W liegt ( und hoffentlich nicht bei 95W:eek:). Bei Intel quetscht man da immerhin auch noch eine iGPU rein.
Naja... der i7-7000 verballert schon 63W bei etwas mehr Streß, und die IGP idled dabei noch.
http://www.tomshardware.de/intel-kaby-lake-i7-7700k-i7-7700-i5-7600k-i5-7600,testberichte-242304-9.html

Wenn beide am Ackern sind werden die 65W TDP jedenfalls überschritten.

Unicous
2017-03-15, 15:44:38
Das macht Ryzen auch... ganz ohne iGPU.:tongue:

Raff
2017-03-15, 15:45:46
könnt ihr mal ne radeon reinhauen und im cpu limit testen?

Das ist bereits geschehen (bei 20 Spielen), aber ein wichtiger Bestandteil der kommenden Offline-Publikation.

MfG,
Raff

dildo4u
2017-03-15, 15:46:25
Das macht Ryzen auch... ganz ohne iGPU.:tongue:

Macht auch Sinn mit SMT wird man die Kerne deutlich besser auslasten.

dargo
2017-03-15, 15:50:19
Das macht Ryzen auch... ganz ohne iGPU.:tongue:
Das weißt du noch gar nicht. :P

Rein theoretisch müsste ein Ryzen 4C/8T mit 3,6/4Ghz ca. 56W ziehen wenn ich Prime95 oder Luxrender als Maßstab nehme.
http://www.tomshardware.de/amd-ryzen-7-1800x-cpu,testberichte-242330-11.html

Rein theoretisch halt. Der 4 Kerner wird mit weniger Takt kommen und sollte somit noch weniger verbrauchen. Ich weiß jetzt nur nicht ob die deaktivierten Einheiten beim nichts tun minimal was verbrauchen. Eigentlich nicht wenn sie nicht mit Strom versorgt werden.

Unicous
2017-03-15, 15:58:58
Das weißt du noch gar nicht. :P

Doch?:confused:

Ich schrub Ryzen, nicht 4-Kern Ryzen.:P

edit:

Wir werden sehen, was für Chips AMD bei den 4-Kernern verwendet. So wie es momentan aussieht waren die wohl eher für die Tonne bestimmt wenn man sich die Taktraten anschaut.

dargo
2017-03-15, 16:00:13
Ich finde die Taktraten jedenfalls für einen "halben" Zeppelin zu niedrig wenn man bedenkt, dass die TDP bei 65W liegt ( und hoffentlich nicht bei 95W:eek:). Bei Intel quetscht man da immerhin auch noch eine iGPU rein.
:rolleyes:

Dass Intel eine IGP in die 8C/16T CPUs rein quetscht wäre mir neu.

Unicous
2017-03-15, 16:05:47
Wäre toll wenn du nicht von der eigentlichen Diskussion ablenkst indem du Nebenschauplätze eröffnest.

Die (angeblichen) Taktraten sind zu niedrig und es ist unverständlich wie diese zustande kommen. Das sagst du doch selbst indem du behauptest ein 4-Kern Ryzen müsste laut deiner Milchmädchenrechnung bei 56W herauskommen.:rolleyes::rolleyes::rolleyes:

dargo
2017-03-15, 16:08:51
Wäre toll wenn du nicht von der eigentlichen Diskussion ablenkst indem du Nebenschauplätze eröffnest.

Wen willst du hier eigentlich verkackeiern? Dein Vergleich bezog sich eindeutig auf einen 65W TDP Vierkerner von Intel. Dein Kurzzeitgedächtnis lässt zu wünschen übrig. Denkbar wäre selbstverständlich auch, dass der 4 Kern "Abfall" etwas mehr Spannung braucht und sich somit der Vorteil vom etwas niedrigerem Takt beim Stromverbrauch in Luft auflöst. Ist alles noch offen.

SimonX
2017-03-15, 16:19:23
Further, Zen uses “neural network-based branch prediction” to more efficiently prepare operations. To put it more simply, the new architecture is designed to work smarter, not harder, by helping operations flow smoothly through the chip.

Hat sich das schonmal jemand genauer angeschaut? Heißt das, daß ein Programm bei gleichen Input/Ouput Daten beim zweiten Lauf schneller wird, weil das selbstlernende neuronale Netz besser weiss was das Programm will?

So "Terminator 2"?

robbitop
2017-03-15, 16:22:22
Ich kann mir vorstellen, dass die Taktraten etwas an der hohen Packdichte und dem automatisierten Layout (hdlibs) leidet. Im Gegenzug konnte man unheimlich viel auf den Kern unterbringen.

Fabian_HT4U
2017-03-15, 17:48:38
Hat sich das schonmal jemand genauer angeschaut? Heißt das, daß ein Programm bei gleichen Input/Ouput Daten beim zweiten Lauf schneller wird, weil das selbstlernende neuronale Netz besser weiss was das Programm will?

So "Terminator 2"?
Also erstmal muss man erwähnen, dass das so neu nicht ist. Bereits die letzten Bulldozer-Ableger hatten eine sehr ähnliche Sprungvorhersage. Bei Zen wurde diese nun überarbeitet. Im Übrigen sind die Sprungprädiktoren schon lange keine klassischen Taken/Not-Taken Zustandsautomaten wie man sie vielleicht aus der Schule oder Uni kennt. Es ist in der Tat so, dass eine moderne Sprungvorhersage Wiederholungen im Code erkennen kann, und entsprechend in der Vorhersage berücksichtigt. Das passiert aber auf einer viel feineren zeitlichen Abstufung als eine Wiederholung der Programmausführung. Selbst wenn man da Unterschiede messen würde, so lägen diese in der Messtoleranz, man wüsste also nicht ob es nun am OS, an der Software, oder was auch immer lag.

Insgesamt betrachtet kann eine verbesserte Sprungvorhersage aber durchaus die Ausführungszeiten von Programmen reduzieren. Ein guter Test ist in diesem Zusammenhang das n-Queens Problem, denn da wimmelt es nur so von (un)-regelmäßigen Sprüngen.

Grüße
Fabian

Fabian_HT4U
2017-03-15, 17:51:33
Ich kann mir vorstellen, dass die Taktraten etwas an der hohen Packdichte und dem automatisierten Layout (hdlibs) leidet. Im Gegenzug konnte man unheimlich viel auf den Kern unterbringen.
Absolut richtig. Hoher Takt bedeutet eigentlich immer eine schlechtere Dichte. Grund ist, dass der kritische Pfad verkürzt werden muss, was in aller Regel größere Transistoren bedeutet (also geringer Packdichte) und auch häufig mit der Vervielfältigung von Logikgattern und damit Transistoren + Verdrahtung einhergeht (also geringerer Packdichte).

Grüße
Fabian

LadyWhirlwind
2017-03-15, 18:08:38
Absolut richtig. Hoher Takt bedeutet eigentlich immer eine schlechtere Dichte. Grund ist, dass der kritische Pfad verkürzt werden muss, was in aller Regel größere Transistoren bedeutet (also geringer Packdichte) und auch häufig mit der Vervielfältigung von Logikgattern und damit Transistoren einhergeht (also geringerer Packdichte).

Grüße
Fabian
Das Läuft dann auf einen höheren Selbstkostenpreis hinaus, oder?

anddill
2017-03-15, 18:20:40
Vor allem kannst Du es nicht hochautomatisiert erstellen.

Fabian_HT4U
2017-03-15, 18:22:17
Das Läuft dann auf einen höheren Selbstkostenpreis hinaus, oder?
Grundsätzlich bedeutet eine geringere Packdichte, dass ein CPU-Die größer wird. Nun kommt es darauf an, wie viele Dies man aus einem Wafer herausbekommt, denn normalerweise zahlt man den Wafer, und die Kosten werden dann auf die CPU-Dies umgelegt. Mit dem Verschnitt (ein Wafer ist rund, aber die Dies rechteckig) kann es also sein, dass trotz größerem Die noch immer genauso viele funktionierende Chips aus einem Wafer gewonnen werden. Dann wären die Kosten erstmal unverändert. Wenn man natürlich nun mehr Wafer benötigt für die gleiche Anzahl an Chips, dann steigen die Kosten.

Hinzukommt, dass normalerweise größere Chips defektanfälliger sind. Man hat also auch noch mehr Ausschuss pro Wafer bei größeren Chips, was auch wieder an der Kostenschraube drehen kann...

Also kurz gesagt, in aller Regel sind größere Chips teurer, muss aber nicht immer so sein.

Grüße

robbitop
2017-03-15, 18:48:06
Absolut richtig. Hoher Takt bedeutet eigentlich immer eine schlechtere Dichte. Grund ist, dass der kritische Pfad verkürzt werden muss, was in aller Regel größere Transistoren bedeutet (also geringer Packdichte) und auch häufig mit der Vervielfältigung von Logikgattern und damit Transistoren + Verdrahtung einhergeht (also geringerer Packdichte).

Grüße
Fabian
Auch bei Intels 14FF+ scheint ein guter Teil des Frequenzgewinns indirekt darauf aufzubauen. Intel machte bestimmte Teile des Transistors größer.
Ich finde das Ergebnis von AMD ehrlich gesagt erstaunlich. Man hängt ggü Intel grob 10% beim Takt hinten, kann aber ungleich viel mehr Transistoren verbauen. Ryzen ist sicherlich nicht perfekt - aber AMD hat das Parretoprinzip offenbar verdammt gut ausgenutzt. Nirgends 100% aber alles zu einem Bruchteil des Aufwandes. Sweetspot-ish.

iuno
2017-03-15, 18:53:22
Ja, das ist echt uebel. Zumal es ja nicht nur die reine Platzersparnis der Kerne ist, sondern auch was eben sonst noch alles dabei ist und wo man denselben Chip ueberall benutzt (SR, Snowy und Naples) :ulol:
Und trotzdem kommt man immer noch an die 4 GHz. Gut, bei recht hohen Spannungen, aber selbst dort sind die Temperaturen ja noch voellig im Rahmen, wie sich nun herausgestellt hat.
Das Ding muss AMD einfach Kohle einfahren ohne Ende und das verdient ;)

TwoBeers
2017-03-15, 19:15:39
@robbitop & iuno: Sehe ich genauso, es ist einfach Wahnsinn was AMD hier abgeliefert hat. Gerade nach dem Bulldozer Design war ich mir nicht sicher was sie dieses Mal wieder verbocken werden.

Das mit den CCX ist sicher nicht perfekt, aber ich krieg jedes Mal nen *beeep* wenn ich in den Taskmanager schaue und die 16 threads da sehe, soo geil. :D

Michalito
2017-03-15, 19:15:42
Das ist nun aber wirklich b....:
https://www.heise.de/newsticker/meldung/Bug-in-AMD-Ryzen-Kompletter-Systemabsturz-bei-manchen-FMA3-Anwendungen-3641409.html

Isen
2017-03-15, 19:22:48
Da wird wegen dem Bug - seitens der Leser - begründet, dass deswegen der imc von 128 auf 64 Bit Kastriert wurde ...

robbitop
2017-03-15, 19:27:34
Da wird wegen dem Bug begründet, dass deswegen der imc von 128 auf 64 Bit Kastriert wurde ...

Wo liest du das? Das kann ich dem heise Artikel nicht entnehmen. Der bug hat soweit ich verstehe nichts mit dem imc zu tun.

Isen
2017-03-15, 19:31:15
Neeein. Natürlich nicht im Artikel. Das behaupten die Leser :D

bnoob
2017-03-15, 20:18:20
Das ist bereits geschehen (bei 20 Spielen), aber ein wichtiger Bestandteil der kommenden Offline-Publikation.

MfG,
Raff
Dann gibt es wohl demnächst mal ein Abo :O

Danke für die Arbeit, die für ein Printmagazin im deutschsprachigen Bereich sicher einmalig ist!

@Topic: Was sagt ihr zu den Ausführungen bei fefe (https://blog.fefe.de/?ts=a637b152)? Bei Hardware schreibt er ja häufig Müll, aber das sieht mir nach Leserzusendungen mit Substanz aus.

Gipsel
2017-03-15, 20:26:35
@Topic: Was sagt ihr zu den Ausführungen bei fefe (https://blog.fefe.de/?ts=a637b152)? Bei Hardware schreibt er ja häufig Müll, aber das sieht mir nach Leserzusendungen mit Substanz aus.Schwachsinn. Insbesondere, daß die beiden CCX on Die über 8 PCIe-Lanes gekoppelt wären, ist nur hanebüchen zu nennen. Um zu den PCIe-Lanes zu kommen, muß man ja bereits über den Infinity Fabric, der auch die beiden CCX verbindet.

bnoob
2017-03-15, 20:29:06
Okay, danke :)

y33H@
2017-03-15, 21:38:34
4x DDR4 und 32x PCIe Gen3 pro CCX ... das wäre schön :usad:

Hasenpfote
2017-03-15, 22:19:24
Hier sind die "korrekten" Frametimes für bf1@DX11 für Nvidia Karten.... URL raus...Danke schön. Das sieht natürlich ganz anders aus.

Loeschzwerg
2017-03-16, 06:57:14
http://www.legitreviews.com/one-motherboard-maker-explains-why-amd-am4-boards-are-missing_192470

In late December, AMD decided to pull in the launch date (it was scheduled to launch in late Q2)

Naja, das erklärt die etwas unbefriedigende Situation bei Board/Speicher.

[MK2]Mythos
2017-03-16, 07:17:10
http://www.legitreviews.com/one-motherboard-maker-explains-why-amd-am4-boards-are-missing_192470



Naja, das erklärt die etwas unbefriedigende Situation bei Board/Speicher.
Und das ist gelogen, AMD hat im Laufe des letzten Jahres ganz offen kommuniziert, dass sie im Q1'17 launchen. Viel mehr haben sich die Hersteller zu sehr auf Intels Plattform konzentriert und können daher nicht liefern. Das Thema wurde hier schon diskutiert.

Loeschzwerg
2017-03-16, 07:20:02
Gut dass das Thema die PCGH gerade ausgegraben hat :D

Edit: Elmor von Asus bestätigte (http://www.overclock.net/t/1624603/rog-crosshair-vi-overclocking-thread/1310#post_25916525), dass die Aussagen legitim seien. PCGH (http://www.pcgameshardware.de/Ryzen-7-1800X-CPU-265804/News/Kritik-an-AMD-1223256/)

Die Wahrheit liegt vermutlich wie immer irgendwo in der Mitte.

pilzsammler2002
2017-03-16, 08:31:02
Mich beschäftigt derzeitig eher die Frage warum die Chipsätze noch keine 3.0 Zert. haben :freak:

Wer hat da die "Schuld"?

http://www.pcgameshardware.de/Mainboard-Hardware-154107/News/AMD-Ryzen-AM4-Chipsaetze-PCI-Express-30-1223308/

StefanV
2017-03-16, 08:41:01
Aber wann hatten wir das letzte mal, dass AMD was vorgezogen hat? :)

USS-VOYAGER
2017-03-16, 09:09:05
yWdhLXl5a5s

stinki
2017-03-16, 09:57:05
Das ist nun aber wirklich b....:
https://www.heise.de/newsticker/meldung/Bug-in-AMD-Ryzen-Kompletter-Systemabsturz-bei-manchen-FMA3-Anwendungen-3641409.html

Das wurde von AMD wohl auch schon entdeckt und gefixed
http://forum.hwbot.org/showpost.php?p=480922&postcount=30

Scheinbar ein kleines Problem mit SMT...das hing wahrscheinlich mit der CPU internen Ressourcen Verwaltung zusammen könnte ich mir denken...

Birdman
2017-03-16, 10:09:19
Aber wann hatten wir das letzte mal, dass AMD was vorgezogen hat? :)
AMD hat Asus, MSI und co. im November 16 eine Email geschickt dass sie den Launch von Ryzen vorziehen werden...
Hier ein Bild vom Asus CEO als er dieses Mail gesehen hat:
https://www.mememaker.net/static/images/memes/4355710.jpg

fondness
2017-03-16, 10:10:45
Absolut richtig. Hoher Takt bedeutet eigentlich immer eine schlechtere Dichte. Grund ist, dass der kritische Pfad verkürzt werden muss, was in aller Regel größere Transistoren bedeutet (also geringer Packdichte) und auch häufig mit der Vervielfältigung von Logikgattern und damit Transistoren + Verdrahtung einhergeht (also geringerer Packdichte).

Grüße
Fabian

AMD spart mit den HD Libs laut eigenen Angaben nicht nur viel Platz, sondern auch jede Menge Strom ggü. einem "Handdesign". Da gab es mal einen Folie die von Stromersparnissen wie bei einem full node Shrink sprach.

Man darf dabei auch nicht vergessen, dass auf dem Papier der Intel-Prozess eigentlich deutlich im Vorteil ist, was Packdichte betrifft.

Dino-Fossil
2017-03-16, 11:02:03
Die Wahrheit liegt vermutlich wie immer irgendwo in der Mitte.

Vermutlich. Schuld sind schließlich immer die anderen... :D

Macht aber schon seit mind. 1 Woche die Runden.
Wenn es denn wirklich von einem MoBo-Partner kommt (kann ja jeder behaupten), dann sehe ich definitiv eine Teilschuld bei den Herstellern, die sich erst voll auf Intel konzentrieren und dann ärgern, dass sie nicht genug fertige AM4 Boards haben. Tja...

fondness
2017-03-16, 11:03:14
AMD hat gegenüber ComputerBase inzwischen bestätigt, dass alle Ryzen-5-Prozessoren auf dem 8-Kern-Die basieren. Die beiden 6-Kern-Modelle nutzen immer drei Kerne aus jedem Cluster (3+3), die beiden 4-Kern-Modelle immer jeweils zwei (2+2). Ryzen 5 1600X, 1600 und 1500X bieten weiterhin die vollen 16 MB L3-Cache, der Ryzen 5 1400 hingegen nur 8 MB. Die ursprüngliche Meldung wurde ergänzt.

https://www.computerbase.de/2017-03/ryzen-5-1600x-1600-1500x-1400-release-date-preis-update/

Skysnake
2017-03-16, 11:05:36
Auch bei Intels 14FF+ scheint ein guter Teil des Frequenzgewinns indirekt darauf aufzubauen. Intel machte bestimmte Teile des Transistors größer.
Ich finde das Ergebnis von AMD ehrlich gesagt erstaunlich. Man hängt ggü Intel grob 10% beim Takt hinten, kann aber ungleich viel mehr Transistoren verbauen. Ryzen ist sicherlich nicht perfekt - aber AMD hat das Parretoprinzip offenbar verdammt gut ausgenutzt. Nirgends 100% aber alles zu einem Bruchteil des Aufwandes. Sweetspot-ish.
Da kann man am Transistor nicht wirklich viel machen.

1. W/L verbessern, also den Transistor breiter machen. Das darf man aber auch nicht zu weit treiben bei einem einzelnen, sonst muss man das Gate als verteilte Kapazität betrachten, was die UnityGainBandwidth reduziert.

2. Mehr Gate Kontakte. Also am Besten auf beiden Seiten. Problem daran, man erhöht damit auch die Kapazität der Kontakte. Vor allem aber der Zuleitung. Bei Schaltungen mit nem kleinen Fanout macht das wohl eher weniger Sinn

3. Lange Transistoren aufbrehcen in mehrere. Also W -> 2x W/2. Das kann einiges bringen, aber an sich nur bei großen W von mehreren µm. Das hat man in Digitalschaltungen normal eh nicht

4. Man kann Transistoren mit einer höheren UnityGainBandwith nutzen. Also lowVT statt HighVT zum Beispiel. Damit steigern aber die Leckströme, da die Transistoren nicht mehr so gut zu machen. Platz braucht das an Sich auch nicht mehr. Also zumindest sind die Designrules normal Gleich für die unterschiedlichen VTs von den PDKs die ich kenne. Was aber zu beachten ist, sind die Abstandsregeln zwischen unterschiedlichen VT Bereichen.

5. Man kann natürlich mehr Drain udn SOurce Kontakte noch plazieren. Das ist aber bei Digitalschaltungen eher etwas um die Yields zu erhöhen und weniger um da wirklich noch viel Bandbreite aus der Schaltung zu bekommen. Man erhöht halt auch wieder die Drain udn Source Kapazitäten damit...

6. Man kann die Schaltung auf den Metallayern doppeln. Also nicht nur auf M1 verdrahten sondenr auf M2 nochmals. Das reduziert den Leitungswiderstand und erhöht nicht wirklich signifikant die Kapazität. Das erhöht auch den Platzbedarf für die Schaltung, da man im Allgemeinen eh immer zu wenig Platz hat um das Routing zu machen. Der Transistor wird dadurch aber nicht größer.

7. Man macht mehr Bulk Kontakte, zieht also z.B. Guardrings um die Transistoren. DAs braucht wirklich schnell einiges an Platz. reduziert aber die Gefahr von Latchup und den GroundBounce über das Substrat. Das kann schon einiges für die Frequenzen bringen im Analogbereich. Bei Digitalschaltungen habe ich da aber keine Ahnung, wie das gehandhabt wird. Wenn ich mich recht erinnere, ist das teils in den Standardzellen libs mit enthalten. Ändert aber auch nichts daran, das man damit die Leitungslängen verlängert und dadurch mehr Leitungswiderstand hat und auch noch die Kapazität erhöht. Dennoch kann es Sinn machen das für einige kritische Transistoren zu machen. Ich habe das mal selbst so designt für einen kritischen Schaltungsteil. War aber noch in 65nm. Da tut es weniger weh als in 1xnm. Ich hatte da aber auch wie gesagt Analoge Signale zu verarbeiten, wo ich eine UnityGainBandwidth bis so rund 10GHz glaube ich hatte.

Und am Ende verändert man da auch nicht die Transistoren, sondern die Umgebung der Transistoren, wobei man ehrlich sagen muss, das es Transistoren in den PDKs teilweise gibt, die das als "Feature" haben.

Soviel mal von mir dazu :tongue:

Bösewicht
2017-03-16, 11:47:48
warum ist es jetzt so eine Überraschung das AMD sein SMT teilweise unterstützt werden muss?
Hier sind doch auch Programmierer unterwegs und es sollte sich rumgesprochen haben das Intel sein HT auch nur langsam Integriert wurde und es zeit gedauert hatte bis die ersten damit experimentierten und merkten ja das bringt was.

Ist nicht Boese gemeint aber es hatte schon gründe wieso die meisten auf Intel gearbeitet haben... für 2 cpus optimieren ist bei 1-2 Personen Teams oft unmöglich und bestimmt auch für kleinere Teams nicht unbedingt hilfreich.

captain_drink
2017-03-16, 12:40:39
Auf dem großen Asus-Board lässt sich HPET im BIOS nicht abschalten. Wir haben es also unter Windows per Konsolenbefehl ab- und angeschaltet.

Genau das meinte ich, HPET lässt sich deswegen gar nicht abschalten. Wenn ein Ereignis HPET erfordert, wird es automatisch aktiviert, ansonsten ist es deaktiviert (d.h. es werden andere Timer genutzt).
Auf den meisten Boards ist auch die Einstellung im BIOS wirkungslos, das OS umgeht das einfach und aktiviert HPET je nach Bedarf.

robbitop
2017-03-16, 12:40:49
Das PCGH Review zum 1700:
http://www.pcgameshardware.de/Ryzen-7-1700-CPU-265815/Tests/vs-i7-Benchmark-Performance-Zen-Release-Specs-1223124/2/

Interessant zu sehen ist dort, dass die CCX Konfiguration 4+0 vs 2+2 getestet wurde. 4+0 ist immer schneller - die Differenz ist aber unterschiedlich. Am größten ist sie bei BF1.

Wenn man sich die Spielebenchmarks anschaut und gegen BDW-E vergleicht, scheint BDW-E grob 15-20 % mehr "Spiele-IPC" zu haben. Wenn man den "CCX Malus" abzieht, sicherlich im Schnitt noch ~10 %?

Ich hoffe, dass im Heft einen taktnormierten Test mit CCX@4+0 vs 7700K vs 6900K (@4C) gibt?

dargo
2017-03-16, 12:47:15
Wenn man sich die Spielebenchmarks anschaut und gegen BDW-E vergleicht, scheint BDW-E grob 15-20 % mehr "Spiele-IPC" zu haben.
Woran erkennst du das? Die PCGH nimmt da den lahmsten DDR4-2133. Zudem gab es schon mal Vergleiche mit je 3Ghz Ryzen vs. Broadwell-E in BF1 wo beide gleichauf lagen und letzterer sogar mit DDR4-3000 lief.

fondness
2017-03-16, 12:52:04
Finde es auch seltsam, dass BF1 zwar bei der Kernskalierung getestet wird, nicht aber im Spieleparcours vorkommt.

Wie sieht es mit den anderen Dingen aus? Würde das Höchstleistungs-Profil genommen bzw. HPET ausgeschaltet? Ansonsten sind die Benchmarks wegen Core-Parking ohnehin wenig aussagekräftig.

dildo4u
2017-03-16, 12:55:20
Ram scheint ein ordentlich Einfluss zu haben AMD hat in dem neuen Video F1 2016 gezeigt.AMD muss schnell daran Arbeiten das mehr Board's 3000+ Ram fressen.

https://youtu.be/yWdhLXl5a5s?t=4m38s

fondness
2017-03-16, 12:58:04
Zumindest hat PCGH nun die fehlerhaften Launch-Werte korrigiert:

Bitte beachten Sie, dass (vermutlich!) durch eine neue UEFI-Version auf unserer Testplattform auch die Werte des Ryzen 7 1800X zulegen konnten. Speziell unser "Witcher-3-Problem" aus dem Launch-Review ist nun behoben.

http://www.pcgameshardware.de/Ryzen-7-1700-CPU-265815/Tests/vs-i7-Benchmark-Performance-Zen-Release-Specs-1223124/2/

War schon von Beginn an sehr auffällig, wie stark die Werte von PCGH abfallen im Vergleich zu anderen Reviews.

Menace
2017-03-16, 13:06:53
Auch hier schöner Test, aber gibt es keine Effizienzangaben im Vergleich z.B. von 1800X?

vinacis_vivids
2017-03-16, 13:11:11
Auch hier schöner Test, aber gibt es keine Effizienzangaben im Vergleich z.B. von 1800X?

Schau mal bei p3d

CompuJoe
2017-03-16, 13:12:16
PCGH haben ja ein Gigabyte Board, die sollten Mal mit schnellen Speicher testen und nicht mit 4x8gb DDR4 2133 MHz

vinacis_vivids
2017-03-16, 13:15:51
PCGH haben ja ein Gigabyte Board, die sollten Mal mit schnellen Speicher testen und nicht mit 4x8gb DDR4 2133 MHz

Hier Speichertest:
http://www.legitreviews.com/ddr4-memory-scaling-amd-am4-platform-best-memory-kit-amd-ryzen-cpus_192259

dargo
2017-03-16, 13:21:31
AMD muss schnell daran Arbeiten das mehr Board's 3000+ Ram fressen.

Was hat das mit AMD zu tun? Die Board Hersteller sind einfach noch nicht so weit. Am besten schaut es afaik aktuell bei Gigabyte aus.

iuno
2017-03-16, 13:25:42
http://youtu.be/yWdhLXl5a5s
Interessant, der 1600X wird dem 7600k gegenuebergestellt. Beim 1800X war es ja immer der 6900k. Diesmal ist der Konkurrent von Intel also etwas billiger, sollte dafuer aber bei MT Benchmarks auch sehr klar geschlagen werden.

Isen
2017-03-16, 13:32:06
Was hat das mit AMD zu tun? Die Board Hersteller sind einfach noch nicht so weit. Am besten schaut es afaik aktuell bei Gigabyte aus.

MSI hat bissle was aufgeholt (Kompatibilität bei 3000+ Speicher) Asus klebt jetzt in der Versenkung zusammen mit Asrock und Biostar.

Screemer
2017-03-16, 13:33:58
Was hat das mit AMD zu tun? Die Board Hersteller sind einfach noch nicht so weit. Am besten schaut es afaik aktuell bei Gigabyte aus.
Amds agesa code, keine Ahnung ob der für ryzen immer noch agesa genannt wird, scheint aber noch nicht wirklich bugfrei/ausgereift zu sein. Die boardpartner können da erst mal nix dafur, wenn das zeug nicht läuft.

vinacis_vivids
2017-03-16, 13:36:18
Amds agesa code, keine Ahnung ob der für ryzen immer noch agesa genannt wird, scheint aber noch nicht wirklich bugfrei/ausgereift zu sein. Die boardpartner können da erst mal nix dafur, wenn das zeug nicht läuft.

Wo soll das denn nicht laufen?

dildo4u
2017-03-16, 13:37:06
Was hat das mit AMD zu tun? Die Board Hersteller sind einfach noch nicht so weit. Am besten schaut es afaik aktuell bei Gigabyte aus.
Ich schätze mal sie müssen mit den Boardherstellern Zusammenarbeiten sie sagen im Video das sie versuchen den Support zu verbessern.Der Ram Controller sitzt ja in der CPU.

fondness
2017-03-16, 13:37:53
PCGH haben ja ein Gigabyte Board, die sollten Mal mit schnellen Speicher testen und nicht mit 4x8gb DDR4 2133 MHz

PCGH testet sogar nur mit 2T Command Rate und DDR4 2133?
http://www.pcgameshardware.de/Ryzen-7-1700-CPU-265815/Tests/vs-i7-Benchmark-Performance-Zen-Release-Specs-1223124/#a1

nullpunkt
2017-03-16, 13:40:41
PCGH testet sogar nur mit 2T Command Rate und DDR4 2133?
http://www.pcgameshardware.de/Ryzen-7-1700-CPU-265815/Tests/vs-i7-Benchmark-Performance-Zen-Release-Specs-1223124/#a1
künstlich die performance verschlechtern :P

ich wundere mich ja ab all den ergebnissen, mein 3700mhz 1700er mit 2933mhz ram ist schneller als praktisch jeder 1800x bei praktisch jedem test den ich gegengelesen habe. intel sollte danke sagen ;)

dildo4u
2017-03-16, 13:41:09
PCGH testet sogar nur mit 2T Command Rate und DDR4 2133?
http://www.pcgameshardware.de/Ryzen-7-1700-CPU-265815/Tests/vs-i7-Benchmark-Performance-Zen-Release-Specs-1223124/#a1

Scheint selbst für High-End Kit's normal zu sein.

http://hexus.net/tech/reviews/ram/76257-crucial-32gb-ddr4-2133-ct8g4dfd8213/?page=2

Isen
2017-03-16, 13:43:07
Hm. Ne... bei mir wurde out of box 1T forciert. Hab ja auch Gigabyte.


ich wundere mich ja ab all den ergebnissen, mein 3700mhz 1700er mit 2933mhz ram ist schneller als praktisch jeder 1800x bei praktisch jedem test den ich gegengelesen habe.


Auffällig, gell. Komm mit dem Vergleichen nicht mehr hinterher, da alles mal so gar nicht so ist, wie dargestellt... und da brauch mir keiner erzählen, dass nur der Speicher bei mir den Unterschied macht, wo er doch nichts bringt siehe CB...

fondness
2017-03-16, 13:43:27
Normal ist 1T bei AMD fix voreingestellt.

vinacis_vivids
2017-03-16, 13:50:19
Auffällig, gell. Komm mit dem Vergleichen nicht mehr hinterher, da alles mal so gar nicht so ist, wie dargestellt... und da brauch mir keiner erzählen, dass nur der Speicher bei mir den Unterschied macht, wo er doch nichts bringt siehe CB...

MEMCLK hängt fest am DFICLK, das wird wohl den Auschlag geben.

dargo
2017-03-16, 14:23:25
Amds agesa code, keine Ahnung ob der für ryzen immer noch agesa genannt wird, scheint aber noch nicht wirklich bugfrei/ausgereift zu sein. Die boardpartner können da erst mal nix dafur, wenn das zeug nicht läuft.
Dann muss wohl Gigabyte und MSI (danke an Isen) aktuell zaubern können.

Ph03n!X
2017-03-16, 14:30:23
Warum denkt Ihr das MSI und Gigabyte momentan weiter sind was das BIOS angeht?

Würde da gerne eine Begründung für lesen.

pilzsammler2002
2017-03-16, 14:32:09
Also MSI Tomahawk hat offiziell immernoch 1.0 Bios und selbst mit dem 1.15 Beta Bios braucht es viel zu lange um zum bios/post zu kommen...

Source:
Habe das Tomahawk (wenigstens läuft mein 3600er Ram im 1.0 mit 3200 :D )

anddill
2017-03-16, 14:54:50
Mein MSI Titanium stellt mit dem aktuellen Beta-BIOS auch 2T ein. Jedenfalls bei 2133 und 2400MHz RAM-Takt. Bei 2666 steht die Command Rate dann wieder fix auf 1T :uhammer:
Und nee, da kann man nichts einstellen.

dargo
2017-03-16, 14:55:21
Warum denkt Ihr das MSI und Gigabyte momentan weiter sind was das BIOS angeht?

Würde da gerne eine Begründung für lesen.
Ich spreche ausschließlich von Speicherkompatibilität bei den schnellen Modulen.

anddill
2017-03-16, 15:04:37
MSI und weiter bei der Speicherunterstützung? ;D :hammer:

basix
2017-03-16, 15:06:53
Mich würde beim BF1 Test auf PCGH auch noch ein entsprechender 6-Kerner der HSW-E oder BDW-E Riege interessieren :D

Gebrechlichkeit
2017-03-16, 15:07:01
Koennte Jemand bitte folgendes Video auf YT runterladen und dieses per Handbrake "High Profile + Very Slow" encodieren? und dann die avg. fps .bzw die Dauer hier posten.

Danke im Voraus (wenn die Datei zu gross ist, kann man auch die FHD Version nehmen)

https://www.youtube.com/watch?v=1NCZ9hgjIzI bzw. via 9xbuddy (http://9xbuddy.com/yt/aHR0cHM6Ly9yMS0tLXNuLWE4YXUteGZnZS5nb29nbGV2aWRlby5jb20vdmlkZW9wbGF5YmFjaz9pZD1k NGQwOTlmNjE4MjMyMzMyJml0YWc9MjY2JnNvdXJjZT15b3V0dWJlJnJlcXVpcmVzc2w9eWVzJmluaXRj d25kYnBzPTE1Mjg1MDAwJmdjcj11cyZtbT0zMSZtbj1zbi1hOGF1LXhmZ2UmcGw9MjAmbXM9YXUmbXY9 bSZyYXRlYnlwYXNzPXllcyZtaW1lPXZpZGVvL21wNCZnaXI9eWVzJmNsZW49NDQ0MjgyNzQ2NyZsbXQ9 MTQ4NzgzMDM1ODg3OTE0MCZkdXI9MjQ4NC40ODEmdXBuPWw4akFSekdsdGZZJnM9NTU2OTg2OTYzMzU0 OTRBRjdCOUEzOTE1RjYyODBBNDVFNUZFREQ3REI2QkVDRC5EQUEzRjYyOEU2MEExQTA1QzRCODc0MTU2 MzA4RjRDMTU0Q0MwMjI4JmtleT1kZ195dDAmbXQ9MTQ4OTY3MjgyOSZzaWduYXR1cmU9ODIwRkIxOTMw MThGRDRERTQxMjMzODdGNkVCNDQ0MTcwRDQxRTQwQS44OTk5N0RFRDRCMEMyOEE3NDdDQTE0QTQwMDVD NjVCMTYxMDNGODkxJmlwPTEwNC4yMzYuMjMuOSZpcGJpdHM9MCZleHBpcmU9MTQ4OTY5NDUzOCZzcGFy YW1zPWlwLGlwYml0cyxleHBpcmUsaWQsaXRhZyxzb3VyY2UscmVxdWlyZXNzbCxpbml0Y3duZGJwcyxn Y3IsbW0sbW4scGwsbXMsbXYscmF0ZWJ5cGFzcyxtaW1lLGdpcixjbGVuLGxtdCxkdXImdGl0bGU9NEsr JTdDKytUaW1lU2NhcGVzJTNBK1RoZStNb3ZpZSslMjhGdWxsJTI5KyslN0MrVWx0cmFIRCs2MGZwcw,, ) 4gb schwer (kein Audio, ist auch nicht noetig).

Boris
2017-03-16, 15:16:02
Was Asus beim "PRIME-B350M-A" zum RAM sagt:
1*Due to the limitation of AMD Ryzen™ processors, memory frequencies higher than DDR4 2666 MHz are supported only when using one DIMM.
https://www.asus.com/Motherboards/PRIME-B350M-A/specifications/

:rolleyes:

Isen
2017-03-16, 15:18:48
MSI und weiter bei der Speicherunterstützung? ;D :hammer:

Als Asus doch nicht schwer Aktuell :freak:

Gigabyte > MSI > Asus > Asrock > Biostar. Und der am lautesten heult ist Asrock. Und in der öffentlichen Frage/Antwort-Runde auf Facebook hat Asrock am lautesten im Dez. gepoltert und das NDA ausgeplaudert.. jaja... :D

Menace
2017-03-16, 15:24:41
Schau mal bei p3d
Planet3DNow hat doch auch nur den 1800X, oder?

vinacis_vivids
2017-03-16, 15:34:12
Planet3DNow hat doch auch nur den 1800X, oder?

Das Effizienzlevel ist ja bei 1700(x) ähnlich.

1000pkt@CB15 bei 35W
https://abload.de/thumb/ryzeneffizenz41jq9.png (http://abload.de/image.php?img=ryzeneffizenz41jq9.png)

Der_Korken
2017-03-16, 15:46:08
Mich würden mal ein paar Sachen zu den gemessenen Cache-Bandbreiten von AIDA64 interessieren. Ein paar aktuelle Werte sieht man z.B. hier:

http://www.legitreviews.com/ddr4-memory-scaling-amd-am4-platform-best-memory-kit-amd-ryzen-cpus_192259/2

Der L1-Cache wird mit einer Bandbreite von ~1TB/s angegeben. Das sind bei 4Ghz also 256 Byte pro Takt. Bezieht sich das auf einen Kern oder auf alle, wenn man quasi mit 8 Threads aus allen L1-Caches gleichzeitig liest? Auf acht Kerne gerechnet erscheinen mir 32 Byte pro Takt als ziemlich wenig, da kriegt man ja gerade mal eine 128bit-FPU mit versorgt. Außerdem hat der L3-Cache immerhin 400GB/s also ca. 100 Byte pro Takt, obwohl ich jetzt erwarten würde, dass große Caches auch langsamer sind.

Für einen Kern erscheinen mir 256 Byte wiederum als extrem viel, das entspräche 16 128bit-Operanden und so viele ALUs hat ein Kern gar nicht. Oder kann man immer nur ganze Cache-Lines á 64 Byte lesen und kommt so auf vier Cachelines bzw. vier Operanden, wenn die blöd liegen?

Und wenn man die kolportierten 22GB/s des Fabric (1333Mhz * 16 Byte/Takt?) den 400GB/s an L3-Bandbreite gegenüberstellt, wird klar, wie stark diese Verbindung bremst.

Mangel76
2017-03-16, 16:10:57
http://preisvergleich.pcgameshardware.de/amd-ryzen-7-1800x-yd180xbcaempk-a1594345.html?hloc=at&hloc=de

YD180XBCAEMPK
Die großen R7 sind jetzt auch mit Kühler zu haben! (MPK=Mit passendem Kühler ;D)

Mika2016
2017-03-16, 16:28:20
http://preisvergleich.pcgameshardware.de/amd-ryzen-7-1800x-yd180xbcaempk-a1594345.html?hloc=at&hloc=de

YD180XBCAEMPK
Die großen R7 sind jetzt auch mit Kühler zu haben! (MPK=Mit passendem Kühler ;D)

der Wraith Max ist ja riesig....

https://www.youtube.com/watch?v=X9Q_cm2hT1c

Lowkey
2017-03-16, 16:29:36
http://preisvergleich.pcgameshardware.de/amd-ryzen-7-1800x-yd180xbcaempk-a1594345.html?hloc=at&hloc=de

YD180XBCAEMPK
Die großen R7 sind jetzt auch mit Kühler zu haben! (MPK=Mit passendem Kühler ;D)

Seit der Proshop Aktion von Freitag warten wir alle gespannt auf die CPU, die da geliefert werden soll. Da steht im Preisvergleich: Bulk (ohne Kühler)

Rancor
2017-03-16, 16:47:31
Der Wraith sieht echt gut aus fürn Stock Cooler. Wenn man nicht ocen will sollte der sogar reichen.. Bin echt mal auf die 6 Kerner gespannt.

Tesseract
2017-03-16, 16:49:01
Bezieht sich das auf einen Kern oder auf alle, wenn man quasi mit 8 Threads aus allen L1-Caches gleichzeitig liest? Auf acht Kerne gerechnet erscheinen mir 32 Byte pro Takt als ziemlich wenig, da kriegt man ja gerade mal eine 128bit-FPU mit versorgt. Außerdem hat der L3-Cache immerhin 400GB/s also ca. 100 Byte pro Takt, obwohl ich jetzt erwarten würde, dass große Caches auch langsamer sind.

ist alles zusammen. lower level caches hat man nicht unbedingt wegen der höheren bandbreite sondern primär wegen der viel geringeren latenz. der L3 muss natürlich relativ bandbreitenstark sein weil sich den mehrere cores teilen.
pro core haben die caches in etwa den selben durchsatz wie ivy bridge.

Gipsel
2017-03-16, 16:49:13
Mich würden mal ein paar Sachen zu den gemessenen Cache-Bandbreiten von AIDA64 interessieren. Ein paar aktuelle Werte sieht man z.B. hier:

http://www.legitreviews.com/ddr4-memory-scaling-amd-am4-platform-best-memory-kit-amd-ryzen-cpus_192259/2

Der L1-Cache wird mit einer Bandbreite von ~1TB/s angegeben. Das sind bei 4Ghz also 256 Byte pro Takt. Bezieht sich das auf einen Kern oder auf alle, wenn man quasi mit 8 Threads aus allen L1-Caches gleichzeitig liest?Das ist kumulativ. Jeder Kern hat 32Byte/Takt Bandbreite zum L1.
Auf acht Kerne gerechnet erscheinen mir 32 Byte pro Takt als ziemlich wenig, da kriegt man ja gerade mal eine 128bit-FPU mit versorgt.Man hat ja auch noch Register. Nur ein einziger Operand kann typischerweise ein Speicheroperand sein (bei Load-Execute-Befehlen, also ohne das man vorher den Wert separat aus dem Speicher liest). Das reicht also schon mal für zwei 128Bit SIMD-Einheiten (außerdem hat man doch oft auch eine signifikante Anzahl an Instruktionen, wo Alles in Registern steht).
Außerdem hat der L3-Cache immerhin 400GB/s also ca. 100 Byte pro Takt, obwohl ich jetzt erwarten würde, dass große Caches auch langsamer sind.Sind sie ja im Prinzip auch, vor allem bei der Latenz ;). Bandbreite an sich kann man einfach über die Anzahl der parallel angesprochenen Bitlines generieren. Das ist ziemlich unproblematisch (kostet halt Dichte und Strom).
Jeder Kern hat ein 256Bit-Interface zum L3 und jedes Slice des L3 kann offenbar auch 256Bit/Takt liefern. Aber für einen einzigen Kern ist Bandbreite auf 32Byte/Takt beschränkt (beim parallelen Zugriff von vier Kernen, kann man theoretisch bei einem voll aktivierten L3 [also ohne deaktivierte Slices, wenn die Slices nicht nur jeweils halbiert werden] bis zu 128Byte/Takt Bandbreite erreichen können [identisch zur kumulativen L1-Bandbreite, bei nur zwei oder drei aktiven Kernen im CCX gar mehr]; in der Praxis aber meist etwas weniger wegen möglicher Kollisionen bei den Zugriffen). Man darf aber nicht vergessen, daß der L3 ein "Victim-Cache" ist. Bei einem Treffer im L3 wird die Cacheline aus dem L3 gelesen (und im L1 und L2 gespeichert), die vorher an der Stelle im L2 gespeicherte Cacheline aber gleichzeitig in den L3 kopiert. Damit sinkt die effektive Bandbreite für L3-Hits also auf die Hälfte (praktisch gibt es vermutlich wieder einen Victim-Buffer, der einige Cachelines zwischenspeichern kann, so daß das bei kurzen Burst nicht zum Tragen kommt und die vollen 32Byte/Takt genutzt werden können, aber das hält man halt nicht über längere Zeit in einem Meßprogramm durch).
Aber im Prinzip stimmt das schon, daß AMD im L3 effektiv eine höhere Bandbreite erreicht als intel. Bei parallelen Zugriffen von mehreren Kernen innerhalb eines CCX sollte der Vorteil von AMD gegenüber intel wachsen (bei cross-CCX-Zugriffen hat man dann einen Nachteil). Da limitiert der Ringbus bereits (es ist recht schwierig, einen Ringbus zu vielen Kernen mit passabler Bandbreite zu skalieren), wenn ein Kern die Information nicht in "seinem" L3-Slice findet, bei AMD ist das innerhalb eines CCX dagegen kein Problem.
Oder kann man immer nur ganze Cache-Lines á 64 Byte lesen und kommt so auf vier Cachelines bzw. vier Operanden, wenn die blöd liegen?Ganze Cachelines ist die Datenmenge, die jeweils bei Speicherzugriffen in die Caches (oder zwischen Caches) übertragen werden. Aus dem L1-Cache werden kleinere Datenpakete gelesen (bei Ryzen maximal 2x 128Bit oder auch nur 32 oder 64Bit, je nach Datenformat). Und genauso werden auch nur kleinere Datenmengen pro Takt in den L1 geschrieben (bei Ryzen bis zu 1x 128Bit pro Takt).
Und wenn man die kolportierten 22GB/s des Fabric (1333Mhz * 16 Byte/Takt?) den 400GB/s an L3-Bandbreite gegenüberstellt, wird klar, wie stark diese Verbindung bremst.Die 22GB/s stimmen nicht. Jeder CCX ist ganz offiziell mit 32Byte/Takt an das Fabric angebunden (dessen interne Bandbreite ist höher als das). Das entspricht jeweils der Speicherbandbreite (also 42GB/s bei 1333MHz Takt).
Die Bandbreite an sich ist eigentlich nicht so kritisch (wenn ein Kern bei einem 8MB großen L3 einen L3-Miss hat, muß er sonst ja auch auf den Speicher zugreifen, der auch nicht schneller ist, das ist das gleiche Verhalten wie bei einer CPU mit 8MB L3). Was potentiell bremst, ist eher die Latenz für den Kohärenzcheck (Cache-Snoop) des anderen CCX.

edit:
http://images.anandtech.com/doci/10591/HC28.AMD.Mike%20Clark.final-page-013.jpg
https://i1.wp.com/thetechaltar.com/wp-content/uploads/2017/03/C6eUL0DWAAAeCQG.jpg?ssl=1

Mika2016
2017-03-16, 16:57:27
Seit der Proshop Aktion von Freitag warten wir alle gespannt auf die CPU, die da geliefert werden soll. Da steht im Preisvergleich: Bulk (ohne Kühler)

Und in der Produktbeschreibung:

... inkl. CPU-Kühler (AMD Wraith Max)

dargo
2017-03-16, 17:24:14
MSI und weiter bei der Speicherunterstützung? ;D :hammer:
Ich bin unschuldig, kam von Isen. :D

Edit:
Bei MF schreibt einer, dass sein Corsair ohne Probleme mit DDR4-3000 läuft.
http://www.mindfactory.de/product_info.php/MSI-B350-TOMAHAWK-AMD-B350-So-AM4-Dual-Channel-DDR4-ATX-Retail_1144078.html

Ist allerdings ein B350 Brett.

Gipsel
2017-03-16, 18:47:02
der Wraith Max ist ja riesig....

https://www.youtube.com/watch?v=X9Q_cm2hT1c
Das ist doch der alte. Der neue Wraith Max ist noch ein kleines Stückchen größer (5mm höher und 90g schwerer als der in dem Video und verträgt jetzt angeblich 140W statt vorher 125W).

vinacis_vivids
2017-03-16, 18:58:03
Interessant wieder:

Vorher:
https://abload.de/img/cbf12016dgky1.png

Nachher:
https://abload.de/img/ryzenf12016ram9xax1.png

Der_Korken
2017-03-16, 18:58:53
@Gipsel: Danke für die Erklärungen :up:

Edit:

Interessant wieder:

Vorher:
https://abload.de/img/cbf12016dgky1.png

Nachher:
https://abload.de/img/ryzenf12016ram9xax1.png

Ich sehe keinen Widerspruch. +7% von 2133er auf 2933er RAM im unteren Bild. Bei CB sind es +20% von 1866er auf 2666er RAM und keine weitere Skalierung nach oben durch noch schnelleren RAM. Setz den 2133er im CB-Rating irgendwo zwischen 1833 und 2666 und du könntest die 7% auch dort theoretisch ablesen.

Isen
2017-03-16, 19:02:06
Interessant wieder:

Vorher:
BILD

Nachher:
BILD

gibts auch noch:

https://abload.de/img/ryzen-memory-overcloc8js1s.jpg (http://abload.de/image.php?img=ryzen-memory-overcloc8js1s.jpg)

dargo
2017-03-16, 19:04:29
Interessant wieder:

Vorher:
https://abload.de/img/cbf12016dgky1.png

Nachher:
https://abload.de/img/ryzenf12016ram9xax1.png
WTF?

Selbst mit nur DDR4-2133 gibts ein +20% nur weil das OS vorher nicht neu installiert wurde? Gleiches beim Game? Plus natürlich Energieplan auf Höchstleistung. Oh man... :crazy:

vinacis_vivids
2017-03-16, 19:11:08
Ich sehe keinen Widerspruch. +7% von 2133er auf 2933er RAM im unteren Bild. Bei CB sind es +20% von 1866er auf 2666er RAM und keine weitere Skalierung nach oben durch noch schnelleren RAM. Setz den 2133er im CB-Rating irgendwo zwischen 1833 und 2666 und du könntest die 7% auch dort theoretisch ablesen.

Widerspruch abgelehnt.

https://abload.de/img/cbdeuxrexram3yssz.png

https://abload.de/img/deus-ex-gamingqtk3d.jpg

WTF?
Oh man... :crazy:

Genau :freak:

fondness
2017-03-16, 19:11:37
IMO sollte man den CB Memory scaling Test noch mit einer Priese Salz nehmen. Würde mich nicht wundern, wenn das BIOS da nicht das gemacht hat, was eingestellt wurde oder sonst was schief gelaufen ist. Denn das bis DDR4 2666 eine enorme Steigerung stattfindet und dann plötzlich gar nichts mehr geht ist mehr als seltsam.

/Edit: Vielleicht der Vollständigkeit halber: Robert Hallock ist weiter fleißig am posten...
https://community.amd.com/community/gaming/blog/2017/03/14/tips-for-building-a-better-amd-ryzen-system
https://community.amd.com/community/gaming/blog/2017/03/02/amd-ryzen-an-elite-cpu-for-streamers
https://community.amd.com/community/gaming/blog/2017/03/02/building-a-smarter-core-with-amd-sensemi-technology
https://community.amd.com/community/gaming/blog/2017/03/02/great-gaming-on-the-new-amd-ryzen-processor

dargo
2017-03-16, 19:32:27
IMO sollte man den CB Memory scaling Test noch mit einer Priese Salz nehmen. Würde mich nicht wundern, wenn das BIOS da nicht das gemacht hat, was eingestellt wurde oder sonst was schief gelaufen ist. Denn das bis DDR4 2666 eine enorme Steigerung stattfindet und dann plötzlich gar nichts mehr geht ist mehr als seltsam.

Da könntest du durchaus recht haben. CB möchte ich da in der Hinsicht auch nichts vorwerfen. Was willst du machen wenn dir das Bios da irgendwelche Subtimings jedes mal wild durcheinander schmeißt ohne, dass du das mitbekommst. :freak:

TGKlaus
2017-03-16, 19:59:57
Ich denke mal, es wird noch sehr spannend ....

http://www.gamestar.de/hardware/prozessoren/amd-ryzen-7-1800x/amd_ryzen_r7_1800x_im_nachtest,1064,3311299.html
(Nachtest GS)

dildo4u
2017-03-16, 20:09:25
MSI scheint schon mal eine sichere Wahl zu sein wenn man schnelle Ram Speeds will.

Boris
2017-03-16, 20:19:51
MSI scheint schon mal eine sichere Wahl zu sein wenn man schnelle Ram Speeds will.
Sicher ist da garnichts, anddill hat doch schon mehrfach geschrieben, dass er auf seinem MSI-Mainboard noch Probleme mit dem RAM hat.

Birdman
2017-03-16, 20:48:38
Interessant wieder:
https://abload.de/img/ryzenf12016ram9xax1.png
Und ich dachte HPET sollte deaktiviert werden bei Ryzen?!?
Hier gibts aber mehr fps mit HPET, oder wenn man Messtoleranzen mit einbezieht auf jedenfall keinen Malus.

dargo
2017-03-16, 21:00:17
Dummerweise hat man nach dem zweiten DDR4-2133 Test mit HPET Off dies bei den anderen Tests nicht fortgeführt. Vielleicht sind damit auch noch paar zusätzliche Prozentchen drin. X-D Etwas chaotisch aktuell das ganze. :D

Godmode
2017-03-16, 21:33:51
Dummerweise hat man nach dem zweiten DDR4-2133 Test mit HPET Off dies bei den anderen Tests nicht fortgeführt. Vielleicht sind damit auch noch paar zusätzliche Prozentchen drin. X-D Etwas chaotisch aktuell das ganze. :D

Den Release um 1-2 Monate verschieben hätte niemandem geschadet und es gäbe genügend Boards und ein ausgereifteres BIOS. Der Gesamteindruck wäre damit sicher noch etwas besser.

Menace
2017-03-16, 21:39:28
Den Release um 1-2 Monate verschieben hätte niemandem geschadet und es gäbe genügend Boards und ein ausgereifteres BIOS. Der Gesamteindruck wäre damit sicher noch etwas besser.

Verschieben hätte niemand geschadet? Ich kann mich noch erinnern, was für ein Bohai alleine auf dieser Seite gemacht wurde, als sich Mantle um ein paar Wochen verschoben hat (von Leuten, die nie Mantle benutzen würden). Wenn ich das richtig sehe, geht es jetzt doch eigentlich nur noch darum, noch mehr Prozentpunkte bei den Spielen aufzuholen. Ansonsten steht Ryzen doch super da; bis auf dass sich der 1700 rar macht.

vinacis_vivids
2017-03-16, 22:01:24
Was willst du machen wenn dir das Bios da irgendwelche Subtimings jedes mal wild durcheinander schmeißt ohne, dass du das mitbekommst. :freak:

Ist schon eigenartig, ausgerechnet Doom Vulkan mit random timings ;D
Die 200fps wären vllt. doch noch gefallen...

https://abload.de/img/doomvulkan-ryzenramcwugm.png

Effe
2017-03-16, 23:41:24
Ich denke mal, es wird noch sehr spannend ....

http://www.gamestar.de/hardware/prozessoren/amd-ryzen-7-1800x/amd_ryzen_r7_1800x_im_nachtest,1064,3311299.html
(Nachtest GS)

Mein Güte, diese militanten Haterkommentatoren.

user0815
2017-03-16, 23:48:56
Hat mal jemand den A-Data ram getestet? 4x8gb scheinen mit 3200 zu laufen:
https://twitter.com/ADATATechnology/status/839294184544595968

Dieser Ram duerfte es sein:
https://www.amazon.com/AData-3200MHz-PC4-25600-Channel-Heatsinks/dp/B01N17QJ2B

MR2
2017-03-17, 00:47:00
http://www.chip.de/artikel/AMD-Ryzen-Upgrade-Drei-Komponenten-zum-einfachen-Umstieg_110753109.html
Ehemalige Kult Marke???😂


Durch Zufall Mal auf Chip gewesen..Da steht der 1700er auf Platz 1 der Bestenliste. 100% Leistung und 100% Preis/Leistung lol. Das ich das noch erleben darf. Da bekommt wenigstens jeder mit, das es wieder "gescheite" AMD CPUs gibt, auch wenn der "Test" ........Lassen wir das...

"Das etwas überraschende, aber zugleich bombastische Comeback der ehemaligen Kult-Marke verführt insbesondere Gamer und Enthusiasten zum Upgrade der eigenen Hardware. ";D

dildo4u
2017-03-17, 01:10:47
AMD also stressed incoming updates in regards to memory support of its AM4 platform, with updates being pushed to motherboard makers this May, which should enable support for memory at speeds "higher than the current DDR4-3200 limit without refclk adjustments." For reference, see below memory support tables according to memory speed, rank, and quantities supported by Ryzen processors.

https://www.techpowerup.com/231518/amd-shares-details-on-ryzen-ddr4-memory-support-and-upcoming-am4-updates

Kann man also noch locker warten hoffe der Ram ist dann billiger.

dargo
2017-03-17, 08:26:04
http://www.chip.de/artikel/AMD-Ryzen-Upgrade-Drei-Komponenten-zum-einfachen-Umstieg_110753109.html
Ehemalige Kult Marke???😂

Etwas OT... spinnt das Forum gerade? Oder warum geht der Link wenn ich den anklicke gleich wieder automatisch zu? Das ist mir schon gestern bei einem Link von dildo aufgefallen. Das Problem betrifft hier aber nicht jeden Link.

Eisenhauer
2017-03-17, 08:44:13
Hi,

normalerweise bin ich nur stiller Mitleser. Aber hier mal ein Screenshot meines Ryzen Systems.

Board: Asus Prime B350m-a
CPU: 1700 auf Allcore 3725 (1,285V)
Ram: Gskill F4-3600C16D-16GVK Single ranked auf 2933Mhz (mehr geht noch nicht)

Grüße

Boris
2017-03-17, 08:44:45
Etwas OT... spinnt das Forum gerade? Oder warum geht der Link wenn ich den anklicke gleich wieder automatisch zu? Das ist mir schon gestern bei einem Link von dildo aufgefallen. Das Problem betrifft hier aber nicht jeden Link.
Tritt bei mir nicht auf:confused:

normalerweise bin ich nur stiller Mitleser. Aber hier mal ein Screenshot meines Ryzen Systems.

Board: Asus Prime B350m-a
CPU: 1700 auf Allcore 3725 (1,285V)
Ram: Gskill F4-3600C16D-16GVK Single ranked auf 2933Mhz (mehr geht noch nicht)

Wie schlägt sich der Arbeitsspeicher in Stabilitätstests?

Eisenhauer
2017-03-17, 08:50:07
Tritt bei mir nicht auf:confused:


Wie schlägt sich der Arbeitsspeicher in Stabilitätstests?

Bisher keine Probleme (10 Stunden Prime und 2 Stunden Realbench @ OC). Die 2933 gingen out of the Box mit dem XMP Profil auf 1,35V. 3200 Bootet aber nichtmal mehr. Scheint eher ein Problem des Boards zu sein.

dargo
2017-03-17, 08:51:28
Tritt bei mir nicht auf:confused:

Danke, dann liegts vermutlich am neuen Radeon Treiber in Verbindung mit Google Chrome.

MR2
2017-03-17, 09:23:00
@dargo
Tritt bei mir auch nicht auf


https://www.phoronix.com/scan.php?page=news_item&px=Ryzen-7-1800X-OPM

Linux Test

bnoob
2017-03-17, 10:19:14
Etwas OT... spinnt das Forum gerade? Oder warum geht der Link wenn ich den anklicke gleich wieder automatisch zu? Das ist mir schon gestern bei einem Link von dildo aufgefallen. Das Problem betrifft hier aber nicht jeden Link.
Kann am Adblocker in Kombination mit den seit einigen Monaten auf 3DC eingebauten Trackinglinks liegen

dargo
2017-03-17, 10:22:30
Kann am Adblocker in Kombination mit den seit einigen Monaten auf 3DC eingebauten Trackinglinks liegen
Das ist es. :usweet:

Schnoesel
2017-03-17, 10:40:15
Mass Effect steht wohl auf 6+ Threads. Inwiefern die Ergebnisse auf Ryzen und Co übertragbar sind weiß ich nicht aber ich hoffe doch, dass zu Release das Ganze noch etwas genauer betrachtet wird:

http://www.pcgameshardware.de/Mass-Effect-Andromeda-Spiel-55712/Specials/Mass-Effect-Andromeda-1223325/2/#a2

Lowkey
2017-03-17, 10:43:54
Bei dem Mass Effekt Test erwarte ich von der PCGH direkt auf den Marktstart genau einen 100 Seiten Artikel mit allen Ecken und Kanten ;D
Raff steht eindeutig zu lange vor dem Spiegel und föhnt sein Wolverine-Frisur :D




Wenn man aktuell sucht, dann kann das Asus B350-Plus 3200 CL14 fahren. Da fehlt "nur" das passende Bios für die Gskills. Aber die Spannungsversorgung sei für 24/7 und CPU OC nicht ausgelegt. Die Frage ist, ob man mit verbesserter VRM Kühlung das Handicap ausgleichen kann?

Denn den Aufpreis auf ein Turbo-BCLK Board wie das Gigabyte 7 oder Asus CH6 kann man sich fast sparen.

dargo
2017-03-17, 10:49:22
Mass Effect steht wohl auf 6+ Threads. Inwiefern die Ergebnisse auf Ryzen und Co übertragbar sind weiß ich nicht aber ich hoffe doch, dass zu Release das Ganze noch etwas genauer betrachtet wird:

http://www.pcgameshardware.de/Mass-Effect-Andromeda-Spiel-55712/Specials/Mass-Effect-Andromeda-1223325/2/#a2
Meh... bei so hohen fps hätte die PCGH ruhig mal auf 2-2,5Ghz bei dem FX gehen können. :cool: So weiß man wieder nicht ob die Nano nicht zufällig oben stärker limitiert (es wird Zeit für Vega). Aber immerhin ein Test mit ner Radeon. :up: Das gleiche mit Ryzen (hier bitte aber auf 1-1,5Ghz CPU Takt runter gehen :D) wäre sicherlich auch interessant.

Aber die Spannungsversorgung sei für 24/7 und CPU OC nicht ausgelegt.
Wo steht das? Besonders im Hinblick auf den kommenden R5 1600 non X?

Mayhem
2017-03-17, 12:04:55
Meh... bei so hohen fps hätte die PCGH ruhig mal auf 2-2,5Ghz bei dem FX gehen können. :cool: So weiß man wieder nicht ob die Nano nicht zufällig oben stärker limitiert (es wird Zeit für Vega).
720p, postprocess low, 25%res scaling... wenn da die Nano limitiert weiss ich's auch nicht.

vinacis_vivids
2017-03-17, 12:16:37
720p, postprocess low, 25%res scaling... wenn da die Nano limitiert weiss ich's auch nicht.

Nach "oben" also mit Tesselation, maximum Details, UHD usw...
Optikgewinn ist insgesamt bescheiden gegenüber dem Leistungsverlust.

dargo
2017-03-17, 12:27:25
Jupp... dieser Titel wirkt auf mich nicht, dass er gespielt werden muss. Naja... ist hier auch OT.

Flusher
2017-03-17, 13:00:31
Bei dem Mass Effekt Test erwarte ich von der PCGH direkt auf den Marktstart genau einen 100 Seiten Artikel mit allen Ecken und Kanten ;D
Raff steht eindeutig zu lange vor dem Spiegel und föhnt sein Wolverine-Frisur :D




Wenn man aktuell sucht, dann kann das Asus B350-Plus 3200 CL14 fahren. Da fehlt "nur" das passende Bios für die Gskills. Aber die Spannungsversorgung sei für 24/7 und CPU OC nicht ausgelegt. Die Frage ist, ob man mit verbesserter VRM Kühlung das Handicap ausgleichen kann?


Halte ich für ein unfundiertes Gerücht von irgendwelchen Kiddies die dicke fette, bunte Kühler auf ihren Brettern haben wollen.

Ich konnte mit einem Temperaturfühler selbst nach 12h Prime unter OC keine höhere Temperatur als 41°C an den VRM Kühlern messen. Auch HWInfo, welches entsprechende Werte auslesen kann, zeigte nicht mehr als 50 °C für die VRMs an. Und das mit einem fetten Towerkühler in einem normal belüfteten Gehäuse (vorne 2 Lüfter, hinten einer).

Wieso sollten dir VRMs auch ein Problem sein? Selbst unter OC verbraucht ein Ryzen selten mehr als 130 W - das ist nicht zu vergleichen mit der 250W TDP eines Centurion

dargo
2017-03-17, 14:41:47
@Flusher

Genau so sehe ich das auch. Jedenfalls bis igor mich mit seinen Messungen direkt an den VRMs vom Gegenteil überzeugt. Aber wenn du selbst nur 41°C am Kühler misst kann ich mir kaum vorstellen, dass die Mosfets >80°C haben, was vollkommen im grünen Bereich ist.

Menace
2017-03-17, 14:42:12
Ryzen R7 1700X ist schon bei 399 € angekommen (http://geizhals.de/amd-ryzen-7-1700x-yd170xbcaewof-a1582190.html). Dafür tut sich bei Mindfactory noch immer nichts, was den 1700er angeht.

dargo
2017-03-17, 14:45:10
Ryzen R7 1700X ist schon bei 399 € angekommen (http://geizhals.de/amd-ryzen-7-1700x-yd170xbcaewof-a1582190.html). Dafür tut sich bei Mindfactory noch immer nichts, was den 1700er angeht.
Jetzt passt der Preis auch zur UVP auch in DE. (y)

Lowkey
2017-03-17, 15:13:54
@Flusher

Es gibt keine Kiddies, die bunte Kühler auf ihren Rechnern haben wollen. Das Maximum war mal ein Gehäuse auf grüne Lüfter umzurüsten. Da schaut doch jeder auf den Preis.

Zum Asus B350-Plus: mit einer Palette Redbull könnte man die ganzen Sammelthreads in sämtlichen Foren lesen und wäre dann schlauer =)

Es deutet aktuell drauf hin, dass es verschiedene Revisionen gibt bzw. verschiedene Bausteinchen bei den VRMs, was man von außen nicht erkennen kann. Momentan steht es wieder ganz oben auf der Kaufmich-Liste.

http://i1253.photobucket.com/albums/hh588/chewasterisk/RYZEN/Garys%20lil%20kid2_zpsc60p0mp1.jpg

Man beachte die Werte. Ich sehe noch keinen guten Grund dann ein X370 Board zu kaufen, auch wenn CH6 oder Gaming 7 mit extra Chip für höheren Speichertakt eine bessere Wahl sein sollten.

dildo4u
2017-03-17, 15:23:19
Ryzen R7 1700X ist schon bei 399 € angekommen (http://geizhals.de/amd-ryzen-7-1700x-yd170xbcaewof-a1582190.html). Dafür tut sich bei Mindfactory noch immer nichts, was den 1700er angeht.
Gut dann wird der 1600X keine 300 kosten,schätze mal der 1700 fällt später auf 330.

Boris
2017-03-17, 15:25:14
Wenn wir gerade bei der Spannungsversorgung sind. Ich hatte die Frage schon an anderer Stelle gestellt, aber da gab es keine Antwort:

Die aktuell verfügbaren Mainboards unterscheiden sich teilweise Stark in der Anzahl der CPU-Phasen. Das Asus Prime B350M-A hat z.B. "nur" 6, ein vergleichbares von ASrock hat 9. Im Internet gibt es zwar einen Haufen ältere Beiträge zu dem Thema, aber hauptsächlich zu Intel-Systemen. Kann man sagen "je weniger CPU-Phasen" desto schlechter das OC-potential oder ist das eher zu vernachlässigen?

Grendizer
2017-03-17, 15:26:22
Ich sehe noch keinen guten Grund dann ein X370 Board zu kaufen, auch wenn CH6 oder Gaming 7 mit extra Chip für höheren Speichertakt eine bessere Wahl sein sollten.

Ein neues Bios was die Speicherkompatibilität weiter verbessert wäre ganz nett.

dildo4u
2017-03-17, 15:30:35
Wieso sollten dir VRMs auch ein Problem sein? Selbst unter OC verbraucht ein Ryzen selten mehr als 130 W - das ist nicht zu vergleichen mit der 250W TDP eines Centurion
Cinebench ist gar nicht mal so Powerhunrig und kommt auf 155 Watt beim 1800X.
Ich würde nicht am Board sparen wenn man ein 1700 auf 1080 X Speed betreiben will.

https://www.pcper.com/image/view/79481?return=node%2F67296

Gipsel
2017-03-17, 15:33:07
Die aktuell verfügbaren Mainboards unterscheiden sich teilweise Stark in der Anzahl der CPU-Phasen. Das Asus Prime B350M-A hat z.B. "nur" 6, ein vergleichbares von ASrock hat 9. Im Internet gibt es zwar einen Haufen ältere Beiträge zu dem Thema, aber hauptsächlich zu Intel-Systemen. Kann man sagen "je weniger CPU-Phasen" desto schlechter das OC-potential oder ist das eher zu vernachlässigen?Die allgemeine Antwort wäre: Kommt drauf an.
VRMs mit 6 gut aufgebauten "richtigen" Phasen können besser sein als welche mit 10 billigen "verdoppelten" (die meisten VRM-Controller können gar nicht so viele Phasen direkt ansteuern, da werden also z.B. nur 5 vom Controller gesteuerte Phasen genutzt, die dann mit einem extra-Käfer auf dem Board nochmal auf zwei aufgeteilt werden). Mit mehr Phasen kann man im Prinzip etwas an den Spulen und Kondensatoren für jede Phase sparen und die einzelnen Phasen fallen dann häufig schwächer aus als bei einem Board mit etwas weniger.
Kurz: Man muß den genauen Aufbau und die benutzten Komponenten kennen, um da was Konkretes sagen zu können.

Lowkey
2017-03-17, 15:34:41
Wenn wir gerade bei der Spannungsversorgung sind. Ich hatte die Frage schon an anderer Stelle gestellt, aber da gab es keine Antwort:

Die aktuell verfügbaren Mainboards unterscheiden sich teilweise Stark in der Anzahl der CPU-Phasen. Das Asus Prime B350M-A hat z.B. "nur" 6, ein vergleichbares von ASrock hat 9. Im Internet gibt es zwar einen Haufen ältere Beiträge zu dem Thema, aber hauptsächlich zu Intel-Systemen. Kann man sagen "je weniger CPU-Phasen" desto schlechter das OC-potential oder ist das eher zu vernachlässigen?

Selbst wenn man genau weiss, was verbaut ist, so hängt es dann ebenso am UEFI. Das Thema ist so komplex, dass jedes Board anders aufgebaut ist. Im Hwluxx gibt es einen dicken Thread zu dem AM4 Boards.

Man geht davon aus, dass die CPUs gebinned sind. Also ein 1700 muss andere Kriterien erfüllen als ein 1800x. Somit kann man eine Aussage zu einem Board nur in Verbindung mit einer CPU machen.

Und es gibt wohl noch keinen Stabilitätstest, den man einfach durchführen kann. Prime95 scheint nicht zu wirken und Cinebench lastet nur bedingt aus.

Rednose
2017-03-17, 15:35:22
Vielleicht etwas OT, betrifft aber alle Ryzen@W7/W8.1-Nutzer:

Microsoft blockiert ALLE Windows 7 & 8.1-Updates für AMD Ryzen & Intel Kaby Lake Nutzer (https://support.microsoft.com/en-us/help/4012982/discusses-an-issue-in-which-you-receive-a-your-pc-uses-a-processor-tha)
"Your PC uses a processor that isn’t supported on this version of Windows" error when you scan or download Windows updates


Aber hey, M$ hat DIE Lösung für das Problem:
We recommend that you upgrade Windows 8.1-based and Window 7-based computers to Windows 10....
:freak:

Einfach nur traurig

Gipsel
2017-03-17, 15:35:43
Cinebench ist gar nicht mal so Powerhunrig und kommt auf 155 Watt beim 1800X.
Ich würde nicht am Board sparen wenn man ein 1700 auf 1080 X Speed betreiben will.

https://www.pcper.com/image/view/79481?return=node%2F67296Die 155W sind das Gesamtsystem an der Steckdose. Der Chip selber liegt da vermutlich nur bei ~100W oder knapp drüber (hat das Igor nicht für verschiedene Lasten gemessen?).

edit:
Ja, hat er, wenn auch nicht Cinebench. Aber Blender (95W) oder Luxrender (112W) sollten schon im richtigen Bereich liegen:
https://img.purch.com/w/711/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9JL1IvNjU2NDUxL29yaWdpbmFsLzAxLVdhdHRhZ2Ut QmFycy5wbmc=

dildo4u
2017-03-17, 15:38:52
Ist das nich egal ob das die CPU ist oder der Rest vom Board?Belasten nicht alle Komponenten die VRM.

Dr.Doom
2017-03-17, 15:42:30
Ich konnte mit einem Temperaturfühler selbst nach 12h Prime unter OC keine höhere Temperatur als 41°C an den VRM Kühlern messen. Auch HWInfo, welches entsprechende Werte auslesen kann, zeigte nicht mehr als 50 °C für die VRMs an. Und das mit einem fetten Towerkühler in einem normal belüfteten Gehäuse (vorne 2 Lüfter, hinten einer).Doofe Frage(n) von jemandem, bei dem der Strom nur aus der Steckdose kommt:

Verbraucht ein R7 1700, den man in die Nähe eines R7 1800X getaktet hat, mehr als ein normal taktender R7 1800X?
Oder anders: Werden die VRMs bei dem OCten R7 1700@1800X stärker beanspruch als beim nicht OCten R7 1800X?
Ergibt sich ein Mehrverbrauch alleine dadurch, dass der R7 1700 u.U. mehr Spannung benötigt, um die Taktratenregion eines 1800X zu erreichen?

Gipsel
2017-03-17, 15:44:59
Ist das nich egal ob das die CPU ist oder der Rest vom Board?Belasten nicht alle Komponenten die VRM.Nö. Die belasten verschiedene VRMs auf dem Board oder im Netzteil ;). Der Arbeitsspeicher hat z.B. ein von der CPU separaten Spannungsregler (im Prinzip hat jede Spannung einen eigenen Spannungsregler). Einige Sachen vom Gesamtverbrauch (GPU [die haben ja eigene VRMs] oder andere PCIe-Karten, Festplatten usw.) hängen auch direkt am Netzteil. Wenn man also von den VRMs für die CPU redet, dann ist dafür auch nur der CPU-Verbrauch entscheidend und nicht der Systemverbrauch an der Steckdose. Ein Netzteil mit niedriger Effizienz läßt den Systemverbrauch steigen, belastet aber wohl nicht die CPU-VRMs auf dem Board, oder? ;)

Rednose
2017-03-17, 15:48:56
Gut dann wird der 1600X keine 300 kosten,schätze mal der 1700 fällt später auf 330.

Heutige Meldung auf AMD schon bekannt?

AMD announces, details its new Ryzen 5 mainstream CPU family (https://community.amd.com/thread/213562)

https://community.amd.com/servlet/JiveServlet/showImage/2-2786946-118419/%24.png

Gipsel
2017-03-17, 15:53:23
Heutige Meldung auf AMD schon bekannt?

AMD announces, details its new Ryzen 5 mainstream CPU family (https://community.amd.com/thread/213562)Heute? Ist doch schon zwei Tage alt. :rolleyes:

TwoBeers
2017-03-17, 15:58:50
Verbraucht ein R7 1700, den man in die Nähe eines R7 1800X getaktet hat, mehr als ein normal taktender R7 1800X?
Oder anders: Werden die VRMs bei dem OCten R7 1700@1800X stärker beanspruch als beim nicht OCten R7 1800X?
Ergibt sich ein Mehrverbrauch alleine dadurch, dass der R7 1700 u.U. mehr Spannung benötigt, um die Taktratenregion eines 1800X zu erreichen?


Soweit ich das bis jetzt gesehen habe, kommt es nur auf die Spannung an. Der 1700 benötigt meist etwas mehr Spannung als der 1800X bei gleicher Taktfrequenz und verbraucht dann auch mehr. Der Mehrverbrauch wird aber kaum die 200+ € für den 1800X rechtfertigen, außer du betreibst die CPU 10 Jahre 24/7 auf Volllast. ;)

Th3o
2017-03-17, 16:06:37
Vielleicht etwas OT, betrifft aber alle Ryzen@W7/W8.1-Nutzer:

Microsoft blockiert ALLE Windows 7 & 8.1-Updates für AMD Ryzen & Intel Kaby Lake Nutzer (https://support.microsoft.com/en-us/help/4012982/discusses-an-issue-in-which-you-receive-a-your-pc-uses-a-processor-tha)



Aber hey, M$ hat DIE Lösung für das Problem:

:freak:

Einfach nur traurig
Es gibt ja die Möglichkeit, die Patches von Winfuture zu holen und zu installieren. Ich für mich werde erstmal Win 7 installieren, es ist bezahlt und wird verwendet.

Flusher
2017-03-17, 16:16:54
Cinebench ist gar nicht mal so Powerhunrig und kommt auf 155 Watt beim 1800X.
Ich würde nicht am Board sparen wenn man ein 1700 auf 1080 X Speed betreiben will.

https://www.pcper.com/image/view/79481?return=node%2F67296

Das ist fürs Gesamtsystem :freak:


Im HWLuxx forum gibt es übrigens eine gute Auflistung inkl. Bewertung der Spannungsversorgung der einzelnen Boards

https://www.hardwareluxx.de/community/f12/am4-mainboard-vrm-liste-1155146.html

TwoBeers
2017-03-17, 16:28:26
Vielleicht etwas OT, betrifft aber alle Ryzen@W7/W8.1-Nutzer:

Microsoft blockiert ALLE Windows 7 & 8.1-Updates für AMD Ryzen & Intel Kaby Lake Nutzer (https://support.microsoft.com/en-us/help/4012982/discusses-an-issue-in-which-you-receive-a-your-pc-uses-a-processor-tha)


Betrifft zur Zeit nur KL und BR Nutzer, Ryzen wird (noch) supported:
https://www.computerbase.de/2017-03/windows-7-8-update-kaby-lake-ryzen-update/

Grendizer
2017-03-17, 16:32:00
Es gibt ja die Möglichkeit, die Patches von Winfuture zu holen und zu installieren. Ich für mich werde erstmal Win 7 installieren, es ist bezahlt und wird verwendet.

Jepp die sind sogar besser wie die original Windows Updatefunktion. Hatte mal einen Rechner, der partout keine neuen Updates mehr ziehen wollte. Den habe ich dann damit weiter versorgt

Th3o
2017-03-17, 16:35:06
laut CB würden die Updates für Ryzen doch noch funktionieren. Was für ein Chaos bei M$

Flusher
2017-03-17, 16:38:38
Habe gerade gesehen, dass Asus für das Prime B350-Plus eine neue Memory QVL veröffentlicht hat. Das ist wirklich Lotterie. Selbst vermeintlich gleiche Corsair DIMMs funktionieren mehr oder weniger gut :freak:

Dr.Doom
2017-03-17, 16:52:20
Soweit ich das bis jetzt gesehen habe, kommt es nur auf die Spannung an. Der 1700 benötigt meist etwas mehr Spannung als der 1800X bei gleicher Taktfrequenz und verbraucht dann auch mehr. Der Mehrverbrauch wird aber kaum die 200+ € für den 1800X rechtfertigen, außer du betreibst die CPU 10 Jahre 24/7 auf Volllast. ;)Es geht mir da eher um die benötigte zusätzliche Kühlung, da "Weniger kühl = mehr laut". :freak:

Wenn ein R7 1700@1800X mehr Kühlung benötigt als ein R7 1800X@1800X, dann kauf' ich lieber den kühleren Leisetreter.

Schnoesel
2017-03-17, 17:15:46
So richtig vergleichen kann man imo das gar nicht weil durch das OC die Booststufen nicht funktionieren wenn ich das richtig verstanden haben. Da geht nur all Core OC. Wenn du also einen X1700 auf 3.7GHZ bringst so wie es dem all Core Turbo bei dem X1800 entspricht fehlen dem 1700er noch die Singlecore und Dualcore Stufe (4.0 GHZ) und die 100 MHZ vom XFR. Berichtigt mich wenn ich falsch liege.
Da Ryzen nun aber durch das Offset offenbar doch relativ kühl bleibt glaub ich gar nicht dass der X1800X recht viel leiser zu kühlen ist bzw. sogar lauter durch eben diesen Offset.

Grendizer
2017-03-17, 17:30:36
In WoW kackt der Ryzen@3,9 übrigens ziemlich ab. WoW ist zwar nur eine Dualcore anwendung, aber ich bekomme deutllich weniger Frames als mit meinem 3570K ( 27 vs 35)

TwoBeers
2017-03-17, 17:45:42
@Schnoesel: Genau, außerdem kan den 1800X meistens auf 4.1GHz allcore bringen, natürlich mit höherem Verbrauch dann, das schafft man mit dem 1700 gar nicht. Also wenn man die Leistung ähnlich zu einem 1800X haben will, dann reicht der 1700, will man mehr, braucht man den 1800X.

@WoW-Zocker, Also bei mir läuft WoW gefühlt gleich wie mein 3570k (60-85fps in FHD, in Stormwind aber auch mal nur 30fps).

CompuJoe
2017-03-17, 17:46:12
Kann ich nicht bestätigen, schalt mal SMT aus und schau dann mal, liegt daran das WoW Ryzen noch nicht kennt, es bringt auch was WoW auf einzelne Kerne festzulegen.

Ph0b0ss
2017-03-17, 18:02:54
@Schnoesel: Genau, außerdem kan den 1800X meistens auf 4.1GHz allcore bringen, natürlich mit höherem Verbrauch dann, das schafft man mit dem 1700 gar nicht. Also wenn man die Leistung ähnlich zu einem 1800X haben will, dann reicht der 1700, will man mehr, braucht man den 1800X.

Beim Spielen ist es aber eigentlich egal ob 3,9Ghz oder 4,1Ghz. Das sind nur knapp über 5% mehr Leistung im idealen Fall. Macht z.B. aus 30 fps auch nur maximal ~31,5 fps.

Schnoesel
2017-03-17, 18:24:05
Stimmt natürlich. Wollte damit nur sagen, dass man durch OC einen X1800X nicht simulieren kann aufgrund der fehlenden Turbostufen. P/L ist ein OC 1700 natürlich nicht zu schlagen (solange der X1600X noch nicht kaufbar ist).

Michalito
2017-03-17, 18:41:31
Thema RAM, Zack Zack hat grade ein gutes Angebot..pls. nicht wegen OT steinigen..

Mika2016
2017-03-17, 18:49:54
Thema RAM, Zack Zack hat grade ein gutes Angebot..pls. nicht wegen OT steinigen..

Danke für den Tipp. Aber Quad-Kits dürften beim Ryzen die schlechtere Wahl sein.

Boris
2017-03-17, 18:54:20
Die allgemeine Antwort wäre: Kommt drauf an.
Kurz: Man muß den genauen Aufbau und die benutzten Komponenten kennen, um da was Konkretes sagen zu können.
Selbst wenn man genau weiss, was verbaut ist, so hängt es dann ebenso am UEFI. Das Thema ist so komplex, dass jedes Board anders aufgebaut ist. Im Hwluxx gibt es einen dicken Thread zu dem AM4 Boards.
Danke für eure Antworten, im Endeffekt müssen dann Praxistests zeigen wie geeignet ein Mainboard für OC ist.

Gorkon
2017-03-17, 20:46:29
Das ist fürs Gesamtsystem :freak:


Im HWLuxx forum gibt es übrigens eine gute Auflistung inkl. Bewertung der Spannungsversorgung der einzelnen Boards

https://www.hardwareluxx.de/community/f12/am4-mainboard-vrm-liste-1155146.html
Sauberer Fund :up:

MSIs 300 Flocken X370 Titanium Board mit...NIKOS VRMs :freak: Ich weiss genau, warum ich von denen absolut nix mehr kaufe...

Boris
2017-03-17, 20:54:52
Die Übersicht ist wirklich hilfreich. Von den B350 Boards soll das Prime B350-Plus die beste Figur machen und laut Tabelle ist es identisch zum Prime B350M-A.

anddill
2017-03-17, 21:04:44
Pfft. Klar, Zen ist ja auch so ein Monster-OC Chip uund zieht dann 200W.

Isen
2017-03-17, 21:13:02
Na klar! 250W wurde sogar schon genannt, was der 1700@1800x aus der Dose nuckelt. :freak:
Ist dein Board mit Schrott vrms nuckelt der sogar 300W aus der Dose!

Man munkelt sogar schon, das Zen nen Bulli2 ist, nur diesmal mit echten Kernen.

[ironie]...

Gorkon
2017-03-17, 21:14:51
Klar, dass Board wird nicht abrauchen oder so...aber sry, Scheisse bleibt Scheisse...

MSI kann für das X370 Titanium gerne 150 Euro verlangen für das was sie da verlöten. Aber sicherlich keine 300 Euro :| Das ist pure Abzocke, wenn du bei Biostar für nen Hunni weniger IOR oder sogar schon beim ASUS Prime X370 NextFETs bekommst.

dargo
2017-03-17, 21:32:03
Kann mich mal einer aufklären was es mit diesen Nikos Dingern auf sich hat? Ich blicke da immer noch nicht durch. :freak: Sind die jetzt besonders schlecht? Werden die extrem warm oder was ist das Problem?

anddill
2017-03-17, 21:32:31
Ich hab grad mal OCCT laufen. System zieht 170W aus der Dose, Die Drähtchen an meinem Sparnetzteil (Ein Xilence 400W!) werden wärmer als die Spannungswandler, es liegen noch 11,6V am Stecker an und die Wandler ziehen 9,7A. Das sind 112W in die Wandler. Alles noch locker beherrschbar.
Daß das Board völlig überteuert ist ist natürlich klar. Ein AM3+ Asrock für 55€ steckt locker eine höhere Last weg. Mit 4+1 Phasen.

edit: Nikos sind angeblich besonders preiswerte Mosfets. Die aber trotzdem problemlos den Job machen.

Isen
2017-03-17, 21:34:15
@Gorkon,

ich wollte dich in keins der Weise angehen, wegen dem MSI.
Mir kommt auch kein MSI ins Haus.. hat aber andere Beweggründe.
Ich finde nur, dass durch solch Kleinigkeiten (von der Größe des Bauteils betrachtet = VRMS/Mossis) + Übertreibungen = Gesamtsystem = 1700@1800x = 250W - ziemlich schäbig :D


Daß das Board völlig überteuert ist ist natürlich klar.



was wohl an das einfliegen statt Schiff herrührt, irgendwo wurde das geschrieben... ich bin mal auf die tatsächlichen Dickschiffe gespannt. Für die Ausstattung Aktueller 370X und zu dem Preis, nene... da geht noch ordentlich was.

Boris
2017-03-17, 21:34:23
Ich hab grad mal OCCT laufen. System zieht 170W aus der Dose, Die Drähtchen an meinem Sparnetzteil (Ein Xilence 400W!) werden wärmer als die Spannungswandler, es liegen noch 11,6V am Stecker an und die Wandler ziehen 9,7A. Das sind 112W in die Wandler. Alles noch locker beherrschbar.
Daß das Board völlig überteuert ist ist natürlich klar. Ein AM3+ Asrock für 55€ steckt locker eine höhere Last weg. Mit 4+1 Phasen.
Ich denke das ist auch der Punkt, bei dem Preis kann man hochwertigere Bauteile erwarten. Kenne mich da nicht aus, aber ich denke darauf will Gorkon hinaus.

dargo
2017-03-17, 21:35:56
edit: Nikos sind angeblich besonders preiswerte Mosfets. Die aber trotzdem problemlos den Job machen.
Achso... ich dachte schon die fliegen mir irgendwann um die Ohren oder so. :D Wobei mich eher die MSI B350 Bretter interessieren. Also sind diese Nikos auch kein Problem bei "nur" 6 Phasen (4 echte laut Luxx)?
http://geizhals.de/msi-b350-tomahawk-7a36-002r-a1580868.html?hloc=at&hloc=de

anddill
2017-03-17, 21:41:06
Ich denke das ist auch der Punkt, bei dem Preis kann man hochwertigere Bauteile erwarten. Kenne mich da nicht aus, aber ich denke darauf will Gorkon hinaus.

Ich glaub der Preis steckt bei dem Teil in der PCB-Farbe. :biggrin:

Achso... ich dachte schon die fliegen mir irgendwann um die Ohren oder so. :D Wobei mich eher die MSI B350 Bretter interessieren. Also sind diese Nikos auch kein Problem bei "nur" 6 Phasen (4 echte laut Luxx)?
http://geizhals.de/msi-b350-tomahawk-7a36-002r-a1580868.html?hloc=at&hloc=de

Keine Ahnung. Ich sag Bescheid wenns explodiert ist.

dargo
2017-03-17, 21:47:25
So lange wollte ich nicht warten. X-D

Boris
2017-03-17, 21:49:39
Ich glaub der Preis steckt bei dem Teil in der PCB-Farbe. :biggrin:
Beleuchtet ists ja auch... ;)

Mal im ernst, ich hätte gerne ein hochwertiges (im Sinne von hochwertigen Bauteilen und gutem BIOS/UEFI) Mainboard in µATX ohne viel Schnickschnack (Beleuchtung, Edelstahl-Slots, usw.) und am besten komplett einfarbig. Dafür würde ich auch 200€ zahlen. Aber das kann man in den nächsten Jahren wohl knicken...

So lange wollte ich nicht warten. X-D
Vielleicht dauert es ja nicht so lange ;)

anddill
2017-03-17, 21:50:55
Jetzt hab ich Linpack angschmissen. Die CPU scheint tatsächlich ein hartes Powerlimit zu haben. Der Allcore-Turbo liegt nicht an, sie begrenzt jetzt bei 3,45GHz und 1,096V Corespannung. Gesamtleistungsaufnahme ist identisch zum OCCT-Lasttest.
Solange Du nicht extrem übertaktest dürfte da nichts passieren. Kommt halt drauf an was Du mit dem Board vor hast. Ich werde jedenfalls nichts übertakten, dafür hab ich mit den 1800X geholt.