PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - RYZEN 2/Zen+ (Pinnacle Ridge): Review-Thread


Seiten : 1 2 [3] 4 5 6 7 8

Schnoesel
2018-04-30, 10:16:26
Soll halt jeder für sich entscheiden was wichtig ist. Für mich! sind Balkenlänge auf 720p irrelevant. Ich schau mir die Performance in meiner Auflösung an und da schau ich eher auf die Frametimes als auf den Balken.

Ich verstehe auch nicht warum hier so ein Streit losbricht wenn es um Spiele geht. Bei Spiele ist die GPU 100x wichtiger als jede CPU (Schundsoftware ausgenommen)

y33H@
2018-04-30, 10:17:34
Dummerweise gibt's viel Schund und weil man selbst die Software nicht ändern kann muss halt die CPU/RAM schneller werden :P
dieses kreischende Geräusch, wenn du zockst, ist übrigens deine GPU, die bettelt, was tun zu dürfen.vll 144+ Hz?

Schnoesel
2018-04-30, 10:19:04
Wer Schund spielt darf sich dann auch gerne eine Intel CPU kaufen ist doch kein Problem.

fondness
2018-04-30, 10:26:53
2600x ist jetzt der Fortnite King,das sollte AMD in der Werbung nutzen.


https://www.computerbase.de/2018-04/ryzen-2600-2700-fortnite-pubg-overwatch/2/#diagramm-fortnite-1920-1080

Wow, das sind ja gewaltige Steigerungen gerade bei den Spielen die bisher eher durchschnittlich waren. Und das obwohl die Memory Latenz noch immer klar hinter Intel liegt.

dildo4u
2018-04-30, 10:30:38
Jup wenn AMD zu erst DDR5 Support hat wird es sehr interessant.

iuno
2018-04-30, 11:17:57
Sorry, für Dich mag das Sinn ergeben, für mich nicht. Ich schaue mir die Tests mit meiner entsprechenden genutzten Auflösung, da ich nie wieder unter 1440 Auflösung gehe und selbst wenn ich irgendwann zu 4K switche, wird die Aussagekraft dann von einer Extrapolation einer 720p Auflösung eben nicht stimmen.

Wichtiger ist, dass man schaut, wo bei seinem eigenen Anwendungsprofil wirklich der Flaschenhals der CPU ist (Spiele und vor allem Anwendungen). Und danach sollte man seinen Kauf ausrichten.

Die Frage ist halt nicht, was fuer einen persoenlich, sondern fuer einen CPU-Test relevant ist.
Bei einem CPU Test will man die CPU vermessen und mit anderen vergleichen. Es bringt rein gar nichts eine CPU testen zu wollen, wenn man im GPU Limit ist. Analog dazu haelt man einen GPU Test ja aucch nicht mit einem Atom ab, sondern steckt so das Bestmoegliche dazu.

Und wenn man es dann fuer sich selber speziell fuer Spiele haben will, schaut man eben CPU und GPU Tests an und rechnet 1 und 1 zusammen. Dann siehst du wie viele Frames du am Ende herausbekommst (GPU Test), wie viel Potenzial die CPU mit einer staerkeren GPU noch haette. Verstehe das Problem dabei nicht. Muss man denn alles vorgekaut bekommen?
Wohingegen das Problem bei "CPU Tests" mit hoher Aufloesung eben das ist, dass sie zu der vorhandenen Informationslage nichts beitragen: Wenn Spiel A auf der GPU mit 60 FPS laeuft, im "CPU Test" in voller Aufloesung mit 65 und in niedriger Aufloesung mit 100 FPS dann impliziert der low-res-CPU Test, dass man das Spiel mit 60 FPS spielen kann, aber auch mit 100 wenn die GPU entsprechend aufgeruestet wird. Wohingegen der high-res test diese Info eben nicht liefert. Ja, er besagt, dass die CPU "schnell genug" ist, aber das geht selbstverstaendlich auch aus dem low-res Test hervor.

Menace
2018-04-30, 11:43:48
... wie viel Potenzial die CPU mit einer staerkeren GPU noch haette. Verstehe das Problem dabei nicht. Muss man denn alles vorgekaut bekommen?
....

Das impliziert aber, dass ich

a) low-res-Test auf high-res ohne Fehler einfach interpolieren kann;
b) dass die Technik/Softwaregrundlage auf die die Interpolation beruht, sich in der Zeit des Aufrüstens nicht ändert.

Oder anders gesagt: Die Software ändert sich unter Umständen stärker (bessere Nutzung von Multithread), so dass das ganze Low-Res -> High-Res-Weissagung innerhalb eines gewissen Zeitrahmens einfach nicht mehr stimmt.

Bsp.: Ich teste einen 4-Kerner mit dem Spiel XY bei 720p und er liefert mir damals super Ergebnisse. Ich spiele damals aber mit einer Grafikkarte, die im GPU-Limit einbremst. Jetzt kaufe ich einen neuen Monitor (von FHD zu 1440) und eine passende Grafikkarte und spiele andere Spiele. Es wurden gleich drei Parameter geändert (GPU, Auflösung, Betriebssystemupdates, Hintergrundprogramme und Software). Wahrscheinlich bin ich trotz besserer GPU wieder im GPU-Limit und die "tollen Voraussagen" auf Basis der 720p wie mein 4-Kerner in 3 Jahren läuft ist komplett für die Tonne.

Ich sage nicht, dass es für viele Nutzer keinen Aussagewert hätte, die 720p-Tests als Glaskugel für die nächsten 4 Jahre zu nutzen; ich glaube aber nicht, dass es für die Mehrheit dann letztlich irgendeine Relevanz hatte.

Armaq
2018-04-30, 11:59:21
Hier nun der RAM-OC-Artikel: https://www.golem.de/news/ram-overclocking-getestet-auch-ryzen-2000-profitiert-von-schnellem-speicher-1804-134059.html
Ziemlich geile Skalierung. Leider ist bei 3466 Mhz Schluss. Ich hab ja CL16 3600 Mhz TridentZ, hast du das mal angefasst?

y33H@
2018-04-30, 12:09:11
Ja, skaliert nicht mehr so gut.

dildo4u
2018-04-30, 12:33:49
GTA5 überrascht dort am meisten,schätze mal der Boost ist dort relativ hoch.

BlacKi
2018-04-30, 12:50:24
Hier nun der RAM-OC-Artikel: https://www.golem.de/news/ram-overclocking-getestet-auch-ryzen-2000-profitiert-von-schnellem-speicher-1804-134059.html
und jetzt nur noch den 8700k mit 5ghz und 4000mhz ram + subt. daneben geselllen und schon wäre ich glücklich:biggrin:

leider bekommt man nicht alles was man möchte...

y33H@
2018-04-30, 12:55:08
Der Fokus lag halt auf Ryzen ;)

BlacKi
2018-04-30, 13:04:48
jaber das das keiner testet? als wollte irgendwer nicht, dass die so verglichen werden.

Freestaler
2018-04-30, 13:05:51
Der Fokus lag halt auf Ryzen ;)

Ich würde nen 8700k mit gleichem speichergüte auch schätzen im vergleich. Oder ist das dann Teil 2 ;-) und oc test dann teil 3? ;-)

BlacKi
2018-04-30, 13:07:15
einfach ein test indem beide maxed out laufen, also das, was ein overclocker sehen will. muss ja nicht auf 5ghz und 4000mhz ram begrenzt sein, bei 3466mhz ram und 4,3 ghz core läuft er eben mit angezogener handbremse.

fondness
2018-04-30, 13:13:00
Ja, aber bitte jeweils mit Boxed Kühler. *sncr* :weg:

Armaq
2018-04-30, 13:13:45
einfach ein test indem beide maxed out laufen, also das, was ein overclocker sehen will. muss ja nicht auf 5ghz und 4000mhz ram begrenzt sein, bei 3466mhz ram und 4,3 ghz core läuft er eben mit angezogener handbremse.
Du hast doch genau die Maschine? Bench doch mal die für Ryzen positiven Beispiele, wenn du sie besitzt.

Ich erklär mich bereit die Games die ich habe mit nem 1800x auf 3950Mhz zu checken.

@y33h@ Danke für die Info.

y33H@
2018-04-30, 13:21:03
Die Werte sind genau genommen "Abfall" vom Ryzen-Test ;D

Der_Korken
2018-04-30, 13:52:54
Was mich persönlich interessieren würde ist, wie sich Ryzen mit 2x16GB Dualrank-Modulen und 4x8GB Singlerank-Modulen verhält. In allen Reviews werden ausschließlich 2 Singlerank-Module benutzt, aber damit ist man auf 16GB limitiert. Langfristig würde ich schon gerne 32GB anpeilen und bin somit gezwungen vier Ranks zu nutzen. Jetzt ist aber die Frage, lohnt es sich heute 2x8GB schnellen und teuren RAM zu kaufen und in einem Jahr nochmal das gleiche Kit oder greife ich lieber zu billigem und langsamen RAM, weil bei vier Ranks sowieso der IMC limitiert und bei 2667Mhz dicht macht. Oder lieber sofort 2x16GB DR kaufen, weil man damit mehr Takt schafft.

Rancor
2018-04-30, 13:53:39
jaber das das keiner testet? als wollte irgendwer nicht, dass die so verglichen werden.

Und was erwartest du? Natürlich ist der 8700k dann schneller.
Wenn man beide CPUs bis zur kotzgrenze oced und schnellen Ram nutzt und sich zusätlich den Subtimings widmet, dann ist der 8700k auch schneller. Das ist aber doch kein Geheimniss.

Blediator16
2018-04-30, 14:11:41
Und was erwartest du? Natürlich ist der 8700k dann schneller.
Wenn man beide CPUs bis zur kotzgrenze oced und schnellen Ram nutzt und sich zusätlich den Subtimings widmet, dann ist der 8700k auch schneller. Das ist aber doch kein Geheimniss.

Dann brennt aber die Hütte :freak:

dildo4u
2018-04-30, 14:13:39
Und was erwartest du? Natürlich ist der 8700k dann schneller.
Wenn man beide CPUs bis zur kotzgrenze oced und schnellen Ram nutzt und sich zusätlich den Subtimings widmet, dann ist der 8700k auch schneller. Das ist aber doch kein Geheimniss.
Schneller heißt nicht automatisch bessere Frametimes,ob ich nun 130 oder 160fps hab dann nehm ich eher die 130 mit weniger Spikes.

bbott
2018-04-30, 14:37:06
Und was erwartest du? Natürlich ist der 8700k dann schneller.
Wenn man beide CPUs bis zur kotzgrenze oced und schnellen Ram nutzt und sich zusätlich den Subtimings widmet, dann ist der 8700k auch schneller. Das ist aber doch kein Geheimniss.

Auch mit Zahnpasta, oder muss man die erst entfernen?
Sicher auch bei 13-16 Threads?
Gibt es außer bei 720p einen nennenswerten Vorteil?

BlacKi
2018-04-30, 14:49:25
Und was erwartest du? Natürlich ist der 8700k dann schneller.
Wenn man beide CPUs bis zur kotzgrenze oced und schnellen Ram nutzt und sich zusätlich den Subtimings widmet, dann ist der 8700k auch schneller. Das ist aber doch kein Geheimniss.
ehm zahlen?:wink:

Schneller heißt nicht automatisch bessere Frametimes,ob ich nun 130 oder 160fps hab dann nehm ich eher die 130 mit weniger Spikes.
da es solche und solche spiele gibt und sich beide cpus unterschiedlich performen, mal besser mal schlechter wird es auf die spiele auswahl hinauslaufen wo die frametimes ausschlaggeben sind. das hat aber nichts damit zu tun das ich trotzdem gerne wüsste wie groß der abstand ist.

Rancor
2018-04-30, 15:09:51
ehm zahlen?:wink:

Dir geht es also darum zu sehen wie wieviel größer der E-Peen ist?
Dann brennt aber die Hütte :freak:
Joa, das kann man aber mit genug Aufwand wegkühlen :D
Schneller heißt nicht automatisch bessere Frametimes,ob ich nun 130 oder 160fps hab dann nehm ich eher die 130 mit weniger Spikes.
Die Frametimethematik hatten wir schon bei Summit Ridge.. bestätigt hat sich das nie ;) Es gibt hier sogar extra Thread dafür.
Auch mit Zahnpasta, oder muss man die erst entfernen?
Sicher auch bei 13-16 Threads?
Gibt es außer bei 720p einen nennenswerten Vorteil?
Natürlich geht das nicht mit der Zahnpasta :D Die muss immer weg. Imho auch ein Grund warum alle Vergleiche mit einem 8700k @5,0 bis 5,2Ghz olol sind, da das in keinem Verhältnis zum relativ einfachen Tuning des 2700x steht. Da braucht man nur schnellen Ram. Selbst einen anderen CPU Kühler braucht man nicht, da XFR2 und Precsision Boost einfach zu mächtig sind.
Schaut man aber auf die MAX Gaming Performance, dann bleibt der 8700k King, mit der einschränkung das man dafür schon einiges an Aufwand betreiben muss.
Wenn man Software nutzt die tatsächlich noch Performance aus weitere Thread zieht, ist der 8700k vermutlich nicht schneller als ein 2700x. Tut in Spielen aber meistens nix zur Sache.
Man hat immer dann einen Vorteil, wenn man im CPU Limit ist ;)

bbott
2018-04-30, 17:06:51
Natürlich geht das nicht mit der Zahnpasta :D Die muss immer weg. Imho auch ein Grund warum alle Vergleiche mit einem 8700k @5,0 bis 5,2Ghz olol sind, da das in keinem Verhältnis zum relativ einfachen Tuning des 2700x steht. Da braucht man nur schnellen Ram. Selbst einen anderen CPU Kühler braucht man nicht, da XFR2 und Precsision Boost einfach zu mächtig sind.
Schaut man aber auf die MAX Gaming Performance, dann bleibt der 8700k King, mit der einschränkung das man dafür schon einiges an Aufwand betreiben muss.

Ich wollte damit aufzeigen, dass erst viele wenn und abers notwendig sind, dass ein 8700k etwas relevant(?) vor einem 2700X liegt. OC ist nicht so verbreitet und wie viele Köpfen dann noch die CPU?

ABER wenn die Games erstmal 13-16 Threads nutzen wird ein 8700k alt aussehen. Klar wer regelmäßig Update wird das nicht jucken, aber die 8700k Verfechter verweisen auf die 720p um dessen Zukunftsfähigkeit "aufzuzeigen". Dabei wird aber die bessere Multi-Threading Fähigkeit des 2700X vergessen (i7 2400 vs. FX 8350). Die Zeit arbeitet für Ryzen (2) und gegen den i7 7700/8700 ;-) Außer in Games sollte AVX256/512 zum Einsatz kommen, allerdings sollten solche Berechnungen eher über die GPU laufen.

Also Gamer die die CPU langfristig behalten wollen, werden mMn langfristig mit einem 2700X besser fahren als mit einem 8700k selbst OC dürfte da nicht ausreichen. Zuerst dürfte es bei den Frametimes zu beobachten sein.

BlacKi
2018-04-30, 17:58:57
Dir geht es also darum zu sehen wie wieviel größer der E-Peen ist?
deine penis anspielungen kannst du dir sparen. mich hat es auch vor nem halben jahr interessiert wieviel % der neue mit OC schneller ist als der alte mit OC. warum? zur einordnung. ca 30% kann ich dir sagen. leider gibt es "keine" test zur einordnung zwischen den beiden topmodellen im spielebereich mit OC.

ein trauriger zustand meiner meinung nach.

fondness
2018-04-30, 18:05:04
Weil wohl kaum ein Tester Lust hat seine CPU mittels köpfen zu schrotten bzw. nicht mehr zurück geben zu können.^^

Ätznatron
2018-04-30, 20:30:34
Um mal einen ordentlichen Vergleich zwischen 8700k und 2700x zu schaffen, bietet sich das heftig CPU-limitierte X-Plane 11 an:

Demo (http://www.x-plane.com/desktop/try-it/)

Der (eingebaute) Benchmark im Detail erläutert (http://www.x-plane.com/kb/frame-rate-test/) und wesentliche Infos (https://forums.x-plane.org/index.php?/forums/topic/114741-xp11-gpu-fps-test%C2%A0-comparison/&tab=comments#comment-1115679) zu dessen Durchführung und Vergleich mit anderen Resultaten.

Und da trennt sich dann die Spreu vom Weizen.

ps: Eventuell sind noch ein paar zusätzliche Dateien erforderlich, bei Bedarf also hier posten oder PN an mich.

Blediator16
2018-04-30, 20:57:45
Ich würde lieber SC2 als das Non Plus Ultra für die CPU Entscheidung nominieren :freak:

Ätznatron
2018-04-30, 21:03:13
Ich würde lieber SC2 als das Non Plus Ultra für die CPU Entscheidung nominieren :freak:

Ja, mach.

Lass mich mal vermuten: Da liegt am Ende der 8700k vorne.

Armaq
2018-04-30, 21:04:08
Ich würde lieber SC2 als das Non Plus Ultra für die CPU Entscheidung nominieren :freak:
Heavy auf Intel optimiert. Bekommst richtig schlechte FPS mit Ryzen.

Ätznatron
2018-04-30, 21:07:39
Heavy auf Intel optimiert. Bekommst richtig schlechte FPS mit Ryzen.

Was genau ist denn da Intel optimiert?

Armaq
2018-04-30, 22:23:37
Was genau ist denn da Intel optimiert?
SC2 performt auf Intel massiv besser als jede AMD Architektur. Das heißt es. PCGH hat das sogar mal rausgekramt und stand auch etwas in der Kritik.

Relic
2018-04-30, 22:24:13
Was genau ist denn da Intel optimiert?

In einer VM, wo man die CPUID auf Intel ändert, bekommt man auf einem AMD System mehr Performance, als wenn man es ohne VM laufen lässt. Gibt hier im Forum auch ein Thread zu.

Ist ein super Benchmark!!!!!

Ätznatron
2018-04-30, 22:32:32
Okay, dann fällt SC2 weg.

Macht andere Benches nicht unbrauchbar.

Screemer
2018-04-30, 22:35:50
hier nachzulesen: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=583102

Hasenpfote
2018-04-30, 22:41:42
vll 144+ Hz?Da bin ich zu alt für! Als ich jung war und noch gezockt habe, hat man den Leuten bei allem über 60fps nen Vogel gezeigt. Aber gut, gibt ja auch Leute die kaufen sich Curved 3D Fernseher (aber nur echt mit 144Hz, ich bleib bei DoppelHerz) :biggrin:

ok, back to topic:
Ich hab jetzt schon zwei Tests gesehen, wo die Subtimings Ryzen beschleunigt haben. Frage: Wie ermittelt man die Subtimings, wenn man nicht "The Stilt" ist und kein Asus X470-Board hat? Muss ich mich da echt durch alle Timings durchklicken und jeweils schauen, wann das System nicht mehr bootet? Bringt das irgendwas beim Ryzen 1?

BlacKi
2018-04-30, 22:46:49
Muss ich mich da echt durch alle Timings durchklicken und jeweils schauen, wann das System nicht mehr bootet? Bringt das irgendwas beim Ryzen 1?
ja und ja.

Armaq
2018-04-30, 22:59:51
Du kannst dir auch die Stilt Safe Timings nehmen, die laufen immer ganz gut. Dazu noch den RAM Takt etwas konservativer wählen.

Hasenpfote
2018-05-01, 11:55:45
Du kannst dir auch die Stilt Safe Timings nehmen, die laufen immer ganz gut. Dazu noch den RAM Takt etwas konservativer wählen.Hab kein Asus-Board und auch keine Samsung B-Dies.

Ansonsten danke für die (demotivierende :biggrin: ) Info.

dildo4u
2018-05-01, 14:50:10
AMD Precision Boost 2 and Wraith Prism Deep Dive

https://www.hardocp.com/article/2018/04/30/amd_precision_boost_2_wraith_prism_deep_dive/1

Screemer
2018-05-01, 14:57:51
gibt es jetzt eigentlich schon definitive aussagen ob boardhersteller precission boost 2 in x370/b350 board biose integrieren werden? am anfang hieß es ja, dass das den herstellern frei stünde.

dildo4u
2018-05-01, 15:13:04
AMD hat damit geworben das es auf 300 aktiv ist es wird also Vorgabe sein wenn man 2Gen Unterstützen will.


http://abload.de/img/rf09rcne7luztv3b64p0p.jpg

Screemer
2018-05-01, 17:57:40
AMD hat damit geworben das es auf 300 aktiv ist es wird also Vorgabe sein wenn man 2Gen Unterstützen will.


http://abload.de/img/rf09rcne7luztv3b64p0p.jpg

Die Frage ist eher ob das ganze auch mit ryzen 1 funktionieren wird. Ich denke das ist reine durch agesa gesteuert und es gibt technisch nichts was dagegen sprechen würde. Ich lasse mich da allerdings gerne eines besseren belehren.

Langlay
2018-05-01, 19:50:25
Ich glaube nicht dass das noch für Ryzen 1 kommt, mit Ryzen 2 und C6H funktioniert jedenfalls beides, XFR2 und PB2.

Screemer
2018-05-02, 12:42:36
ich habe heute gelesen, dass die smu bei ryzen xfr und precision boost regelt. kann es sein, dass amd für zen+ da was am silikon gedreht hat und der algo den hallock mal erklärt (https://www.youtube.com/watch?v=426hLGoXDbM) hat dort direkt in der hardware integriert ist? sollte dem so sein, dann ist es ja unmöglich pb2 für die "alten" 1xxxer ryzen zu bringen.

Matrix316
2018-05-03, 20:56:30
Ganz interessant

SXkxZUfh8Ns

Der_Korken
2018-05-03, 21:42:53
Ich habe mal eine Frage was den Precision Boost angeht. Soweit ich verstanden habe, hat man als OCler die Möglichkeit entweder den Standard Boost zu verwenden oder manuell zu übertakten, wobei wie früher üblich Takt und Spannung auf einen Wert festlegt und dann unter Last alle Kerne mit diesem Takt laufen. Das kann kontraproduktiv sein, da man Allcore vielleicht nur 4,1Ghz schafft, aber der Default Boost in ST-limitierten Fällen 4,3 anlegt.

Welche Möglichkeiten hat man zum Tweaken ohne den Boost zu verlieren? Gibt es eine TDP-Grenze, die man anheben kann, um dem Boost-Algorithmus mehr Spielraum zu geben? Kann man undervolten (z.B. per Offset), um noch mehr Spielraum zu bekommen?

Screemer
2018-05-03, 22:13:47
was ich mich frage ist ob es möglich wäre die cache-latenzy bei ryzen1 durch ein microcodeupdate auch auf die 12 cylces wie bei ryzen+ zu senken. es gibt ja durchaus gute ryzen1 cpus.

Menace
2018-05-04, 15:46:57
Gibt es eigentlich Vergleichstest mit dem 2700er (außer bei CB so gut wie nichts gefunden und auch dort eher spartanisch)? :confused:

Hat AMD keine CPUs rausgerückt oder was ist der Grund dafür?

dildo4u
2018-05-04, 15:48:33
Ja AMD hat nur X Modelle herausgegeben hier gibt es ein 2700 Test:


http://www.guru3d.com/articles-pages/amd-ryzen-7-2700-review,1.html

Menace
2018-05-04, 15:57:12
Ja AMD hat nur X Modelle herausgegeben hier gibt es ein 2700 Test:


http://www.guru3d.com/articles-pages/amd-ryzen-7-2700-review,1.html

AMD ist manchmal so doof. :( Danke für den Link. Ein echter Vergleich zur 1700er CPU fehlt, aber es ist trotzdem schon hilfreich.

y33H@
2018-05-04, 16:28:51
Alle Tester haben non-X-Samples.

Menace
2018-05-04, 16:36:55
Alle Tester haben non-X-Samples.

Aber? Oder habe ich die Test zu 2700 einfach überlesen?

dildo4u
2018-05-04, 17:12:45
GTA5 performt echt gut auf dem 2600X schätze mal mit 3200 Ram kommt man nah an ein 120fps lock.
Ich hab das Game getestet nicht den Bench,rennt um 110fps FPS mit 2933.

SKYNET
2018-05-04, 17:18:47
Alle Tester haben non-X-Samples.

igor hatte nur die X soweit ich weiss... :eek:

Hasenpfote
2018-05-05, 23:17:44
Welche Möglichkeiten hat man zum Tweaken ohne den Boost zu verlieren? Gibt es eine TDP-Grenze, die man anheben kann, um dem Boost-Algorithmus mehr Spielraum zu geben? Kann man undervolten (z.B. per Offset), um noch mehr Spielraum zu bekommen?Soweit ich verstanden habe, spielt die Termperatur eine wichtige Rolle. In einiges Tests wurden Leistungen weit oberhalb der offiziellen TDP gemessen (150W). D.h. so lange die Temps in Ordnung sind, taktet die CPU höher. Kann aber mal nen Kollegen fragen, der gerade auf nen 2700X unter nem Noctua umgesattelt ist.

Denniss
2018-05-06, 00:26:01
150W nur CPU oder Systemverbrauch ?
Wo nachlesbar ?

dildo4u
2018-05-06, 11:46:02
m6RWEnUsLSY

Rancor
2018-05-06, 15:28:15
http://youtu.be/m6RWEnUsLSY

Bringt ja garnicht mal so viel.

w0mbat
2018-05-06, 15:57:02
Bringt ja garnicht mal so viel.

Was? Hast du ein anderes Video gesehen?

Rancor
2018-05-06, 15:58:44
Was? Hast du ein anderes Video gesehen?

Naja in BF 1 10% in FC 5 ebenso. In AC: Origins bringt es gar nichts. Syntetische Benchmarks interessieren mich nicht. Dafür extra teuren Speicher kaufen und stundenlang im Bios rumeiern und testen um die Settings auch wirklich stable sind. Ich weiss nicht.

Imho lohnt sich das nicht.

Screemer
2018-05-06, 16:03:53
Was? Hast du ein anderes Video gesehen?
Vor allem stand da vor seinem Exit: Sieht ja ganz gut aus.

Rancor
2018-05-06, 16:05:20
Vor allem stand da vor seinem Exit: Sieht ja ganz gut aus.

Genau... denn ich habe ja nicht selber eine Ryzen CPU :facepalm:
Und sieht ja ganz gut aus stand da übrigens nie, sondern lediglich: garnicht mal so viel. ;)

Schön den Intel Flame noch wegeditiert... Lächerlich im ³ mal wieder hier.

Langlay
2018-05-06, 16:14:46
Dafür extra teuren Speicher kaufen und stundenlang im Bios rumeiern und testen um die Settings auch wirklich stable sind.

Zumindest im C6H bzw. C7H kann man auch einfach die Presets nutzen, da muss man nix stundenlang rumfummeln. Wenn man B-Dies hat zumindest.

dildo4u
2018-05-06, 17:34:48
Das Video ist eh nicht ganz korrekt,die Sniper X sind keine Samsung Module sind aber dennoch für 3466 freigegeben.

Timings @ 3466 sind besser als bei Trident Z und er ist deutlich billiger.

https://www.gskill.com/en/press/view/g-skill-announces-new-specifications-for-amd-ryzen™-2000-series-processors-and-x470-platform


Das für den Test zur Verfügung gestellte Kit (F4-3600C19D-16GSXF) besteht aus zwei Riegeln zu je 8 GB im Single-Rank-Design. Spezifiziert ist es mit Timings von 19-19-19-39 bei 3.600 MHz während die Spannung bei 1,35 Volt liegt. G.Skill spricht von einem PCB-Layout mit acht Layern. Die Speicherchips selbst wurden von SK Hynix bezogen. Das Testkit wird im Handel ab rund 170 Euro angeboten

https://www.hardwareluxx.de/index.php/artikel/hardware/arbeitsspeicher/46033-g-skill-sniper-x-ddr4-3600-im-test-tarnung-braucht-es-nicht.html

SKYNET
2018-05-06, 18:13:26
150W nur CPU oder Systemverbrauch ?
Wo nachlesbar ?

also nen 2700X -wenn es die temparatur und spannungversorgung des mobos zulässt- zieht sich @ stock schnell mal knapp über 130W laut HWinfo. :eek:

aufkrawall
2018-05-06, 18:40:39
Das hatte Igor doch dahingehend beleuchtet, dass das vom MB abhängt, oder nicht?
Dahingehend, dass die Drosselung korrekt greift.

Brillus
2018-05-06, 19:00:20
Das hatte Igor doch dahingehend beleuchtet, dass das vom MB abhängt, oder nicht?
Dahingehend, dass die Drosselung korrekt greift.

Eher dahingehend das gewisse MB einfach Mal in Standarteinstellung zuviel Volt geben wie ich es verstanden habe.

Langlay
2018-05-06, 19:12:33
also nen 2700X -wenn es die temparatur und spannungversorgung des mobos zulässt- zieht sich @ stock schnell mal knapp über 130W laut HWinfo. :eek:


Also bei mir sind es mit C6H + 2700X stock mit xfr on und pb on 120W, mit xfr on und pb off sinds genau 105W.

150W hab wenn die CPU allcore auf 4.3 GHz läuft. Und das auch nur unter Vollast beim zocken liegst du trotzdem <100W

Megamember
2018-05-06, 19:18:34
Mit neustem Bios geht der Boost auf X370 Boards anscheinend genausohoch wie auf X470:

8B4DsOKOxa8

Langlay
2018-05-06, 19:35:22
Mit neustem Bios geht der Boost auf X370 Boards anscheinend genausohoch wie auf X470:

http://youtu.be/8B4DsOKOxa8



Das funzt bei mir mit dem C6H schon seit Release mit dem damals aktuellen Bios 6004? glaub ich.

Screemer
2018-05-06, 22:32:53
Bin gespannt ob die latency noch runter geht für die "alten" Modelle.

Denniss
2018-05-06, 23:43:27
also nen 2700X -wenn es die temparatur und spannungversorgung des mobos zulässt- zieht sich @ stock schnell mal knapp über 130W laut HWinfo. :eek:HWInfo misst da aber gar nichts sondern rechnet irgendwas hoch

Langlay
2018-05-07, 00:17:02
HWInfo misst da aber gar nichts sondern rechnet irgendwas hoch

HWinfo rechnet U * I = P

SamLombardo
2018-05-07, 10:45:19
Gibt es eigentlich irgendwo VR Benchmarks für Ryzen 2? Im Vergleich zu Ryzen 1 lagen ja die Intels doch deutlich vorn in VR. Gibt es Ergebnisse mit dem 2700x?

dildo4u
2018-05-07, 11:03:29
Gibt es eigentlich irgendwo VR Benchmarks für Ryzen 2? Im Vergleich zu Ryzen 1 lagen ja die Intels doch deutlich vorn in VR. Gibt es Ergebnisse mit dem 2700x?

https://www.tomshardware.com/reviews/amd-ryzen-7-2700x-review,5571-5.html

Wobei das wie bei allen Games ist es gibt kein Grund das neuere VR Games nich besser mit mehr Cores skalieren.
Und die alten Games laufen eh schnell genug.

Lowkey
2018-05-07, 11:13:41
Mit dem Ryzen DRAM Calculator sitzt man nicht mehr wochenlang an den Timings, sondern man muss nur noch einen Tag einkalkulieren.

y33H@
2018-05-07, 11:24:14
Gibt es eigentlich irgendwo VR Benchmarks für Ryzen 2? Im Vergleich zu Ryzen 1 lagen ja die Intels doch deutlich vorn in VR. Gibt es Ergebnisse mit dem 2700x?Keine "echten" mit FCAT-VR, wollte ich vor Monaten mal machen, kam aber nicht zu ... liest wie GraKa-Benches mit VR (https://www.golem.de/news/virtual-reality-benchmarks-geforce-gegen-radeon-in-vr-spielen-1712-131425.html) aber wohl auch keiner ;(

MiamiNice
2018-05-07, 11:27:08
Keine "echten" mit FCAT-VR, wollte ich vor Monaten mal machen, kam aber nicht zu ... liest wie GraKa-Benches mit VR (https://www.golem.de/news/virtual-reality-benchmarks-geforce-gegen-radeon-in-vr-spielen-1712-131425.html) aber wohl auch keiner ;(

Ich würde so einen Test auch gerne sehen. Da VR muss man sich auch nur auf die Top CPU Modelle konzentrieren.

SamLombardo
2018-05-07, 11:54:04
Danke euch für die Antworten. Sieht ja, zumindest laut dem VR Mark ganz gut aus. Auch ich würde echte CPU VR Benchmarks sehr begrüßern:wink:.

Denniss
2018-05-07, 14:48:48
HWinfo rechnet U * I = PSpannungswerte gibt's halbwegs brauchbar von den sensorchips, gilt das auch für die Amperewerte ?

grauenvoll
2018-05-08, 09:00:41
Sind eigentlich neue mATX Mainboards in der Pipeline? Alles was da vorhanden ist, ist nur eingeschränkt nutzbar. Besonders für den 2400G sieht es sehr düster aus, wenn man ein Board mit DP-Ausgang sucht. MSI bietet zwar mit dem Mortar einen DP-Ausgang, aber der ist nicht mit dem 2400G, sondern nur mit den älteren Bristol-Ridge nutzbar. Der 2400G wird zwar offizeill supported, aber nicht die iGPU. Ist das traurig...

unl34shed
2018-05-08, 09:06:16
Bist du dir da sicher? Warum sollten die Anschlüsse da nicht gehen?

E: ich vermute mal, dass Board kam vor BR raus und erwähnt ihn deshalb nicht explizit.

Effe
2018-05-08, 09:16:17
Das geht auf jeden Fall. Ich benutze ein Mortar mit einem 2200G und habe meinen Monitor über DP angeschlossen.

anddill
2018-05-08, 10:33:05
Klar geht der DP mit RR. Hier mit R5-2400G

grauenvoll
2018-05-08, 10:56:12
Bist du dir da sicher? Warum sollten die Anschlüsse da nicht gehen?

E: ich vermute mal, dass Board kam vor BR raus und erwähnt ihn deshalb nicht explizit.

Im Handbuch steht nur mit BR.

Ich habe das mit 2 Boards an 2 verschiedenen Monitoren getestet. Ins Bios komme ich noch. Sobald eine höhere Auflösung vorliegt ist Schluß an DP. Auf HDMI habe ich ein Bild, wenn ich keinen AMD-Treiber sondern den Basic-Treiber verwende. Mit AMD-Treiber viele Aussetzer, meist ein schwarzes Bild.

Auf einem Asus Prime X370-Pro läuft alles wie es soll. Egal ob DP oder HDMI.

@anddill
Wo ist "Hier"?

y33H@
2018-05-08, 11:32:53
Test des Ryzen 5 2600X: https://www.golem.de/news/ryzen-5-2600x-im-test-amds-desktop-allrounder-1805-134160.html

https://www.golem.de/1805/134160-161685-161684_rc.jpg

Effe
2018-05-08, 12:38:04
Im Handbuch steht nur mit BR.

Ich habe das mit 2 Boards an 2 verschiedenen Monitoren getestet. Ins Bios komme ich noch. Sobald eine höhere Auflösung vorliegt ist Schluß an DP. Auf HDMI habe ich ein Bild, wenn ich keinen AMD-Treiber sondern den Basic-Treiber verwende. Mit AMD-Treiber viele Aussetzer, meist ein schwarzes Bild
Neuestes BIOS drauf?

Kehaar
2018-05-08, 12:39:16
Ketzerische Anfrage hinsichtlich Windows 7: Bei den Raven-Ridge-APUs existiert eine "Bios-Sperre". Ist die auch bei Pinnacle Ridge vorhanden? Hat das schon jemand ausprobiert?

grauenvoll
2018-05-08, 13:13:48
Neuestes BIOS drauf?

Ja, ohne läuft das Board noch nicht mal an. Musste erst mit einem älteren Ryzen das Bios aktualisieren.

dildo4u
2018-05-08, 13:41:01
ASUS ROG Strix X470-I Gaming review(Mini ITX)

https://www.guru3d.com/articles-pages/asus-rog-strix-x470-i-gaming-review,1.html

SKYNET
2018-05-08, 14:02:26
ASUS ROG Strix X470-I Gaming review(Mini ITX)

https://www.guru3d.com/articles-pages/asus-rog-strix-x470-i-gaming-review,1.html

7W in dem bereich mehr. wo die kiste am meisten hängt - idle, krass, asus übertreibts ein wenig mit den standardmässigen offsets :mad:

dildo4u
2018-05-08, 14:13:57
Die Frage ist ob da Asus Schuld ist,wär mal interessant was andere Boards an SOC Spannung geben wenn man 3200 Ram nutzt.
Bei 2933 stellt mein Asus B350 Prime unter 1Volt ein,was mit meinem Hynix Ram zu wenig ist.Klar könnte man die SOC Spannung senken bringt aber wenig wenn dann nur der beste erhältliche Ram damit läuft.

Laut ihm hier hatte sein 1700X ein bessern IMC als sein 2700X.
Klingt nach bösen Produktionsschwankungen also neuer ist nicht gleich besser.

https://youtu.be/PHBsR1Y68G8

HOT
2018-05-08, 14:34:25
Die haben exakt den gleichen IMC, da hat sich einfach nichts dran geändert. Es gibt ein paar Optimierungen von B1 zu B2, die das Taktverhalten verbessern und damit niedrigere I/O-Latenzen zulassen bei hohen Taktraten, das ist alles.

Einen neuen IMC gibts erst bei Matisse.

=Floi=
2018-05-08, 14:58:11
gibt es einen ipc vergleich?

Emil_i_Lönneberga
2018-05-08, 15:02:52
https://www.computerbase.de/2018-04/pinnacle-ridge-vorteile-summit-ridge-ipc/

Lowkey
2018-05-08, 15:25:02
Die haben exakt den gleichen IMC, da hat sich einfach nichts dran geändert. Es gibt ein paar Optimierungen von B1 zu B2, die das Taktverhalten verbessern und damit niedrigere I/O-Latenzen zulassen bei hohen Taktraten, das ist alles.

Einen neuen IMC gibts erst bei Matisse.

Vermutlich haben alle x370 und x470 Mainboards bald dasselbe Bios und es gäbe keinen Unterschied mehr.

Aber es liegt fast nie am IMC, wenn der Speicher zickt. Es liegt immer an der Qualität des Mainboardes. Binner haben dies oft dokumentiert und größere Unterschiede gefunden. Die Serienstreuung kann hoch sein.

HOT
2018-05-08, 16:05:54
Das kann man sicherlich so sagen. Das Mobo/BIOS wird der entscheidende Faktor sein. Es gibt sicherlich Ausnahmen, also echt schlechte Dies, das sollte man nicht hinten runter fallen lassen. Aber mit einem guten Board und 8-Kerner dürften entsprechende Taktraten annähernd immer funktionieren, egal ob B1 oder B2.

=Floi=
2018-05-08, 16:10:50
https://www.computerbase.de/2018-04/pinnacle-ridge-vorteile-summit-ridge-ipc/

ich meinte einen vergleich mit anderen prozessoren und nicht nur einem modell. Der CB artikel ist ja nur schnell zusammengeschustert.

I.C.Wiener
2018-05-09, 12:43:48
Hier gibt's einen IPC Vergleich mit Cinebench: http://www.guru3d.com/articles_pages/amd_ryzen_7_2700x_review,9.html
Interessanterweise ist dort Pinnacle Ridge viel näher an >=Skylake als an Hashwell.

dildo4u
2018-05-09, 12:49:21
IPC war nie das Problem sondern die Clocks bei Teillast.
Und Skylake IPC finde ich jetzt nicht sonderlich bemerkenswert Ryzen ist 2 Jahre Jünger,da drunter hätten sie nicht antreten brauchen.

Screemer
2018-05-09, 13:00:08
IPC war nie das Problem sondern die Clocks bei Teillast.
Und Skylake IPC finde ich jetzt nicht sonderlich bemerkenswert Ryzen ist 2 Jahre Jünger,da drunter hätten sie nicht antreten brauchen.
aha. die 2,5-4% die coffe- und kabylake(-x) drauflegen sind aber dann bemerkenswert?

man sollte sich vielleicht mal vor augen führen, dass die leistungszuhname von vishera zu ryzen bei >70% liegt.

MiamiNice
2018-05-09, 13:04:19
Ohne irgendeinen Ryzen Test gelesen zu haben - wie sehen die Clocks den jetzt aus für die 2. Gen? 4,5Ghz+ mit OC?

dildo4u
2018-05-09, 13:09:35
aha. die 2,5-4% die coffe- und kabylake(-x) drauflegen sind aber dann bemerkenswert?

man sollte sich vielleicht mal vor augen führen, dass die leistungszuhname von vishera zu ryzen bei >70% liegt.
Finde ich wie gesagt nicht bemerkenswert das ist Vergleichbar mit der Situation beim Pentium 4,dort wurde einfach in die Falsche Richtung entwickelt.Daher wirkt der Nachfolger Plötzlich so viel besser.
Das ganze war bei AMD nur um so erstaunlicher da sie bei Intel schon gesehen haben,das man nicht drauf setzen sollte das man solch komplexe Chips Effizient auf 5Ghz bekommt.

Screemer
2018-05-09, 13:10:23
@miaminice: 4,35 ist das limit mit xfr2 und precision boost 2 beim 2700x und dort für max. 2 kerne. oc scheint auch irgendwo in der region dicht zu machen. 4,2-4,4ghz sind je nach silizium wohl allcore drin. mehr ist schlicht nicht machbar. schöne wäre es, wenn man die max. clock für 1-2 kerne über das xfr2 limit von 4,35ghz (2700x) bzw. 4,25ghz (2600x) anheben könnte. da scheint aber agesa einen riegel vor zu schieben.

man sollte nicht vergessen, dass sich nicht wirklich was geändert hat zwischen ryzen und ryzen+. die mehrperformance im st kommt einfach durch bessere boostalgos zustande und die etwas gesteigerte ipc durch niedrigere latenzen bei den caches. 12 vs 17 zyklen, wenn ich mich richtig erinnere. ryzen+ ist mehr denn je ne cpu um sie stock zu betreiben. naja nicht ganz. optimierter speicher schlägt ziemlich stark durch.

Savay
2018-05-09, 13:11:51
4,5Ghz+ mit OC?

Nein. :freak:
4,2-4,3GHz Allcore dürfte unter Luft/Wasser realistischer sein...eher 4,2 als 4,3.

Beim 2700X würde ich ehrlich gesagt garnicht "regulär" übertakten...lohnt momentan nicht wirklich.
Man könnte höchstens dem Precision Boost 2 etwas mehr "Freiraum" geben so das er aggressiver Boosten kann...das machen manche Boards scheinbar aber schon von Haus aus.(zumindest div. Asus Teile scheinen das zu tun wenn ich mir die Benches damit so ansehe)
Ich hab dagegen ein MSI und das hält sich per default anscheinend etwas strikter an die "TDP"! (im Cinebench komme ich mit BIOS Defaults nur auf ~1780/179)

Am Speicher optimieren bringt sowieso immer noch wesentlich mehr.

Langlay
2018-05-09, 18:46:40
@miaminice: 4,35 ist das limit mit xfr2 und precision boost 2 beim 2700x und dort für max. 2 kerne. oc scheint auch irgendwo in der region dicht zu machen. 4,2-4,4ghz sind je nach silizium wohl allcore drin. mehr ist schlicht nicht machbar. schöne wäre es, wenn man die max. clock für 1-2 kerne über das xfr2 limit von 4,35ghz (2700x) bzw. 4,25ghz (2600x) anheben könnte. da scheint aber agesa einen riegel vor zu schieben.




Du kannst den Baseclock auf 100.5 MHz oder 101MHz erhöhen, gibt dann etwas mehr Speed.

MiamiNice
2018-05-09, 18:49:21
Du kannst den Baseclock auf 100.5 MHz oder 101MHz erhöhen, gibt dann etwas mehr Speed.

20-40 Mhz mehr, Dein Ernst? 😂

Langlay
2018-05-09, 18:52:49
20-40 Mhz mehr, Dein Ernst? ��

Du kannst auch mehr einstellen, aber das wird dann schon zum Teil problematisch was Stabilität angeht.

Mein 2700X steigt bei 102MHz Baseclock aus, das ist dann nimmer stabil trotz dass das Board da fast 1.5V draufballert.

JVC
2018-05-10, 08:01:31
Hab in nem anderem Forum wo einen gelesen der 104 FSB stabil schaffte.
104x43,5 = 4524 MHZ
Den Rest hat er auf Auto gelassen , also nur den FSB erhöht !
( war sogar n Video dabei wo er alles zeigte )
Der CPU boostete dann selbstständig allcore auf ~ 4,25 GHZ und auf 2 kernen auf bis zu 4,5..GHZ ( WAKÜ ~50° )

verdammt muss das Video suchen

m.f.g. JVC

habs ^^
https://www.reddit.com/r/Amd/comments/8i0spx/ryzen_2700x_x470_45ghz_xfr_2_is_the_future_of/

fondness
2018-05-10, 11:44:35
Ohne irgendeinen Ryzen Test gelesen zu haben - wie sehen die Clocks den jetzt aus für die 2. Gen? 4,5Ghz+ mit OC?

OC macht eigentlich wenig Sinn. AMD hat einen intelligenten Turbo, der je nach Temperatur und Sizilium das Maximum an Takt raus holt.

Megamember
2018-05-10, 14:31:06
Evt. macht danach noch manuelle Spannungssenkung per offset Sinn wenn man nicht will das sie ständig über 1,4V geht.

fondness
2018-05-10, 14:41:03
Evt. macht danach noch manuelle Spannungssenkung per offset Sinn wenn man nicht will das sie ständig über 1,4V geht.

...mit der Gefahr, dass das ganze dann instabil wird. Nachdem der HS verlötet ist, gibt es keine Temperaturprobleme und deshalb würde ich wegen den paar Watt das auch nicht riskieren.

Megamember
2018-05-10, 14:53:52
Geht ja net nur um die Temp sondern diese harten Spannungsspitzen, aber wer damit keine Probleme hat...
LAut vielen Berichten soll das auch problemlos funktionieren.

SKYNET
2018-05-10, 15:46:59
Du kannst auch mehr einstellen, aber das wird dann schon zum Teil problematisch was Stabilität angeht.

Mein 2700X steigt bei 102MHz Baseclock aus, das ist dann nimmer stabil trotz dass das Board da fast 1.5V draufballert.

eigentlich gehen die AMD bretter und CPUs bis locker 125 und mehr... ist ja kein intel die bereits bei 103-105 anfangen zu zicken, kannst ja bei AMD alle anderen frequenzen seperat einstellen(auf meinem brett kann ich Sata und PCIe getrennt über/untertakten, leider hats keine option für bclk OC, somit eher sinnbefreit die option im bios. :ulol:

edit: wenn man natürlich den rest @ stock lässt(multi) wirds schnell am limit sein...

Megamember
2018-05-10, 16:01:35
eigentlich gehen die AMD bretter und CPUs bis locker 125 und mehr....

Bezweifel ich, als ich noch Ryzen hatte gingen keine 2MHZ mehr, ich seh den Sinn darin aber auch nicht.

Langlay
2018-05-10, 19:21:43
Hab in nem anderem Forum wo einen gelesen der 104 FSB stabil schaffte.
104x43,5 = 4524 MHZ
Den Rest hat er auf Auto gelassen , also nur den FSB erhöht !
( war sogar n Video dabei wo er alles zeigte )
Der CPU boostete dann selbstständig allcore auf ~ 4,25 GHZ und auf 2 kernen auf bis zu 4,5..GHZ ( WAKÜ ~50° )

verdammt muss das Video suchen

m.f.g. JVC

habs ^^
https://www.reddit.com/r/Amd/comments/8i0spx/ryzen_2700x_x470_45ghz_xfr_2_is_the_future_of/


Booten usw. kann ich auch mit 104 noch, nur das ganze ist dann nur noch semistabil.


eigentlich gehen die AMD bretter und CPUs bis locker 125 und mehr... ist ja kein intel die bereits bei 103-105 anfangen zu zicken, kannst ja bei AMD alle anderen frequenzen seperat einstellen(auf meinem brett kann ich Sata und PCIe getrennt über/untertakten, leider hats keine option für bclk OC, somit eher sinnbefreit die option im bios. :ulol:

edit: wenn man natürlich den rest @ stock lässt(multi) wirds schnell am limit sein...


Es ging ja um rest @ Stock. Das dort in Verbindung mit kleinem Multi einiges möglich ist ist mir bekannt.

dildo4u
2018-05-11, 11:24:07
Ich hab jetzt das Stromessgerät wieder dran.
Kein Wunder das mein Pure Rock Probleme mit der Hitze hat.
Ryzen 1600 135 Watt wenn ich Cinebench laufen hab 2600X 184 Watt. :freak:

Scheint aber normal zu sein zumindest mit einem Asus Board.

http://www.guru3d.com/articles_pages/amd_ryzen_5_2600x_review,7.html

Kriton
2018-05-11, 14:36:31
IIRC hatte Igor auch was dazu geschrieben, dass sich Asus nicht an AMDs Standard hält und zuviel Saft gibt (ohne dass es etwas/viel bringen würde).

SKYNET
2018-05-11, 14:51:15
Ich hab jetzt das Stromessgerät wieder dran.
Kein Wunder das mein Pure Rock Probleme mit der Hitze hat.
Ryzen 1600 135 Watt wenn ich Cinebench laufen hab 2600X 184 Watt. :freak:

Scheint aber normal zu sein zumindest mit einem Asus Board.

http://www.guru3d.com/articles_pages/amd_ryzen_5_2600x_review,7.html

im notfall kann mans ja im bios korrigieren... :wink: weil 0.1V mehr als alle anderen sind schon recht saftig.

MiamiNice
2018-05-11, 15:16:18
Ich hab jetzt das Stromessgerät wieder dran.
Kein Wunder das mein Pure Rock Probleme mit der Hitze hat.
Ryzen 1600 135 Watt wenn ich Cinebench laufen hab 2600X 184 Watt. :freak:

Scheint aber normal zu sein zumindest mit einem Asus Board.

http://www.guru3d.com/articles_pages/amd_ryzen_5_2600x_review,7.html

Bei einer TDP von 65 Watt für den 1600er -> Nett :biggrin:
95 Watt TDP für den 2600X -> auch nett :)
Verstehe nicht warum da immer so ein Hehl um den Stromverbrauch gemacht wird. Blöd ist nur wenn die Wattage nicht zur Leistung passt.

Lehdro
2018-05-11, 15:32:07
Blöd ist nur wenn die Wattage nicht zur Leistung passt.
Blöd nur wenn Mainboards Spezifikationen überfahren. Ist doch bei Intel auch nichts anderes.
Wenn man allerdings ein normales Mainboard nimmt, was keine 0.1V+ zu viel draufknallt, oder die Einstellung per Hand korrigiert kommt sowas bei raus:

https://img.purch.com/amd-ryzen-7-2700x-ryzen-5-2600x-review/o/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS82L00vNzYzNTgyL29yaWdpbmFsLzA3LVBvd2VyLUNv bnN1bXB0aW9uLVRvcnR1cmUucG5n

https://img.purch.com/amd-ryzen-7-2700x-ryzen-5-2600x-review/o/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS82L0svNzYzNTgwL29yaWdpbmFsLzA2LVBvd2VyLUNv bnN1bXB0aW9uLUdhbWluZy5wbmc=
Quelle (http://www.tomshardware.de/ryzen-2000-performace-leistungsaufnahme-temperaturen,testberichte-242470-17.html)
Möchte mal wissen wie man beim 8700k den Verbrauch rechtfertigt? 10% schneller im Schnit (https://www.3dcenter.org/news/eine-aktualisierte-betrachtung-der-spiele-performance-von-ryzen-2000-vs-ryzen-1000-coffee-lake)t und verbraucht beim Gaming loop 20% mehr und beim Torture hat man Verbrauchswerte die eher zum Threadripper passen würden, der mit 180W TDP angegeben ist :D

Und Igor von THG vertraue ich da deutlich mehr als vielen anderen Testseiten - vorallem da er derjenige ist der den anderen Reviewern das immer ins Gewissen redet.

Daredevil
2018-05-11, 15:45:45
10% schneller bei 20% mehr Verbrauch sind insofern zu rechtfertigen, weil das niemand besser machen kann und der 8700k in dem Fall der schnellste Prozessor in der Skala ist.
Wenn AMD gleichschnell ist und weniger verbraucht, dann kann man sich empören. Wenn AMD aber die Spitze nicht erreichen kann, kann man auch keine Vergleiche anstellen.

Takt kostet immer überproportional Saft, wenn du den Intel 10% langsamer laufen lassen würdest, wäre mit Sicherheit auch mehr als 10% Strom einzusparen, aber untertakten und undervolting sind Dinge, die man am Ende selber tweaken kann. :)

dildo4u
2018-05-11, 15:48:33
Die THG Werte haben nix mit der Realität zu tun,da brauchen 2 Core Intel mehr als 8 Core AMD.Alles klar.
Meine Werte sollten nur verdeutlichen das AMD diesmal auf Effizienz kackt damit man unter Gamelast über 4Ghz Boost sieht.

MiamiNice
2018-05-11, 15:50:08
Lehdro, ich glaube Du hast meinem Post in den falschen Hals bekommen. :biggrin:
Stromverbrauch -> wayne :wink:
Frage mich nur warum die Hersteller nicht ehrlich sind. Sollen sie doch ruhig an einen 2600X/7900K 200 Watt TDP dran schreiben und gut.
Da tun sich bei AMD und Intel auch keine großen Unterscheide auf.

Blöd ist halt nur wenn die Leistung nicht zum Verbrauch passt, ohne da jetzt ein Beispiel geben zu wollen.

Daredevil
2018-05-11, 16:07:20
AMD klassifiziert ja explizit in 65w TDP und 95w TDP, das soll ja vielleicht auch für diejenigen interessant sein, die eben einen Stromsparenden Rechner haben möchten.
Das ist ja der Unterschied beim X Modell.

dildo4u
2018-05-11, 16:09:26
Es geht nicht nur um Stromsparen ich müsste die ganze Gehäuse Kühlung überdenken vorallem die letzten Tag was es kritisch bei 24° im Raum.

Screemer
2018-05-11, 16:34:11
Das kannst du ja Mal Igor erzählen. Dann hat er wenigstens was zu lachen.

@miami: was Dildo angibt ist sein gesamter Systemverbrauch. Warum kommst du in den AMD Threads nur zum stänkern und meckern? Kauf dir doch einfach die Hardware die dein Budget hergibt. Übertakte über den sinnvollen Punkt hinaus, verabschiede dich durch delidding von deiner Garantie und lass den anderen einfach ein rundes Produkt, mit dem du scheinbar nichts anzufangen weißt. Das ist dann für alle ein win.

dildo4u
2018-05-11, 16:38:18
Ich sehe dort ein i5 8400 mit 65 TDP auf Level mit Bulldozer noch mal was haben die Werte mit der Realität zu tun.

Screemer
2018-05-11, 16:44:09
Das ist torture mit avx und allem auf Auto! Lesen ist halt nicht Jedermanns Sache. Das die Intels mit avx völlig am Rad drehen und auf ihre tdp scheißen, ist doch nicht erst seit heute bekannt. Schon Mal auf die Idee gekommen, dass bei dem einen die tdp beschränkt ist und der andere komplett loose ist? Nein? Setzen weitermachen und auf dein Asus schielen.

SKYNET
2018-05-11, 17:15:41
Ich sehe dort ein i5 8400 mit 65 TDP auf Level mit Bulldozer noch mal was haben die Werte mit der Realität zu tun.

nur mal als bleistift: mein 3840QM ist mit einer TDP von 45W angegeben, aber zieht auch bis 62W aus dem akku/netzanschluss im turbo... intel und AMD spielen da mit gleichen karten, die TDP ist immer nur die angabe bei max. takt ohne boost, fertig. wer das bis heute noch nicht begriffen hat, ist entweder total verblödet und/oder hat ne intel/AMD brille auf der nase.

und igors werte werden sicherlich eher stimmen, als auf irgend einer anderen seite, weil er testet da sehr penibel und nicht nur an der büchse was das netzteil zieht, sondern direkt an der CPU. :P

dildo4u
2018-05-11, 17:25:14
Das ist alles klar ich hab den 8400 erwähnt,da der extrem langsam läuft und daher extrem effizient ist.Der Boost beträgt nur 3.8Ghz würde man Ryzen darauf limitieren hätte ich auch wieder den Verbrauch und die Temps meines alten 1600.

SKYNET
2018-05-11, 17:46:48
Das ist alles klar ich hab den 8400 erwähnt,da der extrem langsam läuft und daher extrem effizient ist.Der Boost beträgt nur 3.8Ghz würde man Ryzen darauf limitieren hätte ich auch wieder den Verbrauch und die Temps meines alten 1600.

dann hättest wahrscheinlich sogar weniger verbrauch als die alten, siehe 1800X vs. 2700X durchweg schneller bei geringerer wattaufnahme, trotz neuem super turbos. :smile:

die P/W leistung der zen+ hat ordentlich zugelegt im vergleich mit zen...

dildo4u
2018-05-11, 18:23:54
Hat sich jemand schon mal mit Undervolting beschäftigt ohne das man den Boost verliert?Ich teste grad 1.25Volt bei ca 4ghz.Ich will kein festen Multi,da die CPU bei Games so gerne mal mit 4.2Ghz läuft.
Mit Default V-Core gab es Spikes bis 110 Watt beim Handbrake Encoding.

http://abload.de/img/2600xhanbrakemis28.png

Lehdro
2018-05-11, 18:25:06
Stromverbrauch -> wayne :wink:
Sehe ich nicht so. Mir persönlich ist die Stromaufnahme auch eher wurscht, sonst würde mein 1800X sicherlich nicht über 4 GHz rumrödeln wenn doch 3,9 GHz so viel sparsamer ist. Allerdings ist das halt auch immer ein Faktor der Kühlung, die eben dann dementsprechend ausgelegt sein muss (ich sage nur Delidding). Und es soll auch Leute geben die darauf Wert legen, siehe Server zb. Da ist Energieeffizienz durchaus ein Ding.


Frage mich nur warum die Hersteller nicht ehrlich sind. Sollen sie doch ruhig an einen 2600X/7900K 200 Watt TDP dran schreiben und gut.
Erstens ist die plakative TDP Angabe perfekte Werbung (obwohl sie sehr oft irreführend ist, siehe "T" CPUs bei Intel (https://www.computerbase.de/2017-01/intel-core-i7-7700t-test-kaby-lake/4/)). Zweitens musst du Vergleichbarkeit der Werte beachten. Der Kunde vergleicht die Werte ungeachtet der Tatsache dass das bei beiden nur noch Augenwischerei ist, bei dem einen mehr, bei dem anderen weniger.

Da tun sich bei AMD und Intel auch keine großen Unterscheide auf.
Mittlerweile tun sich da eben schon wieder Abgründe auf. Während AMD mittlerweile "brav" bei ca 10% über der TDP Angabe abregelt (sofern das MB ordentlich eingestellt ist...danke ASUS:freak:), fahren die meisten Intel CPUs, gerade die "Stromsparer" so heftig über ihre TDP drüber, dass deren Wert nur noch makulatur ist. Und wenn mir jetzt hier einer was von TDP ungleich Stromverbrauch erzählt kann ich nur lachen. Was macht denn die CPU mit dem aufgenommen Strom? Zu 99% umwandeln in Wärme - und die TDP definiert wieviel Wärme das ist, die da dauerhaft weggeschafft werden soll. Wenn ich als eine "35W" Intel "Stromspar" CPU auf dem Markt habe, die dauerhaft, out of the box 50-75W Verbrauchsunterschied zwischen idle und Volllast (https://www.computerbase.de/2017-01/intel-core-i7-7700t-test-kaby-lake/4/) aufweist, weiß ich doch sofort das ein für "35W TDP" konstruierter Kühlungsaufbau recht schnell kapituliert. Diese TDP Werte sind doch einfach nur noch Heuchelei und haben mit der Praxis überhaupt nix mehr zu tun. Mir wäre es lieber wenn beide Seiten sich eher ein Beispiel an NVidia nehmen würden (wie absurd das eigentlich klingt :freak:). Wenn ich da 250W TDP habe und nur diese erlaube, zieht die Karte halt auch nur knapp 250W dauerhaft. Wenn ich das Limit manuell verändere hält sich die Karte an das neue Limit. Sowas wäre doch was feines? AMD müsste mit seinem intelligenten Boost doch mittlerweile sehr nah dran sein, etwas vergleichbares für CPUs auf die Beine zu stellen. Muss dann nur noch ein Mainboardhersteller mitziehen und dann kann man das als "das nächste große Ding" (analog zu den Boostclocks bei Grafikkarten) verkaufen. Kann doch nicht mehr so schwer sein....



Blöd ist halt nur wenn die Leistung nicht zum Verbrauch passt, ohne da jetzt ein Beispiel geben zu wollen.
Das trifft aber bei beiden zu. Siehe Skylake-X generell, siehe 8700k unter AVX. Siehe Ryzen in Programmen wo er nicht gut performed (egal warum). Ein Threadripper wird so zum Beispiel bei Software die von vielen Kernen UND AVX profitiert wesentlich schneller sein als ein 8700k. Und das bei ähnlichem Verbrauch. Da passt dann halt auch etwas überhaupt nicht wenn ich den mit 91W angebe...


Hat sich jemand schon mal mit Undervolting beschäftigt ohne das man den Boost verliert?
Schau mal in das aktuelle PCGH Heft, dort steht etwas dazu drin. Es ist nicht ganz so bequem möglich wie es sein sollte (Voltstufen pro Taktstufen zum Beispiel...) aber es ist mit Offset durchaus Potenzial vorhanden.

dildo4u
2018-05-11, 18:33:14
Ah stimmt dort steht 1.27 Volt für 4050mhz,1.25 ist also schon ganz gut.

Läuft schon deutlich besser ohne neuen Kühler.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11692744&postcount=284

JVC
2018-05-12, 12:26:02
Immer diese "Wattsparer"
Die aufwendigere Kühlung und den verstärkt aufgeheizte Raum versteh ich als Argument
Aber die erhöhten Kosten sollten in meinen Augen wirklich so gut wie keine rolle spielen .

Ich fahre einen I3 und brauche da so ~5-6KW pro Tag ...
Mein 65" ist auch kein stromsparwunder und läuft als Monitor viele stunden/Tag ^^
Kochen , waschen , staubsaugen ......

Also mir wären auch 500W CPU´s recht da sie ja nur soviel Strom ziehen wie ich grad Leistung brauche. ( doof wärs nur wenn er iddle 500W zieht ;D )

Ich würde alles an der kotzgrenze betreiben wenn ich die Leistung brauche !
Stabil muss es zu 100% sein und auch sparsam im Normalbetrieb ;)

Ausschlaggebender als der Verbrauch ist die mögliche/benötigte Leistung und die Sympathie des Herstellers ^^ für mich zu mindestens ;)

m.f.g. JVC

dildo4u
2018-05-12, 12:54:28
Immer diese "Wattsparer"
Die aufwendigere Kühlung und den verstärkt aufgeheizte Raum versteh ich als Argument
Aber die erhöhten Kosten sollten in meinen Augen wirklich so gut wie keine rolle spielen .

Ich fahre einen I3 und brauche da so ~5-6KW pro Tag ...
Mein 65" ist auch kein stromsparwunder und läuft als Monitor viele stunden/Tag ^^
Kochen , waschen , staubsaugen ......

Also mir wären auch 500W CPU´s recht da sie ja nur soviel Strom ziehen wie ich grad Leistung brauche. ( doof wärs nur wenn er iddle 500W zieht ;D )

Ich würde alles an der kotzgrenze betreiben wenn ich die Leistung brauche !
Stabil muss es zu 100% sein und auch sparsam im Normalbetrieb ;)

Ausschlaggebender als der Verbrauch ist die mögliche/benötigte Leistung und die Sympathie des Herstellers ^^ für mich zu mindestens ;)

m.f.g. JVC
Nicht jeder verbrennt gerne Geld ich kaufe z.b kein X370 für den Doppelten Preis eines B350.Mit so einem Board sollte man aber natürlich vorsichtiger sein was z.b VRM Temps angeht.Da hilft es nicht wenn Asus von Haus aus viel zu viel Saft auf die CPU gibt.

SKYNET
2018-05-12, 13:04:00
Beim 2700X würde ich ehrlich gesagt garnicht "regulär" übertakten...lohnt momentan nicht wirklich.
Man könnte höchstens dem Precision Boost 2 etwas mehr "Freiraum" geben so das er aggressiver Boosten kann...

Am Speicher optimieren bringt sowieso immer noch wesentlich mehr.

korrekt, einfach v-core runterdrehen, anstelle OC, das macht die CPU nämlich schon von selber bis fast ans limit :cool:

speicher muss man nicht diskutieren, bringt abartig viel auf dem ryzen :freak:

aufkrawall
2018-05-13, 14:22:17
Ich hatte auch nie Nachteile bemerkt, wenn ich das (HPET) im Bios ausgeschaltet hatte. Ich werd das mal wieder machen und nach ein paar Tagen ein Fazit ziehen. Ich gehe davon aus, dass es völlig egal sein wird.
Wie erwartet völlig egal.

gravitationsfeld
2018-05-13, 17:04:50
Ich fahre einen I3 und brauche da so ~5-6KW pro Tag ...
Meinst du kWh? Laesst du den Rund um die Uhr in Volllast laufen, oder wie?

StefanV
2018-05-13, 17:19:28
Stromverbrauch -> wayne :wink:
Stimmt, weil Intel jetzt mies ist, ist das wieder völlig egal.
Das interessiert nur, wenn AMD hinten ist, dann ist der Stromverbrauch wichtig...

Frage mich nur warum die Hersteller nicht ehrlich sind. Sollen sie doch ruhig an einen 2600X/7900K 200 Watt TDP dran schreiben und gut.
Da tun sich bei AMD und Intel auch keine großen Unterscheide auf.
Also der 7900K hat ja wohl mindestens 250W; eher 300W TDP verdient!!

Aber wie zur Hölle kommst du auf 200W für den 2600X??
Da muss man ja schon 1,5V auf die CPU geben, um das zu schaffen.


Blöd ist halt nur wenn die Leistung nicht zum Verbrauch passt, ohne da jetzt ein Beispiel geben zu wollen.
So wie es aktuell bei Intel der Fall ist oder was meinst du??

Gipsel
2018-05-13, 17:32:44
Meinst du kWh? Laesst du den Rund um die Uhr in Volllast laufen, oder wie?Er meint den hier (https://de.wikipedia.org/wiki/BMW_i3). Und offenbar fährt er noch nicht mal weit damit, sonst würden 5 kWh kaum reichen.

JVC
2018-05-14, 10:45:56
beim i3 reichen 5KW für ~30-60km je nachdem wie schnell man fährt ( den meisten verbraucht macht der Luftwiderstand bei höheren Geschwindigkeiten aus .. hab ja selbst einen ;) )

m.f.g. JVC

Brillus
2018-05-14, 11:24:16
beim i3 reichen 5KW für ~30-60km je nachdem wie schnell man fährt ( den meisten verbraucht macht der Luftwiderstand bei höheren Geschwindigkeiten aus .. hab ja selbst einen ;) )

m.f.g. JVC

Das macht keinen sinn irgendwo fehlt da ein h.

Savay
2018-05-14, 12:14:24
Das macht keinen sinn irgendwo fehlt da ein h.

Stimmt....wobei mir spontan noch nicht ganz klar ist, wo es plausibler aufgehoben wäre.
5kW für 60km/h erscheint mir aber etwas wenig...und 5 kWh für 30km erstmal etwas viel?!

EDIT: kann nur letzteres sein...deckt sich recht gut mit den NEFZ Angaben.
Also hätten wir das auch geklärt. :wink:

JVC
2018-05-15, 10:15:31
Mein verbrauch schwankt maximal zwischen ~8 bis ~22,5kwh auf 100km.
Wen man nur im ortsgebiet herumrollt kommt man auf ~8kwh herunter.
-20° Autobahn Vollgas und wohlig geheiztem Innenraum kann die Reichweite bei 18,8kwh die nutzbar sind schon mal auf 80km fallen .....

Auch wen es euch unglaubwürdig erscheint es stimmt in etwa.
Mein tägliches pendeln ~50km benötigt ~5,5kwh = ~11kwh/100km
( 50% Bundesstraße 50% Ortsgebiet )

aber genug off Topic ... war ja nur ein Beispiel wie übertrieben sich manche in den Watt spar Wahn reinsteigern ^^
Wenn ich im Auto im Winter etwas friere oder im Sommer ein bisschen schwitze, oder einfach nur 10 oder 20kmh langsamer fahre, spare ich mehr als ich am Abend dann am Rechner je einsparen könnte ;)

m.f.g. JVC

p.s.: @Mod bitte nicht splitten ^^ das wars von meiner seite mit OT sry nochmal

dildo4u
2018-05-16, 09:43:52
Ryzen 2600 vs i5 8400 Website Artikel https://www.techspot.com/review/1627-core-i5-8400-vs-ryzen-5-2600/

Arma 3 scheint ein Engine Update bekommen zu haben Ryzen+ läuft jetzt gut.


AUyF--fJaaM

y33H@
2018-05-16, 12:02:09
Boah, 27 min für paar Diagramme ;(

aufkrawall
2018-05-16, 12:14:47
Man kann seeken und es gibt eine Seek-Preview..

Lehdro
2018-05-16, 12:39:08
Boah, 27 min für paar Diagramme ;(
Lies halt den Artikel? :rolleyes:

Ich mag HWunboxed und GamersNexus genau deswegen - ich kann entscheiden ob ich mir den Artikel und die Konklusio vorkauen lassen soll, oder ob ich selber lesen und schlußfolgern will. Bei denen steht halt immer ein Artikel und das Video zur Verfügung.

y33H@
2018-05-16, 13:27:54
Mir war nicht klar, dass Hardware Unboxed Video und Techspot Webseite das gleiche ist.

Man kann seeken und es gibt eine Seek-Preview.Egal, mag ich persönlich dennoch nicht, grade aufm Smartphone nervig.

Hübie
2018-05-16, 13:54:16
Mit dem Aufkommen der B460 Mainboards dürfte Ryzen ohnehin Sieger sein. Der ist immerhin unlocked. Hab's Video nicht angesehen, aber denke dass Ryzen hier als Sieger hervorgeht.

y33H@
2018-05-16, 14:31:26
Ein B450 ändert doch nichts an der Performance, schon B350 ist unlocked.

robbitop
2018-05-16, 15:00:39
Bringt B450 eigentlich auch XFR2 mit? Dann wäre es ja ein Argument pro B450.

SKYNET
2018-05-16, 15:19:08
Bringt B450 eigentlich auch XFR2 mit? Dann wäre es ja ein Argument pro B450.

was habt ihr alle mit B450 / X470? das funzt auch auf den B350 / X370 schon ohne probleme...

dildo4u
2018-05-16, 15:51:09
Bringt B450 eigentlich auch XFR2 mit? Dann wäre es ja ein Argument pro B450.
XFR2 ist in die CPU integriert,mehr willst du auf den kleinen Boards nicht.
Mein 2600X geht gerne mal auf 100 Watt Plus.

Screemer
2018-05-16, 15:52:19
Doch man hätte z.b. gerne precisionboost2 und das gibt's bisher nicht auf der "alten" Plattform.

y33H@
2018-05-16, 15:56:27
PB2 und XFR gibt es mit _allen_ Chipsätzen, ich habe selbst den 2600X auf nem B350 daheim ...

dildo4u
2018-05-16, 15:58:19
Das hier ist mit schon gesenkter Spannungen -0.1 Volt auf einem Asus B350,XFR 2 aktiv kein manuelles OC.
Ganzes System zieht Laut Strommesser 180,mit dem 1600@ 3.7Ghz ca 135 Watt.Die letzten 300mhz sind teuer.

http://abload.de/img/2600xoctwprhw.png

aufkrawall
2018-05-16, 16:08:34
liegt eigentlich auch im idle die soc-spannung konstant hoch an?

robbitop
2018-05-16, 16:13:04
was habt ihr alle mit B450 / X470? das funzt auch auf den B350 / X370 schon ohne probleme...
Das ist schon klar - aber das BIOS muss es unterstützen. Kann ja sein, dass AMD dieses Feature für bestimmte Chipsätze zwingend vorschreibt und es somit auch vorhanden ist. Wenn das BIOS es nicht unterstützt, funktioniert PB2/XFR2 nicht.

dildo4u
2018-05-16, 16:14:01
liegt eigentlich auch im idle die soc-spannung konstant hoch an?

Ich brauche das damit der Ram mit 2933 läuft.(Default ist 0.96)Ist aber immer noch relativ gering im idle fällt der SOC auf ca 18 Watt.

Screemer
2018-05-16, 16:16:46
PB2 und XFR gibt es mit _allen_ Chipsätzen, ich habe selbst den 2600X auf nem B350 daheim ...

OK, dann hatte ich da was falsch im Hinterkopf. Wirds pb2 auch für ryzen1 geben? Oder ist senseMi bei ryzen1 einfach nicht fähig dazu?

y33H@
2018-05-16, 16:47:48
Offiziell nicht, kA ob es theoretisch per Firmware/Microcode ginge.

SKYNET
2018-05-16, 17:19:10
Doch man hätte z.b. gerne precisionboost2 und das gibt's bisher nicht auf der "alten" Plattform.

es funktioniert beides auch mit den "alten" chipsätzen... manchen muss man alles 5x vorkauen bevor sies schlucken. :freak:

SKYNET
2018-05-16, 17:20:23
Das ist schon klar - aber das BIOS muss es unterstützen. Kann ja sein, dass AMD dieses Feature für bestimmte Chipsätze zwingend vorschreibt und es somit auch vorhanden ist. Wenn das BIOS es nicht unterstützt, funktioniert PB2/XFR2 nicht.

klar muss es im bios aktiv sein, aber wenn der hersteller es dummerweise im neuen chipsatz auch nicht aktiviert ist auch dort pustekuchen... denke da an die billigen b450 bretter wo ich mir gut vorstellen kann das es nicht "vorhanden" ist.

JVC
2018-05-18, 18:57:46
Beworben wird es im Internett so
"XFR2 Enhanced (nur B450/​X470)"
Der Rest funktioniert auch offiziell auf den 3xx Brettern.

m.f.g. JVC

Langlay
2018-05-18, 19:05:16
OK, dann hatte ich da was falsch im Hinterkopf. Wirds pb2 auch für ryzen1 geben? Oder ist senseMi bei ryzen1 einfach nicht fähig dazu?

SensiMi kostet einfach 20$ wenn du keinen X470 Chipsatz hast.

Ich brauche das damit der Ram mit 2933 läuft.(Default ist 0.96)Ist aber immer noch relativ gering im idle fällt der SOC auf ca 18 Watt.

Mein 2700x macht die 3200 RAM mit 0.95V, mein alter 1600X hat da noch 1.05V gebraucht. Also da kannste mit Zen+ nochmal austest0rn.

dildo4u
2018-05-18, 19:05:54
Beworben wird es im Internett so
"XFR2 Enhanced (nur B450/​X470)"
Der Rest funktioniert auch offiziell auf den 3xx Brettern.

m.f.g. JVC
Nein:

http://abload.de/img/slide-4-amd-xfr-2-andl2o25.jpg

JVC
2018-05-18, 21:25:33
Ok auf Geizhals steht halt auch viel Mist ^^
https://geizhals.at/amd-ryzen-7-2700x-yd270xbgafbox-a1804456.html

aber "Precision Boost Overdrive (nur B450/​X470)" stimmt wehnigstens.

m.f.g. JVC

SKYNET
2018-05-18, 22:37:45
Nein:

http://abload.de/img/slide-4-amd-xfr-2-andl2o25.jpg

scheint trotzdem auch auf den 3x0 brettern zu gehen, weil wie erklärt man sonst das dort bis zu 4.15GHz AC erreicht werden solange die CPU kühl genug bleibt? O_o

y33H@
2018-05-19, 00:13:25
Overdrive ist _NICHT_ an den Chipsatz gekoppelt! die AIBs müssen es aber für jedes Board evaluieren, weshalb sie das tendenziell für neuere/teurere Platinen machen ...

SKYNET
2018-05-19, 01:40:08
Overdrive ist _NICHT_ an den Chipsatz gekoppelt! die AIBs müssen es aber für jedes Board evaluieren, weshalb sie das tendenziell für neuere/teurere Platinen machen ...

mein ich doch, weil wenn man mit nem 4x0 brett nochmals mehr AC boost hätte als jetzt schon mit 3x0 bretter... :ulol: 180W? :ulol:

Hübie
2018-05-19, 04:38:11
Welchen Vorteil bietet denn so ein X470-Brett ggü X370?? ASUS Cashback gibt's nur für die alten Bretter / Chipsets. :rolleyes:

Savay
2018-05-19, 09:38:57
So...das MSI X470 Gaming Plus hat nun seit ein paar Tagen mittlerweile ein BIOS Update erhalten, dass den Precision Boost fast komplett konfigurierbar macht.

Man kann nun die Limits für PPC, TDC und EDC direkt eingeben.
Vorallem über PPC ist das ganz cool...da kann man quasi die TDP die man der CPU erlauben will direkt einstellen...und er boostet All-Core dann halt entsprechend höher (solange der Strom nicht limitiert), ST/IDLE usw. bleibt aber so wie es ist.

Gumril
2018-05-19, 10:57:08
So...das MSI X470 Gaming Plus hat nun seit ein paar Tagen mittlerweile ein BIOS Update erhalten, dass den Precision Boost fast komplett konfigurierbar macht.

Man kann nun die Limits für PPC, TDC und EDC direkt eingeben.
Vorallem über PPC ist das ganz cool...da kann man quasi die TDP die man der CPU erlauben will direkt einstellen...und er boostet All-Core dann halt entsprechend höher (solange der Strom nicht limitiert), ST/IDLE usw. bleibt aber so wie es ist.


Das was du da einstellen kannst geht übrigens auch bei fast allen alten Boards mit neuem Bios.
Bisher brauch man wirklich noch kein X470 Board, außer wegen der Ausstattung.

SKYNET
2018-05-19, 11:23:25
Das was du da einstellen kannst geht übrigens auch bei fast allen alten Boards mit neuem Bios.
Bisher brauch man wirklich noch kein X470 Board, außer wegen der Ausstattung.

was bei ITX zb. aber vollkommen überflüssig, ist, da die ausstattung durch den platz begrenzt wird. einziger logischer grund für mich zb. umzusteigen wäre ECHTER usb 3.1 support(nicht der fake 3.1 der eigentlich 3.0 ist).

aber da ich keine riesen daten von extern auf intern oder umgedreht schiebe, isses für mich überflüssig. zumal zumindest die asrock itx mit 3x0 chipsatz, offiziel 133MHz mehr speicher support bieten(3333 auf 350/370 anstelle 3200 auf dem 470er). :freak:

fazit: das alte ist besser(wie so häufig in der relaität, grad im CB forum auch gemerkt, das foren upgrade ist der blanke horror, augenkrebs und facebook feeling von oben bis unten :ulol: )

dildo4u
2018-05-19, 11:37:27
scheint trotzdem auch auf den 3x0 brettern zu gehen, weil wie erklärt man sonst das dort bis zu 4.15GHz AC erreicht werden solange die CPU kühl genug bleibt? O_o
Der XFR 2 Boost ist doch bis 4.2 angegeben beim 2600X,da brauchste kein Overdrive für, das ganze ist eh nur Marketing Mumb Jumbo,es sei denn du hast ne Custom Wakü der das Ding unter 50° hält.Ich sehe bei realer Gamelast was um 4050 mhz bei rund 63°(Pure Rock),ein 1KG Kühler schafft vermutlich 4.1 Ghz mit knapp unter 60°.

Hier mal ein Video mit BF1: https://mega.nz/#!UBFnQAgD!hyx29ynBsL2EMFuXAluw-QjX2M-1IoRWOMWkIn6cFqE

Wird natürlich noch ein bissel wärmer wenn man länger zockt.

SamLombardo
2018-05-19, 18:35:02
Seh ich das richtig, die CPU Temperatur, die mir zB der Afterburner anzeigt ist nicht korrekt, sondern 10 Grad höher als real wegen des Offset? Das heißt, die reale Temp wäre 10 weniger als die angezeigte? Oder hab ich da was falsch verstanden?

SKYNET
2018-05-19, 18:42:49
Seh ich das richtig, die CPU Temperatur, die mir zB der Afterburner anzeigt ist nicht korrekt, sondern 10 Grad höher als real wegen des Offset? Das heißt, die reale Temp wäre 10 weniger als die angezeigte? Oder hab ich da was falsch verstanden?

HWinfo zeigt zb die reale temp an, da ist schon alles berichtigt in der anzeige.

SamLombardo
2018-05-19, 18:52:35
HWinfo zeigt zb die reale temp an, da ist schon alles berichtigt in der anzeige.
Alles klar, danke. Weiß jemand, wie es aktuell beim Afterburner ist?

dildo4u
2018-05-19, 19:29:04
Der gibt bei mir das Selbe wie Tctl/Tdie bei HWinfo aus.

SamLombardo
2018-05-19, 21:50:03
Danke

SamLombardo
2018-05-19, 22:42:14
Hm. Laut dem hier (https://www.computerbase.de/forum/threads/2700x-temperatur-offset.1763632/) berücksichtigt der Afterburner den Offset nicht standardmäßig. Zeigt also 10 Grad zu viel an (?)

Edit: hier (https://www.hardwareluxx.de/community/f11/mein-2700x-verwirrt-mich-mit-takt-spannung-und-temperaturen-1198274.html) ist es anscheinend das selbe. Afterburner 10 Grad zu viel. Hm. ...und hier (https://www.reddit.com/r/Amd/comments/8dyifq/so_which_is_the_accurate_temperature_reading_for/)

dildo4u
2018-05-20, 10:20:11
XFR2 ist wirklich Killer AMD hatte vorher keine Chance bei Geekbench 4.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11699689&postcount=84

aufkrawall
2018-05-21, 13:20:33
Bei Linux-Spielen mit ausgeprägtem CPU-Limit gibts immer noch ziemlich Haue von Intel:
https://www.phoronix.com/scan.php?page=article&item=ryzen-2700-gaming&num=2

SKYNET
2018-05-21, 15:42:52
Bei Linux-Spielen mit ausgeprägtem CPU-Limit gibts immer noch ziemlich Haue von Intel:
https://www.phoronix.com/scan.php?page=article&item=ryzen-2700-gaming&num=2

viel interessanter ist das die min. frames mit vega64 besser sind als mit der 1080ti :smile:

edit: ok, nur FHD... X-D

Birdman
2018-05-21, 20:49:20
viel interessanter ist das die min. frames mit vega64 besser sind als mit der 1080ti :smile:
edit: ok, nur FHD... X-D
Die min. Werte taugen nix, sieht man schon daran dass bei den 4k Benchmarks die min. Werte oftmals sogar deutlich! besser sind als bei FHD

Der_Korken
2018-05-21, 21:18:03
Bei Linux-Spielen mit ausgeprägtem CPU-Limit gibts immer noch ziemlich Haue von Intel:
https://www.phoronix.com/scan.php?page=article&item=ryzen-2700-gaming&num=2

Die Benches sehen komisch aus. Mal abgesehen davon, dass der 8700K unverhältnismäßig schneller ist als der 2700X (gemessen an gängigen Reviews) ist z.B. auch der 2700X oft über 20% schneller als der 2700 non X im CPU-Limit. Mal eben schnell bei CB geguckt: 2700X im Schnitt 8% schneller, Ausreißer FC5 mit +18%. Irgendwo ist da noch Sand im Getriebe unter Linux. Mich wundert das aber, weil ich bisher davon ausging, dass es CPU-seitig keine Unterschiede zwischen Windows und Linux gibt, weil da kein Treiber zwischenhängt. Woran könnte das liegen?

SKYNET
2018-05-22, 00:13:51
Die Benches sehen komisch aus. Mal abgesehen davon, dass der 8700K unverhältnismäßig schneller ist als der 2700X (gemessen an gängigen Reviews) ist z.B. auch der 2700X oft über 20% schneller als der 2700 non X im CPU-Limit. Mal eben schnell bei CB geguckt: 2700X im Schnitt 8% schneller, Ausreißer FC5 mit +18%. Irgendwo ist da noch Sand im Getriebe unter Linux. Mich wundert das aber, weil ich bisher davon ausging, dass es CPU-seitig keine Unterschiede zwischen Windows und Linux gibt, weil da kein Treiber zwischenhängt. Woran könnte das liegen?

wahrscheinlich keinerlei meltdown/spectre patches installiert und grad wenn der speicher gleich schnell ist, sollte ryzen noch mehr als der core profitieren... irgendwo ist da massiv nen wurm drinne... genau so unbrauchbarer test wie anand bei der zen+ vorstellung :freak:

Der_Korken
2018-05-22, 16:57:56
Wenn es an fehlenden Meltdown+Spectre-Patches für Intel läge, dann würde das immer noch nicht die großen Unterschiede zwischen dem 2700 und 2700X erklären. Ich hatte auch mal geguckt, ob der Basistakt zufällig 20% auseinanderliegt und der Boost einfach bei Ryzen 2 überhaupt nicht funzt, aber damit käme man auch nur auf +15%. Es kann natürlich wie bei Anandtech irgendein Problem mit System-Timern geben, die jede Zeitmessung zunichte macht.

Aus den Kommentaren (ohne die Details zu verstehen):

You should test without cpu freq governor in the kernel that slows down Ryzen. Linux kernel is optimised for intel cpus by intel kernel developers that are not test with other cpus.Use only default Bios settings.

The Ryzen system was showing similar performance relative to the 8700 as most Windows reviews for Xonotics, OpenArena and Tesseract (On the 1080ti at least). It looks like the biggest issue is with the optimisation of the games being ported from Windows when running on Ryzen.

Also vielleicht auch ein Compiler-Problem, wo ein Pre-Ryzen Compiler irgendwelche Sachen reinhaut, die Ryzen überhaupt nicht schmecken und die Performance runterziehen. Das gab es kurz nach Ryzen-Launch afaik schon mal (glaub bei AotS), wo durch ein paar kleine Tweaks plötzlich die Performance bei Ryzen um >30% nach oben ging. Ändert natürlich trotzdem nicht daran, dass man als User mit diesem unoptimierten Code leben muss.

Dino-Fossil
2018-05-23, 09:58:18
Boostet Ryzen unter Linux inzwischen überhaupt korrekt?
Hab das ehrlich gesagt auf meinem 1600 nicht mehr groß verfolgt, da die Performance bisher immer ausreichte (und die Rechenintensiven Dinge sehr gut parallelisiert sind), aber zumindest anfangs hing Ryzen, soweit ich weiß, auf dem Base-Takt fest.
Der gewählte Scheduler mag auch seinen Anteil haben.
Wobei Ryzen(+) in den Anwenungstests auf Phoronix meistens nachvollziehbarer abschneidet, könnte also auch einfach ein Problem mit den Windows-Ports sein.

Raff
2018-05-23, 11:46:16
CPU-Wurstkäse in Kingdom Come Deliverance: Neue Benchmarks mit 20 Grafikkarten und 13 Prozessoren (http://www.pcgameshardware.de/Kingdom-Come-Deliverance-Spiel-16151/Specials/Test-Patch-Benchmark-Review-Tipps-1256805/)

Intels aktuelle Sechskerner führen das Feld an, ruckeln aber kaum weniger als die hochtaktenden Ryzen 2000.

MfG,
Raff

SKYNET
2018-05-23, 11:51:51
CPU-Wurstkäse in Kingdom Come Deliverance: Neue Benchmarks mit 20 Grafikkarten und 13 Prozessoren (http://www.pcgameshardware.de/Kingdom-Come-Deliverance-Spiel-16151/Specials/Test-Patch-Benchmark-Review-Tipps-1256805/)

Intels aktuelle Sechskerner führen das Feld an, ruckeln aber kaum weniger als die hochtaktenden Ryzen 2000.

MfG,
Raff

viel besser ist ja, das die ryzen mit 2666er speicher gebencht wurden, und nicht wie es standard wäre mit 2933er... somit nicht zu gebrauchen der test... mal wieder. :rolleyes:

Raff
2018-05-23, 12:03:50
Möööp. Wie oft muss man Dinge eigentlich schreiben, damit sie in jedem Kopf ankommen?

Zur Erinnerung:
http://www.pcgameshardware.de/Kingdom-Come-Deliverance-Spiel-16151/Specials/Test-Patch-Benchmark-Review-Tipps-1256805/#a4

"Wie gehabt verwenden wir dabei 16 GiByte Speicher pro Kanal, was zu mindestens 32 GiByte (Dual-Channel) und bestenfalls 64 GiByte (Quad-Channel) führt. Die RAM-Geschwindigkeit entspricht dem Maximum, das Intel und AMD für die jeweiligen CPUs offiziell freigeben. Dabei spielt weder das Overclocking-Potenzial der Plattform noch das Speicherangebot am Markt eine Rolle - Taktraten mit einer 3 oder 4 am Anfang entsprechen mehr oder minder starkem Overclocking. Ebenfalls wichtig ist, dass wir konsequent auf RAM-Module in Dual-Rank-Bauweise setzen, da diese pro Takt eine etwas höhere Leistung erzielen als Single-Rank-Riegel."

http://www.pcgameshardware.de/Ryzen-7-2700X-CPU-267374/Tests/vs-8700K-Ryzen-5-2600X-Review-Benchmark-Release-Preis-1254720/#a3

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=63435&d=1527069975

MfG,
Raff

Loeschzwerg
2018-05-23, 12:04:03
:confused:

Folgendes steht in der Tabelle:
16 GiByte DDR4-RAM per memory channel. Speed according to each processor's maximum specification.

Und mit DR sind es nun mal 2666MHz.

Schnoesel
2018-05-23, 12:52:29
War es nicht so, dass DR bei Ryzen+ nicht mehr das + an Leistung gegenüber SR gebracht hat?

https://www.computerbase.de/2018-04/amd-ryzen-2000-test/5/#abschnitt_singlerank_vs_dualrankram

Allerdings bei CB "nur" Hynix Speicher und sie sprechen von "noch" keinem Effekt. Hat sich das was geändert?

Loeschzwerg
2018-05-23, 12:57:26
Mal so mal so:
http://www.pcgameshardware.de/Ryzen-7-2700X-CPU-267374/Tests/vs-8700K-Ryzen-5-2600X-Review-Benchmark-Release-Preis-1254720/#a3

Kein klarer Gewinner ersichtlich.

SKYNET
2018-05-23, 14:14:43
Möööp. Wie oft muss man Dinge eigentlich schreiben, damit sie in jedem Kopf ankommen?

Zur Erinnerung:
http://www.pcgameshardware.de/Kingdom-Come-Deliverance-Spiel-16151/Specials/Test-Patch-Benchmark-Review-Tipps-1256805/#a4

"Wie gehabt verwenden wir dabei 16 GiByte Speicher pro Kanal, was zu mindestens 32 GiByte (Dual-Channel) und bestenfalls 64 GiByte (Quad-Channel) führt. Die RAM-Geschwindigkeit entspricht dem Maximum, das Intel und AMD für die jeweiligen CPUs offiziell freigeben. Dabei spielt weder das Overclocking-Potenzial der Plattform noch das Speicherangebot am Markt eine Rolle - Taktraten mit einer 3 oder 4 am Anfang entsprechen mehr oder minder starkem Overclocking. Ebenfalls wichtig ist, dass wir konsequent auf RAM-Module in Dual-Rank-Bauweise setzen, da diese pro Takt eine etwas höhere Leistung erzielen als Single-Rank-Riegel."

http://www.pcgameshardware.de/Ryzen-7-2700X-CPU-267374/Tests/vs-8700K-Ryzen-5-2600X-Review-Benchmark-Release-Preis-1254720/#a3

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=63435&d=1527069975

MfG,
Raff

nur dumm das DR kaum noch mehrleistung bei zen+ bringt und darum SR höher getaktet die bessere wahl ist. :P

also entweder haben die jungs da keine ahnung, oder ist ähnlich intelbase ähh computerbase, wobei die wenigstens mit 2933er speicher testen... weil 32GB haben die wenigsten und darum uninteressant in nem review, genauso uninteressant wie reviews wo ohne FHD getestet wird, wo ca. 65% der leute mit zocken. :smile:

SKYNET
2018-05-23, 14:15:51
War es nicht so, dass DR bei Ryzen+ nicht mehr das + an Leistung gegenüber SR gebracht hat?

https://www.computerbase.de/2018-04/amd-ryzen-2000-test/5/#abschnitt_singlerank_vs_dualrankram

Allerdings bei CB "nur" Hynix Speicher und sie sprechen von "noch" keinem Effekt. Hat sich das was geändert?


genau das ist es ja, DR bringt nur bei zen was, bei zen+ kannst dir den spass schenken bzw. da sind die 2666er DR sogar oft lahmer als es 2933er SR wären.

Der_Korken
2018-05-23, 14:25:38
Die Sache mit Zen+ und Dualrank würde mich auch brennend interessieren. Bei mir steht die nächste Zeit auch ein neues Sys an und habe noch absolut keine Ahnung, wie ich das mit dem RAM mache:

2x8GB B-Dies -> Beste Geschwindigkeit, allerdings fraglich wie aufrüstfähig, da ich mittelfristig gerne 32GB hätte
2x8GB non B-Dies -> Spart Geld und ist als 4x8GB-Kombi vielleicht nicht mal langsamer als 4x8 mit B-Dies
2x16GB B-Dies -> Mehr GB/€, dafür aber u.U. deutlich weniger Speed als 2x8. Dennoch unverschämt teuer und mglw. ein krasses Verlustgeschäft, wenn RAM in 12 Monaten billiger wird.
2x16GB non B-Dies -> akzeptable Preise, aber mglw. absolute Krüppel-Config mit max. 2933Mhz und schlechten Timings.

Lehdro
2018-05-23, 14:31:36
Und noch immer hat sich keine Testseite erbarmt das mal richtig zu testen. Also nicht einfach nur "DR + 2666 + gleiche Haupttimings" gegen "SR + 2666 + gleiche Haupttimings".
Wir hatten schon damals im Ryzen RAM thread festgestellt dass sich die Subtimings von DR und SR gewaltig unterscheiden.

Schnoesel
2018-05-23, 14:32:32
Wie sieht es mit 4x 8GB SR B-Dies aus? Sollte trotz Vollbestückung doch mehr Takt gehen als bei 2x16GB DR

Der_Korken
2018-05-23, 14:38:04
Wie sieht es mit 4x 8GB SR B-Dies aus? Sollte trotz Vollbestückung doch mehr Takt gehen als bei 2x16GB DR

Ist das so? AMD gibt für 2xDR max. 2400Mhz an, für 4xSR aber nur 2133Mhz. Außerdem habe ich mal irgendwo aufgeschnappt, dass einige Boards Probleme bei Vollbestückung machen. Wenn so ein 32er Kit nur 100€ kosten würde, würde ich einfach testen und notfalls wieder verkaufen, aber bei >400€ ist mir das doch etwas zu heiß :D.

Schnoesel
2018-05-23, 14:55:53
Das wäre ja die Frage. Ich meine mich zu erinnern im AMD Unter-Forum von Vollbestückung mit Taktraten jenseits der 3200Mhz gelesen zu haben?!

JVC
2018-05-23, 15:07:42
3466 oder gar 3600 sieht man nicht all zu selten.
Aber angeblich ist der Sweetspott bei 3200-3466 bei möglichst scharfen Timings ?

m.f.g. JVC

SKYNET
2018-05-23, 15:46:06
Die Sache mit Zen+ und Dualrank würde mich auch brennend interessieren. Bei mir steht die nächste Zeit auch ein neues Sys an und habe noch absolut keine Ahnung, wie ich das mit dem RAM mache:

2x8GB B-Dies -> Beste Geschwindigkeit, allerdings fraglich wie aufrüstfähig, da ich mittelfristig gerne 32GB hätte
2x8GB non B-Dies -> Spart Geld und ist als 4x8GB-Kombi vielleicht nicht mal langsamer als 4x8 mit B-Dies
2x16GB B-Dies -> Mehr GB/€, dafür aber u.U. deutlich weniger Speed als 2x8. Dennoch unverschämt teuer und mglw. ein krasses Verlustgeschäft, wenn RAM in 12 Monaten billiger wird.
2x16GB non B-Dies -> akzeptable Preise, aber mglw. absolute Krüppel-Config mit max. 2933Mhz und schlechten Timings.

irgendwo hatte ich grade was zu den neuen C-dies von samsung gelesen, mit 2x 16GB hat er auf intel 4000MHz geknackt stabil.

ansonsten 2x 16GB mit guten B-die(= 4000+ speicher) bekommst auch auf min 3200 mit scharfen timings.

und 4x bestückung würd ich grad sein lassen, da habe ich noch nix gesehen das wirklich hoch lief stabil. :freak:

und speicher wird eher noch teurer als billiger, siehe CB news :frown:

Mangel76
2018-05-23, 16:33:29
ansonsten 2x 16GB mit guten B-die(= 4000+ speicher) bekommst auch auf min 3200 mit scharfen timings.

Das ist nicht sicher! Ich habe 2x16GB B-Dies 3200CL14 und kriege sie ums verrecken nicht stabil auf die angegebenen 3200. Maximum ist 3000 mit optimierten Subtimings!

SKYNET
2018-05-23, 16:59:11
Das ist nicht sicher! Ich habe 2x16GB B-Dies 3200CL14 und kriege sie ums verrecken nicht stabil auf die angegebenen 3200. Maximum ist 3000 mit optimierten Subtimings!

darum sagte ich ja 4000+ speicher :wink:

die gehen durchweg besser als die niedrig getakteten mit CL14... wirst auch keinen 3200 CL14 auf 4266 bringen bei 1.4V mit CL17... ;)

BlacKi
2018-05-23, 17:11:34
darum sagte ich ja 4000+ speicher :wink:

die gehen durchweg besser als die niedrig getakteten mit CL14... wirst auch keinen 3200 CL14 auf 4266 bringen bei 1.4V mit CL17... ;)
autsch, statt 160€ gleich 260€ bezahlen für die paar mhz? weiter oben rätst du zu SR speicher, die garnicht zu diesen taktraten kaufbar sind, also kannst du die garnicht gemeint haben. oder doch?

Loeschzwerg
2018-05-23, 17:25:09
Wer selber noch den Speicher optimieren will via Takt + Timings, der ist sicher mit SR besser bedient (Samsung B). Der Rest kauft einfach was im Budget ist bzw. nach dem passendsten P/L.

So oder so bleiben die Benchmarks völlig valide, im Schnitt nehmen sich 2666 DR vs 2933 SR eigentlich nichts. Versteift euch doch nicht immer auf die letzten µ.

SKYNET
2018-05-23, 17:48:58
autsch, statt 160€ gleich 260€ bezahlen für die paar mhz? weiter oben rätst du zu SR speicher, die garnicht zu diesen taktraten kaufbar sind, also kannst du die garnicht gemeint haben. oder doch?

geht um die speichergrösse, wer 32GB will, wird DR module nehmen müssen...

aber da derzeit 16GB in der praxis noch mehr als ausreichend für alles ausser fette video/grafikbearbeitung sind, sehe ich das eher als rausgeschmissenes geld an, weil wenn 32GB bei games nötig sein werden, wird ein system mit DDR4 schon zu langsam sein, um das game überhaupt spielen zu können.

tja, wer schnell sein will muss blechen... bekommst auch keine corvette zum preis von nem dacia :ulol:

dildo4u
2018-05-24, 09:32:36
Scheint noch kein Artikel auf der Techspot Seite zu geben.


mhbbOy1PkVY

SKYNET
2018-05-24, 10:39:30
Scheint noch kein Artikel auf der Techspot Seite zu geben.


http://youtu.be/mhbbOy1PkVY

super vergleich... eine CPU zu nehmen die 1.6x teurer ist als der 2600X und quadchannel nutzt :freak:

edit: schlägt sich ja ganz wacker der kleine, bei gleichem CPU takt wäre es wohl durchweg zugunsten des 2600X ausgegangen.

Megamember
2018-05-24, 11:57:25
super vergleich... eine CPU zu nehmen die 1.6x teurer ist als der 2600X und quadchannel nutzt :freak:

edit: schlägt sich ja ganz wacker der kleine, bei gleichem CPU takt wäre es wohl durchweg zugunsten des 2600X ausgegangen.

Die haben dieselbe Kernanzahl und Quadchannel bringt bei Spielen quasi Null.

Jasch
2018-05-24, 12:15:21
Das mag so sein.
Aber warum nimmt man keinen 1900X als Vergleich, der hat auch die gleiche Kernzahl und Quadchannel.

Megamember
2018-05-24, 12:16:30
Das mag so sein.
Aber warum nimmt man keinen 1900X als Vergleich, der hat auch die gleiche Kernzahl und Quadchannel.

Höh, der 1900X hat 8 Kerne, ausserdem alte Gen. Könnten den höchstens gegen den 7820X benchen, aber da würde der Intel deutlich vorne liegen.

dildo4u
2018-05-24, 12:21:22
Es ist Technisch für die Zukunft interessant,das AMD dort schon jetzt auf Level mit Intel spielt.
Intel kann Coffelake vermutlich nur bis 8 Core skalieren,alles drüber braucht den Mesh Aufbau von Intels High-End Serie.

Jasch
2018-05-24, 12:26:32
Da haste natürlich recht, aber Preis ist ca. gleich und beide habe den "grossen" Sockel und Quadchannel.

Da läuft die "grosse" Intel Plattform gegen die "kleine" AMD.

Ihr wisst worauf ich hinaus will, der Vergleich ist irgendwie nie "Fair" egal für welche Seite.

Odal
2018-05-24, 12:32:23
geht um die speichergrösse, wer 32GB will, wird DR module nehmen müssen...

aber da derzeit 16GB in der praxis noch mehr als ausreichend für alles ausser fette video/grafikbearbeitung sind, sehe ich das eher als rausgeschmissenes geld an, weil wenn 32GB bei games nötig sein werden, wird ein system mit DDR4 schon zu langsam sein, um das game überhaupt spielen zu können.

tja, wer schnell sein will muss blechen... bekommst auch keine corvette zum preis von nem dacia :ulol:


Das denke ich nicht und kann man auch nicht so pauschal festlegen da nicht jeder >60FPS benötigt, 8GB sind aktuell schon knapp bemessen.
Mein i5 der 1. Gen startete damals mit 4GB ram (das war "üblich" und reichte locker für alles) und ist jetzt bei 12GB und das System wird im September 9 Jahre.
Da läuft quasi noch alles drauf (selbst max. undervoltet und nur mit 3.1Ghz betrieben) nur Kingdom Come ist grenzwertig.

Ich würde durchaus davon ausgehen das man einen aktuellen 6-8 Kerner noch in 10 Jahren für vieles nutzen könnte und dann wirds bei den 16GB mit Sicherheit knapp. Die übliche Speicherbestückung / nutzung hat sich in den letzten 10 Jahren auch vervierfacht.

w0mbat
2018-05-24, 13:50:17
Schon krass, dass Zen+ wirklich auf dem Niveau von Skylake-X ist. Intel ist in Spielen wirklich nur noch durch den Ringbus bei CFL schneller, also die Anbindung der Kerne, und nicht mehr durch die Kerne selber.

Sobald Ringbus ausgedient hat, also wahrscheinlich >8C, wird es problematisch.

y33H@
2018-05-24, 14:09:14
Ring und mehr Takt und mehr "Spiele-IPC".

SKYNET
2018-05-24, 14:20:02
Das denke ich nicht und kann man auch nicht so pauschal festlegen da nicht jeder >60FPS benötigt, 8GB sind aktuell schon knapp bemessen.
Mein i5 der 1. Gen startete damals mit 4GB ram (das war "üblich" und reichte locker für alles) und ist jetzt bei 12GB und das System wird im September 9 Jahre.
Da läuft quasi noch alles drauf (selbst max. undervoltet und nur mit 3.1Ghz betrieben) nur Kingdom Come ist grenzwertig.

Ich würde durchaus davon ausgehen das man einen aktuellen 6-8 Kerner noch in 10 Jahren für vieles nutzen könnte und dann wirds bei den 16GB mit Sicherheit knapp. Die übliche Speicherbestückung / nutzung hat sich in den letzten 10 Jahren auch vervierfacht.

in anbetracht der sache das selbst FC5 als empfehlung nur 8GB hat, sehe ich das ein wenig anders... da kannst doch 10 jahre warten bis empfolene ram konfiguartion 32GB ist. und spätestens 2021 kommt DDR5 auf breiter front bei intel und AMD. ergo bringt das nix auf 32GB zu rüsten wenn man ihn nicht zum preis von 16GB bekommt oder video/grafikzeugs macht was speicherfresser sind. :smile:

SKYNET
2018-05-24, 14:21:22
Schon krass, dass Zen+ wirklich auf dem Niveau von Skylake-X ist. Intel ist in Spielen wirklich nur noch durch den Ringbus bei CFL schneller, also die Anbindung der Kerne, und nicht mehr durch die Kerne selber.

Sobald Ringbus ausgedient hat, also wahrscheinlich >8C, wird es problematisch.

8auer hatte doch in seinem 6GHz test schon gesagt das zen+ mehr pro-takt power hat als skylake-x. :wink:

maximus_hertus
2018-05-24, 14:38:09
Ring und mehr Takt und mehr "Spiele-IPC".

Müsste es nicht "Ring und mehr Takt führen zu mehr "Spiele-IPC"" heißen?

Schon beeindruckend, dass der Ryzen 2600 mit 65W einen 140W 7800X knapp schlägt (wenn ich die Durchschnittsgraphen trauen kann - jeweils Stock ohne OC).

SKYNET
2018-05-24, 15:05:59
Müsste es nicht "Ring und mehr Takt führen zu mehr "Spiele-IPC"" heißen?

Schon beeindruckend, dass der Ryzen 2600 mit 65W einen 140W 7800X knapp schlägt (wenn ich die Durchschnittsgraphen trauen kann - jeweils Stock ohne OC).

ich glaub ich kauf mir mal nen neues case wo nen richtiger kühler reingeht, da gibts ja auch kleine sachen die locker nen 120mm hohen kühler schlucken... weil der geht ja mit dem mini noctua kühler schon auf 4.2GHz AC mit 1.26V, denke den könnte ich auf 4.4 oder mehr prügeln :biggrin: mit meinem speicher sollte das extrem pervers werden :usex:

Odal
2018-05-24, 16:18:59
in anbetracht der sache das selbst FC5 als empfehlung nur 8GB hat, sehe ich das ein wenig anders... da kannst doch 10 jahre warten bis empfolene ram konfiguartion 32GB ist. und spätestens 2021 kommt DDR5 auf breiter front bei intel und AMD. ergo bringt das nix auf 32GB zu rüsten wenn man ihn nicht zum preis von 16GB bekommt oder video/grafikzeugs macht was speicherfresser sind. :smile:

ich habe auch erst auf 12GB DDR3 aufgerüstet da gabs schon DDR4 Ram und mich gefragt ob sich das noch lohnt...jetzt ein paar Jahre später kann ich nur bestätigen: Das lohnt eigentlich immer.

Die 32GB jetzt zu verbauen ist natürlich Anwendungsabhängig fraglich (da RAM halt teuer ist), aber zu 2 Riegeln nochmal 2 in 3-5 Jahren dazuzustecken ist nicht realitätsfern. Wenn DDR5 rauskommt ist DDR4 erstmal auch günstiger.

Daher finde ich auch diese ganzen zen+ Argumente mit läuft 10% schneller mit 2x schnellen teueren übertakteten Ram fragwürdig, da wenn es wirklich drauf ankommt oft schon 4 Module drinstecken die da deutlich weniger machen.

robbitop
2018-05-24, 16:24:28
Man sieht sehr gut, dass bei vergleichbarer Memorylatency (durch das Mesh liegt man bei sklx in ähnlichen Gefilden wie Ryzen) die Zen mArch vergleichbare taktnormierte Spieleleistung liefert wie die Skylake mArch.
CFL ist in Spielen schneller durch mehr Takt und geringere Memorylatency durch den schnelleren Ringbus. Die mArch selbst scheint AMD folglich sehr gut hinbekommen zu haben. Rest hängt an IO und Takt. Ryzen 3 sollte den Taktnachteil in 7nm nahezu eliminieren können. Mittelfristig wird auch bei Intel der Ringbus durch wachsende Kernanzahl entweder ausscheiden oder durch dessen Kaskadierung (vgl hswe und bdwe) verlangsamen.

Pirx
2018-05-24, 16:32:07
Zen 3 Ryzen 2
:upara:

Langlay
2018-05-24, 19:27:49
ich glaub ich kauf mir mal nen neues case wo nen richtiger kühler reingeht, da gibts ja auch kleine sachen die locker nen 120mm hohen kühler schlucken... weil der geht ja mit dem mini noctua kühler schon auf 4.2GHz AC mit 1.26V, denke den könnte ich auf 4.4 oder mehr prügeln :biggrin: mit meinem speicher sollte das extrem pervers werden :usex:

Mein 2700X mit 4.2 GHz AC mit 1.3V für 4.3 GHz Allcore bin ich dann bei 1.42V und 4.35GHz sind selbst mit 1.5V nur noch metastabil.

Kriton
2018-05-24, 21:10:43
Müsste es nicht "Ring und mehr Takt führen zu mehr "Spiele-IPC"" heißen?

Instructions per clock können per definition nicht durch mehr clock erhöht werden. Du meinst ggf. IPS (second).

Rancor
2018-05-24, 21:42:01
Edit:

Hier stand Quark..

BlacKi
2018-05-24, 21:53:44
pWff9bOVLHw

w0mbat
2018-05-24, 22:12:18
Nichtssagendes Video. Welcher RAM, was für timings, und wieso 1080p bei nem CPU Test?

SKYNET
2018-05-24, 22:18:18
Mein 2700X mit 4.2 GHz AC mit 1.3V für 4.3 GHz Allcore bin ich dann bei 1.42V und 4.35GHz sind selbst mit 1.5V nur noch metastabil.

ich habe aber nur sonen kleinen popelkühler von noctua der keine 40mm mit lüfter hoch ist :tongue: also wird da noch einiges gehen bei mir ;)

SKYNET
2018-05-24, 22:24:22
Nichtssagendes Video. Welcher RAM, was für timings, und wieso 1080p bei nem CPU Test?

denke mal wird überall der gleiche speicher mit XMP settings sein...

aber wenn man schon alle auf 4GHz bencht, hätte man ruhig 2666er speicher auf dem intel und zen nehmen können und 2933er auf dem zen+... halt das jeweilige maximum was offiziel supportet ist.

Megamember
2018-05-24, 22:54:51
aber wenn man schon alle auf 4GHz bencht, hätte man ruhig 2666er speicher auf dem intel und zen nehmen können und 2933er auf dem zen+... halt das jeweilige maximum was offiziel supportet ist.

Also alles wieder unterschiedlich und damit unfair und verwirrend. JA...macht Sinn.

SKYNET
2018-05-25, 00:20:56
Also alles wieder unterschiedlich und damit unfair und verwirrend. JA...macht Sinn.

dann hätten wir die pro-takt leistung ab werk :)

dargo
2018-05-25, 10:16:57
Nichtssagendes Video.
Machs besser! :rolleyes:

w0mbat
2018-05-25, 22:13:19

k0nan
2018-05-26, 17:32:57
hat hier jemand den gskill 4000er ram am laufen? falls ja, mit welchem board?

link: https://geizhals.de/g-skill-trident-z-rgb-dimm-kit-16gb-f4-4000c17d-16gtzr-a1755388.html

Megamember
2018-05-26, 17:43:34
hat hier jemand den gskill 4000er ram am laufen? falls ja, mit welchem board?

link: https://geizhals.de/g-skill-trident-z-rgb-dimm-kit-16gb-f4-4000c17d-16gtzr-a1755388.html

Der wird eh nicht auf 4000 laufen, selbst 3600 wäre sehr glücklich. Wenn dann würde ich eher den hier nehmen, der soll der am besten gebinnte sein:

https://geizhals.de/g-skill-trident-z-silber-rot-dimm-kit-16gb-f4-3600c15d-16gtz-a1439046.html?hloc=at&hloc=de

horn 12
2018-05-26, 17:46:41
Nun, der 4000 CL 17 kostet bei uns 279 Euro

https://www.taocomputer.eu/shop2007/scheda.asp?id=37333

Sorry, C18 :-(

Armaq
2018-05-26, 18:15:40
4000 läuft nirgends stabil. Benchstable vll., der Rest ist Augenwischerei.

Megamember
2018-05-26, 18:17:37
4000 läuft nirgends stabil. Benchstable vll., der Rest ist Augenwischerei.

Auf Intel schon.

Ex3cut3r
2018-05-26, 18:33:42
Also ein Kumpel mit 8700k und Asus ROG Board hat sogar 4266mhz laufen, wie stabil kann ich nicht sagen, haben aber zusammen 4.Std hintereinander BF1 MP gezockt ohne Absturz.

Auf Ryzen sollte 3400/3600 mit scharfen Timings so das Maximum sein.

k0nan
2018-05-26, 21:42:41
klasse,danke für die schnellen & informativen antworten :up:

würdet ihr meinen 6700k @ 4.5ghz behalten und den 3600/4000er ram dazu kaufen oder das komplette sys auf ryzen2 2700x upgraden?