PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - RYZEN 2/Zen+ (Pinnacle Ridge): Review-Thread


Seiten : 1 [2] 3 4 5 6 7 8

y33H@
2018-04-21, 18:31:02
Das Zenith für Threadripper hat 2x8 und hat damals nicht gebootet mit 1x8, hat sich später aber als Dead on Arrival herausgestellt ;D

aufkrawall
2018-04-21, 18:34:50
Doofe Frage: Wird es auch B450-Boards geben?
Ich fänd ja ein ASrock-Board damit für maximal 120€ ohne Schwachsinns-Phasenverteilung und mit vernünftiger LLC ganz schön.

mboeller
2018-04-21, 19:06:28
Deshalb ist 2019 Matisse mit Zen 2 so interessant.

mind. 12 Kerne (laut Canard 16?)


ich verstehe das mit den 12 Kernen offen gestanden nicht.

Wenn 7nm gegenüber 14nm glatt +40% Takt bringt dann würde eine 7nm 8Core CPU nahezu so schnell sein wie eine 12Core CPU. Bei wenigen Threads um einiges schneller (IMHO +30%) und selbst bei voller Auslastung (bei 24 Threads aber schwierig) nur geringfügig langsamer (IMHO -15%).


Dazu kommt das 7nm pro mm² laut einem älteren PDF (von 2016) ca. 50 - 60% teurer wird als 14nm.

https://www.icknowledge.com/news/Technology%20and%20Cost%20Trends%20at%20Advanced%20Nodes%20-%20Revised.pdf

Grendizer
2018-04-21, 19:11:08
Bei aller Euphorie für Pinnacle Ridge man aber auch mal etwas kritischer die "alte" Serie betrachten.

Augenscheinlich habe ich mit Summit Ridge dann tatsächlich einen eher fehlerhaften ersten Versuch gekauft, wenn die Performance innerhalb von 12 Monaten so deutlich gesteigert werden konnte :biggrin:

Menace
2018-04-21, 19:25:50
Augenscheinlich habe ich mit Summit Ridge dann tatsächlich einen eher fehlerhaften ersten Versuch gekauft, wenn die Performance innerhalb von 12 Monaten so deutlich gesteigert werden konnte :biggrin:

Lisa hat schon bei Ryzen 1 gesagt, dass sie wissen, wie sie bei einen "Refresh" doch ein paar Nachteile vermindern können.

Mal davon abgesehen, dass die Logik sowieso Unfug ist. Ryzen 1 ist schon genial. :biggrin:

Der_Korken
2018-04-21, 19:26:31
ich verstehe das mit den 12 Kernen offen gestanden nicht.

Wenn 7nm gegenüber 14nm glatt +40% Takt bringt dann würde eine 7nm 8Core CPU nahezu so schnell sein wie eine 12Core CPU. Bei wenigen Threads um einiges schneller (IMHO +30%) und selbst bei voller Auslastung (bei 24 Threads aber schwierig) nur geringfügig langsamer (IMHO -15%).

Du glaubst doch nicht ernsthaft, dass ein auf 7nm portierter Zen 40% schneller mehr Takt (also 6 Ghz :freak:) durch die Fertigung schafft. Intel hat von 32nm bis 14nm doppelplus keine 20% geschafft. Die großen Taktsteigerungen gab es in der Vergangenheit nur im Sweetspot-Bereich für mobile CPUs, aber an der Spitze bewegt sich seit Jahren fast nichts. Wenn wir 5Ghz bei Zen 2 sehen, wäre das schon überragend. Mehr Kerne ist die Richtung, in die CPUs am einfachsten wachsen können.

Daredevil
2018-04-21, 19:33:12
Augenscheinlich habe ich mit Summit Ridge dann tatsächlich einen eher fehlerhaften ersten Versuch gekauft, wenn die Performance innerhalb von 12 Monaten so deutlich gesteigert werden konnte :biggrin:


Dann hast du jedes Jahr ein fehlerhaftes iPhone in der Hand, wenn du es jedes mal kaufst. :D

Ryzen war die Basis und eine neue Architektur, danach werden Fehler behoben und an Stellschrauben gearbeitet. Das ist doch völlig normal. Die erste Generation von egal welchem Produkt zu kaufen ist nie die "beste". Aber man muss halt schauen, das man sie raus ballert, denn die erste ist immer die erste. ^^

dildo4u
2018-04-21, 19:35:54
Bei aller Euphorie für Pinnacle Ridge man aber auch mal etwas kritischer die "alte" Serie betrachten.

Augenscheinlich habe ich mit Summit Ridge dann tatsächlich einen eher fehlerhaften ersten Versuch gekauft, wenn die Performance innerhalb von 12 Monaten so deutlich gesteigert werden konnte :biggrin:
Für Daus vieliecht der größte Sprung ist XFR 2.0,wenn du bei Ryzen 1 alle Cores auf den Turbo lockst ist der Unterschied minimal.

Freestaler
2018-04-21, 19:39:36
Ich geh die Tage von 4790K mit 16GB DDR3-2133 auf 2600X mit 32GB DDR4-3xxx, kann ggf meine Games vorher/nachher benchen.
Ja, mach bitte benchs. Ich bin vom 4790k@4,6ddr31866 auf 1700@3,9:3466mitscharfentimmings.. für mich ein gewinnen, da neben den games oft noch surfe, musik läuft oder vm on habe für die arbeit. Und da machts mit dem ryzen echt laune.

robbitop
2018-04-21, 19:56:01
ich verstehe das mit den 12 Kernen offen gestanden nicht.

Wenn 7nm gegenüber 14nm glatt +40% Takt bringt dann würde eine 7nm 8Core CPU nahezu so schnell sein wie eine 12Core CPU. Bei wenigen Threads um einiges schneller (IMHO +30%) und selbst bei voller Auslastung (bei 24 Threads aber schwierig) nur geringfügig langsamer (IMHO -15%).


Dazu kommt das 7nm pro mm² laut einem älteren PDF (von 2016) ca. 50 - 60% teurer wird als 14nm.

https://www.icknowledge.com/news/Technology%20and%20Cost%20Trends%20at%20Advanced%20Nodes%20-%20Revised.pdf
12C sind aber kein Nachteil. Die Kerne die nicht genutzt werden von der Anwendung ziehen keinen Strom (power/clock gating). Die ausgenutzten Kerne können gleich hoch takten wie bei einem nativen 8C. 12C sorgt aber für mehr Zukunftssicherheit (IPC und Takt laufen langsam fast asymptotisch) und mehr L3 (was ein wenig mehr IPC bringt. Gibt außerdem ja neben Spielen ja auch nich eine andere (unbedeutende :D) Welt. Dort bringt jeder Kern mehr Leistung (Foto/Videobearbeitung, Encoding, Blender etc)

robbitop
2018-04-21, 20:01:08
Für Daus vieliecht der größte Sprung ist XFR 2.0,wenn du bei Ryzen 1 alle Cores auf den Turbo lockst ist der Unterschied minimal.

In Spielen mit schlechterer Cachehitrate bringt die geringere Memorylatency deutliche Vorteile abseits von xfr2.
GTA5, FC Primal, Civ 6, BF1, F1 2017 sind bspw solche Kandidaten.

Auch erlaubt PR jetzt höhere Ramtaktraten die in solchen Spielen die Memorylatency nich weiter verbessern und da nochmal mehr Leistung freisetzen. Siehe CB Review mit dem Abschnitt „Ryzen auf Steroiden“.

PR ist ein netter Refresh. Ähnlich zu Vishera. :)

Langlay
2018-04-21, 20:09:23
https://abload.de/img/ryzen2700x4.0ghz1.182sxrk1.jpg

So hier nochmal 3h Prime. Ich hab Prime jetzt auch erstmal ausgemacht. Ich lade nebenbei noch den den Workstationbench runter. Allerdings mit atemberaubender Geschwindigkeit.

SPECwpc_v2_1.zip
ftp://ftp.spec.org/dist/gpc/wpc/SPECwpc_v2_1.zip
990 KB/s - 1,2 GB von 3,6 GB, 42 Min. übrig

dildo4u
2018-04-21, 20:11:51
In Spielen mit schlechterer Cachehitrate bringt die geringere Memorylatency deutliche Vorteile abseits von xfr2.
GTA5, FC Primal, Civ 6, BF1, F1 2017 sind bspw solche Kandidaten.

Auch erlaubt PR jetzt höhere Ramtaktraten die in solchen Spielen die Memorylatency nich weiter verbessern und da nochmal mehr Leistung freisetzen. Siehe CB Review mit dem Abschnitt „Ryzen auf Steroiden“.

PR ist ein netter Refresh. Ähnlich zu Vishera. :)
Hängt halt extrem davon ab ob man bei der jetzigen Konfig gut laufenden Ram hat, ich hab hier einige Leute gesehen die unter 70ns mit Ryzen 1 gekommen sind.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11624207&postcount=5001

w0mbat
2018-04-21, 20:14:26
Doofe Frage: Wird es auch B450-Boards geben?
Ich fänd ja ein ASrock-Board damit für maximal 120€ ohne Schwachsinns-Phasenverteilung und mit vernünftiger LLC ganz schön.

Sollen im Juni kommen.

Der_Korken
2018-04-21, 20:14:38
Was ist für PR eigentlich besser: Hoher Speichertakt oder geringe (absolute!) Latenz? Oder anders gesagt: Sollte man lieber den Speicher hochprügeln und die Timing dafür entschärfen oder sich lieber mit z.B. 3200 zufrieden geben und dann die Timings straff ziehen?

Radeonfreak
2018-04-21, 20:15:51
Hängt halt extrem davon ab ob man bei der jetzigen Konfig gut laufenden Ram hat, ich hab hier einige Leute gesehen die unter 70ns mit Ryzen 1 gekommen sind.




Genau

https://abload.de/img/cachemem3ks4i.png

Langlay
2018-04-21, 20:28:44
Hängt halt extrem davon ab ob man bei der jetzigen Konfig gut laufenden Ram hat, ich hab hier einige Leute gesehen die unter 70ns mit Ryzen 1 gekommen sind.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11624207&postcount=5001


Ich bin ja einer der Leute aus dem Foren die das geschafft haben.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11644859&postcount=862

Und um im Bild zu bleiben. 1600X gegen 2700X ausgetauscht der Rest ist gleich, gleicher CPU Takt gleiche(r) RAM (Settings), gleiches Mainboard (allerdings späteres Bios).

So sieht das dann beim 2700X aus :

https://abload.de/img/ramzenswrm9.jpg


Beim 1600X war das allerdings schon quasi das Ende der Fahnenstange beim Ryzen+ weiss ichs noch nicht, also hier kann unter Umständen noch mehr gehen.

y33H@
2018-04-21, 20:37:16
Bei mir sieht DDR4-3466-CL14 mit optimierten Sub Timings derzeit am besten aus ... weiß nur nicht ob der 2600X das mit vier DIMMs (die Flare X) packt.

Langlay
2018-04-21, 20:49:41
Ich hab bis jetzt erstmal die Taktraten und Spannungen ausgetestet. Ich werd jetzt dann mal testen was beim RAM so drin ist.

mboeller
2018-04-21, 21:24:59
Du glaubst doch nicht ernsthaft, dass ein auf 7nm portierter Zen 40% schneller mehr Takt (also 6 Ghz :freak:) durch die Fertigung schafft. Intel hat von 32nm bis 14nm doppelplus keine 20% geschafft. Die großen Taktsteigerungen gab es in der Vergangenheit nur im Sweetspot-Bereich für mobile CPUs, aber an der Spitze bewegt sich seit Jahren fast nichts. Wenn wir 5Ghz bei Zen 2 sehen, wäre das schon überragend. Mehr Kerne ist die Richtung, in die CPUs am einfachsten wachsen können.

such mal nach "globalfounderies 7nm 5GHz"

N0Thing
2018-04-21, 21:50:35
such mal nach "globalfounderies 7nm 5GHz"

Um mal Übersetzungsfehlern vorzubeugen, hier das Interview, was die leidige Thematik losgetreten hatte: https://www.anandtech.com/show/12438/the-future-of-silicon-an-exclusive-interview-with-dr-gary-patton-cto-of-globalfoundries

Da wird als Ziel die 5GHz Marke genannt, ohne Garantie, nur als Schätzung.

Pappenheimer
2018-04-21, 22:00:25
Funktioniert der Ryzen Timing Calc auch mit den neuen?

Würde mich auch gerne an den Subtimings probieren aber keine Erfahrung damit :biggrin:

basix
2018-04-21, 23:10:50
Um mal Übersetzungsfehlern vorzubeugen, hier das Interview, was die leidige Thematik losgetreten hatte: https://www.anandtech.com/show/12438/the-future-of-silicon-an-exclusive-interview-with-dr-gary-patton-cto-of-globalfoundries

Da wird als Ziel die 5GHz Marke genannt, ohne Garantie, nur als Schätzung.

Garantie wird es nie geben. Aber sogar im offiziellen Product Brief des 7nm LP Prozesses steht "5 GHz operation". Der GloFo Typ darf ja gar nichts anderes sagen, als was offiziell angekündigt wurde. https://www.globalfoundries.com/sites/default/files/product-briefs/pb-7lp.pdf

Und hier 14nm LPP als Vergleich: ">3 GHz"
https://www.globalfoundries.com/sites/default/files/product-briefs/pb-14lpp.pdf

Ich denke, wir dürfen uns auf einen ordentlichen Taktsprung freuen. Und falls jemand selbst auf der GloFo Homepage die Prozesse anschauen / vergleichen will: https://www.globalfoundries.com/technology-solutions/cmos/performance

N0Thing
2018-04-21, 23:32:13
Garantie wird es nie geben. Aber sogar im offiziellen Product Brief des 7nm LP Prozesses steht "5 GHz operation".

Das ist aber auch weit weg von den erwähnten 6GHz und dass 5GHz vom Prozess her kein Problem sein können, sieht man schon seit geraumer Zeit an den Chips von IBM. Für den Takt kommt es eben auch immer auf das Design des Chips an und ob und in wie weit AMD in diese Richtung gehen will und / kann, wird man abwarten müssen, die Leistungsaufnahme ist ja auch nicht ganz irrelevant.

basix
2018-04-21, 23:44:37
Jo 6 GHz werden es sehr wahrscheinlich nicht werden. Ich tippe auf 5 GHz und zwar XFR 3.0 Single Core Boost. Macht sich einfach gut in Marketingfolien "up to 5.0 GHz" ;) 7nm LP soll ja +40% Takt bringen gegenüber 14nm. 5 GHz sind ausgehend von Zen 1 knapp +20% also durchaus im Bereich des Möglichen. All-Core Turbo wird dann halt stark von der Anzahl Kernen abhängen. 16C @ 4 GHz wären aber optimistisch betrachtet möglich, wenn sich die >60% Energieeinsparung relativ gut bewahrheiten sollten (2x Cores, +10% All-Core Takt ausgehend von Zen 1).

Ravenhearth
2018-04-22, 00:02:06
Klar einfach 10% vom Ergebnis abziehen.
Zen+ ändert imo nix an der Emfehlung von Zen 1 ich würde nur von Sandy Bridge oder Bulldozer auf Ryzen gehen.
Gerade auch weil der Ram immer noch Absurde Preise hat.
Ganz ehrlich, mein i5-6600k kotzt mich einfach nur noch an, weil die Frametimes mit 4 Kernen/Threads in vielen Spielen einfach unterirdisch sind. :usad:

Oranje7
2018-04-22, 00:24:31
Bei aller Euphorie für Pinnacle Ridge man aber auch mal etwas kritischer die "alte" Serie betrachten.

Augenscheinlich habe ich mit Summit Ridge dann tatsächlich einen eher fehlerhaften ersten Versuch gekauft, wenn die Performance innerhalb von 12 Monaten so deutlich gesteigert werden konnte :biggrin:

Jop, aber der alte Phenom II wollte einfach nicht mehr, deshalb Zen1.
Ein refresh Produkt war immer, egal ob CPU/GPU, besser.
Villeicht haben aber die "Daus" für den refresh gesorgt :freak:

dildo4u
2018-04-22, 01:00:13
Ganz ehrlich, mein i5-6600k kotzt mich einfach nur noch an, weil die Frametimes mit 4 Kernen/Threads in vielen Spielen einfach unterirdisch sind. :usad:
Kann sein ich hatte seit 2010 6 oder mehr Cores,Quads hab ich gar nicht mehr auf dem Schirm.

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=8170874#post8170874

Ravenhearth
2018-04-22, 01:51:11
Kann sein ich hatte seit 2010 6 oder mehr Cores,Quads hab ich gar nicht mehr auf dem Schirm.

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=8170874#post8170874

Aus dem Test von Ryzen 5 1600(X) von Digital Foundry damals:

https://i.imgur.com/NqaSd7R.jpg

Die i5 sind einfach nur am abkotzen ;D Klar, Crysis 3 ist ein Extrembeispiel, aber auch in anderen Spielen schneiden 4C/4T einfach nicht mehr sooo gut ab:

https://i.imgur.com/yQdExJp.jpg

4C/8T sind dagegen ok. Siehe auch hier: http://www.pcgameshardware.de/commoncfm/comparison/clickSwitch.cfm?id=142008

Twodee
2018-04-22, 07:08:28
Ich bin ja einer der Leute aus dem Foren die das geschafft haben.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11644859&postcount=862

Und um im Bild zu bleiben. 1600X gegen 2700X ausgetauscht der Rest ist gleich, gleicher CPU Takt gleiche(r) RAM (Settings), gleiches Mainboard (allerdings späteres Bios).

So sieht das dann beim 2700X aus :

https://abload.de/img/ramzenswrm9.jpg


Beim 1600X war das allerdings schon quasi das Ende der Fahnenstange beim Ryzen+ weiss ichs noch nicht, also hier kann unter Umständen noch mehr gehen.
Waren die subtimings händisch gesetzt oder auf automatisch?
Ein Ryzen Timing Checker Post wäre noch hilfreich für die Vergleichbarkeit.

Rancor
2018-04-22, 09:47:53
sagt mal habt ihr euch alle AIDA gekauft oder was? Das zeug kost 40€ im Abo?

dildo4u
2018-04-22, 09:51:31
Es gibt eine Testversion.Wenn das Windows neu ist hat man 30 Tage.

Man kann für den Speicherlatenz Wert auch Geekbench 4 nutzen.Das steht dort ganz unten auf der Ergebniss Seite.

TwoBeers
2018-04-22, 10:53:02
Und ansonsten gibt's ja auch noch .. Möglichkeiten .. im Internet. ;)

Blutmaul
2018-04-22, 11:12:09
Ich hab AIDA vor Jahren mal genutzt und bekomm immer noch jedes Jahr Mails mit Sonderangeboten/Konditionen.

Freestaler
2018-04-22, 13:23:07
Betreffend Leistungsaufnahme und Asus Brett: CB prüfte nach und bleiben der Meinung das alles korrekt ist mit über 250W (Gesamtsystem) beim Nachtest. Dies interessanterweise obwohl im Artikel selbst nur 210 Watt max mit Prime inkl AVX gebraucht wurde. Offensichtlich testen CB mal so mal so. https://www.computerbase.de/forum/showthread.php?t=1762879&page=34&p=21120681#post21120681

Nun wer hat nun recht? Irgendwas muss ja der Grund sein für die Differenz zwischen CB und TH DE. Bleibt spannend. Evtl kann auch mal einer hier im FOrum mit 2700X bereits nachmessen?

Breegalad
2018-04-22, 14:41:04
In der Umfrage zum Ersteindruck gibt es eine auffällige Häufung negativer Begriffe.
2x Makel, 2x stört..., noch immer nicht...
Die einzige positive Aussage steht im Konjunktiv.
Als lautete die Überschrift:
11 Gründe, sich den Ryzen auf keinen Fall zu kaufen
:confused:

Liszca
2018-04-22, 15:00:14
Kann das mal jemand ob das aktuelle Bios Update (Version 4008) auf dem Asus Prime X370-Pro tatsächlich der Patch gegen Spectre ist?

BIOS Update - asus.com (https://www.asus.com/Motherboards/PRIME-X370-PRO/HelpDesk_BIOS/)
InSpectre - computerbase.de (https://www.computerbase.de/downloads/sicherheit/antimalware/inspectre/ )

dildo4u
2018-04-22, 15:05:04
Bei mir Ryzen 1600 Asus B350 Prime 4008 Bios hab alle Win 10 Fixes installiert:

http://abload.de/img/scptreyxrf9.png


wbl2dYgjMQ4

Hübie
2018-04-22, 15:46:43
Der Typ in dem Video ist furchtbar und mir ist immer noch nicht der Unterschied zwischen dieser tiered drive und einer SSHD klar (letztere macht exakt dass, was er für tiered storage bewirbt, mit dem Unterschied dass die SSHD keine Software hat und somit unflexibel ist). Vor allem ist sein Argument immer dass alles andere "crap" ist. Warum, wieso und weshalb? Man weiß es nicht. :rolleyes:

=Floi=
2018-04-22, 16:04:56
wo kommt bei zen/zen+ die absurd hohe vcore her? liegt die wirklich an?
alles über 1,3volt war vor 10 jahren schon extrem

dildo4u
2018-04-22, 16:06:34
Der Typ in dem Video ist furchtbar und mir ist immer noch nicht der Unterschied zwischen dieser tiered drive und einer SSHD klar (letztere macht exakt dass, was er für tiered storage bewirbt, mit dem Unterschied dass die SSHD keine Software hat und somit unflexibel ist). Vor allem ist sein Argument immer dass alles andere "crap" ist. Warum, wieso und weshalb? Man weiß es nicht. :rolleyes:

Ihm sind die Caches bei SSHD zu klein,daher kackt er auch auf die kleinen Optane Modelle.
Games wie Forza 7 oder Gears 4 sind bei 100GB und dann willste halt noch zumindest das OS im schnellen Speicher haben,ich würde auch 256 GB als Minimum für den SSD Teil ansetzen.

Lehdro
2018-04-22, 16:44:13
wo kommt bei zen/zen+ die absurd hohe vcore her? liegt die wirklich an?
Ja die liegt echt an. Und ja die saufen trotzdem nicht besonders viel Strom, siehe das non X Modell. Trotz 8 Kernen und "absurd" hoher Vcore...

alles über 1,3volt war vor 10 jahren schon extrem
Jetzt übertreibst du aber. Bei AMD war seit dem Athlon 64 X2 1,4V Standard (das war vor rund 10 Jahren...), Phenom I hatte 1,30V, Phenom II 1,35-1,4V, Bulldozer/Vishera 1,25V, Centurion sogar 1,45V. Zen 1 eiert bei ca. 1,35V rum.

Bei Intel dümpelt halt alles um die 1,25V rum seit weit über 10 Jahren - sehe da jetzt nix besonders dran. Der 8700k legt ja stock auch bis knapp 1,30V an.

5CH4CHT3L
2018-04-22, 17:00:56
Ihm sind die Caches bei SSHD zu klein,daher kackt er auch auf die kleinen Optane Modelle.
Games wie Forza 7 oder Gears 4 sind bei 100GB und dann willste halt noch zumindest das OS im schnellen Speicher haben,ich würde auch 256 GB als Minimum für den SSD Teil ansetzen.
Wobei man aber auch sagen muss das oft gespielte Games sicher nicht komplett auf dem schnellen Speicher landen.
Viele Assets bleiben trotzdem ungenutzt z.B. für selten gespielte Maps / betretene Regionen.
Das könnte den benötigten Speicher auf der SSD / M.2 schon auf 50% drücken.
Trotzdem stimme ich dir voll und ganz zu, 32GB sind einfach zu wenig um viel mehr als das OS zu scheichern. Vorallem bei aktuellen Preisen, wo eine 240/256 GB M.2 bei "nur" 100€ liegt.
Auf jeden Fall ein sehr interessantes Feature.
Da ich derzeit eh mit einem Schrott-AM4-Mainboard geplagt bin werde ich vielleicht das Mainboard auf X470 upgraden und das nutzen.

Langlay
2018-04-22, 17:18:05
Waren die subtimings händisch gesetzt oder auf automatisch?
Ein Ryzen Timing Checker Post wäre noch hilfreich für die Vergleichbarkeit.

Es war das DDR3333 The Stilt fast Profil für B-Dies. Ryzen Timing Checker könnte ich auch nur noch für den 2700X nachreichen umd den 1600X wieder einzubauen müsste ich nochmal das Wasser ablassen usw das wäre mir dann zuviel Aufwand.

sagt mal habt ihr euch alle AIDA gekauft oder was? Das zeug kost 40€ im Abo?

Ich hab mich tatsächlich eingekauft, ich nutze das Tool allerdings auch recht gerne. Und wenn ich was gerne und oft nutze dann zahl da auch mal ein paar Taler.

Hübie
2018-04-22, 17:38:30
Ihm sind die Caches bei SSHD zu klein,daher kackt er auch auf die kleinen Optane Modelle.
Games wie Forza 7 oder Gears 4 sind bei 100GB und dann willste halt noch zumindest das OS im schnellen Speicher haben,ich würde auch 256 GB als Minimum für den SSD Teil ansetzen.

Es wird auch nicht ein komplettes Spiel in den Cache geladen, sondern immer die Dateien, welche vermehrte Lesezugriffe verzeichnen. Ist immer dann schlecht, wenn ein Spiel wenige, große Dateien hat. Ich nutze eine 2 TB SSHD als Datengrab und sehe hier einen ziemlichen Vorteil beim Laden von Thumbnails. Tests belegen auch einen Anstieg der Leistung und verkürzte Zugriffszeiten. Da jetzt einfach "crap" zu sagen ist doch quatsch. Man sollte das zumindest argumentativ untermauern. :rolleyes:

Der_Korken
2018-04-22, 17:39:39
Ich habe mich gerade folgendes gefragt:
1. Ist es eigentlich immer noch so, dass Ryzen weniger RAM-Takt schafft, wenn vier statt zwei Riegel benutzt werden?
2. Dual rank Speicher führt bei gleichem Takt oft zu mehr Leistung als single rank, dafür kann man ersteren aber auch nicht so hoch takten. Verhalten sich zwei dual rank Module so wie vier single rank Module? Oder ist das was komplett anderes?

Lehdro
2018-04-22, 18:08:53
Ich habe mich gerade folgendes gefragt:
1. Ist es eigentlich immer noch so, dass Ryzen weniger RAM-Takt schafft, wenn vier statt zwei Riegel benutzt werden?
Da betrifft jede Plattform. Maximale Bestückung = weniger Toleranz. Denke also das sollte hier auch so sein. In welchem Maße genau? Keine Ahnung, wird die Zeit zeigen.

2. Dual rank Speicher führt bei gleichem Takt oft zu mehr Leistung als single rank, dafür kann man ersteren aber auch nicht so hoch takten. Verhalten sich zwei dual rank Module so wie vier single rank Module? Oder ist das was komplett anderes?
4 SR = 2 DR, ja. Allerdings sind meist 2 DR höher zu takten als eine Vollbestückung.
Der größte Performanceunterschied von DR zu SR sind aber meist die Subtimings, eine genaue Analyse hat aber soweit ich weiß noch niemand gemacht. Subtimings werden eigentlich nur in Foren als wirkliche Werte "gehandelt", ein richtiges Review dazu auf verschiedenen Riegeln habe ich noch nie gesehen. Da wird meist einfach stumpf DR gegen SR gestellt, obwohl die Timings massiv unterschiedlich sind.

chaospanda
2018-04-22, 18:16:04
Ich habe mich gerade folgendes gefragt:
1. Ist es eigentlich immer noch so, dass Ryzen weniger RAM-Takt schafft, wenn vier statt zwei Riegel benutzt werden?

Ich meine gelesen zu haben, dass bei Vollbestückung der "offizielle" Takt reduziert ist. Ich finde es gerade nur leider nicht. Weshalb ich leider nicht schauen kann, ob es was allgemeines oder speziell ein Board-Hersteller war. :(

Schnoesel
2018-04-22, 18:29:30
Bei CB hats einer von Asrock fürs Taichi gepostet:

https://www.computerbase.de/forum/showthread.php?t=1763456&p=21124590#post21124590

http://www.asrock.com/mb/AMD/X470%20Taichi/#Specification

Da stehen die Frequenzen bei unterschiedlicher Bestückung.

mczak
2018-04-22, 19:00:25
Ja die liegt echt an. Und ja die saufen trotzdem nicht besonders viel Strom, siehe das non X Modell. Trotz 8 Kernen und "absurd" hoher Vcore...

Naja also beim 2700 non-X liegen nicht wirklich 1.3V an bei Last auf allen Kernen. Der kommt da noch höchstens auf 3.5Ghz, da sind's dann effektiv auch bloss ~1.1V, LDOs sei dank.
Selbstverständlich ist die absurd hohe Vcore schuld daran dass ein einzelner Kern locker über 20W verbraten kann.
So viel tiefer liegt intel im Uebrigen auch nicht - der i7-8700k geht auch Richtung 1.3V, halt erst bei 4.7Ghz statt schon bei 4Ghz...
Und ja, die Spannungen sind nicht mehr gross runtergegangen seid 10 Jahren - früher wars ja so dass immer mit kleineren Strukturen die Spannungen deutlich gesunken sind, das ist aber lange her...

Igor TH
2018-04-22, 19:05:58
Nun wer hat nun recht? Irgendwas muss ja der Grund sein für die Differenz zwischen CB und TH DE. Bleibt spannend. Evtl kann auch mal einer hier im FOrum mit 2700X bereits nachmessen?Auch wenn man den Enhancer deaktiviert, muss man auf dem Asus-Dings noch die richtige Load Line setzen. Sonst kann man sich dummbenchen und es wird nicht weniger. Ich habe mit Wakü gemessen und auch die technischen Backgrounds zu SenseMI mit erfasst. Solange thermischer Spielraum bleibt, wird auch schon mal gnadenlos übervoltet. Es sei denn, das Board macht, was es soll(te). Soweit ich aus internen Diskussionen weiß, hat Anand nun mit richtig eingestelltem Brettchen und ordentlicher Kühlung auch ungefähr meine Werte. Und Messungen an der Wand fürs Gesamtsystem sind nichts, was ich für belastbar halte. Zu viele störende Faktoren. Meine Werte decken sich mit denen des MSI- und GB-R&D, mehr brauche ich nicht.

robbitop
2018-04-22, 19:07:52
Es wird auch nicht ein komplettes Spiel in den Cache geladen, sondern immer die Dateien, welche vermehrte Lesezugriffe verzeichnen. Ist immer dann schlecht, wenn ein Spiel wenige, große Dateien hat. Ich nutze eine 2 TB SSHD als Datengrab und sehe hier einen ziemlichen Vorteil beim Laden von Thumbnails. Tests belegen auch einen Anstieg der Leistung und verkürzte Zugriffszeiten. Da jetzt einfach "crap" zu sagen ist doch quatsch. Man sollte das zumindest argumentativ untermauern. :rolleyes:
SSHD: HDD+SSD Read Cache

- nur Beschleunigung für Lesen
- kleiner Cache
- SATA Schnittstelle
- SSD zählt kapazitativ nicht zur Partition dazu
- nicht erweiterbar
- reine Cachelösung

Enmotus:

- Beschleunigung für Lesen und Schreiben
- mehrere Tiers möglich zB.:
- Optane + SSD oder M2 SSD + SATA SSD oder SSD + HDD
- Array ist beliebig um beide Tiers erweiterbar (mehr Tier 1 Speicher und mehr Tier 2 Speicher)
- Arraykapazität = Kapazität Tier 1 und 2
- zusätzlich noch RAM als Cache für Lese- und Schreibzugriffe (letzteres sicherlich aus Integritätsgründen optional und nur mit UPS zu empfehlen)


Ist IMO ein himmelweiter Unterschied und deutlich mächtiger/vielfältiger.

Hübie
2018-04-22, 19:12:41
Wenn der das im Video so prägnant gesagt hätte wäre es hier angekommen. :D Mir war nur das mit der Flexibilität klar. Danke also.

Freestaler
2018-04-22, 20:23:45
Auch wenn man den Enhancer deaktiviert, muss man auf dem Asus-Dings noch die richtige Load Line setzen. Sonst kann man sich dummbenchen und es wird nicht weniger. Ich habe mit Wakü gemessen und auch die technischen Backgrounds zu SenseMI mit erfasst. Solange thermischer Spielraum bleibt, wird auch schon mal gnadenlos übervoltet. Es sei denn, das Board macht, was es soll(te). Soweit ich aus internen Diskussionen weiß, hat Anand nun mit richtig eingestelltem Brettchen und ordentlicher Kühlung auch ungefähr meine Werte. Und Messungen an der Wand fürs Gesamtsystem sind nichts, was ich für belastbar halte. Zu viele störende Faktoren. Meine Werte decken sich mit denen des MSI- und GB-R&D, mehr brauche ich nicht.

Danke fürs Feedback. Ich will auf keine Fall Reviewer gegenseitig anstacheln. Ich finde es nur spannend wo die Reise mit den neunen "Turbo" und einmal mehr mit der Interpretation der TDP hingeht. Für uns User wäre halt ein Bericht, wie man Ryzen 2000 "richtig" konfiguriert interessant. Wenn so die fast 50% Extra Verlust gespart werden können , ist das meiner Meinung nach ein Bericht wert. Evtl. auch Review zu Boards. Den endlich neben der RGB LED Anzahl mal wieder ein wesentlicher Unterschied.

chaospanda
2018-04-22, 21:34:03
Ich habe mich gerade folgendes gefragt:
1. Ist es eigentlich immer noch so, dass Ryzen weniger RAM-Takt schafft, wenn vier statt zwei Riegel benutzt werden?

Da betrifft jede Plattform. Maximale Bestückung = weniger Toleranz. Denke also das sollte hier auch so sein. In welchem Maße genau? Keine Ahnung, wird die Zeit zeigen.
Ich meine gelesen zu haben, dass bei Vollbestückung der "offizielle" Takt reduziert ist. Ich finde es gerade nur leider nicht.
Ha, gefunden:
http://www.pcgameshardware.de/Ryzen-7-2700X-CPU-267374/Tests/vs-8700K-Ryzen-5-2600X-Review-Benchmark-Release-Preis-1254720/
bzw.
http://www.pcgameshardware.de/Ryzen-7-2700X-CPU-267374/Tests/vs-8700K-Ryzen-5-2600X-Review-Benchmark-Release-Preis-1254720/galerie/2869623/

Daredevil
2018-04-22, 22:03:00
Naja also beim 2700 non-X liegen nicht wirklich 1.3V an bei Last auf allen Kernen. Der kommt da noch höchstens auf 3.5Ghz, da sind's dann effektiv auch bloss ~1.1V, LDOs sei dank.
Selbstverständlich ist die absurd hohe Vcore schuld daran dass ein einzelner Kern locker über 20W verbraten kann.
So viel tiefer liegt intel im Uebrigen auch nicht - der i7-8700k geht auch Richtung 1.3V, halt erst bei 4.7Ghz statt schon bei 4Ghz...
Und ja, die Spannungen sind nicht mehr gross runtergegangen seid 10 Jahren - früher wars ja so dass immer mit kleineren Strukturen die Spannungen deutlich gesunken sind, das ist aber lange her...
Es kommt ja auch drauf an, wo welche Last anliegt.
Die hohen Volt Frequenzen werden doch bestimmt nicht für den Allcore gebraucht, sondern für den viel schnelleren Single/DualCore Boost.

Mein Hexacore läuft bei 1.3v AllCore bei 4Ghz und alles ist supi.
Wenn ich allerdings SingleCore bis 4.8Ghz hochboosten lasse, muss ich das ganze mit 1.6v laufen lassen, aber AllCore heizt es dann zu sehr.

Der_Korken
2018-04-22, 23:17:54
Ha, gefunden:
http://www.pcgameshardware.de/Ryzen-7-2700X-CPU-267374/Tests/vs-8700K-Ryzen-5-2600X-Review-Benchmark-Release-Preis-1254720/
bzw.
http://www.pcgameshardware.de/Ryzen-7-2700X-CPU-267374/Tests/vs-8700K-Ryzen-5-2600X-Review-Benchmark-Release-Preis-1254720/galerie/2869623/

Danke, so eine Übersicht hatte ich bisher übersehen. Sieht ja noch extremer als Ryzen 1 aus, 800Mhz weniger Takt von 2xSR auf 4xSR. Gut, das ist jetzt nur die offizielle Spezifikation, aber wenn das in der Praxis auch so viel kostet, kann man 4 RAM-Riegel quasi vergessen.

Ich hatte mir überlegt mit 2x8GB einzusteigen und sobald die Preise wieder Normalzustand angenommen haben, einfach noch 2x16 nachzurüsten. Letzteres kostet momentan mit B-Die RAM 30% mehr als die CPU, was ich absolut nicht einsehe zu bezahlen. Und 1x16 im single channel dürfte auch eine Schnapsidee sein.

Freestaler
2018-04-22, 23:43:56
Danke, so eine Übersicht hatte ich bisher übersehen. Sieht ja noch extremer als Ryzen 1 aus, 800Mhz weniger Takt von 2xSR auf 4xSR. Gut, das ist jetzt nur die offizielle Spezifikation, aber wenn das in der Praxis auch so viel kostet, kann man 4 RAM-Riegel quasi vergessen.

Ich hatte mir überlegt mit 2x8GB einzusteigen und sobald die Preise wieder Normalzustand angenommen haben, einfach noch 2x16 nachzurüsten. Letzteres kostet momentan mit B-Die RAM 30% mehr als die CPU, was ich absolut nicht einsehe zu bezahlen. Und 1x16 im single channel dürfte auch eine Schnapsidee sein.

Wartet doch kurz, "einige" haben Ryzen 1 ja 4x 3200 8GB SR CL14 mit Samsung B Die hingekriegt. Min. das sollte ja auch wieder gehen. Inoffiziell natürlich ;-)

Arat
2018-04-23, 08:31:05
Bezüglich StoreMI gibt es bei AMD auch ein gute FAQ (https://www.amd.com/system/files/2018-04/AMD-StoreMI-FAQ.pdf).

Was ich leider noch nicht gefunden habe, ist ein guter unabhängiger Test dazu. Insbesondere zu Datenintegrität.
NVMe-SSDs lohnen sich selten und in der Regel nur bei Übertragung großer Datenmengen. Hier wäre es interessant zu wissen, ob bei gleichen Anwendungsfällen ein Verbund aus NVMe-SSD und HDD-Datengrab einen Vorteil gegenüber SATA-SSD mit HDD hat.

Pappenheimer
2018-04-23, 08:34:41
Kann mir jemand einen Tipp geben?
Und zwar habe ich ein Leistungsmesser am PC angeschlossen und bin nun etwas irritiert.

Lasse beim spielen das Overlay anzeigen und bei meiner GPU Vega 64 wird max.210 Watt angezeigt. Nun zeigt aber mein Messgerät beim zocken fast 600 und manchmal über 600 Watt an. Wo kommt das her? Das kann doch nicht alles vom Ryzen 2700X, Soundkarte, Speicher und 3 Laufwerken kommen? Habe ich ein Denkfehler?

Edit: Netzteil be quiet 650 Watt

dildo4u
2018-04-23, 08:43:16
Vega 64 zeigt im Overlay nur der Verbrauch der GPU an,der HBM 2 Speicher fehlt dort.
Vega liegt eigentlich um 300 Watt unter Gameing in hoher Auflösung Last.

https://www.tomshardware.com/reviews/amd-radeon-rx-vega-64,5173-17.html

Dann hat das Netzteil noch Verluste und das Board könnte der CPU zu viel Spannung geben.
Teste mal was das System zieht wenn du nur Prime 95 laufen hast.

N0Thing
2018-04-23, 08:54:46
Du musst die Effizienz deines Netzteil mit bedenken und miss direkt am PC und nicht an der Steckerleiste, das verändert bei mir die Werte deutlich.

gnomi
2018-04-23, 08:55:02
Die CPU ist ja mal ein deutlicher Fortschritt gegenüber letztem Jahr. :up:
Vor allem die höheren Speichertakte OOTB finde ich auch sehr gut.
Preis/Leistung ist wirklich vorbildlich.
Die Boards haben aktuelle Features, und man bekommt auch einen brauchbaren Lüfter dabei.
Alte Boards für Sidegrades gehen ebenso.
Echt eine runde Sache.

Persönlich werde ich trotzdem jetzt noch nicht kaufen.
(es sei denn, der Basteldrang schlägt zu, oder mein Board mit dem 2600k OC drauf gibt den Geist auf)
Intel und AMD "bekämpfen" sich gerade so schön, und wenn man jetzt noch etwas abwartet, lohnt es sich vermutlich am meisten. :wink: (am liebsten halt doch Intel 8 Core mit Minimum 4,5 GHZ OC und 32 GB Vollbestückung > 4000 Mhz Speicher)

Matrix316
2018-04-23, 09:02:54
Die Frage ist nicht ob es sich lohnt, sondern eher ob es sich noch lohnt zu warten. ;)

Aber wer noch DDR3 Speicher hat, ist eh zu spät dran. Da hätte man vor einem Jahr schon upgraden müssen. So muss man jetzt immer den RAM mit einberechnen.

Ganz ehrlich, von meinen CPU Upgrades haben sich bestimmt 95% nicht gelohnt. Aber trotzdem ist mein Rechner weit weit schneller als noch vor 15 Jahren. Ich habe aber nie mehr als 1000 Euro (eher weniger - bis auf das allererste 1998, aber da war es notwendig ;)) für ein Upgrade ausgegeben. Letztes Jahr wars das teuerste wegen DDR4 RAM und neuer M.2 SSD. Ansonsten hab ich vorher fast nur Mainboard, CPU und Kühler mal getauscht. (Und natürlich Grafikkarten, aber nicht immer mit der CPU, sondern die lief eher nebenher).

IMO lohnen sich schrittweise Upgrades mehr als wenn man wartet, dass das aktuelle System für alles zu langsam oder inkompatibel ist. Dann kostet das Upgrade viel mehr, weil man viel mehr Komponenten austauschen muss. Vielleicht sind 4x500 € genauso viel wie 1x2000 aber es sieht auf dem Konto besser aus, wenn nicht zu viel auf einmal weggeht. *g*;) Außerdem hat man so immer einen halbwegs aktuellen PC.

SKYNET
2018-04-23, 09:11:20
Kann mir jemand einen Tipp geben?
Und zwar habe ich ein Leistungsmesser am PC angeschlossen und bin nun etwas irritiert.

Lasse beim spielen das Overlay anzeigen und bei meiner GPU Vega 64 wird max.210 Watt angezeigt. Nun zeigt aber mein Messgerät beim zocken fast 600 und manchmal über 600 Watt an. Wo kommt das her? Das kann doch nicht alles vom Ryzen 2700X, Soundkarte, Speicher und 3 Laufwerken kommen? Habe ich ein Denkfehler?

Edit: Netzteil be quiet 650 Watt

netzteil 10-15% verlust = 65-98W verpuffen schonmal im nichts.

bleiben also ca. 500-530W für CPU, mobo, graka, speicher, soundkarte und laufwerke & platten... garnicht soviel, für nen system mit vega64 eh? :wink:

gnomi
2018-04-23, 09:47:26
Die Frage ist nicht ob es sich lohnt, sondern eher ob es sich noch lohnt zu warten. ;)

Aber wer noch DDR3 Speicher hat, ist eh zu spät dran. Da hätte man vor einem Jahr schon upgraden müssen. So muss man jetzt immer den RAM mit einberechnen.

Ganz ehrlich, von meinen CPU Upgrades haben sich bestimmt 95% nicht gelohnt. Aber trotzdem ist mein Rechner weit weit schneller als noch vor 15 Jahren. Ich habe aber nie mehr als 1000 Euro (eher weniger - bis auf das allererste 1998, aber da war es notwendig ;)) für ein Upgrade ausgegeben. Letztes Jahr wars das teuerste wegen DDR4 RAM und neuer M.2 SSD. Ansonsten hab ich vorher fast nur Mainboard, CPU und Kühler mal getauscht. (Und natürlich Grafikkarten, aber nicht immer mit der CPU, sondern die lief eher nebenher).

IMO lohnen sich schrittweise Upgrades mehr als wenn man wartet, dass das aktuelle System für alles zu langsam oder inkompatibel ist. Dann kostet das Upgrade viel mehr, weil man viel mehr Komponenten austauschen muss. Vielleicht sind 4x500 € genauso viel wie 1x2000 aber es sieht auf dem Konto besser aus, wenn nicht zu viel auf einmal weggeht. *g*;) Außerdem hat man so immer einen halbwegs aktuellen PC.

Die CPU Fortschritte in den letzten Jahren waren gefühlt doch ein Witz.
Die Sandy Bridge Plattform hat AFAIR keine 600 Euro gekostet.
Also ähnlich super wie Ryzen 2 oder billiger als eine High End GPU jetzt. Da hat Intel mal richtig was spendiert. ;)
Dann noch den 8GB 1333 Ram passend ausgetauscht auf 16 GB 2133. (das war auch günstiger als heute plus doppelte Menge und Timings mit CL 9 1 T am Limit)
Es entstanden insgesamt imo kaum Kosten, und das System verlor erst mit den Generationen merklich an Leistung.
AMD ist erst seit Ryzen konkurrenzfähig. Aber letztes Jahr gab es schon noch ein paar kleinere Baustellen, und auch jetzt ist das nicht unbedingt High End in dem Gamer Segment. Intel wird auf jeden Fall wie schon mit 8700 kontern, und muss auch mit 8 Core imho dann deutlich unter 450 Euro kommen.
DDR 4 Speicher kann auch kaum noch teurer werden. Da nehmen die Firmen aktuell eben alles mit. (schlimmstenfalls bekommt man mehr Taktrate, was auch absolut notwendig ist, um einen schönen Sprung hinzulegen!)
M2 kauft man dann natürlich gleich mit, aber die Revolution kam schon mit den ersten SSD's. (Intel X 25 Serie, das war bereits vor Sandy Bridge noch mit 3GBit SATA) Ebenso reichen USB 3, SATA 6Gbit oder selbst PCIE 2.0 auf dem Uralt Board noch locker aus.
Jeder, wie er mag, aber bei der CPU lohnt sich auch wegen dem Aufwand, den gesamten Unterbau zu wechseln, ein Wechsel viel, viel weniger als bei der GPU.
Ich freue mich bald schon, dass eine aktuelle CPU bei Multicore langsam mehr rausholt und Spiele Einstelloptionen über PS4 Pro/Xbox One X Niveau bietet. Sonst ginge es ja gar nicht weiter. :wink:

Pappenheimer
2018-04-23, 09:52:56
Hmm wenn ich CPU-Z Benchmark laufen lasse zeigt mir das Gerät auch schon 310 Watt an. In Prime soll der 2700X Max.210 Watt verbrauchen. In 2 getesteten Spielen beträgt die CPU-Auslastung Max. 15%. Wo sollen da bitte 200 Watt von der CPU herkommen. Das Messgerät steckt in einer Steckdosenleiste wo der Netzstecker vom PC eingesteckt wird. Soll ich das an einer Einzeldose nochmals testen?

Bei Tests auf diversen Seiten mit Standardeinstellungen zieht eine Vega64 285 Watt. Ein 2700X beim zocken höchstens 100 Watt oder nicht?

Im Leerlauf zeigt das Gerät auch schon 130 Watt an.

y33H@
2018-04-23, 09:58:46
Grade gesehen, Anandtech hatte zuerst ohne "Core Performance Boost" beim Asus X470 getestet, weshalb der Precision Boost 2 dann aus war ... dabei hieß die Funktion beim X370 schon so :usad: und dann noch bei Rocket League mal gepflegt alte und neue Werte und unterschiedliche Patch-Level mischen ... da hat das Lab-Team echt Mist gebaut, Ian muss das nun ausbaden ;(

dildo4u
2018-04-23, 10:12:27
Hmm wenn ich CPU-Z Benchmark laufen lasse zeigt mir das Gerät auch schon 310 Watt an. In Prime soll der 2700X Max.210 Watt verbrauchen. In 2 getesteten Spielen beträgt die CPU-Auslastung Max. 15%. Wo sollen da bitte 200 Watt von der CPU herkommen. Das Messgerät steckt in einer Steckdosenleiste wo der Netzstecker vom PC eingesteckt wird. Soll ich das an einer Einzeldose nochmals testen?

Bei Tests auf diversen Seiten mit Standardeinstellungen zieht eine Vega64 285 Watt. Ein 2700X beim zocken höchstens 100 Watt oder nicht?

Im Leerlauf zeigt das Gerät auch schon 130 Watt an.
Der idle Wert ist viel zu viel,was zeigt denn Hardware Info an?Vermutlich gibt das Board massig SOC und CPU Spannung damit der Ram Stabil ist.
Der komplette CPU SOC sollte im idle um 20 Watt liegen.

Mangel76
2018-04-23, 10:32:27
Hmm wenn ich CPU-Z Benchmark laufen lasse zeigt mir das Gerät auch schon 310 Watt an. In Prime soll der 2700X Max.210 Watt verbrauchen. In 2 getesteten Spielen beträgt die CPU-Auslastung Max. 15%. Wo sollen da bitte 200 Watt von der CPU herkommen. Das Messgerät steckt in einer Steckdosenleiste wo der Netzstecker vom PC eingesteckt wird. Soll ich das an einer Einzeldose nochmals testen?

Bei Tests auf diversen Seiten mit Standardeinstellungen zieht eine Vega64 285 Watt. Ein 2700X beim zocken höchstens 100 Watt oder nicht?

Im Leerlauf zeigt das Gerät auch schon 130 Watt an.

Mal ne blöde Frage: hast du dein Messgerät resetted? Ich habe auch so ein 08/15-Steckdosenmessgerät, welches nach dem Anschalten des PCs erstmal ziemlich hohe Werte anzeigt. Dann muss ich einmal den Reset-Knopf drücken und dann kommen auch sinnvolle Messwerte raus.

Pappenheimer
2018-04-23, 10:39:46
Der idle Wert ist viel zu viel,was zeigt denn Hardware Info an?Vermutlich gibt das Board massig SOC und CPU Spannung damit der Ram Stabil ist.
Der komplette CPU SOC sollte im idle um 20 Watt liegen.

Bin noch auf Arbeit aber soweit ich noch weiß ca. Richtung 30 Watt und Graka 8 oder 9 Watt. Muss das Messgerät mal an meiner Stehlampe testen.

Freestaler
2018-04-23, 10:42:04
Grade gesehen, Anandtech hatte zuerst ohne "Core Performance Boost" beim Asus X470 getestet, weshalb der Precision Boost 2 dann aus war ... dabei hieß die Funktion beim X370 schon so :usad: und dann noch bei Rocket League mal gepflegt alte und neue Werte und unterschiedliche Patch-Level mischen ... da hat das Lab-Team echt Mist gebaut, Ian muss das nun ausbaden ;(

Kann mir das einer übersetzen? Anandtech Gaming Benchmark stehen ja in der Kritik, weil da die Ryzen 18% schneller sein soll als ein 8700k (entgegen den meisten anderen Test, 1-3% langsamer als ein 8700K). Wurde nun der 2700X durch das deaktivieren der "Core Performance Boost" schneller? Was übersehe ich da? Das mixne de rPatchlevel is tnatuerlich auch nicht gut (erklärt jedoch nicht alle benchresultate aller gemes)

dildo4u
2018-04-23, 10:42:18
30 Watt wäre ok da du ein extremen Ramtakt hast.


8sqs5aRBzCk

Pappenheimer
2018-04-23, 10:43:19
Mal ne blöde Frage: hast du dein Messgerät resetted? Ich habe auch so ein 08/15-Steckdosenmessgerät, welches nach dem Anschalten des PCs erstmal ziemlich hohe Werte anzeigt. Dann muss ich einmal den Reset-Knopf drücken und dann kommen auch sinnvolle Messwerte raus.

Keine Ahnung ob das Ding ein Reset hat.
Bin auch gar nicht auf die Idee gekommen.
Wenn der PC aus ist steht der bei 0,1 Watt. Mal schauen wenn ich zuhause bin.

Daredevil
2018-04-23, 10:46:57
Mal ne noch blödere Frage, hast du den Blockchain Treiber drauf für die Vega?
Weil 130w ist viel zu viel, soviel hatte ich mit meinem alten Prozessor und drei Grafikkarten im Idle. ^^

Pappenheimer
2018-04-23, 10:53:49
Mal ne noch blödere Frage, hast du den Blockchain Treiber drauf für die Vega?
Weil 130w ist viel zu viel, soviel hatte ich mit meinem alten Prozessor und drei Grafikkarten im Idle. ^^

Nein habe ich nicht und die Vega ist auch im Leerlauf. Liegt wohl dann doch am Messgerät. Hmmm.

y33H@
2018-04-23, 11:23:36
Ryzen Gen1 wird auf den bereits gepatcht ausgelieferten X470 nicht vom Patch gefixt! Die kann schon mal keiner gepatcht gemessen haben. AMD hat mir das noch einmal persönlich bestätigt, dass der Patch auf den X470 nur bei Ryzen 2000 greift. Das ist zumindest beim Asus Crosshair VII falsch: habe den 1800X und den 1600X drin gehabt und Microcode gegen Spectre v2 ist jeweils drauf gewesen.

Rancor
2018-04-23, 11:34:04
Wie sieht der Support für Hynix DS Ram bei PR aus? Hat das jetzt schon jemand getestet oder hat einen Testartikel irgendwo gefunden? Alle bisherigen Test sind afaik mit Samung B-Die Kits durchgeführt worden.

Matrix316
2018-04-23, 11:49:52
Die CPU Fortschritte in den letzten Jahren waren gefühlt doch ein Witz.
Die Sandy Bridge Plattform hat AFAIR keine 600 Euro gekostet.
Also ähnlich super wie Ryzen 2 oder billiger als eine High End GPU jetzt. Da hat Intel mal richtig was spendiert. ;)
Dann noch den 8GB 1333 Ram passend ausgetauscht auf 16 GB 2133. (das war auch günstiger als heute plus doppelte Menge und Timings mit CL 9 1 T am Limit)
Es entstanden insgesamt imo kaum Kosten, und das System verlor erst mit den Generationen merklich an Leistung.
AMD ist erst seit Ryzen konkurrenzfähig. Aber letztes Jahr gab es schon noch ein paar kleinere Baustellen, und auch jetzt ist das nicht unbedingt High End in dem Gamer Segment. Intel wird auf jeden Fall wie schon mit 8700 kontern, und muss auch mit 8 Core imho dann deutlich unter 450 Euro kommen.
DDR 4 Speicher kann auch kaum noch teurer werden. Da nehmen die Firmen aktuell eben alles mit. (schlimmstenfalls bekommt man mehr Taktrate, was auch absolut notwendig ist, um einen schönen Sprung hinzulegen!)
M2 kauft man dann natürlich gleich mit, aber die Revolution kam schon mit den ersten SSD's. (Intel X 25 Serie, das war bereits vor Sandy Bridge noch mit 3GBit SATA) Ebenso reichen USB 3, SATA 6Gbit oder selbst PCIE 2.0 auf dem Uralt Board noch locker aus.
Jeder, wie er mag, aber bei der CPU lohnt sich auch wegen dem Aufwand, den gesamten Unterbau zu wechseln, ein Wechsel viel, viel weniger als bei der GPU.
Ich freue mich bald schon, dass eine aktuelle CPU bei Multicore langsam mehr rausholt und Spiele Einstelloptionen über PS4 Pro/Xbox One X Niveau bietet. Sonst ginge es ja gar nicht weiter. :wink:


Naja gut, aber siehs mal so: ich musste jetzt nur 320 Euro ausgeben für den 2700X - und für den 1700X gibt's bestimmt auch noch ein paar Cent. Alte CPU raus, neue CPU rein und der Rechner ist aufgerüstet.

Du brauchst jetzt Mainboard, Speicher, vielleicht noch CPU Kühler extra dazu, wenn du noch Sandy Bridge hast. Und du kriegst jetzt auch weniger für das Alte Zeug.

Selbst für einen Wechsel auf Coffee Lake oder Skylake X oder Threadripper, reicht ein neues Board, CPU und vlt. ein neuer Kühler für TR4.

EDIT: Und CPU aufrüsten ist ja nicht nur CPU aufrüsten. Man hilft ja auch der Grafikkarte mit auf die Sprünge. Beispiel: Wenn du bei einem 2600K bleibst, reicht der für sich genommen aus. Allerdings, selbst wenn du eine 1080TI einsetzt, verschenkst du dabei Leistung, die du mit einer schnelleren CPU dazu bekommen würdest. Ein System muss immer im harmonischen Einklang sein. ;);)

Screemer
2018-04-23, 11:58:13
Ich steige jetzt von nem 8 Threads Sandy auf ryzen+ um. Die Plattform werde ich wohl das genau so lang mit mir rumfragen wie den 2600k. Übrigens hab ich genau so wie gnomi ea beschreibt, bei etwa der halben Nutzungszeit von ddr3-1333 auf 2133 upgegradet. Das war damals mit kaum einem Aufpreis verbunden. Beim Plattformwechsel hab ich nun das Glück letztes Jahr im Februar 32gb ddr4 3200 b-die für Schlappe 180€ ergattert zu haben. Die lagen jetzt für fast 1,5 Jahre in der Schublade und sind teurer geworden wie guter wein ;) mich kostet der Plattformwechsel jetzt etwa genau so viel wie damals der Umstieg vom c2d auf Sandy.

dildo4u
2018-04-23, 12:03:19
Wie sieht der Support für Hynix DS Ram bei PR aus? Hat das jetzt schon jemand getestet oder hat einen Testartikel irgendwo gefunden? Alle bisherigen Test sind afaik mit Samung B-Die Kits durchgeführt worden.
Nein die ausgelieferten Kits waren Sniper X die kommen von Hynix.

Der DDR4 3200 ist z.b CL 16.

https://www.gskill.com/en/press/view/g-skill-announces-new-specifications-for-amd-ryzen™-2000-series-processors-and-x470-platform

Das ist das Pressekit:

https://youtu.be/kNY5IqIIIg4?t=3m6s

Igor TH
2018-04-23, 14:27:05
Das ist zumindest beim Asus Crosshair VII falsch: habe den 1800X und den 1600X drin gehabt und Microcode gegen Spectre v2 ist jeweils drauf gewesen.Woran machst Du das fest?

Laut eines Insiders hat AMD zwar auch den Microcode für Ryzen Gen 1 fertig, aber die zum Launch fertige X470 Implementation würde bei Gen 1 nicht greifen sondern ihn komplett ignorieren. Das kam von MSI und Gigabyte, die die Source von AMD intern getestet hatten. Die können natürlich auch falsch liegen, nur würde mich es schon wundern, dass die BS erzählen. Mit Resultaten irgendwelcher Testsoftware wäre ich da eher vorsichtig.

y33H@
2018-04-23, 15:00:06
InSpectre und Windows 10 via Powershell lesen beide aus, dass alle Fixes per Microcode und Patch implementiert sind ... kann freilich auch BS sein, aber mehr habe ich grade nicht zur Hand.

Pappenheimer
2018-04-23, 17:29:34
Zur Diskussion zwecks meiner Verbrauchswerte vom PC habe ich 2 Stehlampen jeweils einzeln und gemeinsam angeschlossen.

46W Birne ----Messgerät 77W
30W Birne ----Messgerät 51W
Zusammen am Messgerät 128W

Wollte das noch weiter ausführen mit Eierkocher und Wasserkocher nur scheint das Messgerät hinüber zu sein denn er gibt nur noch 0W aus.

Sind solche Abweichungen normal bei so billigen Messgeräten oder wird bei den Birnen gemogelt?

Wenn es am Messgerät liegt brauche ich mir also keine Sorgen machen.

Falls Denkfehler vorhanden sind bitte darauf hinweisen. :biggrin:

Danke

Breegalad
2018-04-23, 19:06:13
mein Billig-Messgerät misst ohmsche Last, ie Glühbirnen, aufs Watt genau, eine 50-W-Halogenlampe braucht 75W - 25W fürn Trafo.
die genannten Abweichungen sind jenseits von gut und böse

Skysnake
2018-04-23, 19:41:04
Zur Diskussion zwecks meiner Verbrauchswerte vom PC habe ich 2 Stehlampen jeweils einzeln und gemeinsam angeschlossen.

46W Birne ----Messgerät 77W
30W Birne ----Messgerät 51W
Zusammen am Messgerät 128W

Wollte das noch weiter ausführen mit Eierkocher und Wasserkocher nur scheint das Messgerät hinüber zu sein denn er gibt nur noch 0W aus.

Sind solche Abweichungen normal bei so billigen Messgeräten oder wird bei den Birnen gemogelt?

Wenn es am Messgerät liegt brauche ich mir also keine Sorgen machen.

Falls Denkfehler vorhanden sind bitte darauf hinweisen. :biggrin:

Danke
Ist ein Datenblatt mit Messfehler dabei?

Wenn nicht sind 10% Abweichung und min 20W absolut absolut normal.

Mit so Geräten kannste bei ohmschen Lasten gut sagen was mehr Strom Verbraucht, aber keine quantitativen Aussagen machen

Pappenheimer
2018-04-23, 20:34:38
Das Messgerät ist sowieso kaputt, zeigt nur noch 0W an :)

Die Abweichungen sind doch mehr als 10%?

Ich betreibe kein OC und die Vega 64 läuft im höchsten State P7 nur mit 1,04V anstatt mit den Standard 1,2V und P6 mit 1,02V (PT=0).

Bei Timespy hat mir das Teil 670W angezeigt obwohl ich nur ein 650W Netzteil habe und lief ohne Probleme durch.

Ich kann mir nicht vorstellen das ich mit meinen Einstellungen über 300W mit der Vega ziehe und der 2700X mit den restlichen Komponenten weitere 300W rum. :freak:

Ich glaube ich muss mir ein neues Messgerät holen. :rolleyes:

Edit: Gerade CB15 MultiCpu CPU+SoC Power 93W laut HWiNFO64

Langlay
2018-04-23, 20:48:49
Bei Timespy hat mir das Teil 670W angezeigt obwohl ich nur ein 650W Netzteil habe und lief ohne Probleme durch.


Davon das ich auch denke das Messgerät taugt nichts. Aber das obenbeschriebene ist durchausmöglich. 650W beziehen sich auf die abgegeben Leistung an den PC, das Netzseitig ist es mehr weil du die Verluste im Netzteil noch draufenschlagen musst.

z.b. Wenn ein (funktioniendes) Messgerät 670W bei einem 650W Netzteil anzeigt. Nehmen wir an das Netzteil hat einen Wirkungsgrad von 90% dann gibt das Netzteil bei netzseitigen 670W ~600W an den PC ab, ist also noch innerhalb der Spezifikation.

Pappenheimer
2018-04-23, 21:00:44
Davon das ich auch denke das Messgerät taugt nichts. Aber das obenbeschriebene ist durchausmöglich. 650W beziehen sich auf die abgegeben Leistung an den PC, das Netzseitig ist es mehr weil du die Verluste im Netzteil noch draufenschlagen musst.

z.b. Wenn ein (funktioniendes) Messgerät 670W bei einem 650W Netzteil anzeigt. Nehmen wir an das Netzteil hat einen Wirkungsgrad von 90% dann gibt das Netzteil bei netzseitigen 670W ~600W an den PC ab, ist also noch innerhalb der Spezifikation.

Ok danke dir das habe ich nun kapiert. :smile:

Normal dürfte ich mit meinen Komponenten beim zocken nicht weit über 500W kommen?

Langlay
2018-04-23, 21:02:53
Also ich liege mit 2700X@4.0 GHz und Vega56@180W Asci Power beim zocken <400W.

Pappenheimer
2018-04-23, 21:12:44
Also ich liege mit 2700X@4.0 GHz und Vega56@180W Asci Power beim zocken <400W.

Also brauche ich mir dann keine Sorgen machen. :up:

M4xw0lf
2018-04-23, 21:14:04
Also ich liege mit 2700X@4.0 GHz und Vega56@180W Asci Power beim zocken <400W.
Mit per "OC" festgetackertem Takt?

Langlay
2018-04-23, 21:37:04
Mit per "OC" festgetackertem Takt?

Yap. 4.0 GHz allcore und Singlecore bei 1.18V. Ich brauche die Singlethread Leistung nicht. Das eine Spiel was ich spiele wo ich im CPU Limit hänge ist World of Warships und da isset nun wurst ob ich nur 80 FPS min oder 90 FPS min habe.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11677419&postcount=225
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11677732&postcount=262

Da ist dann das ganze Dokumentiert.

Screemer
2018-04-23, 21:41:05
Hieß es nicht, dass der gleiche Maske verwendet. Da gibt's keinen neuen Speichercontroller.

Igor TH
2018-04-24, 08:27:12
Warum man den Takt bei 4 GHz begrenzen soll, erschließt sich mir nicht ganz. Im Vergleich zwischen XFR2 und manuellem OC habe ich bei gleichem Endtakt (Allcore Durchschnitt) auch die gleiche Performance messen können. Im Gegenteil, manchmal kann ein Thread sogar hoch bis auf 4.2 oder 4.3. Das ist vor allem bei Spielen nicht ungelegen.

Es ist nicht ganz die selbe Maske. Man hat auch ein paar Transistoren leistungsstärker ausgeführt. Das kommt vor allem der Stabilität entgegen.

Der_Korken
2018-04-24, 09:34:12
Nachtrag von CB bezüglich Single- und Dual Rank:

https://www.computerbase.de/2018-04/amd-ryzen-2000-test/5/#abschnitt_singlerank_vs_dualrankram

Überraschenderweise lassen sich durch den Wechsel auf Dual-Rank-Speicher mit dem Ryzen 7 2700X keine Vorteile bei der Leistung in Spielen erzielen. Im Durchschnitt ist er sogar ein Prozent langsamer als der Single-Rank-RAM. In Assassin's Creed Origins sind es sogar drei Prozent. Selten ist die Performance auch mal besser.

[...]

Der Dual-Rank-Speicher im Test war nicht mit Samsung-B-Dies ausgestattet, sondern mit günstigeren, aber eben auch schlechteren MFR-Modulen von Hynix. Der zeigte deutlich schneller seine Grenzen: Sowohl auf einem höheren Takt als DDR4-2933 als auch mit schnelleren (sekundär)-Timings reagiert das System nur mit einem schwarzen Bildschirm. Im privaten System des Redakteurs stecken ebenfalls zwei 16-GB-Module mit Dual-Rank und Samsung-B-Dies, diese lassen auf einem Ryzen 7 1700X bei „zahmen“ Timings DDR-3200 zu, oder alternativ – die schnellere Wahl – DDR4-2933 bei deutlich aggressiveren Schaltzeiten.


Das klingt doch sehr bescheiden. Dual rank Speicher (und somit auch Setups mit vier Modulen) bringen keine zusätzliche Performance, dafür macht der Speicher aber wesentlich früher schlapp. 3200 mit mittelmäßigen Timings auf B-Die RAM im Vergleich zu den 3600 CL16, die CB bei Single Rank schaffte und nur 2933 mit Hynix. Vielleicht tut sich mit ein paar BIOS-Versionen noch was (siehe CBs Kommentar zum nicht funktionierenden BankGroupSwap), aber dennoch scheint 2x8GB derzeit die mit Abstand beste Bestückung zu sein.

Thunder99
2018-04-24, 10:57:43
Sollte man wirklich dran bleiben und testen. Kann mir schon vorstellen, dass die aktuellen BIOS Version noch keinen Vorteil von DR hat. Bleibt spannend was die beste Kombination ist ;D

M4xw0lf
2018-04-24, 11:11:17
Warum man den Takt bei 4 GHz begrenzen soll, erschließt sich mir nicht ganz. Im Vergleich zwischen XFR2 und manuellem OC habe ich bei gleichem Endtakt (Allcore Durchschnitt) auch die gleiche Performance messen können. Im Gegenteil, manchmal kann ein Thread sogar hoch bis auf 4.2 oder 4.3. Das ist vor allem bei Spielen nicht ungelegen.
Wie sieht es eigentlich mit Undervolting aus? Geht das, und wenn ja, bringt es was (also sowas wie länger höhere Taktraten per XFR/Precision boost/whatever)?

Igor TH
2018-04-24, 11:28:10
Manuelles Undervolting mit festen Spannungen.... nun ja. Nicht meins.

Das Erste, was man bei einem gut programmierten BIOS mal versuchen sollte, ist eine nicht so aggressive Load-Line. Das bringt meist mehr als feste Spannungsvorgaben von Hand. Gerade bei XFR2 würde ich es lassen und lieber mehr Aufwand in die Kühlung stecken. Dann gehen die Spannungen von allein runter. Das System an sich ist genial und dem Boost 2.0 von NV nicht ganz unähnlich.

Und wer an der Leistungsaufnahme sparen möchte und sich immer noch wundert, warum mein Exemplar im Review so sparsam war: "precision boost overdrive" mal deaktivieren und staunen. Dann nämlich bleibt auch Prime95 samt AVX im Limit. Hätte man aber ahnen können. Die Telemetrie ist kein Hexenwerk und alles ist nett dokumentiert ;)

SKYNET
2018-04-24, 11:53:25
Wie sieht es eigentlich mit Undervolting aus? Geht das, und wenn ja, bringt es was (also sowas wie länger höhere Taktraten per XFR/Precision boost/whatever)?

im schnitt kann man 0.1V runtergehen wenn man nicht übertaktet... aber ist halt nur der schnitt, manche sind besser, manche schlechter...

mein 1500X zb. ging nur stabil bis 1.2V bei standardtakt :freak: aber immerhin, lief er dafür bei der spannung auch noch bei 3.8GHz allcore stabil... 1.3 warens dann schon für 4GHz und alles drüber wollte ich meinem noctua nh-l9a nicht mehr zumuten zum testen :rolleyes:

Langlay
2018-04-24, 15:44:37
Manuelles Undervolting mit festen Spannungen.... nun ja. Nicht meins.

Das Erste, was man bei einem gut programmierten BIOS mal versuchen sollte, ist eine nicht so aggressive Load-Line. Das bringt meist mehr als feste Spannungsvorgaben von Hand. Gerade bei XFR2 würde ich es lassen und lieber mehr Aufwand in die Kühlung stecken. Dann gehen die Spannungen von allein runter. Das System an sich ist genial und dem Boost 2.0 von NV nicht ganz unähnlich.



Ich hab eine Custom Loop Wäkü also viel Aufwand in Kühlung ist da nimmer drin. Ja mein 2700X läuft out of the Box mit 4.15 GHz Allcore und Singlecore bis 4.35GHz allerdings bei Spannungen in der Spitze bei >1.4V.

Unterm Strich ist 4.0GHz kaum langsamer aber deutlich sparsamer.

bill
2018-04-24, 16:18:55
Manuelles Undervolting mit festen Spannungen.... nun ja. Nicht meins.

Das Erste, was man bei einem gut programmierten BIOS mal versuchen sollte, ist eine nicht so aggressive Load-Line. Das bringt meist mehr als feste Spannungsvorgaben von Hand. Gerade bei XFR2 würde ich es lassen und lieber mehr Aufwand in die Kühlung stecken. Dann gehen die Spannungen von allein runter. Das System an sich ist genial und dem Boost 2.0 von NV nicht ganz unähnlich.

Nimmt einen nur den Spaß am manuellen übertakten. =) Das wird aber wohl die Zukunft sein, denn SenseMI empfinde ich im Ryzen 2000 auch als sehr gelungen.

Precision Boost Overdrive ist dann noch das kleine i-Tüpfelchen, das automatisch die letzten Reserven aus dem Mainboard rauskitzelt. Das muss nur richtig eingestellt werden, bei meinem Brett ist es nur mit "on" oder so nicht getan. Dann aber liegen bei Single Core Last auch mal die 4,2 bis 4,3 GHZ längere Zeit auf wenigen Kernen an. Das bekommt man mit manuellem OC leider nicht besser und effektiver hin.

Igor TH
2018-04-24, 17:59:08
@bill: eben :)

@Langlay:
Ich bin mir ziemlich sicher, Du hast Im BIOS nichts optimiert. Was für ein Board? Factory ist meist Mist.

Langlay
2018-04-24, 18:07:25
@Langlay:
Ich bin mir ziemlich sicher, Du hast Im BIOS nichts optimiert. Was für ein Board? Factory ist meist Mist.

Asus Crosshair 6 Hero und beim Stocktesting hatte ich Precisionboost an, allerdings LLC auf 3. Allerdings war bei mir nicht die Frage Stock oder 4.0 GHz Allcore sondern 4.2 GHz Allcore @1.32V oder 4.0 GHz Allcore @1.18V und zwischen beiden Einstellungen liegen einfach 40W für 5% mehr Takt.

Igor TH
2018-04-24, 18:18:51
Ist halt ein Asus, Deine Entscheidung. ;)

Die 1.4V gemessen oder irgendwo im BIOS gesehen?

Langlay
2018-04-24, 18:34:29
Die 1.4V gemessen oder irgendwo im BIOS gesehen?

Abgelesen in HWinfo. Ich hab jetzt nochmal ohne PB getestet. Da kommt ich dann auf ~4.05-4.075GHz@ 1,29V Allcore macht ne CPU Package Power von ~120W.

Allerdings lauft mit 1.3V bei mir schon fast 4.2 GHz Allcore mit etwas mehr verbrauch und wenn ich superheiss auf die 4.3 GHz wäre die würden auch noch Allcore mit <1.4V laufen.

https://abload.de/img/stockpboff07okf.jpg


Grundsätzlich finde ich 4.0 GHz Allcore mit 1.18V schon ganz nett, maximal 100W CPU Package Power und in Multithreadanwendungen ist man schon ziemlich flott unterwegs, viel mehr kommt da bei 4.2GHz auch nicht rum. Und ich zocke in 2560x1440 und dort limitiert meist meine Vega56 und nicht die CPU, zumindest in den Spielen die ich spiele.

SKYNET
2018-04-24, 18:47:23
Grundsätzlich finde ich 4.0 GHz Allcore mit 1.18V schon ganz nett, maximal 100W CPU Package Power und in Multithreadanwendungen ist man schon ziemlich flott unterwegs


sweetsport erwischt würd ich sagen, 1.18V für 4GHz AC ist schon ne hausnummer :cool:

Igor TH
2018-04-24, 19:05:48
Damit kann man gut leben. Die 1.4V in der Spitze sind kein Beinbruch, das sollte ohne große Last passiert sein.

Langlay
2018-04-24, 20:30:34
Damit kann man gut leben. Die 1.4V in der Spitze sind kein Beinbruch, das sollte ohne große Last passiert sein.

Ja grundsätzlich hätte ich auch kein Problem damit 1.4V auf die CPU zu geben und würde es wahrscheinlich auch tun wenn ich die Mehrleistung brauchen würde. Aber aktuell kann ich auf die letzten paar % ganz gut verzichten und nehme lieber den Effizenzboost mit.

Pappenheimer
2018-04-24, 21:01:25
Gibt es beim MSI Gaming Pro Carbon auch eine Load-Line Einstellung? Irgendwie finde ich nichts.

dildo4u
2018-04-24, 21:05:43
Gibt es beim MSI Gaming Pro Carbon auch eine Load-Line Einstellung? Irgendwie finde ich nichts.

Laut Handbuch steht es unter DigitALL Power.

Pappenheimer
2018-04-24, 21:13:20
Laut Handbuch steht es unter DigitALL Power.

Danke :up:

Screemer
2018-04-24, 21:26:26
Ja grundsätzlich hätte ich auch kein Problem damit 1.4V auf die CPU zu geben und würde es wahrscheinlich auch tun wenn ich die Mehrleistung brauchen würde. Aber aktuell kann ich auf die letzten paar % ganz gut verzichten und nehme lieber den Effizenzboost mit.
Gibt es keine Möglichkeit für xfr2 und precisionboost die max. Spannung anzugeben und ihm da freien Lauf beim Takt bis zu der Spannungsgrenze zu geben?

Wäre doch klasse, wenn man in cpu limitierten Szenen vollen pb/xfr2 boost mit 4,35ghz anliegen hätte, mit den dafür ermittelten Werten, und trotz dem für allcore nennen max Takt und ne entsprechende Spannung definieren könnte.


In Langleys Fall eben allcore 4ghz@1,18v und single/dual-core-turbo bei >4,3ghz und eben beispielsweise 1,38v, falls diese stabil sein sollten. Das dürfte den Gesamtverbrauch kaum steigern aber im cpu Limit die Drops entschärfen.

Langlay
2018-04-24, 21:44:35
Gibt es keine Möglichkeit für xfr2 und precisionboost die max. Spannung anzugeben und ihm da freien Lauf beim Takt bis zu der Spannungsgrenze zu geben?


Im Bios kannst du nur mit einem Spannungsoffset arbeiten. Eventuell geht das übers Ryzen Master. Aber die knapp 10% mehr Takt werden halt auch keine Wunder bewirken, daher ich bin zufrieden mit der derzeitigen Einstellung.

Screemer
2018-04-24, 21:46:26
10% mehr leistung in cpu-limitierten szenen fände ich schon ein nettes goody. bringt konstantere frametimes und tut keinem weh.

Digidi
2018-04-25, 02:44:55
lol da soll Mal jemand sagen AMD kann kein Marketing
https://mobile.twitter.com/Intel_DE/status/985850277587767296

Oder ist AMD_Deutschland Fake?

SKYNET
2018-04-25, 09:31:31
lol da soll Mal jemand sagen AMD kann kein Marketing
https://mobile.twitter.com/Intel_DE/status/985850277587767296

Oder ist AMD_Deutschland Fake?

"kann nicht geladen werden"

aber AMD_Deutschland ist ein verizifierter account(blauer haken hinter namen), also echt.

jetzt geht der link, du meinst intel_deutschland ;D

Daredevil
2018-04-25, 11:10:52
Wat? Gifs posten ist Marketing? Dann solle sich pest mal dort bewerben! :D

SKYNET
2018-04-25, 11:51:22
Wat? Gifs posten ist Marketing? Dann solle sich pest mal dort bewerben! :D

das ding passt aber wie die faust aufs auge in dem kontext ;D

Sven77
2018-04-25, 11:55:35
veraltete Memes? Nö

Pirx
2018-04-25, 12:33:30
phoronix: AMD Ryzen 7 2700X Linux Performance Boosted By Updated BIOS/AGESA (https://www.phoronix.com/scan.php?page=article&item=ryzen-2700x-bios)

y33H@
2018-04-25, 12:43:49
Ist Unfug IMHO.

-->

Laut Asus basiert die 0505 schon auf Agesa 1002a (was sich per Aida64 auch prüfen lässt), daher kann es das schwerlich sein.

EDIT
Grade kam die Antwort von Asus, die bestätigen erneut Agesa 1002a für 0505 und sagen, die 0509 sei Bug-Fixing und das Lab hätte keine Performance-Steigerungen gemessen. Ich vermute daher, Michael hat iwas verstellt ...

SKYNET
2018-04-25, 13:46:46
Ist Unfug IMHO.

-->

Laut Asus basiert die 0505 schon auf Agesa 1002a (was sich per Aida64 auch prüfen lässt), daher kann es das schwerlich sein.

EDIT
Grade kam die Antwort von Asus, die bestätigen erneut Agesa 1002a für 0505 und sagen, die 0509 sei Bug-Fixing und das Lab hätte keine Performance-Steigerungen gemessen. Ich vermute daher, Michael hat iwas verstellt ...

bei dem + an performance würd ich davon ausgehen das wohl der speicher höher taktet jetzt... aber evtl. kann das noch mal wer gegentesten?

mczak
2018-04-25, 18:42:41
Anandtech hat übriegns herausgefunden wieso die Ryzens besser abgeschnitten haben verglichen mit anderen Reviews:
https://www.anandtech.com/show/12678/a-timely-discovery-examining-amd-2nd-gen-ryzen-results
Sehr interessant. Wer würde schon vermuten dass da Spiele derart viel langsamer laufen bei Verwendung von HPET...

dildo4u
2018-04-25, 18:48:25
Ich frag mich warum die das überhaupt erst veröffentlicht hatten selbst AMD behauptet nicht da sie in 1080p vorne sind.

aufkrawall
2018-04-25, 19:09:57
Mal allgemein zwischendurch gefragt: Macht HPET überhaupt irgendeinen Sinn für den normalen Anwender? Wenn das trotz Aktivierung im Bios nur als optionaler Timer vorhanden ist, aber nie genutzt wird, kann man es ja auch gleich im Bios dauerhaft abschalten und das leidige Thema abhaken.

hmmm
2018-04-25, 19:49:23
Dachte RyzenUser hätten HPET eh schon alle aus, zumindest auf der Daddelkiste.
Unter Windows 10 habe ich HPET einfach im Geräte-Manger deaktiviert (WinTimerTeste meldet dann die ca 4MHz), im UEFI ist es an, da ich es hier und da mal unter Linux brauche.

Lehdro
2018-04-25, 19:53:47
Interessant das Intel mit HPET einfach mal zusammenbricht in manchen Fällen. Ryzen scheints nicht wirklich zu stören...

aufkrawall
2018-04-25, 20:26:32
da ich es hier und da mal unter Linux brauche.
Wofür denn konkret?

y33H@
2018-04-25, 23:12:52
Hab auch noch bisschen RAM gebastelt, mehr wohl am Freitag.

63179

63180

63181

63182

N0Thing
2018-04-25, 23:41:00
Dachte RyzenUser hätten HPET eh schon alle aus, zumindest auf der Daddelkiste.
Unter Windows 10 habe ich HPET einfach im Geräte-Manger deaktiviert (WinTimerTeste meldet dann die ca 4MHz), im UEFI ist es an, da ich es hier und da mal unter Linux brauche.

Ist das der "Hochpräzisionsereigniszeitgeber" in der deutschen Version?

aufkrawall
2018-04-25, 23:42:20
Ja.

N0Thing
2018-04-25, 23:46:15
Danke. Ich habe da mal vor Jahren im Zusammenhang mit einem Crysis von Problemen mitbekommen, gibt es irgendwo eine Seite, wo man sich über den aktuellen Stand der Vor- und Nachteile informieren kann?
Mir ist es, salopp gesagt, bisher am Arsch vorbei gegangen, aber wenn es in irgendeiner Form relevante Auswirkungen hat, ob man HPET aktiviert oder deaktiviert, würde mich das interessieren.

aufkrawall
2018-04-25, 23:52:33
Ich hatte mir jetzt den verlinkten Thread dort durchgelesen:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11680967&postcount=37

HPET wird also offenbar gar nicht oder so gut wie gar nicht irgendwofür genutzt, so lange man mit aktuellem OS und CPU das nicht händisch als System-Timer erzwingt (so wie von Anandtech).

Ich hatte auch nie Nachteile bemerkt, wenn ich das im Bios ausgeschaltet hatte. Ich werd das mal wieder machen und nach ein paar Tagen ein Fazit ziehen. Ich gehe davon aus, dass es völlig egal sein wird.

Freestaler
2018-04-26, 00:14:30
Hab auch noch bisschen RAM gebastelt, mehr wohl am Freitag.

63179

63180

63181

63182

Kannst da auch nen 8700K mit 3600 oder Höher hinzunehmen? wäre ja nur fair.

y33H@
2018-04-26, 00:21:29
Nicht getestet, nein - geht ja hier auch um PR.

aufkrawall
2018-04-26, 00:45:38
Ich will ja nicht schon wieder rummosern, aber die AC: O-Werte kommen mir etwas niedrig vor. Ich bin mit meinem 6700k@4,2 + 16GB DDR4 3200 CL14 damals auch in 720p durch Alexandria gelaufen und der fps-Counter ging eigentlich nie unter 70. :confused:

Ex3cut3r
2018-04-26, 03:05:42
Welcher Normalo User aktiviert den HPET auch zusätzlich in Windows über die CMD?! Ist doch totaler Quatsch das Anandtech da rumfummelt. Ich habs seit Jahren im Bios einfach aus. Standard ist es aber im Bios auch an, soll aber nichts bringen wenn man es nicht in Windows zusätzlich per Command aktiviert?!

Was mich auch mal interessieren wurde, wie optimiert man überhaupt Subtimings? Jeder spricht zwar davon, erscheint mir aber ein ziemliches Hexen Werk?!

LadyWhirlwind
2018-04-26, 07:59:04
Welcher Normalo User aktiviert den HPET auch zusätzlich in Windows über die CMD?! Ist doch totaler Quatsch das Anandtech da rumfummelt. Ich habs seit Jahren im Bios einfach aus. Standard ist es aber im Bios auch an, soll aber nichts bringen wenn man es nicht in Windows zusätzlich per Command aktiviert?!

Was mich auch mal interessieren wurde, wie optimiert man überhaupt Subtimings? Jeder spricht zwar davon, erscheint mir aber ein ziemliches Hexen Werk?!

Keiner, aber Benchmark und Monitoring Tools aktivieren den gern bei der Installation...

Rancor
2018-04-26, 09:55:36
.....
Was mich auch mal interessieren wurde, wie optimiert man überhaupt Subtimings? Jeder spricht zwar davon, erscheint mir aber ein ziemliches Hexen Werk?!

Naja Try and Error halt.

Ist am Anfang von Ryzen ein ziemlicher Aufwand gewesen.

Jetzt kann man sich an den erreichten Ergebnissen zumindest etwas orientieren, so dass es nicht mehr ganz so elendig ist.
Frag mal Dargo, der hat sich da ziemlich ausgiebig mit beschäftigt und sollte sich dementsprechend gut auskennen.

Es wäre interessant zu wissen, welche Subtimings denn überhaupt was bringen und wo es sich lohnt anzusetzen.

Aufwändig bleibt es imho trotzdem noch und wenn es nur darum geht zu testen um die Setting wirklich stabil sind.

SKYNET
2018-04-26, 09:59:18
Keiner, aber Benchmark und Monitoring Tools aktivieren den gern bei der Installation...

jopp, gestern mal geschaut, war wieder an :freak:

Wixi
2018-04-26, 10:28:49
Ryzen 5 2600X vs. Core i7-8700K IPC Comparison, AMD's Hot On Intel's Heels!
https://www.youtube.com/watch?v=doGp5LI6igg

Ganz interessant zu sehen, wie nah sie doch beieinander sind,4% Unterschied in Anwendungen. Nur Games laufen alle irgendwie nicht so rund. Fehlende Optimierung oder liegt es echt an der IF? Fehlt nur noch ein Test mit RAM-OC + optimierten Subtimings. Denke, dass dann in Games die 10% Abstand deutlich reduziert werden.

SKYNET
2018-04-26, 10:43:12
Ryzen 5 2600X vs. Core i7-8700K IPC Comparison, AMD's Hot On Intel's Heels!
https://www.youtube.com/watch?v=doGp5LI6igg

Ganz interessant zu sehen, wie nah sie doch beieinander sind,4% Unterschied in Anwendungen. Nur Games laufen alle irgendwie nicht so rund. Fehlende Optimierung oder liegt es echt an der IF? Fehlt nur noch ein Test mit RAM-OC + optimierten Subtimings. Denke, dass dann in Games die 10% Abstand deutlich reduziert werden.

vollkommen egal, der 2600X muss ja nicht den 8700 schlagen, sondern den 8600... und das macht er recht gut. :smile:

Wixi
2018-04-26, 11:03:42
Stimmt, aber in Games liegt der 2600X leider immer noch weit hinter dem 8600k. Mit Turbo boost@4.3Ghz vergrößert sich der Abstand nochmals...Mich würden lieber 1440p/4K Tests interessieren, da kaum jemand mit einer High-End CPU und einer GTX 1080 Ti in1080p spielt.

dildo4u
2018-04-26, 11:11:09
Hier gibt es Werte in 1440p mit 1080 Ti.


https://www.techpowerup.com/reviews/AMD/Ryzen_5_2600X/14.html

SKYNET
2018-04-26, 11:14:36
Stimmt, aber in Games liegt der 2600X leider immer noch weit hinter dem 8600k. Mit Turbo boost@4.3Ghz vergrößert sich der Abstand nochmals...Mich würden lieber 1440p/4K Tests interessieren, da kaum jemand mit einer High-End CPU und einer GTX 1080 Ti in1080p spielt.

2700X & 1080 Ti in FHD... :tongue:

Screemer
2018-04-26, 11:19:22
Stimmt, aber in Games liegt der 2600X leider immer noch weit hinter dem 8600k. Mit Turbo boost@4.3Ghz vergrößert sich der Abstand nochmals...Mich würden lieber 1440p/4K Tests interessieren, da kaum jemand mit einer High-End CPU und einer GTX 1080 Ti in1080p spielt.
wie soll sich der abstand bei gleichem base und max-takt vergrößern?

Wixi
2018-04-26, 11:23:35
@Screemer ohne Lock@4Ghz meinte ich damit. 4.2Ghz Turbo vs. 4.3Ghz :wink:

@Skynet Ausnahmen bestätigen die Regel :biggrin:

@Dildo Danke! Ab 1440p ist es wohl nur noch eine Frage des Budgets, Aufrüstmöglichkeiten und Bias welche CPU man kauft ^^

robbitop
2018-04-26, 11:30:38
Ryzen 5 2600X vs. Core i7-8700K IPC Comparison, AMD's Hot On Intel's Heels!
https://www.youtube.com/watch?v=doGp5LI6igg

Ganz interessant zu sehen, wie nah sie doch beieinander sind,4% Unterschied in Anwendungen. Nur Games laufen alle irgendwie nicht so rund. Fehlende Optimierung oder liegt es echt an der IF? Fehlt nur noch ein Test mit RAM-OC + optimierten Subtimings. Denke, dass dann in Games die 10% Abstand deutlich reduziert werden.
Dank Ringbus mit fast vollem Kerntakt hat CFL ~15 ns bessere Zugriffszeiten auf dem RAM. Je nach Cachehitrate kann das in Spielen schon richtig Leistung kosten (wenn man höhere Zugriffszeiten hat). Gibt aber auch Spiele, bei denen der Einfluss geringer ist (in der jeweiligen Benchszene also gute Cachehitrate).
Memorylatency zu reduzieren ist zwar kein Allheilmittel, aber es hilft schon hier und da deutlich.

Interessant (aber nicht repräsentativ!) wäre eine Benchmarkvermessung bei normierter Memorylatency. Also sagen wir mal 60 ns. Entsprechend müssten Memorytimings und Takt bei CFL deutlich langsamer eingestellt werden.
Wäre einfach mal interessant zu sehen, wie sich die beiden mArchs zueinander verhalten, wenn der I/O Bottleneck gleich ist.

Noch besser wäre ein Vergleich bei absoluter Sättigung (also ~35-40 ns). Ist bei CFL schon schwer erreichbar und bei Ryzen nicht ansatzweise realistisch. Aber interessant wäre es schon zu sehen, wie groß das Potenzial beider mArchs im Vergleich ist, wenn sie nicht gebottlenecked werden.

Ich tippe darauf, dass die taktnormierte Leistung dann relativ nah beieinander liegt.

Screemer
2018-04-26, 11:36:51
@Screemer ohne Lock@4Ghz meinte ich damit. 4.2Ghz Turbo vs. 4.3Ghz :wink:

4,25 vs 4,3. das ist kaum messbar ;)

Matrix316
2018-04-26, 12:02:02
Hier gibt es Werte in 1440p mit 1080 Ti.


https://www.techpowerup.com/reviews/AMD/Ryzen_5_2600X/14.html
Vergesst Ryzen und i5/i7: Die beste P/L CPU ist...

der i3-8350K

https://geizhals.de/intel-core-i3-8350k-bx80684i38350k-a1697354.html

:ugly:

y33H@
2018-04-26, 12:05:37
Ich will ja nicht schon wieder rummosern, aber die AC: O-Werte kommen mir etwas niedrig vor. Ich bin mit meinem 6700k@4,2 + 16GB DDR4 3200 CL14 damals auch in 720p durch Alexandria gelaufen und der fps-Counter ging eigentlich nie unter 70.Ich weiß nicht was du wo wie genau gemessen hast, ich kann dir nur sagen, meine Werte sind meine Werte ^^

aufkrawall
2018-04-26, 12:35:46
Ich weiß nicht was du wo wie genau gemessen hast, ich kann dir nur sagen, meine Werte sind meine Werte ^^
Hier gibts ein Video von IchoTolot:
M-L3JYm_F5g
Er hat mehr CPU-Takt, aber langsameren Speicher, und die Werte decken sich ziemlich gut mit meinen.

Wie kann denn da der 8700k nur ~72fps schaffen?
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=63181&d=1524690766

Achill
2018-04-26, 13:06:00
Man sollte aber bedenken, dass IchoTolot CPU mit folgenden OC läuft:
- Core-Clock@4.8Ghz
- Uncore@4.4Ghz

Und der RAM mit DDR4-3000@CL15 auch besser ist als 2666@CL14 ...

In der Video-Beschreibung steht noch das MB das Asus Prime Z270-P - hier wäre noch die Frage ob die opt. Defaults (mit leichten Anpassungen) aktiv sind. Wir haben ja jetzt schon mehrfach gehört, dass Asus der CPU freien Lauf lässt bzgl. Power-Budget (kann ich unter meinen X99 Brett schon nachvollziehen).

Es kann also schon etwas an Abweichung zusammen kommen. Man muss die Werte einfach sehen als was sie sind, ein Stock! 8700k kann von einen getunten 2700X ein- oder auch mal überholt werden.

denjudge
2018-04-26, 13:08:02
Vergesst Ryzen und i5/i7: Die beste P/L CPU ist...

der i3-8350K

https://geizhals.de/intel-core-i3-8350k-bx80684i38350k-a1697354.html

:ugly:

Ohne Scheiss. Den auf 5ghz treten sollte kein großes Problem sein und fürs reine Gaming... Ich als Singleplayer only User, liebäugel tatsächlich mit dem.

aufkrawall
2018-04-26, 13:31:26
Man sollte aber bedenken, dass IchoTolot CPU mit folgenden OC läuft:

Ich habe bereits geschrieben, dass ich mit 4,2GHz vergleichbare Werte habe.

y33H@
2018-04-26, 13:31:48
Man sollte aber bedenken, dass IchoTolot CPU mit folgenden OC läuft:
- Core-Clock@4.8Ghz
- Uncore@4.4Ghz

Und der RAM mit DDR4-3000@CL15 auch besser ist als 2666@CL14 ...

In der Video-Beschreibung steht noch das MB das Asus Prime Z270-P - hier wäre noch die Frage ob die opt. Defaults (mit leichten Anpassungen) aktiv sind. Wir haben ja jetzt schon mehrfach gehört, dass Asus der CPU freien Lauf lässt bzgl. Power-Budget (kann ich unter meinen X99 Brett schon nachvollziehen).

Es kann also schon etwas an Abweichung zusammen kommen. Man muss die Werte einfach sehen als was sie sind, ein Stock! 8700k kann von einen getunten 2700X ein- oder auch mal überholt werden.Ja, vor allem hat das OC-System rund 80 fps und ich (stock) halt 72 fps, ich finde es kommt gut hin.

aufkrawall
2018-04-26, 13:41:15
8700k vs 7700k?

Ex3cut3r
2018-04-26, 13:55:53
Aufkrawall hat doch recht, das kann nicht stimmen, ein 8700k hat wie jeder weiß mehr Threads.

Auf der anderen Seite, Ichos Benchmark war damals noch ohne die Meltdown und Spectre Patches.

Freestaler
2018-04-26, 13:59:25
Obacht mit OC BenchResults auf Ryzen1/2. Wenn CPU Multi OC per Bios gemacht wurde, verliert die Plattform massiv (-25% und mehr) an speicherdurchsatz. Mit CPU oc per windows software passiert dies nicht. So als info vorallem für allfällige anstehen Test ;-).

y33H@
2018-04-26, 14:49:02
Ich kann die Benches sogar abfilmen, wenn ihr unbedingt nen Proof braucht. Für mich sehen sie stimmig aus.

EDIT

Die PCGH kommt in Alexandria in 720p mit Ultra auf 75 fps (statt 72 fps) beim i7-8700K: http://www.pcgameshardware.de/Ryzen-7-2700X-CPU-267374/Tests/vs-8700K-Ryzen-5-2600X-Review-Benchmark-Release-Preis-1254720/

Screemer
2018-04-26, 14:54:48
Obacht mit OC BenchResults auf Ryzen1/2. Wenn CPU Multi OC per Bios gemacht wurde, verliert die Plattform massiv (-25% und mehr) an speicherdurchsatz. Mit CPU oc per windows software passiert dies nicht. So als info vorallem für allfällige anstehen Test ;-).
Hast du da Mal ne Quelle dazu?

Freestaler
2018-04-26, 15:01:59
Hast du da Mal ne Quelle dazu?

Jein, eigene Messung und gegen Prüfung eines anders Taichi User, ebenso im MSI Forum Bugreport gefunden: http://www.overclock.net/forum/27234369-post3490.html

Meldung das es AGESA Bug ist:

https://www.hardwareluxx.de/community/f219/asrock-x370-taichi-fatal1ty-x370-professional-gaming-1163738-54.html#post26281248

Alte Werte Ryzen ohne AGESA 1.0.0.1a sollten nicht betroffen sein, jedoch vermutlich einige OC Resultate bei den ryzen 2 Reviews. Evtl. kann der eine oder andere noch gegen Testen mit dem neusten AGESA 1002a. Und evtl. ändert das dann auch die Meinung, von Hand OC bringt nichts bei den Ryzen 2xxx. Leider findet ich in den Review kein Hinweis, wie der CPU Takt geändert wurde. Überigens ist der Bug beim Asrock Taichi seit BetaBios L4.41 (Anfangs Feburar mit AGESA 1001a)

Ex3cut3r
2018-04-26, 15:41:19
Ich kann die Benches sogar abfilmen, wenn ihr unbedingt nen Proof braucht. Für mich sehen sie stimmig aus.

EDIT

Die PCGH kommt in Alexandria in 720p mit Ultra auf 75 fps (statt 72 fps) beim i7-8700K: http://www.pcgameshardware.de/Ryzen-7-2700X-CPU-267374/Tests/vs-8700K-Ryzen-5-2600X-Review-Benchmark-Release-Preis-1254720/

Ne glaube ich dir schon, aber da muss das OC + Ring OC + DDR4 über 3000 ja ordentlich etwas bringen.

Screemer
2018-04-26, 15:54:52
Jein, eigene Messung und gegen Prüfung eines anders Taichi User, ebenso im MSI Forum Bugreport gefunden: http://www.overclock.net/forum/27234369-post3490.html

Meldung das es AGESA Bug ist:

https://www.hardwareluxx.de/community/f219/asrock-x370-taichi-fatal1ty-x370-professional-gaming-1163738-54.html#post26281248

Alte Werte Ryzen ohne AGESA 1.0.0.1a sollten nicht betroffen sein, jedoch vermutlich einige OC Resultate bei den ryzen 2 Reviews. Evtl. kann der eine oder andere noch gegen Testen mit dem neusten AGESA 1002a. Und evtl. ändert das dann auch die Meinung, von Hand OC bringt nichts bei den Ryzen 2xxx. Leider findet ich in den Review kein Hinweis, wie der CPU Takt geändert wurde. Überigens ist der Bug beim Asrock Taichi seit BetaBios L4.41 (Anfangs Feburar mit AGESA 1001a)
Das ist ja Mal ne interessante Info. Ob das bei den Redaktionen schon angekommen ist. Hab in keinem Reviews darüber was gelesen.

Freestaler
2018-04-26, 16:07:22
Ne glaube ich dir schon, aber da muss das OC + Ring OC + DDR4 über 3000 ja ordentlich etwas bringen.

Das Game geht ja auf nem Stock 8700k (vermutlich mit MCE on) zu Stock 7700k keine 25% (obwohl 50% mehr Cores, Werte handgeschätz durch Youtube vergleiche) schneller. Da scheint mir Takt OC von 20% (7700k 4,8 anstatt 4 GHz all core) & Uncore OC und Ram OC mit opt. Subtimmings sicher was zu bringen. Und wenn man dann Spectre fixes und evtl Windows 10 aktuelle Updates mit einbezieht, dann sollte man bei den Werten landen. Evtl. kann ja Icholot mit aktuelen W10 und Spectre fix bios nochmals kurz antesten.

Schnoesel
2018-04-26, 17:22:52
Ohne Scheiss. Den auf 5ghz treten sollte kein großes Problem sein und fürs reine Gaming...

Average Werte sind nur nicht aussagekräftig. Wenn ich mir die 99th Percentile bei CB ansehe bei ACO kannst doch einen reinen 4Kerner vergessen. Da hilft auch der Takt nicht mehr.

https://www.computerbase.de/2018-04/amd-ryzen-2000-test/4/

aufkrawall
2018-04-26, 18:29:27
Die PCGH kommt in Alexandria in 720p mit Ultra auf 75 fps (statt 72 fps) beim i7-8700K: http://www.pcgameshardware.de/Ryzen-7-2700X-CPU-267374/Tests/vs-8700K-Ryzen-5-2600X-Review-Benchmark-Release-Preis-1254720/
Dann skaliert es offenbar viel mieser mit Threads, als oftmals behauptet wird.

Achill
2018-04-26, 21:26:02
Dann skaliert es offenbar viel mieser mit Threads, als oftmals behauptet wird.

Etwas Skalierung bringen 8 vs 6 Kerne schon (+13%), hatte PCGH ja mit einen anderen Level und älteren Version? getestet: http://www.pcgameshardware.de/Assassins-Creed-Origins-Spiel-61043/Specials/Benchmark-Test-1242105/2/

y33H@
2018-04-27, 00:09:34
Nicht sehr viel von 6C auf 8C, siehe 2600X und 2700X:

63194

=Floi=
2018-04-27, 02:33:37
Ohne Scheiss. Den auf 5ghz treten sollte kein großes Problem sein und fürs reine Gaming... Ich als Singleplayer only User, liebäugel tatsächlich mit dem.


dann gibt es noch immer reduzierte caches und nur 4 threads. Der preis ist auch zu hoch.
Der prozessor ist nicht umsonst günstiger wie ein 7700k.


Für aktuelle games lohnt sich eher die investition in einen breiteren prozessor. Für den 5ghz i3 müsste man schon einen speziellen anwendungsfall haben.
4C/4T fällt langsam raus.

kleine geldbörse AMD Ryzen
große geldbörse intel

Menace
2018-04-27, 06:34:01
kleine geldbörse AMD Ryzen
große geldbörse intel

Warum? Auch wenn einem Anwendungen wichtiger sind? Oder Aufrüstmöglichkeiten auch noch bei den nächsten Ryzengenerationen? Bitte erläutere das einmal.

Rancor
2018-04-27, 08:08:21
Warum? Auch wenn einem Anwendungen wichtiger sind? Oder Aufrüstmöglichkeiten auch noch bei den nächsten Ryzengenerationen? Bitte erläutere das einmal.

Weil der 8700k immer noch König in Spielen ist und wenn er geköpft wird auch mit mehr als 5GHZ rennen kann. Da sieht kein Ryzen Land gegen, das ist einfach so.

Pirx
2018-04-27, 08:27:55
Seit wann ist spielen so wichtig?

Linmoum
2018-04-27, 09:01:41
Die Frage ist eher, was "sieht kein Land" bedeutet.

hmmm
2018-04-27, 09:07:53
Die Frage ist eher, was "sieht kein Land" bedeutet.

1080TI + Low settings + 720p
;)

MartinRiggs
2018-04-27, 09:10:12
kleine geldbörse AMD Ryzen
große geldbörse intel

Stimmt aber nicht, vergleich mal einen R7 2700x inkl. x470 und 8700k inkl. z370.
Je nach Board und Hersteller ist der Intel sogar günstiger, Speicher ist gleich teuer.

Lehdro
2018-04-27, 09:13:43
Stimmt aber nicht, vergleich mal einen R7 2700x inkl. x470 und 8700k inkl. z370.
Je nach Board und Hersteller ist der Intel sogar günstiger, Speicher ist gleich teuer.
Es gibt ja auch nur den 2700X und X470. Keinen 2600X, oder gott bewahre, sogar die non X Versionen. Oder andere Mainboards ausser X470...

SKYNET
2018-04-27, 09:23:00
Es gibt ja auch nur den 2700X und X470. Keinen 2600X, oder gott bewahre, sogar die non X Versionen. Oder andere Mainboards ausser X470...

weil die non-X versionen ja so totalviel günstiger sind X-D

und nen 8600k kostet +/- gleich wie nen 2600X...

SKYNET
2018-04-27, 09:24:29
Die Frage ist eher, was "sieht kein Land" bedeutet.

frag ich mich auch, weil alle programme und games die mit 8C/16T umgehen können, wird der 2700X @ stock auch nen 5GHz 8700k in der luft zerreissen. :cool:

Megamember
2018-04-27, 10:23:39
Seit wann ist spielen so wichtig?


Aber wieviele User hier sind denn daran interessiert das ganz spezielle professionelle Anwendungen möglicherweise 5 Sekunden schneller rechnen? Ist max. Spieleleistung für die meisten hier nicht viel wichtiger? Viel tragischer finde ich eigendlich das die neuen Intels ein Hitzeproblem haben und man eigendlich nur geköpft an die Grenzen kommt.

Lehdro
2018-04-27, 11:12:52
weil die non-X versionen ja so totalviel günstiger sind X-D

und nen 8600k kostet +/- gleich wie nen 2600X...
Kombiniere einen 2600 nonXer mit einer B350 Brett und betreibe evtl. sogar leichtes OC.

190 € R5 2600 + 55 € B350 = ~245 € Mit 2600X sind es dann sogar ~275 €

217 € i5 8600k + 90 € Z370 (sonst brauchst auch kein K Prozzi) = ~310 €

20% gespart wenn du den non X nimmst. 10% wenn du den X nimmst. Der X ist aber nur um 2-5% schneller als der non X. Von daher stimmt die ursprüngliche Aussage von =Floi= halt auch immer noch.

Edith sagt: Kühler brauchst du beim 8600k ja auch noch, autsch.

Rancor
2018-04-27, 11:39:17
Man Leute chillt doch mal. Ich habe doch selber nen Ryzen ;)

Wir sind hier im 3DC.. Wer nutzt seinen privaten Rechner denn hier hauptsächlich zum Arbeiten ? Es gibt atm eben keine schnellere Spiele-CPU wie den 8700k ;) Deal with it. :cool:
Ich weiss auch nicht was daran so schwer zu akzeptieren ist. Kaufen würde ich mir den trotzdem nicht. Ein 2600x ist P/L deutlich besser..

Wer aber auf kompromisslose Leistung Wert legt, kommt da eben nicht drum herum.

Mangel76
2018-04-27, 11:47:43
Es gibt atm eben keine schnellere Spiele-CPU wie den 8700k ;) Deal with it. :cool:


Als wenn bei den meisten hier die CPU der Bremsklotz in Spielen wäre :P

Rancor
2018-04-27, 11:53:20
Als wenn bei den meisten hier die CPU der Bremsklotz in Spielen wäre :P

Darum gehts doch nicht. Es geht darum das der 8700k nach wie vor die schnellste Gaming CPU ist.
Scheinbar ist das für einige hier schwer zu akzeptieren. Wieso auch immer.

Menace
2018-04-27, 11:53:32
Weil der 8700k immer noch König in Spielen ist und wenn er geköpft wird auch mit mehr als 5GHZ rennen kann. Da sieht kein Ryzen Land gegen, das ist einfach so.

Also muss man schon mal erweitern:
- Wenn man Geld hat
- die CPU köpfen möchte
- ich ihn dann auf 5 GHz jage
- ich nur auf Spiele achte
- mir es egal ist, wenn ich regelmäßig ein neues Mainboard kaufen muss
- und mir die letzten paar Prozent in niedrigen Auflösungen einfach wichtig sind, dann kaufe man sich einen intel

So stand das da oben aber nicht.


Wir sind hier im 3DC.. Wer nutzt seinen privaten Rechner denn hier hauptsächlich zum Arbeiten ? Es gibt atm eben keine schnellere Spiele-CPU wie den 8700k ;) Deal with it. :cool:
Ich weiss auch nicht was daran so schwer zu akzeptieren ist. Kaufen würde ich mir den trotzdem nicht. Ein 2600x ist P/L deutlich besser..

Wer aber auf kompromisslose Leistung Wert legt, kommt da eben nicht drum herum.

Ja, das wird inhaltlich leider nicht besser. Ich nutze mein PC zum Spielen und zum Arbeiten. Außerdem rechnet er permanent bei Boinc für WCG (selbst teilweise während ich spiele).

Es gibt einfach kein schnelleres, länger nutzbares Gesamtpaket (und non X auch sehr effizientes) als AMD Ryzen. Sorry, Deal with it. :cool:

BTW: Ich hätte sogar genug Geld. :rolleyes:

Mangel76
2018-04-27, 12:19:10
Darum gehts doch nicht. Es geht darum das der 8700k nach wie vor die schnellste Gaming CPU ist.
Scheinbar ist das für einige hier schwer zu akzeptieren. Wieso auch immer.

Aber ehrlich, was will ich mich 220FPS statt 200FPS in 720p-low detail-Gaming, wenn meine GraKa in 1440p-max detail nur 60 FPS schafft? Den theoretischen Unterschied werden die meisten Spieler wahrscheinlich nie merken. Aber Anwender schon ;D

fondness
2018-04-27, 12:26:09
Aber wieviele User hier sind denn daran interessiert das ganz spezielle professionelle Anwendungen möglicherweise 5 Sekunden schneller rechnen? Ist max. Spieleleistung für die meisten hier nicht viel wichtiger?

Die Frage ist eher was die 10% im absoluten CPU-Limit in der Praxis bringen.

Viel tragischer finde ich eigendlich das die neuen Intels ein Hitzeproblem haben und man eigendlich nur geköpft an die Grenzen kommt.

Selbst Schuld, wenn man derart mies verarbeitete Produkte kauft, dazu ist auch noch der Boxed-Kühler eigentlich ein Witz. Bei einem 2700X bekommst du einen sehr guten Referenzkühler mit ordentlich verlötetem Heatspreader.

basix
2018-04-27, 12:38:49
Es gibt atm eben keine schnellere Spiele-CPU wie den 8700k ;) Deal with it. :cool:
...
Wer aber auf kompromisslose Leistung Wert legt, kommt da eben nicht drum herum.

Und was ist, wenn man einen 4.5+ GHz 8C HSW-E / BDW-E hätte? ;D
Es gibt einige Tendenzen, dass neuere Spiele (vor allem AAA) das Mehr an Cores auch in einen Performancevorteil ummünzen. Leider gibt es in diesem Test keine 8C Modelle und es sind nicht sehr viele Spiele :( https://www.computerbase.de/2017-11/cpu-aufruesten-benchmarks-test/2/

Sind wir ehrlich, alles ab 4C/8T und Skylake / Haswell OC macht nur sehr geringen Unterschied in den meisten Games in relevanten Auflösungen inkl. relevanter GPU Kombination. Die wenigsten mit einer 1080 Ti werden in 1080p spielen sondern 1440p oder 4k. 1080p User werden eher eine 1070 haben usw. Die 4C Modelle schwächeln langsam vor allem bei den Frametimes aber für 60fps reicht es in den meisten Fällen schon.

Mein Fazit: In relevanten Auflösungen ist PR nicht wirklich schlechter als Coffee Lake, vor allem inkl. Speicher-Tuning. Sicher gibt es Ausreisser aber die finde ich nicht dramatisch. Was AMD also heute bieten kann: Mehr Kerne und somit MC Performance zu einem günstigeren Preis. Was AMD voraussichtlich zusätzlich bieten kann: 7nm auf der selben Plattform. Das wäre für mich bei einem Neukauf das Killerargument. Ein 370X User hat dann plötzlich die doppelte Leistung verfügbar. Bei Intel wage ich das zu bezweifeln. Ich war enttäuscht von BDW-E. Dieser nutzte zwar weiterhin 2011-3, aber 6C lohnte sich nicht um upzudaten und 8+C war viel zu teuer (falls sich jemand fragt, ja ich habe mittlerweile einen 5960X, den ich aber für gerade mal 450 Euro neu ab Shop ergattert habe). Und Skylake-X hat schon eine andere Plattform (Update hätte sich hier aber aus anderen Gründen nicht gelohnt). Das macht mir AMD wesentlich sympathischer und mein nächstes System wird mit sehr grosser Wahrscheinlichkeit AMD sein. 7+nm und DDR5 vorausgesetzt.

Megamember
2018-04-27, 12:43:26
Selbst Schuld, wenn man derart mies verarbeitete Produkte kauft, dazu ist auch noch der Boxed-Kühler eigentlich ein Witz. Bei einem 2700X bekommst du einen sehr guten Referenzkühler mit ordentlich verlötetem Heatspreader.

Naja, in Schutz nehmend muss man dazu sagen das es eigendlich nur in synthetischen Anwendungen mit AVX richtig Übel wird. Da drehen die Intels dann am Rand (und ins Temp Limit). In Games wird mein 7820X (8 Kerne/16 Threads) mit Lukü@4,5GHZ kaum wärmer als 75 Grad was voll im Rahmen liegt. STock sogar unter 60.

Ätznatron
2018-04-27, 12:47:24
Der 8700k "boxed" wird ohne Boxed-Kühler ausgeliefert. ;)

Aber richtig ist schon, dass man den 8700k übertakten muss, um einen größeren Vorsprung zu erzielen.

Und da kommt dann eben die Temperaturproblematik ins Spiel: Viele 8700er erreichen zwar 5GHz, aber bei weitem nicht alle geben sich dabei mit einer so geringen Vcore zufrieden, dass sie ohne weiteres in unbedenklichem Rahmen bleiben.

"Köpfen" ist also häufig ein Muss, von starker Luft- oder Wasserkühlung mal ganz abgesehen.

So erhält man zwar eine schnelle Gaming-CPU, aber nur mit einem Aufwand, der für Otto Normalgamer doch schon ein wenig außerhalb der Möglichkeiten liegt.

Isen
2018-04-27, 12:53:25
Es gibt einige Tendenzen, dass neuere Spiele (vor allem AAA) das Mehr an Cores auch in einen Performancevorteil ummünzen. Leider gibt es in diesem Test keine 8C Modelle und es sind nicht sehr viele Spiele


Das in 3 Monaten erscheinende WoW Addon hat DX12 implementiert bekommen.
Ich bin auch in der Alpha respektive nun Beta und habe das mit meinem Ryzen natürlich durchaus gefeiert, da WoW ja seit bestehen (2004?) quasi an einem Kern klebt und ausschließlich via Ladesequenzen und diverse Addons die man installiert hat auf 2-3 weitere Kerne skaliert - wenn auch nur müßig.

Die BfA Beta mit DX12 hat Aktuell exakt die selben "Probleme" wie die Anfänge bei Forza Horizon 3 ( Stellenweise Mikroruckler obwohl +100fps)- die wurde ja im Laufe der nächsten 2 Monate ausgebügelt.

Nun. In der BfA Beta werden jedenfalls bei mir 8 Threads gleichmäßig belastet.
Die Mikroruckler sind wie bei Forza Horizon 3 mittels deaktivieren des SMT zu beheben, bis es Blizzard von sich aus gefixt hat.
Der Performance Zuwachs, speziell in Raids (20-30 Mann) die eh niemand offizielles testet, ist echt beachtlich.

Wenn also schon Blizzard mit WoW den Schritt hin zu DX12 wagt und es funktioniert, wird es bei AAA Titeln nicht aufhören besser gesagt, es just als Performance Impact zu nutzen.

MartinRiggs
2018-04-27, 13:00:14
Aber ehrlich, was will ich mich 220FPS statt 200FPS in 720p-low detail-Gaming, wenn meine GraKa in 1440p-max detail nur 60 FPS schafft? Den theoretischen Unterschied werden die meisten Spieler wahrscheinlich nie merken. Aber Anwender schon ;D

Die meisten sollten mal selber testen anstatt nachbabbeln oder halbwissen zu verbreiten, Ryzen 1 war z.b. in GTA5 eine absolute Krücke und das in WQHD und hat auch in anderen Games in WQHD nicht überzeugt.
Hab ich selbst bei meinem Kumpel getestet, der ist dann nämlich auf einen 8700K umgestiegen.
Ob Ryzen 2 da wirklich die Offenbarung ist, glaube ich erst wenn ich es selbst sehe.:rolleyes:

dildo4u
2018-04-27, 13:04:39
Der Boost Funktionierte letzte Gen in Games nicht richtig.Laut Computerbase ist der 2600 65 Watt deswegen dort jetzt schneller als der 1800x 95 Watt.Das ist das billigste 2018 Modell gegen das Teuerste von 2017.

TwoBeers
2018-04-27, 14:13:15
Nun. In der BfA Beta werden jedenfalls bei mir 8 Threads gleichmäßig belastet.
Die Mikroruckler sind wie bei Forza Horizon 3 mittels deaktivieren des SMT zu beheben, bis es Blizzard von sich aus gefixt hat.
Der Performance Zuwachs, speziell in Raids (20-30 Mann) die eh niemand offizielles testet, ist echt beachtlich.

Wenn also schon Blizzard mit WoW den Schritt hin zu DX12 wagt und es funktioniert, wird es bei AAA Titeln nicht aufhören besser gesagt, es just als Performance Impact zu nutzen.

Super, danke für diese Vorabinfos. Da ich WoW noch recht regelmäßig zocke, freue ich mich schon auf den Performanceschub. U.a. deswegen betreibe ich den Ryzen auch bei 4GHz. Das brauch ich dann vieleicht gar nicht mehr (zumindest in WoW). :)

SKYNET
2018-04-27, 15:03:38
Aber ehrlich, was will ich mich 220FPS statt 200FPS in 720p-low detail-Gaming, wenn meine GraKa in 1440p-max detail nur 60 FPS schafft? Den theoretischen Unterschied werden die meisten Spieler wahrscheinlich nie merken. Aber Anwender schon ;D

selbst in FHD mit allen auf max rennt meine gurke mit der 1080Ti nicht im limit... ok, bei Q3 wäre da wohl sicherlich nen limit oder CS ;D... 1000fps :freak:

Rancor
2018-04-27, 16:42:26
Wie ihr abgeht. :D

Es ändert alles nix daran das man einen 8700k braucht, wenn man die maximal CPU Leistung für Spiele haben will.
Wenn man das nicht will dann kauft man einen Ryzen. Ihr könnt euch drehen und wenden wie ihr wollt. Es ist nunmal so :D

M4xw0lf
2018-04-27, 17:06:05
Wie ihr abgeht. :D

Es ändert alles nix daran das man einen 8700k braucht, wenn man die maximal CPU Leistung für Spiele haben will.
Wenn man das nicht will dann kauft man einen Ryzen. Ihr könnt euch drehen und wenden wie ihr wollt. Es ist nunmal so :D
Der Leistungsunterschied ist spätestens mit schnellem Ram gerade noch messbar. Ist nunmal so.

Kriton
2018-04-27, 17:18:59
Die meisten sollten mal selber testen anstatt nachbabbeln oder halbwissen zu verbreiten, Ryzen 1 war z.b. in GTA5 eine absolute Krücke und das in WQHD und hat auch in anderen Games in WQHD nicht überzeugt.
Hab ich selbst bei meinem Kumpel getestet, der ist dann nämlich auf einen 8700K umgestiegen.
Ob Ryzen 2 da wirklich die Offenbarung ist, glaube ich erst wenn ich es selbst sehe.:rolleyes:

Genau dies ist laut Reviews doch aber gefixt worden.

Grand Theft Auto 5 ist wie gehabt einer der am meisten gespielten Titel am PC, zudem skaliert es nicht mit mehr als vier Threads. Offenbar schlagen gerade daher die Verbesserungen von Zen+ wie der höher taktende Turbo und die Latenz-ärmeren Caches durch: Der Ryzen 7 2700X ist mal eben 20 Prozent schneller als der Ryzen 7 1800X und erreicht nahezu die Bildrate des Core i7-8700K. Einen solchen Leistungszuwachs hätten wir nicht erwartet, er zeigt aber, dass Pinnacle Ridge definitiv ein Fortschritt ist.

https://www.golem.de/news/ryzen-7-2700x-im-test-amds-zen-zieht-gleich-mit-intel-1804-133262-4.html

Lehdro
2018-04-27, 17:42:52
-20% sind also gleich "absolute Krücke". Ok.

SKYNET
2018-04-27, 17:46:57
Wie ihr abgeht. :D

Es ändert alles nix daran das man einen 8700k braucht, wenn man die maximal CPU Leistung für Spiele haben will.
Wenn man das nicht will dann kauft man einen Ryzen. Ihr könnt euch drehen und wenden wie ihr wollt. Es ist nunmal so :D

wenn man die CPU @ stock lässt und nur den ram ans limit treibt, schmilzt der vorsprung des 8700k auf null runter :P weil die gurke skaliert nämlich ziemlich schlecht mit schnelleren ram und timings. :rolleyes:

und dann hat man noch den vorteil das alle zukunftigen games so oder so schneller laufen werden auf nem 2700X, da immer mehr multicore support kommt.... sieht man ja prima die paar games dies schon tun, rennt der ryzen dem 8700k davon ;D

aber nostalgiker die nur oldschool games zocken, sind mit dem intel sicher besser aufgehoben :P

SKYNET
2018-04-27, 17:50:40
Genau dies ist laut Reviews doch aber gefixt worden.



https://www.golem.de/news/ryzen-7-2700x-im-test-amds-zen-zieht-gleich-mit-intel-1804-133262-4.html

und RotTR sieht man wie gut multicore support sein kann... weniger maximaltakt, trotzdem schneller :cool:

w0mbat
2018-04-27, 18:27:02
Wie ihr abgeht. :D

Es ändert alles nix daran das man einen 8700k braucht, wenn man die maximal CPU Leistung für Spiele haben will.
Wenn man das nicht will dann kauft man einen Ryzen. Ihr könnt euch drehen und wenden wie ihr wollt. Es ist nunmal so :D

Das stimmt einfach nicht. Mit schnellem DDR4-3466 und optimierten timings ist die Spiele IPC in etwa gleich, der Ryzen hat aber mehr Kerne/Threads.

Es tut mir leid, dass dir die Wahrheit so weh tut ;D

Menace
2018-04-27, 18:36:16
Wie ihr abgeht. :D

Es ändert alles nix daran das man einen 8700k braucht, wenn man die maximal CPU Leistung für Spiele haben will.
Wenn man das nicht will dann kauft man einen Ryzen. Ihr könnt euch drehen und wenden wie ihr wollt. Es ist nunmal so :D


Ok, von der ursprünglichen Aussage, für die ich Gründe genannt haben wollte, ist ja nichts mehr übrig geblieben. ;D

"Wer spart, kauft Ryzen; wer Geld hat, kauft intel." Nichts ist davon mehr übrig, sondern der kleine Sonderfall für die Leute, die die "maximale CPU Leistung für ein (paar) Spiele messen möchte". :biggrin:

G3cko
2018-04-27, 19:06:10
Wie ihr abgeht. :D

Es ändert alles nix daran das man einen 8700k braucht, wenn man die maximal CPU Leistung für Spiele haben will.
Wenn man das nicht will dann kauft man einen Ryzen. Ihr könnt euch drehen und wenden wie ihr wollt. Es ist nunmal so :D

Das kann man so pauschal nicht sagen. Das gilt in der Regel für den Releasezeitpunkt, aber da spielte es keine Rolle.
Bestes Beispiel:
E8400 vs Q6600
4970k vs 5960x.
6700k vs 6900k

Selbst im Intel-Lager waren die CPUs mit etwas mehr Takt am Anfang vorne. Mit der Zeit wendet sich das Blatt. Fehlt dir etwas Singlethreadleistung läufts halt nur etwas langsamer. Fehlen dir Threads oder Leistung in der Breite sieht richtig düster aus. Oder wie Jemand hier schrieb: "Die Frametimes meines 6600k kotzen mich an." Und wie oft wurde diese CPU empfohlen... ;)

fondness
2018-04-27, 19:20:26
Interessante Hintergrundstory zu Zen, u.a. war mit Keller von Anfang an vereinbart, dass er nur 3 Jahre bei AMD bleiben wird:

Inside AMD's Quest to Build Chips That Can Beat Intel (https://gizmodo.com/inside-amds-quest-to-build-chips-that-can-beat-intel-1824064984?sf187906950=1)

This is where a talented engineer named Jim Keller comes in. He’s a mythical sort of figure within AMD. Nearly every person I spoke to cited Keller as one of the primary people behind the success of Zen’s design, and importantly behind the design of Infinity Fabric.

Papermaster hired Keller in 2012 and put him in charge of the processor group. Keller was no stranger to AMD. He’d worked there previously in the ‘90s and his short tenure had achieved legendary status in the geeky processor community online where he is credited as the principal figure behind AMD’s K8 microarchitecture which allowed the company to be viciously competitive with Intel in the late ‘90s and early 2000s.

Keller and Papermaster had worked at Apple together, where Keller is credited with designing the first CPUs Apple built itself for its iPhones and iPads. When he came to AMD, both he and his new employer agreed to come under a limited time contract. He would work at AMD for three years, and at the end of that contract he would depart, which he did in 2015.

Rancor
2018-04-27, 19:53:45
Ok, von der ursprünglichen Aussage, für die ich Gründe genannt haben wollte, ist ja nichts mehr übrig geblieben. ;D

"Wer spart, kauft Ryzen; wer Geld hat, kauft intel." Nichts ist davon mehr übrig, sondern der kleine Sonderfall für die Leute, die die "maximale CPU Leistung für ein (paar) Spiele messen möchte". :biggrin:

Das habe ich niemals gesagt, da verwechselst du mich wohl ;) Ich habe lediglich gesagt, das man für maximal Spieleleistung einen 8700k kaufen muss, wenn die denn haben will. Das man den köpfen und ocen muss und dass viel teurer ist, steht auf einem ganz anderen Blatt ;)

-/\-CruNcher-/\-
2018-04-27, 19:57:26
Wie ihr abgeht. :D

Es ändert alles nix daran das man einen 8700k braucht, wenn man die maximal CPU Leistung für Spiele haben will.
Wenn man das nicht will dann kauft man einen Ryzen. Ihr könnt euch drehen und wenden wie ihr wollt. Es ist nunmal so :D

Das man einen 8700K brauch kann man ruigh als komplett versagen der Entwickler und der verwendeten Middleware betrachten, die in den meisten fällen dann nicht optimal abgestimmt ist ;)

Menace
2018-04-27, 20:00:39
Das habe ich niemals gesagt, da verwechselst du mich wohl ;) Ich habe lediglich gesagt, das man für maximal Spieleleistung einen 8700k kaufen muss, wenn die denn haben will. Das man den köpfen und ocen muss und dass viel teurer ist, steht auf einem ganz anderen Blatt ;)

Ach rede Dich doch nicht raus. Du hast mich und meine Fragen zu Floi gequotet und darauf geantwortet.

Oder willst Du jetzt sagen, Du hast mich zwar gequotet, bist aber gar nicht auf meine Fragen eingegangen? :eek: :biggrin:

w0mbat
2018-04-27, 20:15:03
Das habe ich niemals gesagt, da verwechselst du mich wohl ;) Ich habe lediglich gesagt, das man für maximal Spieleleistung einen 8700k kaufen muss, wenn die denn haben will. Das man den köpfen und ocen muss und dass viel teurer ist, steht auf einem ganz anderen Blatt ;)

Ja, geköpft und mit Wakü @5,2GHz ist er schneller. Können wir das Thema jetzt lassen?

Emil_i_Lönneberga
2018-04-28, 20:49:49
Irgendjemand monierte gestern ja, dass Assassin's Creed Origins Rise of the Tomb Raider, beide mit Vorbildfunktion in Sachen moderner Multicore Engine Support, Intel cherrypicking seinen.

Daher nochmal als Ryzen Bestcase:



The Winner 7820X @4,7GHz @120W (https://geizhals.de/intel-core-i7-7820x-bx80673i77820x-a1632796.html) Spiele worstcase mit 180€ Mobo (https://geizhals.de/msi-x299-raider-7a94-001r-a1641249.html?hloc=at&hloc=de) takes it all.

Nicht dass die Ryzen Fans noch die Bodenhaftung verlieren, von daher handle im Sinne des Allgemeinwohl.

63214

63215

63216

63217

dildo4u
2018-04-28, 21:06:55
Ryzen mit 2933 Ram ist alles andere als best Case.

http://abload.de/img/rzeyntoimingsctrp4.png

https://www.computerbase.de/2018-04/amd-ryzen-2000-test/7/#diagramm-star-wars-battlefront-2-speicheroptimierungen

Emil_i_Lönneberga
2018-04-28, 21:12:20
DDR4 3400 MHz ist enthalten, habe die Benchmarks ja nicht aus aus Jux und Tollerei angeführt :rolleyes:.

dildo4u
2018-04-28, 21:24:49
Und FC5 hat mit das geringste Skaling was Ram Takt angeht.(8-11%)
Projekt Cars 2 15-16%,Star Wars 16-23%,Warhammer 22-26%.

Megamember
2018-04-28, 21:29:43
@Emil
Dein Mesh clock hat noch Optimierungspotenzial.

Emil_i_Lönneberga
2018-04-28, 21:52:22
Und FC5 hat mit das geringste Skaling was Ram Takt angeht.(8-11%)
Projekt Cars 2 15-16%,Star Wars 16-23%,Warhammer 22-26%.

Und Intel wird mit schnellem RAM natürlich langsamer, sodass sich die Kernaussage komplett ändert. :freak:

Nur weil sich die Schmallmauer von SR von 4,0 GHz auf 4,2 GHz bei PR geändert hat, muss man die massive OC Überlegenheit von Intel im Vergleich natürlich ignorieren.

Was die Leute mit Ihren 5 GHz beim 8700K immer haben. Dann nehmt ihn halt mit minimaler Spannunsgerhöhung mit 4,8GHz Allcore im OC Sweetspot in den Vergleich auf. Dasselbe gilt für den 7820X @ 4,7GHz im Vergleich weiter oben inklusive HWinfo Angaben.
Kommt dem 2700(X) natürlich nicht entgegen, dann wird das schon mal gerne übersehen.

@Emil
Dein Mesh clock hat noch Optimierungspotenzial.

Jep, noch weiteres Optimierungspotenzial zur Leistungsverbesserung ohne Ende.

Lehdro
2018-04-28, 22:23:28
Da muss sich aber einer sein teures HEDT System rechtfertigen :D

Tamagothi
2018-04-28, 23:13:22
Und dann auch noch 720p Werte als Grundlage nehmen -.-

Emil_i_Lönneberga
2018-04-28, 23:15:29
Da muss sich aber einer sein teures HEDT System rechtfertigen :D

Preis/Performance ist günstig, siehe oben.

Screemer
2018-04-28, 23:17:49
Kann man die scheißen nicht Mal aus dem Threads raus halten?

Der_Korken
2018-04-28, 23:36:14
Irgendjemand monierte gestern ja, dass Assassin's Creed Origins Rise of the Tomb Raider, beide mit Vorbildfunktion in Sachen moderner Multicore Engine Support, Intel cherrypicking seinen.

Daher nochmal als Ryzen Bestcase:



The Winner 7820X @4,7GHz @120W (https://geizhals.de/intel-core-i7-7820x-bx80673i77820x-a1632796.html) Spiele worstcase mit 180€ Mobo (https://geizhals.de/msi-x299-raider-7a94-001r-a1641249.html?hloc=at&hloc=de) takes it all.

Nicht dass die Ryzen Fans noch die Bodenhaftung verlieren, von daher handle im Sinne des Allgemeinwohl.

63214

63215

63216

63217



Was soll uns dieser Post jetzt sagen? Du wirfst eine CPU in den Raum, die 50% mehr kostet als der 2700X (um den es hier hauptsächlich geht), die mit 4,7Ghz Allcore nie und nimmer 120W verbraucht (auch in deinem unscharfen Screenshot nicht) und dann shoppst du beim PCGH-Bench den Balken der CPU auf doppelte Länge.

:freak: :confused:

Rancor
2018-04-28, 23:58:33
Was soll uns dieser Post jetzt sagen? Du wirfst eine CPU in den Raum, die 50% mehr kostet als der 2700X (um den es hier hauptsächlich geht), die mit 4,7Ghz Allcore nie und nimmer 120W verbraucht (auch in deinem unscharfen Screenshot nicht) und dann shoppst du beim PCGH-Bench den Balken der CPU auf doppelte Länge.

:freak: :confused:

Vor allem sieht man ganz genau wo der 7820x vorher war :D

Emil_i_Lönneberga
2018-04-29, 00:30:04
Was soll uns dieser Post jetzt sagen? Du wirfst eine CPU in den Raum, die 50% mehr kostet als der 2700X (um den es hier hauptsächlich geht), die mit 4,7Ghz Allcore nie und nimmer 120W verbraucht (auch in deinem unscharfen Screenshot nicht) und dann shoppst du beim PCGH-Bench den Balken der CPU auf doppelte Länge.

:freak: :confused:

Lenk nicht ab, man kann in der Vollansicht alle Werte erkennen. Die Bildgrößenbeschränkung ist hier nicht gerade hilfreich. Dachte es geht auch mal ohne abload.de, ist aber genauso möglich. Daran soll's nicht scheitern.

63220

63221

Ich dachte du kennst dich mit Lastszenarien aus. Gut, dann erklär ich dir eben die Basics.

Prime 26.6 Small FFTs ohne AVX Befehlssätze bietet sich als Spiele Worst Case Simulation durch 100% Last auf allen Kernen an, auch wenn diese Auslastung hier never ever erreicht wird.
Und bevor es jemand jetzt erwähnt: Prime 29.4 als aktuelle Version erreicht selbst mit in der Textdatei deaktivierten Befehlssätzen, um Prime26.6 mit dieser neueren Ausführung zu simulieren, eine noch höhere Auslastung. Alles alter Käse und nicht zielführend.

Was ist also so schwer daran zu verstehen, von den im Mittel 150W in Prime 26.6 4,7GHz auf 120W in Games zu schließen?
Du kannst mich gerne von Gegenteil überzeugen, indem du für den 7820X @4,7GHz @1,15V ein Spiel findest, das eine höhere Leistungsaufnahme erzeugt als der durch Prime26.6 Small FFTs dargestellte Wert.
Schaffst du nicht? Kein Ding: https://img.purch.com/amd-ryzen-7-2700x-ryzen-5-2600x-review/o/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS82L0svNzYzNTgwL29yaWdpbmFsLzA2LVBvd2VyLUNv bnN1bXB0aW9uLUdhbWluZy5wbmc=

Zur Balkenlänge: Ich kann nichts dafür, dass in den ganzen Reviews ein optimierter 2700X @4,1GHz mit 3400er Ram inklusive optimierten Timings einem out-of-the-box 7820X mit 4GHz Allcore Turbo mit lahmen 2666 RAM gegenübergestellt wird.
Ich habe also nur für gleiche Ausgangsbedingungen gesorgt. Im Übrigen sehe ich weder doppelte FPS noch eine doppelte Balkenlänge.

Langlay
2018-04-29, 00:50:17
Ich habe also nur für gleiche Ausgangsbedingungen gesorgt.

Du hast nicht für gleiche Ausgangbedingungen gesorgt sondern nur für andere Ausgangsbedingungen.

Weil beim Preis gibts dann doch grössere Unterschiede.

Und 4.1 GHz Allcore macht der 2700+ out of the Box mit einem Vernünfigen Kühler. Selbst mit dem Stockkühler biste fast immer >4.0 GHz.

Der_Korken
2018-04-29, 00:56:49
Was ist also so schwer daran zu verstehen, von den im Mittel 150W in Prime 26.6 4,7GHz auf 120W in Games zu schließen?

Die 150W habe ich vorher erkannt. Dass das mit Prime gemessen wurde und nicht ingame, war nicht ersichtlich. Wenn wir schon beim Spiele-Verbrauch sind:

https://www.tomshardware.com/reviews/amd-ryzen-7-2700x-review,5571-12.html

55W für den 2700X und 80W für den 7820X. Stock natürlich.

Zur Balekenlänge: Ich kann nichts dafür, dass in den ganzen Reviews ein optimierter 2700X @4,1GHz mit 3400er Ram inklusive optimierten Timings einem out-of-the-box 7820X mit 4GHz Allcore Turbo mit lahmen 2666 RAM gegenübergestellt wird.
Ich habe also nur für gleiche Ausgangsbedingungen gesorgt. Im Übrigen sehe ich weder doppelte FPS noch eine doppelte Balkenlänge.

In dem Bench, den du gepostet hast, wird ein stinknormaler out-of-the-box 2700X mit 2933er SR RAM getestet, also genau nach Spezifikation. Und für deinen 4,7Ghz 7820X zeichnest du statt 73/49 fps (avg/min) einfach mit 123/98 ein (+65/100%), also Verdopplung der min fps. Das wäre nur möglich, wenn der 7820X@stock nur mit 2,35Ghz im worst case laufen würde und der RAM gar nicht limitiert. Tatsächlich kann er aber auch so schon bis 4,3 4,0Ghz auf allen Cores boosten.

Edit: Falsche Turbo-States nachgeguckt.

Megamember
2018-04-29, 00:58:36
Tatsächlich kann er aber auch so schon bis 4,3Ghz auf allen Cores boosten.


Nöö, auf genau 4GHZ. Teillast auf einzelnen 4,3.

Igor TH
2018-04-29, 06:52:53
4.3 GHz Allcore habe ich übrigens auch - mit der passenden BIOS Einstellung. Ohne Enhancer-Cheat klappt das aber nicht. ;)

Pappenheimer
2018-04-29, 07:36:25
4.3 GHz Allcore habe ich übrigens auch - mit der passenden BIOS Einstellung. Ohne Enhancer-Cheat klappt das aber nicht. ;)

Über ein paar Tipps würde ich mich freuen. :D

Freestaler
2018-04-29, 07:56:04
Hat einer ein ryzen und ein Bios mit min. AGESA 1.0.0.2a, der gewillt ist zu prüfen ob der Multi OC Bug noch existiert (seit version 1.0.0.1a)? Multi änderungen im bios führen zum verlust von mehr als 20% speicher/cache bandbreite. Wird der multi hingegen im Windows mit AMD Master tool gemacht, passiert dies nicht. Einfach zu testen mit memorybenchmark von aida64+.

basix
2018-04-29, 10:45:37
Die 150W habe ich vorher erkannt. Dass das mit Prime gemessen wurde und nicht ingame, war nicht ersichtlich. Wenn wir schon beim Spiele-Verbrauch sind:

https://www.tomshardware.com/reviews/amd-ryzen-7-2700x-review,5571-12.html

55W für den 2700X und 80W für den 7820X. Stock natürlich.



In dem Bench, den du gepostet hast, wird ein stinknormaler out-of-the-box 2700X mit 2933er SR RAM getestet, also genau nach Spezifikation. Und für deinen 4,7Ghz 7820X zeichnest du statt 73/49 fps (avg/min) einfach mit 123/98 ein (+65/100%), also Verdopplung der min fps. Das wäre nur möglich, wenn der 7820X@stock nur mit 2,35Ghz im worst case laufen würde und der RAM gar nicht limitiert. Tatsächlich kann er aber auch so schon bis 4,3 4,0Ghz auf allen Cores boosten.

Edit: Falsche Turbo-States nachgeguckt.

Min. FPS können überproportional steigen. Wenn man für FPS x noch 20% Reserven hat und dann plötzlich 40% ist das Faktor 2 um den FPS-Dip auszugleichen. SC2 ist ein Extrembeispiel, wo sogar die avg. FPS extrem ansteigen. Wenn man bei Gothic 3 die FPS z.B. auf 60 begrenzt verschwinden die Nachlade-Dips / Hänger praktisch komplett als wenn man es unlimitiert auf 100fps spielt. Einfach weil man Reserven hat.

Aber ja, die +65% avg. erscheinen mir auch ein wenig hoch.

Tamagothi
2018-04-29, 11:49:48
Ich weiß gar nicht wie man dem Emil_i_Lönneberga nur ansatzweise gehöre schenken kann?

Als Basis 720p nehmen ( jo jeder spielt in 1280/720 )

In FarCry 5 Skalieren die Kerne ab 6c/6t nahezu mit 0% Klick (http://www.guru3d.com/articles-pages/far-cry-5-pc-graphics-performance-benchmark-review,8.html)
In 720p wohlgemerkt. in FullHD ab 4c/4t

Und das beste war ja die glaubhaften Werte die er in den Screenshot reingepinselt hat :freak:

Armaq
2018-04-29, 11:55:57
Zumal Intel auch die Forentrolle losschicken wird nach dem Release.

Megamember
2018-04-29, 12:57:39
Ich weiß gar nicht wie man dem Emil_i_Lönneberga nur ansatzweise gehöre schenken kann?

Als Basis 720p nehmen ( jo jeder spielt in 1280/720 )

In FarCry 5 Skalieren die Kerne ab 6c/6t nahezu mit 0% Klick (http://www.guru3d.com/articles-pages/far-cry-5-pc-graphics-performance-benchmark-review,8.html)
In 720p wohlgemerkt. in FullHD ab 4c/4t

Und das beste war ja die glaubhaften Werte die er in den Screenshot reingepinselt hat :freak:


Also 720P wird üblicherweise gebenched um die CPU Performance zu ermitteln.

Savay
2018-04-29, 13:01:01
Ich verstehe dennoch nicht so recht was das hier im Zen+ Review Thread zu suchen hat?! :freak:

Das ist doch reines Trolling. :rolleyes:

Megamember
2018-04-29, 13:04:38
Und was ist an Vergleichswerten mit der Konkurrenz so verkehrt das die nicht hier reingehören? Ist doch eher hilfreich.

Wenns jetzt Beleidigungen oder absichtliche Falschaussagen sind wie es bekannte Trolle hier pflegen würde ich es verstehen aber so....

Linmoum
2018-04-29, 13:19:02
Als Basis 720p nehmen ( jo jeder spielt in 1280/720 )

Die Diskussion gibt's gefühlt auch jede Woche.

Es spielt keine Rolle, wie viele Leute in 720p spielen. Wenn ich die Leistungsfähigkeit einer CPU ermitteln will (was das primäre Ziel solcher Benchmarks zu sein hat), dann muss ich in einer niedrigen Auflösung benchen, da das Ergebnis sonst durch die GPU verfälscht wird. Was, wie gesagt, keinen Sinn ergibt, wenn ich wissen will, wie leistungsstark eine CPU ist.

dildo4u
2018-04-29, 13:37:01
Ich hab jetzt die neue PCGH fps sind nicht alles bei Tomb Raider und Witcher 3 hat Ryzen z.b glattere Frametimes.

http://abload.de/img/20180429_134534odp7t.png

http://abload.de/img/20180429_134037uxk7c.png

MadPenguin
2018-04-29, 17:01:30
Hoffe das passt hierher und wird nicht als OT gewertet:
Gibt es roundup Tests bezüglich X470 Mainboards, die es wert sind gelesen zu werden? Habe so nebenbei mitbekommen, dass es zwischen den Herstellern große Unterschiede bezüglich Stromverbrauch gibt. Welcher Hersteller ist diese Mal zu empfehlen (welcher sich bis jetzt herauskristallisiert hat)?

Danke sehr!

Schnitzl
2018-04-29, 17:41:32
Die Diskussion gibt's gefühlt auch jede Woche.

Es spielt keine Rolle, wie viele Leute in 720p spielen. Wenn ich die Leistungsfähigkeit einer CPU ermitteln will (was das primäre Ziel solcher Benchmarks zu sein hat), dann muss ich in einer niedrigen Auflösung benchen, da das Ergebnis sonst durch die GPU verfälscht wird. Was, wie gesagt, keinen Sinn ergibt, wenn ich wissen will, wie leistungsstark eine CPU ist.
Völlig richtig...in der Theorie.
In der Praxis sind schon mehrere Messreihen notwendig, z.B. noch eine mit 1440p und dann noch mit anderen Details.
Nur dann kann man sich ein (Gesamt-)Bild machen.
imho

Menace
2018-04-29, 18:07:08
Die Diskussion gibt's gefühlt auch jede Woche.

Es spielt keine Rolle, wie viele Leute in 720p spielen. Wenn ich die Leistungsfähigkeit einer CPU ermitteln will (was das primäre Ziel solcher Benchmarks zu sein hat), dann muss ich in einer niedrigen Auflösung benchen, da das Ergebnis sonst durch die GPU verfälscht wird. Was, wie gesagt, keinen Sinn ergibt, wenn ich wissen will, wie leistungsstark eine CPU ist.

Wenn Du die Leistungsfähigkeit einer CPU ermitteln möchtest, dann wäre es sinnvoll Software auszuwählen, die man so auch nutzt. Spiele in 720p kann man machen, aber hat für den Praxisbezug halt wenig Aussagekraft. Für einen Balkenlängenfetisch, ist er aber durchaus bedeutend.

aufkrawall
2018-04-29, 18:26:57
Es ist für vernunftbegabte Menschen auch bedeutend, weil damit zu rechnen ist, dass Tester nicht die CPU-kritischste Stelle im Spiel finden.
Im Gegenteil haben dann Quatsch-Benchmarks im GPU-Limit für CPU-Tests keinerlei Bedeutung, außer man will die Leistung des Verlierers schönfärben.

SKYNET
2018-04-29, 18:29:34
Wenn Du die Leistungsfähigkeit einer CPU ermitteln möchtest, dann wäre es sinnvoll Software auszuwählen, die man so auch nutzt. Spiele in 720p kann man machen, aber hat für den Praxisbezug halt wenig Aussagekraft. Für einen Balkenlängenfetisch, ist er aber durchaus bedeutend.

praxis bezug wäre einfach FHD, so wie 70% der steam nutzer es auch haben, alle anderen auflösungen sind nischenbereiche, egal ob weniger oder mehr.

Hasenpfote
2018-04-29, 22:05:46
praxis bezug wäre einfach FHD, so wie 70% der steam nutzer es auch haben, alle anderen auflösungen sind nischenbereiche, egal ob weniger oder mehr.Totaler Blödsinn! Für Full-HD reicht eine RX560 und n 1500X (zugegeben, bei Farcry wäre eine RX570 o.ä schon besser, um alles auf High setzen zu können). Um CPU-Unterschiede bei FullHD festzustellen ist eine 1080Ti nötig. Die Anzahl der Leute, die eine derartige Karte haben ist weit geringer als die 30% Nische. Die Leute, die eine derartige Karte haben und bei FullHD spielen, ist nochmal eine Nische in der 1080Ti Nische. Wobei da vermutlich der Großteil sich auf den Intelvorsprung von 25fps (also 225fps vs. 250fps) regelmäßig einen von der Palme... nunja....

Und wer sich über den Praxisbezug aufregt:
Die meisten Benchmarks haben NULL Praxisbezug! Wen interessiert es, ob eine CPU 5s schneller (ent)packt? Oder eine mp3 schneller encodiert. Oder ein Video 30s schneller fertig rendert? Es werden Relationen der CPUs untereinander dargestellt und als Nutzer kann man sich entscheiden, ob man bereit ist XXX Euro für CPU Y auszugeben und nochmal YYY Euro um ein paar % mehr Leistung zu haben (die im Endeffekt nur für's Ego/Hose sind). Bestes Beispiel der Typ im Marktplatz, der erst 2300Euro für nen 8700K-Edelsystem ausgibt um nach vier Wochen zu merken, dass seine alte Möhre mit ner 750 seinen Ansprüchen weiter genügt und nun versucht die Kiste zu verticken (ok, vielleicht gab's auch Ärger mit Papi für's Kreditkarte nuzten ;D ).

Aber hey, das Internet wäre doch viel langweiliger ohne Leute wie Emil_i_Lönneberga.

Aus Erfahrung kann ich sagen, dass n 1700X absolut überdimensioniert ist für ne RX560. Aber die 16 Threads im Taskmanager sind schon geil...

SKYNET
2018-04-30, 02:08:43
Totaler Blödsinn! Für Full-HD reicht eine RX560 und n 1500X (zugegeben, bei Farcry wäre eine RX570 o.ä schon besser, um alles auf High setzen zu können). Um CPU-Unterschiede bei FullHD festzustellen ist eine 1080Ti nötig. Die Anzahl der Leute, die eine derartige Karte haben ist weit geringer als die 30% Nische. Die Leute, die eine derartige Karte haben und bei FullHD spielen, ist nochmal eine Nische in der 1080Ti Nische. Wobei da vermutlich der Großteil sich auf den Intelvorsprung von 25fps (also 225fps vs. 250fps) regelmäßig einen von der Palme... nunja....

Und wer sich über den Praxisbezug aufregt:
Die meisten Benchmarks haben NULL Praxisbezug! Wen interessiert es, ob eine CPU 5s schneller (ent)packt? Oder eine mp3 schneller encodiert. Oder ein Video 30s schneller fertig rendert? Es werden Relationen der CPUs untereinander dargestellt und als Nutzer kann man sich entscheiden, ob man bereit ist XXX Euro für CPU Y auszugeben und nochmal YYY Euro um ein paar % mehr Leistung zu haben (die im Endeffekt nur für's Ego/Hose sind). Bestes Beispiel der Typ im Marktplatz, der erst 2300Euro für nen 8700K-Edelsystem ausgibt um nach vier Wochen zu merken, dass seine alte Möhre mit ner 750 seinen Ansprüchen weiter genügt und nun versucht die Kiste zu verticken (ok, vielleicht gab's auch Ärger mit Papi für's Kreditkarte nuzten ;D ).

Aber hey, das Internet wäre doch viel langweiliger ohne Leute wie Emil_i_Lönneberga.

Aus Erfahrung kann ich sagen, dass n 1700X absolut überdimensioniert ist für ne RX560. Aber die 16 Threads im Taskmanager sind schon geil...

keine ahnung, spiele wie die meisten in FHD und das mit 2700X und 1080 Ti :P

gravitationsfeld
2018-04-30, 02:10:50
Wenn Du die Leistungsfähigkeit einer CPU ermitteln möchtest, dann wäre es sinnvoll Software auszuwählen, die man so auch nutzt. Spiele in 720p kann man machen, aber hat für den Praxisbezug halt wenig Aussagekraft. Für einen Balkenlängenfetisch, ist er aber durchaus bedeutend.
720p ergibt fuer CPU-Tests komplett Sinn und hat mehr Praxisbezug als im halben oder vollen GPU-Limit zu testen.

Ich versteh nicht, warum wir das seit 20 Jahren immer wieder diskutieren muessen. Wollt ihr wissen wie schnell die CPU ist oder nicht? Das einzige was mit hoeherer Aufloesung bei CPU-Tests erreicht wird ist die Messungenauigkeit zu erhoehen. Kann doch nicht so schwer zu verstehen sein.

Menace
2018-04-30, 08:12:52
720p ergibt fuer CPU-Tests komplett Sinn und hat mehr Praxisbezug als im halben oder vollen GPU-Limit zu testen.

Ich versteh nicht, warum wir das seit 20 Jahren immer wieder diskutieren muessen. Wollt ihr wissen wie schnell die CPU ist oder nicht? Das einzige was mit hoeherer Aufloesung bei CPU-Tests erreicht wird ist die Messungenauigkeit zu erhoehen. Kann doch nicht so schwer zu verstehen sein.

Sorry, für Dich mag das Sinn ergeben, für mich nicht. Ich schaue mir die Tests mit meiner entsprechenden genutzten Auflösung, da ich nie wieder unter 1440 Auflösung gehe und selbst wenn ich irgendwann zu 4K switche, wird die Aussagekraft dann von einer Extrapolation einer 720p Auflösung eben nicht stimmen.

Wichtiger ist, dass man schaut, wo bei seinem eigenen Anwendungsprofil wirklich der Flaschenhals der CPU ist (Spiele und vor allem Anwendungen). Und danach sollte man seinen Kauf ausrichten.

Aber wie gesagt, mir ist es egal, ob meine CPU die nur messbaren 10% eines 720p Balken gewinnt oder verliert. :cool:

Mangel76
2018-04-30, 08:17:05
720p ergibt fuer CPU-Tests komplett Sinn und hat mehr Praxisbezug als im halben oder vollen GPU-Limit zu testen.

Ich versteh nicht, warum wir das seit 20 Jahren immer wieder diskutieren muessen. Wollt ihr wissen wie schnell die CPU ist oder nicht? Das einzige was mit hoeherer Aufloesung bei CPU-Tests erreicht wird ist die Messungenauigkeit zu erhoehen. Kann doch nicht so schwer zu verstehen sein.

Für Balkenfetischisten sind sie natürlich relevant, für die Praxis jedoch meistens eben nicht. Die 10% Unterschied in 720p mit 1080Ti sind für normale Auflösungen völlig irrelevant. Und wie zukünftige Software mit den Kernen skaliert, ist aus heutigen Tests auch nicht abzulesen. Wie kann man das nicht verstehen?

Diese blöde Diskussion wird aber auch immer wieder geführt. Man muss ja schließlich seinen Favoriten oder seine Investition verteidigen. Nur gibt es dafür kaum rationale Gründe und es werden die absurdesten Argumente angebracht. Wenn man es objektiv betrachtet, ist man im Moment mit jedem 6-Kerner von Intel oder AMD ziemlich im grünen Bereich. Alles andere ist Einbildung oder Kompensation anderer Unzulänglichkeiten. (zumindest im privaten Bereich)

Hasenpfote
2018-04-30, 08:24:52
keine ahnung, spiele wie die meisten in FHD und das mit 2700X und 1080 Ti :Pdieses kreischende Geräusch, wenn du zockst, ist übrigens deine GPU, die bettelt, was tun zu dürfen. Aber hey, ich nehme auch immer meinen 40 Tonner um 3 Sack Zement aus'm Baumarkt zu holen. Einfach weil ich's kann :-D

y33H@
2018-04-30, 10:07:47
Hier nun der RAM-OC-Artikel: https://www.golem.de/news/ram-overclocking-getestet-auch-ryzen-2000-profitiert-von-schnellem-speicher-1804-134059.html

dildo4u
2018-04-30, 10:14:31
2600x ist jetzt der Fortnite King,das sollte AMD in der Werbung nutzen.


https://www.computerbase.de/2018-04/ryzen-2600-2700-fortnite-pubg-overwatch/2/#diagramm-fortnite-1920-1080