Archiv verlassen und diese Seite im Standarddesign anzeigen : CPU-Performance Dual vs. QuadChannel in Spielen - Usertest anyone?
Nightspider
2016-09-05, 03:34:26
Wir haben hier im Forum doch etliche Besitzer eines Haswell-E oder Broadwell-E, wäre da mal jemand so freundlich ein paar Tests zu machen wie viel Leistung Quad-Channel im CPU Limit (avg und min fps) in aktuellen Spielen bringt?
Ein paar News und Tests (meistens mit Skylake) haben ja schon oberflächlich aufgezeigt das DDR4-4000 angeblich schon bis zu 20% mehr Leistung in Spielen bringen kann im Vergleich zu DDR4-2133.
Siehe News von damals: http://www.3dcenter.org/news/was-bringen-hoehere-speichertaktungen-bis-ddr44000-mehrperformance
Ich bin sicherlich nicht der Einzige hier, der sehr an einem Test von Dual-vs-Quad Channel in Games interessiert wäre, wenn möglich am besten mit 2 oder 3 verschiedenen RAM-Frequenzen.
Am besten eignen würden sich natürlich die Besitzer mit Titan X (Pascal) Grafikkarten damit das Spiel auch ja im CPU-Limit läuft.
Ebenfalls würde ich empfehlen die Auflösung auf 720p oder max. 1080p zu beschränken.
Spiele, welche zum Beispiel gut zum Testen geeignet wären, wären GTA5, Arma3 und Fallout 3.
Brauchst du nicht erneut zu testen. Gab es alles schon mit BF4.
http://www.corsair.com/en-us/blog/2013/october/battlefield-4-loves-high-speed-memory
Und paar mehr Tests, musst dich durchwühlen: https://www.computerbase.de/forum/showthread.php?t=1271517
https://www.computerbase.de/forum/showthread.php?t=954815&page=130&p=14434381#post14434381
Hängt halt vom Game ab, wie viel Nutzen man daraus ziehen kann, ob sich der hohe Aufpreis lohnt, ist eine andere Frage. Für Lau durch OC, kann man mitnehmen :)
Schneller Speicher beim AMD PD z.B. bringt im CPU Limit durchaus bessere Werte. Gibt es auch einige Tests zu.
Ist jedenfalls nicht neu das Thema. Dual/Quad verhält sich ähnlich, wobei Quad deutlich teurer ist.
woodsdog
2016-09-05, 06:18:09
Es geht um DDR4 in aktuellen Spielen.
keine Ahnung wieso du meinst, dass alles unnötig wäre und verlinkst Sandy-/IvyBridge Ergebnisse und einen fast 3 Jahre alten Bench von Hasswell non-E + BF 4
:confused:
Weil die Ergebnisse die selben sind! Hängt eben vom Game/Anwendung ab wie hoch!
CPU Limit ist CPU Limit ob nun 2, 4 oder 6 Kerne.
Und wenn man, wie ich schrieb, sich dort durchgewühlt hat, kommt auch sowas bei raus: http://www.pcgameshardware.de/RAM-Hardware-154108/Tests/RAM-Tests-Bestenliste-DDR3-DDR4-Arbeitsspeicher-681573/
DDR4-2133 vs. DDR4-3000 bringt bei 720p schon 23% mehr min FPS. beim Witcher.
Das Netz ist voll von den Tests, da brauch nix neu getestet werden, das wurde damals wie Heute gemacht.
Dual vs Quad bringt sogut wie nix. Selbe wie mit Dual. Gibts auch haufenweise Tests aus 2015 und 2016 @pcworld
Mehr trag ich dir nicht nach, denk selbst.
BlacKi
2016-09-05, 07:15:39
ich kann ein paar benches zwischendurch mal machen, aber die spiele die du anführst hab ich leider nicht^^
ich hab dayz, project cars, bf4, vl noch doom demo ogl, UT mit eu4.
soll ich mit oc takt, standard 3,3 oder gar untertakten?
Nightspider
2016-09-05, 08:10:47
Brauchst du nicht erneut zu testen. Gab es alles schon mit BF4.
http://www.corsair.com/en-us/blog/2013/october/battlefield-4-loves-high-speed-memory
Erstmal danke für die Links!
Gut möglich das Skylake trotz DDR4 noch mehr am Speicher hängt als schon Haswell an DDR3, müsste allerdings auch erstmal nachgewiesen werden.
Interessant sind die Werte aus deinem ersten Link dennoch. Da sieht man selbst bei Haswell und DDR3 schon 10% bei min und 22% mehr bei den avg_fps beim Vergleich zwischen DDR3-1600 und -2400.
Interessant wäre aber auch hier jetzt ob Quad-Channel einen weiteren Schub bringt.
Ein weiterer Punkte der mich interessiert ist ob in dem Fall Dual Channel mit 2400 oder Quad Channel mit 1600 schneller wäre.
Wenn ich mich nicht irre müssten die effektiven Latenzen bei höher getaktetem RAM geringer ausfallen, was die Frage ergibt ob schneller Dual Channel oder langsamer Quad Channel besser ist für die CPU Leistung.
Und paar mehr Tests, musst dich durchwühlen: https://www.computerbase.de/forum/showthread.php?t=1271517
https://www.computerbase.de/forum/showthread.php?t=954815&page=130&p=14434381#post14434381
Richtig heftig sind ja diese Werte im CB-Forum vom User "GamingWiidesire".
Die Leistungssteigerungen von fast 60% sind so hoch das ich kaum glauben kann.
Hich kopier mal sein Bild direkt hier rein:
https://images.weserv.nl/?url=www7.pic-upload.de%2F29.10.13%2F4otlxh5y6iu.png
Ich lese jetzt gerade seit 30min den Thread und dort finden sich ja noch andere User wie zB. hier https://www.computerbase.de/forum/showthread.php?t=1271517&page=5&p=14900833#post14900833 , welche auch deutliche Unterschiede zumindest bei Battlefield 4 messen konnten. Über die Aussagen von HisN musste ich da auch etwas schmunzeln. ^^
Interessant das dies bei uns hier im Forum nie Thema war.
Da wundert es mich im Nachhinein auch gar nicht das der eDRAM so gut abging, wenn schon der normale RAM in manchen Games einen so gravierenden Unterschied macht.
Jetzt hätte auch nur noch gern einige Tests zu Quad Channel.
BlacKi
2016-09-05, 08:28:22
ich hab jetzt mal die bf1 beta mit 2,5ghz und 0% resolution scale getestet.
ach mist , noch mehr fehler...
bf1 scheint als testumgebung schlecht gewält zu sein. die fps schwanken 20 fps, sodass man jedes mal beim neu starten andere komisch fps hat. hab ich beim gegentesten erst hinterher bemerkt.
Mortalvision
2016-09-05, 08:38:09
Jo, da limitiert doch die CPU selbst ;) mach mal denselben Test bei 4,0/4,5 GHz :D
BlacKi
2016-09-05, 08:43:56
die abhängigkeit von speichertakt und bandbreite teste ich natürlich im cpu limit, was sonst.
qiller
2016-09-05, 13:23:52
Schließe mich dem TE an. Die verlinkten Tests sind zwar schön und gut, beinhalten aber keinerlei Tests bzgl. der Aussage Dual- vs. Quad-Channel in neueren (64bit-)Spielen mit DDR4-Speicher. Auch die Frage langsamerer Quad-Channel RAM vs. schneller Dual-Channel RAM find ich nicht uninteressant. Der Bärtige von PCGH (RAM-Onkel) hatte letztens in nem RAM-Video die User gefragt, was sie so bzgl. RAM noch interessieren würde. Vlt sollte man ihn mal anschreiben?
Ne Erklärung, falls z.B. DDR4-3200 Dual-Channel höhere fps erzeugen als DDR4-2133 Quad-Channel, wär übrigens auch nicht verkehrt, denn was Bandbreite angeht liegt der Quad-Channel ja vorn (ich weiß, dass Bandbreite nicht alles ist :>).
pcworld.com wurde dual und quad getestet.
http://www.pcworld.com/article/2982965/components/quad-channel-ram-vs-dual-channel-ram-the-shocking-truth-about-their-performance.html
http://images.techhive.com/images/article/2015/09/memory_bandwidth_tombraider_19x10_high-100613937-large.png
http://images.techhive.com/images/article/2015/09/memory_bandwidth_bioshock_infinite_medium-100613936-large.png
Nightspider
2016-09-06, 01:48:03
Getestet mir einer GTX970 und dann noch Spiele, die nicht viel CPU Leistung benötigen. Die Benchmarks sind leider nichts wert.
Bei ~200fps ist eine GTX970 doch schon längst am Anschlag. Zudem zeigen die hohen FPS dass das Spiel nicht viel CPU Leistung benötigt.
Mortalvision
2016-09-06, 02:04:13
@Blacki: nein. Stell Dir vor, du testest mit 1 MHz CPU Takt. Da ist schneller Speicher sowas fürn po.... Und ich behaupte, das ist auch bei 2,5 GHz der Fall. Such lieber nach spielen/ benches, die stark an der CPU hängen UND auf hohen datendurchsatz angewiesen sind, der nicht durch die Caches ausgeglichen wird. RAM hat doch eine Funktion im Gesamtsystem, und darauf hin würde ich benchen. Also mach mal nen Vergleich mit 3,5 und 4,5 GHz. Dann kannst du auch abschätzen, wie hoch der ram-"bedarf" im bezug Bandbreite/Frequenz/latenz einer Anwendung/ eines Spiels ist ;)
BlacKi
2016-09-06, 10:26:48
@Blacki: nein. Stell Dir vor, du testest mit 1 MHz CPU Takt. Da ist schneller Speicher sowas fürn po.... Und ich behaupte, das ist auch bei 2,5 GHz der Fall. Such lieber nach spielen/ benches, die stark an der CPU hängen UND auf hohen datendurchsatz angewiesen sind, der nicht durch die Caches ausgeglichen wird. RAM hat doch eine Funktion im Gesamtsystem, und darauf hin würde ich benchen. Also mach mal nen Vergleich mit 3,5 und 4,5 GHz. Dann kannst du auch abschätzen, wie hoch der ram-"bedarf" im bezug Bandbreite/Frequenz/latenz einer Anwendung/ eines Spiels ist ;)
ich werde die tage mal project cars und dayz testen mit 4,4gzh und 720p. vl kauf ich mir am WE dxmd, soll ja ingame auch viel cpu power benötigen.
Ich hatte mal Tests gemacht mit dem X79-System, als ich von 1333er zu 2133er RAM gewechselt habe.
Der Unterschied den ich in meinen Spielen messen konnte war erbärmlich.
Denn (Hand aufs Herz), wer zockt tatsächlich viel im CPU-Limit im Zeitalter von 4K-Monitoren?
Klar ... im CPU-Limit kann schneller Speicher Punkte bringen, und man kann sich da wundervoll drann hochziehen, aber wenn man dann wirklich in seinen eigenen Settings zockt, seine eigene Software und nicht irgendwelche ausgewählten Titel.
Ich muss schon relativ viel suchen. Eine Pascal XP kauft man sich ja in der Regel nicht wenn man einen FHD-Monitor vor sich zu stehen hat.
Über die Aussagen von HisN musste ich da auch etwas schmunzeln. ^^
So soll das sein^^
Aber als X99-User mit Vollbestückung ..... es ist schon ein relativ großer Krampf vier Riegel in der engen Kiste rauszuziehen und wieder reinzufummeln :-(
Und ich sehe halt den Sinn von Benchmarks im bewusst herbeigeführten CPU-Limit nicht. Was nicht gegen Arma3 oder Stellaris im Lategame spricht^^
Nightspider
2016-09-06, 11:34:06
Darum gehts ja nicht. Wenn das so unwichtig wäre bräuchte sich auch niemand einen 6700K holen und könnte zu einem 6600K oder zu noch schwächeren CPUs greifen.
Für ein paar Prozent mehr CPU Power zahlen viele Leute 100€ und teils noch viel mehr.
Wenn dann schnellerer RAM etwas bringt und nur 50Euro Aufpreis kostet dann lohnt sich das schon.
Es gibt schon noch RTS Games wo man ins CPU Limit kommt wenn die ganze Map voller Einheiten ist.
Und wie du selbst weißt hilft CPU Leistung zur Zeit auch viel in Star Citizen, auch wenn dort im Moment (Stand Alpha 2.5) die Server noch am meisten ausbremsen.
Ich erinnere mich auch noch gut wie vor rund 2 Jahren in Crysis 3 nach CPU Leistung geschrien wurde. GTA5 profitiert auch davon und in Zukunft wird es auch immer mal wieder neue Games geben, die mal mehr CPU Leistung brauchen, trotz DX12 und Vulkan.
Gerade bei der Langlebigkeit der CPUs heutzutage ist es ja nicht falsch zu wissen ob sich Quad Channel in Games lohnt und zusätzlich vielleicht noch hochtaktender Arbeitsspeicher.
Generell hat das Argument GPU Limit im Prozessor-Unterforum imo nicht viel zu suchen. ;)
Lowkey
2016-09-06, 11:54:26
Der Thread hat durchaus seine Daseinsberechtigung. Es gibt im Netz immer weniger Sondertests. Es werden Meinungen über 5-10 Jahre nicht geändert obwohl sich die Hardware ändert.
Mich interessiert so ein Test mit aktueller Hardware. Seit letztem Jahr wird sogar wieder Singlechannel empfohlen,da kompatibler und ohne Leistungsverlust. Die Dualchannel Tests von vor 10 Jahren waren wie heutige Tests: mal bringt es was und mal nicht. Und dennoch wird es gekauft => Marketing.
Armaq
2016-09-06, 12:25:22
Ich kann dazu nur sagen, dass gerade Spiele wie BF4 oder W3 in Bezug zu schnellem RAM stehen. Nur will das jeder in einer 30 Sekunden Benchmarksequenz erfassen. Meiner Erfahrung nach bringt das aber gerade was in einer längeren Session und den damit verbunden Nachladerucklern, schnelles Drehen auf der Karte etc.
Nicht dass Du da Menge mit Geschwindigkeit verwechselst :-)
Armaq
2016-09-06, 13:01:36
Nicht dass Du da Menge mit Geschwindigkeit verwechselst :-)
Nein. :)
qiller
2016-09-06, 14:30:51
Ok, machen wir es doch mal konkret:
DDR4-1600 Quadchannel vs. DDR4-3200 Dual-Channel. In der theoretischen Bandbreite sollte es da keine großen Unterschiede geben. Jetzt nimmt man ein Spiel, was stark auf Speicherdurchsatz anspricht. Ich hatte da mal was von Fallout 4 gelesen/gesehen?
Sind die fps jetzt innerhalb einer kleinen Toleranz gleich, oder werden sie unterschiedlich sein? Also mich würde solch ein Vergleichs-Szenario durchaus interessieren. Das ganze könnte man auch mal mit und ohne L3-Cache durchführen.
Achso: Und die Latenzen sollte man auch nicht vergessen. DDR4-1600 müsste für die gleichen Latenzen (damit meine ich die Zeit in ns) natürlich viel schärfere Timings (damit meine ich die Taktanzahl der Wartezyklen) fahren als DDR4-3200.
Botcruscher
2016-09-06, 15:00:21
Warum nur Dual vs Quad? Wenn man sich schon die Mühe macht kann gleich bei Singel begonnen werden. Die Latenzen dürften ja der eigentliche Knackpunkt und die Ursache für Leistungssteigerungen sein.
So akademisch finde ich die Fragestellung nicht. Von Open World bis Strategie gibt es genug CPU Fresser.
Wird für uns Privatpersonen aber schwierig zu bewerten ob es die Menge oder Single/Dual/Quadchannel ist, die im Single/Dualchannel-Betrieb die Leistung bestimmt, denn schließlich nimmt die Ram-Menge ja entsprechend ab.
Mit 4GB-Modulen braucht man da ja schon gar nicht mehr anfangen.
Botcruscher
2016-09-06, 16:39:49
Menge kann doch bei gleichen Einstellungen gegen geprüft werden.
Vielleicht drücke ich mich komisch aus, aber wenn ich z.b. Mirrors Edge testen möchte, von dem ich weiß das es 16GB belegt, wie verhindere ich eine verfälschung des Ergebnisses im Single-Channel, wenn ich nur einen oder zwei 4GB-Riegel stecken darf, damit mein System Single-Channel läuft, aber 4 Riegel a 4GB Stecken muss, damit mein System im Quadchannel läuft.
Begrenze ich dann künstlich die Ram-Menge bei MSconfig/BCDEDIT. Wie verfälscht dieser Eingriff die Ergebnisse?
Geschickterweise bräuchte ich 16GB-Riegel, damit ich Singlechannel vernünftig testen kann.
Botcruscher
2016-09-06, 16:52:55
4GB wird kritisch. Hätte ja jemand mit 8GB Riegeln unterwegs sein können.
Auch da (würde ich behaupten) würde die Menge schon ins Ergebnis reinspielen, solange ich nur einen Riegel stecke.
Überspitztes Beispiel, das Game wird in 720P nicht so viel Speicher belegen, ABER ich kann mir nicht sicher sein ob es ins Ergebnis einfließt.
http://abload.de/thumb/dxmd_2016_08_24_14_41ggult.jpg (http://abload.de/image.php?img=dxmd_2016_08_24_14_41ggult.jpg)
Wäre halt einer meiner Favoriten zum Benchen, durch den internen Benchmark. Ihr brüllt ja "aktuelle" Spiele/Hardware
qiller
2016-09-06, 17:04:07
Single-Channel ist mir ehrlich gesagt herzlich egal, wäre höchstens fürs technische Verständnis interessant. Aber die Probleme bei der Vergleichbarkeit hat HisN ja schon angedeutet. Dual-vs-Quad-Channel Tests wären halt nur für High-End-User oder Redaktionen machbar.
<-- hat sich mal rangesetzt und ein paar Games mit internem Benchmark durch den Quadchannel-Test gejagt. Falls ich morgen Zeit finde fummel ich mal ein paar RAMs aus dem Rechner und mache das ganze nochmal (sind ja nur 4h die das braucht^^).
Und dann das ganze grafisch aufarbeiten? Na ich freu mich^^
BlacKi
2016-09-07, 00:13:42
Na ich freu mich^^
und ich erst^^
https://abload.de/img/dualchannel50ufn.jpg (http://abload.de/image.php?img=dualchannel50ufn.jpg) VS. https://abload.de/img/quadchannel51uxs.jpg (http://abload.de/image.php?img=quadchannel51uxs.jpg)
Tests in 1280x720 ohne AA und AO auf einem 5960X@4.4Ghz mit einer Titan X@2Ghz
Jeweils drei Durchläufe pro Game-Bench. Werte danach gemittelt.
Ergebnisse:
http://abload.de/img/assetto_corsa_speiche93ulj.jpg (http://abload.de/image.php?img=assetto_corsa_speiche93ulj.jpg)
http://abload.de/img/total_war_attila_speiwcui1.jpg (http://abload.de/image.php?img=total_war_attila_speiwcui1.jpg)
http://abload.de/img/batman_ak_speicherbanh9u7c.jpg (http://abload.de/image.php?img=batman_ak_speicherbanh9u7c.jpg)
http://abload.de/img/dirt_rallyheu65.jpg (http://abload.de/image.php?img=dirt_rallyheu65.jpg)
http://abload.de/img/deus_ex_speicherbandb9ru8g.jpg (http://abload.de/image.php?img=deus_ex_speicherbandb9ru8g.jpg)
http://abload.de/img/far_cry_primal_speichyxu1k.jpg (http://abload.de/image.php?img=far_cry_primal_speichyxu1k.jpg)
http://abload.de/img/rottr_speicherbandbre37uc7.jpg (http://abload.de/image.php?img=rottr_speicherbandbre37uc7.jpg)
http://abload.de/img/mordor_speicherbandbrruuga.jpg (http://abload.de/image.php?img=mordor_speicherbandbrruuga.jpg)
http://abload.de/img/hitman_speicherbandbrfburm.jpg (http://abload.de/image.php?img=hitman_speicherbandbrfburm.jpg)
Ich habe fertig.
Falls die Statistiker unter euch Lust haben das ganze in Relationen zu setzen: Ich würde mich freuen. Mir brummt der Kopf vor so vielen Zahlen :-)
Achso: Und die Latenzen sollte man auch nicht vergessen. DDR4-1600 müsste für die gleichen Latenzen (damit meine ich die Zeit in ns) natürlich viel schärfere Timings (damit meine ich die Taktanzahl der Wartezyklen) fahren als DDR4-3200.
Ja und zwar "viel schärfer" im Sinne von halb so viel ;)
Und dann ist da noch die Frage auf die Auswirkung des RAM-Taktes auf den Uncorebereich der CPU. Taktet der dann auch runter, oder nicht, gibts eventuell Multiplier zum Einstellen?
Frühere Tests in der Kategorie waren zu 99% immer nur von der Latenz abhängig, deswegen bringt das eDRAM als L4 oder die größeren L3s der >6cores auch Einiges.
Wozu sollte ein Spiel auch Bandbreite brauchen? Das braucht es nur auf der GPU. Ansonsten ist nur wichtig möglichst schnell auf die Daten zugreifen zu können.
@HisN:
Wieso hast Du mit Dualchannel nur ein Viertel der Speichermenge? Du hast dann 8x8GB oder? Bestück die Channels im Dual-Channel Mode ruhig auch doppelt, das könnte sonst Timingvorteile bringen.
qiller
2016-09-07, 11:14:47
HisN 4 president :>. Also ich freu mich immer auf Tests, die man sonst nicht so oft im Netz sieht. Wenn man das richtig machen will, ist das auch ein höllen Aufwand. Der hat auf jeden Fall meinen Respekt.
qiller
2016-09-07, 11:25:49
Frühere Tests in der Kategorie waren zu 99% immer nur von der Latenz abhängig, deswegen bringt das eDRAM als L4 oder die größeren L3s der >6cores auch Einiges.
Ja frühere Tests. Und ob die Latenz tatsächlich das entscheidende ist (und nicht etwa die Datenrate), kann man ja gegentesten:
DDR3-1600 CL12 vs DDR3-800 CL6. Ich muss glatt mal gucken, ob ich das mit meinem System hingefummelt bekomme und ob der RAM das mitmacht. Die Aussagen, die ich nämlich zum Thema Taktfrequenz vs Timings gehört/gelesen habe, gingen immer in Richtung "Taktfrequenz bringt mehr", wobei ja in beiden Fällen (also erhöhte Taktfrequenz oder verringerte Timings) die Latenz sinkt.
@HisN:
Wieso hast Du mit Dualchannel nur ein Viertel der Speichermenge? Du hast dann 8x8GB oder? Bestück die Channels im Dual-Channel Mode ruhig auch doppelt, das könnte sonst Timingvorteile bringen.
Das war ja einer meiner ursprünglichen Einwände. Allerdings gibt das Handbuch auch keinen Hinweis darauf wie man vier Riegel steckt, so das man immer noch Dualchannel hat .. warum auch, man sollte ja dann alle Kanäle bestücken. Und ich hatte keine Lust es durch Trial+Error herauszufinden.
Aber in der Mini-Auflösung nutzen die ganzen Games + Windows + Tools nicht mal annähernd 10GB der vorhandenen 16.
Ph0b0ss
2016-09-07, 13:12:16
HisN 4 president :>. Also ich freu mich immer auf Tests, die man sonst nicht so oft im Netz sieht. Wenn man das richtig machen will, ist das auch ein höllen Aufwand. Der hat auf jeden Fall meinen Respekt.
Dem schließe ich mich an!:)
Das war ja einer meiner ursprünglichen Einwände. Allerdings gibt das Handbuch auch keinen Hinweis darauf wie man vier Riegel steckt, so das man immer noch Dualchannel hat .. warum auch, man sollte ja dann alle Kanäle bestücken. Und ich hatte keine Lust es durch Trial+Error herauszufinden.
Naja, aber es muss doch drinstehen, wie Du mit 4 Riegeln QuadChannel bekommst, oder nicht?
Dann weisst Du, auch automatisch, welche Plätze Du für DC NICHT belegen darfst ;)
qiller
2016-09-07, 18:48:35
Falls die Statistiker unter euch Lust haben das ganze in Relationen zu setzen: Ich würde mich freuen. Mir brummt der Kopf vor so vielen Zahlen :-)
Den Post sollte Leonidas auf der Startseite verlinken :>. Und mit %-Zahlen hantiert er ja auch gern rum :F. Danke dir vielmals.
Botcruscher
2016-09-07, 21:48:54
Assetto ist seltsam. Weniger min FPS?
Tja, gute Frage, nächste Frage.
Ich hab die Ergebnisse nicht auf Plausibilität geprüft, sondern einfach nur die Zahlen verarbeitet.
Gerne kann geschaut werden, ob ich bei der Übernahme der Zahlen Fehler gemacht habe.
Hier die zugrundeliegenden Daten.
http://www.fichen.de/temp/Benchmark.rar
BlacKi
2016-09-07, 22:56:05
könnte es an den unterschiedlichen autos auf der strecke liegen? je nach modell und menge im bild? dabei meine ich nichtmal ein mögliches gpu limit, sondern eher durch das chaos auf der strecke oder kameraführung?
naja, die avg sind wie zu erwarten besser im quad.
komplett wären die benches wenn man noch wüsste ob man mit mehr ram takt auch das quadchannel ersetzen kann.
aber davon ist stark auszugehen und ich brauche die zahlen dafür nicht.
Ist möglich, obwohl der Benchmark weiter hinten immer gleich von den Autos ist.
Zergra
2016-09-08, 20:46:52
Naja, aber es muss doch drinstehen, wie Du mit 4 Riegeln QuadChannel bekommst, oder nicht?
Dann weisst Du, auch automatisch, welche Plätze Du für DC NICHT belegen darfst ;)
Ja normal dann alle Riegel auf eine CPU Seite. Sind ja immer 4 Bänke links und 4 rechts.
ell2cox
2016-09-18, 14:27:35
Ein Sehr interessantes Thema mit Dual vs. QuadChannel in Spielen!
Habe leider nur eine Ivy Bridge-E i7-4930K in verbindung mit Maxwell-SLI und DDR3
Hatte mich aber schon interessiert und nachgemessen:
GPU: GeForce GTX 980 Ti SLI @ 1455/3903, G-sync=ON, 372.70
RAM: Corsair Vengeance Pro DDR3-1866-CL9 (DualDDR3-16GB//QuadDDR3-32GB)
Rise of the Tomb Raider (Sehr hoch, HBAO+)
2560x1440 => 4-Core@3,9GHz / 4-Core+HT@3,9GHz / 6-Core@3,9GHz / 6-Core+HT@3,9GHz
DualDDR3-1333cl7 => 83,46 / 82,85 / 91,34 / 84,77
DualDDR3-2133cl11 => 90,03 / 85,75 / 96,21 / 89,01
QuadDDR3-1333cl7 => 88,7 / 85,83 / 97,55 / 91,43
QuadDDR3-2133cl11 => 90,65 / 87,86 / 98,55 / 94,03
Rise of the Tomb Raider (Sehr hoch, HBAO+)
3840x2160 => 4-Core@3,9GHz / 4-Core+HT@3,9GHz / 6-Core@3,9GHz / 6-Core+HT@3,9GHz
DualDDR3-1333cl7 => 68,37 / 69,17 / 72,32 / 70,87
DualDDR3-2133cl11 => 71,43 / 71,58 / 75,12 / 74,22
QuadDDR3-1333cl7 => 72,36 / 71,25 / 75,52 / 75,24
QuadDDR3-2133cl11 => 74,62 / 72,36 / 76,55 / 76
Rise of the Tomb Raider (Sehr hoch, HBAO+)
2560x1440 => 4-Core@4,3GHz / 4-Core+HT@4,3GHz / 6-Core@4,3GHz / 6-Core+HT@4,3GHz
DualDDR3-1333cl7 => 90,01 / 87,76 / 97,63 / 93,42
DualDDR3-2133cl11 => 94,89 / 92,99 / 104,47 / 99,91
QuadDDR3-1333cl7 => 95,57 / 93,8 / 104,32 / 100,52
QuadDDR3-2133cl11 => 98,62 / 96,31 / 107,4 / 103,14
Rise of the Tomb Raider (Sehr hoch, HBAO+)
3840x2160 => 4-Core@4,3GHz / 4-Core+HT@4,3GHz / 6-Core@4,3GHz / 6-Core+HT@4,3GHz
DualDDR3-1333cl7 => 71,58 / 70,99 / 74,44 / 74,36
DualDDR3-2133cl11 => 73,62 / 73,06 / 76,6 / 77,21
QuadDDR3-1333cl7 => 73,83 / 74,95 / 77,22 / 77,86
QuadDDR3-2133cl11 => 74,9 / 75,49 / 79,11 / 78,78
PS: Metro Last Light in 1920x1080, 2560x1440, 3840x2160 ist in Arbeit!
PPS: DualDDR3 => 16GB (2x8GB), QuadDDR3 => 32GB (4x8GB)
Sind das min. oder durchschnitts-FPS?
ell2cox
2016-09-18, 14:35:37
Oh ja sorry!
Durchschnitts-FPS
Fliwatut
2016-09-18, 14:43:17
Super Sache! Hast du auch GTA V? Das würde mich brennend interessieren!
BlackArchon
2016-09-18, 14:58:40
ell2cox, ich hoffe wirklich deine CPU läuft mit 3,9/4,3 GHz und nicht mit MHz. ;)
ell2cox
2016-09-18, 15:16:57
ell2cox, ich hoffe wirklich deine CPU läuft mit 3,9/4,3 GHz und nicht mit MHz. ;)
:eek: copy and paste ;D
GHz :freak:
Super Sache! Hast du auch GTA V? Das würde mich brennend interessieren!
Jap GTA V und Rise of the Tomb Raider@DX12 wollte ich auch noch testen :biggrin:
Lowkey
2016-09-18, 15:53:25
Sieht das nur so aus oder ist HT bei Tomb Raider von Nachteil?
ell2cox
2016-09-18, 16:03:28
Sieht das nur so aus oder ist HT bei Tomb Raider von Nachteil?
Jap bei Rise of the Tomb Raider, Tomb Raider, Fallout 3 & 4, The Elder Scrolls V: Skyrim
es gibt da ein paar spiele die negativ auf Hyper-Threading reagieren.
Achill
2016-09-18, 17:14:34
@ell2cox, was für ein Uncore Takt lag denn an?
Ich habe für mich festgestellt, das hohe Takt bzw. generell mehr Bandbreite nur mit schnellerer L3-Cache möglich ist, zumindest was CrystalMark und Memtest86+ angeht.
Nightspider
2016-09-18, 17:16:43
Super Test ell2cox!
Rund 5% Verbesserung von Dual zu Quad Channel in Tomb Raider.
Tomb Raider benötigt ja, wenn ich mich nicht irre nicht so sehr viel CPU Leistung.
Bei GTA5 erwarte ich da 10% auwärts, bin mal gespannt.
ell2cox
2016-09-18, 17:32:01
Metro Last Light (Very High, PhysX)
GPU: GeForce GTX 980 Ti SLI @ 1455/3903, G-sync=ON, 372.70
RAM: Corsair Vengeance Pro DDR3-1866-CL9 (DualDDR3-16GB//QuadDDR3-32GB)
1920x1080 => 4-Core@3,9GHz / 4-Core+HT@3,9GHz / 6-Core@3,9GHz / 6-Core+HT@3,9GHz
DualDDR3-1333cl7 => 96,33 / 120,48 / 124,03 / 133,71
DualDDR3-2133cl11 => 99,33 / 125,55 / 128,33 / 139,13
QuadDDR3-1333cl7 => 98,11 / 126,13 / 129,63 / 142,37
QuadDDR3-2133cl11 => 100,61 / 129,44 / 131,4 / 143,09
1920x1080 => 4-Core@4,3GHz / 4-Core+HT@4,3GHz / 6-Core@4,3GHz / 6-Core+HT@4,3GHz
DualDDR3-1333cl7 => 103,19 / 127,36 / 130,42 / 138,46
DualDDR3-2133cl11 => 106,23 / 132,65 / 136,66 / 144,21
QuadDDR3-1333cl7 => 106,12 / 134,62 / 138,33 / 146,51
QuadDDR3-2133cl11 => 107,24 / 136,84 / 140,43 / 150,92
BlackArchon
2016-09-18, 17:40:19
Vielen Dank für deine umfangreichen Tests, ell2cox. Ich verfolge die auch mit viel Interesse. :)
Und: die MHz sind zurück. ;)
x-force
2016-09-18, 17:45:04
@ell2cox, was für ein Uncore Takt lag denn an?
Ich habe für mich festgestellt, das hohe Takt bzw. generell mehr Bandbreite nur mit schnellerer L3-Cache möglich ist, zumindest was CrystalMark und Memtest86+ angeht.
interessant. konntest du noch detailiertere abhängigkeiten feststellen?
ich muss leider mit uncore 100mhz hinter den cores bleiben. ist das bei dir auch so?
ell2cox
2016-09-18, 17:51:57
Vielen Dank für deine umfangreichen Tests, ell2cox. Ich verfolge die auch mit viel Interesse. :)
Und: die MHz sind zurück. ;)
:eek: wollte nur mal gucken ob Du noch aufpasst :wink:
Fliwatut
2016-09-18, 17:54:18
Ist doch ne geile CPU, die mit so ein paar lumpigen MHz solche FPS produziert ;D
GTA wird auf jeden Fall spannend! Bei mir ist es so, dass ich mehr min FPS bekomme, wenn ich Hyperthreading deaktiviere.
ell2cox
2016-09-18, 18:28:38
@ell2cox, was für ein Uncore Takt lag denn an?
Ich habe für mich festgestellt, das hohe Takt bzw. generell mehr Bandbreite nur mit schnellerer L3-Cache möglich ist, zumindest was CrystalMark und Memtest86+ angeht.
"Uncore Takt" ist das "Rated FSB" unter CPU-Z oder "NB Frequency"?
Rated FSB = 3199,3 MHz
NB Frequency = wird nicht angezeigt?
ell2cox
2016-09-18, 18:53:20
Metro Last Light (Very High, PhysX)
GPU: GeForce GTX 980 Ti SLI @ 1455/3903, G-sync=ON, 372.70
RAM: Corsair Vengeance Pro DDR3-1866-CL9 (DualDDR3-16GB//QuadDDR3-32GB)
2560x1440 => 4-Core@3,9GHz / 4-Core+HT@3,9GHz / 6-Core@3,9GHz / 6-Core+HT@3,9GHz
DualDDR3-1333cl7 => 92,64 / 114,24 / 118,65 / 123,48
DualDDR3-2133cl11 => 96,43 / 119,23 / 121,37 / 127,84
QuadDDR3-1333cl7 => 96,27 / 118,32 / 122,07 / 128,51
QuadDDR3-2133cl11 => 95,76 / 119,79 / 124,63 / 129,77
2560x1440 => 4-Core@4,3GHz / 4-Core+HT@4,3GHz / 6-Core@4,3GHz / 6-Core+HT@4,3GHz
DualDDR3-1333cl7 => 99,62 / 119,45 / 123,32 / 128,14
DualDDR3-2133cl11 => 102,85 / 124,52 / 128,21 / 131,32
QuadDDR3-1333cl7 => 101,39 / 125,15 / 127,83 / 132,14
QuadDDR3-2133cl11 => 104,2 / 127,4 / 128,52 / 133,49
Achill
2016-09-18, 19:20:26
interessant. konntest du noch detailiertere abhängigkeiten feststellen?
ich muss leider mit uncore 100mhz hinter den cores bleiben. ist das bei dir auch so?
Ich nehme alles zurück was ich gesagt habe bzw. es gilt nur für den Hasi-E / mein Gedächtnis täuscht mich - die Werte hatte ich deutlich stärker in Erinnerung, eine ganz leichte Tendenz existiert - dafür sollte man aber keine Instabilität des System in kauf nehmen.
--
Mal ein paar Werte Core@3.8Ghz und DDR4-2666@14-15-15-36
UCore | CM Read | CM Write | CM R+W | CM Cache | 7z Comp | 7z Decomp
3.6GHz | 49,8 GB/s | 47,0 GB/s | 36,8 GB/s | 212,7 GB/s | 32,6 MB/s | 378,6 MB/s
3.4GHz | 49,2 GB/s | 46,6 GB/s | 36,3 GB/s | 210,9 GB/s | 31,0 MB/s | 373,1 MB/s
3.2GHz | 49,0 GB/s | 46,3 GB/s | 36,0 GB/s | 209,7 GB/s | 30,9 MB/s | 372,8 MB/s
3.0GHz | 48,9 GB/s | 45,6 GB/s | 35,7 GB/s | 207,3 GB/s | 30,7 MB/s | 371,5 MB/s
*CM steht für CrystalMark
ell2cox
2016-09-18, 20:20:59
Metro Last Light (Very High, PhysX)
GPU: GeForce GTX 980 Ti SLI @ 1455/3903, G-sync=ON, 372.70
RAM: Corsair Vengeance Pro DDR3-1866-CL9 (DualDDR3-16GB//QuadDDR3-32GB)
3840x2160 => 4-Core@3,9GHz / 4-Core+HT@3,9GHz / 6-Core@3,9GHz / 6-Core+HT@3,9GHz
DualDDR3-1333cl7 => 70,34 / 74,36 / 72,86 / 74,49
DualDDR3-2133cl11 => 70,34 / 73,7 / 72,56 / 75,33
QuadDDR3-1333cl7 => 70,58 / 72,68 / 73,3 / 74,8
QuadDDR3-2133cl11 => 70,50 / 74,74 / 73,94 / 75,1
3840x2160 => 4-Core@4,3GHz / 4-Core+HT@4,3GHz / 6-Core@4,3GHz / 6-Core+HT@4,3GHz
DualDDR3-1333cl7 => 71,91 / 74,06 / 73,81 / 75,25
DualDDR3-2133cl11 => 71,91 / 74,76 / 73,93 / 74,45
QuadDDR3-1333cl7 => 71,74 / 74,23 / 74,35 / 75
QuadDDR3-2133cl11 => 72,07 / 75,35 / 75 / 75,19
Screemer
2016-09-20, 17:13:23
danke für die benches. metro reagiert seht intressant auf ht. mir ist allerdings aufgefallen dass bei ddr3 dc 1333 der 4930 mit 4c+ht @ 3,9ghz schneller als mit 4,3ghz. komisch. sind dir da vielleicht die zahlen verrutscht?
Darkman.X
2016-09-21, 01:51:49
Ja, den Geschwindigkeitsboost mit HT fand ich auch interessant. Ich dachte, dass außer Crysis 3 mit einem Gras-Level kein Spiel von mehr als 4 Kernen profitiert, also richtig mit mindestens 50% Auslastung auf jeden Kern und nicht nur lächerliche 10-20% oder ähnliches. Und ganz zu schweigen von sogar mehr als 6 Kernen. Ist es evtl. CPU-PhysX, was davon provitiert? Oder nutzt das Spiel GPU-PhysX?
Ich dachte, dass außer Crysis 3 mit einem Gras-Level kein Spiel von mehr als 4 Kernen profitiert, also richtig mit mindestens 50% Auslastung auf jeden Kern
http://abload.de/thumb/ashes_stromverbrauch_dzu6i.jpg (http://abload.de/image.php?img=ashes_stromverbrauch_dzu6i.jpg) http://abload.de/thumb/star_rulervpco.jpg (http://abload.de/image.php?img=star_rulervpco.jpg)
Lowkey
2016-09-21, 10:03:43
Jedes Spiel reagiert anders auf Speichertakt und Anzahl der Kerne. Niemand wird nun auf 16 Kerne speziell für AotS gehen. Zwischen Notwendig, Mehrleistung und deutlicher, spürbarer Mehrleistung liegen noch ein paar Welten.
@HisN
Wo ist dein aktuelles System eigentlich nachzulesen? Es fällt auf, dass du seit Jahren die Foren mit Screenshots zukleisterst um arme Anfänger zu verschrecken. ;)
Hübie
2016-09-21, 10:51:51
Ich nehme alles zurück was ich gesagt habe bzw. es gilt nur für den Hasi-E / mein Gedächtnis täuscht mich - die Werte hatte ich deutlich stärker in Erinnerung, eine ganz leichte Tendenz existiert - dafür sollte man aber keine Instabilität des System in kauf nehmen.
--
Mal ein paar Werte Core@3.8Ghz und DDR4-2666@14-15-15-36
UCore | CM Read | CM Write | CM R+W | CM Cache | 7z Comp | 7z Decomp
3.6GHz | 49,8 GB/s | 47,0 GB/s | 36,8 GB/s | 212,7 GB/s | 32,6 MB/s | 378,6 MB/s
3.4GHz | 49,2 GB/s | 46,6 GB/s | 36,3 GB/s | 210,9 GB/s | 31,0 MB/s | 373,1 MB/s
3.2GHz | 49,0 GB/s | 46,3 GB/s | 36,0 GB/s | 209,7 GB/s | 30,9 MB/s | 372,8 MB/s
3.0GHz | 48,9 GB/s | 45,6 GB/s | 35,7 GB/s | 207,3 GB/s | 30,7 MB/s | 371,5 MB/s
*CM steht für CrystalMark
Ich sehe da gerade gar keinen Vorteil ggü. meines DDR3-Systems. Speicher rennt auf 2000 MHz. Latenzzeiten weiß ich nicht aus dem Kopf, aber meine Ergebnisse sind sehr ähnlich / höher. :confused:
Quadchannel hat bei geschicktem Interleaving halt den Vorteil, dass man Zugriffe verstecken kann. Also bei massiven Lese-/Schreibvorgängen hat man immer einen Vorteil. Seit ich von dem MickyMaus-Sockel umgestiegen bin ist einfach Ruhe. Ich schätze jeder S2011-User hier weiß was ich meine.
Lowkey
2016-09-21, 10:55:46
Uncore wirkt sich nicht auf Spiele aus? Oder wie war der Stand?
Naja, wenn ich meinen Uncore syncron zum Prozessortakt betreibe (bei meinem Prozessor anstatt 3.4Ghz dann 4Ghz oder mehr), dann wirkt sich das so aus, als hätte ich anstatt 2400er RAM 3000er RAM verbaut. Du kannst Dir z.b. an meinen Ergebnissen Ausmahlen wie hoch der Unterschied sein könnte, wenn man sich den winzigen Unterschied zwischen Dual- und Quadchannel anschaut.
ell2cox
2016-09-21, 18:58:49
danke für die benches. metro reagiert seht intressant auf ht. mir ist allerdings aufgefallen dass bei ddr3 dc 1333 der 4930 mit 4c+ht @ 3,9ghz schneller als mit 4,3ghz. komisch. sind dir da vielleicht die zahlen verrutscht?
Laut meinen unterlagen ist das so Korrekt!
Werde es aber bei gelegenheit Nachmessen :biggrin:
Teste gerade GTA 5 & Witcher 3 könnte noch eine Weile dauern :freak:
Ja, den Geschwindigkeitsboost mit HT fand ich auch interessant. Ich dachte, dass außer Crysis 3 mit einem Gras-Level kein Spiel von mehr als 4 Kernen profitiert, also richtig mit mindestens 50% Auslastung auf jeden Kern und nicht nur lächerliche 10-20% oder ähnliches. Und ganz zu schweigen von sogar mehr als 6 Kernen. Ist es evtl. CPU-PhysX, was davon provitiert? Oder nutzt das Spiel GPU-PhysX?
Jap Alles GPU-PhysX!
Achill
2016-09-21, 22:08:49
Ich sehe da gerade gar keinen Vorteil ggü. meines DDR3-Systems. Speicher rennt auf 2000 MHz. Latenzzeiten weiß ich nicht aus dem Kopf, aber meine Ergebnisse sind sehr ähnlich / höher. :confused:
Quadchannel hat bei geschicktem Interleaving halt den Vorteil, dass man Zugriffe verstecken kann. Also bei massiven Lese-/Schreibvorgängen hat man immer einen Vorteil. Seit ich von dem MickyMaus-Sockel umgestiegen bin ist einfach Ruhe. Ich schätze jeder S2011-User hier weiß was ich meine.
Mir ging es aktuell mehr um das Austesten, ob Uncore doch/keine Auswirkungen auf die Speicherbandbreite hat. Ich komme auch an 46GB/s lesen mit 2133Mhz ran bei sehr schwarfen Timings - hatte das so beim Hasi-E im Betrieb, da dessen MC nicht gut auf >DDR4-2400 zu sprechen war.
Aktuell folgende Settings (bin noch am Austesten):
- Core@4Ghz, UC@3.6, DDR4-2800@14-16-16-36 => 51,5 GB/s | 48,1 GB/s | 37,4 GB/s | 222 GB/s | 33,2 MB/s | 392 MB/s
--
Edit: Die x99 Plattform nimmt man (sollte man) wenn SLI/CFX das Ziel darstellt, und ich wäre beim Hasi geblieben, hätte dieser zwei volle 16 Lanes unterstützt - da war der 5820k nicht optimal ... ;)
Edit2: DDR3-2000 oder echte 2000MHz und damit effektiv DDR3-4000 ???
Edit3: Mit SiSoft Sandra 2016.03.22 sind es 57,4 GB/s ... CrystalMark ist auch schon älter und ggf. mit Werten anderer SW nicht gut vergleichbar.
Hübie
2016-09-21, 22:23:16
Haha. Du Witzkeks. Echte 2000 MHz sind gar nicht möglich. DDR3-2000.
Achill
2016-09-21, 22:36:22
Haha. Du Witzkeks. Echte 2000 MHz sind gar nicht möglich. DDR3-2000.
Mich hätten auch 2000MHz vom Stuhl fallen lassen und wissen wollen, wie du es gemacht hast. :conf: ;)
ell2cox
2016-09-24, 16:38:05
Grand Theft Auto V (Sehr hoch, TXAA, MSAAx4,FXAA)
GPU: GeForce GTX 980 Ti SLI @ 1455/3903, G-sync=ON, 372.70
RAM: Corsair Vengeance Pro DDR3-1866-CL9 (DualDDR3-16GB//QuadDDR3-32GB)
2560x1440 => 4-Core@3,9GHz / 4-Core+HT@3,9GHz / 6-Core@3,9GHz / 6-Core+HT@3,9GHz
DualDDR3-1333cl7 => 90,93 / 95,52 / 106,92 / 102,12
DualDDR3-2133cl11 => 99,27 / 97,65 / 109,60 / 108,79
QuadDDR3-1333cl7 => 92,35 / 97,85 / 108,86 / 102,95
QuadDDR3-2133cl11 => 100,22 / 99,21 / 110,02 / 111,06
2560x1440 => 4-Core@4,3GHz / 4-Core+HT@4,3GHz / 6-Core@4,3GHz / 6-Core+HT@4,3GHz
DualDDR3-1333cl7 => 101,04 / 102,75 / 112,30 / 107,79
DualDDR3-2133cl11 => 102,76 / 104,73 / 114,73 / 112,76
QuadDDR3-1333cl7 => 103,97 / 105,27 / 114,04 / 109,82
QuadDDR3-2133cl11 => 105,51 / 108,52 / 115,29 / 115,29
ED1: Bild "Differenz in %" beigefügt.
ell2cox
2016-09-24, 18:10:24
Grand Theft Auto V (Sehr hoch, TXAA, MSAAx4,FXAA)
GPU: GeForce GTX 980 Ti SLI @ 1455/3903, G-sync=ON, 372.70
RAM: Corsair Vengeance Pro DDR3-1866-CL9 (DualDDR3-16GB//QuadDDR3-32GB)
3840x2160 => 4-Core@3,9GHz / 4-Core+HT@3,9GHz / 6-Core@3,9GHz / 6-Core+HT@3,9GHz
DualDDR3-1333cl7 => 68,49 / 70,20 / 70,27 / 70,34
DualDDR3-2133cl11 => 71,66 / 69,17 / 71,66 / 70,98
QuadDDR3-1333cl7 => 68,66 / 69,78 / 70,02 / 70,54
QuadDDR3-2133cl11 => 70,68 / 70,57 / 69,89 / 70,34
3840x2160 => 4-Core@4,3GHz / 4-Core+HT@4,3GHz / 6-Core@4,3GHz / 6-Core+HT@4,3GHz
DualDDR3-1333cl7 => 69,45 / 70,98 / 71,01 / 69,58
DualDDR3-2133cl11 => 70,41 / 70,02 / 70,15 / 71,02
QuadDDR3-1333cl7 => 70,53 / 70,09 / 69,81 / 69,58
QuadDDR3-2133cl11 => 69,80 / 71,34 / 71,50 / 70,27
Fliwatut
2016-09-24, 19:40:04
Sehr interessant, vielen Dank!
Wenn du Zeit und Lust hast, könntest du das auch noch für FullHD machen? Bei 4K bist du wohl schon reichlich im GPU-Limit.
ell2cox
2016-09-24, 20:00:44
Sehr interessant, vielen Dank!
Wenn du Zeit und Lust hast, könntest du das auch noch für FullHD machen? Bei 4K bist du wohl schon reichlich im GPU-Limit.
Jap bei 4K bin ich bei den meisten Spielen im GPU-Limit :D
Höchste zeit für Titan-X(P) im SLI :freak:
FullHD macht mit 980Ti-SLI keinen sinn ;D
und für 1080p kauft sich keiner i7 mit 6 kernen & Quad-channel :wink:
Aber da wäre er eventuell am sinnvollsten^^
Lowkey
2016-09-24, 20:05:21
Du vergißt die Fraktion 1080p vollkommen? Das sind 23,9" Besitzer mit notorischem Platzmangel auf dem Schreibtisch und -15 Dioptrin im SLI.
Hisn hat auch nur 30fps in Full HD - wenn er will.
ell2cox
2016-09-24, 20:48:33
Aber da wäre er eventuell am sinnvollsten^^
Ha Ha! ;D
i7-4930K der Preis/FPS-Sieger in 1080p mit Quad-Channel :P
ell2cox
2016-09-24, 20:58:26
The Witcher® 3 - Wild Hunt (Höchste, HBAO+, Kantengätung AN)
GPU: GeForce GTX 980 Ti SLI @ 1455/3903, G-sync=ON, 372.70
RAM: Corsair Vengeance Pro DDR3-1866-CL9 (DualDDR3-16GB//QuadDDR3-32GB)
2560x1440 => 4-Core@3,9GHz / 4-Core+HT@3,9GHz / 6-Core@3,9GHz / 6-Core+HT@3,9GHz
DualDDR3-1333cl7 => 67,33 / 82,83 / 90,37 / 87,93
DualDDR3-2133cl11 => 75,03 / 88,27 / 93,83 / 100,20
QuadDDR3-1333cl7 => 70,27 / 89,63 / 93,47 / 92,70
QuadDDR3-2133cl11 => 78,47 / 91,37 / 101,27 / 103,60
2560x1440 => 4-Core@4,3GHz / 4-Core+HT@4,3GHz / 6-Core@4,3GHz / 6-Core+HT@4,3GHz
DualDDR3-1333cl7 => 71,60 / 87,87 / 93,73 / 92,67
DualDDR3-2133cl11 => 81,93 / 94,93 / 101,13 / 101,60
QuadDDR3-1333cl7 => 79,27 / 90,80 / 100,40 / 106,87
QuadDDR3-2133cl11 => 81,43 / 100,43 / 102,30 / 106,83
BlacKi
2016-09-24, 22:05:58
FullHD macht mit 980Ti-SLI keinen sinn ;D
darum geht überhaupt nicht, es geht darum zu keiner zeit im gpu limit zu sein. größtenteils wird das bei 1440p nicht der fall sein, aber wenn man wissen will wie viel dual channel und schneller speicher bringt, dann das gpu limit darin gar nichts zu suchen, komplett egal wie real 1080p mit dem rechner ist oder nicht.
Hübie
2016-09-25, 03:44:07
Immer das gleiche. Es geht um das Verhalten, dass man konkret erlebt. Diese theoretische Grütze ist mit Turbo und Boost doch schon längst nicht mehr aktuell, wenn man nicht überall nach justiert. Also schon alles richtig so.
Einzig Frameverlauf und Frametimeverlauf wären noch interessant.
ell2cox
2016-09-25, 12:12:08
Immer das gleiche. Es geht um das Verhalten, dass man konkret erlebt. Diese theoretische Grütze ist mit Turbo und Boost doch schon längst nicht mehr aktuell, wenn man nicht überall nach justiert. Also schon alles richtig so.
Einzig Frameverlauf und Frametimeverlauf wären noch interessant.
Jap so sehe ich das auch :biggrin:
ell2cox
2016-09-25, 12:33:04
The Witcher® 3 - Wild Hunt (Höchste, HBAO+, Kantengätung AUS)
GPU: GeForce GTX 980 Ti SLI @ 1455/3903, G-sync=ON, 372.70
RAM: Corsair Vengeance Pro DDR3-1866-CL9 (DualDDR3-16GB//QuadDDR3-32GB)
2560x1440 => 4-Core@3,9GHz / 4-Core+HT@3,9GHz / 6-Core@3,9GHz / 6-Core+HT@3,9GHz
DualDDR3-1333cl7 => 70,97 / 87,30 / 95,00 / 93,47
DualDDR3-2133cl11 => 79,53 / 94,77 / 101,63 / 108,47
QuadDDR3-1333cl7 => 76,97 / 93,37 / 106,37 / 112,43
QuadDDR3-2133cl11 => 80,50 / 101,40 / 119,77 / 123,33
2560x1440 => 4-Core@4,3GHz / 4-Core+HT@4,3GHz / 6-Core@4,3GHz / 6-Core+HT@4,3GHz
DualDDR3-1333cl7 => 74,53 / 92,93 / 96,73 / 96,43
DualDDR3-2133cl11 => 84,97 / 100,03 / 107,50 / 112,07
QuadDDR3-1333cl7 => 84,43 / 94,90 / 108,23 / 107,10
QuadDDR3-2133cl11 => 85,87 / 108,10 / 112,53 / 119,27
ell2cox
2016-09-25, 12:40:27
The Witcher® 3 - Wild Hunt (Höchste, HBAO+, Kantengätung AN)
GPU: GeForce GTX 980 Ti SLI @ 1455/3903, G-sync=ON, 372.70
RAM: Corsair Vengeance Pro DDR3-1866-CL9 (DualDDR3-16GB//QuadDDR3-32GB)
3840x2160 => 4-Core@3,9GHz / 4-Core+HT@3,9GHz / 6-Core@3,9GHz / 6-Core+HT@3,9GHz
DualDDR3-1333cl7 => 54,90 / 54,70 / 55,03 / 54,60
DualDDR3-2133cl11 => 54,93 / 54,77 / 55,00 / 55,17
QuadDDR3-1333cl7 => 55,37 / 55,00 / 55,37 / 55,07
QuadDDR3-2133cl11 => 55,23 / 55,23 / 55,07 / 55,17
3840x2160 => 4-Core@4,3GHz / 4-Core+HT@4,3GHz / 6-Core@4,3GHz / 6-Core+HT@4,3GHz
DualDDR3-1333cl7 => 55,20 / 54,77 / 54,87 / 55,07
DualDDR3-2133cl11 => 54,80 / 54,9 / 55,27 / 54,90
QuadDDR3-1333cl7 => 55,10 / 55,13 / 54,87 / 54,60
QuadDDR3-2133cl11 => 55,07 / 55,07 / 55,53 / 55,20
Lowkey
2016-09-25, 12:43:07
Jetzt fehlt nur noch Raff mit q.e.d.
Beim letzten Setting reicht wohl ein Quadcore mit 2ghz oder weniger?
ell2cox
2016-09-25, 12:53:21
The Witcher® 3 - Wild Hunt (Höchste, HBAO+, Kantengätung AUS)
GPU: GeForce GTX 980 Ti SLI @ 1455/3903, G-sync=ON, 372.70
RAM: Corsair Vengeance Pro DDR3-1866-CL9 (DualDDR3-16GB//QuadDDR3-32GB)
3840x2160 => 4-Core@3,9GHz / 4-Core+HT@3,9GHz / 6-Core@3,9GHz / 6-Core+HT@3,9GHz
DualDDR3-1333cl7 => 68,40 / 74,13 / 75,13 / 74,53
DualDDR3-2133cl11 => 73,53 / 74,67 / 75,90 / 76,27
QuadDDR3-1333cl7 => 71,63 / 74,73 / 74,77 / 75,27
QuadDDR3-2133cl11 => 73,77 / 75,23 / 74,63 / 75,57
3840x2160 => 4-Core@4,3GHz / 4-Core+HT@4,3GHz / 6-Core@4,3GHz / 6-Core+HT@4,3GHz
DualDDR3-1333cl7 => 71,80 / 74,87 / 75,13 / 75,47
DualDDR3-2133cl11 => 74,57 / 75,20 / 75,77 / 75,23
QuadDDR3-1333cl7 => 75,37 / 74,77 / 76,53 / 75,80
QuadDDR3-2133cl11 => 74,97 / 74,97 / 75,57 / 76,40
BlacKi
2016-09-25, 12:57:26
Immer das gleiche. Es geht um das Verhalten, dass man konkret erlebt.
dir vl, mir nicht. ich möchte wissen wieviel mehr performance quad vs dual man erhält. so wird alles verfälscht.
ell2cox
2016-09-25, 13:00:39
Jetzt fehlt nur noch Raff mit q.e.d.
Beim letzten Setting reicht wohl ein Quadcore mit 2ghz oder weniger?
Das war mein erster Gedanke bei dem Ergebnis :biggrin:
Wenn ich gleich zeit finde Teste ich das :freak:
Lowkey
2016-09-25, 13:08:15
Man munkelt, dass Gskill mit der Selektion der DDR4-4xxx 8 Gbyte Module nicht mehr hinterherkommt und Samsung mit den E (B, D, E) die Spitze der Machbarkeit erreicht hat. Irgendwelche Overclocker und Enthusiasten kaufen den Markt leer. Zen mit DDR4-3200 Support wird sicherlich mit DDR4-4xxx ebenfalls mitskalieren. Andererseits müssen die DDR4 Preise irgendwann steigen und wenn nun die 980 Ti mit Speicher + 6 Kerne + HT im SLI limitiert, dann haben wir in 5 Jahren vermutlich eine Grafikkarte (oder SLI), die nicht mehr limitiert, aber dann auf XPoint oder PCI-E 4.0 setzt.
=> schneller Speicher wirkt (P/L beachten). Echte Kerne wirken. HT wirkt mal mehr mal weniger mal nachteilig. Grafikkarte > all.
Achill
2016-09-25, 13:08:50
Was man an den Werten von @ell2cox gut sehen kann (pauschalisiert): Im GPU-Limit (auch bei mGPU) braucht man weder eine fette CPU und/oder viel RAM-Bandreite (mehr ist natürlich immer gut - aber evtl. nicht sinnvoll relevant). Es gibt Ausnahmen, passend dazu auch der ältere Test bzgl. Quad-Core-Gaming auf verschiedenen CPUs (http://www.pcper.com/reviews/Systems/Quad-Core-Gaming-Hardware-Roundup/Synthetic-Benchmarks).
=> Leider sind viele der getesteten Spiele Single-Player / ohne wirklich die CPU und damit auch die RAM-Bandbreite zu fordern.
=> Damit gilt natürlich auch, dass Spiele mit solcher Klasse an Anforderungen keine Intel i7*-E brauchen.
=> Die i7*-E werden wohl oft (evtl. maßgeblich) wegen den PCIe Lanes gekauft.
--
Edit: Noch was anderes, unter Linux mit großen Java-Projekten (>5000 Klassen), mehreren VMs/Docker-Instanzen zu entwickeln merkt man +6 Cores, Ram, SSDs, ... nur die GPU-Power brauche ich dort (noch?) nicht.
Lowkey
2016-09-25, 13:30:52
Verkaufszahlen:
Intel i5-6500 = 15.310 in 14 Monaten
Intel i5-6600k = 26.540 in 14 Monaten
Intel i7-6700k = 33.460 in 14 Monaten
und ein Intel i7-5820K = 10.160 in 2 Jahren
Der teuerste s1151 Prozessor ist gleichzeitig die meistgekaufte CPU? Offensichtlich haben viele User immer noch sehr viel Angst vor zu wenig CPU Leistung. Ein Widerspruch zum Testergebnis hier im Channel über die Wichtigkeit der CPU.
Ex3cut3r
2016-09-25, 14:40:17
Ist doch logisch, Mainboard und CPU sind halt "schwerer" zu tauschen als eine GPU, von daher nehmen die Leute imo lieber einen i7 als i5, der Preisunterschied ist auch nicht die Welt, wir reden hier von 230€ für den i5 und 330€ für den i7 grob geschätzt (war lange nicht auf Geizhals) welcher aber mit 8T einfach eine bessere Zukunftssicherheit vorgaukelt, oder aber, für viele User erscheinen 4T only mittlerweile als zu sehr 2007.
ell2cox
2016-09-25, 15:32:54
Jetzt fehlt nur noch Raff mit q.e.d.
Beim letzten Setting reicht wohl ein Quadcore mit 2ghz oder weniger?
The Witcher® 3 - Wild Hunt (Höchste, HBAO+, Kantengätung AN)
GPU: GeForce GTX 980 Ti SLI @ 1455/3903, G-sync=ON, 372.70
RAM: Corsair Vengeance Pro DDR3-1866-CL9 (DualDDR3-16GB//QuadDDR3-32GB)
3840x2160 => 4Core@3,4GHz / 4-Core@3,0GHz / 4-Core@2,5GHz / 4-Core@2,0GHz
QuadDDR3-1333cl7 => 54,57 / 54,03 / 49,23 / 40,23
QuadDDR3-2133cl11 => 55,00 / 53,67 / 50,47 / 39,63
Achill
2016-09-25, 15:43:44
Verkaufszahlen:
Intel i5-6500 = 15.310 in 14 Monaten
Intel i5-6600k = 26.540 in 14 Monaten
Intel i7-6700k = 33.460 in 14 Monaten
und ein Intel i7-5820K = 10.160 in 2 Jahren
Der teuerste s1151 Prozessor ist gleichzeitig die meistgekaufte CPU? Offensichtlich haben viele User immer noch sehr viel Angst vor zu wenig CPU Leistung. Ein Widerspruch zum Testergebnis hier im Channel über die Wichtigkeit der CPU.
Teuer == Gut ... ;)
ell2cox
2016-09-25, 16:36:53
Was man an den Werten von @ell2cox gut sehen kann (pauschalisiert): Im GPU-Limit (auch bei mGPU) braucht man weder eine fette CPU und/oder viel RAM-Bandreite (mehr ist natürlich immer gut - aber evtl. nicht sinnvoll relevant). Es gibt Ausnahmen, passend dazu auch der ältere Test bzgl. Quad-Core-Gaming auf verschiedenen CPUs (http://www.pcper.com/reviews/Systems/Quad-Core-Gaming-Hardware-Roundup/Synthetic-Benchmarks).
=> Leider sind viele der getesteten Spiele Single-Player / ohne wirklich die CPU und damit auch die RAM-Bandbreite zu fordern.
=> Damit gilt natürlich auch, dass Spiele mit solcher Klasse an Anforderungen keine Intel i7*-E brauchen.
=> Die i7*-E werden wohl oft (evtl. maßgeblich) wegen den PCIe Lanes gekauft.
Stimme dir zu 100% zu! :biggrin:
Aber bei GTA 5 & Witcher 3 3840x2160 mit einem Quad-Core egal ob 4,3GHz oder 3,9GHz kam es immer wieder zu kurzen rucklern,
erst mit hexa-core war es nicht mehr wahrnehmbar.
Kann aber in diesem fall auch an SLI liegen :confused:
Zu beachten wäre da auch der L3-Cach 12MB keine ahnung wie er das ergebnis bei Quad-Core verfälscht :confused:
Intel Core i7-6700K => L3-Cache: 8MB
(Kam leider noch nicht dazu mein Fazit zu schreiben)
Hübie
2016-09-25, 22:07:16
Das ist es was ich meine. Frametimes und Frameverläufe decken solche Ruckler auf. In jedem Falle hat man mit Quadchannel und >Quadcore immer Ruhe vor so etwas. Auch wenn man den Vorteil in den Tests nicht sieht: Wer nach Jahren vom Hexacore zum Quadcore zurück kehrt könnte es das ein oder andere Mal bereuen.
Bzgl. L3$: Das hängt stark von Anwendung und auch API ab. Der wird wohl bei manchen D3D9-11 Titel mal mehr mal weniger Einfluss haben. Pauschal würde ich mich da zi keinem Statement hinreißen lassen.
Nightspider
2016-09-26, 22:11:52
Grand Theft Auto V (Sehr hoch, TXAA, MSAAx4,FXAA)
GPU: GeForce GTX 980 Ti SLI @ 1455/3903, G-sync=ON, 372.70
RAM: Corsair Vengeance Pro DDR3-1866-CL9 (DualDDR3-16GB//QuadDDR3-32GB)
2560x1440 => 4-Core@3,9GHz / 4-Core+HT@3,9GHz / 6-Core@3,9GHz / 6-Core+HT@3,9GHz
DualDDR3-1333cl7 => 90,93 / 95,52 / 106,92 / 102,12
DualDDR3-2133cl11 => 99,27 / 97,65 / 109,60 / 108,79
QuadDDR3-1333cl7 => 92,35 / 97,85 / 108,86 / 102,95
QuadDDR3-2133cl11 => 100,22 / 99,21 / 110,02 / 111,06
2560x1440 => 4-Core@4,3GHz / 4-Core+HT@4,3GHz / 6-Core@4,3GHz / 6-Core+HT@4,3GHz
DualDDR3-1333cl7 => 101,04 / 102,75 / 112,30 / 107,79
DualDDR3-2133cl11 => 102,76 / 104,73 / 114,73 / 112,76
QuadDDR3-1333cl7 => 103,97 / 105,27 / 114,04 / 109,82
QuadDDR3-2133cl11 => 105,51 / 108,52 / 115,29 / 115,29
Hast du den internen GTA5 Benchmark benutzt?
Mit 3,9Ghz bringt schnellerer RAM knapp 10% mehr fps.
QuadChannel bringt hingegen kaum etwas, selbst bei langsamen Modulen. Springt GTA5 also so stark auf die RAM-Latenz an, anstatt auf die Bandbreite selbst?
Mit 4,3% bringt schnellerer RAM auch schon nichts mehr. Sieht für mich so aus als wärst du da schon im GPU-Limit.
darum geht überhaupt nicht, es geht darum zu keiner zeit im gpu limit zu sein. größtenteils wird das bei 1440p nicht der fall sein, aber wenn man wissen will wie viel dual channel und schneller speicher bringt, dann das gpu limit darin gar nichts zu suchen, komplett egal wie real 1080p mit dem rechner ist oder nicht.
100% Zustimmung
Immer das gleiche. Es geht um das Verhalten, dass man konkret erlebt. Diese theoretische Grütze ist mit Turbo und Boost doch schon längst nicht mehr aktuell, wenn man nicht überall nach justiert. Also schon alles richtig so.
Einzig Frameverlauf und Frametimeverlauf wären noch interessant.
Ja klar 4K ist realistisch mit 980 SLI. :rolleyes:
1440p mag ja noch hin und wieder sinnvoll sein um zu schauen ob schnellerer RAM und schnellere CPUs auch etwas in solchen Auflösungen bringt aber wenn man sieht das man in 1440p schon im GPU Limit ist braucht man doch nicht weiter in 4K zu testen. Wo ist da der Sinn?
Da wäre 1080p und 1440p schon interessanter. Vielleicht sogar 720p und 1440p aber ich weiß ja wie du zu 720p in CPU Benchmarks stehst. ^^
Jap so sehe ich das auch :biggrin:
Wozu testest du dann GTA5 in 4K wenn du siehst das durch das GPU Limit die fps schon um 30% einbrechen und du scheinbar mit 4,3Ghz in 1440p im GPU Limit bist? ^^
Um zu zeigen das schneller RAM nur im theoretischen Szenarien Punkte bringt, die im normalfall nur sehr selten vorkommen. Auch das ist mein größter Kritikpunkt.
Schön und gut wenn man durch den Speicher 20% mehr Leistung irgendwo erreicht, aber völlig irrelevant, wenn man seinen Rechner nie in diesen Pseudo-Settings betreibt.
BlackArchon
2016-09-26, 23:07:20
Ich habe hier irgendwie ein kleines Problem, die verschiedenen Ergebnisse zum Einfluss der Speichertransferrate auf die Spieleperformance in Einklang zu bringen. Vielleicht könnt ihr mir hier weiterhelfen.
Auf der einen Seite sehe ich die Ergebnisse hier im Thread, wo der Unterschied von Dualchannel zu Quadchannel bei Ivy Bridge-E in den gezeigten Spielen eher marginal ist - um die 5% Abweichung sehe ich hier grob. Auf der anderen Seite sehe ich einen Test bei Techspot (http://www.techspot.com/article/1171-ddr4-4000-mhz-performance/), wo die Differenzen bei Skylake zwischen DDR4-2133 und DDR4-4000 bei den Spieletests schon merklich höher ausfallen.
Wie passt das zusammen? Ist Skylake einfach hungriger nach Speicherperformance geworden? Oder sehen wir hier im Thread nur geringere Performancezuwächse weil wir eher CPU-Rohleistungs-limitiert sind, sodass schnellerer Speicher beinahe wirkungslos verpufft?
Nightspider
2016-09-26, 23:14:11
Das ist es was ich meine. Frametimes und Frameverläufe decken solche Ruckler auf. In jedem Falle hat man mit Quadchannel und >Quadcore immer Ruhe vor so etwas. Auch wenn man den Vorteil in den Tests nicht sieht: Wer nach Jahren vom Hexacore zum Quadcore zurück kehrt könnte es das ein oder andere Mal bereuen.
Naja die Diskussion hatten wir auch schon mal. Der Großteil der Spiele nutzt kaum 6-8 Kerne ordentlich.
Die meisten Konsolenports laufen selbst mit einem Skylake DualCore schon flüssiger als auf den Konsolen selbst.
Das ein aktueller QuadCore @4,5Ghz die Ports nicht ohne Ruckler schafft würde ich jetzt bezweifeln solange es mir keiner beweisen kann und dann müsste auch noch gezeigt werden das dies in mehr als in drei Spielen auftritt um überhaupt von Relevanz zu sein.
Bzgl. L3$: Das hängt stark von Anwendung und auch API ab. Der wird wohl bei manchen D3D9-11 Titel mal mehr mal weniger Einfluss haben. Pauschal würde ich mich da zi keinem Statement hinreißen lassen.
Als du vor 9 Monaten deine Argumente verteidigen wolltest hast du dich aber mal zu dieser Aussage hinreißen lassen: "Es gibt etliche Spiele die laufen auf einem LGA2011 allein wegen des vergrößerten Caches schon mal besser als auf den kleinen Pendants." :wink:
Um zu zeigen das schneller RAM nur im theoretischen Szenarien Punkte bringt, die im normalfall nur sehr selten vorkommen. Auch das ist mein größter Kritikpunkt.
Schön und gut wenn man durch den Speicher 20% mehr Leistung irgendwo erreicht, aber völlig irrelevant, wenn man seinen Rechner nie in diesen Pseudo-Settings betreibt.
Das gleiche trifft dann aber auch auf die CPU zu. Wer nur im GPU Limit spielt, also in 4K oder immer alles bis auf Anschlag modded der braucht sich auch nicht um CPU und RAM zu kümmern. Und wenn ich das mal so frech aussprechen darf: der kann sich dann auch aus den entsprechenden Threads fern halten. ^^ Zumindest kümmert sich diese Gruppe von Gamern nicht um die letzten 10-20% mehr CPU Leistung für mehr fps. Logisch das die sich dann auch nicht um RAM kümmern brauchen.
N0Thing
2016-09-26, 23:17:41
@BlackArchon
Ähnlich wie hier im Forum, scheint auch bei bei Techspot die Latenz wichtiger zu sein, als die Bandbreite. Ich gehe zumindest mangels Angaben bei Techspot davon aus, dass abseits der Taktrate die Timings der Speicherriegel nicht verändert wurden.
@HisN
Wo ist dein aktuelles System eigentlich nachzulesen? Es fällt auf, dass du seit Jahren die Foren mit Screenshots zukleisterst um arme Anfänger zu verschrecken. ;)
Der kleine Klicker in meiner Signatur (System) ist aktuell gehalten.
x-force
2016-09-27, 01:00:28
der test auf techspot ist leider nicht ausführlich genug beschrieben!
wenn man civ bencht, sollte man auch die zeit der berechnungen am ende der runde im fortgeschritten spielverlauf stoppen und keinen stumpfen benchmark der planetenoberfläche machen.
jeder der mal selbst rundenbasierte strategie gespielt hat, weiß wovon ich rede ;)
entscheidend für performance ist in erster linie die absolute latenz! an dieser stelle ist auch nochmal darauf hinzuweisen, daß bei der command rate "1t" einzustellen ist.
im zweiten schritt ist es dann natürlich besser, wenn diese latenz mit einer hohen bandbreite kombiniert ist.
Ein weit verbreiteter Irrtum ist, dass höhere numerische Timings eine schlechtere Leistung zur Folge hätten. Das gilt jedoch nur bei gleichem Takt, da sich die absolute Latenz aus den Faktoren (effektiver) Takt und Schaltzeitverhalten (Timing) ergibt.
aktuell sinnvoll wäre imo z.b. 3200er ddr mit cl14 und daher absoluter latenz von 8,75ns.
wer selbst rechnen will: (cl-latenz*2)/bandbreite
bei etwa 7,5ns kommt man an ein limit, das seit jahren nicht unterschritten wurde.
@auflösung
sobald es für 60fps nicht mehr durchgehend reicht, sollte man sich fragen was da limitiert.
da gibt es z.b. assassines creed wo durch die ganzen leute ein i5 haswell@ 4,2 ghz selbst für 1080p nicht mehr gereicht hat.
das ist bisher auch der einzige fall gewesen, in denen der 4-kerner keine 60fps bei fullhd mehr liefern konnte.
so eine szene würde ich mir für die benches suchen.
ansonsten
@nightspider
+1
bin da aber noch etwas kritischer als du.
selbst ein einziges spiel wie das ac beispiel von mir finde ich ziemlich relevant, ich geb ja nicht so viel für die kiste aus um dann schwankende framerates zu haben ;)
Nightspider
2016-09-27, 01:19:59
@nightspider
+1
bin da aber noch etwas kritischer als du.
selbst ein einziges spiel wie das ac beispiel von mir finde ich ziemlich relevant, ich geb ja nicht so viel für die kiste aus um dann schwankende framerates zu haben ;)
Was meinst du? Was für ein Beispiel? Du hast hier doch gar nichts gepostet in diesem Thread. :confused:
x-force
2016-09-27, 01:39:00
etwas weiter oben in dem zitierten post sprach ich von assassines creed.
da gibt es ein paar stellen in paris wo enorm viele menschen auftauchen und die last bei mir auf allen 4 kernen mit dem alten i5 haswell @4,2ghz über 90% lag und keine 60fps bei 1080p mehr halten konnte.
Achill
2016-09-27, 10:32:16
Hast du den internen GTA5 Benchmark benutzt?
Mit 3,9Ghz bringt schnellerer RAM knapp 10% mehr fps.
QuadChannel bringt hingegen kaum etwas, selbst bei langsamen Modulen. Springt GTA5 also so stark auf die RAM-Latenz an, anstatt auf die Bandbreite selbst?
Mit 4,3% bringt schnellerer RAM auch schon nichts mehr. Sieht für mich so aus als wärst du da schon im GPU-Limit.
[..]
Ich habe hier irgendwie ein kleines Problem, die verschiedenen Ergebnisse zum Einfluss der Speichertransferrate auf die Spieleperformance in Einklang zu bringen. Vielleicht könnt ihr mir hier weiterhelfen.
Auf der einen Seite sehe ich die Ergebnisse hier im Thread, wo der Unterschied von Dualchannel zu Quadchannel bei Ivy Bridge-E in den gezeigten Spielen eher marginal ist - um die 5% Abweichung sehe ich hier grob. Auf der anderen Seite sehe ich einen Test bei Techspot (http://www.techspot.com/article/1171-ddr4-4000-mhz-performance/), wo die Differenzen bei Skylake zwischen DDR4-2133 und DDR4-4000 bei den Spieletests schon merklich höher ausfallen.
Wie passt das zusammen? Ist Skylake einfach hungriger nach Speicherperformance geworden? Oder sehen wir hier im Thread nur geringere Performancezuwächse weil wir eher CPU-Rohleistungs-limitiert sind, sodass schnellerer Speicher beinahe wirkungslos verpufft?
Meine Beobachtung bei Haswell(-E) und Broadwell(-E) ist, dass diese erst im Multi-Core-Szenario die volle Bandbreite ausschöpfen können.
Ich habe mal etwas mit dem alten CrystalMark und dem MEM-Test getestet (geht sehr schnell darum nehme ich es bevorzugt). Auf dem Haswell-E ergibt sich folgendes Bild (ohne HT)
Operation | 1C | 2C | 3C | 4C | 5C | 6C | 6C+HT
---------------------------------------------------------------------
Read in GB/a 15 30 42 47 47 48 47
Write in GB/a 13 26 38 38 38 38 38
R/W in GB/a 11 23 31 31 31 31 31
Wenn sich der Haswell-E ähnlich dem normalen Haswell bzgl. Speicherbandbreite verhällt, und der CPU2006 Bench Bandbreiten limitiert wäre, dann könnte Skylake sehr gut abschließen, wenn Intel schon mit 1 Core eine bessere Nutzung der verfügbaren Bandbreite bei Skylake umgesetzt hat. Damit wären auch Skalierungen in der genannten Größenordnung möglich.
Anders verhält sich hier der Skylake, der anscheinend schon im Single-Core-Szenario sehr gut über die zwei Speicher-Kanäle verfügen kann, woher auch inital die Idee mit dem Revers-Hyperthreading aufkam, weil der damalige Test 470.lbm aus der SPEC-CPU2006 (https://www.heise.de/newsticker/meldung/Skylake-mit-inversem-Hyper-Threading-2779793.html) Single-Core und extrem Bandbreitenlimitert war (meines Wissens).
Spiele wie AotS könnten einen Unterschied zwischen Dual und Quad zweigen, genauso wie zukünftige Spiele die wirklich mehr Cores nutzen können - und hier meine ich nicht 6 Cores mit jeweils 20% - das ist i.d.R. der Thread-Schedular vom OS der die Anwendung immer mal zwischen den Cores verteilt.
@BlackArchon
Ähnlich wie hier im Forum, scheint auch bei bei Techspot die Latenz wichtiger zu sein, als die Bandbreite. Ich gehe zumindest mangels Angaben bei Techspot davon aus, dass abseits der Taktrate die Timings der Speicherriegel nicht verändert wurden.
Mehr Bandbreite ist wirklich nur *sichtbar*, wenn die Zugriffszyklen ähnlich bleiben und damit die Latenz mit dem schnelleren Rigel kleiner wird. Mit dem Hasi-E könnte bei 2133@Default-Timings von ~42GB/s allein durch sehr scharfe Timings diesen auf 48GB/s bringen, bei ansonsten gleich bleibenden 2133 Profil.
Hübie
2016-09-27, 12:29:42
Naja die Diskussion hatten wir auch schon mal. Der Großteil der Spiele nutzt kaum 6-8 Kerne ordentlich.
Die meisten Konsolenports laufen selbst mit einem Skylake DualCore schon flüssiger als auf den Konsolen selbst.
Das ein aktueller QuadCore @4,5Ghz die Ports nicht ohne Ruckler schafft würde ich jetzt bezweifeln solange es mir keiner beweisen kann und dann müsste auch noch gezeigt werden das dies in mehr als in drei Spielen auftritt um überhaupt von Relevanz zu sein.
Als du vor 9 Monaten deine Argumente verteidigen wolltest hast du dich aber mal zu dieser Aussage hinreißen lassen: "Es gibt etliche Spiele die laufen auf einem LGA2011 allein wegen des vergrößerten Caches schon mal besser als auf den kleinen Pendants." :wink:
Das gleiche trifft dann aber auch auf die CPU zu. Wer nur im GPU Limit spielt, also in 4K oder immer alles bis auf Anschlag modded der braucht sich auch nicht um CPU und RAM zu kümmern. Und wenn ich das mal so frech aussprechen darf: der kann sich dann auch aus den entsprechenden Threads fern halten. ^^ Zumindest kümmert sich diese Gruppe von Gamern nicht um die letzten 10-20% mehr CPU Leistung für mehr fps. Logisch das die sich dann auch nicht um RAM kümmern brauchen.
Du kannst es nicht beurteilen wenn du es nicht in Aktion erlebt hast. CPU-seitig hat man einfach jahrelang Ruhe wenn man den großen nimmt.
Und meine Aussage zum Cache beißt sich ja nicht. Es gibt etliche Spiele die den Cache ausnutzen. Aber es ist eben mein Spielportfolio das ich beurteile. ;)
Ich Spiele in 4k und fernhalten liegt mir fern, denn diese Auflösung braucht Bandbreite in jeder Lage.
Mit fixiertem PLL-Takt gewinnt man meiner Erkenntnis nach bis zu 5%, aber eben von Null an. :D Man spart damit im Grunde das Anschwingen des Kreises, aber nicht aller CPU-Teile. Das kostet natürlich beim Sechskerner mehr Verlustleistung als bei den kleinen.
Was genau ist eigentlich dein Ziel? Willst du herausfinden ob sich die Investition in einen Hexacore ala LGA2011 lohnt? Langfristig beantwortet dir das wohl jeder hier mit einem Ja. ;)
Nightspider
2016-09-27, 12:43:09
Ich spiele schon mit dem Gedanken auf Skylake-E zu warten, auch in der Hoffnung das dieser auch den neueren 14nm+ Prozess nutzt und höher takten kann.
Wobei mich die zusätzlichen Kerne ausschließlich wegen Star Citizen interessieren. Alle anderen Spiele würden locker mit dem 7700K flüssig laufen. Und von diesem könnte man 2018 auf Coffee Lake mit 6 Kernen umsteigen. Ich mag eigentlich nur nicht so lange warten.
Hier solls aber wirklich auch nur im Dual Channel vs. Quad Channel gehen. Bisher gab es hier keine Werte zu sehen die wirklich für Quad Channel sprechen. Eher würde ich mich für Dual Channel mit zwei DDR4_4000er Modulen entscheiden. Diese gibt es ja mittlerweile auch schon mit 8GB pro Modul und dieser hohen Taktrate.
Lowkey
2016-09-27, 13:05:20
Es gibt nur aktuell keine Freigabe für DDR4-3833 Mhz oder schneller für sämliche Mainboards. Auf dem Markt hast du nur 1-2 Mainboards für Sockel 1151, die das schaffen. Und dann stellte sich heraus, dass du auch noch ein gutes Mainboard aka Serienstreuung benötigst. Die DDR4-4000+ Module von Geil oder Corsair bestehen nicht unbedingt aus den aktuell besten Chips und die Gskill wurden wohl aufgekauft bzw. sie kommen nicht mit der Produktion hinterher.
Interessant wird demnach ein Zen 8/16 mit DDR4-3200 oder besser.
Hübie
2016-09-27, 14:42:01
Ich finde man darf das nicht getrennt betrachten, denn wer bitte kauft LGA 2011 und nutzt nur Dualchannel oder vier Kerne. Sorgenfrei fährst du in jedem Fall mit der großen Plattform. Kosteneffizienter mit der kleinen. Quadchannel selber macht jedenfalls noch keinen Kaufentscheid aus.
Lowkey
2016-09-27, 15:15:39
Besitzer des ASRock X99E-ITX/ac nutzen Dualchannel :>
Hübie
2016-09-27, 15:18:07
X-D Punkt an dich! Ob der Absatz über 0 liegt? :D
w0mbat
2016-09-28, 15:16:57
Wir es eigentlich mal DDR4-3000+ mit standard 1,2v geben, oder wird das immer 1,35v bleiben?
x-force
2016-09-28, 16:43:45
gibts doch schon ist aber so-dimm ;)
wie immer bei gskill, imo bester ramverkäufer die letzten jahre!
http://www.gskill.com/en/product/F4-3000C16D-16GRS
ansonsten gibt es 1,25v mit 2800.
wenn uns ddr4 noch lange begleitet kann es schon gut passieren, daß man 3000er speicher irgendwann im media markt rechner findet. wenn das soweit ist, wird er auch mit 1,2v zu betreiben sein.
Nightspider
2016-09-29, 15:53:58
Es gibt nur aktuell keine Freigabe für DDR4-3833 Mhz oder schneller für sämliche Mainboards. Auf dem Markt hast du nur 1-2 Mainboards für Sockel 1151, die das schaffen. Und dann stellte sich heraus, dass du auch noch ein gutes Mainboard aka Serienstreuung benötigst. Die DDR4-4000+ Module von Geil oder Corsair bestehen nicht unbedingt aus den aktuell besten Chips und die Gskill wurden wohl aufgekauft bzw. sie kommen nicht mit der Produktion hinterher.
Ich denke bzw. hoffe mal das die Z270 Mainboards von Kaby Lake noch höhere Taktraten unterstützen werden.
Der native RAM-Support wurde ja schon von DDR4_2133 auf 2400 angehoben.
Mit Glück packen dann alle Boards auch DDR4_4000 er Module.
Hast du eine Liste bzw. Link zu den aktuellen Mainboards die hohe Taktraten schaffen?
Vielleicht auch noch eine Quelle zu den derzeit besten DRAM-Chips von G.Skill? Welche Firma produziert dir RAM Chips für G.Skill? Die haben doch keine eigene Produktion. Bestimmt Samsung oder? Und die stecken in keinem Modulen der anderen Hersteller?
x-force
2016-09-29, 16:05:08
Hast du eine Liste bzw. Link zu den aktuellen Mainboards die hohe Taktraten schaffen?
DDR4 3866 4GB Avexir AVD4UZ138661904G-2xxx SS 1pcs v
DDR4 3866 4GB G.Skill F4-3866C19D-8GTZ SS 1pcs v
die beiden habe ich schonmal auf die schnelle gefunden. haben beide aber schlechtere zugriffszeiten, als die von mir empfohlenen 3200er cl14.
die beiden werden schon von meinem billig asrock z170 extreme4 unterstützt. bei >200€ oc boards sollte es besser aussehen.
grunsätzlich werden wohl auch noch deutlich mehr module gehen, so eine liste ist nie komplett.
Nightspider
2016-09-29, 16:19:02
Ich suchte eine Liste an Mainboard. *g* 4GB Module kommen eigentlich auch nicht mehr in Frage. Wir haben bald 2017. :wink:
Habe aber auch gerade schon ein paar gefunden:
ASUS Z170-PREMIUM
ASUS Z170 PRO GAMING
ASRock Z170 OC Formula
Bei geizhalz steht, dass das AsRock Formula sogar 4133 unterstützt bei zwei Modulen. Wäre natürlich gut wenn die Taktraten auch bei 4 Modulen unterstützt werden.
Zumindest beim Z170 erhoffe ich mir dann auch mind. 4000 bei 4 Modulen, falls ich für Star Citizen auf 32GB upgraden würde. Bei geizhalz steht beim ASUS Pro Gaming aber nur DDR4_3400 Support.
x-force
2016-09-29, 16:30:58
nach meiner erfahrung würde ich möglichst 4 riegel vermeiden.
dual oder single sided ist ja gott sei dank kein kriterium mehr.
1t macht besonders häufig mit 4 riegeln probleme.
ich seh grade, daß es doch auch 16gb riegel gibt. zwar keine 4000er aber die 3200er cl14 gibt es.
damit hättest du dann für alle eskapaden im weltraum vorgesorgt.
auf geizhals würde ich mich nicht verlassen. wenn man auf nummer sicher gehen will, muss man beim hersteller in die liste gucken. andersrum hat gskill auch listen mit mainboards. da es aber 100 verschiedene riegel gibt ist das schon etwas mühseliger, andererseits gibts auch mainboards wie sand am meer.
http://www.gskill.com/en/product/f4-3200c14d-32gtz
unter qvl hast du da die liste mit den mainboards. das ist auch so ein 2x16gb 3200er cl14 mit 8,75ns ;)
ich würde im zweifalsfall den ram zurückschicken. musste ich bisher auch nur einmal mit kingstons ddr1. die wollten nämlich kein 1t ;)
Nightspider
2016-09-29, 16:34:27
Ich war jetzt nie einer der großartig am RAM herumgetaktet hat, deswege die Frage: Wie viel bringt 1T?
4*8GB @ DDR_4000 mit 2T wäre völlig akzeptabel denke ich.
Lowkey
2016-09-29, 16:53:23
x-force widerspricht also allen aktuellen Entwicklungen:
Viele Hersteller mit 4 Dimm Slots haben eine 4 Riegel Optimierung. Also zB. das Asus Maximus mit 4 Slots hat eine minimal höhere Leistung bei der Bestückung mit 4 Modulen.
Double- und Singlesided spielt eine Rolle. Ab 3600 Mhz sind 8 Gbyte Module zu 90% Singlesided. Denn Doublesided packt selten 3600 Mhz und schon gar nicht mit guten Timings.
CMD 1t spielt soweit auch keine Rolle bei DDR4 mehr.
3200 Mhz sind mit CL14 zwar sehr gut, aber eben nicht die optimalen Riegelchen.
Die Mainboards limitieren ab 3600 bis 3800 Mhz (je nach Qualität des Mainboards). Will man mehr, dann muss es ein Asrock OC Formula z170, Asrock OCm Formula z170 oder Asus Maximus Impact VIII sein. Wegen Preis und Ausstattung hat eine Mehrheit das Asrock ATX, kurz OCF.
Die Corsair und Dragon Module mit DDR4-4000 haben ebenfalls Samsung Chips, aber aufgrund der wenigen Käufe weiss man nicht wie alt die Riegel sind. Gskill hat meistens die neusten Chips, aber gerade im oberen Bereich hat man nicht die Garantie auf beste Ware. Die Overclocker weltweit kaufen wohl nur Gskill.
Also hat man die Wahl: 16 oder 32 Gbyte Gskill DDR4-3200 CL14 oder Gksill DDR4-3600 CL14. Die DDR4-4133 Module kann man auch nehmen, aber die sind immer ausverkauft. Die 4 Gbyte Module kann man auch nehmen, gerade bei der Maximus Serie.
In den Berichten war immer die Rede von guten CPUs mit gutem IMC (Memory Controller). Das hat sich nicht bestätigt. Im oberen Bereich von 4000 Mhz braucht man neben der CPU, und einem guten Kit nicht nur das passende Mainboard Modell, sondern eben auch Glück bei der Qualität. 4133 Mhz sind eben nicht garantiert.
Nach dem letzten Artikel habe ich ich die schwächeren Module in den stärkeren Dimm Kanal gesteckt und danach konnte ich zwei Stufen höher takten. Aktuell 4x8 Gbyte Samsung @ DDR4-3466 CL17 bei irgendwas unter 1.3v
Wenn Kabylake nun kommt, dann wird mein i7-7700k die 5 Ghz erreichen (1rst week kauf ist Pflicht), aber bei den Mainboards wird sich nicht unbedingt etwas tun bzw. die Qualität der Boards weiss man erst nach Monaten genau. Mein Gigabyte z270-UD5 bekomme ich zwar noch aus der Gratis Aktion, aber ich glaube nicht, dass Gigabyte so schnell wieder zum Übertakten taugt. Und wegen der steigenden Preise wäre ein DDR4 Kauf nicht verkehrt. Angeblich ist DDR4 kaum verbesserungsfähig und die aktuellen Module könnte ausverkauft sein. Ein Zen mit DDR4-3200 kurbelt den Absatz bestimmt wieder an.
x-force
2016-09-29, 17:09:03
x-force widerspricht also allen aktuellen Entwicklungen:
Viele Hersteller mit 4 Dimm Slots haben eine 4 Riegel Optimierung. Also zB. das Asus Maximus mit 4 Slots hat eine minimal höhere Leistung bei der Bestückung mit 4 Modulen.
ja aber auch nur durch quadchannel,logisch
ich hab kurz nur in meinen i5 dimensionen gedacht :)
Double- und Singlesided spielt eine Rolle. Ab 3600 Mhz sind 8 Gbyte Module zu 90% Singlesided. Denn Doublesided packt selten 3600 Mhz und schon gar nicht mit guten Timings.
es ist nicht transparent ob single oder double. wichtig ist, daß die versprochen leistungsdaten bei gegebener spannung erreicht werden.
CMD 1t spielt soweit auch keine Rolle bei DDR4 mehr.
das werde ich prüfen :D
3200 Mhz sind mit CL14 zwar sehr gut, aber eben nicht die optimalen Riegelchen.
was wäre denn besser und kaufbar?
deine 3600er cl14 sind nicht gelistet bei geizhals.
Lowkey
2016-09-29, 17:13:25
Mein Fehler: 3600 mit CL15 müßte es geben. 3600 sollten Singlesided sein.
Ich gehen natürlich von Sockel 1151 aus.
Natürlich ist SS und DS nicht ersichtlich, aber laut den Berichten geht 3600 DS nicht auf jedem Board. Ich meine nun die 8 Gbyte Riegelchen. Die Chance auf gute Riegelchen sind entweder 3200 CL14 (da definitiv selektiert) oder 3600 CL15 (ebenfalls selektiert).
Die meisten 3200 Module mit CL17 oder CL16 können keine CL14 - selbst mit Spannungserhöhung nicht.
x-force
2016-09-29, 17:19:26
@1t
http://images.hardwarecanucks.com/image/mac/reviews/gskill/F4-3000C15Q-16GRR/GSKILL_RIPJAWS4_DDR4-3000_25.jpg
man sieht, daß 2t trotz höherem takt langsamer ist(ersten beiden zeilen)
hast du zu deinem 4bank asus mal einen benchmark link?
wäre ja lustig wenn sie da gezaubert haben, ich vermute aber das geht dann mit einer eingeschränkteren kompatiblität einher bzw der bonus verpufft dadurch, daß man langsamere timings nehmen muss.
Lowkey
2016-09-30, 09:01:06
Man bräuche nur einen aktuellen Test mit Skylake für die 1T/2T.
4Dimm > 2 Dimm stammte von Asus selbst und wurde in den Foren direkt bestätigt. Ich nehme an, dass der Vorteil nicht groß ist. Ich könnte es nachher mal nachmessen. Spätestens seit Skylake dürfte es keine Rolle mehr spielen wieviele Riegel im Rechner sind. Irgendwer meinte sogar, dass man kein Timing verändern muss (vermutlich nur eins).
x-force
2016-09-30, 16:42:46
Man bräuche nur einen aktuellen Test mit Skylake für die 1T/2T.
ich prüf das mal mit meinem 6600k später.
edit: ich hatte recht :freak:
3200 2t ist minimal schneller als 3100 1t, ,wahrscheinlich auf höhe von ca 3120 1t.
hab mir jetzt nicht die arbeit gemacht ein cpu-limitiertes szenerio in einem spiel zu erstellen, sondern hab cinebench laufen lassen.
aber egal, damit ist gezeigt, daß 1t auch auf skylake was bringt.
danke, jetzt bin ich wieder im oc-fieber, mal gucken ob der ram mehr als 3200 cl14 kann :D
4Dimm > 2 Dimm stammte von Asus selbst und wurde in den Foren direkt bestätigt. Ich nehme an, dass der Vorteil nicht groß ist. Ich könnte es nachher mal nachmessen. Spätestens seit Skylake dürfte es keine Rolle mehr spielen wieviele Riegel im Rechner sind. Irgendwer meinte sogar, dass man kein Timing verändern muss (vermutlich nur eins).
löst jetzt nicht unbedingt freudensprünge aus. solange das nicht größer bekannt wird und eingesetzt wird, ist das für mich ein marketingfeature wie xyz-auto-supereasy-oc, denn zu der schlechteren kompatiblität mit 2vs4 riegel sind in den letzten jahren etliche abhandlungen entstanden.
wenn das mal von unabhängiger seite bestätigt wird, kann man vielleicht mehr über dieses "voodoo" sagen.
Lowkey
2016-10-01, 10:31:16
Das mit dem CMD1 hatte ich gestern Nacht auch noch getestet und das scheint auf Skylake doch was zu bringen.
Mit den 4 Modulen bekomme ich vermutlich nach 20 Tests einen Vorsprung von 0.001% gegenüber 2 Modulen.
Ich hänge nun bei 3600 CL15 fest und suche den Schalter für mehr Takt.
ell2cox
2016-10-01, 11:29:56
DX11 vs. DX12
Rise of the Tomb Raider (Sehr hoch, HBAO+)
GPU: GeForce GTX 980 Ti SLI @ 1455/3903, G-sync=ON, 372.90
RAM: Corsair Vengeance Pro DDR3-1866-CL9 (DualDDR3-16GB//QuadDDR3-32GB)
2560x1440 => DX11 4-Core@3,9GHz / DX11 6-Core@3,9GHz
DualDDR3-1333cl7 => 78,77 / 85,17
DualDDR3-2133cl11 => 82,04 / 90,29
QuadDDR3-1333cl7 => 83,83 / 90,75
QuadDDR3-2133cl11 => 85,28 / 93,20
2560x1440 => DX12 4-Core@3,9GHz / DX12 6-Core@3,9GHz
DualDDR3-1333cl7 => 109,03 / 120,03
DualDDR3-2133cl11 => 116,85 / 123,93
QuadDDR3-1333cl7 => 117,47 / 128,82
QuadDDR3-2133cl11 => 123,81 / 128,93
2560x1440 => DX11 4-Core@4,3GHz / DX11 6-Core@4,3GHz
DualDDR3-1333cl7 => 83,75 / 88,97
DualDDR3-2133cl11 => 89,07 / 97,01
QuadDDR3-1333cl7 => 90,04 / 99,12
QuadDDR3-2133cl11 => 92,52 / 99,96
2560x1440 => DX12 4-Core@4,3GHz / DX12 6-Core@4,3GHz
DualDDR3-1333cl7 => 115,37 / 120,88
DualDDR3-2133cl11 => 124,08 / 133,90
QuadDDR3-1333cl7 => 125,84 / 135,72
QuadDDR3-2133cl11 => 126,05 / 137,83
Info: Update für Windows 10 Installiert & NVIDIA 372.90 treiber Installiert.
PS: Diese DX11 ergebnisse unterscheiden sich von den vorherigen!
Könnte am Windows update liegen? oder Treiber :confused:
Meine einstellungen sind Identisch! Werde es aber nochmal prüfen!
ED: AVG_FPS
ell2cox
2016-10-01, 11:46:16
DX11 vs. DX12
Rise of the Tomb Raider (Sehr hoch, HBAO+)
GPU: GeForce GTX 980 Ti SLI @ 1455/3903, G-sync=ON, 372.90
RAM: Corsair Vengeance Pro DDR3-1866-CL9 (DualDDR3-16GB//QuadDDR3-32GB)
2560x1440 => 4-Core@3,9GHz / 6-Core@3,9GHz
DX11 DualDDR3-1333cl7 => 78,77 / 85,17
DX12 DualDDR3-1333cl7 => 109,03 / 120,03
DX11 => DX12 DualDDR3-1333cl7 => 38,42 % / 40,93 %
DX11 DualDDR3-2133cl11 => 82,04 / 90,29
DX12 DualDDR3-2133cl11 => 116,85 / 123,93
DX11 => DX12 DualDDR3-2133cl11 => 42,43 % / 37,26 %
DX11 QuadDDR3-1333cl7 => 83,83 / 90,75
DX12 QuadDDR3-1333cl7 => 117,47 / 128,82
DX11 => DX12 QuadDDR3-1333cl11 => 39,39 % / 36,56 %
DX11 QuadDDR3-2133cl11 => 85,28 / 93,20
DX12 QuadDDR3-2133cl11 => 123,81 / 128,93
DX11 => DX12 QuadDDR3-2133cl11 => 45,18 % / 38,34 %
2560x1440 => 4-Core@4,3GHz / 6-Core@4,3GHz
DX11 DualDDR3-1333cl7 => 83,75 / 88,97
DX12 DualDDR3-1333cl7 => 115,37 / 120,88
DX11 => DX12 DualDDR3-1333cl7 => 37,76 % / 35,87 %
DX11 DualDDR3-2133cl11 => 89,07 / 97,01
DX12 DualDDR3-2133cl11 => 124,08 / 133,90
DX11 => DX12 DualDDR3-2133cl11 => 39,31 % / 38,03 %
DX11 QuadDDR3-1333cl7 => 90,04 / 99,12
DX12 QuadDDR3-1333cl7 => 125,84 / 135,72
DX11 => DX12 QuadDDR3-1333cl11 => 37,81 % / 35,09%
DX11 QuadDDR3-2133cl11 => 92,52 / 99,96
DX12 QuadDDR3-2133cl11 => 126,05 / 137,83
DX11 => DX12 QuadDDR3-2133cl11 => 36,24 % / 37,89 %
Die Skalierung unter DX12 in verbindung mit SLi ist TOP :biggrin:
so sollte es bei single gpu auch sein ;D
ED: AVG_FPS
Achill
2016-10-01, 12:53:22
@ell2cox, ich kann nicht nachvollziehen woher die Prozentwerte kommen.
ell2cox
2016-10-01, 13:05:58
@ell2cox, ich kann nicht nachvollziehen woher die Prozentwerte kommen.
2560x1440
DX11 4-Core @ 3,9 GHz DualDDR3-1333cl7 => 78,77
DX12 4-Core @ 3,9 GHz DualDDR3-1333cl7 => 109,03
Differenz zwischen DX11 vs. DX12 DualDDR3-1333cl7 => 38,42%
Ich hoffe dadurch wird es klarer?
ell2cox
2016-10-01, 13:23:19
Habe die Darstellung bei den Prozentwerten geändert, hoffe dass es jetzt eindeutiger ist. :biggrin:
Nightspider
2016-10-01, 13:37:23
Wenn ich das richtig sehe ist Tomb Raider das erste Spiel hier im Thread welches stark von der Bandbreite durch Quad Channel profitiert.
Quad Channel liegt sogar einen Hauch vor dem 60% höher getakteterem Speicher.
HisN hatte bei Tomb Raider ja auch schon deutliche Unterschiede zwischen Dual und Quad Channel messen können. Noch heftiger war das ja bei Hitman.
In Hitman waren es laut HisN bei den min_fps ~6% mehr, bei avg_fps 9% mehr und bei den max_fps sogar 16% mehr durch Quad Channel. Auch hiernochmal danke an HisN.
Zusammen machen die 60% höher getakteteren Module und Quad Channel bei Tomb Riader bei 4,3Ghz 10,5% mehr Leistung aus. Bei GTA5 waren es übrigens bei 3,9Ghz schon 10,2% mehr Leistung.
Sofern man nicht im GPU Limit ist bringt der schnellere Speicher mehr, je höher die CPU getaktet ist.
Ein Test von GTA5 in 1080 wäre nochmal nett.
ell2cox
2016-10-01, 14:19:36
Wenn ich das richtig sehe ist Tomb Raider das erste Spiel hier im Thread welches stark von der Bandbreite durch Quad Channel profitiert.
Quad Channel liegt sogar einen Hauch vor dem 60% höher getakteterem Speicher.
HisN hatte bei Tomb Raider ja auch schon deutliche Unterschiede zwischen Dual und Quad Channel messen können. Noch heftiger war das ja bei Hitman.
In Hitman waren es laut HisN bei den min_fps ~6% mehr, bei avg_fps 9% mehr und bei den max_fps sogar 16% mehr durch Quad Channel. Auch hiernochmal danke an HisN.
Zusammen machen die 60% höher getakteteren Module und Quad Channel bei Tomb Riader bei 4,3Ghz 10,5% mehr Leistung aus. Bei GTA5 waren es übrigens bei 3,9Ghz schon 10,2% mehr Leistung.
Sofern man nicht im GPU Limit ist bringt der schnellere Speicher mehr, je höher die CPU getaktet ist.
Ein Test von GTA5 in 1080 wäre nochmal nett.
Ich Könnte noch 2560x1440 bei 4,5GHz Testen.
GTA5 in 1080p muss ich mal gucken wann ich zeit habe,
wollte noch Ashes of the Singularity Teten DX11 & DX12, der Benchmark ist ziemlich umfangreich muss ich erstmal angucken!
Wollte aber erst die min/max FPS von Rise of the Tomb Raider auswerten (das sind eine menge an daten) .
Nightspider
2016-10-01, 14:22:48
Ich weiß nicht ob sich das lohnt mit 4,5Ghz nochmal zu messen. Sind ja nur 200Mhz mehr, was effektiv gerade mal 4,6% mehr Taktrate sind.
Ist halt auch die Frage wann das GPU Limit eintritt bei Tomb Raider und Co. Es reicht ja schon wenn die Grafikkarte immer mal kurz auf Anschlag läuft um das Ergebnis zu verfälschen.
ell2cox
2016-10-01, 14:33:21
Ich weiß nicht ob sich das lohnt mit 4,5Ghz nochmal zu messen. Sind ja nur 200Mhz mehr, was effektiv gerade mal 4,6% mehr Taktrate sind.
Ist halt auch die Frage wann das GPU Limit eintritt bei Tomb Raider und Co. Es reicht ja schon wenn die Grafikkarte immer mal kurz auf Anschlag läuft um das Ergebnis zu verfälschen.
Da hast du recht!
Wäre nur interessant ob da noch bei 6C@4,5GHz/2133cl11 ein paar +FPS kommen?
Hübie
2016-10-01, 17:19:48
Das Problem hier ist ja wieder, dass die 4,3 oder 4,5 GHz dass Maximum darstellen was der Prozessor ausfahren kann. Aber wie oft und wie lange dieser Takt ausgefahren wird steht auf einem anderen Blatt. Die extrem geringen Unterschied in hohen Taktraten kommen schlicht daher, dass die CPU selten diesen auch abrufen muss.
Ich weiß die Arbeit zu schätzen, aber zeigt es eben doch nur einen kleinen Teil der Wirklichkeit. Man bräuchte Auslastungs-, Frametime- und Taktdiagramme beider Komponenten (GPU & CPU) um aus der Ferne ein realistisches Bild zu generieren.
Man kann etwas gegensteuern, wenn man auf Effizienz verzichtet: C-States aus, Turbo aus und Windows Profil auf "Höchstleistung". Damit schwingt der PLL halt immer im "vollen" Takt.
Meiner Erfahrung nach bringt es jedoch weniger als man gewinnt. ;)
x-force
2016-10-01, 17:21:56
Man kann etwas gegensteuern, wenn man auf Effizienz verzichtet: C-States aus, Turbo aus und Windows Profil auf "Höchstleistung". Damit schwingt der PLL halt immer im "vollen" Takt.
Meiner Erfahrung nach bringt es jedoch weniger als man gewinnt. ;)
das bringt vor allem deutlich bessere dpc latency :)
aspm mechanismen funken da übrigens auch noch rein.
720p und alles low in tomb raider ist bei mir übrigens zu 99% cpu limitiert. (1070oc)
der ingame bench scheint sich ziemlich gut für cpu benches zu eignen.
Achill
2016-10-02, 12:30:38
2560x1440
DX11 4-Core @ 3,9 GHz DualDDR3-1333cl7 => 78,77
DX12 4-Core @ 3,9 GHz DualDDR3-1333cl7 => 109,03
Differenz zwischen DX11 vs. DX12 DualDDR3-1333cl7 => 38,42%
Ich hoffe dadurch wird es klarer?
Thx, die Woche war wohl zu lang ... :D
TurricanM3
2016-10-15, 14:18:58
Weiß gerade nicht wo ich es anders posten könnte:
Sind 32GB RAM (überwiegend zum Zocken) immer noch absolut sinnlos? Bringt das wirklich rein gar nichts? Ich habe nur Thunderbird auf und ein paar Browserfenster mit ca. 20 Tabs (immer).
In Win10 selbst macht das auch keinen Unterschied nach längerer Laufzeit? Ich fahre nur selten neu hoch.
Software und Settings
http://abload.de/thumb/anno2205_2016_10_12_23muyy.jpg (http://abload.de/image.php?img=anno2205_2016_10_12_23muyy.jpg) http://abload.de/thumb/anno2205_2016_10_12_2f8uut.jpg (http://abload.de/image.php?img=anno2205_2016_10_12_2f8uut.jpg)
http://abload.de/thumb/mirrorsedgecatalyst_2jnu4l.jpg (http://abload.de/image.php?img=mirrorsedgecatalyst_2jnu4l.jpg) http://abload.de/thumb/mirrorsedgecatalyst_2yjuk2.jpg (http://abload.de/image.php?img=mirrorsedgecatalyst_2yjuk2.jpg)
http://abload.de/thumb/dxmd_2016_08_24_14_41ggult.jpg (http://abload.de/image.php?img=dxmd_2016_08_24_14_41ggult.jpg)
Und außerdem: Was mache ich Wie mit meinem Rechner:
wIhF93NsKis
TurricanM3
2016-10-15, 14:23:51
Hehe das hatte ich neulich schon gesehen bei dir. Ist halt nur die Frage ob es mit 16GB zu Nachteilen käme oder der RAM einfach nur vollgeballert wird weil er da ist (Bug?).
Was im Ram ist muss nicht von der lahmen SSD geholt werden? Das wäre für mich schon ein Nachteil, egal wie gering er ausfällt.
Genau wie die Zeit von 4GB VRam Karten neigt sich die Zeit von 16GB Zockerrechnern dem Ende zu. Es liegt an Dir wann Du reagierst.
TurricanM3
2016-10-15, 14:30:04
Theoretisch schon.
Hast das nur in Anno?
Ich hab 32GB Domis schon ewig, aber nie eingebaut weil keine Lust neu auszuloten. :freak:
Wird zumindest mal mehr VCCSA benötigen.
Ich hab ja extra noch Screenshots und ein Video hinzugefügt, wobei das Video anders gelagert ist. Und nein, ich habe das nicht nur in Anno. ABER ich spiele auch nicht alle Spiele :-)
TurricanM3
2016-10-15, 14:35:45
Danke dir. Werde mal umbauen gleich.
BlacKi
2016-10-15, 14:42:38
interessant wäre es ob es nicht wirklich nur ein bug ist.
wenn du mehrmals dieselben stellen abfahren würdest, dann dürfte nicht zusätzlich daten im ram abgelegt werden. ansonsten hättest du auch keinen "vorteil" einer weniger genutzten SSD.
TurricanM3
2016-10-15, 15:04:03
Eigenartig. Hab die 32GB nun drin und mehr Durchsatz in Aida als vorher. 62GB/s und nun 68GB/s. Timings sind wieder 15-15-15-35/1T @3000.
Hatte vorher Hynix, nun Samsung ICs. Macht das so einen Unterschied?
@Blacki
Bei Anno kann ich mir einen Bug vorstellen, aber er würde mich ja im Endeffekt dazu zwingen das Spiel neu zu starten.
Das Video ist tatsächlich anders gelagert, hab ich ja geschrieben. Ich hab da Shadowplay im Schattenmodus laufen, das geht bei mir in die Ramdisk. Deshalb ja: Kommt drauf an WAS man WIE mit seinem Rechner macht. Wenn ich stundenlang Shadowplay am laufen habe, dann muss das nicht auf die SSD gehen.
TurricanM3
2016-10-15, 15:19:46
Ich hab da Shadowplay im Schattenmodus laufen, das geht bei mir in die Ramdisk.
...
Wenn ich stundenlang Shadowplay am laufen habe, dann muss das nicht auf die SSD gehen.
Schattenmodus sind doch eh nur die letzten 5 Min. (1.9GB) normal und max. 20 (7.5GB). Das macht bei stundenlanger Laufzeit keinen Unterschied, oder du hast dich missverständlich ausgedrückt.
EDIT:
Oder ist das in 4k so viel mehr?
Ein bisschen, aber wenn es stundenlang läuft, dann ist es ja ein vielfaches der xx GB, also ein vielfaches der 20 Minuten. Es wird der Anfang gelöscht, während am Ende hinzugeführt wird. Nach 20 Min ist ja nicht Schluss.
TurricanM3
2016-10-15, 22:13:55
Ein bisschen, aber wenn es stundenlang läuft, dann ist es ja ein vielfaches der xx GB, also ein vielfaches der 20 Minuten. Es wird der Anfang gelöscht, während am Ende hinzugeführt wird. Nach 20 Min ist ja nicht Schluss.
Er schreibt doch einfach nur die letzten max. 20Min, also höchstens 7.5GB. Seltsam.
Habe eben mal BF1 gezockt, da bin ich auf 11.4GB RAM-Belegung gekommen, das Spiel selbst hatte aber glaube nur 4.XGB.
Die Belegung bei dir ist dann doch ein Großteil ShadowPlay geschuldet oder? Weißt gerade wie viel die anno2205.exe oben selbst hatte?
PS: RAMs laufen @3000 13-14-14-34/1T. =)
Nein, er schreibt jede Sekunde, und zwar in das Windows Temp Verzeichnis. Und zwar so lange wie Du Shadowplay im Shadow-Modus am laufen hast und ein Spiel gespielt wird.
Wenn Du dann Speichern drückst, dann schreibt er das, was gerade im Temp Verzeichnis ist als File in den Clip Ordner, und schreibt neu in den Temp-Ordner. Solange bis Du aufhörst zu zocken.
Mach nen Filemoni auf, dann siehst Du es. Das ist auch der Grund warum Du zwei Verzeichnisse einstellst.
Bei Anno läuft Shadowplay nicht, nur bei dem GTA5 Beispiel. Und das habe ich nur gebracht um zu zeigen dass es viele gute Möglichkeiten gibt sein Ram zu nutzen, wobei DAS, was DU nicht nutzt ja sowieso vom OS genutzt wird. BIS AUF DAS LETZTE BIT :-)
Nicht auf den grünen Balken achten, sondern auf die Zahl hinter dem Wort "FREI".
http://abload.de/img/taskmanager_64gb_volltmd6w.jpg (http://abload.de/image.php?img=taskmanager_64gb_volltmd6w.jpg)
TurricanM3
2016-10-15, 22:56:18
WinTemp-Verzeichnis? :confused:
Dann verstehe ich aber nicht wieso es mal hieß es schreibe in den RAM bei dieser Hintergrundaufzeichnung?
Die Anno2205.exe hat bei dir wirklich so viel belegt demnach?
Nunja, wir werden OT hier. :freak:
Nightspider
2017-01-18, 02:59:11
Vielleicht ganz interessant:
Hier hat mal ein YouTuber das Gegenteil gemacht und den RAM stark untertaktet und ein paar Tests laufen lassen.
https://www.youtube.com/watch?v=bnI6yokvVdk
bnI6yokvVdk
y33H@
2017-01-21, 12:29:17
Ich muss die Tage eh den 6900K durchjagen (Vorarbeit ist die halbe Miete) und kann den kompletten Parcours mal spaßeshalber mit Dualchannel und Quadchannel durchführen (2x8 GByte und 4x4 GByte). Hab so ne Vermutung was profitiert und was nicht ...
BlacKi
2017-01-21, 14:47:58
super! vielen dank!
Lowkey
2017-01-21, 15:17:41
Gibt es bei der Gelegenheit so etwas wie eine Tabelle oder Liste, was in etwa dem Takt/Timings entspricht, also zb. DDR4-3000 CL14 entspricht DDR4-3200 CL16 etc? Oder ist die Idee nicht umsetzbar?
Tesseract
2017-01-21, 15:51:49
Gibt es bei der Gelegenheit so etwas wie eine Tabelle oder Liste, was in etwa dem Takt/Timings entspricht, also zb. DDR4-3000 CL14 entspricht DDR4-3200 CL16 etc? Oder ist die Idee nicht umsetzbar?
die latenz ist bereits in cycles angegeben, d.h. (14/3000)*3200 ~= 15
aber das berifft natürlich nur die latenz, wie es mit der tatsächlichen performance aussieht hängt stark von der software ab, da kann man keine allgemeine aussage treffen.
PacmanX100
2017-01-21, 16:30:35
Ich würde schon sagen das man da allgemeine Aussagen treffen kann ;) überall dort wo CPU Rohleistung wichtig ist (Strategie, Manager wie Fussball/Radsport etc, KI Berechnungen) wirkt sich das direkt aus.
Bei 7-zip hängt es an der Festplatte und an Rohleistung. Jedes MHz setzt sich direkt um.
Immer dann wenn Daten verarbeitet werden (RAM Zugriffe) ist auch die Latenz da und bremst aus. Bei einer integrierten Grafik wird zusätzlich noch die Bandbreite wichtig denn die klaut ansonsten wichtige Ressourcen einfach wech. Und gerade wenn man mit 6/8/12 Threads hantiert ist die Bandbreite umso knapper.
Was Performance angeht muss man immer den sweetspot suchen. Bei DDR3 z.B. fand ich 2400 CL10 das beste, da man so immens Bandbreite hatte und sehr geringe Latenzen ohne sich arm zu bezahlen. Bei DDR4 denke ich mal sollte man in den Bereich ~DDR4 3200 schauen. Mit CL14 ist man schon gut dabei, höhere Bandbreite ohne wesentlich schlechter als DDR3 zu werden. Alles darüber ändert sich mit der Zeit.
Man muss auch sagen das lowcost RAM sich ganz schlecht weiterverkauft. Wer jetzt nochn gutes G Skill Kit rumliegen hat der bekommt auch noch seine 90€/16GB über ebay ;)
y33H@
2017-01-21, 16:45:48
DDR4-3200 bei CL14 ist IMHO den Preis nicht wert.
PacmanX100
2017-01-21, 17:09:09
Gegenüber was ist die Frage? Wenn man die schnellste CPU hat ist anders nicht mehr rauszuholen. 3-5% mehr Power entsprechen immerhin einer oder zwei CPU Stufen, von daher ist das gar nicht mal so schlecht investiert. Wiederverkaufswert ist langfristig auch besser vorallem wenn RAM teurer wird ;)
Nightspider
2017-01-21, 17:28:55
DDR4-3200 bei CL14 ist IMHO den Preis nicht wert.
Bezogen auf QuadChannel?
3-5% mehr Power entsprechen immerhin einer oder zwei CPU Stufen,
Man kann es auch übertreiben. ^^
Aber solange man nicht zwingend 32 oder gar 64GB braucht hält sich der Aufpreis für DDR4_3600 oder gar 4000 noch in Grenzen, imo.
TurricanM3
2017-01-21, 17:58:49
Packen die IMCs der 2011-v3 überhaupt solche Taktraten? Ich hatte selbst bei 3200 schon Probleme. Nutze 3000CL13.
Nightspider
2017-01-21, 18:00:50
Solche Taktraten waren bisher nur wenigen Z170 Boards vorbehalten.
Die Z270 Boards schaffen vllt öfter/immer die 4000er Marke.
TurricanM3
2017-01-21, 18:07:52
Ja eben und hier gehts ja um Quad-Channel. =)
Lowkey
2017-01-21, 18:13:43
Im HWBOT Forum hatte jemand getestet, wie sich der IMC verhält und der User ist der Meinung, dass es von der Qualität des Mainboardes abhängt. Je besser das Mainboard, desto höher der Takt des Speichers. Ebenso gab es das Problem, dass ein stark angezogener Kühler den Speichertakt reduziert bzw. Fehler produziert. Bei den z270 haben sie wohl einen Fehler im Design entdeckt.
Ein neues Board mit X99 Chipsatz könnte mit dem Speicher höhere Werte erreichen.
@Tesseract: so dachte ich mir das auch, dass das nicht einfach möglich sein wird.
Nightspider
2017-01-21, 18:28:45
Fehler im Design? Beim Z270 Chipsatz? Inwiefern?
Heißt das die Z270 Boards schaffen keine hohen Taktraten beim RAM?
Lowkey
2017-01-21, 18:36:12
Fehler im Design? Beim Z270 Chipsatz? Inwiefern?
Heißt das die Z270 Boards schaffen keine hohen Taktraten beim RAM?
Mein Fehler. Ich meinte Fehler beim z170 und nicht z270.
Nightspider
2017-01-21, 18:52:02
Du bist doch etwas belesen in der RAM OC Szene oder?
Schaffen die Z270 Boards, wie erhofft, generell höhere Taktraten beim max_oc?
Achill
2017-01-22, 00:10:33
Ich muss die Tage eh den 6900K durchjagen (Vorarbeit ist die halbe Miete) und kann den kompletten Parcours mal spaßeshalber mit Dualchannel und Quadchannel durchführen (2x8 GByte und 4x4 GByte). Hab so ne Vermutung was profitiert und was nicht ...
Wäre interessant ... :up:
y33H@
2017-02-06, 13:19:42
Wie erwartet: In Spielen (720p mit GTX 1080) und bei Anwendungen, etwa Packen mit 7-Zip, Video-Transcoding, RAW-Konvertierung oder Rendern gibt's beim 6900K allerhöchstens marginale Unterschiede zwischen Dualchannel (2x 8 GB) und Quadchannel (4x 4 GB), jeweils DDR4-2400 @ CL14.
basix
2017-02-06, 20:49:43
Packen die IMCs der 2011-v3 überhaupt solche Taktraten? Ich hatte selbst bei 3200 schon Probleme. Nutze 3000CL13.
Ich schaffe auch nicht wirklich mehr als 3200. Mehr würde die Spannungskeule erfordern und das ist es nicht wirklich Wert. Was aber viel bringt ist der 133er Strap, mit dem 100er komme ich nicht mal in die Nähe von 3000 MHz. Wahrscheinlich irgendwelche Timings / Latenzen welche um den Faktor 133 / 100 entschärft werden.
Rampage 2
2017-12-02, 07:01:09
Hat schon jemand Arma 3 (max. Quality, PIP normal, Sichtweite 4000, Schatten 200, HBAO+ Strong, 16x AF, kein AA außer Post-AA) @ 1080p getestet? DDR4-3200 @ CL14 Dual Channel vs. Quad Channel auf einem stark übertaktetem HSW-E/BDW-E/SKL-X?
Arma 3 profitiert ja besonders von schnellerem Arbeitsspeicher (z.B. DDR4-4000) oder vom EDRAM des Broadwell - da ist es naheliegend, dass es auch von Quad Channel oder höherem Uncore-Takt profitiert...
R2
BlacKi
2017-12-02, 10:11:21
umso höher der takt, umso weniger bringt quadchannel etwas.
ich bin auch der meinung, das es nicht die bandbreite selbst ist, die die performance steigert, sondern der operationstakt des ram selbst. liegt vl an der mangelnden multicore tauglichkeit einiger spiele.
Rampage 2
2017-12-02, 15:19:55
ich bin auch der meinung, das es nicht die bandbreite selbst ist, die die performance steigert, sondern der operationstakt des ram selbst.
Aber die Erhöhung des Takts bewirkt nichts Anderes als eine Steigerung der Bandbreite - also dasselbe, was auch Quad Channel bewirkt:|
Wurde Arma 3 überhaupt unter QC getestet oder bezieht sich deine Behauptung auf die Allgemeinheit der Spiele?
R2
BlacKi
2017-12-02, 15:28:18
Aber die Erhöhung des Takts bewirkt nichts Anderes als eine Steigerung der Bandbreite - also dasselbe, was auch Quad Channel bewirkt:|
nein, was quadchannel betrifft deffinitiv nicht.
dualchannel mit 2666mhz war immer schneller als quadchannel mit 2133 und sogar 2400mhz. natürlich nicht in der bandbreite sondern in den fps im cpu limit .
möglich, das quadchannel bei niedrigeren taktraten (1600mhz oder geringer) etwas ausgleichen kann aber schneller dualchannel ram ist in jedem fall vorzuziehen.
Edit: und was die bandbreite bei dual channel angeht doch eigentlich auch nicht. wieviel schneller gehen 128bit durch ein 256bit SI statt einem 128bit SI? überhaupt nicht schneller. ich glaube das ist der punkt warum quadchannel kaum etwas bringt.
Platos
2017-12-03, 18:22:36
nein, was quadchannel betrifft deffinitiv nicht.
dualchannel mit 2666mhz war immer schneller als quadchannel mit 2133 und sogar 2400mhz. natürlich nicht in der bandbreite sondern in den fps im cpu limit .
möglich, das quadchannel bei niedrigeren taktraten (1600mhz oder geringer) etwas ausgleichen kann aber schneller dualchannel ram ist in jedem fall vorzuziehen.
Edit: und was die bandbreite bei dual channel angeht doch eigentlich auch nicht. wieviel schneller gehen 128bit durch ein 256bit SI statt einem 128bit SI? überhaupt nicht schneller. ich glaube das ist der punkt warum quadchannel kaum etwas bringt.
Die Bandbreite hat aber erstmal nicht zwingend was mit der Geschwindigkeit zu tun. Jeder Riegel ist trotzdem noch so schnell, wie er eben ist. Durch Dual oder Quad Chanel wird der einzelne Riegel nicht schneller.
Ist vom Prinzip her ja ähnlich wie bei der CPU. Mit 4 Kernen kann man Paralell mehr abarbeiten pro Zeitheinheit, wenn die Software das denn überhaupt zulässt. Das selbe Spiel beim Dual- oder Quadchannel.
Und Rampage hat schon recht. Mehr Takt gibt im Endeffekt mehr Bandbreite, genau so wie beim Quadchannel. Nur gibt der Quadchannel keine schnellere Riegel, im Gegensatz zu schnelleren Riegeln.
Rampage 2
2017-12-03, 22:35:21
Kann es sein, dass jeder einzelne Speicherkanal (bei QC insgesamt 4) nur "seinem" eigenem Kern-Cluster zugewiesen ist? Also Kanal A für CPU-Core 1 & 2 ... Kanal D für CPU-Core 7 & 8 (bei SKL-X dann bis zu 5 Kerne pro Kanal beim i9-7980XE). Dass also jedem Kern(-Cluster) nicht 102,4GB sondern nur 25,6GB Bandbreite bzw. nur ein Speicherkanal zur Verfügung stehen?
(Das könnte zum Beispiel erklären, warum Mainstream-Plattformen mit nur QuadCore-CPUs (außer Coffee Lake) nur 2 Speicherkanäle haben - weil es eben nur maximal 2 Kern-Cluster gibt...)
Könnte auch die Geschwindigkeit der CPU selbst und des CPU-Cache (also CPU-Takt und Uncore-Takt) eine entscheidende Rolle dabei spielen, wieviel von der verfügbaren Speicherbandbreite am Ende auch genutzt wird? Dass also weder QuadChannel noch höherer Speichertakt etwas zur Performance beiträgt, weil CPU & Cache zu niedrig getaktet und damit von dem erhöhten Bandbreiten-Angebot gar keinen Gebrauch machen können...
R2
Der_Korken
2017-12-03, 23:13:31
Kann es sein, dass jeder einzelne Speicherkanal (bei QC insgesamt 4) nur "seinem" eigenem Kern-Cluster zugewiesen ist? Also Kanal A für CPU-Core 1 & 2 ... Kanal D für CPU-Core 7 & 8 (bei SKL-X dann bis zu 5 Kerne pro Kanal beim i9-7980XE). Dass also jedem Kern(-Cluster) nicht 102,4GB sondern nur 25,6GB Bandbreite bzw. nur ein Speicherkanal zur Verfügung stehen?
Unwahrscheinlich. Was machen dann 6- und 10-Kern-Modelle mit ihrem Quadchannel-Interface? Da gäbe es dann langsam und schnell angebundene Kerne nach deiner Logik.
(Das könnte zum Beispiel erklären, warum Mainstream-Plattformen mit nur QuadCore-CPUs (außer Coffee Lake) nur 2 Speicherkanäle haben - weil es eben nur maximal 2 Kern-Cluster gibt...)
Der Grund ist viel einfacher: Die PHYs brauchen relativ viel Die Space und der Sockel muss größer sein, um die ganzen Datenleitungen nach außen führen zu können. Das macht sowohl CPU als auch Board teurer. Wenn Quadchannel kaum was bringt, wird es eben nicht verbaut. Man braucht vor allem auch vier RAM-Riegel, um es zu nutzen, was die wenigsten Nutzer haben. Und btw: Früher gab es Singlecores mit Dualchannel, demnach müssten die Quadcores ja eigentlich schon Octochannel haben.
Könnte auch die Geschwindigkeit der CPU selbst und des CPU-Cache (also CPU-Takt und Uncore-Takt) eine entscheidende Rolle dabei spielen, wieviel von der verfügbaren Speicherbandbreite am Ende auch genutzt wird? Dass also weder QuadChannel noch höherer Speichertakt etwas zur Performance beiträgt, weil CPU & Cache zu niedrig getaktet und damit von dem erhöhten Bandbreiten-Angebot gar keinen Gebrauch machen können...
R2
Ich meine mich zu erinnern, dass Intel-CPUs mit einem Kern nicht die gesamte Speicherbandbreite nutzen können, sondern so 2-3 Kerne dafür brauchen (bei Dualchannel). Ryzen verhält sich da anders und kann auch mit einem Kern die Speicherbandbreite auslasten. Ich weiß aber nicht mehr, wo ich diesen Test gesehen habe nur dass es kurz nach dem Ryzen Release war. Mit den Caches dürfte das nichts zu tun haben, eher mit beschränkten Bandbreiten innerhalb der CPU.
BlacKi
2017-12-04, 16:40:08
"In der kommenden PCGH-Ausgabe 01/2018 haben wir übrigens untersucht, wie stark Coffee Lake, Ryzen und Skylake X von Kanälen, Takt und Timings sowie der Anzahl der Module und Ranks in Anwendungen und Spielen profitieren"
http://www.pcgameshardware.de/RAM-Hardware-154108/Tests/RAM-Tests-Bestenliste-DDR3-DDR4-Arbeitsspeicher-681573/
nais,1 ich glaub die kauf ich.
IchoTolot
2017-12-07, 17:57:39
Coffee Lake profitiert am meisten. :smile:
BF1 in 720p ohne GPU Limit:
https://lh3.googleusercontent.com/lc2a29R06EInh1Il4VQezSczhQOCsRHGF2CLgRl5jVnHSsJYpquFzQHy747CuMeirYVpWacQeXxYF15g Y6OqD8djSb7RNuqaM7AS-oErZISc5e4WHpYQZXebEVpHmm2DrNsiU1zhCzDIqYkn3y8CFDoGsRbNNf8_rmjqv5r_64WZQ4nHedtYR YUvWE5TQNH_ZYnlSD9qzZuoM2bTcoTPUkl8rnk7yEJ5RStIKRc4FsAH8G92raak9_Ikq5h3rrGhwzi1y sHIUGiu5ZeeYBlmgUHf4Q3l1s224WcxRgk-YOkLdBdISlS1Fi1ILuRqK5yu-yFNzk1kOeCmXtWDdpOOh2FZTm9GHfoZUjvPzSvUwB6RfAtbWzw5ESAPpHjriJp46T9WE7RSbaDNhv2W3 pkFNMpnyW0PGmO5GdKZi5SdQCkkUGIoQ72Q-wQQuM3uZolfSAJHZwdvP9UgadZ1Hmt_cMnfCVftVGHrZOegptOdqhiKAO_J-dYeWVv2zg6U2QRdDy88BVDFiWvWoR8YvQSVg5uugI3Epk0WdrVWdXBQnaIJWy3wK3rf6PZAKTAvNe71a kN-L8dtF6fx9cyGvcFnenTFGnz-MKxW8h4EFqw4-so=w504-h481-no
7820X
https://lh3.googleusercontent.com/G1cHe_vAMzRJx3Nn0yIV8tnoMHIcg7bGb_0Ppb2kFis_h9Ox0KyMWV-PwsYH86XgbvKyxG6aWkvvwVG7JrfAhJQBgEnDJK5pybhqbNvhOubZ3gkNTL6xHAV_w-qQM92iXUR3MKcLcJUYcCJVEQlJ-XZteYycv1DC6Z6zoSLVZZQm9q0EltXsIiZexcY6cJleNwdCLqSi_VNpF775gvloDBD52oq7RJQGEa-bP21Vg2y_-uVoum1d7yh7oq0CIqte4ODirmE2L2kCYAg7dmio2hXAfieQ_lpXwR6UnbYEIpkKg_4PLSYRZhwdajlUl DCJbBk8H2_TtW-CaIPekGuPc1BXMGjdwdArD2H6Vu9aOeF6zlGJKD5xHm7iZ22EkF0QTV9b5h_uupPm3bvqJyShhcLNOK9 cMP0_ZMwI1DS83kiUszRrDdJfbEnokyP508knX5pC6Y4dzh9NUfbu21fOEAuvZzXQDc_C8-t0-5J3DzHl3a-1-mvfx7d--rdCANN3bTZ7fUh8OWEERDgobvvK9HVYmR6xUoqHJXatSmMEY1OuTcFSvkibxOoS6TR7Ph5yIbLK9N9NQ R1A4MyU5-2LHeY7BiwtNRy1UH9z5KzGQKU=w490-h270-no
7820X
https://lh3.googleusercontent.com/G1cHe_vAMzRJx3Nn0yIV8tnoMHIcg7bGb_0Ppb2kFis_h9Ox0KyMWV-PwsYH86XgbvKyxG6aWkvvwVG7JrfAhJQBgEnDJK5pybhqbNvhOubZ3gkNTL6xHAV_w-qQM92iXUR3MKcLcJUYcCJVEQlJ-XZteYycv1DC6Z6zoSLVZZQm9q0EltXsIiZexcY6cJleNwdCLqSi_VNpF775gvloDBD52oq7RJQGEa-bP21Vg2y_-uVoum1d7yh7oq0CIqte4ODirmE2L2kCYAg7dmio2hXAfieQ_lpXwR6UnbYEIpkKg_4PLSYRZhwdajlUl DCJbBk8H2_TtW-CaIPekGuPc1BXMGjdwdArD2H6Vu9aOeF6zlGJKD5xHm7iZ22EkF0QTV9b5h_uupPm3bvqJyShhcLNOK9 cMP0_ZMwI1DS83kiUszRrDdJfbEnokyP508knX5pC6Y4dzh9NUfbu21fOEAuvZzXQDc_C8-t0-5J3DzHl3a-1-mvfx7d--rdCANN3bTZ7fUh8OWEERDgobvvK9HVYmR6xUoqHJXatSmMEY1OuTcFSvkibxOoS6TR7Ph5yIbLK9N9NQ R1A4MyU5-2LHeY7BiwtNRy1UH9z5KzGQKU=w490-h270-no
DDR4-3200 mit CL16 ist nur leider alles andere als gut. Ich hab hier DDR4-3800 mit CL16 ...
BlacKi
2017-12-07, 18:57:18
und dann auch nur SR... nur weils der ryzen zwecks vergleichbarkeit nicht packt?
Edit: etwas stutzig macht mich das 4 riegel schneller sein sollen als 2 jeweils mit SR dualchannel, und das nicht zu knapp. fällt diese steigerung bei 2x DR belegung weg?
Screemer
2017-12-07, 19:07:34
ernsthaft sr 3200 mit cl16? schon mal in den thread für subtiming optimierung bei ryzen geschaut?
IchoTolot
2017-12-07, 19:32:11
Was denn? Ich halte das schon für repräsentativ.. :confused: Die beliebten Corsair LPX haben bei 3000 Mhz auch CL15.
Kauft euch doch einfach die Ausgabe. 4 Euro. (y)
Lehdro
2017-12-08, 12:42:58
Was denn? Ich halte das schon für repräsentativ.. :confused:
Klar ist es das, allerdings zeigt es nur erneut Bekanntes:
- schneller RAM ist immer besser
- Quadchannel rentiert sich nur Anwendungsabhängig
- schnellerer RAM schlägt Quadchannel meistens
- Hauptlatenzen sind realtiv nebensächlich
- out of the box DR mit selben Haupttimings/Taktraten ist minimal schneller als SR
Ich fasse mal zusammen was da so alles fehlt, was die meisten noch immer interessiert:
- es wird mit Autosubtimings getestet, die nicht angegeben werden(!)
-> kein fairer Vergleich zwischen DR und SR möglich, da diese erwiesenermaßen andere Subtimings haben
- Auswirkung von verschärften Subtimings wird nichtmal angetestet
- Vergleich von Auswirkungen von Timings, Subtimings und Taktrate untereinander fehlt auch ("ist CL16/gute subtimings 3466 besser als CL14 auto subtimings 3200" als relevantes Praxisbeispiel)
Der test ist schon sehr gut, mir fehlt da aber noch was ;)
basix
2017-12-16, 12:47:29
Kann es sein, dass jeder einzelne Speicherkanal (bei QC insgesamt 4) nur "seinem" eigenem Kern-Cluster zugewiesen ist? Also Kanal A für CPU-Core 1 & 2 ... Kanal D für CPU-Core 7 & 8 (bei SKL-X dann bis zu 5 Kerne pro Kanal beim i9-7980XE). Dass also jedem Kern(-Cluster) nicht 102,4GB sondern nur 25,6GB Bandbreite bzw. nur ein Speicherkanal zur Verfügung stehen?
(Das könnte zum Beispiel erklären, warum Mainstream-Plattformen mit nur QuadCore-CPUs (außer Coffee Lake) nur 2 Speicherkanäle haben - weil es eben nur maximal 2 Kern-Cluster gibt...)
Könnte auch die Geschwindigkeit der CPU selbst und des CPU-Cache (also CPU-Takt und Uncore-Takt) eine entscheidende Rolle dabei spielen, wieviel von der verfügbaren Speicherbandbreite am Ende auch genutzt wird? Dass also weder QuadChannel noch höherer Speichertakt etwas zur Performance beiträgt, weil CPU & Cache zu niedrig getaktet und damit von dem erhöhten Bandbreiten-Angebot gar keinen Gebrauch machen können...
R2
Sehr interessanter Überlegungsansatz. Bei HSW-E weiss ich zu 100%, dass der L3$ / Ring Takt die Speicherbandbreite begrenzt. Man kann den Speichertakt noch so hochjubeln, bringen tut es nicht viel. 3200er vs. 2400er bei vergleichbaren Timings sind gerade Mal +10% Bandbreite Read / Copy, bei Write sogar eine Nullnummer. L3$ / Ring Takt hat dann eine 1zu1 Skalierung, wenn man ihn verändert. Dies aber nur bei 6-Kerner,n beim 5960X ist das nicht so stark der Fall. Ein 6950X mit 3200er CL14 Speicher hat zeimlich genau +25-30% AIDA Bandbreiten-Werte wie mein System.
@ Lehdro:
Bie mir ist CL14 + optimierte Subtimings schneller als CL13 @ auto (bei selber Taktrate). Dies noch mit verschiedenen Taktraten usw. zu testen ist ein grosser Aufwand, interessant wäre der Vergleich aber allemal.
Rampage 2
2017-12-16, 18:59:11
Sehr interessanter Überlegungsansatz. Bei HSW-E weiss ich zu 100%, dass der L3$ / Ring Takt die Speicherbandbreite begrenzt. Man kann den Speichertakt noch so hochjubeln, bringen tut es nicht viel. 3200er vs. 2400er bei vergleichbaren Timings sind gerade Mal +10% Bandbreite Read / Copy, bei Write sogar eine Nullnummer. L3$ / Ring Takt hat dann eine 1zu1 Skalierung, wenn man ihn verändert. Dies aber nur bei 6-Kerner,n beim 5960X ist das nicht so stark der Fall. Ein 6950X mit 3200er CL14 Speicher hat zeimlich genau +25-30% AIDA Bandbreiten-Werte wie mein System.
Es war halt 'ne Überlegung von mir, da der RAM primär mit der CPU kommuniziert (weniger mit der GPU) - wenn irgendwo anders der Flaschenhals ist, dann ist es kein Wunder, dass Quad-Channel nichts bringt...
Zum Speichersupport bei HSW-E & BDW-E CPUs: hängt das von der CPU-Architektur (z.B. ein 5960X versus 6900K) oder einfach nur vom Mainboard/Chipsatz ab? Schließlich sind sowohl HSW-E als auch BDW-E beide LGA-2011v3...
Schafft ein 5960X z.B. DDR4-3200 CL14 mit 100-Strap im QuadChannel? Hier ein früheres Posting von dir:
Ich schaffe auch nicht wirklich mehr als 3200. Mehr würde die Spannungskeule erfordern und das ist es nicht wirklich Wert. Was aber viel bringt ist der 133er Strap, mit dem 100er komme ich nicht mal in die Nähe von 3000 MHz. Wahrscheinlich irgendwelche Timings / Latenzen welche um den Faktor 133 / 100 entschärft werden.
R2
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.