Archiv verlassen und diese Seite im Standarddesign anzeigen : Min-FPS Quad- vs Octa-Core in 4k?
Hübie
2016-12-20, 00:22:33
Weiß auch nicht warum man immer auf Vergleiche in 4k herum reitet. Es ist doch als einziges für den geneigten Käufer interessant, ob der frameverlauf und / oder die frametimes glatter laufen als zuvor. Und da können sich schon Unterschiede auch in hohen Auflösungen ergeben. Merkwürdig ist für mich hier immer, dass diejenigen, welche noch nie einen LGA2011 immer sagen, so etwas bräuchte man nicht und diejenigen, welche einen haben, nicht mehr zurück gehen. Es hat doch irgendwie seine Gründe. ;)
aufkrawall
2016-12-20, 01:03:02
Kannst du das auch etwas näher beschreiben bzw. belegen?
Hübie
2016-12-20, 08:56:58
Kannst du das auch etwas näher beschreiben bzw. belegen?
Leider habe ich keine Benchmarks mehr wo ich damals vom 2500k auf den 3930k wechselte (selbst wenn ich nur 6C/6T nutzte, war es streckenweise deutlich besser). In Erinnerung blieb mir nur AC:BF. Also nein. Da die hiesigen Medien so etwas nirgends messen und online stellen, wirst du dich auf mein Wort verlassen müssen oder es selber testen müssen. :wink:
aufkrawall
2016-12-20, 13:38:21
Leider habe ich keine Benchmarks mehr wo ich damals vom 2500k auf den 3930k wechselte (selbst wenn ich nur 6C/6T nutzte, war es streckenweise deutlich besser). In Erinnerung blieb mir nur AC:BF. Also nein. Da die hiesigen Medien so etwas nirgends messen und online stellen, wirst du dich auf mein Wort verlassen müssen oder es selber testen müssen. :wink:
AC:BF hatte noch kein gutes MT, dürfte also mit mehr Kernen kaum skaliert haben. Bleiben noch Bandbreite und Caches, was sicher auch keinen himmelweiten Unterschied machen wird. Zudem waren die GPU-Anforderungen ziemlich hoch und die Frametimes hier mit Sandy afair auch ziemlich sauber.
Hübie
2016-12-20, 14:41:44
AC:BF hatte noch kein gutes MT, dürfte also mit mehr Kernen kaum skaliert haben. Bleiben noch Bandbreite und Caches, was sicher auch keinen himmelweiten Unterschied machen wird. Zudem waren die GPU-Anforderungen ziemlich hoch und die Frametimes hier mit Sandy afair auch ziemlich sauber.
Keine Ahnung was es war, aber Fakt ist nun mal, dass man mit voll aufgedrehten Details @1800p 25 fps hatte, wenn man auf dem Schiff die Kanonen abfeuerte. Nach dem Umbau waren es 40+. Eher 43-45. Und wenn das MT nicht so gut war, lag es vielleicht auch an der Summe aller Teile. Afair war das MT immerhin so gut, dass es auf 6 Kernen gleichmäßige Auslastung erzeugte. Ist nun auch ein paar Jahre her. Hab hier schon per Sufu geguckt, aber ich find das nicht wieder.
Edit: Es gab noch mehr Beispiele (SC2, BF4 MP), aber da erinnere ich mich nicht mehr an Details.
aufkrawall
2016-12-20, 14:50:27
In den Spielen wär auch das Upgrade von 2500k auf 4770k sehr deutlich gewesen.
robbitop
2016-12-20, 14:51:10
@Hübie
Klingt eher nach anderweitigen Anomalien (vergriesgnaddeltes System, Patch, Treiberhickup etc). Wenn dem so wäre, wäre das würde sich das auch in den Messungen der Redaktionen so widerspiegeln.
In vielen Spielen bringen die 6C/8C rund 5-10 % mehr taktnormierte Leistung durch größeren L3/QC. Selten (aber zuletzt immer mal wieder) durch mehr Kerne.
Hübie
2016-12-20, 17:04:00
@Hübie
Klingt eher nach anderweitigen Anomalien (vergriesgnaddeltes System, Patch, Treiberhickup etc). Wenn dem so wäre, wäre das würde sich das auch in den Messungen der Redaktionen so widerspiegeln.
In vielen Spielen bringen die 6C/8C rund 5-10 % mehr taktnormierte Leistung durch größeren L3/QC. Selten (aber zuletzt immer mal wieder) durch mehr Kerne.
Ich kenne keine Redaktionen die CPU Benchmarks auch in hohen Auflösungen mit Frameverläufen / Frametimes anbieten. :confused: Bestenfalls average oder auch mal min / avg bzw. Techreport mit 1080p. Das war's dann auch. Ich würde ehrlich gerne mal so einige Dinge nachmessen, aber ich habe eben keinen kleinen Prozessor hier um direkte Vergleiche anzustellen. In Tests lese ich auch eigentlich nie wie der Taktverlauf so war.
Bei CPUs lockere ich immer die TDP-Limits und auch die Stromstärken lass ich offen. Das hatte ich auf beiden Plattformen gemacht. HT war ebenfalls aus. Die großen CPUs sind halt immer für Langzeitinvestitionen geeignet weil man sich einfach nicht darum kümmern muss.
Problem bei modernen CPUs ist halt, dass bei geringer Last eben auch wenig Takt genutzt wird, da der Algorithmus auf Effizienz ausgelegt ist. Skylake profitiert oft schon vom schnelleren Anschwingen der PLLs (also Lastwechsel-Szenarien).
Wie gesagt, erinnere mich eben an AC:BF weil es so krass war. Das Ergebnis war die Summe aller Teile (Cache, QC, RAM-Clk, mehr Cores etc..). Der 2500k lief mit 4700 MHz und DDR3-1600 RAM und zudem hatte SLi nur PCIe 2.0. Der 3930k dann halt auf Standard-Takt mit offener TDP und DDR3-2000 aber ob nun PCIe 2.0 oder 3.0 erinnere ich mich nicht mehr. Hatte Anfangs Schwierigkeiten mit dem gekauften Board. In SC2 erinnere ich mich noch, dass @720p leicht weniger Performance heraus kam als in 1080p, da der Takt hier so niedrig war. Das ist hier leider OT und wir können gerne per PN weiter machen. ;)
Hübie
2016-12-20, 17:11:01
Kannst das ja auch gerne verschieben, godmode. Wollte hier nicht zu sehr ins OT abdriften, aber CPU-Benchmarks sind meiner Erfahrung nach nicht so einfach, wie viele es sich vorstellen (720p einstellen und fertig).
Das habe ich im Archiv gefunden: Leider nie vollendet.
https://abload.de/thumb/cpu-benchesyup3x.png (http://abload.de/image.php?img=cpu-benchesyup3x.png)
War ebenfalls mit dem 3930k. Unigine Valley und auch das alte World in Conflict konnte durch mehr Auflösung zulegen, da nun der Takt höher gesetzt wurde.
aufkrawall
2016-12-20, 17:13:13
Hab eh kein Interesse, darüber mit dir weiter zu diskutieren.
robbitop
2016-12-20, 19:21:53
Also wenn sich soetwas in Frametimes @4k niederschlagen würde, wäre es in niedriger Auflösung sicher messbar.
Viele Redaktionen nutzen mittlerweile FCAT oder zumindest irgendeine Art Frametimeanalyse. Wenn da was dran wäre (messbar, reproduzierbar) wäre es aufgefallen mMn. Ich tippe weiterhin auf die ganz normale PC Alltagsanomalie. :)
aufkrawall
2016-12-20, 19:35:04
Oder solche Sachen wie mit SLI TXAA angelassen und die höhere Performance durch die PCIe-Bandbreite für etwas anderes gehalten haben.
Hübie
2016-12-20, 20:12:19
Ich bin mir sicher dass TXAA nicht an war und auch kein PCIe 2.0 Anfangs lief. Erst als ich später das ASUS Board mit Repeater hatte war das kein Thema mehr. Deine herablassende Art ist jedoch wieder bezeichnend und diskutieren ist es eh nicht mit dir. Also tue mir doch wenigstens den Gefallen und bleibe fern oder bring dich ein. Es ist wenig zielführend so Einzeiler zu verfassen.
@robbitop: Was meinst du eigentlich mit 'Also wenn sich so etwas in Frametimes @4k niederschlagen würde, wäre es in niedriger Auflösung sicher messbar.'? Es gibt doch gar keine CPU-Vergleiche @4k oder? Wenn dann testen Redaktionen ja verschiedene Grakas, aber nicht verschiedene CPUs. In niedriger Auflösung hast du wenig Lastwechsel, also auch weniger Taktwechsel bzw. kleinere Sprünge. Das Verhalten wird ja angeglichen. Theoretisch hat man auch insgesamt ein geringeres Datenaufkommen, was Caches eventuell in den Hintergrund rückt.
Ich bin nach wie vor dafür auch Vergleiche zwischen CPUs in 1440p oder 4k zu machen und würde dies gerne mal selber nachmessen, aber wie gesagt habe ich keine Mittel dazu. Meine Erfahrung sagt halt, dass es durchaus Titel gibt die anspringen.
Interessant wäre ja auch, ob es in Hinblick auf Frametimes, etwas bringt die Energiesparmodi, EIST und Turbo abzuschalten. Sind auch Messungen die mich mal interessieren würden. Beispielsweise beim alten Sandy Bridge und jetzt kommenden Kaby Lake mal die Unterschiede versuchen festzustellen.
Laut eines Ingenieurs ist das Anschwingen der Atome / Moleküle nach wie vor noch ein Problem, dass man immer noch nicht vollständig im Griff hat. Bestes Beispiel sind Monitore.
aufkrawall
2016-12-20, 20:22:05
Schaltzeiten von trägen Flüssigkristallen vs. Transistoren, die Größenordnung Milli- vs. Mikrosekunden...
(bedarf es da echt noch mehr Zeilen?)
Hübie
2016-12-20, 20:53:23
Wollte nur ein populäres Beispiel bringen. Auch bei CPUs ist es noch ein Punkt auf einer Agenda. Skylake hat da ja schon einen deutlichen Schritt nach vorn gemacht. Ich sage ja auch nicht, dass es sich direkt auf Frametimes niederschlägt. Es zu untersuchen wäre dennoch interessant. ;)
aufkrawall
2016-12-20, 21:13:55
Ich habe dir bestimmt in vorangegangenen Diskussionen schon mitgeteilt, dass ich mit dem 2500k testweise alle Stromspar-Features, die deaktivierbar sind, deaktiviert hatte, und damit keine Verbesserung im BF4 MP mit stark schwankender CPU-Last (plötzliche Kameraschwenks von nicht fordernden in fordernde Szenarien und umgekehrt) feststellen konnte, unabhängig von der Auflösung, obwohl im Leerlauf dann voller Takt anlag und der Stromverbrauch dementsprechend durchgängig hoch war.
Gibt genau die gleichen kleinen Frametime-Spikes, die offenbar einfach Code-bedingt sind.
Dafür spricht auch, dass umgekehrt die Frametimes in anderen Spielen, trotz aktivierter Spar-Features und schwankender CPU-Last, völlig perfekt sind. Beispiele dafür sind RotTR oder Garden Warfare.
Laut Google ist das einzig potenziell "gefährliche" Feature der Enhanced Halt State.
Btw: GCN-GPUs können mit Powertune laut Gipsel mehrere tausend Male pro Sekunde den Takt anpassen. Ich hatte das ebenfalls mal in Garden Warfare (auf Hawaii) einem Praxis-Check unterzogen. Mit fps-Limiter schwankt der Takt wie wild. Aber auch in Situationen, in denen man dem fps-Limit relativ nahe kommt (Partikeleffekte...), kostet die Taktreduktion keine Leistung, das fps-Limit wird völlig stabil gehalten.
Hübie
2016-12-20, 21:29:42
Ja mit Maxwell sind es sogar noch mehr. Glaube 500 kHz PWM Frequenz waren das.
Bei CPUs ist es jedoch immer noch so, dass deren hoher Takt filigran mit der Auslastung hoch und herunter geht und das Phänomen entstehen kann in hohen Auflösungen bessere bzw. äquivalente Ergebnisse einzufahren als in niedrigen Auflösungen. Nun kommt eben die Frage auf, ob dieses CPU-Limit linear nach oben skalierbar ist und Szenen-abhängig auch in 4k auftreten kann / wird (ich denke da auch an mehr Daten @4k welche durch die Caches laufen müssen).
Ich konnte übrigens schon Unterschiede feststellen, wenn ich alles abgestellt habe. Aber es ist den Mehrverbrauch nicht wert und ist lediglich messbar gewesen. Vielleicht hab ich das noch auf meinem PC drauf (der ist nicht bei mir). Das du mir so etwas mal mitgeteilt hast, wüsste ich jetzt nicht, aber deine Ergebnisse kannst du gerne hier kund tun. Sobald ich meinen Rechner wieder habe reiche ich das gerne nach.
Ps: Mich persönlich interessiert immer nur der Anwendungsfall. Im kommenden Fall also, was brächte mir ein Umschwenken von LGA2011 auf AM4 im konkreten Fall. Ein Vergleich meiner alten Plattform mit einer aktuellen im Usecase wäre ebenfalls interessant. Digital Foundry hatte sich dem ja schon partiell angenommen, aber leider nur innerhalb der kleinen CPUs gemessen. Also weder Quervergleiche mit den Großen noch die Großen untereinander.
Gipsel
2016-12-20, 22:52:25
Ja mit Maxwell sind es sogar noch mehr. Glaube 500 kHz PWM Frequenz waren das.Die PWM-Frequenz der Spannungswandler ist was völlig Anderes. Und die reicht inzwischen übrigens teilweise locker in den MHz-Bereich (vermindert Ripple bzw. ermöglicht kleinere Induktivitäten und Kondensatoren, kann aber auch die Effizienz drücken, wenn unnötig hoch gewählt).
aufkrawall
2016-12-20, 22:56:25
Auch mit Pascal wird der Takt nicht so dynamisch wie mit GCN angepasst, mit dem standardmäßigen Energieprofil gibts sogar Leistungsverluste.
(Bei AMD zwar zumindest mit Hawaii seit Crimson leider auch, aber ich beziehe mich auf den alten Zustand, der per Option wiederhergestellt werden kann.)
Wie gesagt, kenne ich das von Sandy Bridge allerdings nicht.
=Floi=
2016-12-20, 23:06:04
gibt es bei euch spiele wo die cpu runtertaktet? bei der GPU ist es eher der fall, aber selbst bei alten games taktet bei mir die cpu immer mit vollem turbo.
Hübie
2016-12-21, 10:29:55
Die PWM-Frequenz der Spannungswandler ist was völlig Anderes. Und die reicht inzwischen übrigens teilweise locker in den MHz-Bereich (vermindert Ripple bzw. ermöglicht kleinere Induktivitäten und Kondensatoren, kann aber auch die Effizienz drücken, wenn unnötig hoch gewählt).
Hab gestern bei dem Satz das tune hinter power verschluckt. Die PWM-Frequenz der Spannung ist doch aber auch ein entscheidender Faktor für die Lastwechsel wenn man das nicht mit vdroop en mass erschlägt. Die Qualität der Spannung beeinflusst ja auch Taktverhalten oder etwa nicht? Pascal hat 3 MHz wenn ich mich recht entsinne. Wobei das Design der größere Faktor für den maximalen Takt ist.
Wo du schon mal hier bist Gipsel:
Wenn ich es mal richtig verstanden habe, dann wird der Takt in z.B. einer CPU mittels Oszillator erzeugt und dem Teiler (aka Multiplikator) entsprechend "zerhackt". Dieser Takt wird dann in einem Schwingkreis, gemäß den Vorgaben aus der PCU, aufrecht erhalten (PLL) und nur dann abgegriffen bzw. geöffnet sobald eine Recheneinheit wie die FPU (wobei ich die Granularität nicht kenne) belastet wird schalten also die Transistoren synchron. Die PWM Frequenz ist dabei die Oberschwingung auf der Frequenz (also einfach ausgedrückt das Zittern der Welle auf dem Berggipfel und des Tals). Weniger Ripple / Noise ermöglicht grundlegend erst mal höheren Takt. Und was im MSR abgelegt wird ist stets der PLL Takt, nicht der reale Takt in oder über einer ALU und wird auch nicht so oft aktualisiert. Daher sind die reellen Takte nicht oder nicht immer die, welche man angezeigt bekommt. Richtig so weit?
@Floi: Meine CPU taktet selten auf den höchsten state, wenn ich das Energieprofil "Ausbalanciert" wähle. Auf "Höchstleistung" dann entsprechend maximal. Überprüfe das bei dir doch mal. :)
PWM im Zusammenhang mit PLLs ist eigentlich nur die Charge Pump mittels welcher der VCO (voltage controlled oscillator) der PLL geregelt wird. Wie schnell die PLL reagieren kann hängt von der Charge Pump und ihrem 'loop filter' ab, welcher das PWM Signal vom phase comparator in DC umwandelt. Und natürlich auch etwas von der Frequenz dieses PWMs.
Wie schnell man das machen kann? Keine Ahnung. Das müsste jmd beantworten, der sich mit Silizium auskennt... Skysnake vllt?
=Floi=
2017-01-02, 17:12:20
eine liste, welche games ab 8+ cores auslasten kann wäre ganz hilfreich.
Hübie
2017-01-03, 04:23:12
Da können wir Watch_Dogs 2 schon mal rein tun. Ich habe im Februar voraussichtlich etwas mehr Zeit. Dann komm ich gerne drauf zurück. :)
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.