Archiv verlassen und diese Seite im Standarddesign anzeigen : i5/i7 - Phenom II X6 Fakten statt Flames
Weil es dir egal ist, kasperst du mal eben in einen Thread von Leuten, denen die Frage nicht egal ist (sonst hätten sie diese ja nicht gestellt) und triffst irreführende Pauschalisierungen auf Basis deines Desinteresses? :|
Lol, ja so kann mans auch nennen, gute Unterhaltung.
Ich mein, das wird eh zu keinem Ende führen. Für die supergenauen Messungen, die gefordert werden, muss man Kompromisse schließen, die dann aber sofort wieder bemängelt werden würden, da es ja nicht 100% genau ist. Da beißt sich die Katze in den Schwanz. Blackbirds hats doch gesagt, man hat A) und B), wobei bei A) dann sicherlich über das "man sucht sich fordernde Stellen" gestritten werden würde.
Man kann aber mit sehr großer Wahrscheinlichkeit davon ausgehen, dass die Anforderungen der Spielelandschaft nicht ruckartig in eine andere Richtung kippen werden.
Da pauschalisierst jetzt aber Du ganz schön ;-)
Wenn Deine Annahme stimmt und es nicht kippt, dann reichen 4core bei ca. 3,5 GHz noch 2-3 Jahre - locker.
Wenn es dann doch kippen sollte, z.B: 100 Threads bei Unreal4, dann ist eh Schicht im Schacht.
Fazit: Wozu die Diskussion, bleibt doch eh alles gleich - Athlon4 kaufen, übertakten und glücklich sein ;-)
Das wiederum ist ausgesprochen unwahrscheinlich, der 1055T muss in jedem Fall zuerst die schwächere IPC aufholen.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8164923#post8164923
a) Ich geh immer von OC aus, davon wird die IPC natürlich nicht besser, aber sie wird reichen, da wären wir wieder bei Test B).
b) Ohne OC ist man bei 1,25-1,3facher IPC Leistung bei Intel, der AMD hat 1,5x soviele Kerne ... sollte kein Problem sein das aufzuholen, *wenn* wirklich 6 Threads unter Vollast dampfen. In so einem Szenario ist es außerdem möglich, dass die IPC bei Intel durch verstärktes Cache Trashing in den Keller geht. Obs wirklich so kommt, kommt auf auf den Code / Situation an, aber da hier ja oft nach super fordernsten Szenen gefragt wird, ist das alles andere als abwegig.
Ansonsten interessiert dich offenbar nichts weniger als der Vergleich zwischen Core i5 760 und Phenom II X6 1055T
Sorry, dachte das wäre beim Threadtitel "i5/i7 - Phenom X6" nicht OT, willst Du Dich lieber übers Wetter unterhalten (Pun intented ;-) ;-)
Ich nehme das zur Kenntnis.
[x] du bist Off-Topic
[x] no offense :smile:
Naja, in Sachen OT hab ich schon weit Schlimmeres gesehen, siehe oben, aber ist ok, wenn Du das so siehst. Solange es mit nem Smiley kommt, passt es :)
Ich werde mich dann wieder den andren Threads widmen, bevor ich unter die Räder komme ;-)
ciao und noch viel Erfolg ;-)
Alex
Mr.Magic
2010-07-26, 15:23:46
Mhm... dann stell ich mal ne Frage bezüglich dem, was aus Spielersicht mehr Sinn macht:
Der kleinste PIIx4 der auf 3,6GHz übertaktet und mit einer GTX470 gepaart werden soll, oder
der i5 7xx der auch auf 3,6GHz übertaktet und durch die Mehrkosten "nur" mit einer GTX460 gepaart werden kann.
Nun müsste man vieleicht noch die Rahmenbedingungen bestimmen zB: welche Spiele werden bevorzugt? Das lass ich aber mal weg, da der Jenige, der diese Frage stellt, in allen Spiel-Genre`s zocken möchte.
Was wäre eure Meinung dazu?
Das hängt ganz von den individuellen Rahmenbedingungen ab. Persönlich müsste ich erstmal rausfinden wieviel schneller ein i5 bei gleichem Takt ist, und Preise rausfinden, bevor ich jemandem dazu irgendwas empfehlen kann.
Für mich käme sowieso keiner davon in Frage, da der Mehrwert gegenüber meinem ollen Q6600 @3.4Ghz gleich 0 ist.
Ich für meinen Teil erhoffe mir aber zum Beispiel eine reduzierte Idle-Leistungsaufnahme (z.B. durch einen C6-State für schlafende Kerne) und würde da derzeit noch nicht auf "alte" AM3-Boards wetten wollen.
Genau darauf kann man sich aber verlassen. Wenn AMD schreibt, er unterstützt AM3, dann tut er genau das. Er passt elektrisch in jede Rev. des Sockels, von R1 bis Rx. Siehe SockelF oder eben AM2. Zambezi hat 2 Powerplanes wie der K10 auch. Alles weitere funktioniert Intern oder über das BIOS.
Außerdem wissen wir noch nicht, wie leistungsstark Zambesi wird. Wenn die IPC nicht deutlich über K10.5 liegt und/oder in der ersten, AM3-tauglichen Inkarnation noch keine allzu hohen Taktraten erreicht werden, dann hast du einen prima Serverprozessor, der in Spielen von jedem Lynnfield kassiert wird.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8160832#post8160832
:devil:
Sowas kann man immer behaupten. Das ist aber unwahrscheinlich. BD ist als universelle CPU gebaut, vom Desktop bis Server. Und man kann sich mit 99%iger Sicherheit darauf verlassen, dass er ein Upgrade zum K10 wird - schon deshalb weil er in einem erheblich verbesserten Fertigungsprozess gefertigt wird. Ob er schneller oder langsamer als Sandy wird, wird sich zeigen. Wenn Zambezi kommt (frühestens Q2 2011), kräht kein Hahn mehr nach Lynnfield. Der ist dann genauso tot wie sein Sockel.
Es ist aber auch sicher, dass Zambezi die letzte AM3-Ausprägung wird. Alles danach wird Fusion sein und FM1 oder evtl. einen FM2 später benötigen. FMx wird AMx mit einer Übergangszeit mit an Sicherheit grenzender Wahrscheinlichkeit ersetzen.
Das hängt ganz von den individuellen Rahmenbedingungen ab. Persönlich müsste ich erstmal rausfinden wieviel schneller ein i5 bei gleichem Takt ist, und Preise rausfinden, bevor ich jemandem dazu irgendwas empfehlen kann.
Für mich käme sowieso keiner davon in Frage, da der Mehrwert gegenüber meinem ollen Q6600 @3.4Ghz gleich 0 ist.
Oh du hast ihn entarnt.
Man nehme einen kleineren Quad und schon ist seine Rechnung fürn Müll.
Wenn Leistung egal ist und der Preis entscheidet, tja dann nimmt man keinen i5/i7, klar, sondern was anderes. Jetzt muss er nur noch erkennen das es mehr als nur PII und i5/i7 gibt und gab.
Nur
a) weiss man halt nicht, was die Zukunft bringt (bessere 6core Unterstützung durch die XBOX Konsolenports und/oder PhysX 3.0)
Ich glaube das Märchen vom Multicore Speedup dürfte spätestens seit der zweiten Generation Quadcores für die meisten Fälle ausgeträumt sein.
Und wie man eine langsame 3 Core HT CPU als Grundlage für die Anforderung von "modernen" 6-Kernern setzen kann entzieht sich meiner Vorstellungskraft
Im Moment würde ich unter P/L Gesichtspunkten beim Neukauf nen Athlon X4 630/635 empfehlen, das Ding inkl. OC auf 3,6-3,8 GHz reicht. Hauptsache 4 Kerne. Für ~90 Euro fast geschenkt und mit schnellem DDR3 nicht viel langsamer als ein Phenom2.
Nun so ein i3-530 ist @ default schon auf ähnlichen level wie der default AthlonII X4 in Spielen und @4.5Ghz selbst in >2 Core Spielen sicherlich schneller als dein übertakteter AthlonII X4 ;)
Ändert aber nichts daran das die Leistung beider CPUs je nach Spiel heute manchmal schon arg grenzwertig ist (siehe Anno, Arma2, Starcraft 2 etc.)
NaseWeiss
2010-07-26, 15:36:05
Oh du hast ihn entarnt.
Man nehme einen kleineren Quad und schon ist seine Rechnung fürn Müll.
Wenn Leistung egal ist und der Preis entscheidet, tja dann nimmt man keinen i5/i7, klar, sondern was anderes. Jetzt muss er nur noch erkennen das es mehr als nur PII und i5/i7 gibt und gab.
son Müll...
In meiner Frage steckt nichts weiter, wie die Frage was würdest du favorisieren? Und wo würdest du Abstriche machen, wenn du sie machen mußt?
Und wie man eine langsame 3 Core HT CPU als Grundlage für die Anforderung von "modernen" 6-Kernern setzen kann entzieht sich meiner Vorstellungskraft
Lol ... Du brauchst keine "Vorstellungskraft", Wissen genügt ;-)
Die neuen XBOX Games sind auf 6 Threads ausgelegt. Ob das jetzt 3 "langsame mit HTh" sind oder nicht, ist schnurz, wichtig ist das Programming Model mit 6 Threads. Denn das ändert man bei ner PC Portierung nicht. Ich hoffe, dass Deine Vorstellungskraft dazu ausreicht, um zu verstehen, dass ein 6 THread Spiel auf 6 Kernen besser läuft als ein 4Thread Game ;-)
Obs für nen Thuban reicht, um einen Lynnfield ohne HTh auszustechen muss man austesten. Aber eigentlich waren die entsprechenden Spiele ja schon im Thread genannt, wenn man BC2 mal als ATi Treiber Problem (oder was auch immer) ausschließt, bleibt immerhin noch der Rest wie Resident Evil 5, GTA4 oder Metro - alles Xbox Konsolenports.
Oder ist deren Testmethode auch zweifelhaft ?
Nun so ein i3-530 ist @ default schon auf ähnlichen level wie der default AthlonII X4 in Spielen und @4.5Ghz selbst in >2 Core Spielen sicherlich schneller als dein übertakteter AthlonII X4 ;)
Dann kauf Dir nen i3 und versuch Dich nächstes Jahr am Sandy Bridge Upgrade ;-)
@puntarenas:
Eins noch, Lynnfield basiert ja auf Nehalem, und das war mit Hth, QPI und dem inclusive L2 ein Server Design ;-)
Das eine muss das andere nicht ausschließen, im Gegenteil. Aber warten wirs mal ab, was kommt.
ciao
Alex
y33H@
2010-07-26, 16:51:00
Man sollte ich von dem Gedanken verabschieden, dass ein Spiel X Threads nutzt. Die X Threads sind ja zumeist [mittlerweile] selbst parallelisiert. Metro 2033 und GTA4 profitieren marginal von sechs Kernen, Metro 2033 mit Adv. PhysX bei unspielbaren Fps und RE5 kann's die Engine, das Spiel aber nicht. Bleibt praktisch aktuell nur BC2.
Ok, was genau meinst Du mit "selbst parallelisiert" ?
Sowas wie bei Anno mit nem ThreadPool, das dynamisch auf die im System vorhandenen Kerne skaliert ? Ok, dachte das hätte bisher nur Anno und die anderen hätten starre 6 Threads.
Aber Du wirst es sicher besser wissen ;-)
Edit:
Was meinst Du bei RE5, da hast Du doch ca. +15% für 6 Kerne gemessen ?
War das nur ein "Engine" Bench ?
ciao & Danke
Alex
Fetter Fettsack
2010-07-26, 17:04:30
Zitat von y33h@
Metro 2033 und GTA4 profitieren marginal von sechs Kernen, Metro 2033 mit Adv. PhysX bei unspielbaren Fps und RE5 kann's die Engine, das Spiel aber nicht. Bleibt praktisch aktuell nur BC2.
Meinst du denn wirklich, dass das so bleiben wird? Um bei dem an anderer Stelle schon gefallenen Vergleich zu bleiben: der 1055T kann durchaus sowas wie der neue Q6600 werden, was die Langzeithaltbarkeit angeht. Er wird dann zwar vermutlich wie der Q6600 heute einen ungemütlich hohen Stromverbrauch haben und nur mit OC konkurrenzfähig sein, aber das ist es, was letztendlich bei den meisten zählt (die Konkurrenzfähigkeit) (wie ich zumindest finde). Un wie sehr ein Q6600 heute von seinen vir Kernen zehrt, wissen wir ja alle.
Die Softwaretechnik entwickelt sich ja weiter und dass Möglichkeiten gibt, beweisen genau diese Titel ja. Der Trend geht eindeutig in diese Richtung. Die Studios bauen alle KnowHow auf, um die CPUs auch ausnutzen zu können, das wird mehr, nicht weniger. Von daher denke ich schon, dass der 6-Kerner relativ schnell vernünftige Unterstützung erhält. Wegen der grundsätzlichen MT-Optimierungen vielleicht sogar eher als es beim 4-Kerner der Fall war. Bis 8 Threads kann man wahrscheinlich auch gute Steigerungen erreichen, darüber wirds halt ein bissi schwierig. Aber dafür werden sicherlich auch Lösungen gefunden.
y33H@
2010-07-26, 17:22:56
@ S940
Der "Fixed"-Bench hat mit dem normalen Spiel nichts zu tun, der "Variable" skaliert mit Mühe auf vier Kerne [rund +30% von DC auf QC iirc].
Sowas wie bei Anno mit nem ThreadPool, das dynamisch auf die im System vorhandenen Kerne skaliert ? Ok, dachte das hätte bisher nur Anno und die anderen hätten starre 6 Threads.Starre Threads waren wohl eher der Übergang, es ist aus Skalierungssicht natürlich sinnvoller, Threads wie das Rendering oder die AI zu parallelisieren. RE5 bzw. die MTF-Engine skaliert lustig bis auf 8C/16T wenn du sie lässt.
@ Fetter Fettsack
Der Q6600 ist imo genauso eine Ausnahme wie es die 8800 GTX ist. So etwas kommt alle 5 Jahre mal vor. Wenn überhaupt.
Fetter Fettsack
2010-07-26, 17:36:14
Gut, der Q6600 war zu seiner Einführung ein ordentliches Kaliber, da hast du schon recht, insofern kann man das nicht vom 1055T behaupten. Ich hatte allerdings gemeint, dass es eben die zwei Kerne mehr sind, die ihn auch noch heute passabel dastehen lassen.
Sicher mag der 1055T nicht derart effizient sein wie seine leistungsmäßigen Intel-Pedants, aber ich kann mir irgendwie nicht so wirklich vorstellen, dass die zwei Kerne mehr einfach fürn Hugo sein sollen, wie man so schön sagt, zumal, wie ja schon angesprochen, man wohl kaum auf den Takt sondern eher die Kernanzahl optimiren wird, wie ich meine.
Bist du da anderer Ansicht oder sind wir uns zumindest in Sachen "Trend-geht-in-Richtung-Mehrkernnutzung [bis sagen wir 8 Cores]" einig?
dargo@work
2010-07-26, 18:02:47
Das hängt ganz von den individuellen Rahmenbedingungen ab. Persönlich müsste ich erstmal rausfinden wieviel schneller ein i5 bei gleichem Takt ist, und Preise rausfinden, bevor ich jemandem dazu irgendwas empfehlen kann.
Für mich käme sowieso keiner davon in Frage, da der Mehrwert gegenüber meinem ollen Q6600 @3.4Ghz gleich 0 ist.
Worauf stützt diese Erkenntnis?
Meinst du denn wirklich, dass das so bleiben wird? Um bei dem an anderer Stelle schon gefallenen Vergleich zu bleiben: der 1055T kann durchaus sowas wie der neue Q6600 werden, was die Langzeithaltbarkeit angeht. Er wird dann zwar vermutlich wie der Q6600 heute einen ungemütlich hohen Stromverbrauch haben und nur mit OC konkurrenzfähig sein, aber das ist es, was letztendlich bei den meisten zählt (die Konkurrenzfähigkeit) (wie ich zumindest finde). Un wie sehr ein Q6600 heute von seinen vir Kernen zehrt, wissen wir ja alle.
das lag beim Q6600 aber zum grössten Teil nicht daran das es ein Quadcore war, sondern weil er im G0 Stepping abging wie hulle und durchaus 4Ghz drin waren
Das bei recht guter pro Mhz leistung die auch noch spielend mit dem Nachfolger des Phenom fertig wurde
die geringe Steigerung bzgl. Leistungsfähigkeit der CPUs tat dann ihr übriges.
Die Analogie mit 1055T sehe ich daher nicht, da er zum Erscheinungszeitpunkt (spitz ausgedrückt) schon eine "Gurke" ist und schon seit 1.5 Jahren schnellere (zumindest in den meisten Verwendungsszenarien) Consumer CPUs existieren.
Mr.Magic
2010-07-26, 18:12:15
Worauf stützt diese Erkenntnis?
Ein AMD Quad ist mit 3.6Ghz unwesentlich schneller, und ich gehe beim i5 von etwa 20% Mehrleistung bei gleichem Takt aus. Wegen sagen wir mal 25% bei 3.6Ghz rühre ich keinen Finger, zumal ich den Q6600 mit etwas Gewalt auch auf 3.8Ghz bekomme.
Ein AMD Quad ist mit 3.6Ghz unwesentlich schneller, und ich gehe beim i5 von etwa 20% Mehrleistung bei gleichem Takt aus. Wegen sagen wir mal 25% bei 3.6Ghz rühre ich keinen Finger, zumal ich den Q6600 mit etwas Gewalt auch auf 3.8Ghz bekomme.
Da kann bei deiner Rechnung aber was nicht stimmen wenn der i5 bei gleicher Taktrate zb. in RE5 doppelt so schnell wie der Yorkfield ist. Zumal der Yorkfield auch minimal flotter als ein Kentsfield rechnet.
Mr.Magic
2010-07-26, 18:21:14
Da kann bei deiner Rechnung aber was nicht stimmen wenn der i5 bei gleicher Taktrate zb. in RE5 doppelt so schnell wie der Yorkfield ist. Zumal der Yorkfield auch minimal flotter als ein Kentsfield rechnet.
Beweise? Ich bitte um einen Frameverlauf mit 1920x1080 bei 4xMSAA UND 16xSSAA, damit ich mir die Min FPS ansehen kann.
Abgesehen davon, gehe ich grundsätzlich von einem Durchschnittswert aus. Der Bloomfield i7 ist bei gleichem Takt z.B. irgendwo zwischen 5 und 150% schneller, gemittelt sind es aber "nur" knapp 40%.
puntarenas
2010-07-26, 18:28:53
[...] ich kann mir irgendwie nicht so wirklich vorstellen, dass die zwei Kerne mehr einfach fürn Hugo sein sollen, wie man so schön sagt, zumal, wie ja schon angesprochen, man wohl kaum auf den Takt sondern eher die Kernanzahl optimiren wird, wie ich meine.
Bist du da anderer Ansicht oder sind wir uns zumindest in Sachen "Trend-geht-in-Richtung-Mehrkernnutzung [bis sagen wir 8 Cores]" einig?
"Mehrkernnutzung" in diesem Zusammenhang bedeutet nur, dass die Spiele tendenziell besser in der Lage sein werden, das auf viele Kerne verteilte Leistungspotential der Prozessoren abzurufen. Umgekehrt wird ein Hexacore mit 6 "langsamen Kerne" niemals einen Quadcore mit 4 "schnellen Kerne" auf magische Weise überholen, er muss den Rückstand seiner langsameren Kerne (sei es grundsätzlich IPC oder geringere Taktrate) erst einmal aufholen.
Ein blödes Beispiel zur Verdeutlichung:
1055T: 6Kerne@2266Mhz
1055T: 4Kerne@3400Mhz
Beide Prozessoren haben theoretisch ein identisches Leistungsvermögen, aber nur wenn die Anwendungen entsprechend parallelisiert wurden. In heutigen Spielen wird die Quadcore-Variante stets schneller sein, in zukünftigen Spielen wird der Sechskerner im Optimalfall gleichziehen. Vorbeiziehen wird der Sechskerner niemals können.
Wir hatten hier schonmal einen Gast, der ein Verteilungsproblem angenommen hat, außerdem gibt es natürlich immer untypische Beispiele wie die fehlgeleitete Kernaffinität von Supreme Commander, wo der Entwickler etwas gebastelt hat, das dem Windows-Sheduler quer liegt.
In der Regel gibt es aber kein Verteilungsproblem und darum sind mehr Kerne niemals ein prinzipieller Vorteil, bei mangelnder Parallelisierung aber oft ein Nachteil:
;8162051']Naja, ich habe mir das fiktive Beispiel von Ihm angeschaut und denke, dass die Argumentation totaler Kappes ist (bin wohl nicht allein damit). Die Argumentation beruht nämlich auf der Annahme, dass der Load unteilbar / atomar und somit nicht 'splitbar' wäre, d.h. das ich z.B. nicht hingehen und den Load von 50% auf Core 5 in beispielsweise 20% und 30% aufteilen könnte.
Hält man sich vor Augen, dass ein bestimmter CPU Load allerdings stets einer bestimmten Zahl von CPU-Zyklen entspricht, so sollte man eigentlich recht schnell zu der Einsicht gelangen, dass dies sehr wohl möglich ist. Beispielsweise entspräche bei einer CPU, die 100 Zyklen/s schafft, ein Load von 80% genau 80 Zyklen/s. Womit der CPU 20 Zyklen/s für andere Sachen blieben (OS-Overhead einmal nicht betrachtet), beispielsweise für das 'Abarbeiten des Loads' von Core 6, um im Beispiel vom 'Gast' zu bleiben.
Solange Threads auf ihre Abarbeitung warten konkurrieren sie um CPU-Ressourcen und ihnen wird vom Betriebssystem eben reihum Zeit auf einem der vorhandenen Kerne zugewiesen. Während einer identischen Zeitspanne bewältigt ein aktueller Lynnfield-Kern mehr Berechnungen, AMD hat versucht dies durch Anflanschen zweier zusätzlicher K10.5-Kerne beim Phenom II X6 zu kompensieren (im Idealfall - Musterbeispiel Cinebench - wird die höhere IPC der Intel-Architektur von den zwei Extrakernen sogar überkompensiert und der X6 liegt vorn).
Ein Problem gibt es, man kann einzelne Threads nicht auf mehrere Kerne aufteilen. Das ist der Grund, warum zusätzliche Kerne je nach Aufgabe nicht immer zu einem Performancegewinn führen, höhere IPC dagegen immer. Ob es sich um "leichtgewichtige" oder "schwere" Threads handelt ist auch egal, das merkt man höchstens an der Leistungsaufnahme und Temperatur.
Die sechs Kerne sind also dann nicht mehr "für deinen Hugo", wenn der AMD-Hexacore die Rechenleistung der beiden zusätzlichen K10.5-Kerne endlich einbringen und dadurch den IPC-Rückstand zu Intel kompensieren kann. Optimisten sehen für die Zukunft vielleicht hier und da einen Gleichstand, sollte er bei gleichem Takt mal an einem Lynnfield vorbeiziehen, werde ich mir das einrahmen und übers Bett hängen.
Twodee
2010-07-26, 18:30:24
Beweise? Ich bitte um einen Frameverlauf mit 1920x1080 bei 4xMSAA UND 16xSSAA, damit ich mir die Min FPS ansehen kann.
Abgesehen davon, gehe ich grundsätzlich von einem Durchschnittswert aus. Der Bloomfield i7 ist bei gleichem Takt z.B. irgendwo zwischen 5 und 150% schneller, gemittelt sind es aber "nur" knapp 40%.
:eek::freak:
wieder einer der nicht kapiert, worum es hier überhaupt geht.
Undertaker
2010-07-26, 18:32:15
Auf fast allen Folien ist AM3 bemerkt, also ist auch AM3. Da kannst lamentieren, was du willst.
/endgültig letzter Undertaker-Quote -> endgültiges Ignore.
Das du nicht einsehen willst, dass eine Sockelkompatibilität nichts meiner einer Lauffähigkeit in aktuellen Systemen - genau davon schrieb ich - zu tun hat, ist bedauerlich. Daraus wie gewisse andere Personen die ignorante Haltung "dann steck ich mir die Finger in die Ohren" einzunehmen ist - nun - kindisch. Aber jeder wie er's will und braucht, um sich so vor der sachlichen Diskussion zu drücken. ;)
Genau darauf kann man sich aber verlassen. Wenn AMD schreibt, er unterstützt AM3, dann tut er genau das. Er passt elektrisch in jede Rev. des Sockels, von R1 bis Rx. Siehe SockelF oder eben AM2.
Das ist schlicht falsch. Gleicher Sockel heißt, er passt mechanisch. Nicht mehr, nicht weniger.
Mr.Magic
2010-07-26, 18:44:29
:eek::freak:
wieder einer der nicht kapiert, worum es hier überhaupt geht.
Bei einem Spiel, auch wenn ich es selbst nicht spiele, interessiert mich ausschließlich die Minimal-Performance, in Einstellungen, die ich selbst auch verwende. Bei einem Frameverlauf mit gleichen GPUs und verschiedenen CPUs, sieht man recht deutlich, wo die CPU-Limits (inkl. Subsystem) sind.
Was habe ich also nicht verstanden?
Die aktuelle Diskussion drehte sich ganz spezifisch darum, ob man einen 3.6Ghz X4 oder einen 3.6Ghz i5 empfehlen würde, und meine persönliche Meinung zu deren Leistung.
Undertaker
2010-07-26, 18:48:13
Wieviel fps deine GPU denn noch in deinem Wunschsetting? Konstant 60+, also ein realistischer Wert für durchgängige perfekte Spielbarkeit? Dort dürfte es durchaus in entsprechend fordernden Szenen das Leistungsbild geben, das der i5 beschrieben deutlich vorne liegt.
Zwingt man über extreme GPU-Last die fps natürlich auf ein so geringes Maß herunter, dass alle Differenzen gekappt werden, ist ein weiterer Vergleich reichlich nutzlos. Es ist auch immer eine Frage des persönlichen Anspruches, wieviel fps man selbst in worst-case Fällen noch haben will.
Mr.Magic
2010-07-26, 18:54:44
Es ist auch immer eine Frage des persönlichen Anspruches, wieviel fps man selbst in worst-case Fällen noch haben will.
Natürlich ist es das, darum geht bei mir unterhalb einem Bloomfield mit 4.5Ghz als Upgrade gar nichts.
ps: Bei 4xMSAA sollte die GTX480 in den meisten Fällen 60FPS schaffen. Bei meinem Lieblingsgenre (Open-World RPGs) kann ich idR aber auch mit bis zu 15FPS leben.
Headjunkie
2010-07-26, 19:30:24
was war das "passende bundle" bei meiner letzten CPU?
X2 3800+ und 6600GT
X2 3800+ und X800GTO->XT
X2 3800+ und X1950pro
X2 3800+ und X1900XT
X2 3800+ und HD3850
X2 3800+ und 8800GT
Lol ne Graka aus jeder Generation bzw sogar in-Generations Upgrades.....DAS ist auf jeden Fall mal nicht normal wuerde ich behaupten wollen. Die meisten holn sich wohl alle 1.5-2 Generationen ne neue Graka fuer Games und gucken dann ob die CPU auch neu muss.
Das große Problem dabei ist die Vergleichbarkeit. Du wirst nie im Leben eine 30 minütige Benchszene über Savegames exakt nachstellen können.
Brauch man ja nicht, ist ja eher ne "spielbarkeit-Aussage" als eine absolute Wahrheit. Aber irgendwer hat geschrieben das das eher in den Spielbericht als den CPU-Test gehoert, und er hat denke ich mal Recht.
Und mal was vonner Seitenlinie, ich habe in Saints Row 2 (ist glaube nen Console-Port?) mal innen Taskmanager nach einem Schusswechsel geguckt. Alle 6 Cores in Benutzung und keiner ueber 30-40% oder unter 15%. Kein anderes Programm im Hintergrund was Leistung gezogen haette.
Das scheint also "super" Multicore Programmierung zu haben, vielleicht kann dann GTA5 bei mir 6*100% auslasten (-:
(Wenn mir wer nen Imagehoster empfhielt lad ich nachher mal nen Screenie hoch.)
Fetter Fettsack
2010-07-26, 19:31:26
Zitat von puntarenas
"Mehrkernnutzung" in diesem Zusammenhang bedeutet nur, dass die Spiele tendenziell besser in der Lage sein werden, das auf viele Kerne verteilte Leistungspotential der Prozessoren abzurufen. Umgekehrt wird ein Hexacore mit 6 "langsamen Kerne" niemals einen Quadcore mit 4 "schnellen Kerne" auf magische Weise überholen, er muss den Rückstand seiner langsameren Kerne (sei es grundsätzlich IPC oder geringere Taktrate) erst einmal aufholen.
Ein blödes Beispiel zur Verdeutlichung:
1055T: 6Kerne@2266Mhz
1055T: 4Kerne@3400Mhz
Beide Prozessoren haben theoretisch ein identisches Leistungsvermögen, aber nur wenn die Anwendungen entsprechend parallelisiert wurden. In heutigen Spielen wird die Quadcore-Variante stets schneller sein, in zukünftigen Spielen wird der Sechskerner im Optimalfall gleichziehen. Vorbeiziehen wird der Sechskerner niemals können.
Die Sache mit den Loads meine ich ansatzweise verstanden zu haben (schon, wie du es zum Ersten Mal erläutert hast), die mit dem "IPC-Aufholen" sogar gänzlich. An dieser Stelle übrigens auch ein großes Danke an die Beteiligten für schöne Aufbereitung der Materie.
Allerdings wollte ich mit meiner Argumentation, so sie diesen Namen verdient, darauf hinaus, dass ich vermute, dass sich zukünftige Spiele besser parralellisieren lassen oder aber Zusatzrechenlast erzeugen werden, die zwar ganz brauchbar mit sechs, jedoch recht zäh mit vier Kernen agieren wird. Schließlich halte ich es für durchaus möglich, dass man die Spiele dahingehend optimieren kann und wird, da man immer mehr dazu überzugehen scheint, PC/Konsolen-Hybride herauszubringen, die eben gerne Kerne mögen und zwar nicht zu wenige.
Ich hoffe, dass ich da nicht allzusehr daneben greife bei der Wahl meines Beispiels, aber ein E8600 wird wohl trotz seines hohen Taktes nicht einem Q6600 [eventuell mit OC] (ja, der ist seit neuesten mein Lieblingsvergleichsopfer^^) in GTA IV das Wasser reichen können, weil das Spiel eben auch Kerne und nicht Takt allein braucht.
Daher auch meine Vermutung, dass der 1055T auf längere Sicht (drei Jahre) auch nicht verachtenswert sein wird, auch wenn er dann aller Wahrscheinlichkeit nach OC brauchen wird.
Die sechs Kerne sind also dann nicht mehr "für deinen Hugo",
Das ist nicht mein Hugo, das ist ein Sprichwort. ;D
etwas ist für'n Hugo = etwas ist sinnlos, bar jegliches Nutzens
NaseWeiss
2010-07-26, 19:37:40
Bei einem Spiel, auch wenn ich es selbst nicht spiele, interessiert mich ausschließlich die Minimal-Performance, in Einstellungen, die ich selbst auch verwende. Bei einem Frameverlauf mit gleichen GPUs und verschiedenen CPUs, sieht man recht deutlich, wo die CPU-Limits (inkl. Subsystem) sind.
Was habe ich also nicht verstanden?
Die aktuelle Diskussion drehte sich ganz spezifisch darum, ob man einen 3.6Ghz X4 oder einen 3.6Ghz i5 empfehlen würde, und meine persönliche Meinung zu deren Leistung.
Ich will dich jetzt nicht ankreiden oder ähnliches, sondern nur darauf hinweisen, das es in meiner Fragestelllung nur um eines ging:
Wenn du die Wahl zwischen den beiden Systemen hast: kleinster PIIx4 mit GTX470 oder kleinster i5 (mit 4 Kernen) und GTX460 und beide sind auf 3,6 GHz übertaktet. Für welches würdest du dich entscheiden und warum?
Edit: sorry da war was vertauscht :D
Lol ne Graka aus jeder Generation bzw sogar in-Generations Upgrades.....DAS ist auf jeden Fall mal nicht normal wuerde ich behaupten wollen. Die meisten holn sich wohl alle 1.5-2 Generationen ne neue Graka fuer Games und gucken dann ob die CPU auch neu muss.
die letzte ist ca. 10x so schnell wie die erste
pro GPU generation kann man schon einiges gewinnen wie siehst da aus pro jährlich gewechselter CPU aus?
ist eine 2010er Consumer CPU in realen Anwendungen/Spielen (ohne auf synthetisches Multicore gedöns zu setzen) knapp 10x so schnell wie eine 2005er CPU?
puntarenas
2010-07-26, 20:09:24
Allerdings wollte ich mit meiner Argumentation, so sie diesen Namen verdient, darauf hinaus, dass ich vermute, dass sich zukünftige Spiele besser parralellisieren lassen
Gut möglich, allein weil ja die zusätzliche Anforderung durch die Physik-API wenigstens einen weiteren Thread an den Start bringt. Außerdem werden die Engines nebst Entwicklerwerkzeugen und Bibliotheken bestimmt generell in diese Richtung optimiert, das sickert dann zu den Spiele-Entwicklern durch. Dann kommt dazu, dass Multi-Core-Prozessoren mittlerweile weit verbreitet sind und der Windows-Sheduler jetzt sogar Hyperthreading-Strategien beinhaltet, wenn die Entwickler Leistung brauchen wissen sie, wo sie zu holen ist.
oder aber Zusatzrechenlast erzeugen werden,
Steigende Rechenlast kannst du getrost annehmen, sei es durch zunehmend komplexeren Code oder eben zusätzliche Features wie die Physikberechnungen (jenseits von GPU-PhysX muss sogar in PhysX die CPU ran). Diese Rechenlast erfordert natürlich potentere Prozessoren oder anders herum, mehr Leistungspotential. Fallen werden die Anforderungen an die Prozessoren dagegen sicher nicht.
die zwar ganz brauchbar mit sechs, jedoch recht zäh mit vier Kernen agieren wird.
Nein, das ergibt keinen Sinn, es sei den du Vergleichst identische Kerne, also Phenom II X4 vs. Phenom II X6, es hängt aber nicht prinzipiell an der Kernzahl. Es ist zwar denkbar, dass du auf Einzelfälle stößt, Supreme Commander wurde hier ja genannt, aber es gibt keinen vernünftigen Grund, warum Spieleentwickler die Abstraktionsebene Betriebssystem mutwillig verlassen sollten. Nachdem Windows 7 und Prozessoren mit mehr als zwei Kernen an Verbreitung gewinnen, würde ich manuelles Herumgefrickel an der Kernaffinität, das dann Prozessoren mit Hyperthreading oder dem Windows-Sheduler allgemein quer liegt, eher als Geburtswehen der Multi-Core-Ära sehen.
Nochmal, tendenziell wird dein Hexacore sich in Zukunft von seinem Quadcore-Schwesterprozessor öfter absetzen können, aber eben nur, indem er das zusätzliche Rechenpotential der beiden Extrakerne dank Parallelisierung häufiger aufs Parkett bringen kann. Dennoch muss er erst einmal die 30% IPC-Rückstand aufholen, bevor sein übriges Leistungspotential in einem Vorsprung gipfeln kann. Das mag theoretisch sogar in Spielen denkbar sein, praktisch wird das aber wohl allein Anwendungen wie Cinebench vorbehalten bleiben und in Spielen wird der Phenom II X6 1055T bis ans Ende seiner Tage in den allermeisten Spielen hinter dem Core i5 760 ins Feld ziehen.
6 klingt nach mehr als 4, in Wahrheit ist es aber eher "manchmal 6 kleine gegen immer 4 große" und meist sogar (voll ungerecht) "4 kleine gegen 4 große". :D
Schließlich halte ich es für durchaus möglich, dass man die Spiele dahingehend optimieren kann und wird, da man immer mehr dazu überzugehen scheint, PC/Konsolen-Hybride herauszubringen, die eben gerne Kerne mögen und zwar nicht zu wenige.
Konsolen-Spiele müssen zwangsläufig ausreichend parallelisiert sein, da die Rechenleistung der Kisten sowieso zunehmend kritisch ist und man es sich nicht erlauben kann, einzelne Kerne komplett Däumchen drehen zu lassen. Das heißt aber nicht, dass die parallelen Threads auf einem sehr schnellen Single-Core-Prozessor nicht prinzipiell genauso schnell abgearbeitet werden könnten.
dargo@work
2010-07-26, 20:20:39
Beweise? Ich bitte um einen Frameverlauf mit 1920x1080 bei 4xMSAA UND 16xSSAA, damit ich mir die Min FPS ansehen kann.
Das ist jetzt nicht dein Ernst oder? Gehts dir darum ob dein Q6600 für dich noch akzeptable Frames liefert oder wieviel ein i5/i7 schneller als deine CPU ist? Beim ersteren bist du im falschen Thread.
Abgesehen davon, gehe ich grundsätzlich von einem Durchschnittswert aus.
Der Bloomfield i7 ist bei gleichem Takt z.B. irgendwo zwischen 5 und 150% schneller, gemittelt sind es aber "nur" knapp 40%.
5-150% sind schon mal völlig falsch. Erstens, wenn du so eine weite Spanne siehst liegts am GPU-Limit und zweitens sind 150% schneller deutlich übertrieben. Ich habe bis zu +100% gemessen. Wenns weniger sind liegts in der Regel daran, dass das Spiel schlechter mit 4 Kernen skaliert.
Fetter Fettsack
2010-07-26, 20:28:32
Zitat von puntarenas
Nein, das ergibt keinen Sinn, es sei den du Vergleichst identische Kerne, also Phenom II X4 vs. Phenom II X6, es hängt aber nicht prinzipiell an der Kernzahl. Es ist zwar denkbar, dass du auf Einzelfälle stößt, Supreme Commander wurde hier ja genannt, aber es gibt keinen vernünftigen Grund, warum Spieleentwickler die Abstraktionsebene Betriebssystem mutwillig verlassen sollten. Nachdem Windows 7 und Prozessoren mit mehr als zwei Kernen an Verbreitung gewinnen, würde ich manuelles Herumgefrickel an der Kernaffinität, das dann Prozessoren mit Hyperthreading oder dem Windows-Sheduler allgemein quer liegt, eher als Geburtswehen der Multi-Core-Ära sehen.Ich hatte mich falsch bzw. zu undeutlich ausgedrückt. Ich wollte darauf hinaus, dass die "kombinierte" Rechenleistung von sechs Kernen mit 2,8GHz höher ist als die von vier Kernen mit 3,4GHz.
Außerdem scheinen wir ein Missverständnis zu haben. Ich sage ja nicht, dass der 1055T mit der Zeit einen i5 760 einstampft, ich will nur sagen, dass er trotz seiner "Nachteile" (->IPC) dank der zwei Kerne eben länger mithalten können wird, wenn auch vermutlich mit höherem Takt.
Und weil du immer von "meinem X6" schreibst (also anscheinend auf mich bezogen): ich hab einen E5200, der mit 3,10GHz läuft. X6? Nur in meinen Träumen.^^
Das heißt aber nicht, dass die parallelen Threads auf einem sehr schnellen Single-Core-Prozessor nicht prinzipiell genauso schnell abgearbeitet werden könnten.Jaja, die 10GHz Intel-CPUs aus dem Jahr 2010. ;D
dargo@work
2010-07-26, 20:30:21
Natürlich ist es das, darum geht bei mir unterhalb einem Bloomfield mit 4.5Ghz als Upgrade gar nichts.
Also diese Logik muss du mir jetzt genauer erklären - du erwähnst hier ein Setting von 1920x1080 bei 4xMSAA UND 16xSSAA bei dem du überwiegend gpu-limitiert sein dürftest und womöglich im Bereich von 30-40fps dich bewegst (das lese ich zumindest heraus, dass du die Graka-Settings so stark hochdrehst, dass gerade noch spielbare Frames dabei rumkommen). Was soll dir also dann ein Bloomfield @4,5Ghz genau bringen wenn deine Graka ständig limitiert? Es bringt genau 0,nix. Da kannst du auch einen 10Ghz Bloomfield verbauen.
dargo@work
2010-07-26, 20:33:48
Und mal was vonner Seitenlinie, ich habe in Saints Row 2 (ist glaube nen Console-Port?) mal innen Taskmanager nach einem Schusswechsel geguckt. Alle 6 Cores in Benutzung und keiner ueber 30-40% oder unter 15%. Kein anderes Programm im Hintergrund was Leistung gezogen haette.
Das scheint also "super" Multicore Programmierung zu haben, vielleicht kann dann GTA5 bei mir 6*100% auslasten (-:
Dir ist aber bekannt, dass Windows die CPU-Last auf mehrere Cores selbst verteilt ohne, dass das Spiel großartig multithreaded ist?
Fetter Fettsack
2010-07-26, 20:34:59
Was soll dir also dann ein Bloomfield @4,5Ghz genau bringen wenn deine Graka ständig limitiert?
Er übernimmt Rechenlast. Was'n sonst, du Dödel? ;D
Dödel -> no offense ;)
mapel110
2010-07-26, 20:36:51
Dir ist aber bekannt, dass Windows die CPU-Last auf mehrere Cores selbst verteilt ohne, dass das Spiel großartig multithreaded ist?
Wer setzt denn so ein Gerücht in die Welt? Welchem Entwickler soll das gefallen, dass sein Programm bei unterschiedlicher Anzahl von CPU-Kernen ein unterschiedliches Verhalten zeigt?!
puntarenas
2010-07-26, 20:40:28
Ich hatte mich falsch bzw. zu undeutlich ausgedrückt. Ich wollte darauf hinaus, dass die "kombinierte" Rechenleistung von sechs Kernen mit 2,8GHz höher ist als die von vier Kernen mit 3,4GHz.
Okay.
Außerdem scheinen wir ein Missverständnis zu haben. Ich sage ja nicht, dass der 1055T mit der Zeit einen i5 760 einstampft, ich will nur sagen, dass er trotz seiner "Nachteile" (->IPC) dank der zwei Kerne eben länger mithalten können wird, wenn auch vermutlich mit höherem Takt.
Wenn du ihn auf den Takt des Quadcores übertaktest (Übertaktung hatten wir ausgelammert) wird er in keiner Situation mehr langsamer als der X4 965BE mit seinen 3,4Ghz sein, potentiell aber 50% leistungsfähiger. Logisch, sobald ausreichend parallelisiertes Futter kommt, bleibt der 965BE auf der Strecke.
Mit Übertaktung ist er also wieder zweifellos der bessere und höchstwahrscheinlich auch der langlebigere Prozessor aus Gamer-Sicht im Direktvergleich zum Phenom-Quadcore aus gleichem Hause, denn er bringt ein vergleichbares (sogar einen Tick besseres) Übertaktungspotential mit. Das hilft ihm gegen den preisgleichen Core i5 760 natürlich nicht, denn dieser lässt sich genau so weit übertakten, weshalb sich alles was wir zur Out-of-the-Box-Performance festgestellt haben auch auf Overclocking übertragen lässt.
Jaja, die 10GHz Intel-CPUs aus dem Jahr 2010. ;D
Die ja leider nicht in den aktuellen Konsolen verbaut ist, weshalb die Konsolenentwickler brav ihren Gamecode parallelisieren müssen. :smile:
dargo@work
2010-07-26, 20:40:47
Ich hoffe, dass ich da nicht allzusehr daneben greife bei der Wahl meines Beispiels, aber ein E8600 wird wohl trotz seines hohen Taktes nicht einem Q6600 [eventuell mit OC] (ja, der ist seit neuesten mein Lieblingsvergleichsopfer^^) in GTA IV das Wasser reichen können, weil das Spiel eben auch Kerne und nicht Takt allein braucht.
Das ist aber ein schlechter Vergleich, denn "theoretisch" hat der Q6600 mehr Rechenleistung als der E8600. Bei perfekter Skalierung mit 4 Kernen müsstest du den E8600 schon auf ca. 4,5Ghz übertakten und den Q6600 @Default laufen lassen damit beide die gleiche Rechenleistung zeigen. Und außerdem (um es mal auf die Spitze zu treiben) wird bei perfekter Skalierung über 4 Kerne der Q6600 stärker durch seinen FSB gebremst als der E8600.
Wer setzt denn so ein Gerücht in die Welt? Welchem Entwickler soll das gefallen, dass sein Programm bei unterschiedlicher Anzahl von CPU-Kernen ein unterschiedliches Verhalten zeigt?!
ich glaube er meint damit das der sheduler die threads munter über die cores hinwegschiebt wodurch der eindruck enstehen kann das mehr als 1 core benutzt wird
was mal faktisch nicht falsch ist nur halt nicht gleichzeitig :biggrin:
Headjunkie
2010-07-26, 20:46:41
Dir ist aber bekannt, dass Windows die CPU-Last auf mehrere Cores selbst verteilt ohne, dass das Spiel großartig multithreaded ist?
Ehm nein? Wenn das Spiel genau einen Thread hat dann macht Windows im Normalfall da rein garnichts(Ausnahmen bestaetigen die Regel).
Das sieht man ja sehr gut daran das zB bei mir viele alte Spiele genau einen Kern benutzen und die anderen 5 Kerne alle miteinander Karten spielen. Das schlimmste was dann noch passiert ist das Windows dank "intelligentem" Scheduler den einen Task staendig zwischen den Kernen hin und her schiebt...
Bitte korrigiert mich wenn ich falsch liege, das ist einfach nur auf meinen direkten Erfahrungen bezogen, nicht auf Wissen.
Edit:
ich glaube er meint damit das der sheduler die threads munter über die cores hinwegschiebt wodurch der eindruck enstehen kann das mehr als 1 core benutzt wird
was mal faktisch nicht falsch ist nur halt nicht gleichzeitig :biggrin:
Ja aber die Verlaufslinien sind relativ stabil, also glaube ich nicht das da viel gehoppe mit drin ist. Ich guck nachher mal mit AMD overdrive obs da anders aussieht.
dargo@work
2010-07-26, 20:48:20
ich glaube er meint damit das der sheduler die threads munter über die cores hinwegschiebt wodurch der eindruck enstehen kann das mehr als 1 core benutzt wird
Korrekt. :-)
Mr.Magic
2010-07-26, 20:49:22
@Gast namens dargo@work
Blätter einfach ein paar Seiten zurück, und lies meine Beiträge zu Morrowind. Möglicherweise geht dann die Lampe an.
Ein 10Ghz Bloomfield wäre cool. Damit wären durchgehend 60FPS möglich.
Fetter Fettsack
2010-07-26, 20:54:13
@ dargo
Natürlich ist es ein schlechter Vergleich, er ist ja von mir.^^ Dermaßen hab ich das Wissen deines Vergleichsthreads auch noch nicht inhaliert, als dass ich das aus dem Stehgreif kann. Ich bin da eher langsamer. :D
Außerdem dürfen wir nicht die etwas gesteigerte Effizienz des E8600 vergessen. Allerdings sollte man das FSB-Limit doch wieder mit einer Anpassung nach oben regeln können. Blöderweise wird das vermutlich auch nicht viel helfen, weil der FSB ja auch beim E8600 hoch sein wird, da der ja auch übertaktet wird.
Naja, egal, im Sinne der Paralellisierung wird wohl ohnedies der Q6600 die Nase ein bissl weiter vorn haben, was die praktische Nutzbarkeit für Spiele betrifft. Wenn mich mein Gedächtnis nicht trügt, hat der Quad außerdem auch 2MB mehr Cache. Also passt schon irgendwie. Grob, aber doch. ;)
Ehm nein? Wenn das Spiel genau einen Thread hat dann macht Windows im Normalfall da rein garnichts(Ausnahmen bestaetigen die Regel).
Das sieht man ja sehr gut daran das zB bei mir viele alte Spiele genau einen Kern benutzen und die anderen 5 Kerne alle miteinander Karten spielen. Das schlimmste was dann noch passiert ist das Windows dank "intelligentem" Scheduler den einen Task staendig zwischen den Kernen hin und her schiebt...
Bitte korrigiert mich wenn ich falsch liege, das ist einfach nur auf meinen direkten Erfahrungen bezogen, nicht auf Wissen.
Edit:
Ja aber die Verlaufslinien sind relativ stabil, also glaube ich nicht das da viel gehoppe mit drin ist. Ich guck nachher mal mit AMD overdrive obs da anders aussieht.
http://666kb.com/i/bl9h5ixgi99g7ndrm.gif
mein Windows is magic das hat nen eingebauten Multithread Optimizer und splitet einen einzelnen Prime Worker in zwei :eek:
nicht wundern das nur 2 Cores aktiv sind ich lass den i5 im Altagsbetrieb nur noch als Dual Core @ 4Ghz laufen weil sich Quadcore eh nicht lohnt
Headjunkie
2010-07-26, 21:08:52
Idle Pic: http://img534.imageshack.us/img534/644/idlew.jpg
After Mission in Saints Row2: http://img256.imageshack.us/img256/7121/aftermission.jpg
Und bzgl Prime, du scheinst wirklich nen MagicWindows zu haben, bei mir ist wenn ich nur ein einzelnen Thread starte es super zu sehen wie Windows den alle 1sec auf nen anderen Kern schiebt und sonst nix.
Davon abgesehen kann auch der intelligenteste Scheduler ein Programm nicht parallelsieren das nicht dafuer gemacht ist. Wenn also der Windows Scheduler SaintsRow2 auf 6 Kerne aufteilen kann dann bedeutet das nix anderes als ein sehr gut parallelisiertes Spiel.
Ich wollte daraus auch keine Wissenschaft machen sondern es halt einfach mal als Gedankengang aufzeigen, weil es mich wirklich ueberrascht hat das ein Spiel wie SaintsRow2 so gut skaliert bzw sich so gut verteilt.
Gruss Headjunkie
puntarenas
2010-07-26, 21:14:49
After Mission in Saints Row2: http://img256.imageshack.us/img256/7121/aftermission.jpg
Also ich sehe da keine Parallelisierung, da wandert offenbar ein einzelner Prozess des Spiels neben den üblichen Systemprozessen kontinuierlich über die Kerne. Ganz normal, stört auch nicht, sollte man nur nicht mißinterpretieren.
hq-hq
2010-07-26, 21:15:31
ahm, der alte schinken von supreme commander, ich musste ihn jetzt auspacken. also zuzelt schon viel an nur einer cpu aber die andern werden
bei bedarf offenbar auch gut ausgelastet, ähm ja die ki ist nur auf dumm gestellt :freak: muss ja erstmal wieder ins spiel kommen ;)
http://www.abload.de/thumb/murmelkranz_1233juo.jpg (http://www.abload.de/image.php?img=murmelkranz_1233juo.jpg)
sind übrigens in der taktischen karte ~25fps und das einheitenlimit bei weitem nicht ausgereizt
da primär nur ein core genutzt wird dürfte aber ein x6 trotzdem nicht viel nützen
Headjunkie
2010-07-26, 21:18:23
Also ich sehe da keine Parallelisierung, da wandert offenbar ein einzelner Prozess des Spiels neben den üblichen Systemprozessen kontinuierlich über die Kerne. Ganz normal, stört auch nicht, sollte man nur nicht mißinterpretieren.
Kannst das nochmal bissel ausfuehren? Weil im Idlepic (also nur System) sieht man doch mMn nach sehr gut das es nicht das System ist? Die Graphen sind laut Taskmanager alle vom SaintsRow2 Process, nie mehr als 2% in irgendeinem anderen Prozess?
Edit: Achja die Auslastungsunterschiede ueber Zeit kommen sehr wahrscheinlich daher das die Mission so ablief: Videosequenze-> Zu Punkt A normal gefahren -> An Punkt A 3 Busse in die Luft gejagt + Polizei und Banden angekommen -> Zu Punkt B fahren mit Polizei und Banden schiessen at me und verfolgung -> an Punkt B in ein Boot gestiegen und uebers Wasser gebrauschtr -> An Punkt C 4 Boote mit deren Heli und anderen Boot Cover in die Luft gesprengt -> Videosequence, daher die krassen Unterschiede inner Auslastung
Davon abgesehen kann auch der intelligenteste Scheduler ein Programm nicht parallelsieren das nicht dafuer gemacht ist. Wenn also der Windows Scheduler SaintsRow2 auf 6 Kerne aufteilen kann dann bedeutet das nix anderes als ein sehr gut parallelisiertes Spiel.
das war auch nicht ernst gemeint sondern ironie ;)
da du genau diesem trugschluss auferliegst
ich habs dir doch gezeigt, ein einzelner prime worker "verteilt" auf 2 cores und 58% CPU auslastung
Headjunkie
2010-07-26, 21:28:13
Oo (-:
Ach was solls, wollts ja sowieso nur mal einwerfen, ich geh jetz einfach weiterspielen ! (:
puntarenas
2010-07-26, 21:32:20
Kannst das nochmal bissel ausfuehren? Weil im Idlepic (also nur System) sieht man doch mMn nach sehr gut das es nicht das System ist?
Keine Ahnung, woran du da irgendwas sehen willst, ich sehe da nur, dass das System idlet. :confused:
Die Graphen sind laut Taskmanager alle vom SaintsRow2 Process, nie mehr als 2% in irgendeinem anderen Prozess?
Im Last-Bildchen siehst du eine Gesamtauslastung von 21% (100/6=16,66%), das spricht nicht für viele, rechenintensive Threads. Ich nehme also an, dein SaintRow arbeitet in einem einzigen Thread. Dann arbeitet parallel zum Spiel natürlich auch noch der Grafiktreiber und übrige Systemprozesse, das ergibt dann insgesamt deine 21% Systemlast, wobei du bedenken musst, dass Windows hier grob rastert, es wird ja nur in bestimmten Zeitintervallen die Prozessorlast erfasst, deshalb malt das AMD-Tool auch ein etwas abweichendes Bild.
Windows tut, was es immer tut, es teilt den Threads reihum Rechenzeit auf einem der Kerne zu und so wandern die Prozesse fröhlich von einem Kern zum nächsten.
Headjunkie
2010-07-26, 21:35:54
Na jut, macht Sinn deine Erklaerung.
Waer ja auch zu schoen gewesen. Ich hatte einfach gedacht das ja 21% mehr als 16 is(weil Mathe kann ich ja auch ein bissel) kanns net einfach nur 1 Thread sein, aber die anderen 5(bzw 6*5)% erklaerse ja sinnvoll. Menno ):
War es nicht so, dass der Taskmanager die Auslastung nicht zuverlässig angibt? Stichwort: PerfWatch
Er übernimmt Rechenlast. [...]
Ähh neee. Er hat die gleiche Rechenlast, egal wie ausgelastet die GraKa ist. Es kann höchstens sein, dass der Treiber unter GraKa-Volllast die CPU noch mehr belastet. Und wieder diese falsche Vorstellung: Die GraKa ist in Wahrheit vollkommen abhängig von der CPU, aber die CPU ist vollkommen unabhängig von der GraKa. Von der GraKa kommt nix zurück zur CPU. Die CPU gibt die Daten weiter und folgt ihren Befehlen, ende der Geschichte. Das gilt i.Ü. auch für die hardwarebeschleunigte Physik bisher; die ist bisher rein optisch und ohne Spielrelevanz. Alles was spielrelevant ist, passiert auf der CPU, auch bei PhysX. Bei GPGPU (DirectCompute) sieht das natürlich etwas anders aus. Da wird zum ersten Mal dieser Rückweg eröffnet.
puntarenas
2010-07-26, 21:43:39
War es nicht so, dass der Taskmanager die Auslastung nicht zuverlässig angibt? Stichwort: PerfWatch
Naja, um diese Frage zu klären reicht auch der Taskmanager, aber für höhere Weihen ist PerfWatch (http://www.withopf.com/tools/perfwatch/) sicher vorzuziehen.
dargo
2010-07-26, 22:12:04
@Headjunkie
Auf den Taskmanager von Windows darfst du dich nicht blind verlassen.
http://www.withopf.com/tools/perfwatch/
Ich kann mich noch an das Spiel Timeshift welches ich hierfür nehmen wollte erinnern:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=440739
Damals hatte ich noch einen Yorkfield.
Habe für diesen Test eine sehr gute Szene erwischt bei der der Protagonist von einem Roboter attackiert wurde. Kurz auf den Desktop gewechselt und den Taskmanager gecheckt. Alle 4 Cores waren fast am Anschlag (weit über je 90%). Ich dachte mir "wow", endlich ein Spiel welches den Quadcore exzellent auslastet.
Als ich dann bei gleicher Taktrate die Szene durch einen simulierten Dualcore gejagt habe hatte ich praktisch die gleichen Frames wie mit dem Quadcore.
Ich konnte es überhaupt nicht verstehen. Nachdem ich den verlinkten Text von perfwatch gelesen habe klingt es für mich nur logisch. Der Windows-Taskmanager erfasst auch Leerlauf-/ bzw. Wartezeiten als CPU-Last. Und höchstwahrscheinlich ist genau das ständig beim Quadcore passiert. Durch den stark limitierenden FSB kam es wohl permanent zu diesen Leerlaufzeiten.
dargo
2010-07-26, 22:25:34
@Gast namens dargo@work
Blätter einfach ein paar Seiten zurück, und lies meine Beiträge zu Morrowind. Möglicherweise geht dann die Lampe an.
Ein 10Ghz Bloomfield wäre cool. Damit wären durchgehend 60FPS möglich.
Ich konnte zwar nicht finden, dass du dich explizit nur auf das eine Spiel beziehst. Konnte auch gleichzeitig nicht ahnen, dass du nichts anderes spielst. Wenns dir also nur um das eine Game geht und dieses Game womöglich noch nur mit einem Core skaliert (schließlich hat Morrowind schon einige Jahre auf den Buckel) glaube ich dir gern, dass für dich erst ein Bloomfield @4,5Ghz in Frage käme.
Mr.Magic
2010-07-26, 23:00:04
Natürlich spiele ich nicht nur Morrowind, sondern auch Oblivion und Fallout 3. :tongue:
Das allgemeine Konsolengesockse ist normalerweise eh kein Problem für die CPU, und dürfte mit einem 3.6Ghz i5 nicht spürbar schneller laufen (müsste man mit Frameverläufen klären, ob da irgendwo gröbere Hänger unterhalb von 30FPS auftreten).
Morrowind mag von 2003 sein, wird aber immer noch von der Community bearbeitet, inklusive Codefixing der EXE. Das Spiel lastet bei mir zwei Kerne aus, und zwingt mit den erweiterten Shadern eine GTX285 problemlos in die Knie.
Oblivion zwingt die CPU auch ganz schön in die Knie, zumindest war es bei der letzten Installation so, und seitdem sind verfügbaren Plugins nicht weniger geworden (was an einer Stelle durch Optimierung gespart wurde, geht an anderer Stelle wieder drauf).
Bei Fallout dürfte es sich ähnlich verhalten, auch wenn ich das noch nie mit Mods gespielt habe, da ich momentan mit den Klassikern (Baldur's Gate & Co) beschäftigt bin, wenn ich denn mal zu was komme.
Arkos
2010-07-27, 00:36:03
Schnelle Grafikkarten machen es nur einfacher, CPU-seitige Unterschiede auch zu messen. ;) Fakt ist doch, dass sich wirkliche worst-case Szenarien im Regelfall kaum benchen lassen - die Reproduzierbarkeit ist das Problem. Die Ergebnisse niedrigerer Auflösung und/oder mit SLI/CF lassen sich für solche Fälle aber sehr gut übertragen.
Aber was sollte man nun kaufen:
i5 760 vs. 1055T:
Es kommt stark auf das Anwendungsfeld an: Bei Spielen ist der i5 haushoch überlegen, und das selbst in den am besten parallelisierten Szenarien (z.B. GTA4, AA2). In Anwendungen wiederum führt der X6, zumindest wenn alle Threads gut genutzt werden können. Der Verbrauch des i5 ist geringer, OC nehmen sich beide prozentual nichts.
1090T vs. i7 870:
Hier ist die Sache imho weitaus klarer: Der i7 ist in Spielen und den meisten Anwendungen schneller. Verbrauch und OC liegen hier auf ähnlichem Level.
Mann, wer spielt denn das absolut kranke GTA4. Also mir wäre da spätestens nach 7 Minuten 12 Sekunden langweilig. Das ist sowas von krank des Game und überhaupt sowas von nicht interessant. Das hatte ich mit sämtlichen GTA Titeln so. Nach 5-10 Minuten hing's mir jeweils garantiert zum Hals hinaus, hab's beendet und nie wieder daran gedacht des zu zocken. Einige haben Spass daran, weil man im Game s"alles" machen kann. Man kann jedem des Auto egklauen... haha... Man prügelt Passanten zu Tode... haha.. Lustig. Ich weiss nicht, ob das neue immer noch so weich ist, aber ich nehm's einfach mal an.
Wie gesagt. Es gibt sehr wenige MultiCoreGames. Und AMD hat in vielen Games die Nase vorne, vielfach reicht sogar ein übertakteter x2-250 oder aber ein X4 Athlon aus um die Phenoms oder Intels zu schlagen. Je nach Game. Die Grafikkarte ist um Längen wichtiger. Die ralitätsfremden CPU-Benches bei GHames sind eh nicht zu gebrauchen. Das hat ja PCGameHardware bei Crysis gauzfgezeigt. Ein 7x teurerer Prozzi hatte gerade mal 32FPS, der 60 Euro Prozzi 31. Aber die Grafikkarte war dicke. ... Gut, die Krise ist auch ein Extrembeispiel.
> Diese Tests hier sind sowas für's Müll...
http://www.anandtech.com/show/2923/6
Crysis Mainstream Quality... / usw. Klar gibt's da solche Unterschiede. Aber wenn mal die Quali richtig auf Max gesetzt wird, sieht wieder anders aus. Das ist doch alles Marketing.
> Hier auch
http://www.extremeoverclocking.com/reviews/processors/AMD_Phenom_II_X2_555_Athlon_II_X4_635_11.html
Das ist doch zum Lachen ""LowQuality Settings bei Lost Colonies" Muahaha
Und hier...
http://www.legitreviews.com/article/1297/10/
Oh mann der 80 Euro Prozzi hat irgendwas 166 FPS und der 930-er hat 215. Lol Da merkt man aber nen Unterschhied. Und wieder einige Settings deaktiviert.
Diese Benches sind zu 90% realitätsfremd.
Aber die meisten Leute stützen sich auf solche Aussagen.
Sobald die Quali auf Maximum, ... wirklich maximum gesetzt wird, dann muss rücken die Dingens zusammen.
Ich muss auch nicht nen 30" Monitor füttern. Tja...
Jedenfall smuss man die CPU Benches in Sachen Games wirklich genauer betrachten bevor man Aussagen trifft, wie die CPU mache das Spiel aus.
Man sieht ja an den Grafikkarten Benches, wo wirklich mit Quali getestet wird, wieviel die Grafikkarten wirklich ausmachen. Da wird nämlich alles auf eine CPU gesetzt.
Letztendlich muss man einfach im Schnitt mehr als 60FPS haben. In den schlecht compillierten Konsolengames habe ich mit meinem X2-3800 in so manchem Game 1xx FPS Durchschnitt. In so manchem Game habe ich Frames 150+ Wo ich mehr haben möchte ist, in BF2, wenn ich ein Singleplayer, mit 50 Bots, Maximaler Schwierigkeit mit gemoddeter AIDefault.ai (BotSkill auf 1.0.) Beim Fliegen mekr ich seit einigen letzteren Grafiktreibern, dass es etwas ruckelt. Aber, nicht, wie bei anderen, mit ihren neusten GamerPC's mit ihrer 5850 ist es bei mir wahrscheinlich wirklich der Prozzi und meine nur 2 GB Ram .
Aber ich habe in keinem anderen Game Probleme. Ausser der Krise... aber wer hat die schon nicht. Eventuell die mit SLI oder Tripple SLI oder ner 5970
Sucht mal CPU Benches, wo wirklich die Grafiksettings ans Maximum gedreht werden. PCGamesHardware hat des gemacht. Es gibt Unterschiede... ja, aber es kommt da auch vor, dass eben ein Dual ein Quad schlägt, bzw. der ohne TrippleCache schneller ist. Je nach Game.
Womit man aber sicher nichts falsch machen kann, als Zocker, ist, wenn man ne gute Grafikkarte zulegt.
PS. Ich spiele immer noch auf DX9. Denn in nem Game hat man meistens nur was von der hochqualitativen Umgebung, wenn man nen Screenshot macht, oder stehen bleibt und sich umschaut, bzw. sich expliziet darauf achtet.
Im Fight ist es sowas von Egal, ob man nun weiss nicht wo nen Abstrichelchen an der Darstellung machen muss oder nicht. Im Fight zählt nur der gute Fight und die Spannung des Games...
In Benches die Zahlen, deshalb werden sie ja auch so platziert. Zum Zocken braucht's sicher ne gute Grafikkarte, aber nicht den neusten teursten Prozzi.
Hmm.. Genug gelabbert. Mag nicht mehr korrigieren...
...
Am Besten sieht man ja des bestätigt, wenn man sich die Benches der neusten 460 Palit Sonic 1GB anschaut. die ist knapp hinter der 480 in FarrCry2, in anderen Games schzlägt sie sich aussergewöhnlich gut und ist mal hinter der 470-er. Aber... eiogentlich ne Super-Sache. Für den Preis ist des ein gutes Dingens.
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/15880-test-nvidia-geforce-gtx-460.html?start=10
Das geht übrigens in allen Games so weiter. Diese Karte ist der Hammer. Mir ist nur nicht ganz klar, wieso... Denn die unterscheidet sich ja eigentlich nicht von den anderen 1GB 460-er. Hmm... Oder doch?
Da noch nen normalo Prozzi drauf, ...Und man hat alles, was das Herz begehrt. Ohne doppelt so viel für ne Grafikkarte auszugeben, geschweige denn für nen weiss nicht was für nen Prozzi.
Wenn's nen GamerPC sein soll, rechnet sich immer noch eine der besten Grakas zum besten PreisLeistungverhältnis und dazu nen günstigen Leistungsfähigen Prozzi. Dann noch 2x2 GB Arbeitsspeicher. Und fertig ist der ZockerPC. Jedenfalls bald... Vom Board her kann man eigentlich auch sehr günstig fahren. Da hat sicher schon jeder die Erfahrung gemacht, dass man mal ein superteures Boartd gekauft hat, in der Annahme, man könnte mal aufrüsten und das Einzige was man aufgerüstet hat, ist die Grafikkarte und Harddisks. Wenn dann mal ein Prozzi fällig war, dann auch gleich mit nem neuen Sockel, bzw. anderen Ram. Wie's halt so geht.
Ich hab mein Diamond Plus nie mit nem anderen Prozzi aufgerüstet. Gut, da gab's auch nicht mehr so viel.
GailerZopf
2010-07-27, 01:03:31
Jetzt, now, ahora, adesso lohnt sich der Kauf eines X6 einfahc nicht mehr. Selbst ein i5750 ist sein Geld nicht mehr wert.
Lieber jetzt einen HTPC auf Basis eines i3530 samt igp oder 5770 GPU oder was vergelcihbares aus dem AMD Lager. Und 2011 auf Bulldozer sein Geld "setzen" bzw. Sandy Bridge.....
da primär nur ein core genutzt wird dürfte aber ein x6 trotzdem nicht viel nützen
Starte mal vorher den CoreMaximizer und schau dir danach nochmal die CoreAuslastung an.
Fetter Fettsack
2010-07-27, 11:23:53
in BF2, wenn ich ein Singleplayer, mit 50 Bots,
Bots auf 127 raufdrehen und die Tickets nicht vergessen. :ulol:
GailerZopf
2010-07-27, 11:53:33
@Arkos
You are an hypocrite, aren´t ya ? GTA ist Kult, das spielt man wegen der fast perfekten "Story" bzw. wegen den Protagonisten im Spiel. Dass man nebenbei Autos entwendet, Passanten die Birne farblich markieren kann, bedeutet noch lange nicht dass alle das auch so machen.
GTA ist seit GTA3 das Spiel mit der besten Story und lustigsten Charakteren ueberhaupt, da bekommt man alles Drama, Thriller oder Comedy...was will man mehr ausser Eva aus Metal Gear Solid 3 ?
hq-hq
2010-07-27, 12:23:09
Starte mal vorher den CoreMaximizer und schau dir danach nochmal die CoreAuslastung an.
jo gute idee :freak: werd ich heut mal probieren
mehr muss man nicht wissen
http://www.cpubenchmark.net/high_end_cpus.html
y33H@
2010-07-27, 13:52:35
Ach, da unten kommt ja auch irgendwann mal ein Phenom II X6 :ulol: Hinter dem i7-940 ... armes AMD.
mehr muss man nicht wissen
http://www.cpubenchmark.net/high_end_cpus.html
Gib dir keine Mühe: Den hatte ich schon viel weiter oben in den Raum geworfen:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8162092&postcount=162
Wer lesen will, daß der Thuban eigentlich ganz ok ist, ist hier grundsätzlich falsch. Und irgendwo ist es auch richtig, daß synthetische Benchmarks nicht wirklich die Realität wiedergeben. Auf der anderen Seite verzerren Spielebenchmarks natürlich noch weitaus stärker, da man hier davon ausgehen muß, daß der Tester eine Szene bencht, die dem Testobjekt besonders gut liegt. Wer will schon einen Artikel über eine CPU schreiben, die wegen dem GPU-Limit in aktuellen Games unter dem Strich eh im allgemeinen Einheitsbrei untergeht? ;)
Dieser Thread ist eine schöne Sammlung von allen 'Fakten', die es so gibt. Jetzt muß man sich nur noch die 'Fakten' raussuchen, die man glauben will und glücklich sein. :biggrin:
PS: Das Denken kann einem keiner Abnehmen.
mehr muss man nicht wissen
http://www.cpubenchmark.net/high_end_cpus.html
(ich bin s)
Eigentlich schade für AMD, ich hatte ja auf eine richtige Hammer-CPU gehofft.
Fetter Fettsack
2010-07-27, 15:59:56
Ach was, der 19. Platz ist doch nicht schlecht. :D
Wo doch da auch die wohl nicht sonderlich unterschiedlichen Serverpedants dabei sind.^^
PS: Das Denken kann einem keiner Abnehmen.
So ein Mist aber auch, was mach ich dann eigentlich hier.^^
(ich bin s)
Eigentlich schade für AMD, ich hatte ja auf eine richtige Hammer-CPU gehofft.
was? das der X6 nicht der bringer ist ist doch schon lang bekannt den gibts ja auch schon lang oder sprichst du von geheimen insider infos bzgl. einer neuen CPU? :confused:
Hm... 1090t ca. 250€
940 ca. 400€
überhaupt sind die Preise an der Seite recht interessant.
Also m.E. darf er unter der CPU leistungsmässig liegen ;).
Überhaupt spielt er in der 3GHz-Nehalem-Liega grob mit und das als 3,2GHz K10 - was soll die Aufregung?
y33H@
2010-07-27, 16:41:03
Er hat sechs Kerne, keine vier ;)
- was soll die Aufregung?
über synthetic benchmarks braucht man sowieso nicht zu philosophieren
mehr muss man nicht wissen
http://www.cpubenchmark.net/high_end_cpus.html
Das sehe ich als absolutes PRO AMD Argument.
Bei mir spielt nämlich der Preis eine Rolle und wenn ich da sehe mit welchen CPUs sich der X6 messen kann und was die kosten ist alles i.O.
Er hat sechs Kerne, keine vier ;)
Dürfte 99% aller Kunden egal sein.
Man bezahlt für Leistung x Betrag y.
Ob das 4,6,8 oder 12 Kerne sind ist egal.
Oder spielt es für den Kunden eine Rolle ob sein Auto die 75 PS mit 3 oder 4 Zylindern erzeugt?
Wenn so gedacht wird, können wir auch keine ATI und NV Karten mehr vergleichen, weil die einen 1D haben und die anderen 5D.
Undertaker
2010-07-27, 17:38:39
Ach, da unten kommt ja auch irgendwann mal ein Phenom II X6 :ulol: Hinter dem i7-940 ... armes AMD.
Der Benchmark ist genauso relevant wie SuperPi oder WPrime. ;) Wenn man schon einen einzelnen Bench zur Leistungsbewertung heranziehen möchte, dann doch zumindest einen mit Praxisbezug - um zumindest irgendeinen sinnvollen Schluss aus den Ergebnissen ziehen zu können.
Am ehesten zu verwerten ist für eine allgemeine Aussage - a'la i5 750 ~ X4 965, i7 860 ~ X6 1090T - so man eine solche denn treffen möchte, ein gut gemischtes Feld verschiedenster Programme, wie es z.B. CB in deren Gesamtrating verwendet.
Headjunkie
2010-07-27, 17:52:20
Dürfte 99% aller Kunden egal sein.
Man bezahlt für Leistung x Betrag y.
Ob das 4,6,8 oder 12 Kerne sind ist egal.
Oder spielt es für den Kunden eine Rolle ob sein Auto die 75 PS mit 3 oder 4 Zylindern erzeugt?
Wenn so gedacht wird, können wir auch keine ATI und NV Karten mehr vergleichen, weil die einen 1D haben und die anderen 5D.
Bloedsinn, die meisten Kunden kaufen ein Mercedes als Schwanzverlaengerung und nicht weil et vielleicht 10ps mehr als der gleiche VW haette.
Gleiches gilt fuer Kerne, nem Kollegen(keinem 3Dcenter Member) zu erzaehlen das man jetzt 6 Kerne hat wo er net mal wusste das es solche CPUs gibt, ist die gleiche Schwanzverlaengerung und sie verkauft sich!
Zzzzz
2010-07-27, 18:03:19
Ach, da unten kommt ja auch irgendwann mal ein Phenom II X6 :ulol: Hinter dem i7-940 ... armes AMD.
http://www.computerbase.de/artikel/prozessoren/2010/test_amd_phenom_ii_x6_1055t_1090t_be/17/#abschnitt_truecrypt
armes PCGH, ist das Wetter so schlecht bei Euch ? Bad Company......
Bloedsinn, die meisten Kunden kaufen ein Mercedes als Schwanzverlaengerung und nicht weil et vielleicht 10ps mehr als der gleiche VW haette.
Gleiches gilt fuer Kerne, nem Kollegen(keinem 3Dcenter Member) zu erzaehlen das man jetzt 6 Kerne hat wo er net mal wusste das es solche CPUs gibt, ist die gleiche Schwanzverlaengerung und sie verkauft sich!
Da gibts aber doch viele dumme Kunden :D die einen P4 damals kauften weil der >3Ghz hatte oder eine GeForce FX 5200 TurboCache und eben jetzt auch meinen 6x3Ghz=18Ghz :rolleyes:
http://www.computerbase.de/artikel/prozessoren/2010/test_amd_phenom_ii_x6_1055t_1090t_be/17/#abschnitt_truecrypt
armes PCGH, ist das Wetter so schlecht bei Euch ? Bad Company......
beeindruckend wie schnell die i7 das für 99,9999999% der User nutzlose AES berechnen fehlt ihnen doch AES-NI in "Hardware"
y33H@
2010-07-27, 18:07:09
@ Zzzzz
Ja toll, Trycrypt! - das ist genauso AMD-lastig wie der Cinebench Intel-lastig :rolleyes:
Aber Hauptsache flamen und den Smiley ignorieren ... man sollte euch Trolle alle mit der eigenen Keule erschlagen.
Undertaker
2010-07-27, 18:23:03
http://www.golem.de/1007/76583.html
Und damit ist Truecrypt auf allen Clarkdales, Arrandales (jeweils ab i5) und Gulftowns auf einmal wohl höchst Intel-lastig. Für übliche HDD-Geschwindigkeiten ist aber so oder so schon jeder halbwegs aktuelle Dualcore ausreichend.
dr_AllCOM3
2010-07-27, 18:40:12
Ich frag mich, warum die superteuren i7 Prozessoren in jedem Benchmark zu finden sind. Das kann ja nur versteckte Werbung sein, denn praxisnah ist das nicht. Das ist ein etwa dasselbe wie mit den überteuerten Grafikmonstern oder gleich Karten mit zwei GPUs drauf. Hauptsache auf Platz eins.
Bringen die 6 Kerne denn wenigstens was für den MS Flugsim?
Findet man ja in keinem Test was drüber.
DaBrain
2010-07-27, 21:00:48
Ich würde gerne mehr Benchmarks zum offline Rendering sehen.
Der Cinebench ist nicht so besonders interessant.
Ich bin selber im Moment am überlegen welche CPU ich mir zulege.
Die X6 CPUs liefern extrem durchwachsene Werte ab...
Teilweise können sie mit dem i7 950 mithalten, was sehr beeindruckend ist, fallen aber auch manchmal hinter den i7 920 zurück, was ich wieder ernüchternd finde.
http://www.anandtech.com/bench/CPU/36
Ich hatte gehofft, dass Intel den i7 970 für ~600€ rausbringt. Dann wäre die Sache klar gewesen. Aber bei dem derzeitigen Preis ist der 970er sinnlos. Der 980X leistet doch nochmal ein bisschen mehr, obwohl er nur unwesentlich mehr kostet.
Die AM3 Boards sind wirklich nicht schlecht und preislich auch nicht verkehrt...
Ich könnte jetzt darauf setzen, dass der Bulldozer was wird, mir einen günstigen 1055t inklusive zu schnellem Speicher holen, den übertakten und später einfach durch einen Bulldozer ersetzen.
Die machen es einem echt nicht leicht...
Wann soll denn der Bulldozer kommen? Steht das schon fest?
beeindruckend wie schnell die i7 das für 99,9999999% der User nutzlose AES berechnen fehlt ihnen doch AES-NI in "Hardware"
Truecrypt 6 benutzt keine AES-NI.
Wann soll denn der Bulldozer kommen? Steht das schon fest?
Nicht vor 2011
hq-hq
2010-07-27, 22:31:45
Dürfte 99% aller Kunden egal sein.
Man bezahlt für Leistung x Betrag y.
Ob das 4,6,8 oder 12 Kerne sind ist egal.
Oder spielt es für den Kunden eine Rolle ob sein Auto die 75 PS mit 3 oder 4 Zylindern erzeugt?
lol, bist schonmal nen 3zylinder gefahren... corsa d 1.0 z.b., selbst ein diesel macht net mehr unangenehmen krach:freak:
bulldozer soll irgendwann "anfang" nächsten jahres kommen...
DaBrain
2010-07-27, 22:31:51
Wann soll denn der Bulldozer kommen? Steht das schon fest?
H1 2011
Quelle: http://www.fudzilla.com/processors/processors/processors/amd-tapes-out-its-bulldozer-core
Bleibt nur die Frage ob der wirklich so eine geniale CPU wird, wie er angepriesen wird...
@ Zzzzz
Ja toll, Trycrypt! - das ist genauso AMD-lastig wie der Cinebench Intel-lastig :rolleyes:
Aber Hauptsache flamen und den Smiley ignorieren ... man sollte euch Trolle alle mit der eigenen Keule erschlagen.
Ich akzeptiere deine Meinung. Armes Intel ?
Bulldozer Vorstellungen im August? 2010, sprich in Kuerze wissen wir mehr[evtl. benchmarks, etc..].
Mit BD kann man vor April 2011 garantiert nicht rechnen. 1H bedeutet mMn 2.Q mit Option auf einen Frühstart.
Undertaker
2010-07-28, 11:50:15
H1 2011
Quelle: http://www.fudzilla.com/processors/processors/processors/amd-tapes-out-its-bulldozer-core
Bleibt nur die Frage ob der wirklich so eine geniale CPU wird, wie er angepriesen wird...
Momentan noch interessanter finde ich: Was kommt das knapp eine Jahr bis dahin von AMD? :confused: Llano bringt zwar Abhilfe im Einstiegssegment, Thuban kann man damit aber nicht ablösen.
Schrotti
2010-07-28, 14:34:45
mehr muss man nicht wissen
http://www.cpubenchmark.net/high_end_cpus.html
Der Test ist mal wieder Müll.
Ein i7 875k kann nicht schneller sein wie ein genauso getakteter i7 870.
Technisch gibt es keinen Unterschied bei den beiden CPUs außer dem offenen Multi.
http://ark.intel.com/Compare.aspx?ids=48499,41315,
H1 2011
Quelle: http://www.fudzilla.com/processors/processors/processors/amd-tapes-out-its-bulldozer-core
Bleibt nur die Frage ob der wirklich so eine geniale CPU wird, wie er angepriesen wird...
Fuad redet da aber nur von der Massenproduktion. Die startet immer grob ein halbes Jahr vor Verkaufsstart, Minimum 1 Quartal ...
Kaufbar im Laden erwarte ich BD deshalb erst in H2.
Eventuell hat er auch was mit Llano verwechselt, der kommt sicher in H1. Offizielle Statements zum BD lauten nur auf "2011", sonst nichts.
ciao
Alex
hq-hq
2010-07-28, 15:54:17
hm, mit perfwatch sieht die cpu last echt ein klein wenig dramatisch geringer aus beim supreme commander... fast schon eierschaukeln :freak:
was soll dann die differenz sein bzw wäre die differenz von taskmanager zu perfwatch überhaupt 100% nutzbar... wartezyklen vollstopfen mit "ah das kann ich auch noch schnell berechnen?":freak:
dildo4u
2010-07-28, 17:44:44
PCGH :CPU-Test: Intel Core i5-760 vs AMDX6 1055 vs i7 860
http://www.pcgameshardware.de/aid,765710/CPU-Test-Intel-Core-i5-760/CPU/Test/
Also was Games betrifft hat Intel mit dem I5 760 aus dem i7 860 als Gameing CPU ein deutlich schlechteres Angebot gemacht noch dazu ist er sparsamer.
hm, mit perfwatch sieht die cpu last echt ein klein wenig dramatisch geringer aus beim supreme commander... fast schon eierschaukeln :freak:
:rolleyes: Die Last auf den Kernen steigt sukzessive mit der Ausbreitung der AIs. Schnapp dir die World-Domination-Map, installier die Sorian Adaptive AIx mit maximalem Multiplier, setz 8 gegnerische AIs auf die Karte - und dich selbst in den Beobachterslot. Dann ist Schluß mit lustig.
Du hast übrigens immernoch nicht den CoreMaximizer laufen.
PS: Es kann sein, daß man Forged Alliance benötigt. SupCom1 ist ja nur ein halbes Supreme Commander.
PCGH :CPU-Test: Intel Core i5-760 vs AMDX6 1055 vs i7 860
http://www.pcgameshardware.de/aid,765710/CPU-Test-Intel-Core-i5-760/CPU/Test/
Also was Games betrifft hat Intel mit dem I5 760 aus dem i7 860 als Gameing CPU ein deutlich schlechtes Angebot gemacht noch dazu ist er sparsammer.
Wurden da die Bilder vertauscht ?
http://www.abload.de/img/game-x6-1055t5fm6.png
http://www.abload.de/img/game-i7-860hfyf.png
Und noch der 860er:
http://www.abload.de/img/game-i5-760hepj.png
Im Text steht:
In Spielen geben sich die beiden Lynnfield-CPUs praktisch nichts, der 860er ist einen Hauch flotter. Der 1055T dagegen kann seine sechs Kerne nicht ausspielen und fällt aufgrund der schlechteren Leistung pro Takt zurück - Dragon Age schmeckt dem Thuban gar nichtAber bis auf das erwähnte Dragon Age, das wirklich schlecht ist - ist der 1055T in den restlichen 3 Spielen laut den Benchbalken etwas schneller. Sowohl Min als auch AVG. Damit sehe ich die Formulierung etwas zu krass, in 3 von 4 Fällen fällt da nichts zurück ...
ciao
Alex
P.S: Das 860er Bild heißt 760, das 760er Bild 860 .. .eventuell sind die vertauscht. Macht aber eh nicht viel aus.
y33H@
2010-07-28, 18:00:32
Es gibt noch andere Spiele *SCNR*
Es gibt noch andere Spiele *SCNR*
Davon steht aber 0 im Text, auf die kannst Du Dich deshalb nicht berufen.
Noch ne Zusatzfrage: TC/TM war bei dem Spieletests wieder off, oder ?
y33H@
2010-07-28, 18:02:13
Im Mittel der vier Spiele fällt er wegen DAO zurück. Ich kann's aber gerne umformulieren ...
Im Mittel der vier Spiele fällt er wegen DAO zurück. Ich kann's aber gerne umformulieren ...
Wäre nett, Danke :)
Kannst gerne schreiben, dass der X6 bei DAO abloost, aber bei den andren 3 gut dabei ist.
Ehrlich gesagt, hätte ich es nicht erwartet, dass der 2,8 GHz K10 mit dem 2,8 GHz i5 so gut mithalten kann. Ok 2 Kerne mehr, aber eigentlich sollten die doch nicht viel bringen, wenn man so die letzten 25 Seiten hier liest.
Ist DAO nur dual threaded ? Dann wären im dem Fall noch interessant, ob Turbo was brächte. Aber egal, das wär dann nur was für die Print :)
ciao
Alex
y33H@
2010-07-28, 18:11:35
DAO springt auf drei und auch ein bisschen auf vier Kerne an. Die vier Spiele sind bis auf DAO sehr Phenom-II-freundlich, mit beispielsweise GTA4 und FC2 und NFS Shift sähe es für die Phenom II äußerst trübe aus [Lynnfield über 30% in Front bei gleichem Takt].
DAO springt auf drei und auch ein bisschen auf vier Kerne an. Die vier Spiele sind bis auf DAO sehr Phenom-II-freundlich, mit beispielsweise GTA4 und FC2 und NFS Shift sähe es für die Phenom II äußerst trübe aus [Lynnfield über 30% in Front bei gleichem Takt].
Hm ok, dann Danke für die freundlich Game Auswahl ;-)
Würde mich jetzt mal wieder brennend interessieren, an was das liegt. Aber wie man sowas rausbekommen sollte ...
Fetter Fettsack
2010-07-28, 18:21:17
Welche anderen Spiele genau liegen dem Thuban weniger?
EDIT: Hat sich erledigt. :)
Undertaker
2010-07-28, 18:54:43
DAO springt auf drei und auch ein bisschen auf vier Kerne an. Die vier Spiele sind bis auf DAO sehr Phenom-II-freundlich
Du solltest womöglich noch erwähnen, dass Modern Warfare 2 und Dirt 2 absolut GPU-limitiert waren. ;) Das verzerrt das Leistungsbild natürlich auch beträchtlich. Wie siehts denn mit einer stärkeren GPU oder niedrigerer Auflösung aus?
y33H@
2010-07-28, 19:12:59
Wie wohl? :biggrin: Die Lynnfields sind klar schneller, selbst bei weniger Takt.
Wie wohl? :biggrin: Die Lynnfields sind klar schneller, selbst bei weniger Takt.
Deswegen hat die AMD-CPU auch höhere Minimum-fps.
die Leistungsaufnahme das Thuban sieht gut aus, hatte ich anders in Erinnerung (nur warum gibts da nur den 1090T in der Liste und nicht den gebenchten 1055T?)
Das mit der geringeren Spannung beim i5 760 ist etwas unglücklich formuliert da das vid spektrum auch beim 750 breit gefächert ist (sollte man vielleicht irgendwie erwähnen)
Undertaker
2010-07-28, 19:19:14
Wie wohl? :biggrin: Die Lynnfields sind klar schneller, selbst bei weniger Takt.
Dann schreibt das doch auch in eurem Test entsprechend. ;) So klingt es, als würde nur DAO dem X6 nicht schmecken - und nicht, dass in zwei von vier Fällen wirkliche Differenzen nur durch die GPU verhindert werden.
y33H@
2010-07-28, 19:41:43
Done =)
Done =)
Paßt, Danke. Wenn ich pingelig wäre, würde ich jetzt noch nen Halbsatz fordern, dass der X6 weniger ins CPU Limit schlingert, da die Min FPS besser sind, aber geschenkt :freak:.
Da fällt mir wieder ein, dass Du mal geschrieben hast, dass das Straming (war glaub ich GTA4) mit 6cores besser wäre. Bin mir aber jetzt nicht mehr sicher, ob das der AMD X6 war, oder der Intel. Kann man das anhand der Min FPS sehen, oder ist das ein subjektiver Eindruck ?
So oder so die Spieleauswahl ist wirklich kursios pro AMD ^^
Ne Aufstellung über AMD - Intel freundliche Spiele wäre mal interessant. Wie schätzt Du grob die derzeitige Situation bei den aktuellen Spielen ein ?
80% Intel zu 20% AMD ? Oder noch schlechter ?
ciao
Alex
DAO springt auf drei und auch ein bisschen auf vier Kerne an. Die vier Spiele sind bis auf DAO sehr Phenom-II-freundlich, mit beispielsweise GTA4 und FC2 und NFS Shift sähe es für die Phenom II äußerst trübe aus [Lynnfield über 30% in Front bei gleichem Takt].
Du solltest womöglich noch erwähnen, dass Modern Warfare 2 und Dirt 2 absolut GPU-limitiert waren. ;) Das verzerrt das Leistungsbild natürlich auch beträchtlich. Wie siehts denn mit einer stärkeren GPU oder niedrigerer Auflösung aus?
die Leistungsaufnahme das Thuban sieht gut aus, hatte ich anders in Erinnerung (nur warum gibts da nur den 1090T in der Liste und nicht den gebenchten 1055T?)
Hmm, ein ungewohnt schlechter PCGH-Artikel. Hoffentlich ein Ausrutscher. :(
Hmm, ein ungewohnt schlechter PCGH-Artikel. Hoffentlich ein Ausrutscher. :(
Wurde ja geändert. Ich warte nur noch drauf, dass einer die Testergebnisse als Beleg für diese Spassaussage hernimmt:
Du weißt doch, die Phenom II sind im GPU-Limit schneller. Ach halt, X4 wie X6 sind ja beides Phenom II ;D
y33H@
2010-07-28, 20:29:22
@ S940
Da müsstest du erst mal den Kreis der Spiele eingrenzen, also beispielsweise nur Titel nehmen, die auch des Öfteren gebencht werden und sagen wir, es mal in die Top10 der Verkaufscharts geschafft haben. Und dann musst du noch definieren, was "Intel-freundlich" und was "AMD-freundlich" ist. Ausgehend vom Vergleich eines i5-750 und eines 965 BE, würde ich den Schnitt pro-Intel bei 70/30 sehen. Es gibt halt rund ein Dutzend Titel, in denen der Lynnfield Kreise um den Deneb dreht.
GTA 4 läuft auf sechs Kernen weicher, wobei das Spiel extrem Intel-lastig ist. Ein i7-860 zersägt einen 965 BE in der v1.0.6.0 um +40%, gegen einen Gulftown sieht selbst ein 4,0-GHz-Thuban aus wie eine lahme Krücke. Ähnlich krasse Differenzen (von rund 20 bis über 30%) gibt's bei Far Cry 2, NfS Shift, Crysis [hier gibt's die übelste Klatsche überhaupt - über 50%] und Dragon Age. Ein Spiel, in dem der 965 BE mal klar vorne liegt ... Anno 1404 je nach Szene. Sonst nichts so aus dem Kopf. Und das will was heißen *g* Die Thubans können sich bei Anno 1404, BC2 und Metro 2033 knapp behaupten.
dargo@work
2010-07-28, 21:05:02
Deswegen hat die AMD-CPU auch höhere Minimum-fps.
Wo denn? Die 1-4 min.fps Unterschied können genauso gut Messtoleranzen sein. Wenn du dich mit CPU-Tests in Games beschäftigst dann weiß du es auch. Deswegen sage ich schon immer, dass min.fps mit Vorsicht zu genießen sind. Je nach Spiel und Savegame können solche Toleranzen zwischen einzelnen Messungen bei den min.fps entstehen, und das sogar innerhalb der gleichen CPU. Außerdem woran siehst du, dass die min.fps immer im CPU-Limit liegen?
Fetter Fettsack
2010-07-28, 21:41:35
Zitat von dargo
Außerdem woran siehst du, dass die min.fps immer im CPU-Limit liegen?
Wo sollen sie denn (bei 800x640 wohlgemerkt) sonst liegen? Mir viele da nichts ein (was aber zugegebener Maßen auch nichts heißen muss^^).
dargo
2010-07-28, 21:50:36
Wo sollen sie denn (bei 800x640 wohlgemerkt) sonst liegen? Mir viele da nichts ein (was aber zugegebener Maßen auch nichts heißen muss^^).
Wo siehst du da 800x600? Ich sehe da überall 1680x1050.
Fetter Fettsack
2010-07-28, 22:08:16
Vorhin warn sie noch da, ich schwörs. ;D
Nein, sorry, ich habe da anscheinden die Diagramme mit einem 1090T-Test durcheinander gebracht, wo in 800x600 getestet wurde. Mea Chulpa maxima.
Hm ich bin jetzt mal ganz böse und behaupte, dass nicht viele Spiele eher was mit Intel anfangen können, die aber wiederum in 95% der Reviews vorkommen (WiC als prominentes Beispiel ;)). Wohlgemerkt, ohne in Zweifel zu ziehen, dass der Lynnfield pro Takt schneller ist als ein X6. Aber es gibt halt Auffälligkeiten. Das mit den min-FPS hält sich auch seit dem es den Phenom gibt, ich bin auch davon überzeugt, dass da zum Teil was dran ist, dass der Phenom in Sachen I/O einfach besser ist. Phenom = besserer Uncore, aber schlechtere Kerne.
Man darf sich da auch nicht von der Speicherperformance irritieren lassen, da steht soviel mehr an Technik hinter als das; es kommt darauf an, wie die Latenz bei verschiedenen Aufgaben ist.
Undertaker
2010-07-28, 22:32:56
Wo denn? Die 1-4 min.fps Unterschied können genauso gut Messtoleranzen sein.
Das sie das sind, lässt sich sogar belegen:
http://www.pcgameshardware.de/aid,765710/CPU-Test-Intel-Core-i5-760/CPU/Test/
http://www.pcgameshardware.de/aid,745670/Phenom-II-X6-1090T-und-1055T-im-Test-Sechs-CPU-Kerne-zum-Kampfpreis/CPU/Test/?page=2
Der i5 750 war 3fps besser in Dirt 2 als der i5 760. ;) Damit wird man wieder deutlich, woran sich diese min-fps Theorien aufhängen.
Im GPU-Limit sind alle CPUs, die ausreichend schnell sind, auf einem identischen Niveau. Das sollte langsam ausreichend belegt sein. :)
dargo
2010-07-28, 22:35:02
Das mit den min-FPS hält sich auch seit dem es den Phenom gibt, ich bin auch davon überzeugt, dass da zum Teil was dran ist, dass der Phenom in Sachen I/O einfach besser ist. Phenom = besserer Uncore, aber schlechtere Kerne.
Man darf sich da auch nicht von der Speicherperformance irritieren lassen, da steht soviel mehr an Technik hinter als das; es kommt darauf an, wie die Latenz bei verschiedenen Aufgaben ist.
Geht die Märchenstunde wieder los? :)
@ S940
Da müsstest du erst mal den Kreis der Spiele eingrenzen, also beispielsweise nur Titel nehmen, die auch des Öfteren gebencht werden und sagen wir, es mal in die Top10 der Verkaufscharts geschafft haben. Und dann musst du noch definieren, was "Intel-freundlich" und was "AMD-freundlich" ist.
Hmm .. ja müßte man. Ich denke mal "freundlich" ist im Sinne von mind. 10 fps mehr. ;-) Wobei da dann wieder die Auflösung wichtig wird. Ansonsten wäre die Top10 Verkaufscharts sicherlich ne gute Idee.
Ausgehend vom Vergleich eines i5-750 und eines 965 BE, würde ich den Schnitt pro-Intel bei 70/30 sehen. Es gibt halt rund ein Dutzend Titel, in denen der Lynnfield Kreise um den Deneb dreht.Ok, und mit den Thubans ? Das ist ja eigentlich das interessante an der Geschichte. Dass Intels bei Quad gegen Quad vorne liegt bezweifelt sicherlich keiner, aber das es mit dem 1055T einen billigen HexaCore von AMD gibt, wirds da interessant. Deswegen ja auch der Thread hier.
GTA 4 läuft auf sechs Kernen weicher, wobei das Spiel extrem Intel-lastig ist. Ein i7-860 zersägt einen 965 BE in der v1.0.6.0 um +40%, gegen einen Gulftown sieht selbst ein 4,0-GHz-Thuban aus wie eine lahme Krücke. Ok, also der Gulftown ist immer besser ? Dann mit HT, oder ?
Ich frag nur so genau nach, da ich mir nach Deinen Äußerungen nicht sicher bin, ob ein AMD X6 mit *weniger* AVG FPS nicht doch das bessere Spielerlebnis liefern könnte, eben weil es "weicher" streamt. Da ich weder nen X6 noch GTA4 habe, überlass ich das Deiner Expertise :)
Das sind halt solche Sachen die den Endkunden interessieren. Wenn beim X6 ~40 fps stabil wären, ist das interessanter, als abgehackte 100fps beim i5. *Wenns* denn so wäre.
Die Thubans können sich bei Anno 1404, BC2 und Metro 2033 knapp behaupten.Immerhin etwas, selbst solche Kleinigkeiten das der AMD Anhänger schon lange nicht mehr gewohnt :freak:
@dargo:
Wieso Märchen ? Schau Dir die (AMD lastigen) Game Ergebnisse an, AMD ist 1-4 fps im GPU Limit vorne. Wieso auch immer. Vielleicht ja nur mit ATi Karten, das Thema hatten wir ja erst, was weiss ich. Wie auch immer, die Meßwerte stehen fest ... das sind keine Flunkereien. y33H@ wird schon gut gemessen haben :)
ciao
Alex
hq-hq
2010-07-29, 02:05:36
:rolleyes: Die Last auf den Kernen steigt sukzessive mit der Ausbreitung der AIs. Schnapp dir die World-Domination-Map, installier die Sorian Adaptive AIx mit maximalem Multiplier, setz 8 gegnerische AIs auf die Karte - und dich selbst in den Beobachterslot. Dann ist Schluß mit lustig.
tatsächlich hat sich die cpu last in der letzten map mit 6 KI's auf "mittel"
zumindest nach perfwatch nach ca 1h kaum geändert, aber gute idee 8 KI's
voll aufdrehen und geschwindigkeit auf max und im fenstermode nebenbei
laufen lassen.:freak:
der coreoptimizier lagert angeblich nur einen thread auf einen zweiten core aus,
das soll die KI sein wenn man dem internetz glauben schenkt.
dargo
2010-07-29, 10:22:16
@dargo:
Wieso Märchen ? Schau Dir die (AMD lastigen) Game Ergebnisse an, AMD ist 1-4 fps im GPU Limit vorne. Wieso auch immer.
Ich habe genug Tests (auch mit FC2) hier mit einem Phenom 2-User durchgeführt und wir sind nicht zu diesem Ergebnis gekommen. Also halte ich erstmal Benchmarks im Netz die etwas anderes sagen für falsch. Die Fehler liegen höchstwahrscheinlich beim Reviewer.
Ich habe genug Tests (auch mit FC2) hier mit einem Phenom 2-User durchgeführt und wir sind nicht zu diesem Ergebnis gekommen. Also halte ich erstmal Benchmarks im Netz die etwas anderes sagen für falsch. Die Fehler liegen höchstwahrscheinlich beim Reviewer.
Jo bei allen Reviewern wahrscheinlich, die das gemessen haben. Das waren ne ganze Menge.
dargo
2010-07-29, 11:02:23
Jo bei allen Reviewern wahrscheinlich, die das gemessen haben. Das waren ne ganze Menge.
Und? Dadurch wird es auch nicht richtiger.
Ok, und mit den Thubans ? Das ist ja eigentlich das interessante an der Geschichte. Dass Intels bei Quad gegen Quad vorne liegt bezweifelt sicherlich keiner, aber das es mit dem 1055T einen billigen HexaCore von AMD gibt, wirds da interessant. Deswegen ja auch der Thread hier.
Dazu müssten erstmal 6 Kerne unterstüzt (gleichzeitig genutzt) werden...aber man sieht ja schon bei den Skalierungstests die Dargo, der sich sicher schon ein paar CPU lastige und Multicore lastige Spiele herauspickte, macht das ab 3 Cores praktisch so gut wie nichts mehr mitskaliert. Ich glaub 3 Cores wären da der beste kompromiss zur akzeptablen Auslastung durch Games (hats AMD geahnt als sie auf tripple cores setzten?)
Selbst von 2->3 Cores halten sich Zuwachse in Grenzen (zumindest in IPC Aufholgrenzen)
Hat schon nen Grund warum mein Quadcore meistens nur noch als DualCore läuft.
y33H@
2010-07-29, 11:14:03
Ich sehe das wie dargo.
Es gibt meinem Stand nach zwei Titel, bei denen die Nehalem im GPU-Limit offenbar I/O-Probleme bekommen: Anno 1404 je nach Szene und der "Ranch Small" aus FC2. Wobei letzterer mit Ingame nichts zu tun hat und man ihn daher außen vor lassen sollte.
dargo
2010-07-29, 11:27:20
Dazu müssten erstmal 6 Kerne unterstüzt (gleichzeitig genutzt) werden...aber man sieht ja schon bei den Skalierungstests die Dargo, der sich sicher schon ein paar CPU lastige und Multicore lastige Spiele herauspickte...
Kleine Korrektur. Erstens sind es cpu-lastige Szenen und nicht Spiele. Zweitens - ob die Szenen "multicorelastig" sind... ja dafür ist mein Thread gedacht, sprich ich sehe es erst nach den Tests.
macht das ab 3 Cores praktisch so gut wie nichts mehr mitskaliert.
Ich weiß jetzt nicht worauf du dich hierbei beziehst. Denke aber auf die Tests mit dem Yorkfield. Die Yorkfield-Tests haben keine große Aussagekraft da sie architekturbedingt den Vorteil eines Triple-/Quadcores nicht auf die Straße bringen können. Interessant sind also erst die i5-Tests. Und hier gibts eine Sache die mir Kopfzerbrechen bereitet. Wenn man sich die Diagramme anschaut wird man feststellen, dass obwohl der Triplecore (außer bei RE5) praktisch nie +50% liefert (was er theoretisch müsste) ein Quad weiter, sogar zum Teil recht gut, mitskaliert. Gibts also bei einigen Engines bzw. Spielen doch ein Verteilungsproblem? Damit wären wir wieder hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=487968
PS: ein paar Kleinigkeiten müssen bei meinen i5-Tests aber beachtet werden.
1. Der simulierte Dualcore und Triplecore ist immer im Vorteil weil er die vollen 8MB L3 Cache zur Verfügung hat. Der L3 Cache lässt sich leider nicht teilen. Wie stark sich das auswirkt kann ich leider nicht sagen.
2. Ich teste immer mit der Einstellung im NV-Treiber "threaded Optimierung". Das bringt je nach Spiel kleine Vorteile. Beispielsweise bringt ein Quad in TDU ca. 5% mehr mit diesem Setting.
Es gibt meinem Stand nach zwei Titel, bei denen die Nehalem im GPU-Limit offenbar I/O-Probleme bekommen: Anno 1404 je nach Szene und der "Ranch Small" aus FC2. Wobei letzterer mit Ingame nichts zu tun hat und man ihn daher außen vor lassen sollte.
Zu Anno kann ich nichts sagen. Aber gerade letzteres hatte ich getestet und beide CPUs waren im absoluten GPU-Limit gleichschnell. Eventuell liegt es wirklich am ATI-Treiber? Ich hatte mit NV-Karten verglichen. Habt ihr auch NV-Karten für diese Tests genommen?
y33H@
2010-07-29, 11:40:44
Ist offenbar ein Radeon-"Problem".
Ich sehe das wie dargo.
Es gibt meinem Stand nach zwei Titel, bei denen die Nehalem im GPU-Limit offenbar I/O-Probleme bekommen: Anno 1404 je nach Szene und der "Ranch Small" aus FC2. Wobei letzterer mit Ingame nichts zu tun hat und man ihn daher außen vor lassen sollte.
Wie jetzt, DU stimmst Ihm also zu, dass Du falsch gemessen hast ? :freak:
Nochmal im Zusammenhang:
Zitat von S940 http://www.forum-3dcenter.org/vbulletin/images/3dc/insanedruid/buttons/viewpost.gif (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8175652#post8175652)
@dargo:
Wieso Märchen ? Schau Dir die (AMD lastigen) Game Ergebnisse an, AMD ist 1-4 fps im GPU Limit vorne. Wieso auch immer.
Ich habe genug Tests (auch mit FC2) hier mit einem Phenom 2-User durchgeführt und wir sind nicht zu diesem Ergebnis gekommen. Also halte ich erstmal Benchmarks im Netz die etwas anderes sagen für falsch. Die Fehler liegen höchstwahrscheinlich beim Reviewer.
Mal im Ernst, ich glaub Euch beide dass Ihr wißt wie man bencht, sich jetzt hinzustellen und zu sagen, "den andren mag ich nicht", finde ich zu billig. Ich sag auch gar nicht, dass das überall so sein muss, aber bei den aktuellen Spielen, die Marc gerade getestet hat, und die sehr AMD lastig sind, schauts eben merkwürdig aus. Hast Du überhaupt die gleichen getestet ?
Marc schreib ja auch, dass das bei 800x600 wieder ganz anders wäre und die Lynnfield klar schneller wären, selbst bei weniger Takt.
Aber was passiert denn dann da bei 1680x bei den ausgewählten Spielen ?
Meßfehler ? Ati Treiber Problem ? Tester zu doof ? Echter AMD Vorteil (nur bei den ausgewählten Spielen, nicht pauschal)?
Ist offenbar ein Radeon-"Problem".
Hat sich da eigentlich was mit den neuen Cat getan ?
In den Tests habt Ihr ja nachwievor den alten 10.1 zwecks Vergleichbarkeit, aber da gabs doch bei 10.3 oder 4 nen starken Anno Sprung, eventuell hat der auch den Intel <> AMD Unterschied beseitigt.
ciao
Alex
dargo
2010-07-29, 12:52:19
Mal im Ernst, ich glaub Euch beide dass Ihr wißt wie man bencht, sich jetzt hinzustellen und zu sagen, "den andren mag ich nicht", finde ich zu billig.
Das hat nichts mit "den anderen mag ich nicht" oder "die Tester sind alle zu blöd" zu tun. CPU-Tests in Games sind sehr kompliziert, zeitaufwändig und Fehler können sich durch kleinste Unaufmerksamtheiten sehr schnell einschleichen. Viele Reviewer machen sich noch nicht mal Gedanken darüber ob die einzelnen Werte überhaupt Sinn ergeben. So übersieht man auch ganz schnell eigene Fehler.
Undertaker
2010-07-29, 14:10:07
Man muss immer auch sehen: Nicht jede Messtoleranz ist gleich ein Fehler der Tester. Speziell isolierte min-fps sind extrem anfällig für Schwankungen, die in ihrer Breite auch durch 3-5 Messungen noch nicht zwangsläufig egalisiert sein müssen. Ein gutes Beispiel ist das oben erwähnte Dirt 2, dass bei der PCGH minimal 83fps auf dem i5 750 produzierte, aber nur 80fps auf dem i5 760. Ich gehe jetzt einfach mal davon aus, dass die Messungen mehrfach und sorgfältig durchgeführt worden - 3-5% Messfehler lassen sich aber gerade bei Savegamemessungen teils kaum verhindern. Foglich lassen sich auch alle Differenzen, die unter dieser Größenordung liegen, nicht verwerten.
Dem Problem zumindest teilweise beikommen ließe sich, wenn noch konsequenter auf rein CPU-limitierte CPU-Tests gesetzt wird - die Abgrenzung einzelner Modelle würde deutlich gestreckt werden und zu kleine Differenzen im Bereich der Messtoleranzen ganz einfach überdecken. =)
Das hat nichts mit "den anderen mag ich nicht" oder "die Tester sind alle zu blöd" zu tun. CPU-Tests in Games sind sehr kompliziert, zeitaufwändig und Fehler können sich durch kleinste Unaufmerksamtheiten sehr schnell einschleichen. Viele Reviewer machen sich noch nicht mal Gedanken darüber ob die einzelnen Werte überhaupt Sinn ergeben. So übersieht man auch ganz schnell eigene Fehler.
Ok, dann steht die Frage ist y33H@ == "Viele Reviewer" ?
y33H@
2010-07-29, 14:45:04
dargo und ich sind uns was CPU-Benches anbelangt, ziemlich einig. Viele Reviewer haben einen äh anderen Standpunkt.
dargo und ich sind uns was CPU-Benches anbelangt, ziemlich einig. Viele Reviewer haben einen äh anderen Standpunkt.
Ok, demnach gelten also Deine Tests von vor ein paar Seiten und dargos Argumentation ist in Deinem Fall ungültig.
@dargo:
Somit sind wir wieder bei:
Schau Dir die (AMD lastigen) Game Ergebnisse an, AMD ist 1-4 fps im GPU Limit vorne. Wieso auch immer.
Ich habe genug Tests (auch mit FC2) hier mit einem Phenom 2-User durchgeführt und wir sind nicht zu diesem Ergebnis gekommen. Also halte ich erstmal Benchmarks im Netz die etwas anderes sagen für falsch. Die Fehler liegen höchstwahrscheinlich beim Reviewer.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8175941#post8175941
Tja woran liegts ... ein Faktor wurde ausgeschlossen:
Meßfehler ? Ati Treiber Problem ? Tester zu doof ? Echter AMD Vorteil (nur bei den ausgewählten Spielen, nicht pauschal)?
Bloedsinn, die meisten Kunden kaufen ein Mercedes als Schwanzverlaengerung und nicht weil et vielleicht 10ps mehr als der gleiche VW haette.
Gleiches gilt fuer Kerne, nem Kollegen(keinem 3Dcenter Member) zu erzaehlen das man jetzt 6 Kerne hat wo er net mal wusste das es solche CPUs gibt, ist die gleiche Schwanzverlaengerung und sie verkauft sich!
Die meisten haben kein Geld für einen Mercedes (CPU für ~1000€).
Die haben 250€ und wollen dafür die meiste Leistung, da ist es ihnen egal ob 4 oder 6 Kerne.
Und es hilft ihnen auch nicht, das CPU X für 290€ (Intel) deutlich mehr Leistung hat, sie haben das Geld nicht.
Recht hast du mit dem "6 Kerne sind besser als 4!" denken: spätestens im Aldi PC wird das eine Menge Kunden anziehen.
dargo@work
2010-07-29, 14:57:22
Man muss immer auch sehen: Nicht jede Messtoleranz ist gleich ein Fehler der Tester. Speziell isolierte min-fps sind extrem anfällig für Schwankungen, die in ihrer Breite auch durch 3-5 Messungen noch nicht zwangsläufig egalisiert sein müssen. Ein gutes Beispiel ist das oben erwähnte Dirt 2, dass bei der PCGH minimal 83fps auf dem i5 750 produzierte, aber nur 80fps auf dem i5 760. Ich gehe jetzt einfach mal davon aus, dass die Messungen mehrfach und sorgfältig durchgeführt worden - 3-5% Messfehler lassen sich aber gerade bei Savegamemessungen teils kaum verhindern. Foglich lassen sich auch alle Differenzen, die unter dieser Größenordung liegen, nicht verwerten.
Dem Problem zumindest teilweise beikommen ließe sich, wenn noch konsequenter auf rein CPU-limitierte CPU-Tests gesetzt wird - die Abgrenzung einzelner Modelle würde deutlich gestreckt werden und zu kleine Differenzen im Bereich der Messtoleranzen ganz einfach überdecken. =)
Ich habe mir das Benchvideo der PCGH für DIRT 2 angesehen. Mich wundert es überhaupt nicht, dass bei den min.fps solche Schwankungen zustande kommen. Erstens ist die Benchszene schon relativ lang und zweitens wird das eigene Fahrzeug bewegt. Man wird nie im Leben die exakte Linie mehrfach fahren können. Die Ergebnisse können dementsprechend auch nicht exakt vergleichbar sein. Ähnlich ja, exakt nein. Und eben deswegen kommen solche Unstimmigkeiten wie mit dem i5-750 und i5-760 zustande.
Solche Schwankungen bei den min.fps können selbst kommen wenn man sich nicht selbst bewegt und die Testszene wesentlich kürzer ist. Habe ich schon genug erlebt. Hängt vom Spiel und Testszene ab. Deswegen verwende ich bei meinen Tests die avgs. der 5 Sekunden und keine min.fps. Bei den avgs. gibts keine Differenzen von 5%. Da liegt man höchstens im schlimmsten Fall im Bereich von 1-2% zwischen den einzelnen Messungen. Wenn man jetzt noch mehrere Messungen mittelt hat man ein Brauchbares Ergebnis.
Und? Dadurch wird es auch nicht richtiger.
Deine Aussage wird dadurch genwausowenig richtiger ;).
Komisch auch, dass diese "Schwankungen" meist zugunsten AMDs ausschlagen, seltsam seltsam.
Headjunkie
2010-07-29, 15:25:50
Die meisten haben kein Geld für einen Mercedes (CPU für ~1000€).
Die haben 250€ und wollen dafür die meiste Leistung, da ist es ihnen egal ob 4 oder 6 Kerne.
Und es hilft ihnen auch nicht, das CPU X für 290€ (Intel) deutlich mehr Leistung hat, sie haben das Geld nicht.
Recht hast du mit dem "6 Kerne sind besser als 4!" denken: spätestens im Aldi PC wird das eine Menge Kunden anziehen.
Richtig, Kunden haben kein Geld fuer Mercedes (1000Euro CPU)
Nun haben sie die Wahl zwischen nem A4(i5 750) und nem BMW3er(X6) fuer 200 Euro, aber der 3er sieht von aussen dank 6 Kernen wie der Mercedes fuer 1000Euro aus. Was meinste wieviele Leute sich nun den 3er kaufen, selbst wenn er ein kleinweing schlechter als der A4 ist, nur weil er so aussieht! wie der Mercedes!
Brauchst nichtmal bis Aldikauefer warten, die meisten Gamer jagen Achievements als Penisverlaengerung, was meinse was da 6 Kerne machen.
PS: Autorelationen sind rein hypotetisch und geben nicht die Meinung des Authors wieder und haben absolut keinen reelen Bezug!:smile:
ich glaube hier haben ein paar einen ziemlich "Kleinen"
versuchen sie doch mittels Core Anzahl von CPUs jetzt schon biologische "Benachteiligung" zu kompensieren
Headjunkie
2010-07-29, 15:35:52
:biggrin:Na und? Habe doch 6 Kerne!:biggrin:
Sogar overcloaked for extra length!:D
du meinst du hast 6 kleine statt 4 grosse
Headjunkie
2010-07-29, 15:37:45
Sind ja overcloaked um fast so gross wie die 4 Grossen zu sein, also habe ich 6 fast so Grosse!
hq-hq
2010-07-29, 15:47:12
Richtig, Kunden haben kein Geld fuer Mercedes (1000Euro CPU)
Nun haben sie die Wahl zwischen nem A4(i5 750) und nem BMW3er(X6) fuer 200 Euro, aber der 3er sieht von aussen dank 6 Kernen wie der Mercedes fuer 1000Euro aus. Was meinste wieviele Leute sich nun den 3er kaufen, selbst wenn er ein kleinweing schlechter als der A4 ist, nur weil er so aussieht! wie der Mercedes!
schätze das ist der schlechteste vergleich den ich je gelesen hab ;D
MiamiNice
2010-07-29, 15:49:36
Sind ja overcloaked um fast so gross wie die 4 Grossen zu sein, also habe ich 6 fast so Grosse!
Selbst mit OC hast Du noch 6 winzig kleine :P
Twodee
2010-07-29, 15:50:54
Richtig, Kunden haben kein Geld fuer Mercedes (1000Euro CPU)
Nun haben sie die Wahl zwischen nem A4(i5 750) und nem BMW3er(X6) fuer 200 Euro, aber der 3er sieht von aussen dank 6 Kernen wie der Mercedes fuer 1000Euro aus. Was meinste wieviele Leute sich nun den 3er kaufen, selbst wenn er ein kleinweing schlechter als der A4 ist, nur weil er so aussieht! wie der Mercedes!
Brauchst nichtmal bis Aldikauefer warten, die meisten Gamer jagen Achievements als Penisverlaengerung, was meinse was da 6 Kerne machen.
PS: Autorelationen sind rein hypotetisch und geben nicht die Meinung des Authors wieder und haben absolut keinen reelen Bezug!:smile:
[OT:]
Ey um hier mal eins klar zu stellen, ein 3er BMW ist definitiv nicht schlechter, wenn dann eher besser, als ein A4 vom VW Discounter :biggrin:
Actionhank
2010-07-29, 15:54:58
Sind ja overcloaked um fast so gross wie die 4 Grossen zu sein, also habe ich 6 fast so Grosse!
Und dann auch noch mit einer Tarnung, das nenn ich abgefahren!
Headjunkie
2010-07-29, 15:57:32
Freud laesst gruessen (:
Aber wenn die 6 (fast) Grossen benutzt werden, ist ein Cloak ja auch wichtig!
hq-hq
2010-07-29, 16:00:55
[OT:]
Ey um hier mal eins klar zu stellen, ein 3er BMW ist definitiv nicht schlechter, wenn dann eher besser, als ein A4 vom VW Discounter :biggrin:
:freak: zumindest ist der a4 grösser und schwerer, wenn er auch nicht günstiger ist <- wie ich dieses OT manchmal liebe
Headjunkie
2010-07-29, 16:06:37
Nachdem mein Disclaimer (der ja auch noch mit "PS:" betitelt war...) net gefunzt hat, nur als Klarstellung, ich bevorzuge BMW vor Mercedes und auch Audi! Und dann auch gerne groesser, M3 fuers WE, unter der Woche lieber nen 6er oder 7er Modell! Und dann brauch man auch keine 6 Kerne mehr als Schwanzverlaengerung! So genug OT (:
dargo@work
2010-07-29, 16:51:48
So langsam müsste es aber gut sein mit dem Auto-OT.
Ein 2,8Ghz i5 760 leistet ~30% mehr pro Kern und lässt sich besser übertakten als dein 2,8Ghz PII X6.
Rechne mal gegen was vom Kernvorteil des X6 übrig bleibt. Alleine die höhere IPC des i5 frisst einen Großteil auf. Es stehen die schwankenden 30% gegen im optimistischen Fall 50%, im realistischen eher maximal 40%.
Übertaktet ist der i5 sogar schneller. Und angenommen es werden nicht alle Kerne voll belastet, schon ist der i5 massiv im Vorteil.
Damit deine Rechnung aufgeht, muss die Software fantastisch parallelisiert sein, dem i5 schlecht schmecken und zusätzlich musst du unübertaktet vergleichen.
Ein 2,8Ghz i5 760 leistet ~30% mehr pro Kern und lässt sich besser übertakten als dein 2,8Ghz PII X6.
Rechne mal gegen was vom Kernvorteil des X6 übrig bleibt. Alleine die höhere IPC des i5 frisst einen Großteil auf. Es stehen die schwankenden 30% gegen im optimistischen Fall 50%, im realistischen eher maximal 40%.
Übertaktet ist der i5 sogar schneller. Und angenommen es werden nicht alle Kerne voll belastet, schon ist der i5 massiv im Vorteil.
Damit deine Rechnung aufgeht, muss die Software fantastisch parallelisiert sein, dem i5 schlecht schmecken und zusätzlich musst du unübertaktet vergleichen.
wo lässt sich ein i5 bitte besser übertakten, die x6 gehen normalerweise auch so bis 4.2ghz.
realistisch betrachtet hat ein i5 vlt. eine bessere ipc von 20-25% und bei fantastisch parallelisierter software, wie du schreibst ist der kernvorteil auch nahezu 50% und nicht 40% z.b. cinebench
Sumpfmolch
2010-07-31, 15:08:43
ist eigentlich bei amd inzwischen bekannt, ob am3 für die nächste cpu generation weiter der sockel bleibt? würde ungern beim nächsten cpu aufrüsten in 2 jahren gleich wieder ein neues mainboard kaufen müssen.
realistisch betrachtet hat ein i5 vlt. eine bessere ipc von 20-25%
nehmen wir mal nur 20% an, geschenkt.
und bei fantastisch parallelisierter software, wie du schreibst ist der kernvorteil auch nahezu 50% und nicht 40% z.b. cinebench
50% aber nur in bezug auf einen pII x4. ;)
6/(4x1,2)=1,25
schwupps, selbst wenn wir nur 20% ipc vorteil für intel annehmen, bleiben bei maximal "fanatischer" parallelisierung nur 25% vorsprung für den pII X6. das dürfte ungefähr niemals eintreten. nimm 30% ipc vorteil und es bleiben maximal 15%. jetzt überleg dir mal, wie wahrscheinlich eine derart optimale parallelisierung in der praxis ist und du bist für jeden musterfall dankbar, wo der pII x6 wenigstens dicht aufschließen kann.
ist eigentlich bei amd inzwischen bekannt, ob am3 für die nächste cpu generation weiter der sockel bleibt? würde ungern beim nächsten cpu aufrüsten in 2 jahren gleich wieder ein neues mainboard kaufen müssen.
leider nicht, aber man hofft dass amd ende august erste brauchbare informationen durchsickern lässt. beim ram greifst du dann vorausschauend am besten gleich zu ddr3-1866, das gilt als gesetzt.
Bulldozer wird in einem "AM3r2" erscheinen, kann also sein dass es analog zu AM2 -> AM2+ nur aufs BIOS ankommt, und man hat einige Features weniger.
Das Verlaufsdiagramm macht auch überhaupt keinen Sinn. Link: http://www.pcgameshardware.de/screenshots/medium/2010/04/X6-Gaming-Verlauf-BC2.png In dem Bereich, wo der 4-Kerner immer mehr FPS produziert (ca. Sekunde 18 bis 23), wird der 6-Kerner immer schwächer.
Bin zwar ziemlich spät dran, aber: Klar geht das.
Zum Beispiel mit einem Loader-Thread; wenn die Engine auch sonst schon alle vier Kerne belastet, muss der sich die Rechenzeit mit denen teilen, die Kerne springen zwischen den Threads hin und her, invalidieren Cachelines usw.
Wenn hingegen noch ein Kern für den Loader-Thread frei ist, kann der im Hintergrund seine Sachen laden, während die Action "vorn" mit Volldampf weiterläuft.
Undertaker
2010-08-01, 09:47:03
Das erklärt aber nicht, warum der 6-Kerner langsamer werden soll, während der 4-Kerner zulegt... :confused:
Botcruscher
2010-08-01, 09:55:06
Bulldozer wird in einem "AM3r2" erscheinen, kann also sein dass es analog zu AM2 -> AM2+ nur aufs BIOS ankommt, und man hat einige Features weniger.
Kann, muss nicht. Amd ist da verdächtig still.
puntarenas
2010-08-01, 10:51:01
Kann, muss nicht. Amd ist da verdächtig still.
Ich ertappe mich immer wieder bei dem alten Denkfehler, dass es doch eigentlich blödsinnig ist von AMD, uns Heimschrauber nicht frühzeitig zu informieren. Hier im Thread wurde die Aufrüstoption auf Zambezi ja auch bereits als Pluspunkt gegenüber der Core i7 870 Lösung angeführt. Wer heute kauft, hätte über ein Jahr lang zwar weniger Bumms als mit dem Intelsystem, aber doch in den meisten Fällen immer noch ausreichend Dampf. Man könnte gemütlich die Entwicklung der Spielelandschaft abwarten und dann zur Not noch einen Bulldozer nachschieben, der das System dann möglicherweise am "Sackgassensystem" von Intel vorbeikatapultiert.
Der Denkfehler ist wohl, wir Foreninsassen nehmen uns zwar sehr wichtig, spielen aber in der Wahrnehmung "unserer" CPU-Hersteller überhaupt keine Rolle. Ich denke als Foreninsasse natürlich, dass AMD hier einem Trugschluss aufsitzt. Wir mögen direkt nur wenige Kunden sein, aber wir sind die Multiplikatoren, wir Hypen und werfen mit Schmutz und in unserem Fahrwasser entsteht eine Grundstimmung, die bis zum unbedarften Komplettsystemkäufer durchdringt.
Ist wohl Quatsch, am ehesten wird die Stimmung womöglich noch in Magazinen wie der PCGH mitbestimmt. Diese produziert zu meinem Erschrecken allerdings neuerdings mit Verlaub ziemlichen Müll, indem sie beispielsweise zum Core i5 760 Steckbrief (http://www.pcgameshardware.de/aid,765710/CPU-Test-Intel-Core-i5-760/CPU/Test/) handverlesen AMD-freundliche Spiele auswählt und zwei davon - wohlgemerkt ein Prozessor-Review - sogar stark durch die Grafikkarte limitiert sind. Das ist genau so kurzsichtig, wie in Starcraft 2 ein Diagramm mit unzähligen Grafikkarten (http://www.pcgameshardware.de/aid,765867/Technik-Test-Starcraft-2-mit-12-Grafikkarten/Strategiespiel/Test/) zu malen, die durch die ausdrücklich CPU-limitierte Szene alle hübsch zusammenrücken. Ich will die Ergebnisse nicht bezweifeln, die werden so richtig wie nutzlos sein, aber methodisch reiht sich PCGH damit in die Schar der irreführenden Noob-Seiten ein. Wer seine Leser mit Gewalt auf so einen Schwachsinn konditioniert, der muss sich hinterher nicht wundern, wenn nur noch Schwachsinnige unterwegs sind, die überhaupt keinen Bedarf mehr für kompetente und aussagekräftige Differenzierungen sehen.
Jetzt bin ich abgeschweift, eigentlich sollte dies eine Art Hilferuf sein. Ich würde mich freuen, wenn die von Grafikkarten bekannte und gegen heftige Widerstände der Begriffsstutzigen (der hat meine Grafikkarte beleidigt... mimimi) auch bei Prozessoren und Mainboards durchgezogen würde. Nichts gegen eine positive Grundhaltung gegenüber AMD, aber trotzdem sollten Schwachpunkte in der Produktlandschaft gezielt herausgearbeitet werden.
Ich vermisse allgemein in der Presselandschaft den Tenor in Richtung AMD, dass es für Gamer und Heimschrauber (wir existieren noch, auch wenn der Mainstream vorm Laptop sitzt) oberhalb des unteren Preisbereichs (billiges Board mit Athlon II) eigentlich nicht einmal Preis-/Leistungsargumente zugunsten AMDs gibt, spätesten ab dem 965BE verliert AMD sogar diesen Punkt. Es könnte dennoch einen nüchternen Grund für Gamer geben, bei einer Neuanschaffung zu einem ordentlichen Board mit 8er-Chipsatz zu greifen und zwar die spätere Aufrüstoption.
Ironischerweise wird das Argument der Zukunftssicherheit in den einschlägigen Kaufberatungen bereits ständig angebracht. Einmal wegen der sechs Kerne, hier könnte die Fachpresse mal Aufklärungsarbeit leisten und verdeutlichen, dass im Optimalfall bestenfalls +25% gegenüber einem taktgleichen Core i7 8xx herauszuholen sind. Von einer überlegenen Zukunftssicherheit ist also keine Spur, warum wissen das die Leser von Fachpublikationen offensichtlich nicht.
Zweiter Punkt ist Zambezi. Wenn die Leser so sehr darauf spekulieren, immer wieder liest man "du solltest lieber etwas mehr für das Board ausgeben, nimm eins mit 8xx-Chipsatz, darauf läuft dann Bulldozer", warum stellt sich dann niemand publizistisch hinter diese hoffnungsvollen PC-Freaks. Angelehnt an die Starcraft2-Kampagne könnte man doch regelmäßig in Richtung AMD schreiben, dass es gegenüber all jenen, die gerade vor einer Kaufentscheidung stehen, nur fair und geradezu geboten wäre, für Klarheit in Sachen AM3-Kompatibilität zu sorgen. Im Hier und Jetzt hat Intel die besseren Argumente, AMD soll uns also gefälligst eine Anleihe auf die Zukunft mitverkaufen, warum sagt das denen keiner offen?
Nächster und paralleler Punkt könnte sein, gezielt Boardhersteller herauszupicken und zum Interview antanzen zu lassen, "Bulldozer ready? Wir haken nach". Man braucht nur einen zu finden, dann kann man sie alle vor sich hertreiben und ich wette Angelina Jolies wülstige Lippen, Gigabyte eiert schließlich am längsten herum. :devil:
Man stelle sich nur vor, beispielsweise AsRock verkündet frühzeitig, dass man beim Design der 8xxx-Boards von Anfang an auf Zukunftstauglichkeit geachtet habe, die Spannungswandlung der Boards sei fit und felxibel programmierbar und BIOS-Updates würde man zum Launchtag bereitstellen. Das wäre ein Kracher und bei den anderen Herstellern würden die Ingenieure aus dem Urlaub zurückbeordert, weil das Marketing anfragen lässt, ob das auch auf hauseigene Boards zutrifft. Von diesem Tag an wäre eine positive Grundhaltung zu einem AM3-Kauf gerade auch auf mittlere Sicht endlich sachlich zu vertreten, denn so ein AM3-Board wäre eine langlebige Investition.
Einen Fallstrick gäbe es natürlich, nämlich wenn Zambezi aus Gamersicht floppt und wirklich nur als Ackergaul für paralleles Pflügen in Frage kommt, während die Gazelle Sandy durch die Spiele-Serengeti sprintet.
Ist wohl Quatsch, am ehesten wird die Stimmung womöglich noch in Magazinen wie der PCGH mitbestimmt. Diese produziert zu meinem Erschrecken allerdings neuerdings mit Verlaub ziemlichen Müll, indem sie beispielsweise zum Core i5 760 Steckbrief (http://www.pcgameshardware.de/aid,765710/CPU-Test-Intel-Core-i5-760/CPU/Test/) handverlesen AMD-freundliche Spiele auswählt und zwei davon - wohlgemerkt ein Prozessor-Review - sogar stark durch die Grafikkarte limitiert sind.
naja was sollen sie denn schreiben? "Die AMD CPUs sehen keinen Stich?" Das stimmt zwar in den meisten Dingen aber gibt ja noch Anwendungsgebiete z.B. Video Encoding wo die durchaus sehr gut taugen. Das sieht der gemeine Leser aber nicht und versteht nicht das eine 3.4Ghz CPU auch mal langsamer als eine 2.66Ghz CPU sein kann. Oder das 50% mehr Cores in den meisten Fällen nahezu 0 bringen. Erklär das mal Leuten die 6x2.8Ghz=16.8Ghz > 4x2.66Ghz= 10.64Ghz rechnen.
Und wird in geringen Auflösungen gebencht dann heisst es doch nur gemeckert und es heisst immer "nicht praxisrelevant".
Für Seitenweise Frameverläufe ist meist kein Platz oder das ist zu aufwendig zu erstellen/aufzuarbeiten und interessiert auch die meisten nicht.
Die meisten wollen doch nur einen wert sehen ala 40 FPS > 35 FPS bzw. was "gewinne ich" wenn ich jetzt die CPU durch X oder Y ersetze.
Ich vermisse allgemein in der Presselandschaft den Tenor in Richtung AMD, dass es für Gamer und Heimschrauber (wir existieren noch, auch wenn der Mainstream vorm Laptop sitzt) oberhalb des unteren Preisbereichs (billiges Board mit Athlon II) eigentlich nicht einmal Preis-/Leistungsargumente zugunsten AMDs gibt, spätesten ab dem 965BE verliert AMD sogar diesen Punkt.
Senkt AMD die Preise zieht Intel nach und schiebt nach oben hin was neues nach. Letzteres kann AMD nicht, da K10.5 ausgelutscht ist. In höheren Preisregionen können sie so schon nicht mehr mitverdienen.
Bleibt nur ein Verharren und auf bessere Zeiten (neue Architektur) und seien wir mal ehrlich gerade das Forum zeigt hier zeigt doch das es immer Leute gibt die AMD kaufen auch wenns für gleichen Preis nur halbe Leistung gäbe.
Zweiter Punkt ist Zambezi.... für Klarheit in Sachen AM3-Kompatibilität zu sorgen.
Wer soll denn sich da hinstellen und so eine Pauschalaussage treffen? Selbst wenn sich ein Sockel nicht ändern würde, ist die Sache der Kompatibilität der einzelnen Boardharsteller. Da hängt es davon ab wieviel Luft sie in der Boardspezifikation gelassen haben und ob sie überhaupt gewillt sind das die Dinger darauf laufen.
a) verdienen sie mehr wenn sie neue Boards verkaufen
b) tragen sie das Risiko bei einem offiziellen Biosupdate+Supportliste die Reibungslose Funktion zu garantieren
c) können missglückte Bios updates auch in der RMA Abteilung landen
Einen Fallstrick gäbe es natürlich, nämlich wenn Zambezi aus Gamersicht floppt und wirklich nur als Ackergaul für paralleles Pflügen in Frage kommt, während die Gazelle Sandy durch die Spiele-Serengeti sprintet.
Was Hardware leistet, wissen wir gemeines Volk eh erst wenn diese erhältlich ist und manchmal (bei CPUs weniger eher bei GPUs) nach Monaten
Also im hier und jetzt ein Board samt CPU zu kaufen weil einem die Glaskugel sagt: "Die nächsten CPUs könnten darauf auch laufen und rocken das HAus" ist schon sehr Spekulatius
zumal ich eh nicht nachvollziehen kann wie man sich eine CPU kauft und plant nach ein paar Monaten diese wieder zu ersetzen
puntarenas
2010-08-01, 12:15:26
Wer soll denn sich da hinstellen und so eine Pauschalaussage treffen?
Das ist doch mein Punkt, von sich aus werden weder die Boardhersteller, noch AMD im Vorfeld Farbe bekennen. Wenn allerdings eine breite Diskussion entsteht und daraus auch eine Imagefrage und ein handfester Wettbewerbsnachteil wird (Beispiel: "nimm AsRock, die designen weitsichtig, haben langfristigen BIOS-Support und Bully-Kompatibilität wurde im PCGH-Interview auch schon versprochen" gegenüber "vergiss mal besser Gigabyte, die lassen den Support für ältere Boards leider schnell fallen und kommen schon bei neueren kaum mit BIOS-Updates hinterher, außerdem ist bei denen oft aus Designgründen technisch nicht möglich, was bei anderen Herstellern geht"), dann könnte das nur in unser aller Sinne sein.
Im Übrigen, besonders traurig ist AMD bestimmt nicht, dass in Foren die Zukunftstauglichkeit vom AM3-Platinen gepriesen wird, auch und gerade dank "AM3" und "AM3r2" auf diversen Folien.
a) verdienen sie mehr wenn sie neue Boards verkaufen
Die Rechnung ist doch einfach, wenn die Boardverkäufe heute zurückgehen, weil die Leute zweifeln und der Aufrüstmöglichkeit nicht mehr ohne vorzeitiges Bekenntnis trauen, dann rechnet es sich Support frühzeitg anzukündigen.
Also im hier und jetzt ein Board samt CPU zu kaufen weil einem die Glaskugel sagt: "Die nächsten CPUs könnten darauf auch laufen und rocken das HAus" ist schon sehr Spekulatius
Das ist aber genau, was jeden Tag passiert. Schau einfach in die Kaufberatungsforen, die Leute kaufen sich AM3 in dem Bewusstsein, später [vielleicht|vermutlich|wahrscheinlich|sicher] Mal einen Zambezi nachzuschieben. Damit gleicht "Zukunftsfähigkeit" den Performancenachteil gegnüber Intel häufig aus, heute hat man ja genug Leistung und morgen gibt es Bulldozer zum nachlegen.
Ich halte derzeit die Zambezi-Option für einen eher schwachen Pluspunkt eines AM3-Neukaufs gegenüber einem S1156-System, die Grundstimmung scheint mir allerdings geradezu euphorisch positiv zu sein, während zeitgleich nicht zuletzt wegen fehlender, kritischer Berichterstattung keinerlei Motivation auf Seiten der Hardwarehersteller besteht, sich in die Karten schauen zu lassen wohin die Reise bei AM3r2 denn nun geht.
y33H@
2010-08-01, 12:16:09
Technik-Test Starcraft 2 mit 14 CPUs (http://www.pcgameshardware.de/aid,766089/Technik-Test-Starcraft-2-mit-14-CPUs-Intel-in-Front-vier-Kerne-nutzlos-einige-Ueberraschungen/Strategiespiel/Test/)
Thuban und Lynnfield trennen bei gleichem Takt 40% zugunsten Intels. Selbst bei perfekter Skalierung auf sechs Kerne wäre der Thuban ergo nur 10% vorne.
Diese produziert zu meinem Erschrecken allerdings neuerdings mit Verlaub ziemlichen Müll, indem sie beispielsweise zum Core i5 760 Steckbrief handverlesen AMD-freundliche Spiele auswählt und zwei davon - wohlgemerkt ein Prozessor-Review - sogar stark durch die Grafikkarte limitiert sind. Das ist genau so kurzsichtig, wie in Starcraft 2 ein Diagramm mit unzähligen Grafikkarten zu malen, die durch die ausdrücklich CPU-limitierte Szene alle hübsch zusammenrücken. Ich will die Ergebnisse nicht bezweifeln, die werden so richtig wie nutzlos sein, aber methodisch reiht sich PCGH damit in die Schar der irreführenden Noob-Seiten ein.Die Spiele wurden damals aufgrund ihrer Popularität ausgewählt. Mit sagen wir GTA4, FC2 und Shift [oder SC II] sähe es ganz anders aus. Und naja, SC II - siehe oben.
Ich vermisse allgemein in der Presselandschaft den Tenor in Richtung AMD, dass es für Gamer und Heimschrauber (wir existieren noch, auch wenn der Mainstream vorm Laptop sitzt) oberhalb des unteren Preisbereichs (billiges Board mit Athlon II) eigentlich nicht einmal Preis-/Leistungsargumente zugunsten AMDs gibt, spätesten ab dem 965BE verliert AMD sogar diesen Punkt.Ich persönlich habe das mehrmals benannt, AMD hat nur unterhalb des 965 BE feines zu bieten und selbst hier machen die Clarkdales den Denebs zu schaffen.
Ironischerweise wird das Argument der Zukunftssicherheit in den einschlägigen Kaufberatungen bereits ständig angebracht. Einmal wegen der sechs Kerne, hier könnte die Fachpresse mal Aufklärungsarbeit leisten und verdeutlichen, dass im Optimalfall bestenfalls +25% gegenüber einem taktgleichen Core i7 8xx herauszuholen sind. Von einer überlegenen Zukunftssicherheit ist also keine Spur, warum wissen das die Leser von Fachpublikationen offensichtlich nicht.Auch das benenne ich regelmäßig, siehe oben.
Nur rennen dich die Trolle in Grund und Boden und darauf habe ich einfach keinen Bock mehr.
Thuban und Lynnfield trennen bei gleichem Takt 40% zugunsten Intels. Selbst bei perfekter Skalierung auf sechs Kerne wäre der Thuban ergo nur 10% vorne.
Solche Aussagen sind hanebüchen. Das hast du schließlich beim P4 auch nicht abgelassen. Bei AMD bekommt man denselben Takt mit derselben Kernanzahl schließlich wesentlich billiger. Wenn schon vergleichen dann bei selben Preispunkt. Und da bekomme ich bei AMD entweder 50% mehr Kerne oder deutlich mehr Takt zum selben Preis.
Undertaker
2010-08-01, 12:32:20
Übrigens interessant zu sehen, dass sich die K10.5 exzellent gegen die Core 2 Modelle schlagen - nur Lynnfield/Nehalem ist enorm stark.
Btw: Warum eigentlich der Clarkdale nicht? :confused:
Technik-Test Starcraft 2 mit 14 CPUs (http://www.pcgameshardware.de/aid,766089/Technik-Test-Starcraft-2-mit-14-CPUs-Intel-in-Front-vier-Kerne-nutzlos-einige-Ueberraschungen/Strategiespiel/Test/)
Interessanterweise hat der Phenom X6 erneut die höchsten min-fps in praxisrelevanten Settings.
Das erklärt aber nicht, warum der 6-Kerner langsamer werden soll, während der 4-Kerner zulegt... :confused:
Stimmt, ich war noch weiter vorn im Verlauf.
Die von dir genannte Zeit ist dort, wo der Turm bereits zusammengebrochen ist:
http://www.youtube.com/watch?v=3ODGlnWFemw&feature=player_embedded#!
(Im Video ab 00:26 (5 Sekunden Vorspann))
Mögliche Erklärung: Die CPU spielt in diesem Teil des Benchmarks nur eine untergeordnete Rolle und beide Prozessoren nähern sich dem Grafiklimit an?
y33H@
2010-08-01, 12:36:01
Bei AMD bekommt man denselben Takt mit derselben Kernanzahl schließlich wesentlich billiger.Und? Bringt dir aber nichts, weil nicht nur billiger, sondern auch langsamer.Wenn schon vergleichen dann bei selben Preispunkt.Ähem: i7-860 wie 1090T kosten beide rund 250€ :rolleyes: Und der Lynnfield ist bei 2,8 GHz so schnell wie der Thuban bei 4,0 GHz. Bei gleichem Preispunkt ist Intel ergo um Welten besser.
Und da bekomme ich bei AMD entweder 50% mehr Kerne oder deutlich mehr Takt zum selben Preis.Noch einmal: Das bringt dir aber idR nicht viel oder gar nichts. Vor allem in Spielen nicht. Mehr Takt ist nutzlos, wenn die Konkurrenz mal eben 20-30% mehr IPC in den Ring wirft. Bei SC II gar 40%.
Warum eigentlich der Clarkdale nicht?Wohl wegen dem L3-Cache. Der haut in einigen anderen Spielen schon böse rein und SC II scheint nach Cache zu gieren.
EDIT
Interessanterweise hat der Phenom X6 erneut die höchsten min-fps in praxisrelevanten Settings.Oh ja, das eine Fps reißt natürlich alles :ulol:
Undertaker
2010-08-01, 12:36:37
Interessanterweise hat der Phenom X6 erneut die höchsten min-fps in praxisrelevanten Settings.
Die praktische Bedeutung eines isolierten min-fps-Wertes hatten wir doch schon mehrfach - die geht gegen Null. Interessant wären die Frameverläufe. y33h@?
Interessanterweise hat der Phenom X6 erneut die höchsten min-fps in praxisrelevanten Settings.
Interessanterweise hast du den Thread hier offenbar nicht gelesen. Diese Min-Fps sind ganz offensichtlich NICHT von der CPU bestimmt.
Undertaker
2010-08-01, 12:38:05
Wohl wegen dem L3-Cache. Der haut in einigen anderen Spielen schon böse rein und SC II scheint nach Cache zu gieren.
Das könnte man ja mal mit einem 12MB Gulftown überprüfen, die zusätzlichen Kerne sollten das Bild nicht verfälschen, da eh nicht genutzt.
Persönlich hätte ich eher die schlechte Speicherlatenz der Clarkdales im Verdacht, aber das diese so heftig einschlägt, überrascht schon.
puntarenas
2010-08-01, 12:38:08
y33H@:
Kommt einer im Freizeitanzug und quatscht, als hätte er etwas mit irgendeiner Redaktion zu schaffen. :tongue:
Es tut mir auch Leid, dass ich ein wenig ins Off-Topic und Artikelbashing galoppiert bin, das kam nur weil ich in Gedanken schon bei PCGH war. Ich weiß sehr wohl zu schätzen, dass PCGH im Grunde sehr solide und seriös arbeitet, unter den Benchmarks im Netz für mich die Referenz. Nicht einmal die kritisierten sind ja formal falsch, wie die Ergebnisse zu interpretieren sind steht ja im Grunde sogar im Text.
Allerdings ist doch auch klar, wie das auf die Leser wirkt. Der sachkundige Leser denkt sich "wtf!" und der weniger bedarfte Kunde findet sich in seinem vertrauten Reich der Mythen und Legenden wieder, sowas kenn er ja von weniger ambitionierten Hardwareseiten. Wer einem gemischten Publikum beispielsweise zeigen will, dass die SC2-Performance in heftigen Szenen weitgehend von der Leistungsfähigkeit der CPU abhängt, der sollte vielleicht aus gutem Grund kein Diagramm mit 12 verschiedenen Grafikkarten anfügen.
Nur rennen dich die Trolle in Grund und Boden und darauf habe ich einfach keinen Bock mehr.
Aufhören, sie auch noch zu züchten. Im Grunde seid ihr zu einem guten Teil Pädagogen, ihr helft idealerweise einem unbedarften Publikum die komplizierte Welt zu verstehen und sich darin später selbstbestimmt und kompetent bewegen zu können. Verwirrende Botschaften sind hierbei zu vermeiden und ein Nebensatz kann die verheerende Wirkung eines beeindruckenden Diagramms nur schwer abmildern. :tongue:
y33H@
2010-08-01, 12:42:36
Interessant wären die Frameverläufe. y33h@? boxleitnerb hat schon angefragt :biggrin: Montag gibt's die.
@ puntarenas
Kein Ding.
Wer einem gemischten Publikum zeigen will, dass die SC2-Performance in heftigen Szenen weitgehend von der Leistungsfähigkeit der CPU abhängt, der sollte vielleicht aus gutem Grund kein Diagramm mit 12 verschiedenen Grafikkarten anfügen.Ja, angesichts der Werte wäre es sinniger gewesen, erst die CPUs online zu schicken.
[...] Pädagogen [...];D
Persönlich hätte ich eher die schlechte Speicherlatenz der Clarkdales im Verdacht, aber das diese so heftig einschlägt, überrascht schon.Gute Idee, bei Techspot sind die Bloomfields noch schneller als die Lynnfields, sehr sogar. Tja, das schreit nach Gulftown und einem i7-920.
dargo
2010-08-01, 12:46:21
Interessanterweise hat der Phenom X6 erneut die höchsten min-fps in praxisrelevanten Settings.
:facepalm:
Mein Gott, Leute... befasst euch doch mal mit Benchmarks aka Savegames und Fraps. Da steht 15fps zu 14fps. Fraps gibt die min. und max.fps nur in ganzen Zahlen wieder. Das könnte auch im schlimmsten Fall 14,4fps zu 14,6fps bedeuten. Was für ein Vorsprung für den X6. :eek: Schon mal was von Messtoleranzen bzw. Schwankungen gehört, gerade wenn man mit Savegames arbeitet?
Die praktische Bedeutung eines isolierten min-fps-Wertes hatten wir doch schon mehrfach - die geht gegen Null. Interessant wären die Frameverläufe. y33h@?
Das der Phenom fast immer vorne liegt bei GPU-Limit kann wohl kaum ein Zufall sein.
dargo
2010-08-01, 12:51:22
Persönlich hätte ich eher die schlechte Speicherlatenz der Clarkdales im Verdacht, aber das diese so heftig einschlägt, überrascht schon.
Performt der Wolfdale dafür nicht zu gut? Wobei ich die Speicherlatenz vom Wolfdale gar nicht kenne, außerdem andere Architektur daher wohl kaum vergleichbar.
Mr.Magic
2010-08-01, 12:51:25
Wenn schon vergleichen dann bei selben Preispunkt. Und da bekomme ich bei AMD entweder 50% mehr Kerne oder deutlich mehr Takt zum selben Preis.
Genau um den Vergleich bei gleichem Preis ging es ursprünglich, und es wurde dazu eigentlich bereits alles gesagt, was es zu sagen gibt.
Ja, du bekommst bei AMD mehr Kerne, und/oder höheren Takt. Der Intel ist trotzdem fast überall schneller. Mit OC ist dann AMD endgültig hinten dran.
y33H@
2010-08-01, 12:55:29
Das der Phenom fast immer vorne liegt bei GPU-Limit kann wohl kaum ein Zufall sein. Wer hat eigentlich diesen Unfug in die Welt gesetzt? Und vor allem, warum wird er lustig weiterverbreitet?
Wer hat eigentlich diesen Unfug in die Welt gesetzt? Und vor allem, warum wird er lustig weiterverbreitet?
Wie wäre es mit Fakten statt Flames? Die letzte paar Benchs die du von eurer Seite verlinkt hast zeigen alle dasselbe Bild.
y33H@
2010-08-01, 12:59:25
Es kommt ein Artikel zum Thema GPU-Limit und I/O. Dann ist die Sache geklärt.
dargo
2010-08-01, 13:04:13
@y33H@
Was mir auch nach euren Tests aufgefallen ist - die min.fps beim i7-860 liegen ganz klar im GPU-Limit. Selbst die avgs. liegen schon leicht im GPU-Limit. Jetzt stelle ich mir allerdings die Frage welche höllischen Hardwareanforderungen hat SC2 eigentlich wenn eine GTX480 in 1024x768 1xAA/1xAF bis auf 24fps einbricht? X-D
y33H@
2010-08-01, 13:06:15
GPU-Limit, ja. Mit 4,0 GHz steigen die AVG um fast 40%, die MIN aber nur von 22 auf 24. Warum? Frag Blizz.
dargo
2010-08-01, 13:08:26
Wie wäre es mit Fakten statt Flames? Die letzte paar Benchs die du von eurer Seite verlinkt hast zeigen alle dasselbe Bild.
Und warum hat der X4 965BE 13 min.fps und liegt damit um Welten hinter dem i7. :rolleyes:
Jetzt wird nicht mehr behauptet der Phenom 2 liegt im GPU-Limit vor den Intels sondern nur der Phenom 2 X6. :ulol:
puntarenas
2010-08-01, 13:12:47
Noch eine Frage an die Cracks. Der altbekannte "AMD Dual-Core Optimizer" [...] hat bekanntlich dafür gesorgt, dass die Timestamps der ersten AMD Dual-Core-Prozessoren synchronisiert wurden. Da frage ich mich, welche Timestamps nutzt denn eigentlich Fraps? Gibt es einen sauber synchronisierten Timestamp für alle Kerne oder werden die Messwerte womöglich auf Basis von Timestamps berechnet, die durch das wandern über sechs Kerne verfälscht wurden?
:confused:
Undertaker
2010-08-01, 13:12:51
Performt der Wolfdale dafür nicht zu gut? Wobei ich die Speicherlatenz vom Wolfdale gar nicht kenne, außerdem andere Architektur daher wohl kaum vergleichbar.
Wolfdale hat bessere Speicherlatenzen als Clarkdale... Mit dem off-Die IMC hat man da bisschen was "verbockt" - auch wenn das nur sehr selten so klar sichtbar wird.
Gute Idee, bei Techspot sind die Bloomfields noch schneller als die Lynnfields, sehr sogar. Tja, das schreit nach Gulftown und einem i7-920.
Bloomfield deutlich besser als Lynnfield könnte ich mir wiederum nicht erklären. Wodurch soll das bedingt werden? TC DDR3-1066 ist laut allen Messungen kaum schneller als DC-DDR3-1333 - auch limitiert außer in WinRAR eigentlich nie die Bandbreite. Bei der Latenz gibt es afair keine nennenswerten Unterschiede. Was bleibt da, was Bloomfield schneller machen könnte?
Edit: Techspot hat wohl DDR3-1600 auf allen CPUs genutzt - und damit den Uncore-Bereich des i7-920 erheblich übertaktet.
dargo
2010-08-01, 13:21:35
GPU-Limit, ja. Mit 4,0 GHz steigen die AVG um fast 40%, die MIN aber nur von 22 auf 24. Warum? Frag Blizz.
Da brauche ich nicht Blizzard fragen. Eigentlich ist es nur logisch. Dadurch, dass ihr scheinbar wieder eine etwas längere Testszene gewählt habt kommt es in dieser Szene mehrmals zum Wechsel zwischen CPU-/ und GPU-Limits. Und wenn dieser eine Moment fast völlig im GPU-Limit liegt können die 4Ghz nichts mehr reißen. Das erklärt allerdings nicht warum die min.fps beim X6 so steigen. Mögliche Ursache wäre, dass beim X6 durch die tieferen Frames es wieder zum CPU-Limit kommt oder, dass die min.fps beider CPUs aus völlig unterschiedlichen Stellen der Testszene resultieren. Ohne einen genauen Frameverlauf ist es schwierig zu deuten.
An dieser Stelle auch eine kleine Kritik meinerseits - wenn ihr schon "CPU-Tests" schreibt macht es keinen Sinn gpu-limitierte Testszenen zu wählen. Dadurch entsteht nur dieses Chaos bei den Benchmarks. Wenn zwei CPU-Architekturen sich um ~40% bei der Pro/Mhz-Leistung unterscheiden und in den Testszenen noch ein GPU-Limit vorkommt verschieben sich die Limits stellenweise dermaßen, dass man den Überblick völlig verliert.
Mr.Magic
2010-08-01, 13:26:42
@Undertaker
Irgendwo gab es einen Test, der versucht hat Bloomfield und Lynnfield unter möglichst identischen Rahmenbedingungen (Bandbreite vom Board etc.) zu testen. Der Bloomfield war da 1-2% schneller.
Die meisten allgemeinen (CPU) Tests kommen auf ~10% Vorteil beim Bloomfield.
y33H@
2010-08-01, 13:28:49
@ dargo
Ich checke am Montag die Frameverläufe, mal sehen wo sich das GPU-Limit versteckt :)
Undertaker
2010-08-01, 13:31:18
Differenzen im Bereich von 1-2%, vielleicht auch mal 5% bei gleichem Takt sind natürlich absolut realistisch - das was bei Techspot passiert ist, meiner Erfahrung nach allerdings nicht. Mit der starken Uncore-Übertaktung passt das Ergebnis aber durchaus ins Bild - warten wir doch mal ab, wenn y33h@ noch einen i7 920 testet. Ich wette, der ordnet sich irgendwo zwischen i5 750 und i7 860 ein.
dargo
2010-08-01, 13:34:57
Ich checke am Montag die Frameverläufe, mal sehen wo sich das GPU-Limit versteckt :)
Jo, einfach die GTX480 um 20% beim i7@4Ghz untertakten. Wenn die min.fps an der gleichen Stelle gut fallen hast du dein GPU-Limit.
Mal was anderes... wie weit bist du mit BFBC2 und dem X6?
Edit: Techspot hat wohl DDR3-1600 auf allen CPUs genutzt - und damit den Uncore-Bereich des i7-920 erheblich übertaktet.
Wie kommst du darauf? Es gibt doch Speicherteiler. :)
Edit:
Ah... jetzt verstehe ich was du meinst. Um DDR3-1600 nutzen zu können muss auf jeden Fall der BCLK angehoben werden wodurch Uncore, QPI etc. übertaktet werden.
y33H@
2010-08-01, 13:37:29
Mal was anderes... wie weit bist du mit BFBC2 und dem X6? Diese Woche keine Chance, kommende nach der Arbeit.
Wir wäre es wenn man mal an dieser stelle auf realistischere Szenarien übergeht, betreffs z.b. MMORPG Games, wo es doch eigentlich normal ist das im Grunde min 2 Clienten gleichsam laufen? Dessen Rechnung tragend vermisse aber auch bei GPU Test, realistisch betrachtet sind Performance nebst Qualitäts- settings test (AA/AF etc.), rund um solcherlei Spiele für die Tonne da sie nix Aussagen (mit 2 oder mehr gleichzeitig sieht die Welt anders aus und schon ruckelt es wieder oder ist nicht mehr SSAA 4x oder höher drin etc.).
Solcherlei wäre ja dann vielleicht auch was für Multi GPU und ein weiterer Punkt den vermisse in Sachen Aufklärung. Micro Ruckeln sei dank täte es sicher viel mehr Leute dann hier interessieren ob ggf. auch anders und so effektiv nutzen könnte, ähnlich wie sich ja auch Anwendungen an einzelne Kerne binden lassen? (Aber das nur am Rande weil es ja eh schon ein Querschlag Richtung presse hier gerade gab).
Aber um wieder direkter zum Themen verhalt zu gelangen, für mich weiterführend nur Szenarios interessant, wo neben dem u.a. bereits genannten auch noch andere Anwendungen auf dem Programm (gleichzeitig). Tendenziell H264 Encoding und Rendering in Idealisiert (min 2, besser 3 oder 4 Platten System).
Hier hätten dann wohl die Ideal Kurve(?), habe so die Vermutung das man hier mehr oder minder mit dem X6 klar besser unterwegs.
Oder drücken wir es anders aus, von den hier eingangs genannten Prozessorren ist das AMD Modell (meiner Meinung nach), in fast jedem Fall die bessere Wahl wenn entsprechend mindest- Systemausbau vorhanden und das Multitasking vor dem Monitor sitzt. Wo es im Grunde genommen irrelevant ob Anwendung ,,Wald und Wiesen (Spiel)'', Kerne X nutzen kann.
Mein Fazit:
Die X6 haben ihre klaren Zielgruppen und Anwendungsbereiche und sind in diesem Feld in Sachen Preisleistung ein Angebot das seines gleichen noch Sucht. Und das kann auch für den Bereich Spiele mit hinein gelten (Spielen + Encoding, Packen, Rendering etc.). Von daher würde diese explizite Linie nie ziehen wollen das der X6 im Bereich Spiele (heute und auf absehbar), immer das klar schlechtere darstellt, es kommt immer noch drauf an (wie mit allem). ;)
y33H@
2010-08-01, 14:53:41
MMORPGs kannst du nicht "real" benchen, da nicht reproduzierbar. Flüge wie in WoW sind akzeptabel.
dargo
2010-08-01, 15:05:35
@y33H@
Weißt du was ich in den ganzen Games vermisse? Den sogenannten Ghost-Modus. Dh., ich als Protagonist werde von der KI gar nicht wahrgenommen. Ich glaube mit so einem Modus und natürlich freies Speichern überall wären CPU-Tests viel einfacher. Ich kriege hier mit Metro 2033 schon wieder einen an der Waffel. :freak: Hab paar Szenen wo man gut attackiert wird, eine exakte Vergleichbarkeit ist mir aber noch nicht gelungen. :(
Im Ghost-Modus könnte ich schön beobachten wie die KI auf meine Kollegen reagiert und nicht mal auf mich und mal auf die "Mitläufer". :freak:
PS: optimal wäre noch wenn man die Koordinaten sehen würde wo man sich gerade befindet bzw. hinguckt. So hätte man immer exakt den gleichen Blickwinkel.
Wer hat eigentlich diesen Unfug in die Welt gesetzt? Und vor allem, warum wird er lustig weiterverbreitet?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=472355
ein Gast, welcher sich dort auf Computerbase Benchmarks stützt
und die üblichen Verdächtigen hier im 3DC haben dann mitgezogen
y33H@
2010-08-01, 15:29:00
@ dargo
Ach, mir sind die guten alten Realtime-Demos der Source-Engine am liebsten. Die Schwankung liegt bei unter 0,5% und die Werte entsprechen zu 99% den Ingame-Fps. Man kann jegliche Szenen recorden und abspielen, nichts pfuscht einem rein.
PCGH-Papplüfter
2010-08-01, 16:00:58
IF MEMBER-ID = "y33H@" GOTO 10
y33H@:
Es tut mir auch Leid, dass ich ein wenig ins Off-Topic und Artikelbashing galoppiert bin, das kam nur weil ich in Gedanken schon bei PCGH war. Ich weiß sehr wohl zu schätzen, dass PCGH im Grunde sehr solide und seriös arbeitet, unter den Benchmarks im Netz für mich die Referenz.
Solide? Seriös? Woher willst du das denn wissen? Die PCGH ist inzwischen genauso herstellerabhängig wie alle anderen Hefte am Markt. Stell dir mal vor die würden negativ über einen Hersteller berichten und dann zukünftig keine Testsamples vor dem offiziellen Release mehr bekommen? - Sorry - aber die PCGH hat schon lange ihre 'Unschuld' verloren. Sicher - dort arbeiten Typen wie 'du und ich'. Aber auch du würdest unter dem Druck eine Erfolgsstory abliefern zu MÜSSEN einknicken. Schau dir nur mal den Usertest von anddill zu den Cougar-Netzteilen an. Sowas verdient Respekt. In der PCGH wäre so ein Artikel nie erschienen, weil man den Hersteller vorab informiert hätte und dann wahrscheinlich im beiderseitigen Einvernehmen (:deal:) auf eine Veröffentlichung verzichtet hätte. Anddill hat wahrheitsgemäß berichtet. Darum ist es für mich durchaus nicht überraschend, daß das 3DCF bis heute auf seinen Test des Nachfolgemodells wartet. Ich glaube freiwillig wird Cougar dem kein neues Netzteil mehr in die Hand drücken. Die Tests in der PCGH sind mir allesamt zu 'glatt' und 'auf seriös gemacht'. Das liest sich größtenteils immer mehr wie ein Hersteller-Handout mit passender Balkengrafik. Aber wie soll man sich auch anders Verhalten, wenn man ansonsten vom Hersteller boykottiert wird und nur noch mit monatelanger Verzögerung über aktuelle Hardware berichten kann. Wozu das führen kann sieht man ja deutlich: Da einige Redaktionen sich offenbar dazu verpflichtet fühlen, nur noch gutes über Produkte ihrer Inserenten und Zulieferer zu schreiben, findet man kaum noch Tests/Statistiken in denen intel und AMD gemeinsam bewertet werden. Man könnte fast auf den Gedanken kommen, daß diese Testberichte indirekt über kontinuierliche diverse ganzseitige Anzeigen 'vorfinanziert' sind.
Wer einem gemischten Publikum beispielsweise zeigen will, dass die SC2-Performance in heftigen Szenen weitgehend von der Leistungsfähigkeit der CPU abhängt, der sollte vielleicht aus gutem Grund kein Diagramm mit 12 verschiedenen Grafikkarten anfügen.
Aber nur so läßt sich doch der Beweis erbringen, daß es tatsächlich nicht an einer bestimmten Grafikkarte oder deren Treiberversion liegt. :confused:
Aufhören, sie auch noch zu züchten.Vergiß es - y33H@ ist selbst ein kleiner Aggressor (schau dir mal seine Beiträge auch in anderen Threads an) und das weiß er auch selber. Wenn hier nur noch Diplomaten rumlaufen, die nicht wirklich hinter ihrer eigenen Argumentation stehen, dann erübrigt sich jede Diskussion. Das Ergebnis stünde schon von Anfang an fest: Jeder respektiert höflich die Meinung des anderen und lacht im Stillen wie ein kleiner Chinese im Meeting über jedes Gegenargument des Gegenübers (und sei es noch so sinnvoll), weil er es schlicht nicht verstanden hat und auch nicht verstehen will.
Im Grunde seid ihr zu einem guten Teil Pädagogen, ihr helft idealerweise einem unbedarften Publikum die komplizierte Welt zu verstehen und sich darin später selbstbestimmt und kompetent bewegen zu können. Verwirrende Botschaften sind hierbei zu vermeiden und ein Nebensatz kann die verheerende Wirkung eines beeindruckenden Diagramms nur schwer abmildern.
Wie bitte? Die Pappnasen aus der PCGH-Redaktion sind Pädagogen? Sorry - aber das muß ein Irrtum sein.
.....selbstbestimmt und kompetent bewegen.....
Wie bitte? Du meinst im Ernst, daß jemand der die Tabellen in der PCGH für bare Münze nimmt sich selbstbestimmt und kompetent durch unsere komplizierte Welt bewegt?
Sorry für soviel OT - aber ich glaub ich bin im Kino. Wir reden jetzt von denselben Leuten die unlängst empfohlen haben einen Airflowtunnel für überhitzte Grafikkarten aus Sperrholz oder Pappe-Schablonen nachzurüsten?
http://www.planet3dnow.de/vbulletin/showthread.php?p=2792773
Solche Leute kann man doch nicht Ernst nehmen. Beschimpf mich jetzt ruhig als Troll - aber von dem Bockmist, den die PCGH damals in aller Öffentlichkeit verzapft hat, haben sie sich bis heute noch nicht ausreichend distanziert. Ich lache heute noch über diesen Artikel. Ich frag mich, ob man sich bei der auto-motor-sport irgendwann mal den Spaß macht und einen Beitrag bringt, wie man sich kostengünstig aus Wäscheleinen eigene Schneeketten für den Winter häkelt.... wahrscheinlich wird das nie passieren, weil es 1. unseriös und 2. zu gefährlich wäre. Aus der Art und Weise, wie man bei der PCGH bis heute mit eigenen Fehlern umgeht, kann man imho nur lernen (wie man es NICHT macht).
10 ECHO "Ich weiß, daß du wahrscheinlich nichts mit dem Papplüfter zu tun hast/hattest. Ich respektiere deine Meinung (wie auch die von einigen anderen) OBWOHL sie für die PCGH arbeiten."
Gasti
2010-08-01, 16:47:18
Du glaubst tatsächlich ,dass man Pappe mit Grafikkarten anzünden kann?
Ist nicht dein Ernst oder?
Wie bitte? Die Pappnasen aus der PCGH-Redaktion sind Pädagogen? Sorry - aber das muß ein Irrtum sein.
.....selbstbestimmt und kompetent bewegen.....
Wie bitte? Du meinst im Ernst, daß jemand der die Tabellen in der PCGH für bare Münze nimmt sich selbstbestimmt und kompetent durch unsere komplizierte Welt bewegt?
Sorry für soviel OT - aber ich glaub ich bin im Kino. Wir reden jetzt von denselben Leuten die unlängst empfohlen haben einen Airflowtunnel für überhitzte Grafikkarten aus Sperrholz oder Pappe-Schablonen nachzurüsten?
http://www.planet3dnow.de/vbulletin/showthread.php?p=2792773
Solche Leute kann man doch nicht Ernst nehmen. Beschimpf mich jetzt ruhig als Troll - aber von dem Bockmist, den die PCGH damals in aller Öffentlichkeit verzapft hat, haben sie sich bis heute noch nicht ausreichend distanziert. Ich lache heute noch über diesen Artikel. Ich frag mich, ob man sich bei der auto-motor-sport irgendwann mal den Spaß macht und einen Beitrag bringt, wie man sich kostengünstig aus Wäscheleinen eigene Schneeketten für den Winter häkelt.... wahrscheinlich wird das nie passieren, weil es 1. unseriös und 2. zu gefährlich wäre. Aus der Art und Weise, wie man bei der PCGH bis heute mit eigenen Fehlern umgeht, kann man imho nur lernen (wie man es NICHT macht).
Ähhh... ja.
http://www.forum-3dcenter.org/vbulletin/archive/index.php/t-303045.html
Bist du derselbe Troll? BTW ist da auch ein ziemlich überzeugendes Statement drin.
Ähhh... ja.
http://www.forum-3dcenter.org/vbulletin/archive/index.php/t-303045.html
Bist du derselbe Troll? BTW ist da auch ein ziemlich überzeugendes Statement drin.
Nein - aber Danke für den interessanten Link.
Meintest du dieses Statement? ->
Um beim Flammpunkt eine Feuer zu erreichen benötigt man genügend Sauerstoff (natürlich im Gehäuse vorhanden) UND eine Zündquelle
:rolleyes: Der Mann hat einfach keine Ahnung.
In der Diskussion ging es um den Selbstzündpunkt:
Selbstentzündung
Erreichen der Selbstentzündungstemperatur durch Temperaturerhöhung eines organischen Feststoffes ohne fremde Wärmezufuhr
http://www.containerhandbuch.de/chb/glossar_zentral/glossar_gesamt.html#Selbstentzuendung
Papier, Pappen und Altpapier in Ballen neigen im Stapel zur thermischen Selbstentzündung. Die Selbstentzündungstemperatur liegt bei 100 °C.
http://www.containerhandbuch.de/chb/scha/scha_19_03.html
Ich denke jedem dürfte klar sein, daß man Pappe nicht erst auf 100° erwärmen muß, um sie mit einer Zündquelle in Brand zu setzen. Im Gegenteil: Wenn Pappe die richtige Temperatur erreicht, braucht man keine Zigarette mehr dranzuhalten.
Zu den besonderen Risiken bei der Verwertung von Abfall zählt die Selbstentzündung, die bei einem Viertel der über 50 Brände als Ursache identifiziert wurde.
http://www.sifatipp.de/fachwissen/fachartikel/brandschutz/vorsicht-bei-der-lagerung-von-recycling-materialien/
Captain Future
2010-08-01, 23:04:17
Wikipedia sagt das hier:
http://de.wikipedia.org/wiki/Selbstentz%C3%BCndung :eek:
Es muss wohl auch noch feucht oder Ölhaltig sein. Und in großen Stapeln auftreten. Stelle ich mir bei einem Lufttunnel schwierig vor.
Was PCGH_Kay da wohl geraderückte und deshalb von Flammpunkt sprach, ist der Irrtum des TE, der den Flammpunkt mit der Selbstentzündungstemperatur verwechselte. Letztere liegt bei Holz im Bereich oberhalb 200°C:
http://de.wikipedia.org/wiki/Selbstentz%C3%BCndungstemperatur
Headjunkie
2010-08-01, 23:26:55
Hah, und ihr dachtet mein Autovergleich waere OffTopic!!!
Anwenderprofil X braucht ggf. dieses in die breite gehende Konzept dann noch und bis auf absehbar nicht, fährt möglicherweise sogar weniger gut. Was auch in manch Praxis-Szenario und besonders der Theorie relativ mal mehr mal minder deutlich aufzeigbar (keine frage), wie es hier dann auch getan wurde. Ob dessen im Alltag des Einzelnen übers breite Feld getreten auch bemerkbar und dann auch gleich im Zweifel bei so negativer Radikalität in Auswirkung (aufs immersive erleben), wie es hier auch schon dargestellt, bleibt dennoch höchst zweifelhaft (bei aller Akzeptanz der Fakten).
Ist alles hinlänglich bekannt (mittlerweile), auch das viele Programme diese Technologie von sich aus gar nicht benutzen können, aus den unterschiedlichsten Gründen. Da muss man nicht immer ständig noch auf ein und den selben “Quatsch“ nachmessen/benchen/treten!? Meinethalben Interessiert an einem Artikel schon fast gar nichts mehr außerhalb der Theorie und Architektonischen Vorstellung (Features, innerer Aufbau usw.), die meisten Benchmarks überspringe, da sie mir keine Hilfe bei der Einschätzung.
Denn mein Anwendungsprofil erwarte in erster Linie eine möglichst hohe Multitasking Performance innerhalb eines guten Preisleistungsverhältnisses, welche auch zwecks Stromverbrauch noch in einem tolerierbaren Rahmen verbleibt (insgesamt betrachtet). Aus solcherlei Prämissen gesehen interessiert es relativ wenig wie denn Spiel oder Pack Programm X für sich alleine abschneidet oder Videoencoder Y oder Renderclient Z, da tendenziell der unwahrscheinlichere Fall. ;)
Und wenn denn schon solche Szenarios beleuchtet dann nicht nur auf dem halben, sprich ggf. auch die Kerne mal fest zuweisen und nicht alles Windows überlassen das oft genug noch Murks baut (mit gegebenen Möglichkeiten leider allein dann nicht richtig umzugehen versteht). Anwendungen sich munter gegenseitig auf die Füße trampeln und im Weg stehen können obgleich es in der Theorie ja gar nicht sein sollte/dürfte, alles keine wirklichen Geheimnisse (das macht die CPU aber dann noch lange nicht schlecht gebrauchbar). Spiele ggf. dann ruckeln, Encoder etc. ständig aus'm Tritt (dadurch mehr zeit benötigen) usw.
Die Zielgruppe (zu der auch mich zähle), Spielt auch aber halt eben nicht nur, diese macht Zeitgleich noch etwas anderes (Anwendungstechnisch Ressourcen fordernd), nicht immer aber tendenziell. Oder gehört zu der Gruppe wo ein und das selbe Spiel 2 bis k.a. fach gestartet (WOW wäre so ein Prominenterer Kandidat ^^).
Solche Dinge sind es die bei Aktuellen CPU/GPU Artikel diese dann interessieren täten und wo ein zukünftiges Augenmerk auch einmal würde sehen wollen (Wink Richtung Presse :) ).
Und genau der andere Fakt der bisher auch noch viel zu kurz gekommen.
Die Pro Kern mehr Leistung der hier in Frage/Vergleich kommenden Prozessoren ist eben nicht hoch genug um es alles zu egalisieren und auf die Art zu Kompensieren (einfach so), wie es immer suggestiv raus bzw. in die Welt getragen! Auch weil gerade die meisten Spiele dämlich programmiert (man möge mir die Ausdrucksweise an dieser Stelle verzeihen). Schön 100% auslastungs Threads generieren, spielt auch keine Rolle ob Vsync an oder nicht und somit jeweils gleich ganze Kerne Blockieren, obgleich sie es längst nicht müssten! Nur als ein Beispiel sei hier Dune 2000 genannt (welches den gemeinten Wahnwitz überdeutlich aufzeigt). Und zum Punkt zurück führt wo es letztendlich in der Theorie vielleicht und möglich, aber in Praxis ein Quad (auch nicht mit HT), wohl nie eine solche allgemeine Multitasking Potenz auf die Wage wird werfen können wie ein Hexa Core!?
Sehe da wenn nicht Technische, spätestens die Menschliche Hürde und sei es nur weil Betriebssysteme das nicht handhaben können (mit den Ressourcen). Oder vielleicht gar noch vielmehr in Kombination mit Programmen der Marke, die welche mit dem vorhandenen mal wieder am Sinnlos verfeuern. :/
Auch weil gerade die meisten Spiele dämlich programmiert (man möge mir die Ausdrucksweise an dieser Stelle verzeihen). Schön 100% auslastungs Threads generieren, spielt auch keine Rolle ob Vsync an oder nicht und somit jeweils gleich ganze Kerne Blockieren, obgleich sie es längst nicht müssten!
Das ist mir auch schon aufgefallen. Ich frage mich bereits länger, wie es sein kann, daß Spiele (Steamengine), die meinen DC auf beiden Kernen zu 100% auslasten, exakt genauso schnell laufen, wie auf meinem SC der zudem noch 1 GHz langsamer taktet. - Kann es sein, daß hier der ein oder andere Spiele-Hersteller dazu verführt wurde absichtlich das ein oder andere Schräubchen in die 'richtige' Richtung zu drehen? Es kommt mir manchmal so vor, als ob -in Abwesenheit jeglicher Kompetenz- der ein oder andere Redakteur dazu neigt ein Spiel, welches 4 Kerne im Windows-Taskmanager zu 100% auslastet, als besser MT-optimiert einzustufen, als wenn das gleiche Spiel auf lediglich 2 Kernen nur angemessene 50% Last erzeugt. :biggrin: Und wenn man es dann noch mit einem Kunstgriff schafft, daß das Game auf weniger Cores auch tatsächlich weniger FPS erzeugt, dann hat man plötzlich einen neuen Meilenstein im Genre geschaffen, an dem sich moderne CPUs endlich mal so richtig beweisen können. :rolleyes: - Jeder glaubt das, was er glauben will.
Genau dieses ungute Gefühl beschlich mich auch als die Reviewer begannen Euphorisch von mal mehr mal minder Dual Core Optimierungen zu Schreiben und das Ganze gleich einen besseren gesamt Eindruck ob der angeblichen Technischen Finesse oder dem beginnenden neuem Zeitalter. ^^
Und so zog sich das ja weiter, mir kam damals gleich der Gedanke wenn dem so angegangen und im Hinblick auf die Momentanen Gesellschaft/weltlich Gegebenheiten. ~ Sinnbildlich: Abteilung BWL mit nem Heft zu den Devs oder zum Marketing und die dann zu den Devs, mit entsprechend Artikel und Hinweis marschiert.
,,So Jungs nu seht ma zu, das wollen wir auch drin haben!'', der erste Moment von leichter Euphorie wenig später verflogen sein sollte. ,,Wir hätten da schon was in Überlegung, was unser Projekt gut entlasten könnte, es würde tendenziell viel besser laufen und oben drauf mehr Inhalte ermöglicht, die Entwicklungszeit aber unweigerlich um ein paar Monate a...'', an dieser Stelle abrupte Unterbrechung , ,,Wahaaa ihr habt wohl ein Knall, ist uns egal wie ihr das hinbekommt aber der Zeitrahmen wird nicht erweitert und wenn ein Audio Encoder oder sonstiger Kauderwelsch inne Schleife noch ständig mitläuft, ist uns egal Hauptsache Reviewer und Kunden schwärmen auch bei unseren Produkt ob Euer Technischen Meisterleistung ''. *PUNKT*
...
Werter Gast, geschätzter L.ED,
euch ist aber schon klar, dass professionelle Reviewseiten ihre Aussagen zur Parallelisierung nicht aus dem Windows-Taskmanager ableiten, sondern einzig und allein messbare Performancezuwächse den Ausschlag geben?
Nun ich habe nicht Unterstellt das es so ist, nur das solch Vorgehensweise und Sache wie die leicht Karikiert umzeichnete ggf. nicht im geringsten Verwundern sollte.
Denn wir leben in genau so einer Welt und auch in die Vergangenheit geblickt, da gibt es doch genug technische Entgleisungen die bis heute vermutlich nicht Vernünftig spielbar oder nur mit starken drop's (am ruckeln). Das ist einfach eine Entwicklung wo der normal herangehende sich doch einfach nur am Kopf fassen muss, wer sowas verbricht wie z.b. X3 (Spiel)!? Ja ich glaub selbst in/mit X2 bekommt man noch heute ab bestimmten Punkt wenig später nur noch Ruckelorgien geboten (Armada Kampf in einem Xenon Sektor)!?
Was sind das für Leute und Projektplaner bzw. was herrscht da für ein Geist vor? Und nun hänge man sich nicht an den beiden Beispielen auf, prinzipiell geht es darum das da Sachen in die Welt geworfen die zu “Lebzeiten“ mit keiner Existierenden Enduser Hardware flüssig Darstellbar über die Länge. Dem man auch per Optionen (niedrigeren setting), dann nicht bei kommen kann und noch Jahre und CPU Generationen später das immer noch nicht möglich, um diese “Verbrechen“ geht es!
Für mich sind das Epic Fail Entwicklungen und mir brauch keiner Sagen das das nicht schon lange zuvor klar würde, das mit eingeschlagen wegen jeweils aktuell kaum Darstellbar und auch in nächster Zukunft nicht vernünftig, vermutlich sogar nie zur überhaupt noch bißchen Relevanzzeit des Titels!?
Was ist los da bei den Leuten? Und vor allem wie kann man dazu noch als Enduser oder gar ggf. Reviewer in verständnisvolle Jubelschreie übergehen, wenn die anderen da so ein offenkundig Murks fabrizieren (oh meine OC 4,5Ghz CPU ist schön ausgelastet, ruckeln tut es trotzdem)? Vieles der letzten 3 Jahre was heute noch ab Punkte X dann wie bescheuert dropt und Ruckelt. Hätte und könnte durchaus flüssig sein (davon bin überzeugt), wenn man es nur anders angegangen und auf anderen Gerüsten gebaut.
Dieses aber scheute und scheut man sich oftmals bis heute noch zugehen (nicht technische sondern vielmehr wirtschaftliche Dinge sind hier die wirkliche massiv Entwicklungsbremse geworden). Akzeptieren muss man es so bis auf weiteres (leider), aber man sollte die eigentlichen Probleme und Kerne viel öfters durchaus auch benennen. Und zumindest das Euphorische Schultern klopfen bei so Machwerken dann unterlassen (in der Technischen Betrachtung)!
X3 nutzt nur einen einzigen Kern.
Besonders fatal weil gerade hier CPU Leistung wichtig ist.
Um das mit dem Threadthema zu vereinbaren: Im Zweifel siegt die CPU mit der maximalen Leistung pro Kern.
Das ist mir durchaus Bewusst und war nicht der relevante Punkt ;)
Sondern viel eher wenn denn wie man solch Schwachsinn überhaupt machen und in dieser Form auf die Welt loslassen kann!? ^^
Ich bin überzeugt davon das sowas durchaus spätestens mit Aktuelleren CPU Generationen hätte durchgehend flüssig laufen können ob nun AMD oder Intel (egal), auch wenn es nach wie vor nur Single Core Progie, ja wenn es nur Handwerklich vernünftig gemacht worden wäre! Besonders in Anbetracht wie alt das schon ist und was seinerzeit an Hardware gerade max. HighEnd sich schimpfte, davor bekommt das Ganze doch erst richtig seine Schärfe.
Wann soll es denn soweit sein bis wir dieses Machwerk wirklich immer und überall flüssig erleben können (auch da wo es so richtig spaßig mit Epic pew pew :smile: ), wieviele Jahre und CPU Generationen weiter und wem interessiert es dann da noch?
Es ist doch im Grunde schade um so in sich schöne (interessante) Konzepte :mad: *seufz*
Aber wie zuvor schon geschrieben es war nur ein Beispiel, anhand nur eine andere weitere der Problemzonen aufgezeigt und deutlicher gemacht werden sollte.
MiamiNice
2010-08-04, 09:10:21
X3 läuft selbst bei riesen Raumschlachten auf einem i7 normal und ohne Ruckler. X-3 TC von mir aus mit 10 - 20 Trägern + Kleinkram und dann in einen Xenon Secktor springen und Gas geben, 0 Prob. Ist das gross genug oder meinst Du noch noch mehr Action auf dem Schirm?
Ja es wäre unglaublich schön gewesen bereits vor 2 Jahren eine gescheite Performance in X3 zu haben, indem man alle Kerne des Q6600 z.b. nutzt.
Jetzt kann ich bestätigen, mit einem gut übertakteten i7 läufts anständig, bzw ich habe die schlimmen Stellen wohl nicht gesehen.
Kein Vergleich zu früher, vor den zahlreichen Patches und mit einem C2D oder C2Q.
Aber das ist doch genau die Sache. Multicore CPU Support Fehlanzeige, obwohl dringend nötig. Vor 2 Jahren war ein 4Ghz i7 ebensowenig Standard wie heute.
Genauso siehts mit 64bit aus. Bei zahlreiche Titel darf man die Flag setzen, das mehr als 2GiB genutzt werden dürfen. Dennoch ist bei 4GiB Schluss und es wird fleissig von der Festplatte nachgeladen, der restliche RAM liegt brach.
und was lernen wir daraus?
in den meisten Fällen:
Multicore = fail
ram > 4GB = fail
vielleicht nicht ganz so drastisch aber wenns technisch möglich wäre würden wir meistens besser mit der Performance eines 5Ghz core i3 fahren als mit einem 4 Ghz core i7
PCGH_Raffael
2010-08-04, 11:46:53
Nein - aber Danke für den interessanten Link.
Meintest du dieses Statement? ->
:rolleyes: Der Mann hat einfach keine Ahnung.
In der Diskussion ging es um den Selbstzündpunkt:
http://www.containerhandbuch.de/chb/glossar_zentral/glossar_gesamt.html#Selbstentzuendung
http://www.containerhandbuch.de/chb/scha/scha_19_03.html
Ich denke jedem dürfte klar sein, daß man Pappe nicht erst auf 100° erwärmen muß, um sie mit einer Zündquelle in Brand zu setzen. Im Gegenteil: Wenn Pappe die richtige Temperatur erreicht, braucht man keine Zigarette mehr dranzuhalten.
http://www.sifatipp.de/fachwissen/fachartikel/brandschutz/vorsicht-bei-der-lagerung-von-recycling-materialien/
Wikipedia sagt das hier:
http://de.wikipedia.org/wiki/Selbstentz%C3%BCndung :eek:
Es muss wohl auch noch feucht oder Ölhaltig sein. Und in großen Stapeln auftreten. Stelle ich mir bei einem Lufttunnel schwierig vor.
Was PCGH_Kay da wohl geraderückte und deshalb von Flammpunkt sprach, ist der Irrtum des TE, der den Flammpunkt mit der Selbstentzündungstemperatur verwechselte. Letztere liegt bei Holz im Bereich oberhalb 200°C:
http://de.wikipedia.org/wiki/Selbstentz%C3%BCndungstemperatur
Über was diskutiert ihr hier eigentlich? Über eine 4 Jahre alte Geschichte, die belegen soll, dass die PCGH 2010 nichts taugt? Haha. Ich bitte euch. Übrigens ist Kay mittlerweile weder bei der PCGH noch bei Computec tätig ...
MfG,
Raff
Mr.Magic
2010-08-04, 15:11:09
ram > 4GB = fail
Das ist so nicht ganz richtig. Mein Windows verwendet im Leerlauf ~2GB RAM. Das ist ohne Internetbrowser. Bei Open World Games mit Flag bekommt man also auch beim "reinen" Spielen durchaus 6GB voll*.
Wenn man mehr Programme im Speicher hält, wird zusätzlicher Speicher durchaus sinnvoll, wenn man nicht auf Swapping warten will. Mit Browsern, Virtual Machines, Editoren, Grafik- und 3D-Programmen sind auch 8GB ratzfatz voll, ohne überhaupt mal ein Spiel zu starten.
*Wenn ich Opera/Firefox länger offen habe, frisst das schonmal ein Gigabyte und mehr. Diskcache ist verboten.
Byteschlumpf
2010-08-04, 15:57:52
Für mich bringt mein System (i7 860@3,9Ghz, 8GB RAM, blablabla) große Vorteile bei der Bild/Videobearbeitung gegenüber einem System mit i5/C2Q, da sich Renderzeiten deutlich verringern und 64bit Anwendungen, wie Adobe CS5, den RAM voll in Beschlag nehmen können.
Nutzt man virtuelle Maschinen, ist jedes halbe Gigabyte RAM zustätzlich und jeder weitere logische CPU-Kern sehr willkommen.
PCGH-Papplüfter
2010-08-04, 16:28:47
Über was diskutiert ihr hier eigentlich? Über eine 4 Jahre alte Geschichte, die belegen soll, dass die PCGH 2010 nichts taugt? Haha. Ich bitte euch. Übrigens ist Kay mittlerweile weder bei der PCGH noch bei Computec tätig ...
MfG,
Raff
Hallo!
Ja du hast Recht - das ist eine ältere Geschichte. Im Prinzip ging es mir auch nicht darum zu behaupten, daß die PCGH grundsätzlich keine ordentliche Arbeit abliefert. Es ging mir nur darum, daß auch Redakteure bei der PCGH nicht nur unumstrittene Reviews (insbesondere Testergebnisse) in die Welt setzen. Wenn ich dann Sätze von puntarenas lese, die in die Richtung gehen: Eure Benchmarks seien für ihn im Netz die Referenz, dann kommt man schon ins grübeln. Schließlich ist der gute Mann hier Hardwareberater. Jetzt könnte man sich natürlich fragen, warum soll man dazu überhaupt was sagen? Jeder kann sich ja frei informieren - es zwingt einen ja keiner die PCGH zu lesen. Mein Anliegen war, daß er sich mal Gedanken drüber macht ob er das, was in der PCGH steht wirklich als Referenz betrachten möchte. Für mich gibt es in diesem Bereich eigentlich keine Informationsquelle, die ich als Referenz einstufen möchte (abgesehen von ct' - aber dort werden meist keine Spiele gebencht). Mir sind die Testaufbauten, die zum Benchen herangezogen werden, zu unübersichtlich. Sogar die Produkte, die in der PCGH gründlich getestet und bewertet werden, liegen oft schon nach wenigen Wochen in neuer Revision vor. Das, was man in der PCGH vorfindet ist imho nur eine Momentaufnahme, anhand derer man sich einen groben ersten Eindruck verschaffen kann, wo zB. eine bestimmte Grafikkarte oder eine CPU eingeordnet werden kann. Eine Garantie, daß man exakt die gleiche Leistung bekommt, wenn man sich dann später so eine CPU oder Grafikkarte kauft, gibt es nicht. Welche Rolle Dinge wie zB. der Chipsatz oder der verwendete Grafikkartentreiber bei so einem CPU-Test spielen, geht dabei völlig unter. Das ist auch einer der Punkte, der mich an PCGH ein bischen stört: Die Balkengrafiken vereinfachen die technischen Aspekte zu stark. Es kann vorkommen, daß eine (->für mich<-) technisch wesentlich interessantere CPU im 'Balkenwald' völlig untergeht. Macht nix - zu irgendwas muß die ct' ja gut sein. ;) - Was ich nun aber einen unschönen Begleiteffekt dieser Form von Berichterstattung sehe ist, daß sich allerorten nur noch über FPS in Spielen 'unterhalten' wird. Das finde ich offen gesagt ein bischen Schade. Wenn ich mir dann noch anschaue mit welchen Tricks seitens der Hersteller (...und mancher Redakteure?) gearbeitet wird, um das Ergebnis etwas 'aufzuhübschen', dann frag' ich mich schon, ob es bei euch nicht auch den ein oder anderen gibt, dem schonmal leise Zweifel an der allgemeinen FPS-Treibjagd gekommen sind.
Also sieh meinen Post bitte nicht als PCGH-Bashing (das war auch nicht meine Absicht), sondern als Reaktion auf puntarenas. Eure Berichte sehe ich nicht als Referenz, sondern eher als gute erste Information über neue Produkte. Ihr habt, wie der Name ja schon vermuten läßt, einen Schwerpunkt auf 'PC-Games'. Mir kommt dabei die Technik, die dahinter steht (zB. beim Thuban), ein bischen zu kurz. FPS sind für mich bei weitem nicht das Maß aller Dinge. Vor allen Dingen auch deshalb, weil man heute fast problemlos und beliebig selber an der MHz-Schraube drehen kann. Man kann seine vorhandene Hardware (bei vernünftiger Kühlung) imho durchaus auch ohne Neukauf in völlig neue FPS-Regionen heben. Einen Vergleich oder gar eine Rangliste verschiedender CPUs anhand ihrer default-Taktung vorzunehmen, halte ich mehr oder weniger für praxisfern. Ich kenne zB. auch keinen einzigen Mobo-Hersteller, der nicht irgendeine Form von Auto-OC in sein BIOS intergriert hat. Welche Leistung man später von einer bestimmten CPU erwarten kann, hängt heute stärker denn je von der Umgebung ab in die sie eingebaut wird. Und noch mehr als der hardwareseitige Unterbau zählt die Software (wie oben schon von L.ED beschrieben). Man kann heute nicht davon ausgehen, daß ein Spiel welches nicht richtig rund läuft, auf besserer Hardware automatisch auch besser läuft.
Wenn ein Spiel heute auf einem Thuban spürbar schlechter läuft, als auf einem i5/i7, dann ist das für mich kein Argument als nächstes lieber einen intel zu kaufen. Das ist für mich dann eher ein Armutszeugnis, welches sich die Programmierer selbst ausgestellt haben. Ein Spiel welches auf einem modernen Quad oder HexaCore auch nur ansatzweise Probleme (zB. weniger FPS) erkennen läßt, die auf mangelhafte CPU(egal welcher Hersteller)-Leistung zurückgeführt werden können, würde ich in Grund und Boden testen: Grafik - hui! -> technische Umsetzung: mangelhaft. - Mal im Ernst: 6 Kerne @ +/- 3 GHz ....und dann soll man noch in ein CPU-Limit laufen? Das gibt es doch gar nicht - es sei denn die Software ist im wesentlichen immernoch singlethreaded und die weiteren Threads verursachen nur Fake-Last auf den übrigen Cores. :eek: - Aber wer würde denn sowas machen? Nun - da gibt es ja schon die ein oder andere Theorie....
Mich würde es zB. nicht überraschen, wenn ein Spiel (zB. Steamengine), welches auf einem Quad auf 4 Kernen ca. 70%-80% Last verbucht, ebenfalls 70%-80% Last erzeugt, wenn man 1 Core 'deaktiviert'. Und noch stärker nicht überrascht wäre ich, wenn dabei nicht ein einziger Frame mehr/weniger gerendert wird. Die Frage wo die 80% Last des deaktivierten vierten Cores samt HT-Bonus denn nun abgeblieben sind, würde ich dem Programmierer des Spiels dann aber schon stellen wollen. ;)
hq-hq
2010-08-04, 19:16:48
dieser schwachsinn mit selbstzündung von einer holzkonstruktion als luftkanal... jesus.
den pcgh artikel hab ich nie gelesen, aber ... gab es wirklich einen aus sperrholz ? LoL!
die balkendiagramme sind praktisch und man kann sie am leichtesten nachprüfen und
easy abschätzen wie sich oc auswirkt.
was wir uns natürlich alle wünschen sind superhochaufgelöste verlaufsdiagramme wo man
mit ein paar klicks die gewünschten grakas, cpus & systeme übereinanderlegen kann.
nochmal zum schwelbrand, sobald mein hölzl zu verpuffen beginnt kann ich euch ja benachrichtigen.:freak:
Botcrscher@work
2010-08-04, 20:25:12
X3 läuft selbst bei riesen Raumschlachten auf einem i7 normal und ohne Ruckler. X-3 TC von mir aus mit 10 - 20 Trägern + Kleinkram und dann in einen Xenon Secktor springen und Gas geben, 0 Prob. Ist das gross genug oder meinst Du noch noch mehr Action auf dem Schirm?
X³ hängt an der Wirtschaft. Bastel noch Fabriken und 3000 Frachter dazu und auch mit dem I7 ist Standbild.
Oder mal einen Komplex mit 300 Stationen versucht? Beim Anflug auf so ein Ding kommt Freud auf.
Twodee
2010-08-08, 09:26:54
Computerbase empfiehlt i5 760: http://www.computerbase.de/artikel/prozessoren/2010/test_intel_core_i5-760/36/#abschnitt_fazit_und_empfehlung
boxleitnerb
2010-08-08, 09:42:29
Es geschehen noch Zeichen und Wunder. Warum steigt die Leistungsaufnahme beim Übertakten so massiv? Über eine Spannungserhöhung wurde kein Wort verloren (ist aber wohl gegeben bei dem Takt).
Es geschehen noch Zeichen und Wunder.
Im zugehörigen Kommentarthread zeigt man sich aufgeschreckt und beschwört Bulldozer sowie "realitätsnahe Einstellungen". :D
Twodee
2010-08-08, 09:53:13
Holzhammermethode, einfach VCore richtig rauf, damit die angepeilten 4GHz in Prime durchlaufen. Ich gehe jede Wette ein das die keine Zeit hatten, für Spannungsoptimierte Einstellungen.
boxleitnerb
2010-08-08, 09:55:35
Mich hat es in den Fingern gejuckt, dort zu posten, aber das hat überhaupt keinen Sinn. Sehr "interessant" auch die Aussage, dass von 2,8GHz zu 4GHz keine Mehrperformance kommt...im GPU-Limit :eek:
Der einzige Vorteil des 1055T sind die 2 zusätzlichen Kerne, aber da er die höhere IPC damit erstmal ausgleichen muss, egalisiert sich das wieder fast. Durch die nicht perfekte Skalierung mit 6 Kernen dann komplett.
Twodee
2010-08-08, 10:03:20
Man muss aber auch zugeben, das der i5 760 in den dort gezeigten Anwendungen gegen einen X6 der gleichen Preisklasse keine Chance hat. Da reicht die IPC der Kernüberzahl nicht aus.
boxleitnerb
2010-08-08, 10:09:39
Die 5% im Anwendungsrating? Nicht wirklich viel. Kommt auf die Anwendung an. Mal ist der eine vorne, mal der andere. Dafür, dass der i5 kein HT und 2 Kerne weniger hat, ist das sehr ordentlich!
Wenn man die Entschleunigung der Multicoreoptimierung bei Spielen betrachtet, kann man rein aus P/L-Sicht (ohne Drumherum) ohne Gewissensbisse den 760 über den kleinen X6 empfehlen.
][immy
2010-08-08, 10:18:10
Computerbase empfiehlt i5 760: http://www.computerbase.de/artikel/prozessoren/2010/test_intel_core_i5-760/36/#abschnitt_fazit_und_empfehlung
also abgesehen von i5/7 kann ich mir grad in den review nicht vorstellen, das ein gleichgetaktteter Phenom II mit nem core 2 quad mithalten könnte. es sind gerade mal 1-2% unterschied zugunsten des c2q. ich kann mir nicht wirklich vorstellen das der c2q plötzlich langsamer geworden ist. ebenfalls nicht das der p2 so sehr an performance in den letzten monaten zugelegt hat.
Twodee
2010-08-08, 10:23:59
Die 5% im Anwendungsrating? Nicht wirklich viel. Kommt auf die Anwendung an. Mal ist der eine vorne, mal der andere. Dafür, dass der i5 kein HT und 2 Kerne weniger hat, ist das sehr ordentlich!
Wenn man die Entschleunigung der Multicoreoptimierung bei Spielen betrachtet, kann man rein aus P/L-Sicht (ohne Drumherum) ohne Gewissensbisse den 760 über den kleinen X6 empfehlen.
Ich hab damit nicht das Rating gemeint, sondern die Werte der jeweiligen Anwendungen. z.B Autodesk, da ist der i5 ~20% lagsamer, Java VM ~15%, und von TrueCrypt wollen wir mal garnicht reden :). Bei den restlichen Anwendungen sind es nur wenige Prozentpunkte wo der X6 schneller ist, bzw. einer wo er langsamer ist. Das am Ende nur 5% im Gesamt resultieren, überrascht micht ein wenig.
boxleitnerb
2010-08-08, 10:29:05
Werden die einzelnen Anwendungen unterschiedlich gewichtet? Wie das Rating zustandekommt, sollte im Test vielleicht auch erklärt werden. Zur Testmethodik gibt es leider vergleichsweise wenig Informationen.
Twodee
2010-08-08, 10:33:29
Gute Frage, kannst du ja Volker auch noch stellen bzw. deinen Kommentar dort komplettieren ;)
Undertaker
2010-08-08, 10:37:02
Nunja, die 28% bei WinRAR und die 18% bei Lame reißen sicher einiges heraus... Kann doch mal jemand nachrechnen, ob das Rating bei gleicher Gewichtung hinkommt oder nicht.
Twodee
2010-08-08, 10:49:15
Ausgehend von i5 760
Autodesk: ~17%
Lame: ~ -18%
MainConcept: ~2%
Paint.Net: ~7%
SPECjvm2008: ~18%
TrueCrypt: ~71%
WinRar: ~ -28%
PC Mark Vantage: ~-4%
Mittelwert: ~ 8,1%
wie kommen die auf 5%?
Computerbase empfiehlt i5 760: http://www.computerbase.de/artikel/prozessoren/2010/test_intel_core_i5-760/36/#abschnitt_fazit_und_empfehlung
Ich finde es sehr schade das CB noch immer nicht kapiert hat das die Phenom x6 bei Dirt2 einem Spielebug aufsitzen. Mit aktuellem Patch würde auch das Rating wesentlich freundlicher aussehen.
Ich finde es sehr schade das CB noch immer nicht kapiert hat das die Phenom x6 bei Dirt2 einem Spielebug aufsitzen. Mit aktuellem Patch würde auch das Rating wesentlich freundlicher aussehen.
Ja, ein solches Ergebnis einfach unkommentiert stehen zu lassen ist schon sehr schwach und einer Seite wie CB eigentlich unwürdig.
Undertaker
2010-08-08, 11:06:09
Hmm, das ist wahr. Zumindest sollte man bei den X6 Dirt so lange aus der Wertung nehmen.
Twodee
2010-08-08, 11:12:26
Außerdem frage ich mich, wie lange Computerbase noch den alten Cinebench R10 verwenden möchte. Es gibt doch schon längst eine aktuellere Version, welche nicht mehr so sehr Intellastig ist. Gleiches bei WinRar und 7z.
Hmm, das ist wahr. Zumindest sollte man bei den X6 Dirt so lange aus der Wertung nehmen.
Gerade wo Dirt2 den x6 eigentlich ausgezeichnet liegt. Da würden aus den aktuell 40% zu einem i5 760 schätzungsweise noch 15-20% im Spielerating über bleiben und damit auch das Endergebnis wesentlich freundlicher aussehen für den AMD:
http://www.abload.de/img/dirt2dvgj.png
http://www.xbitlabs.com/articles/cpu/display/phenom-ii-x6-1090t_6.html#sect0
boxleitnerb
2010-08-08, 11:20:09
Ein CPU-Test mit Medium Quality ist auch sehr suboptimal, weil durch gewisse Optionen auch die CPU-Last sinkt.
Ein CPU-Test mit Medium Quality ist auch sehr suboptimal, weil durch gewisse Optionen auch die CPU-Last sinkt.
Es gibt viele Beispiele dafür, auch mit HQ:
http://www.overclock3d.net/reviews/cpu_mainboard/amd_1090t_six_core_review/6
http://www.techpowerup.com/reviews/AMD/Phenom_II_X6_1055T/10.html
Ich weiß zwar nicht warum, aber Dirt2 scheint den AMD-Chips einfach entgegen zu kommen. Es sei denn man verwendet eine Urlatversion wie CB.
Mich hat es in den Fingern gejuckt, dort zu posten, aber das hat überhaupt keinen Sinn. Sehr "interessant" auch die Aussage, dass von 2,8GHz zu 4GHz keine Mehrperformance kommt...im GPU-Limit :eek:
Da testen die Jungs Call of Duty: Modern Warfare 2, heraus kommen weit jenseits der 100 FPS.
Ja das ist wirklich unnötig. :lol:
Wie lange will CB seine Leser noch mit solchem Müll verschauckeln?
Unübertaktet ist er mit Turbo schneller als übertaktet ohne Turbo. D.h. im CB Universum ist ein 3,57Ghz i5 bis zu 1% schneller als ein 4Ghz i5.
Je ne ist klar. :ugly:
boxleitnerb
2010-08-08, 11:31:24
Was dort imo falsch läuft:
- Spieletests im CPU-Limit
- Turbo (nicht vergleichbar, nicht reproduzierbar, keine Angaben über aktuelle Taktrate)
- Performance/Leistungsrating mit Gesamtsystem. Da ist nicht nur der Plattformunterschied mit drin, sondern auch keine Vergleichbarkeit mit anderen Tests (Grafikkarte!). Das gehört nur auf die CPU bezogen.
Es gibt viele Beispiele dafür, auch mit HQ:
http://www.overclock3d.net/reviews/cpu_mainboard/amd_1090t_six_core_review/6
http://www.techpowerup.com/reviews/AMD/Phenom_II_X6_1055T/10.html
Leider alles ziemlich GPU limitiert.
Bei overclock3d ist ein 4,1Ghz X6 schneller als ein 3,2Ghz X6. Das selbe Phänomen wie bei CB. :lol:
Bei overclock3d ist ein 4,1Ghz X6 schneller als ein 3,2Ghz X6. Das selbe Phänomen wie bei CB. :lol:
Hm? Sollte das nicht normal sein?
Bei overclock3d ist ein 4,1Ghz X6 schneller als ein 3,2Ghz X6. Das selbe Phänomen wie bei CB. :lol:
Ich meine anders rum. :(
4,1Ghz X6 langsamer als ein 3,2Ghz X6.
Undertaker
2010-08-08, 11:52:43
Gerade wo Dirt2 den x6 eigentlich ausgezeichnet liegt. Da würden aus den aktuell 40% zu einem i5 760 schätzungsweise noch 15-20% im Spielerating über bleiben und damit auch das Endergebnis wesentlich freundlicher aussehen für den AMD:
http://www.abload.de/img/dirt2dvgj.png
http://www.xbitlabs.com/articles/cpu/display/phenom-ii-x6-1090t_6.html#sect0
Die Messung sieht genauso sinnlos aus. Die i5/i7 liegen alle auf einem Level im GPU-Limit - bis auf den i7 980X. Sehr logisch. :freak: Die einzige zumindest in sich selbst stimmige Messung ohne GPU-Limit habe ich bei Golem gefunden:
http://www.golem.de/1004/74709-8.html
Wobei, auch hier ist der Abstand zwischen i5 750 und i7 870 eigentlich zu klein. Irgendwie hat noch keine Seite hier wirklich logische Ergebnisse liefern können...
Die Messung sieht genauso sinnlos aus. Die i5/i7 liegen alle auf einem Level im GPU-Limit - bis auf den i7 980X. Sehr logisch. :freak:
Was ist denn da bitte nicht stimmig? Dirt2 profitiert eben von den sechs Kernen, sieht man ja auch an AMD. HT ist da nur selten eine Alternative, da die Ressourcen eben geshared werden.
Undertaker
2010-08-08, 12:04:34
Wenn Dirt 2 von 6 Kernen profitiert, dann auch logischerweise auch von 4 Kernen. Wie ein i5 670 (Dualcore+SMT) da gleichauf mit einem fast taktgleichen i7 860 oder i7 930 liegen soll, ist wohl kaum erklärbar.
boxleitnerb
2010-08-08, 12:09:23
Nun muss man aber fairerweise fragen:
Was kann ein Bencher, der sowas reproduzierbar rausbekommt, denn tun? Wie soll man rausfinden, wo das Problem liegt und wie kann man es lösen?
Wenn man sein Fach nicht kann dann soll mans lassen.
Wenn die Tester es besser könnten, dann machen sie aus Zeitgründen. Dem Leser wirft man stattdessen Müll hin, damit ist die Mehrheit glücklich.
Schlimm für die Tester, die ordentliche Qualität liefern würden, aber aus dem Konkurrenzdruck zum selben Müll gezwungen werden.
CB sehe ich eindeutig in der Täterrolle, sie schwimmen vorne mit wenns darum geht Müll zu verbreiten.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.