Archiv verlassen und diese Seite im Standarddesign anzeigen : E6750 vs. I5-750
Matrix316
2010-09-22, 17:04:08
[...]
Nochmal an alle: ich verstehe den Grund, weshalb man so bencht, um CPU/Graka Limits auszuschließen, aber ich weiß dann nur, dass z.B. ein i7 mehr Potential als ein Phenom II hat, aber wie sich das dann im Spiel unter "meinen" Bedingungen auswirkt erfahre ich nicht. Diese 800x600 Benchmarks sind ja vielleicht ein netter "was wäre wenn" Anzeiger, mehr aber auch nicht.
Die meisten Seiten und Magazine benchen ja nicht NUR in 800x600 sondern halt auch in 1920x1200 mit AA und so. Und die guten Seiten nehmen dafür auch beim CPU Test eine Grafikkarte die eben nicht bremst. Und die besseren nehmen sogar beim CPU Test mehrere Grafikkarten. Das eigentliche Problem ist nur, erstmal so einen Test zu finden. :) Die PCGH bietet oft skalierungstests an, ich meine Anandtech auch, oder Tomshardware, manchmal auch HardOCP oder Guru3D oder vielleicht auch FiringSquad etc.
Der gamestar test bringt es auf den Punkt!
Der balken geht gar nicht hoch und bleibt mit allen Grafikkarten gleich, Todesstoss
So ein alter q6600 bringt aber auch nicht viel mehr in 1920 x 1080
http://images.idgentertainment.de/images/idgwpgsgp/bdb/2123136/482x0.jpg
http://images.idgentertainment.de/images/idgwpgsgp/bdb/2123137/482x0.jpg
LINK http://www.gamestar.de/hardware/schwerpunkte/2316916/welche_cpu_zu_welcher_grafikkarte_p2.html
boxleitnerb
2010-09-22, 17:05:16
Logischerweise gucke ich mir hauptäschlich Benches an, die meinen Anforderungen entsprechen in Bezug auf Auflösung, AA/AF und evtl. bestimmte Genres. Bei Strategiespielen spielt die CPU oftmals eine stärkere Rolle als die Graka.
@dargo@work: es geht nicht darum, dass man genau sieht wie die fps beim Spielverlauf sind, sondern darum eine Richtlinie für die eigenen Anforderungen zu haben, s.o. und die habe ich persönlich nunmal nicht in niedrigen Auflösungen.
Nochmal an alle: ich verstehe den Grund, weshalb man so bencht, um CPU/Graka Limits auszuschließen, aber ich weiß dann nur, dass z.B. ein i7 mehr Potential als ein Phenom II hat, aber wie sich das dann im Spiel unter "meinen" Bedingungen auswirkt erfahre ich nicht. Diese 800x600 Benchmarks sind ja vielleicht ein netter "was wäre wenn" Anzeiger, mehr aber auch nicht.
Die Benchmarks bei hoher GPU-Last sind jedenfalls auch nicht etwas, das dich bzgl. der Wahl der CPU weiterbringt.
Warum ignorierst du eigentlich das, was hier geschrieben wird? Die Ergebnisse der 800x600 Benches sind nicht abseits der Realität. Sie sind vielleicht nicht perfekt übertragbar auf den Alltag und erfordern einiges Nachdenken, damit man mit ihnen was anfangen kann, aber so nutzlos wie du sie hier darstellst, bestimmt nicht! Troll?
Matrix316
2010-09-22, 17:09:19
Der gamestar test bringt es auf den Punkt!
Der balken geht gar nicht hoch und bleibt mit allen Grafikkarten gleich, Todesstoss
So ein alter q6600 bringt aber auch nicht viel mehr in 1920 x 1080
[...]
Lustig sind dagegen die Werte hier mit einer 5870
http://www.pcgameshardware.de/aid,697048/Radeon-HD-5870-im-Test-CPU-Skalierung-mit-6-CPUs-in-WoW-Risen-Anno-1404-FC2-und-Crysis-Warhead/Grafikkarte/Test/
Der gamestar test bringt es auf den Punkt!
Der balken geht gar nicht hoch und bleibt mit allen Grafikkarten gleich, Todesstoss
So ein alter q6600 bringt aber auch nicht viel mehr in 1920 x 1080
http://images.idgentertainment.de/images/idgwpgsgp/bdb/2123136/482x0.jpg
http://images.idgentertainment.de/images/idgwpgsgp/bdb/2123137/482x0.jpg
LINK http://www.gamestar.de/hardware/schwerpunkte/2316916/welche_cpu_zu_welcher_grafikkarte_p2.html
Stimmt, Q6600 bringt wirklich keine leistunggsteigerung obwohl es sich hierbei um einen Quad handelt
http://www.computerbase.de/artikel/prozessoren/2010/test-intel-core-i5-760/23/#abschnitt_anno_1404
Matrix316
2010-09-22, 17:34:07
Mit Turbo ist ein i5 750 bei den Tests schon locker 50% schneller als ein Q6600. Allerdings ist der Q6600 halt auch eher schwach ausgerüstet was Cache betrifft, im Vergleich zu den neueren Core 2 Quads.
iDiot
2010-09-22, 17:57:48
Also der alte Q6600 schneidet für nur 2,4Ghz verdammt gut ab, der einzige Dual Core der besser ist im Anno Benchmark ist ein 3 und 3,33Ghz. Übertaktet auf 3Ghz oder ein bisschen mehr (wie bei den meisten) liefert er noch spielbare Ergebnisse, während die Dual Cores gänzlich einbrechen.
dargo@work
2010-09-22, 18:09:17
@dargo@work: es geht nicht darum, dass man genau sieht wie die fps beim Spielverlauf sind, sondern darum eine Richtlinie für die eigenen Anforderungen zu haben, s.o. und die habe ich persönlich nunmal nicht in niedrigen Auflösungen.
Wie oft muss ich das eigentlich noch erwähnen? Es gab nie und es wird auch nie eine Richtlinie geben. Eine Richtlinie querbeet durch alle Games, zig verschiedene Konstellationen an Hardware und Spielsettings zu finden ist nahezu unmöglich.
Und nochwas - wenn du glaubst CPU-Limits würden nur in niedrigen Auflösungen auftreten dann irrst du dich gewaltig.
y33H@
2010-09-22, 19:20:31
SC2 ist selbst in 2560 noch CPU-limitiert, sofern man nicht gerade eine HD3870 nutzt.
Der gamestar test bringt es auf den Punkt!
Der balken geht gar nicht hoch und bleibt mit allen Grafikkarten gleich, Todesstoss
So ein alter q6600 bringt aber auch nicht viel mehr in 1920 x 1080
LINK http://www.gamestar.de/hardware/schwerpunkte/2316916/welche_cpu_zu_welcher_grafikkarte_p2.html
Da fehlt leider eine C2D E-Serie mit mehr als 3,5GHz um einen nicht unerheblichen Anteil an Spieler CPUs zu zeigen. So gut wie jeder C2D rennt mit über 3,2GHz, speziell die 8000er sind selbst mit Luftkühlung sehr hoch mit den Taktraten.
Spasstiger
2010-09-22, 22:40:17
Ich kenne persönlich Niemanden, der einen Core 2 (egal ob Duo oder Quad) mit mehr als 3,2 GHz betriebt. Ich kenne nur Jemanden mit einem Core i7 @ 4,0 GHz @ Wakü.
RoNsOn Xs
2010-09-22, 22:57:12
Ich kenne persönlich Niemanden, der einen Core 2 (egal ob Duo oder Quad) mit mehr als 3,2 GHz betriebt.
scherz? davon sollte es wirklich einige geben, inklusive mir (e6750 3,32ghz mit default vcore). wenn ich möchte auch mit 3,8ghz und lukü.
Ich kenne persönlich Niemanden, der einen Core 2 (egal ob Duo oder Quad) mit mehr als 3,2 GHz betriebt. Ich kenne nur Jemanden mit einem Core i7 @ 4,0 GHz @ Wakü.
hier gab es doch mal ne Zeit wo Sauviele mit den E8XXX Prozessoren rumgelaufen sind, meiner läuft auf 4Ghz mit nem 10€-Kühler
bringt bei der schwachen Grafikkarte nur nicht viel, außer vielleicht in CS:S
Iceman346
2010-09-22, 23:08:52
Ich kenne persönlich Niemanden, der einen Core 2 (egal ob Duo oder Quad) mit mehr als 3,2 GHz betriebt. Ich kenne nur Jemanden mit einem Core i7 @ 4,0 GHz @ Wakü.
Siehe Signatur ;)
Der würd wahrscheinlich auch höher gehen, aber 3,6 GHz macht er ohne Spannungsänderung und es passt genau mit dem Ram (400 MHz FSB) und ich hab kein Nerv da ewig rumzutesten.
Mr.Fency Pants
2010-09-22, 23:09:26
Die Benchmarks bei hoher GPU-Last sind jedenfalls auch nicht etwas, das dich bzgl. der Wahl der CPU weiterbringt.
Warum ignorierst du eigentlich das, was hier geschrieben wird? Die Ergebnisse der 800x600 Benches sind nicht abseits der Realität. Sie sind vielleicht nicht perfekt übertragbar auf den Alltag und erfordern einiges Nachdenken, damit man mit ihnen was anfangen kann, aber so nutzlos wie du sie hier darstellst, bestimmt nicht! Troll?
Ich nehme mir einfach mal raus, die für mich wichtigen Benchmarks als Grundlage für eine Kaufentscheidung, die 800x600 Benchmarks evtl. als Tendenz, mehr aber nicht, was verstehst du daran nicht? Ich weiß auch, dass es nicht den einen Benchmark gibt, der alles Wichtige offenbart. Ansonsten lies mal bitte meine anderen Posts aufmerksam, dann merkst du, dass ich weiß, was hinter den Benchmarks steckt, welche versuchen das CPU oder GPU Limit aufzuheben, aber eigene Schlüsse wird man ja wohl noch daraus ziehen dürfen, oder? ;)
DrFreaK666
2010-09-23, 00:07:24
Also ich muss auch sagen, dass ich 800x600-Benchmarks unsinnig finde. Glaube mal vor einigen Monaten einen Thread eröffnet zu haben...
Natürlich sieht man dann welche CPU am potentesten ist.
Aber was bringt mir das als Spieler wenn ich in 1680x1050 mit 4xSGSSAA spiele?
Das bringt mir überhaupt nichts.
Ich weiss dann nur welche CPU vor 12 Jahren am geeignetsten wäre :up:
Wenn man Spiele-hardware testet, dann in spielenahen Einstellungen.
Am besten noch mit verschiedenen Grafikkarten.
Ist zwar ne Riesenarbeit, aber dann hat man als Spieler am meisten was davon.
Sonst kann man die Benchmarks gleich lassen und es bei einem Fazit belassen
edit: Dass es raff und Marc anders sehen wundert mich nicht. Schliesslich bedeutet es mehr Arbeit für sie ;-)
Sentionline
2010-09-23, 00:43:21
Anstelle des sehr schwachbrünstigen Prozessors würde ich aber wohl eher einen kleinen AMD Quadcore oder Tripelcore Phenom, 4 GB Ram und eine Radeon 5770 nehmen. Das wäre das insgesamt deutlich rundere System.
1. Du und viele andere schnallen es nicht und werden es wahrscheinlich niemals. Es gibt kein CPU Limit in Spielen. Gab es gestern nicht, gibt es heute auch nicht. Villeicht in schlecht gemachten Browsergames, grottigen Portierungen oder inkompetenten Entwickler der ein Beta Spiel hinstellt.
2. Kein Spiel braucht in 1280x1024 ohne Texturmods 2GB System RAM unter XP. Das kannst du knicken. Das einzige Spiel das ich kenne das auf über 2GB Verbrach schiesst ist AvPIII, wenn man die Texturen auf High stellt (2,2GB Systemlast). Man kann es aber auf Normal stellen und hat nur 1,8GB Systemlast, zumal es sich nicht 1Gramm optisch unterscheidet. Das geht alles richtung "Wayne Argumente". Natürlich kannst du den Virenscanner starten, ein Video encoden, 40 Browsertabs öffnen, eine CD Brennen und von der TV Karte Aufnehmen. Dann kannst du mir sagen das man in Win7 x64 von mehr Speicher profitiert; Das alles hat nix mit "Gaming" zu tun. Das ist Kindergarten.
3. Du wirst mir wahrscheinlich nichtmal 5 Spiele nennen können, wo mit einem Athlon II X2 240@2,8Ghz (DualCore) die Framezahlen pro Sekunde so stark sinken, das es unter die 30 fps Marke (1280x1024) fällt und dort ein Quad die Anzahl der Frames auf ~50fps steigert. Gleiches gillt für die SLI-Lösung, die du hier demonisierst. Du wirst keine 2 Spiele nennen die mit dem Athlon II X2@2,8Ghz und der SLI Kombo Probleme haben und die Frames in 1280x1024 auf unter 60 fps fällt. Kommt mal in der Realität an. Mikrorucker kennt mein Freund nicht, ich auch nicht. Nie gesehn, weil die beiden GTS fast immer am Limit Frames raushauen (ausser in C&C 3, da klebt es bei 30fps). Lass dir was anderes einfallen, das du nicht in der Presse aufgegabelt hast.
4. Mit meinem 4 Jahre alten Athlon X2 5000+ (mittlerweile in Rente und verschenkt) hab ich bis vor einer Woche immernoch so Sachen wie Shift, Dead Space, Grid, Dirt und Crysis, CoD 4 gespielt. Und das immer mit 4xAA/16xAF in 1280x720 mit der HD4850. Unglaublich ne? Wie hab ich das bloss ausgehalten mit den 5 fps die Sekunde?
Wieviel Grafikleistung ein Spiel benötigt lässt sich deutlich besser regeln als der Bedarf an CPU-Leistung.
Und welches Spiel soll ich bei Ihm testen? Du hast einen Wunsch frei. Ich geh dann morgen rüber, zieh mir eine Demo deines Wunschtitels und nehme das per Camera auf was Fraps da so anzeigt. Du darfst auch mehrere Titel dir wünschen. Ich benche dann aber nur in 1280x1024 mit 4xAA. :wink:
Ich weiß die Preise von vor einem Jahr nicht.
Du bist "Experte" für CPU Limit ermittlung, aber zu beschränkt um die Geizhals Preisverläufe zu ermitteln? Willst du mich aufm Arm nehmen?
Anstelle des sehr schwachbrünstigen Prozessors würde ich aber wohl eher einen kleinen AMD Quadcore oder Tripelcore Phenom, 4 GB Ram und eine Radeon 5770 nehmen. Das wäre das insgesamt deutlich rundere System.
Und damit kommst du länger als ich mit der SLI Lösung hin? Aha. Wüsste zu gerne wie du damit 3 Jahre hinkommst, wenn die SLI Lösung heute noch 40% schneller ist. Die HD5770 darfst du nicht einbeziehen, weils die vor einem Jahr nicht gab. Und was dein CPU Limit angeht; Die ist in 2 Jahren genauso inexistent wie dein bezug zur Spielepraxis.
Schrotti
2010-09-23, 00:43:46
Also ich muss auch sagen, dass ich 800x600-Benchmarks unsinnig finde. Glaube mal vor einigen Monaten einen Thread eröffnet zu haben...
Natürlich sieht man dann welche CPU am potentesten ist.
Aber was bringt mir das als Spieler wenn ich in 1680x1050 mit 4xSGSSAA spiele?
Das bringt mir überhaupt nichts.
Ich weiss dann nur welche CPU vor 12 Jahren am geeignetsten wäre :up:
Wenn man Spiele-hardware testet, dann in spielenahen Einstellungen.
Am besten noch mit verschiedenen Grafikkarten.
Ist zwar ne Riesenarbeit, aber dann hat man als Spieler am meisten was davon.
Sonst kann man die Benchmarks gleich lassen und es bei einem Fazit belassen
edit: Dass es raff und Marc anders sehen wundert mich nicht. Schliesslich bedeutet es mehr Arbeit für sie ;-)
Du hast nicht begriffen worum es geht (wie Sentionline).
Ich habe auch keine Lust mehr das immer und immer wieder erklären zu müssen.
Behaltet halt eure Dualcores und werdet Glücklich.
PS: Vielleicht mach ich ja einfach mal nen Test von einem aktuellen Game und simuliere alles von einem Single/Dual/Trible/Quadcore mit 2GHz (1680x1050, GTX 480@900/2000).
Die 30% kommen dann im Alltagsbetrieb an, wenn die Grafikkarte keine Rolle spielt. Sprich, du eine möglichst schnelle Grafikkarte hast oder Anwendungen wo es nur auf die CPU Leistung ankommt.Bist du dir da so sicher, daß wenn eine CPU unter Anno in 800x600 30% mehr fps bringt, das auch unter Photoshop und 7-zip 30% ausmacht? Du findest das jetzt wirklich nicht kindisch?
Man soll ja möglichst versuchen CPU und Grafikkarte in Einklang zu halten.Na klar. Wenn man 10 Test liest wo alle möglichen CPUs mit einer 480 getestet wurden und 10 Test wo alle möglichen Grakas mit dem i7 980 getestet wurden, dann kann man sofort 5 passende CPU/Graka Pärchen zusammenstellen. Du träumst.
Bei einem CPU Test will ich doch wissen, welche CPU schneller ist.Dafür nimmt man Winrar, Lame, Gimp und sonstwas, aber kein Anno in 800x600. Das hat sonst nicht mehr Aussagekraft wie der CPU-Test von Sandra und ist daher völlig behämmert.
Ich kenne persönlich Niemanden, der einen Core 2 (egal ob Duo oder Quad) mit mehr als 3,2 GHz betriebt.Schon eigenartig. Ich kenne mehr Leute die einen E8400, E8500 und E8600 nah 4 Ghz fahren als ich sonst irgendwelche Leute wegen Komputer kenne :ulol:
Sentionline
2010-09-23, 01:00:18
Die 30% kommen dann im Alltagsbetrieb an, wenn die Grafikkarte keine Rolle spielt.
Tetris? :freak:
Wie oft muss ich das eigentlich noch erwähnen? Es gab nie und es wird auch nie eine Richtlinie geben. Eine Richtlinie querbeet durch alle Games, zig verschiedene Konstellationen an Hardware und Spielsettings zu finden ist nahezu unmöglich.Das verhindert aber nicht nur den einen Test der die meisten Fragen klärt, sondern es verhindert aus exakt gleichen Gründen aus vielen verschiedenen Tests relativ schnell schlau zu werden.
D.h. man verbringt vor dem Kauf entweder 2 Wochen lang jede freie Minute im Netz für Beratung konsumieren und Recherche oder man macht es wie Tombman.
Ganz toll, dieses Tests. Danach taucht man hier in der Hardwareecke und macht Heulthreads auf, weil laut/heiß/buggy, Spawas platzen, Netzteil spinnt oder BGMSAAMSBDSM sich in Dirt2 nicht einstellen läßt. Technologie für die Massen :ulol:
Und da wundern sich immernoch welche, daß die Leute plötzlich den Rechner aus der Steckdose ziehen und nach MM gehen eine PS3 zu holen.
PS: Vielleicht mach ich ja einfach mal nen Test von einem aktuellen Game und simuliere alles von einem Single/Dual/Trible/Quadcore mit 2GHz (1680x1050, GTX 480@900/2000).Ja das wäre echt mal was. Daraus könntest du auch mal paar nützliche Beiträge basteln.
SC2 ist selbst in 2560 noch CPU-limitiert, sofern man nicht gerade eine HD3870 nutzt.Warum kostet AA dann soviel Leistung? Es ist ja nicht nur mit ATI so.
blackbox
2010-09-23, 01:27:34
Lustig sind dagegen die Werte hier mit einer 5870
http://www.pcgameshardware.de/aid,697048/Radeon-HD-5870-im-Test-CPU-Skalierung-mit-6-CPUs-in-WoW-Risen-Anno-1404-FC2-und-Crysis-Warhead/Grafikkarte/Test/
Lustig finde ich, dass man die Werte der CPUs mit einem Strich verbunden hat, obwohl es da gar keinen Zusammenhang gibt. Schon gar keinen linearen.
Die Jungs von PCGH sollten hier noch mal nachsitzen und lernen, wie man ein Diagramm richtig erstellt und richtig interpretiert.
Zum Thema:
Man kann nicht anhand von 5 Spielen beurteilen, inwieweit die CPUs allgemein performen.
Als allererstes müsste man eine repräsentative Liste von Spielen erstellen. Und zwar zeitlich als auch was die Unterstützung von Multi-Core-CPUs angeht. Natürlich in Relation zu ihrem Aufkommen.
Und erst dann kann man eine Tendenz erkennen. Was man aber nicht kann, ist eine absolute Aussage treffen, denn das halte ich für nicht zweckmäßig.
(del)
2010-09-23, 01:33:54
Lustig finde ich, dass man die Werte der CPUs mit einem Strich verbunden hat, obwohl es da gar keinen Zusammenhang gibt.Der Zusammenhang hier gilt der Auflösung und nicht EINER Cpu.
Die Jungs von PCGH sollten hier noch mal nachsitzen und lernenSchon klar...
Hej war nett mit euch :D Der 5870-Link rockt irgendwie endgültig :smile:
Ab jetzt wirds langsam langweilig. Bis zum nächsten Mal ;)
Schrotti
2010-09-23, 02:20:17
1. Du und viele andere schnallen es nicht und werden es wahrscheinlich niemals. Es gibt kein CPU Limit in Spielen. Gab es gestern nicht, gibt es heute auch nicht. Villeicht in schlecht gemachten Browsergames, grottigen Portierungen oder inkompetenten Entwickler der ein Beta Spiel hinstellt.
Ich bin echt begeistert ob dieser Aussage. Herrlich, ich geh pennen.
1. Du und viele andere schnallen es nicht und werden es wahrscheinlich niemals. Es gibt kein CPU Limit in Spielen. Gab es gestern nicht, gibt es heute auch nicht. Villeicht in schlecht gemachten Browsergames, grottigen Portierungen oder inkompetenten Entwickler der ein Beta Spiel hinstellt.
Wenn du dich schon im 3DCenter bewegst, lies auch mal die 3DCenter-Reviews: *klick* (http://www.3dcenter.org/artikel/intel-core-i5-750-lynnfield-review/benchmarks-far-cry-2), und lies, wieso sogar das 2 Jahre alte Far Cry 2 von 4 Kernen profitiert, bei 1680 x 1050 und 4x AA auf "Ultra High Quality"-Details.
Deine Ignoranz in diesem Thread ist eine absolute Frechheit. Du behauptest vehement unsinnige Dinge, auf einem Gebiet, auf dem du dich offensichtlich überhaupt nicht auskennst. Dein Thread vom Mai belegt das eindeutig.
Was i5 und i7 in Far Cry 2 fabrizieren ist aber auch nicht so das gelbe vom E,i da muss man den Dual schon ein bisschen in schutz nehmen.
Der kleine E7300 versagt zwar aber der grosse Bruder verrichtet seine Arbeit relativ gut
Die Aktion szene zu benchen ist unfug, da bringt auch der 10000x durchlauf kein gescheiterten resultate da die szene immer komplett anders verläuft.
Stark abweichende Werte nach jedem Bench, da kann man sich nicht einfach was zusammenschustern.
Die Ranch szene läuft dagegen immer identisch ab, somit ist diese szenarie deutlich aussagekräftiger
http://images.hardwarecanucks.com/image/mac/reviews/intel/lynnfield/corei5_corei7_72.jpg
Der kleine E7300 versagt zwar aber der grosse Bruder verrichtet seine Arbeit relativ gut
Die Aktion szene zu benchen ist unfug, da bringt auch der 10000x durchlauf kein gescheiterten resultate da die szene immer komplett anders verläuft.
Stark abweichende Werte nach jedem Bench, da kann man sich nicht einfach was zusammenschustern.
Die Ranch szene läuft dagegen immer identisch ab, somit ist diese szenarie deutlich aussagekräftiger
http://images.hardwarecanucks.com/image/mac/reviews/intel/lynnfield/corei5_corei7_72.jpg
Deswegen wurden auch aus Spaß 15 Werte pro CPU aufgenommen und gemittelt, sodass am Ende rein zufällig i5-750 und i7-920 @ 2,66 GHz mit 0,4 FPS Unterschied gleichschnell waren, wie man's auch theoretisch erwarten würde. Weil Leo und TechNickel zu blöd zum Benchen sind und eine Varianz von 50 FPS auftrat. :ulol: :ulol2: :ulol3:
boxleitnerb
2010-09-23, 05:46:32
Hatte wohl Recht mit lernresistent bzgl. Sentionline. So oberdreist zu lügen ohne mit der Wimper zu zucken, das ist schon ne Hausnummer.
Na dann lass deinen Kumpel mal Gothic II, Rome Total War, Star Craft II, BFBC2 und einige andere modernere Titel spielen. 30 fps, immer? Guter Witz!
Wie erklärst du dir - wenn du behauptest, es gäbe kein CPU-Limit - dass es überhaupt einen Performanceunterschied bei Prozessoren gibt??? Und das nicht nur zwischen einem i7 980x und einer Celeron Gurke, sondern oft schön prozentual gestaffelt nach Leistung...richtig, gar nicht. Du liegst so weit daneben, das ist ja nicht mehr feierlich.
Und an den einen Gast mit winzip: Es geht hier um SPIELE. Benchmarks, die in SPIELEN ermittelt wurden, gelten nur für SPIELE. Troll.
DrFreaK666
2010-09-23, 05:47:36
Du hast nicht begriffen worum es geht (wie Sentionline).
Ich habe auch keine Lust mehr das immer und immer wieder erklären zu müssen.
Behaltet halt eure Dualcores und werdet Glücklich.
PS: Vielleicht mach ich ja einfach mal nen Test von einem aktuellen Game und simuliere alles von einem Single/Dual/Trible/Quadcore mit 2GHz (1680x1050, GTX 480@900/2000).
Ja hast dich bisher immer und immer wieder wiederholt???
Meinst du das hier?
Und hätte ich genug Geld dann hätte ich 6 Kerne ;)
Da sieht man das du keine Ahnung hat.
Man bencht nicht im GPU Limit wie Computerbase. Die kleine Auflösung ist dazu da um zu zeigen wie stark ein Spiel von mehreren Kernen profitiert.
Wenn eine benchszene je nach lust und laune varriert und sich ständig
Kameraeinstellungen, perspektiven usw. ändern gehört sowas schlicht und einfach nicht gebencht.
Ich hatte nach dem 2 durchgang neun Frames mehr als beim ersten, mehr ist zu dem thema so denke ich nicht zu sagen.
Ich hätte es wahrscheinlich 50x mal probieren sollen, wer weiss vielleicht würde ich den rekord aus runde 12 knacken. lol
Wenn eine benchszene je nach lust und laune varriert und sich ständig
Kameraeinstellungen, perspektiven usw. ändern gehört sowas schlicht und einfach nicht gebencht.
Ich hatte nach dem 2 durchgang neun Frames mehr als beim ersten, mehr ist zu dem thema so denke ich nicht zu sagen.
Ich hätte es wahrscheinlich 50x mal probieren sollen, wer weiss vielleicht würde ich den rekord aus runde 12 knacken. lol
Du liegst falsch. Warum, fragst du besser TechNickel. :)
Ich kenne den Benchmark nur zu gut, also erzähle mir nichts.
Der fehler sei euch verziehen 3Dcenter
Sentionline
2010-09-23, 08:31:05
Na dann lass deinen Kumpel mal Gothic II, Rome Total War, Star Craft II, BFBC2 und einige andere modernere Titel spielen. 30 fps, immer? Guter Witz!
Rome hat er durch, Total War Alexander auch. Napoleon stand da auch, ich glaube das braucht auch einiges an rechner. Wenn du nie an so einem Rechner gestanden hast, wieso schreibst du du hättest Erfahrung mit sowas? Hast du nicht, vertrau mir. Und die Spiele werden gekauft, wachsen nicht aufm Baum, wat meinst du warum der Rechner günstig sein sollte? Denk denk...
Wie erklärst du dir - wenn du behauptest, es gäbe kein CPU-Limit - dass es überhaupt einen Performanceunterschied bei Prozessoren gibt??? Und das nicht nur zwischen einem i7 980x und einer Celeron Gurke, sondern oft schön prozentual gestaffelt nach Leistung...richtig, gar nicht. Du liegst so weit daneben, das ist ja nicht mehr feierlich.
Genau das ist es, was Zeitweise stört. Blinde Ignoranz und nur die Sätze von mir rauspicken, die man stumpfsinnig gegen argumentieren kann. Zwischen einem 3Ghz Dual vs 3Ghz Quad hat man hier schon Probleme eine Handvoll Spiele aufzulisten die von dem Quad profitieren. Hier @Topic geht es aber speziell so zu argumentieren um einen potenten C2D Dual vs i5 Quad in Spielen zu differenzieren*. Ich meinerseits habe in den Raum geworfen und weiss das auf dem Athlon II X2 viele Spiele flüssig laufen. Das Ding kann man auch übertakten auf 3,8 Ghz, hab ich das erwähnt? 20€ für einen Kühler und ab geht die Post. Aber ne...ist ja ein Dual, taugt ja die Bohne nix. Ich habe ein Rechner hingestellt, mit der man minderstens 98% der aktuellen Spiele "flüssig" (jenseits der 50fps Marke) spielen kann für 400€. Wenns nicht rund läuft, stellt man eben alles auf Medium. Der Arm wird dabei schon nicht brechen und der Schädel auch nicht platzen. Spielen ist Spielen, auch auf Medium. Ich kenne bisher aber kein Spiel das man auf einem Athlon II X2 und GTS250SLI nur auf Medium spielen kann.
So als Bleistift ein normaler Spiele PC aus dem Jahr 2004 (Vergleichbar mit meiner zusammenstellung für 400€). Bestehend aus einem Athlon 64 3800+, 2 GB RAM (hat man mit der Zeit aufgerüstet) und 2x6600GT im SLI. Willst mir jetzt erzählen das man mit dem Rechner kaum noch Spiele in den damals normalen Auflösungen von 1024x768 Spielen kann, richtig? Hab die Tage erst an einem Athlon 64 3800+, 1,5GB RAM und einer X1800XT SH4 und Stalker gespielt. Noob, move along.
*Spielbar (über 30fps) und definitiv nicht spielbar (unter 30 fps)
Iceman346
2010-09-23, 08:32:16
1. Du und viele andere schnallen es nicht und werden es wahrscheinlich niemals. Es gibt kein CPU Limit in Spielen. Gab es gestern nicht, gibt es heute auch nicht. Villeicht in schlecht gemachten Browsergames, grottigen Portierungen oder inkompetenten Entwickler der ein Beta Spiel hinstellt.
"Better to remain silent and to be thought a fool than to speak out and remove all doubt."
Hätteste dich mal dran gehalten.
2. Kein Spiel braucht in 1280x1024 ohne Texturmods 2GB System RAM unter XP. Das kannst du knicken. Das einzige Spiel das ich kenne das auf über 2GB Verbrach schiesst ist AvPIII, wenn man die Texturen auf High stellt (2,2GB Systemlast). Man kann es aber auf Normal stellen und hat nur 1,8GB Systemlast, zumal es sich nicht 1Gramm optisch unterscheidet. Das geht alles richtung "Wayne Argumente". Natürlich kannst du den Virenscanner starten, ein Video encoden, 40 Browsertabs öffnen, eine CD Brennen und von der TV Karte Aufnehmen. Dann kannst du mir sagen das man in Win7 x64 von mehr Speicher profitiert; Das alles hat nix mit "Gaming" zu tun. Das ist Kindergarten.
Von 4GB Ram profitiert man eigentlich durchweg. Nach Beenden von Spielen ist das System schneller wieder ansprechbar, Programme können im Speicher behalten werden und schneller starten etc.
Ich fand die Aufrüstung von 2GB auf 4GB sehr merkbar, grade das lange gerödel auf der Festplatte nach dem Ende fast jedes Spieles hat mich mit 2GB Ram furchtbar generft.
3. Du wirst mir wahrscheinlich nichtmal 5 Spiele nennen können, wo mit einem Athlon II X2 240@2,8Ghz (DualCore) die Framezahlen pro Sekunde so stark sinken, das es unter die 30 fps Marke (1280x1024) fällt und dort ein Quad die Anzahl der Frames auf ~50fps steigert. Gleiches gillt für die SLI-Lösung, die du hier demonisierst. Du wirst keine 2 Spiele nennen die mit dem Athlon II X2@2,8Ghz und der SLI Kombo Probleme haben und die Frames in 1280x1024 auf unter 60 fps fällt. Kommt mal in der Realität an. Mikrorucker kennt mein Freund nicht, ich auch nicht. Nie gesehn, weil die beiden GTS fast immer am Limit Frames raushauen (ausser in C&C 3, da klebt es bei 30fps). Lass dir was anderes einfallen, das du nicht in der Presse aufgegabelt hast.
Das Problem ist auch, dass die CPU so grottig ist, dass sie kaum jemand mittestet. Und dann müsste man noch brauchbare Tests finden.
Bei Computerbase ist ein X2 250 mit im Testparcours und bei Anno 1404 und Arma 2 ist das Teil definitiv im unspielbaren Bereich. Unter 60fps fallen tut die CPU auch in DiRT2.
Ein Beispiel für das von dir geforderte "Quadbonus" wäre wohl Dragon Age (http://www.pcgameshardware.de/aid,698745/Dragon-Age-Origins-16-CPUs-im-Test-Quadcore-bis-zu-75-Prozent-vor-Dualcore/Rollenspiel-Adventure/Test/), da ist die CPU selbst zwar nicht dabei aber wenn wir mal den Wert aus dem CB Rating nehmen und davon ausgehen, dass der E8400er auf Defaulttakt ~20% schneller ist dürfte der X2 250 da den Großteil der Spielzeit unter 30 fps verbringen.
4. Mit meinem 4 Jahre alten Athlon X2 5000+ (mittlerweile in Rente und verschenkt) hab ich bis vor einer Woche immernoch so Sachen wie Shift, Dead Space, Grid, Dirt und Crysis, CoD 4 gespielt. Und das immer mit 4xAA/16xAF in 1280x720 mit der HD4850. Unglaublich ne? Wie hab ich das bloss ausgehalten mit den 5 fps die Sekunde?
Wie du das bei Crysis ausgehalten hast versteh ich auch nicht ;) Die restlichen Titel sind relativ wenig CPU-lastig.
Und welches Spiel soll ich bei Ihm testen? Du hast einen Wunsch frei. Ich geh dann morgen rüber, zieh mir eine Demo deines Wunschtitels und nehme das per Camera auf was Fraps da so anzeigt. Du darfst auch mehrere Titel dir wünschen. Ich benche dann aber nur in 1280x1024 mit 4xAA. :wink:
Spielenamen gabs hier im Thread reichlich, nur Demos gibts nicht unbedingt dafür. Mein Favorit wär ja Dragon Age, falls du das besitzt. Einmal etwas im Marktplatz rumgerannt und ab dafür.
Du bist "Experte" für CPU Limit ermittlung, aber zu beschränkt um die Geizhals Preisverläufe zu ermitteln? Willst du mich aufm Arm nehmen?
Daran hab ich gestern nicht gedacht, aber für einen kleinen Forentroll wie dich wär mir das auch zu viel Aufwand.
Und damit kommst du länger als ich mit der SLI Lösung hin? Aha. Wüsste zu gerne wie du damit 3 Jahre hinkommst, wenn die SLI Lösung heute noch 40% schneller ist. Die HD5770 darfst du nicht einbeziehen, weils die vor einem Jahr nicht gab. Und was dein CPU Limit angeht; Die ist in 2 Jahren genauso inexistent wie dein bezug zur Spielepraxis.
Du beschreibst hier einen Fall der perfekt für eher kleinere Grafikkarten ist. Nämlich eine sehr niedrige genutzte Auflösung und unbedarfter Nutzer und der wahrscheinlich kein AA/AF anschaltet. Mit deiner Zusammenstellung wird er wohl in den meisten Spielen in den meisten Szenen voll im CPU-Limit hängen.
Die 5770 wurde im Oktober 2009 vorgestellt und war kurz darauf kaufbar.
Sentionline
2010-09-23, 09:02:19
Von 4GB Ram profitiert man eigentlich durchweg. Nach Beenden von Spielen ist das System schneller wieder ansprechbar, Programme können im Speicher behalten werden und schneller starten etc.
Was hat das jetzt mit spielen zu tun? Oder sind wir mittlerweile bei nicht spielen angekommen? Es geht darum das man auch mit 2GB alles spielen kann. Rüsteter in einem Jahr eben für 30€ auf 4GB. Kostenmäßig sind wir aber immernoch unter MediaMarkt Rechner.
Bei Computerbase ist ein X2 250 mit im Testparcours und bei Anno 1404 und Arma 2 ist das Teil definitiv im unspielbaren Bereich. Unter 60fps fallen tut die CPU auch in DiRT2.
Die Titel kennt er nicht, Spielt er auch nicht.
Wie du das bei Crysis ausgehalten hast versteh ich auch nicht ;) Die restlichen Titel sind relativ wenig CPU-lastig.
Dann erzähl ich grad Müll, sorry. Bin jetzt voll erwischt. :redface:
Spielenamen gabs hier im Thread reichlich, nur Demos gibts nicht unbedingt dafür. Mein Favorit wär ja Dragon Age, falls du das besitzt. Einmal etwas im Marktplatz rumgerannt und ab dafür.
Ich kauf kein Spiel für 5 Minuten CamRecord. NoWay.
Du beschreibst hier einen Fall der perfekt für eher kleinere Grafikkarten ist. Nämlich eine sehr niedrige genutzte Auflösung und unbedarfter Nutzer und der wahrscheinlich kein AA/AF anschaltet.
Nun, Treiber default ist 4xMSAA und 16xAF (inkl. HQ Optionen). Der Rest ist sein Bier.
Die 5770 wurde im Oktober 2009 vorgestellt und war kurz darauf kaufbar.
Ich habs anders gemacht und so der Ati Fan bin ich auch nicht. Die Vorzüge der HD5770 sind DX11 Titel, die in 2 Jharen sicher nicht drauf laufen. Auf der SLI Lösung aber alle DX10 Titel. Ich bin überzeugt das ein Rechner mit mehr Grafik- und weniger Prozessorpower länger durchhält als umgekehrt.
boxleitnerb
2010-09-23, 09:03:24
Rome hat er durch, Total War Alexander auch. Napoleon stand da auch, ich glaube das braucht auch einiges an rechner. Wenn du nie an so einem Rechner gestanden hast, wieso schreibst du du hättest Erfahrung mit sowas? Hast du nicht, vertrau mir. Und die Spiele werden gekauft, wachsen nicht aufm Baum, wat meinst du warum der Rechner günstig sein sollte? Denk denk...
Rome ist eigentlich mein absolutes Lieblingsspiel. Ich habe sicher seit Release mehrere hundert Stunden gespielt. Ich habe einen C2D@3GHz und es läuft NICHT flüssig in größeren Schlachten, vor allem mit der Vorwärtsspulfunktion, wenns mal wieder zu lange dauert. Und unsere CPUs sind in etwa vergleichbar wobei meine noch etwas schneller ist.
Genau das ist es, was Zeitweise stört. Blinde Ignoranz und nur die Sätze von mir rauspicken, die man stumpfsinnig gegen argumentieren kann. Zwischen einem 3Ghz Dual vs 3Ghz Quad hat man hier schon Probleme eine Handvoll Spiele aufzulisten die von dem Quad profitieren. Hier @Topic geht es aber speziell so zu argumentieren um einen potenten C2D Dual vs i5 Quad in Spielen zu differenzieren*. Ich meinerseits habe in den Raum geworfen und weiss das auf dem Athlon II X2 viele Spiele flüssig laufen. Das Ding kann man auch übertakten auf 3,8 Ghz, hab ich das erwähnt? 20€ für einen Kühler und ab geht die Post. Aber ne...ist ja ein Dual, taugt ja die Bohne nix. Ich habe ein Rechner hingestellt, mit der man minderstens 98% der aktuellen Spiele "flüssig" (jenseits der 50fps Marke) spielen kann für 400€. Wenns nicht rund läuft, stellt man eben alles auf Medium. Der Arm wird dabei schon nicht brechen und der Schädel auch nicht platzen. Spielen ist Spielen, auch auf Medium. Ich kenne bisher aber kein Spiel das man auf einem Athlon II X2 und GTS250SLI nur auf Medium spielen kann.
Das klingt doch schon gaaaaaanz anders. Natürlich kann man mit einem X2 spielen, man darf eben nicht so hohe Ansprüche haben und muss in einigen aktuellen Spielen mit teilweisem Ruckeln leben.
Einem unbedarften User, der sich nichtmal selbst einen Rechner zusammenstellen kann, empfiehlt man darüberhinaus nicht das Übertakten. Das ist grob fahrlässig. Nur ein Bruchteil aller Gamer übertaktet den eigenen PC. Das dann noch bei einem anderen zu machen...
So als Bleistift ein normaler Spiele PC aus dem Jahr 2004 (Vergleichbar mit meiner zusammenstellung für 400€). Bestehend aus einem Athlon 64 3800+, 2 GB RAM (hat man mit der Zeit aufgerüstet) und 2x6600GT im SLI. Willst mir jetzt erzählen das man mit dem Rechner kaum noch Spiele in den damals normalen Auflösungen von 1024x768 Spielen kann, richtig? Hab die Tage erst an einem Athlon 64 3800+, 1,5GB RAM und einer X1800XT SH4 und Stalker gespielt. Noob, move along.
Mit einem Singlecore? JA! Bewegen wir uns dann in Richtung Atom und MX400 zu? Wird ja immer weniger... Ein C2D@3GHz ist sicher noch in den meisten Spielen zu gebrauchen, aber er limitiert immer stärker und ist sicherlich nicht mehr das Maß der Dinge. Objektiv weißt du selbst, dass ein i5 deutlich schneller ist als ein C2D. Ob man es denn merkt, ob es einen juckt oder ob man einfach solche Spiele spielt, wo es generell weniger oft deutlich wird...das ist eine völlig andere Frage. Aber man kann nicht einfach hergehen und behaupten, es gäbe keinen Unterschied.
Mich Noob zu nennen ist...witzig ;D
Sentionline
2010-09-23, 09:11:57
Bewegen wir uns dann in Richtung Atom und MX400 zu? Wird ja immer weniger...
Na na...
Mich Noob zu nennen ist...witzig ;D
Du kennst eben kein SLI Rechner. :wink: Ich kann ihn heute abend mal Fragen ob er nicht selber hier einige Zeilen posten will.
Und nein, er ist nicht so der Computer As, dafür spielt er deutlich mehr als ich. Aber dafür hat man doch das soziale Umfeld. Der eine kann das besser, der andere das. So schöpft jeder seine Vorteile daraus. Er hat mich gefragt was man mit 400€ machen kann, ich habs ihm gezeigt. Ein Quad war nicht drin und auch keine 4GB RAM. Spielen kann man aber dennoch mit dem Teil Ich hab ihn aber auch belehrt das es in 2 Jahren so weit sein kann (1 Jahr ist schon vergangen), das er die Details runter reduzieren muss. "Kein Ding, hauptsache es läuft noch" war die Antwort. Und es wird auch Crysis 2 laufen, da brauch ich nicht zu hoffen.
boxleitnerb
2010-09-23, 09:23:40
Du hast immer noch nicht darauf geantwortet, wie du - trotz Dutzender das Gegenteil beweisender Benchmarks im Netz - auf deine Aussage
"Es gibt kein CPU Limit in Spielen. Gab es gestern nicht, gibt es heute auch nicht. Villeicht in schlecht gemachten Browsergames, grottigen Portierungen oder inkompetenten Entwickler der ein Beta Spiel hinstellt."
kommst. Jetzt zurückrudern, ausweichen und an einem völlig anderen Punkt der Diskussion ansetzen ist echt schwach.
Ich hab kein SLI, richtig. Aus guten Gründen. Das hat nix mit Noob zu tun. Das, was du von dir gibst, schon eher.
Sentionline
2010-09-23, 09:28:45
Ich brauche ein Spiel von der es auch ne Demo gibt, ich kaufe kein DrageonAge für ein 5 Minuten Test. Nun, wenn ein Quad im Grunde in 90% der aktuellen Spiele Vorteile bringt, dürfte die Ermittlung dessen ja nicht schwer sein und eine Demo zu finden. Spiele die Verfügbar sind, hab ich schon einige aufgezählt.
boxleitnerb
2010-09-23, 09:37:18
Von 90% hat hier niemand gesprochen! :rolleyes:
Kannst du nur pauschalisieren und übertreiben?
Ich glaube, es ist einfacher, einfach ein bisschen zu googlen als selbst irgendwas zusammenzubenchen.
Ich werde demnächst von einem E8500 auf ein i5-760 aufrüsten.
Der Grund dafür ist ganz einfach: SC2 :biggrin:
Schon im Game mit 3 Spielern ruckelt es bei mir öfters ganz furchbar. Wenn es AI Spieler sind, ruckelt es manchmal so stark, dass ich meine Einheiten nicht mehr richtig anklicken kann.
Also habe ich mir bei einem Kumpel SC2 auf einem i5-750 angeschaut und war von dem Performance-Unterschied begeistert. Auch bei 5 AI Gegenern kein einziges Ruckeln. Mal abgesehen davon profitieren auch Povray, komplexe Webanwendungen und Truecrypt vom 760er - also ein schönes Gesamtpaket.
Zur Zeit bekommt man für ein E8500 Bundle auch noch gut Geld, sodass der finanzielle Aufwand für ein Upgrade nicht so groß ist.
Sentionline
2010-09-23, 10:20:05
Von 90% hat hier niemand gesprochen! :rolleyes:
Kannst du nur pauschalisieren und übertreiben?
Ne, aber wenn alle so tun als wäre ein DualCore ein Trecker und ein Quad ein Diablo, da bin ich empfindlich. Zwischen fahren und rasen kann ich auch unterscheiden, da brauch ich kein i5 dafür wie manche Experten hier.
Manche verlieren bei diesem Thema den Realitätsbezug. Spielt keiner Dragon Age mit einem DualCore, weils quasi immer ruckelt? Benchmarkbalken mit den maximalsten einstellungen brauche ich nicht als Vorwand um einen Quad zu pushen. Das ist albern. Ich schaue mir die Liste hier (http://www.anandtech.com/bench/CPU/60) an und schaue wo die Athlon II X2 240 einzuordnen ist. Also bei ~50 fps. Hinzu kommt der SLI Bonus und die geringere Auflösung. Lande ich grob über den Daumen gepeilt bei minderstens 60fps bei maximal Einstellungen, da braucht man kein Messias der Quads zu sein um das zu sehen. Ergo läuft auch Dragon Age butterweich auf einem Dual mit SLI. Schande meine Milchmädchenrechnung in der Kathedrale der Quad anhänger.
€: Ein genauer Blick; i5-750 landet hier (http://www.anandtech.com/bench/CPU/60) bei 140 fps. Ein E8600 bei 70fps. Braucht man jetzt über 60fps um das Spiel als Spielbar anzusehen und das es als flüssig wahrnehmbar ist? Mir ist schon klar das auch min fps eine Rolle spielen, ebenso wie das Nachladen der Festplatte. Das trübt aber nicht das Spielgeschehen so stark, das man los rennt und sich i5 kauft. Im Anschuss rennt man auf 3DCenter und hebt das Spiel in die Lüfte mit dem i5; "Das ist die Zukunft"
boxleitnerb
2010-09-23, 10:37:58
Und wieder übertreibst du.
Im Eingangspost ging es um einen vermurksten Benchmark, das wurde kritisiert. Dann kommen so Leute wie du und behaupten, eine schnellere CPU brächte überhaupt nichts, das wurde ebenfalls kritisiert.
Mit dem Realitätsbezug hast du Recht. Sie verlieren ihn, indem sie Quatsch-Benchmarks anschauen, die nichts mit der Realität zu tun haben.
Matrix316
2010-09-23, 10:50:24
[...]
Willst mir jetzt erzählen das man mit dem Rechner kaum noch Spiele in den damals normalen Auflösungen von 1024x768 Spielen kann, richtig? Hab die Tage erst an einem Athlon 64 3800+, 1,5GB RAM und einer X1800XT SH4 und Stalker gespielt. [...]
Hm, wir haben 2010, Monitore mit 1900er Auflösung werden zu standard und sind für 150 Euro beim Aldi in der Krabbelkiste zu bekommen und du fängst an mit 1024x768...:rolleyes:
Ich glaube wir reden alle aneinander vorbei. Wenn ich von gut spielbar rede, mein ich heute schon die volle 1920x1200er Auflösung mit möglichst allen Details und AA und AF dazu.
Wenn ich über 1024x768 reden will, hätten wir die Diskussion vor 5 Jahren starten sollen. ;)
Btw. beim ersten Stalker hatte ich mir eine neue X1950XT mit 256 MB geholt und die hatte schon damals ziemlich geknabbert. Allerdings hatte ich erst noch einen Singlecore A64 3000+. Klar, man konnte das damals so spielen, aber da war die Auflösung auch noch auf 1280x1024 limitiert, weil die großen Widescreen Monitore noch net zu bezahlen waren.
Sentionline
2010-09-23, 10:56:11
Hm, wir haben 2010, Monitore mit 1900er Auflösung werden zu standard und sind für 150 Euro beim Aldi in der Krabbelkiste zu bekommen und du fängst an mit 1024x768...:rolleyes:
Rennen jetzt alle los, schmeissen ihre funktionieren Monitore weg, weil die Preise für die Widescreens gefallen sind. Wenn man schon dabei ist, kann man dem Computerfritzen noch 600€ in die Tasche stecken. Wieso nicht, schliesslich muss ja der technische Fortschritt her und die Vorwände für 3DCenter.
So, ich muss arbeiten. Trollt noch etwas damit ich heute abend noch was zum lachen hab.
Ausserdem hab ich gemeint, das man HEUTIGE Spiele mit dem DAMALIGEN Rechner Spielen kann auf der immernoch vorhandenen Hardware. Was juckt mich das es Monitore mit XY Auflösung im Format "Ultra LED Widescreen native 3D" gibt? Das hat wieder das Thema verfehlt und man interpretiert meine Sätze so wie man will.
Iceman346
2010-09-23, 11:01:26
Manche verlieren bei diesem Thema den Realitätsbezug. Spielt keiner Dragon Age mit einem DualCore, weils quasi immer ruckelt? Benchmarkbalken mit den maximalsten einstellungen brauche ich nicht als Vorwand um einen Quad zu pushen. Das ist albern. Ich schaue mir die Liste hier (http://www.anandtech.com/bench/CPU/60) an und schaue wo die Athlon II X2 240 einzuordnen ist. Also bei ~50 fps. Hinzu kommt der SLI Bonus und die geringere Auflösung. Lande ich grob über den Daumen gepeilt bei minderstens 60fps bei maximal Einstellungen, da braucht man kein Messias der Quads zu sein um das zu sehen. Ergo läuft auch Dragon Age butterweich auf einem Dual mit SLI. Schande meine Milchmädchenrechnung in der Kathedrale der Quad anhänger.
€: Ein genauer Blick; i5-750 landet hier (http://www.anandtech.com/bench/CPU/60) bei 140 fps. Ein E8600 bei 70fps. Braucht man jetzt über 60fps um das Spiel als Spielbar anzusehen und das es als flüssig wahrnehmbar ist? Mir ist schon klar das auch min fps eine Rolle spielen, ebenso wie das Nachladen der Festplatte. Das trübt aber nicht das Spielgeschehen so stark, das man los rennt und sich i5 kauft. Im Anschuss rennt man auf 3DCenter und hebt das Spiel in die Lüfte mit dem i5; "Das ist die Zukunft"
Und da sieht man wie unterschiedlich Benchmarks sein können. Anandtech bencht offensichtlich an einer Stelle, wo die CPU-Last gering ist, sonst würden sie nicht solche extremen Frameraten erreichen. Der von mir oben verlinkte PCGH Bench zeigt völlig andere Zahlen.
Daran könnte man erkennen, dass das Spiel offensichtlich in unterschiedlichen Szenen die CPU unterschiedlich taxiert. Du selbst siehst dagegen den Anandtech Bench als allgemeingültig an und leitest daraus ab, dass man das Spiel auch auf dem X2 240 mit 60fps spielen kann. Ja es gibt Szenen in Dragon Age wo das der Fall ist. Genauso gibt es Szenen in dem Spiel wo es, durch den X2 240, auf unter 30 fps fallen wird.
Und nein, in solchen Szenen gibt es keinen SLI Bonus und keinen Bonus durch niedrigere Auflösung, weil die CPU limitiert und die Grafikleistung völlig wumpe ist.
puntarenas
2010-09-23, 11:03:56
Übertreibt es nicht, es reicht jetzt mit den gezielten Provokationen. Dies hier ist keine Spielweise, sondern ein Diskussionsforum und das Ignorieren von Argumenten, reine Polemik sowie persönliche Anmachen gehören nicht in eine Diskussion.
Mit dem Geflame ist hier bitte Schluß!
y33H@
2010-09-23, 11:17:32
Warum kostet AA dann soviel Leistung? Es ist ja nicht nur mit ATI so.Weil AA einfach ein Hack ist und nicht offizielles. Und bei den HD5k kollidiert AA mit den transparenten Schatten, d.h. AA kostet extrem viel.
Die Jungs von PCGH sollten hier noch mal nachsitzen und lernen, wie man ein Diagramm richtig erstellt und richtig interpretiert.Einzelne Punkte sind optisch nicht der Kracher, daher verbunden zur besseren Visualisierung. Ganz einfach.
blackbox
2010-09-23, 11:28:08
Der Zusammenhang hier gilt der Auflösung und nicht EINER Cpu.
Schon klar...
Hej war nett mit euch :D Der 5870-Link rockt irgendwie endgültig :smile:
Ab jetzt wirds langsam langweilig. Bis zum nächsten Mal ;)
Öhm, nein.
Die X-Achse stellt die verschiedenen CPUs dar, nicht die Auflösung.
Der C2D E6600 erreicht z.B. bei Anno mit den genannten Einstellungen ca. 20 FPS bei einer Auflösung von 1280x1024. Der C2Q Q6600 erreicht hier ca. 30 FPS.
Diese Werte wurden mit einem Strich verbunden, obwohl es hier gar keinen Zusammenhang gibt. Jeder dieser zwei Werte steht nämlich für sich. Man kann hier keinen Zusammenhang konstruieren. Denn was gibt es denn zwischen den zwei genannten CPUs? Richtig, nichts.
Einzelne Punkte sind optisch nicht der Kracher, daher verbunden zur besseren Visualisierung. Ganz einfach.
Was die Sache nicht richtiger macht, sondern falsch.
Der Versuch, eine Tendenz zu visualisieren, ist dabei gründlich in die Hose gegangen.
puntarenas
2010-09-23, 11:31:40
Und da sieht man wie unterschiedlich Benchmarks sein können. Anandtech bencht offensichtlich an einer Stelle, wo die CPU-Last gering ist, sonst würden sie nicht solche extremen Frameraten erreichen. Der von mir oben verlinkte PCGH Bench zeigt völlig andere Zahlen.
Das wurde ja weiter vorn auch bereits angemerkt und leider ausgerechnet von denjenigen ignoriert, die offenbar fundamentale Verständnisschwierigkeiten beim Betrachten und Bewerten von Benchmarkergebnissen haben.
Eine einzelne Szene ist niemals stellvertretend für ein gesamtes Spiel (und ein Spiel wiederum nicht für die Spielelandschaft allgemein). Bei den allermeisten CPU-Reviews sind die Spielebenchmarks dazu noch in mehrerlei Hinsicht furchtbar schlecht gemacht (Szenenauswahl, Qualitätseinstellungen) und entsprechend mäßig ist ihre Aussagekraft über das Leistungspotential der Prozessoren in Spielen und sogar die Anforderung des jeweiligen Spiels an die Prozessoren.
Nicht einmal PCGH macht sich (zuegeben wohlbegründet) in Prozessortests auf die Suche nach Worst Case Szenarien, womit sogar deren Balken "über Gebühr" geglättet sind, wenngleich aufgrund fundierter Szenenauswahl nicht ganz so furchterregend. Natürlich besteht ein Spiel nicht überwiegend aus Worst Case Szenen und die Gewichtung, wieviel Anteil CPU-lastige Szenen an einem Spiel bei einem durchschnittlichen Durchlauf haben ist schlicht nicht zu machen. Umgekehrt wird aber auch kein Schuh daraus, ein hübsches Benchmarkergebnis im spielbaren Bereich garantiert noch lange nicht für ein durchgehend störungsfreies Spielerlebnis.
Schrotti
2010-09-23, 11:34:21
Ich brauche ein Spiel von der es auch ne Demo gibt, ich kaufe kein DrageonAge für ein 5 Minuten Test. Nun, wenn ein Quad im Grunde in 90% der aktuellen Spiele Vorteile bringt, dürfte die Ermittlung dessen ja nicht schwer sein und eine Demo zu finden. Spiele die Verfügbar sind, hab ich schon einige aufgezählt.
RUSE Demo auf Steam.
Da bekommste deinen Vorteil.
y33H@
2010-09-23, 11:39:50
Nicht einmal PCGH macht sich (zuegeben wohlbegründet) in Prozessortests auf die Suche nach Worst Case SzenarienMan gibt sich Mühe ;)
Man gibt sich Mühe ;)
Apropros PCGH. Kommt heute noch ein Gothic 4-Benchmark? CPU und GPU? :D
y33H@
2010-09-23, 11:52:07
Kauf dir das Heft :biggrin:
Ich werde demnächst von einem E8500 auf ein i5-760 aufrüsten.
Der Grund dafür ist ganz einfach: SC2 :biggrin:
Schon im Game mit 3 Spielern ruckelt es bei mir öfters ganz furchbar. Wenn es AI Spieler sind, ruckelt es manchmal so stark, dass ich meine Einheiten nicht mehr richtig anklicken kann.
Also habe ich mir bei einem Kumpel SC2 auf einem i5-750 angeschaut und war von dem Performance-Unterschied begeistert. Auch bei 5 AI Gegenern kein einziges Ruckeln.Na sicher. Habt ihr beide die gleiche Grafikkarte? PCGH hat es wunderbar gebencht. Zerg rush rulez :D
http://www.pcgameshardware.com/aid,705392/Starcraft-2-Beta-CPU-benchmarks-x-Core-i5/i7-leading/Practice/
Ich gebe doch nicht alleine für die CPU 180€ aus, für diese Steigerung. Lächerlich.
Vor allem wenn ich den E8500 for nothing mit 3.8 Ghz fahren kann. Was kostet dich der Spaß in der Bilanz wenn du deine Teile weiterverkaufen kannst? Ich hoffe nicht mehr als 30€.
TrueCrypt ist schon auf dem Wolfdale schneller als so manche SSD.
y33H@
2010-09-23, 11:58:41
Warum die Beta, wie wäre es mit der Full (http://www.pcgameshardware.de/aid,766089/Technik-Test-Starcraft-2-mit-14-CPUs-Intel-in-Front-vier-Kerne-nutzlos-einige-Ueberraschungen/Strategiespiel/Test/)?
E6600 --> i5-750 = +67% [und SC2 profitiert nicht mal von vier Kernen ...]
http://www.abload.de/img/sc2-cpus-1024c5ht.png
Schrotti
2010-09-23, 12:21:35
Gut das ich einen i7 860@4GHz habe.
Auf Standardtakt erreiche ich laut Screen ja gerade so die magische 30fps Grenze.
dargo
2010-09-23, 12:43:39
Gut das ich einen i7 860@4GHz habe.
Auf Standardtakt erreiche ich laut Screen ja gerade so die magische 30fps Grenze.
Wobei man sagen muss, es ist eigentlich traurig, dass SC2 nicht über 2 Cores skaliert. Gerade hier würde es viel bringen wenn man sich schon so tief bei den Frames bewegt. Da hat man eine Menge Potential verschenkt.
Matrix316
2010-09-23, 12:52:16
Rennen jetzt alle los, schmeissen ihre funktionieren Monitore weg, weil die Preise für die Widescreens gefallen sind. Wenn man schon dabei ist, kann man dem Computerfritzen noch 600€ in die Tasche stecken. Wieso nicht, schliesslich muss ja der technische Fortschritt her und die Vorwände für 3DCenter.
Die schmeißt man nicht weg, sondern schenkt sie irgendwelchen Verwandten und Bekannten, die noch einen älteren Monitor haben. Wobei Röhrenmonitore kann man ruhig entsorgen.
So, ich muss arbeiten. Trollt noch etwas damit ich heute abend noch was zum lachen hab.
Jupps.
Ausserdem hab ich gemeint, das man HEUTIGE Spiele mit dem DAMALIGEN Rechner Spielen kann auf der immernoch vorhandenen Hardware. Was juckt mich das es Monitore mit XY Auflösung im Format "Ultra LED Widescreen native 3D" gibt? Das hat wieder das Thema verfehlt und man interpretiert meine Sätze so wie man will.
Man KANN sie spielen, aber es ist nicht schön. Ich hatte letztes Jahr beim umrüsten mal den i5 750 mit meiner alten X1950XT am laufen und es ging zwar einigermaßen mit neueren Games, sogar Crysis, aber ruckelfrei wars net und an viele Details in hohen Auflösungen braucht man erst garnet denken. Klar kann man alles runterschrauben, aber dann machts spielen auch keinen Spaß mehr. Da kann ich statt Crysis gleich Far Cry spielen, weil ersteres mit niedrigen Details dann so wie letzteres aussieht. ;)
Matthias2x
2010-09-23, 13:50:25
@Sentionline,
nur mal so als kleiner Denkanstoß weil du meinst "besser in eine GTX480 investieren als vom C2 Dualcore auf einen i5/i7 Quad zu wechseln" ... ich hab vor kurzem von einer GTX260 auf die GTX460 1GB von Gigabyte gewechselt. Mir war durchaus klar das die neue Karte keine enormen Performancesprünge auslösen wird. Die GTX460 habe ich mir hauptsächlich angeschafft weil ich mein System (siehe Sig.) auf Windows 7 x64 umgerüstet habe und eben damit auch DX11 Hardware haben wollte um es zu nutzen.
Also GTX460 rein und erstmal div. Spiele angezockt und die FPS mit Fraps gemittelt, bzw. auchmal die verpönten Schwa**Marks durchlaufen lassen. Tja und dann gabs erstmal ein langes Gesicht ... warum? Die neue Karte war kein bisschen schneller, eher sogar noch langsamer als die alte Karte (Settings waren natürlich die gleichen wie zuvor mit der GTX260, meist HD Auflösung mit mittl. Details ohne AA) ... selbst unter WinXP 32bit dasselbe Bild. Erst als ich meinem Q6700 deutlich mehr Takt gegeben habe (3,4 statt 2,66 Ghz Standard-takt) ging die GTX460 die ca. 20-30% schneller, die Sie im Vergleich zur 260, auch sein sollte.
Nächster Vergleich bei einem Bekannten. Er hat sowohl einen C2D 8400 (nonOC, Win 7 x64, 4GB RAM, Radeon 4870) als auch einen neuen i7 870 Rechner (Win 7 x64, 4GB RAM, Radeon HD5850). Beide Systeme haben ca. 3Ghz Takt (nonOC). Ich nahm meine GTX460 mit, rein in beide Rechner und gebencht. Auf dem C2D ging die Karte oft etwas langsamer als auf meinen C2Q 6700 @Standardtakt, manchmal aber auch geringfügig schneller. Alles in allem jedoch im akzeptablen Bereich. Auf dem i7 870 ging dann aber richtig die Post ab mit der GTX460. Deutlich schneller als mein Q6700 @3,4 Ghz und damit natürlich auch schneller als auf dem C2D 8400.
Was will ich damit sagen. Gerade die neuen GTX4xx Karten brauchen eine potente CPU die ordentlich anschiebt. Damit sind aber nicht nur pure Ghz gemeint, natürlich spielt auch Leistung / Mhz eine große Rolle. Wer es trotzdem nicht glauben will der schaut sich mal im Netz um wieviele User am jammern sind weil Ihre nagelneuen GTX4xx Karten nicht die erhoffte Leistung bringen, ja sogar zum Teil langsamer laufen als Ihre alten Karten. Schaut man sich deren Restsystem an, wird deutlich warum das so ist. Und ehe der Einwurf kommt, ich glaube nicht das dies nur am derzeit grottigen NV-Treiber liegt.
Schrotti
2010-09-23, 14:31:46
Schönes Beispiel aus dem CB Forum.
Potente Grafikkarte mit zu langsamer CPU.
hallo Leute,
hab mir heute die grake Zotac GTX 470 AMP gekauft, wollte damit Mafia 2 auch denn höchste Einstellungen zocken, jedoch bekomme ich bei alles hoch +physX hoch gerade mal 10 FPS, bei Mittel PhysX 20FPS immer noch zu wenig, selbst wenn die PhysX aus ist,ist in manchen Szenen IM Spiel total Ausfall,b
mein System,
intel core 2 quad 8400 2,66ghz
4ram ddr2 1033hz
750watt netzeil von nitrox
und ja die grake von nvdia gtx470 AMP von zotac was eigentlich nochmal 4-7 % mehr Leistung haben soll als das Standart Modell .
Liegt es an meinem CPU? oder ist auch die Grafikkarte zu Schwach?
blackbox
2010-09-23, 14:39:25
Zu langsame CPU? Ein Q8400?
Nein, irgendwo hat er die Grafiksettings falsch eingestellt. Sei es im Spiel oder im Treiber.
Matthias2x
2010-09-23, 14:55:25
Doch blackbox, das kann beim Q8400 @ Standardtakt schon halbwegs hinkommen, noch dazu wenn er AA eingeschaltet hat ... habe mit der mafia 2 demo selbst mal gebencht weil ich wissen wollte ob eine 9400gt als reine physx-karte dem system nochmal einen schub bringt, siehe auch hier -> http://www.forum-3dcenter.org/vbulletin/showthread.php?t=490658&highlight=9400gt&page=2 ... da habe ich allerdings mit AA off gebencht
dargo@work
2010-09-23, 15:17:47
Doch blackbox, das kann beim Q8400 @ Standardtakt schon halbwegs hinkommen, noch dazu wenn er AA eingeschaltet hat ...
Hier wird zuviel durcheinander gebracht. Wenn er Einbrüche mit AA hat dann hat das rein gar nichts mit der CPU-Leistung zu tun. Und nein, ein Q8400 ist keineswegs zu langsam für Mafia 2.
Doch blackbox, das kann beim Q8400 @ Standardtakt schon halbwegs hinkommen, noch dazu wenn er AA eingeschaltet hat ... habe mit der mafia 2 demo selbst mal gebencht weil ich wissen wollte ob eine 9400gt als reine physx-karte dem system nochmal einen schub bringt, siehe auch hier -> http://www.forum-3dcenter.org/vbulletin/showthread.php?t=490658&highlight=9400gt&page=2 ... da habe ich allerdings mit AA off gebencht
Einschalten von AA soll CPU-Power kosten? In welcher Parallelwelt bist du denn unterwegs?
Matthias2x
2010-09-23, 15:38:52
was wird denn durcheinander gebracht?? ich habs doch nun selbst anhand der mafia demo gemessen, oder willst mir unterstellen das ich beim ablesen der werte meine brille nicht geputzt habe? mein Q6700 ist zwar kein Q8400, hat aber den doppelt so großen cache und "nur" beim FSB einen Nachteil (266 zu 333) ... alles in allem dürften sich die beiden prozessoren in puncto Leistung nicht viel nehmen. und meine GTX460 @ 830/1660/2000 ist nun auch nicht soweit weg von einer GTX470 ... ich komme auf ca. 20-25 FPS mit APEX medium / high und ohne APEX auf etwa 50 FPS, was aber wiederum alles nur Durchschnittswerte sind, da man anhand des Demobenchmarks keine Min/Max FPS ablesen kann. Ich kann mir gut vorstellen das in manchen Situationen, selbst mit APEX off, die FPS durchaus unter 30-35 einbrechen können.
Wo hab ich behauptet das AA CPU-Leistung kostet?? Es kann aber, wenn zugeschaltet, die Grafikkarte nocheinmal ein paar FPS kosten ... und es geht doch nun darum das seine GTX470 eben nicht den erhofften Schub bringt, oder gibts etwa AA seit neuestem gänzlich ohne Leistungsverlust auf der Graka?!
Angiesan
2010-09-23, 15:54:25
Schönes Beispiel aus dem CB Forum.
Potente Grafikkarte mit zu langsamer CPU.
das ist nur ein gutes Beispiel dafür, wie scheiße die NV Treiber momentan sind, da hier ganz offensichtlich mal wieder der PhysiX Treiber nicht mit dem Grafiktreiber richtig kommuniziert und die PhysiX-Berechnung über die CPu läuft.
Hatte ich auch bei dem Wechsel auf 260.63 und erst ein manuelles Anklicken auf Physix-Berechnung auf der GTX 480 forcieren brachte das gewünschte Ergebnis.
Schrotti
2010-09-23, 16:15:31
Komisch, ich musste das nicht. Es läuft auch so bestens.
Konami
2010-09-23, 16:25:35
Ohne mir die letzten 16 Seiten genau durchgelesen zu haben, hier mal meine persönliche Erfahrung für Sentionline:
Ich habe den E6750. Ich habe ihn auf 3,6 GHz übertaktet, was das maximal Mögliche ist, weil dort der FSB schon 450 MHz erreicht. Trotzdem reicht es hint und vorne nicht. Nicht nur bei GTA4, sondern z.B. auch bei Supreme Commander. Größere Maps gestalten sich generell schwierig - und Spiele zu hosten sollte man gleich vergessen, zumindest wenn man mehr als 3 Mitspieler erwartet.
So unnötig können Quadcores also kaum sein...
Matthias2x
2010-09-23, 16:45:28
Den Streit ob Quad oder DC gabs doch schon vor 3 Jahren als ich meinen Q6700 gekauft habe. Und fragt nicht was der damals gekostet hat ;( ... damals war der viell. wirklich noch völlig unnötig für otto-normaluser, von ein paar wenigen ausnahmen abgesehen. mittlerweile gibts aber deutlich mehr Mehrkernoptimierte Programme und ebenso steigt die Zahl Spiele deutlich, die von mehr als 2 Kernen profitieren. Ich will und kann hier nicht alle im einzelnen aufzählen, das kann man im Netz zuhauf nachlesen ... und in manchen Hardwarekombinationen reicht der Quad alleine auch nicht mehr. Es kommt natürlich IMMER darauf an welche Settings man ingame einstellt.
Da ich einen 24 Zöller habe, möchte ich natürlich auch in HD spielen, und dann sollte der Quad eben Takte > 3Ghz haben (für die C2 bzw. Phenom II Quads) oder eine deutlich gesteigerte ProMhz Leistung (wie i5 / i7 ) bieten. Meine eigene Erfahrung, speziell mit den GTX4xx Karten, zeigt mir das die Karten in den meisten Games grottenlahm laufen wenn die nicht richtig befeuert werden. Wie schon gesagt musste ich meinen Quad auf 3,4Ghz bringen (mehr macht er leider nicht stabil mit), damit sich die GTX460 bei meinen Settings deutlich von der alten GTX260 absetzen konnte. Mit dem Quad @Standardtakt 2,66Ghz war die GTX460 max. gleich schnell, oft sogar etwas langsamer als die alte GTX260.
Das der derzeitige NV-Treiber sicherlich auch noch eine Menge Optimierungspotential hat, steht außer Frage. Nur werden wir da alleine anhand eines besseren Treibers sicher künftig keine +50% rausholen. Wie das bei den ATI HD5xxx Karten derzeit aussieht kann ich so nicht sagen da ich keine habe bzw. testen kann. Ich denke aber das es da ähnlich sein wird.
Banshee18
2010-09-23, 17:10:47
Also bei ~50 fps. Hinzu kommt der SLI Bonus und die geringere Auflösung. Lande ich grob über den Daumen gepeilt bei minderstens 60fps bei maximal Einstellungen, da braucht man kein Messias der Quads zu sein um das zu sehen.
SLI bringt im CPU-Limit keine FPS, im Gegenteil, es kostet fps.
Zu Dragon Age:
http://www.abload.de/thumb/daorigins2010-09-2317-oity.png (http://www.abload.de/image.php?img=daorigins2010-09-2317-oity.png)
http://www.abload.de/thumb/daorigins2010-09-2317-8f0f.png (http://www.abload.de/image.php?img=daorigins2010-09-2317-8f0f.png)
Die 30 fps sind Zufall, das hat nix mit VSync zu tun.
Viel von dem, was du hier schreibst, ist total falsch.
Da ich einen 24 Zöller habe, möchte ich natürlich auch in HD spielen, und dann sollte der Quad eben Takte > 3Ghz haben (für die C2 bzw. Phenom II Quads) oder eine deutlich gesteigerte ProMhz Leistung (wie i5 / i7 ) bieten. Meine eigene Erfahrung, speziell mit den GTX4xx Karten, zeigt mir das die Karten in den meisten Games grottenlahm laufen wenn die nicht richtig befeuert werden. Wie schon gesagt musste ich meinen Quad auf 3,4Ghz bringen (mehr macht er leider nicht stabil mit), damit sich die GTX460 bei meinen Settings deutlich von der alten GTX260 absetzen konnte. Mit dem Quad @Standardtakt 2,66Ghz war die GTX460 max. gleich schnell, oft sogar etwas langsamer als die alte GTX260.
Eine schlechte Performance bei hohen Auflösungen (HD) ist ein Graka-Problem. Das hat mit CPU-Limitierung nichts zu tun, aber wirklich gar nichts. Was du erzählst kann nicht stimmen, so leid es mir tut. Eine Graka skaliert in ihrer Endperformance nicht mit der CPU.
Das würde ja bedeuten, dass eine Graka mit einer schwachen CPU weniger MaxFPS hat als mit einer starken. Und da bei hohen Auflösungen + AA + AF immer die Graka limitiert, kann die CPU das gar nicht beeinflussen. Die CPU limitiert immer nur dann, wenn die Graka quasi einschläft und die MaxFPS von der Rechenleistung abhängen. Sonst nicht.
dargo@work
2010-09-23, 17:22:14
Und da bei hohen Auflösungen + AA + AF immer die Graka limitiert...
Das ist so verallgemeinert, dass es wieder falsch ist.
Das ist so verallgemeinert, dass es wieder falsch ist.
Nenn mir ein Beispiel wo bei HD + AA + AF die CPU limitiert. Auf gehts.
boxleitnerb
2010-09-23, 17:35:08
Warum denken alle eigentlich immer, sie hätten ein Anrecht darauf, alles auf dem Silbertablett serviert zu bekommen? Ein bisschen im Forum oder im Netz suchen reicht ja schon. Es ist doch ermüdend, sich für logische Zusammenhänge bei einzelnen immer mit Beispielen rechtfertigen zu müssen.
Matrix316
2010-09-23, 17:38:14
Nenn mir ein Beispiel wo bei HD + AA + AF die CPU limitiert. Auf gehts.
Anno 140irgendwas ist da immer eine gute Wahl. :D
dargo@work
2010-09-23, 17:44:57
Nenn mir ein Beispiel wo bei HD + AA + AF die CPU limitiert. Auf gehts.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8283861&postcount=262
Um nur ein Beispiel zu nennen. Wann lernt ihr endlich, dass CPU-Limits nicht zwangsläufig mit hohen Auflösungen außer Kraft gesetzt werden? Es ist immer von Szene zu Szene unterschiedlich.
y33H@
2010-09-23, 17:53:17
Nenn mir ein Beispiel wo bei HD + AA + AF die CPU [E6750?] limitiert.
• Anno 1404
• Arcania
• GTA IV [bis v1.0.5.0]
• F1 2010
• Starcraft II
• SupCom
Nur ein paar Beispiele ...
Matthias2x
2010-09-23, 18:10:41
Eine schlechte Performance bei hohen Auflösungen (HD) ist ein Graka-Problem. Das hat mit CPU-Limitierung nichts zu tun, aber wirklich gar nichts. Was du erzählst kann nicht stimmen, so leid es mir tut. Eine Graka skaliert in ihrer Endperformance nicht mit der CPU.
Das würde ja bedeuten, dass eine Graka mit einer schwachen CPU weniger MaxFPS hat als mit einer starken. Und da bei hohen Auflösungen + AA + AF immer die Graka limitiert, kann die CPU das gar nicht beeinflussen. Die CPU limitiert immer nur dann, wenn die Graka quasi einschläft und die MaxFPS von der Rechenleistung abhängen. Sonst nicht.
soso und was wenn ich dir nun sage das sich die graka eben langweilt bzw. nicht völlig ausgelastet ist? meine 460 zeigt via msi afterburner in den meisten fällen eine GPU-Auslastung von 40 bis max. 60% je nach Game und Settings. das wohlgemerkt bei Standardtakt von 2,66 Ghz. und wo hab ich denn in meinen, von dir zitiertem text, irgendetwas von AA bzw. AF geschrieben?? AA hab ich in den meisten Fällen gar nicht an und AF meist auf 8x. Und angenommen meine alte GTX260 läuft in vielen Fällen wesentlich flüssiger als die GTX460 ... dann haben wir doch sicher ein problem oder?? Die GTX460 läuft nur dann besser als die alte Karte wenn ich meine CPU bis an ihre grenze von 3,4 Ghz hochtakte, dann aber mit mehr Min. und mehr Max. FPS. die GPU-Auslastung steigt dann auch schonmal bis zu 80% oder mehr, das aber eben nicht durchgehend.
y33H@
2010-09-23, 18:13:31
Die CPU limitiert immer nur dann, wenn die Graka quasi einschläft und die MaxFPS von der Rechenleistung abhängen. Das ist Quatsch.
Die CPU limitiert dich zB durch Streaming, KI, Explosionen usw. - selbst wenn idR die Grafikkarte den Ton angibt.
dargo@work
2010-09-23, 18:25:45
Und angenommen meine alte GTX260 läuft in vielen Fällen wesentlich flüssiger als die GTX460 ... dann haben wir doch sicher ein problem oder??
Das kann ich beim besten Willen nicht glauben da die GTX460 von den Daten her in allen Bereichen besser ist als die GTX260. Sollte die GTX460 dennoch in einigen Bereichen etwas weniger Frames bei sonst gleichem System und Settings liefern kann es nur am unausgereiften Grafiktreiber liegen.
Matthias2x
2010-09-23, 19:12:10
Das kann ich beim besten Willen nicht glauben da die GTX460 von den Daten her in allen Bereichen besser ist als die GTX260. Sollte die GTX460 dennoch in einigen Bereichen etwas weniger Frames bei sonst gleichem System und Settings liefern kann es nur am unausgereiften Grafiktreiber liegen.
ich hab nicht behauptet das es in allen fällen so ist, sondern in vielen ... und dennoch konnte sich die 460 erst mit dem CPU-OC auf 3,4 Ghz richtig von der 260 absetzen, was meinst du wie ich geschaut habe als ich das erste mal mit der 460 gebencht bzw. gespielt habe. und ja die aktuellen nv-treiber sind grottig keine frage.
Anno1404
http://www.pc-max.de/sites/pc-max.de/files/graphs/cpu_c1904_anno_1404.png
http://http://www.pc-max.de/sites/pc-max.de/files/graphs/cpu_c1904_anno_1404.png
Wer auf strategiespiele steht ist mit einem qoad besser beraten das ist schon klar, aber alles andere läuft doch 1a ausser far cry 2 vielleicht.
Übertreibt mal nicht
http://www.pc-max.de/sites/pc-max.de/files/graphs/cpu_c1904_anno_1404.png
27fps sind ausreichend , strategiespiele brauchen nicht mehr.
http://http://www.pc-max.de/sites/pc-max.de/files/graphs/cpu_c1904_anno_1404.png
Wer auf strategiespiele steht ist mit einem qoad besser beraten das ist schon klar, aber alles andere läuft doch 1a ausser far cry 2 vielleicht.
Übertreibt mal nicht
Gleich schreibt einer GTA 4 hahahaha, mehr haben sie einfach nicht zu bieten.
y33H@
2010-09-23, 19:47:02
http://www.pc-max.de/sites/pc-max.de/files/graphs/cpu_c1904_anno_1404.png:facepalm:
Matthias2x
2010-09-23, 19:51:02
Gleich schreibt einer GTA 4 hahahaha, mehr haben sie einfach nicht zu bieten.
nö. schaust du hier -> http://www.pcgameshardware.de/aid,747900/PCGH-Special-Das-sind-die-Vorzeigespiele-fuer-Quadcore-CPUs/Spiele/Wissen/ ... das sind schon ein paar mehr und weniger werden es sicher nicht.
dargo@work
2010-09-23, 19:58:42
... und dennoch konnte sich die 460 erst mit dem CPU-OC auf 3,4 Ghz richtig von der 260 absetzen...
Ok, das ist allerdings nichts ungewöhnliches. Es gibt ja nicht nur vollständige Limits auf beiden Seiten.
dargo@work
2010-09-23, 20:02:22
Edit:
Deine alte GTX260 hätte mit der schnelleren CPU ebenfalls in vielen Bereichen zugelegt. Natürlich nicht im gleichen Ausmaß wie die GTX460.
Matthias2x
2010-09-23, 20:03:32
naja aber das ist doch der Punkt dargo, es geht ja hier wohl darum das es besser sei in eine neue Graka zu investieren als in die CPU ... in meinem Fall brauchte ich aber eben erst mehr CPU Power um die GTX460 richtig in Gang zu bekommen, bzw. so das ich eine Mehrleistung gegenüber der 260 habe. nichts anderes wollte ich sagen. bei einer schwächeren vorgängerkarte hat man sicherlich gleich eine mehrleistung, jedoch les ich oft das gerade die besitzer schwächerer DC´s (e6xxx, athlon II x2 etc. pp.) mit der gtx460 keinerlei mehrleistung haben. mein paradebeispiel ist hier immerwieder BF:BC2. mal abgesehen davon das die engine nicht die beste ist und auch die aktuellen nv-treiber grottig sind, liest man öfter in den einschlägigen foren das die dc-besitzer mit dem umstieg auf eine gtx4xx häufig nicht besser da standen.
Edit:
Deine alte GTX260 hätte mit der schnelleren CPU ebenfalls in vielen Bereichen zugelegt. Natürlich nicht im gleichen Ausmaß wie die GTX460.
ja das denk ich mir auch, kann es allerdings mit der alten karte nicht mehr testen. nur sollte der theorie nach die gtx460 dann nochmal besser "abgehen"
dargo@work
2010-09-23, 21:17:49
naja aber das ist doch der Punkt dargo, es geht ja hier wohl darum das es besser sei in eine neue Graka zu investieren als in die CPU ... in meinem Fall brauchte ich aber eben erst mehr CPU Power um die GTX460 richtig in Gang zu bekommen, bzw. so das ich eine Mehrleistung gegenüber der 260 habe. nichts anderes wollte ich sagen. bei einer schwächeren vorgängerkarte hat man sicherlich gleich eine mehrleistung, jedoch les ich oft das gerade die besitzer schwächerer DC´s (e6xxx, athlon II x2 etc. pp.) mit der gtx460 keinerlei mehrleistung haben. mein paradebeispiel ist hier immerwieder BF:BC2. mal abgesehen davon das die engine nicht die beste ist und auch die aktuellen nv-treiber grottig sind, liest man öfter in den einschlägigen foren das die dc-besitzer mit dem umstieg auf eine gtx4xx häufig nicht besser da standen.
Das verwundert mich kein bißchen. BF:BC2 hat eine sehr hohe CPU-Last (für die Allgemeinheit - bitte hohe CPU-Last nicht mit Spielbarkeit und/oder guter Quadcoreskalierung verwechseln) wodurch du natürlich von mehr CPU-Leistung mehr gespürt hast als vom Graka-Wechsel. In diesem Spiel überwiegt halt die CPU-Last. Das ist aber nur ein konkreter Fall von vielen. Man könnte den Spieß auch umdrehen und als Beispiel Metro 2033 nehmen. In diesem Spiel wird dir die GTX460 deutlich mehr bringen als ein CPU-Wechsel. Ganz einfach weil in Metro praktisch durchgehend die GPU-Last überwiegt.
ja das denk ich mir auch, kann es allerdings mit der alten karte nicht mehr testen. nur sollte der theorie nach die gtx460 dann nochmal besser "abgehen"
Wie gesagt - spielst du ein cpu-lastiges Game kann eine schnellere Grafikkarte bei "bremsender" CPU keine höheren Frames liefern, das ist unmöglich. Sie wird höchstens in den Szenen wo nichts los ist (CPU-Last nimmt ab, wodurch die GPU-Last steigt) gut zulegen können.
Wa streitet ihr eigentlich rum? Bloß weil der andere ne andere Meinung hat muss man doch nicht gleich alles persöhnlich nehmen...
Jeder bringt seine Meinung aber untermauern oder belegen kann fast keiner.
Hier werden nur ständig Meinungen gegeneinander diskutiert, belast es dabei, dass ihr unterschiedlicher Meinung seid oder bringt irgendwelche Tests - aber keine Strategiespiele, da dürfte jedem klar sein dass man da meistens CPU Power braucht.
Bei der gtx 4er Reihe scheint es wirklich so zu sein, dass viele User mit ner alten gtx-2xx auf die 460 aufrüsten und dann dumm kucken weil die 460 nicht so läuft wie erwartet. Anscheinend scheinen die 460 wirklich irgendwie anders mit der CPU zu skalieren, oder mehr CPU Power zu brauchen, oder irgendsowas, ich weiß nicht warum und wieso oder was genau passiert, ich weiß nur dass es vielen so ergangen ist, aber leider gibts keine Tests oä dazu.
Matrix316
2010-09-24, 08:36:36
Hm, auf der anderen Seite ist ne GTX460 auch nicht unbedingt jetzt viel schneller als sagen wir eine GTX285. Und wenn dann die CPU nicht die schnellste ist, kommt auch eine GTX260 noch mit.
Sentionline
2010-09-24, 09:29:34
Guten Morgen!
Ja ich bin früh auf.
Quelle (http://www.xbitlabs.com/articles/video/display/radeon-hd5870-cpu-scaling.html)
FarCry 2, 1280x1024, 8xAA/16xAF
HD5870, Core2Duo @3,4Ghz; 70fps (48fps min)
HD5870, Corei7 @3,4Ghz; 71fps (48fps min)
Differenz; 1,4%
2xHD5870, Core2Duo @3,4Ghz; 74fps (53fps min)
2xHD5870, Corei7 @3,4Ghz; 128fps (91fps min)
Differenz; +73%
MGPU Gewinn C2D: 5,7%
MGPU Gewinn i7: 80,3%
------------
Crysis, 1280x1024, 4xAA/16xAF
HD5870, Core2Duo @3,4Ghz; 33fps (17fps min)
HD5870, Corei7 @3,4Ghz; 43fps (29fps min)
Differenz; +30%
2xHD5870, Core2Duo @3,4Ghz; 45fps (23fps min)
2xHD5870, Corei7 @3,4Ghz; 55fps (31fps min)
Differenz; +22,2%
MGPU Gewinn C2D: 36,4%
MGPU Gewinn i7: 66,7%
-------------
World in Conflict, 1280x1024, 8xAA/16xAF
HD5870, Core2Duo @3,4Ghz; 58fps (20fps min)
HD5870, Corei7 @3,4Ghz; 67fps (31fps min)
Differenz; +15,5%
2xHD5870, Core2Duo @3,4Ghz; 59fps (18fps min)
2xHD5870, Corei7 @3,4Ghz; 99fps (28fps min)
Differenz; +67,8%
MGPU Gewinn C2D: 1,7%
MGPU Gewinn i7: 47,8%
-------------
BattleForge, 1280x1024, 8xAA/16xAF
HD5870, Core2Duo @3,4Ghz; 62fps
HD5870, Corei7 @3,4Ghz; 61fps
Differenz; -1,7%
2xHD5870, Core2Duo @3,4Ghz; 105fps
2xHD5870, Corei7 @3,4Ghz; 112fps
Differenz; +6,7%
MGPU Gewinn C2D: 69,4%
MGPU Gewinn i7: 83,6%
------------
Left4Dead, 1280x1024, 8xAA/16xAF
HD5870, Core2Duo @3,4Ghz; 98fps
HD5870, Corei7 @3,4Ghz; 143fps
Differenz; +45,9%
2xHD5870, Core2Duo @3,4Ghz; 107fps
2xHD5870, Corei7 @3,4Ghz; 151fps
Differenz; +41,1%
MGPU Gewinn C2D: 9,2%
MGPU Gewinn i7: 5,6%
------------
Call of Duty 5: World at War, 1280x1024, 8xAA/16xAF
HD5870, Core2Duo @3,4Ghz; 95fps
HD5870, Corei7 @3,4Ghz; 151fps
Differenz; +59%
2xHD5870, Core2Duo @3,4Ghz; 102fps
2xHD5870, Corei7 @3,4Ghz; 167fps
Differenz; +63,7%
MGPU Gewinn C2D: 7,4%
MGPU Gewinn i7: 10,6%
So, abschliessend bleibe ich bei meiner Meinung, das ein MultiGPU System respektive eine starke Grafikkarte ausreicht, um in 17" TFT Auflösungen spielen zu können. Strategietitel brauchen mehr CPU Power als Grafik? Das sieht bei Battleforce etwas anders aus.
Gemittelt aus diesem Auszug ergibt eine Aufrüstung von einem C2D auf einen i7 insgesamt 25% Performacezuwachs bei einer Single HD5870. Ein C2D Profitiert bei MGPU Umgebungen nur um ~21,6%. Es muss also jeder selber entscheiden ob er sich 2 Mittelklasse Karten kauft und mit den +20% leben kann bei geringeren Anschaffungskosten gegenüber einem Infrastrukturwechsel zu einem i5, die 25% mehr Performance mit sich bringen.
So kostet aktuell ein SLI Mainboard (http://geizhals.at/deutschland/a303460.html) + 2xGTS450 (http://geizhals.at/deutschland/a569141.html) => 288,73 € und man kann sein C2D behalten.
Ein i5-750 (http://geizhals.at/deutschland/a445050.html) inkl. Mainboard (http://geizhals.at/deutschland/a537349.html), 4GB DDR3 Speicher (http://geizhals.at/deutschland/a570720.html) und GTX470 (http://geizhals.at/deutschland/a523681.html) kommt auf => 537,36 € (+86% Anschaffungskosten gegenüber der SLI Lösung)
Eine GTX470 deshalb, weil es auf Augenhöhe (http://ht4u.net/reviews/2010/nvidia_geforce_gts_450_test_msi_cyclone_gigabyte_oc/index34.php?dummy=&prod[]=NVIDIA+GeForce+GTS+450+SLI-Betrieb&prod[]=NVIDIA+GeForce+GTX+470&filter[0][]=1280&filter[0][]=1680&filter[0][]=1920&filter[2][]=4&filter[2][]=8&filter[3][]=16) der GTS450SLI Lösung sich befindet.
Steigen die Auflösungen inkl. AA/AF, sind C2D und i7 auch in CPU Lastigen Spielen wie Call of Duty oder WiC dichter beieinander. Sollte man bedenken, bevor man jetzt mit dem HD Argument kontert. Hinzu kommt der Fakt das nicht einbezogen ist, das SLI besser skaliert als Crossfire. Aus genannten Gründen würde ich jederzeit zu einer SLI Lösung raten für jemandem, der knapp bei Kasse ist. In so einem Fall gehe ich davon aus das noch ein alter 17"CRT oder TFT vorhanden ist und man nur mehr Power haben möchte.
Matrix316
2010-09-24, 09:37:36
Hey, deine letzten Beispiele sind ziemlich gut, denn sie zeigen schön wie der Core 2 Duo hier limitiert:
FarCry 2, 1280x1024, 8xAA/16xAF
HD5870, Core2Duo @3,4Ghz; 70fps (48fps min)
HD5870, Corei7 @3,4Ghz; 71fps (48fps min)
Differenz; 1,4%
2xHD5870, Core2Duo @3,4Ghz; 74fps (53fps min)
2xHD5870, Corei7 @3,4Ghz; 128fps (91fps min)
Differenz; +73%
Mit dem Core 2 Duo kaum Steigerung durch Crossfire, aber mit dem i7 wesentlich bessere FPS. Das zeigt, dass hier die Dual Core CPU am Limit arbeitet, während der i7 noch Reserven hat. Und das war ja das eigentliche Thema im Thread, oder? ;D
Sentionline
2010-09-24, 09:44:47
Natürlich arbeitet der i7/i5 schneller, habe ja keine Tomaten auf dem Kopf. Nur muss man auch bedenken das du gerade einen i7 mit 4 Kernen mit jeweils 3,4Ghz siehst. Ein i5 taktet per Default mit 4x2,67Ghz und der Abstand zum C2D schrumpft wieder. Belege dafür hab ich jetzt natürlich nicht.
Mein Ansatz ist in diesem Thread aber eine andere, in dem ich meine, das ein C2D zum Spielen locker ausreicht. Das man die Frames durch eine dickere CPU nach oben drücken kann, hab ich auch gesehen. Nur ob dies wirklich notwendig ist und die Spielbarkeit eines Spiels beeinträchtigt, stelle ich in Frage. Nur weil CPU XY mehr Frames produziert, ist die schwächere nicht gleich "nicht mehr zum Spielen geeignet".
Bei Crysis beispielsweise kann man dem "unspielbaren Bereich" entgehen, wenn man die 2. Karte drin hat. Bei Battleforce seh ich keine CPU Limitierung, ich sehe dort das eher die GPU Limitiert. Das ist aber ein vernichtendes Argument für die, die meinen Strategietitel bräuchten mehr CPU Power.
iDiot
2010-09-24, 09:49:59
Es kommt eben drauf an wie und was man spielt.
In BFBC2 kackte der E6600@2,8Ghz vor allem wenn viel los war total ab, diese Slowdowns steckt der Quad besser weg, und gerade bei so schnellen Multiplayer Spielen ist das ziemlich bescheiden, da hilft die ganze Bench- Theorie nix.
Sentionline
2010-09-24, 09:54:08
In "einzelnen Sonderfällen" kann man sicherlich ein CPU Update empfehlen. Allgemeingültig ist die Gamerschaft wohl eher kein chronischer BFBC2 Multiplayer spieler. :smile:
Es gibt ja auch Offline Spiele(r) mit Shift/Grid/Dirt oder Crysis/C&C3. Dort kann mehr GPU Power nie schaden. Denen kann man auch eher sagen, "rüste deine Karte auf".
Wenn zu mir jemand kommt und sagt; "Ich will Power für die nächsten Jahre für wenig Geld", dem würd ich immer eine kleine CPU mit ordentlicher Grafikpower spendieren. Für den moment und nahe Zukunft wirds immer reichen und ein CPU Wechsel in zukunft ist immer billiger. Wenn aber jemand mit einem Rechner kaliber 8600GT kommt und mir sagt ich will mehr Spielen, dem empfehle ich keine Umrüstung auf den i5 für den moment. Denn dieses System wird schneller ins wanken kommen in Spielen wie die zuvor genannte Lösung.
iDiot
2010-09-24, 09:57:56
Das ist eigentlich ein Phänomen dass ich bei vielen schnellen Online Spielen, auch Strategiespiele wie Starcraft 2 beobachten konnte, wenns extrem zur sache geht ist die CPU sehr stark gefordert, slowdowns sind dann ein echtes Handicap.
Das selbe Phänomen gabs auch früher schon, bei Dawn of War oder Age of Empires II (natürlich mit langsameren CPUs). Man kann eben nicht für die Allgemeinheit sagen ob ein CPU, GPU oder was auch immer - Upgrade nötig ist.
y33H@
2010-09-24, 10:17:09
Schwache CPU + Low-End-Karten-SLI :usad:
dargo
2010-09-24, 10:24:18
Quelle (http://www.xbitlabs.com/articles/video/display/radeon-hd5870-cpu-scaling.html)
FarCry 2, 1280x1024, 8xAA/16xAF
HD5870, Core2Duo @3,4Ghz; 70fps (48fps min)
HD5870, Corei7 @3,4Ghz; 71fps (48fps min)
Differenz; 1,4%
2xHD5870, Core2Duo @3,4Ghz; 74fps (53fps min)
2xHD5870, Corei7 @3,4Ghz; 128fps (91fps min)
Differenz; +73%
MGPU Gewinn C2D: 5,7%
MGPU Gewinn i7: 80,3%
------------
Crysis, 1280x1024, 4xAA/16xAF
HD5870, Core2Duo @3,4Ghz; 33fps (17fps min)
HD5870, Corei7 @3,4Ghz; 43fps (29fps min)
Differenz; +30%
2xHD5870, Core2Duo @3,4Ghz; 45fps (23fps min)
2xHD5870, Corei7 @3,4Ghz; 55fps (31fps min)
Differenz; +22,2%
MGPU Gewinn C2D: 36,4%
MGPU Gewinn i7: 66,7%
-------------
World in Conflict, 1280x1024, 8xAA/16xAF
HD5870, Core2Duo @3,4Ghz; 58fps (20fps min)
HD5870, Corei7 @3,4Ghz; 67fps (31fps min)
Differenz; +15,5%
2xHD5870, Core2Duo @3,4Ghz; 59fps (18fps min)
2xHD5870, Corei7 @3,4Ghz; 99fps (28fps min)
Differenz; +67,8%
MGPU Gewinn C2D: 1,7%
MGPU Gewinn i7: 47,8%
-------------
BattleForge, 1280x1024, 8xAA/16xAF
HD5870, Core2Duo @3,4Ghz; 62fps
HD5870, Corei7 @3,4Ghz; 61fps
Differenz; -1,7%
2xHD5870, Core2Duo @3,4Ghz; 105fps
2xHD5870, Corei7 @3,4Ghz; 112fps
Differenz; +6,7%
MGPU Gewinn C2D: 69,4%
MGPU Gewinn i7: 83,6%
------------
Left4Dead, 1280x1024, 8xAA/16xAF
HD5870, Core2Duo @3,4Ghz; 98fps
HD5870, Corei7 @3,4Ghz; 143fps
Differenz; +45,9%
2xHD5870, Core2Duo @3,4Ghz; 107fps
2xHD5870, Corei7 @3,4Ghz; 151fps
Differenz; +41,1%
MGPU Gewinn C2D: 9,2%
MGPU Gewinn i7: 5,6%
------------
Call of Duty 5: World at War, 1280x1024, 8xAA/16xAF
HD5870, Core2Duo @3,4Ghz; 95fps
HD5870, Corei7 @3,4Ghz; 151fps
Differenz; +59%
2xHD5870, Core2Duo @3,4Ghz; 102fps
2xHD5870, Corei7 @3,4Ghz; 167fps
Differenz; +63,7%
MGPU Gewinn C2D: 7,4%
MGPU Gewinn i7: 10,6%
So, abschliessend bleibe ich bei meiner Meinung, das ein MultiGPU System respektive eine starke Grafikkarte ausreicht, um in 17" TFT Auflösungen spielen zu können. Strategietitel brauchen mehr CPU Power als Grafik? Das sieht bei Battleforce etwas anders aus.
Gemittelt aus diesem Auszug ergibt eine Aufrüstung von einem C2D auf einen i7 insgesamt 25% Performacezuwachs bei einer Single HD5870. Ein C2D Profitiert bei MGPU Umgebungen nur um ~21,6%. Es muss also jeder selber entscheiden ob er sich 2 Mittelklasse Karten kauft und mit den +20% leben kann bei geringeren Anschaffungskosten gegenüber einem Infrastrukturwechsel zu einem i5, die 25% mehr Performance mit sich bringen.
:facepalm:
Du hast nach den vielen Seiten absolut nichts verstanden. Wie kann man nur so lernresistent sein? :freak:
Matthias2x
2010-09-24, 10:44:57
*lol* wer zockt denn bitte mit einem SLI / CF -System auf einem 17 Zoll TFT oder gar noch CRT???
Matrix316
2010-09-24, 11:40:01
Mit SLI ist das so eine Sache. Mal abgesehen von den obligatorischen Mikrorucklern und Pseudo Inputlags, kann es sich lohnen - muss aber net. Zum Beispiel zwei GTX460 1GB für jeweils 180 Euro sind verdammt schnell. Für 360 Euro bekommt man glaube ich keine gleichwertige Singlekarte. Nur ne 5970 ist schneller. Bei anderen Kombinationen würde ich erstmal nachrechnen ob es keine schnellere Singlekarte zum gleichen Preis gibt.
Sentionline
2010-09-24, 12:41:05
:facepalm:
Du hast nach den vielen Seiten absolut nichts verstanden. Wie kann man nur so lernresistent sein? :freak:
Lernresistent bist wohl anscheinend du, wenn du mehr nicht verstanden hast, und meine Zeit mit euch vergeude. Du und viele andere begreifen auch nicht, das nicht jeder der "normal" spielen will sein C2D aus dem Fenster werfen muss. Und nicht jeder besitzt ein 24" ultra extreme 2560x Monitor zum spielen.
So, das wars von meiner Seite, viel spaß mit deinem Quad.
RoNsOn Xs
2010-09-24, 13:42:34
fairerweise muss man die sli-(oder cf)fps nun noch in realtion zu singlekarten-fps setzen. sli/cf lohnt nie.
Schrotti
2010-09-24, 14:02:17
CF mit 2x AMD 5870 für eine 1280er Auflösung.
Oh Gott das ist so :ucrazy2:.
Wenn man das Geld für 2 5870er Karten hat dann sollte auch noch was für einen anständigen Monitor über sein.
:facepalm:
Sentionline
2010-09-24, 14:09:08
1. hab ich keine Mittelklasse SLI Benchmarks mit versch. CPUs gefunden
2. kann man mit einem 17"TFT nach wie vor "anständig" spielen (8xAA ist billig oder wie seh ich das?) Weitaus besser als HD ohne AA
Jeder intepretiert sein Venus und Mars in die Argumente. So far, move along.
Matrix316
2010-09-24, 14:10:50
Lernresistent bist wohl anscheinend du, wenn du mehr nicht verstanden hast, und meine Zeit mit euch vergeude. Du und viele andere begreifen auch nicht, das nicht jeder der "normal" spielen will sein C2D aus dem Fenster werfen muss. Und nicht jeder besitzt ein 24" ultra extreme 2560x Monitor zum spielen.
So, das wars von meiner Seite, viel spaß mit deinem Quad.
Aber ein 24" 1920x1200 oder von mir aus 1080p Monitor ist jetzt auch nix außergewöhnliches oder besonderes, sondern Mainstream-standard! http://geizhals.at/deutschland/?cat=monlcd19wide&xf=99_24&sort=p
Man muss auch mal ein wenig mit der Zeit gehen. :) Als ich meinen ersten TFT kaufen wollte, koste ein 17"er satte 400 Euro und das war ein Billigmodell. Bessere kosteten 500 und mehr. Heute kriegste für einen Bruchteil ein im Vergleich Monster Display. Den alten kann man ja immer noch als Zweitmonitor nutzen.
Matthias2x
2010-09-24, 14:27:27
Also ich denke einen 22 Zoll mit mind. 1680x1050 kann man schon als Maßstab für eine neue Grafikkarte der vorgenannten Preisklasse hernehmen. Die Auflösung sollte die Karte in vernünftiger Qualität problemlos liefern können ... bei SLI / CF erst recht. Für einen 17 Zoll mit max. 1280x1024 brauche ich weder eine HD5870 und schon gleich gar kein SLI/CF Gespann. Da reicht auch eine GF der 9800´er Serie oder von mir aus eine HD57x0 zum flüssigen zocken mit hohen Details und AA+AF.
17 Zoll TFT mit schlechter BQ oder gar Röhre (mit augenkrebsfördernden 60Hz) sehe ich heute max. noch in vergeizten Firmen die ihren Angestellten sowas antun, oder eben in direkt der produktion wo es nicht darauf ankommt. Sorry aber ab mind. 19 Zoll aufwärts ist für jeden locker erschwinglich, erst recht wenn geld für überteuerte grafikkarten da ist.
dargo@work
2010-09-24, 14:38:17
Lernresistent bist wohl anscheinend du, wenn du mehr nicht verstanden hast, und meine Zeit mit euch vergeude. Du und viele andere begreifen auch nicht, das nicht jeder der "normal" spielen will sein C2D aus dem Fenster werfen muss. Und nicht jeder besitzt ein 24" ultra extreme 2560x Monitor zum spielen.
So, das wars von meiner Seite, viel spaß mit deinem Quad.
Mein Gott, ich bereue jetzt schon, dass ich mich in diesen Thread eingemischt habe. Wie oft willst du noch irgendwelchen Benchmarkschrott verlinken? Aus deiner letzten Quelle:
Crysis (Direct3D 10) – game version 1.2.1, “Very High” settings profile, two runs of “Assault harbor” test from Crysis Benchmark Tool version 1.0.0.5;
Unreal Tournament 3 (Direct3D 9) – version 2.1, highest graphics quality settings (level 5), Motion Blur and Hardware Physics enabled, a FlyBy of the “DM-ShangriLa” map (two consecutive cycles) using HardwareOC UT3 Bench v1.5.0.0;
Lost Planet: Colonies (Direct3D 10) – version 1.0, Maximum Quality settings, DX10 HDR Rendering, integrated benchmark including two scenes, but the results are provided from the first scene only (ARENA 1);
S.T.A.L.K.E.R.: Clear Sky (Direct3D 10.1) – game version 1.5.10, Improved Full DX10 Lighting profile plus 16x anisotropic filtering and other maximum graphics quality settings, my own s04 demo record (a triple run of the test) on the first gaming level;
Far Cry 2 (Direct3D 10) – version 1.03, Ultra High settings profile, two runs of the Ranch Small test from Far Cry 2 Benchmark Tool (v1.0.0.1);
Call of Duty 5: World at War (Direct3D 9) – version 1.6, graphics and textures are set at “Extra” level, Breach demo from the same-name level;
Warhammer 40,000: Dawn of War II (Direct3D 10.1) – version 1.6.0.4234, image quality settings set to Ultra level in the game menu, two runs of built-in benchmark;
BattleForge (Direct3D 11) – version 1.1, maximum image quality settings, shadows enabled, SSAO technology disabled, two runs of the built-in benchmark;
Stormrise (Direct3D 10.1) – version 1.0.0.0, maximum effects and shadows quality, Ambient Occlusion disabled, two runs of the “$mn_sp05” mission demo scene;
Tom Clancy’s H.A.W.X. (Direct3D 9) – version 1.03, maximum graphics quality settings; HDR, DOF and Ambient Occlusion enabled, two runs of the built-in benchmark;
http://www.xbitlabs.com/articles/video/display/radeon-hd5870-cpu-scaling_2.html#sect0
Das sind jetzt paar Beispiele die mir sofort ins Auge gefallen sind. Solange du nicht begreifst (oder nicht bereits bist zu verstehen) welche Auswirkungen Timedemos auf die CPU-Last in Games haben ist jegliche Diskussion mit dir sinnlos! Die Arbeit hätte sich xbitlabs auch sparen können, denn die Ergebnisse sagen absolut nichts aus über die CPU-Leistung. Wenn sich mal die schnellere CPU mit SLI/CF gut absetzen kann dann ist das reiner Zufall weil die CPU-Last selbst dann in einer Timedemo durch die hohe Leistung zweier Grafikkarten überwiegt. Mit Praxis hat das aber immer noch nichts zu tun!
Angiesan
2010-09-24, 14:57:43
Es ist mir leider auch schon das ein oder andere mal aufgefallen, dass es hier
Menschen gibt die die einfach nicht verstehen wollen worum es geht.
Natürlich sind 4 Kerner Heute schon fast standard, es ist aber doch so, das ein hochgetakteter 2 Kerne eben schon noch häufig spielbare Frames liefert.
Da es jedoch keine direkten Vergleiche gibt muss man dass selbst herausfinden.
Oder wo findet sich ein E6600 @3,6 GHz in einem Performance-Index?
Oder ein alter Quad 8200 oder 8400 @ 3,00 GHZ oder höher getaktet.
Ist das erwünscht, nein genau so wie man kein CoD W@W oder CoD 4 mehr testet, da sind die hochgetakteten alten in der Regel schneller wie die relativ niedrig getakteten Core I5 oder I7 es ist doch verständlich, dass die Tester nicht die Hand schlagen die sie füttert (bitte nicht falsch verstehen) aber wenn kein Vorteil der neuen Generation erkennbar ist warum soll dann der geneigte Käufer so was kaufen? Also werden wir immer solche Sachen zu sehen bekommen in denen die neue Generation deutliche Vorteile liefern wird.
Auf der anderen Seite steht es außer Frage, dass man einer GPU auch die notwendige CPU Power zur Seite stellen sollte damit man auch alles aus dem Ding rausholt, doch wo ist da die Grenze? Prinzipiell kann aus diesem Standunkt heraus die CPU nie schnell genug sein, aber wer kommt schon auf die Idee einem I7 980X eine GTX 460 an die Seite zu stellen, wohl kaum jemand.Wo liegt die Grenze zwischen ausgewogen und unnötig, kann mir das hier mal jemand erklären? Wohl nicht! Den selbst bei der heute schnellsten CPU werden sich Stellen in Spielen finden lassen die auch mit einer GTX 480 nicht schneller laufen wie mit einer GTX 460 und auf der anderen Seite werden sich wohl auch Stellen finden lassen die mit einer 480er 40% schneller laufen, wo ist nun die Wahrheit?
Im Geschäftsleben gibt es ein Verhaltensmuster "Schwächen soweit verbessern das sie nicht Karriere behindernd sind, wenn ich das mal auf die HW übertragen darf, entweder Alles so schnell wie möglich und viel Geld in die Hand nehmen oder die Komponenten so wählen, dass jedes Spiel darauf vernünftig läuft aber in dem Wissen es ging noch besser.
Es wäre doch mal ein Thema als Basis eben nicht die uralt Prozzis zu nehmen in einem Aufrüst Report sondern relativ aktuell CPUs aus der Vorgänger-Generation. Und mal nachsehen was bringt eine GTX470 oder 480 auf den Alten, gerne auch mit Übertaktung im Vergleich zu einem Phenom oder I5 I7?
Reicht es noch oder kann man sich als alt CPU Besitzer die GTX 480 sparen da hier schon die GTX470 zu schnell ist?
Ich denke, dass würde viele auch hier interessieren oder auch nicht :wink:
Warum vergleicht ihr die fps überhaupt mit AA. Jetzt kommt Gothic4 raus und es ist zigstes Spiel was so tut als wenn AA nur ein Dx-Hack wäre. Wieder wird man bestenfalls zig Tage auf Treiber-Hacks der IHVs warten und ini-Filtertricks ausknobeln und und und.
Ist AF auch nur ein DX-Hack? Ich hab da langsam keine Lust mehr drauf. Morgen wird eine Wii geholt :ulol:
Matrix316
2010-09-24, 15:09:06
Solche Aufrüst Specials wo man ältere und neuere CPUs mit älterer und neuerer Grafikkarten testet, gibts ja in der PCGH ab und zu. Es macht aber heute auch keinen Sinn mehr 4 Jahre alte Spiele zu benchen, wenns schon den xten Nachfolger gibt.
Mein Gott, ich bereue jetzt schon, dass ich mich in diesen Thread eingemischt habe. Wie oft willst du noch irgendwelchen Benchmarkschrott verlinken? Aus deiner letzten Quelle:
Crysis (Direct3D 10) – game version 1.2.1, “Very High” settings profile, two runs of “Assault harbor” test from Crysis Benchmark Tool version 1.0.0.5;
Unreal Tournament 3 (Direct3D 9) – version 2.1, highest graphics quality settings (level 5), Motion Blur and Hardware Physics enabled, a FlyBy of the “DM-ShangriLa” map (two consecutive cycles) using HardwareOC UT3 Bench v1.5.0.0;
Lost Planet: Colonies (Direct3D 10) – version 1.0, Maximum Quality settings, DX10 HDR Rendering, integrated benchmark including two scenes, but the results are provided from the first scene only (ARENA 1);
S.T.A.L.K.E.R.: Clear Sky (Direct3D 10.1) – game version 1.5.10, Improved Full DX10 Lighting profile plus 16x anisotropic filtering and other maximum graphics quality settings, my own s04 demo record (a triple run of the test) on the first gaming level;
Far Cry 2 (Direct3D 10) – version 1.03, Ultra High settings profile, two runs of the Ranch Small test from Far Cry 2 Benchmark Tool (v1.0.0.1);
Call of Duty 5: World at War (Direct3D 9) – version 1.6, graphics and textures are set at “Extra” level, Breach demo from the same-name level;
Warhammer 40,000: Dawn of War II (Direct3D 10.1) – version 1.6.0.4234, image quality settings set to Ultra level in the game menu, two runs of built-in benchmark;
BattleForge (Direct3D 11) – version 1.1, maximum image quality settings, shadows enabled, SSAO technology disabled, two runs of the built-in benchmark;
Stormrise (Direct3D 10.1) – version 1.0.0.0, maximum effects and shadows quality, Ambient Occlusion disabled, two runs of the “$mn_sp05” mission demo scene;
Tom Clancy’s H.A.W.X. (Direct3D 9) – version 1.03, maximum graphics quality settings; HDR, DOF and Ambient Occlusion enabled, two runs of the built-in benchmark;
http://www.xbitlabs.com/articles/video/display/radeon-hd5870-cpu-scaling_2.html#sect0
Das sind jetzt paar Beispiele die mir sofort ins Auge gefallen sind. Solange du nicht begreifst (oder nicht bereits bist zu verstehen) welche Auswirkungen Timedemos auf die CPU-Last in Games haben ist jegliche Diskussion mit dir sinnlos! Die Arbeit hätte sich xbitlabs auch sparen können, denn die Ergebnisse sagen absolut nichts aus über die CPU-Leistung. Wenn sich mal die schnellere CPU mit SLI/CF gut absetzen kann dann ist das reiner Zufall weil die CPU-Last selbst dann in einer Timedemo durch die hohe Leistung zweier Grafikkarten überwiegt. Mit Praxis hat das aber immer noch nichts zu tun!Ich hab leider auch nichts verstanden! :usad:
Mir zeigen mir die Benches bei xbitlabs im Prinzip doch, wie Sentionline gerade mit diesen in seiner Behauptung gestützt wird, dass ein C2D in den meisten Fällen noch ausreicht. Wenn ich mir speziell den C2D@3,4GHz ansehe, was ja eine allgemein übliche Hausmannskost-Übertaktung ist, komme auch ich zu dem Schluss, dass es nicht unbedingt der dickste Prozessor sein muss.
Aber wie gesagt, ich hab's ja nicht verstanden. :freak:
y33H@
2010-09-24, 15:40:34
Die Testszenen sind keine ingame-Szenen, keine Saves, nicht "echt".
Sondern ein vorgefertigter Ablauf, wie ein Film - das taugt, um Grafikkarten zu testen. Nicht aber die CPU.
dargo@work
2010-09-24, 15:49:08
Ich hab leider auch nichts verstanden! :usad:
Mir zeigen mir die Benches bei xbitlabs im Prinzip doch, wie Sentionline gerade mit diesen in seiner Behauptung gestützt wird, dass ein C2D in den meisten Fällen noch ausreicht. Wenn ich mir speziell den C2D@3,4GHz ansehe, was ja eine allgemein übliche Hausmannskost-Übertaktung ist, komme auch ich zu dem Schluss, dass es nicht unbedingt der dickste Prozessor sein muss.
Aber wie gesagt, ich hab's ja nicht verstanden. :freak:
Ingame-Benchmarks oder vorgefertigte Demos sind reine Timedemos. Timedemos haben einen gravierenden Nachteil - sie hebeln einen sehr großen Anteil (gerade in Szenen wo viel los ist) der CPU-Last (KI, Physik etc.) aus wodurch du automatisch eine sehr geringe CPU-Last in diesen Timedemos hast. Geringe CPU-Last = hohe GPU-Last. Dass in solchem Szenario eine deutlich schnellere CPU ihren Vorteil nicht zeigen kann ist nur logisch.
Timedemos haben auf CPU-Seite rein gar nichts mit Ingameszenen zu tun, sprich das was du tatsächlich spielst.
Die Testszenen sind keine ingame-Szenen, keine Saves, nicht "echt".
Sondern ein vorgefertigter Ablauf, wie ein Film - das taugt, um Grafikkarten zu testen. Nicht aber die CPU.
Ingame-Benchmarks oder vorgefertigte Demos sind reine Timedemos. Timedemos haben einen gravierenden Nachteil - sie hebeln einen sehr großen Anteil (gerade in Szenen wo viel los ist) der CPU-Last (KI, Physik etc.) aus wodurch du automatisch eine sehr geringe CPU-Last in diesen Timedemos hast. Geringe CPU-Last = hohe GPU-Last. Dass in solchem Szenario eine deutlich schnellere CPU ihren Vorteil nicht zeigen kann ist nur logisch.
Timedemos haben auf CPU-Seite rein gar nichts mit Ingameszenen zu tun, sprich das was du tatsächlich spielst.Alles klar. Dann weiß ich jetzt Bescheid. Hatte mich auch sehr gewundert.
Den Text hab ich gar nicht gelesen, nur die "Balken" überflogen.
@Dargo Was machen die BlackScreen-Probs?
Alles klar. Dann weiß ich jetzt Bescheid. Hatte mich auch sehr gewundert.
Den Text hab ich gar nicht gelesen, nur die "Balken" überflogen.
Mich wundert, dass langjährige 3DCentianer scheinbar die hauseigenen Reviews nicht kennen: http://www.3dcenter.org/artikel/intel-core-i5-750-lynnfield-review/benchmarks-far-cry-2
dargo@work
2010-09-24, 16:01:05
Den Text hab ich gar nicht gelesen, nur die "Balken" überflogen.
Diesen Fehler machen leider die meisten. Ich traue mittlerweile keinem Benchmark mehr in dem nicht ausgiebig erklärt wird wie der Tester vorgegangen ist. Selbst mit Savegames kannst du bei CPU-Tests ungünstige Spielszenen wählen die die Grafikkarte mehr fordern als die CPU. Wie gesagt, es ist in Spielen was die Limits angeht ein hin und her. Dann gibt es natürlich auch Spiele die extrem Richtung CPU-Last und andere wieder extrem in Richtung GPU-Last (ist natürlich auch von den verwendeten Settings abhängig) neigen.
@Dargo Was machen die BlackScreen-Probs?
Sind wie weggeblasen. :-))
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8287258&postcount=35
Mich wundert, dass langjährige 3DCentianer scheinbar die hauseigenen Reviews nicht kennen: http://www.3dcenter.org/artikel/intel-core-i5-750-lynnfield-review/benchmarks-far-cry-2Kannte ich tatsächlich noch nicht. FarCry 2 hab ich nicht, vielleicht hab ich das deswegen nicht beachtet.
Danke für den Link. (y)
Schrotti
2010-09-24, 17:35:36
Kannte ich tatsächlich noch nicht. FarCry 2 hab ich nicht, vielleicht hab ich das deswegen nicht beachtet.
Danke für den Link. (y)
Ging mir auch so.
Ich ignoriere FC2 weil das Spiel Schrott ist.
Angiesan
2010-09-24, 20:15:47
Solche Aufrüst Specials wo man ältere und neuere CPUs mit älterer und neuerer Grafikkarten testet, gibts ja in der PCGH ab und zu. Es macht aber heute auch keinen Sinn mehr 4 Jahre alte Spiele zu benchen, wenns schon den xten Nachfolger gibt.
Und was hat dass jetzt damit zu tun???
Es gibt aber eben noch genug Leute die CoD4 spielen, und da das ja noch ältere WOW ja auch bei der PCGH im Testparcour Einzug gehalten hat dürfte es ja kein Problem darstellen den am meisten online gespielten FPS auch in den Parcour aufzunehmen bzw. wieder aufzunehemen oder?
Ja habe ich auch schon gesehen, aber bis auf den Q6600 ist da nichts vergleichbares dabei, ein Q8400 oder Q9400 oder Q9550 der ja sehr verbreitet war, würde da schon mal Sinn machen, damit man sieht, lohnt sich das überhaupt.
Ich bin der festen Überzeugung, das ein Q9550, mit OC auf 3,6GHz was ja nach den meisten Berichten noch weit vom Maximalen weg sein soll, von einem Core I5 oder Core I7 in Spielen nicht geschlagen werden kann. Da muss man da genauso an der Taktschraube drehen aber wissen tue ich es eben nicht.
Ich würde es toll finden, wenn man da mal was testen würde.
y33H@
2010-09-24, 21:11:09
idR ist ein Lynnfield ohne SMT pro Takt 20-30% schneller in Spielen als ein Yorkfield, d.h. ein i5-760 mit 2,8 GHz ist einem QX9770 bereits oft über und kann wenn's gut läuft, selbst einem 3,6-GHz-Yorkfield Paroli bieten. Und wenn's schei0e läuft, ist er kaum schneller als ein Q9650.
Hallo - da hier recht gut diskutiert wird und es Leute gibt die sich mit der Materie auskennen, würde ich ehrlich gerne wissen, was sie zu diesen Tests zu sagen haben.
http://www.xbitlabs.com/articles/video/display/radeon-hd5870-cpu-scaling_5.html
http://www.tomshardware.de/cpu-gpu-leistung,testberichte-240623-9.html
Ganz ehrlich: sind die gut? Kann man das brauchen, haben die aussagekraft?
Sie zeigen grob zusammengefasst, dass ein dualcore nicht mehr für gtx460 und 5870 reichen, aber alles was über dem Niveau eines Dualcores hinaus geht scheint genug Power für besagte Karten zu liefern.
[ich geb zu "dualcore" ist etwas allgemein gesagt]
gilt natürlich nicht für die Strategie Titel :)
dargo
2010-09-25, 08:53:10
Hallo - da hier recht gut diskutiert wird und es Leute gibt die sich mit der Materie auskennen, würde ich ehrlich gerne wissen, was sie zu diesen Tests zu sagen haben.
http://www.xbitlabs.com/articles/video/display/radeon-hd5870-cpu-scaling_5.html
Müll da Timedemos.
http://www.tomshardware.de/cpu-gpu-leistung,testberichte-240623-9.html
Ich habe hierbei keine Info auf die schnelle gefunden wie getestet wurde. Wenn ich mir allerdings die Ergebnisse von CoD anschaue ist es ebenfalls Müll. Selbst wenn die ein Savegame genommen haben ist die Testszene gnadenlos gpu-limitiert.
Wird das jetzt hier ein Ratespiel? Keiner, ich wiederhole mich... keiner, außer dem 3DC-Review-Team und der PCGH hat verstanden wie man CPUs in Games testet. Selbst bei der PCGH bin ich noch nicht ganz zufrieden. Sie sind aber dem Ziel um Lichtjahre näher als alle anderen Reviewer im Netz.
Sentionline
2010-09-25, 09:20:54
Müll da Timedemos.
Für dich ist alles Müll. Beschleunigungstest auf Rennstrecke auch Müll, da kein Stadtverkehr. V/Max Tests auch Müll, da voll beladen mit Gegenwind bei Regen auf Geländereifen. Alle n00bies, nur Dargo ist der Checker.
Mr.Fency Pants
2010-09-25, 09:29:33
Zustimm, vielleicht sollten sich hier mal einige davon lösen, dass es nicht den einzigen Benchmark gibt, sondern dass viele unterschiedliche Arten ein Gesamtbild ergeben, was man unterschiedlich interpretieren kann. Da gibt es nicht immer nur richtig und falsch.
dargo
2010-09-25, 09:36:10
Zustimm, vielleicht sollten sich hier mal einige davon lösen, dass es nicht den einzigen Benchmark gibt, sondern dass viele unterschiedliche Arten ein Gesamtbild ergeben, was man unterschiedlich interpretieren kann. Da gibt es nicht immer nur richtig und falsch.
Wenn ein Reviewer als Überschrift "May Power Be with You: Find the Best CPU for a Single ATI Radeon HD 5870 and ATI Radeon HD 5870 CrossFireX Configuration" nennt und intergrierte Timedemos oder vorgefertigte Demos für seinen Test verwendet dann tut es mir leid, ich kann den nicht ernst nehmen.
Mr.Fency Pants
2010-09-25, 09:45:49
Wenn ein Reviewer als Überschrift "May Power Be with You: Find the Best CPU for a Single ATI Radeon HD 5870 and ATI Radeon HD 5870 CrossFireX Configuration" nennt und intergrierte Timedemos oder vorgefertigte Demos für seinen Test verwendet dann tut es mir leid, ich kann den nicht ernst nehmen.
Ich rede ja nicht nur von diesem einen Benchmark, sondern auch von allen anderen an denen du ständig rummäkelst. Es mag sicherlich Benchmarks geben, die für die Tonne sind. Du tust aber so, als ob du den ultimtiven Durchblick hats, wie ein optimaler Benchmark auszusehen hat und den gibts einfach nicht, das fängt schon mit der Auswahl der Spiele an. Manche sind für den einen wichtig und für den anderen uninteressant.
Daher bin ich der Meinung, dass (fast) jeder Bench seine Berechtigung hat, um sich ein Bild von der Performance einer CPU zu machen, es geht halt darum, was jeder für sich da rausliest. Deshalb solltest du mal nen Gang runterschalten, was die ständige Kritik an den Benches von CB und wie sie alle heißen angeht.
boxleitnerb
2010-09-25, 10:02:46
Naja ein Bench hat doch nur dann eine Existenzberechtigung, wenn er aussagekräftig ist. Ist er das nicht, ist er sinnlos. Sicher gibt es nicht nur schwarz und weiß, aber wenn in einem Benchmark objektiv und wissenschaftlich gesehen eklatante Fehler gemacht werden, gibts eben kein Pardon. Ich kann in meiner Diplomarbeit auch nicht hergehen und systematische Fehler in meinen Messergebnissen schönreden mit "irgendjemandem wirds schon irgendwas sagen". Von einem Test erwarte zumindest ich einen gewissen wissenschaftlichen Anspruch mit den entsprechenden Hintergedanken (was mache ich da eigentlich, ist es sinnvoll, was denke ich mir dabei), die der Tester sich zu machen hat. Er hat ja auch Verantwortung ggü. seinen Lesern, die er damit berät. Wenn er nur in seiner Freizeit privat irgendwas vor sich hinbencht wäre es egal. Aber so ist es einfach irreführend.
dargo
2010-09-25, 10:05:59
Ich rede ja nicht nur von diesem einen Benchmark, sondern auch von allen anderen an denen du ständig rummäkelst.
Aus gutem Grund. Wenn du das Thema verstanden hättest wüsstest du auch warum.
Es mag sicherlich Benchmarks geben, die für die Tonne sind.
Im Prinzip sind alle Benchmarks aka Timedemos und/oder vorgefertigte Demos Müll weil sie nichts mit Ingameszenen gemeinsam haben. Zumindest nicht auf CPU-Seite. Sie werden trotzdem zum größten Teil benutzt. Jetzt rate mal aus welchem Grund? Richtig, weil der Zeitaufwand am geringsten ist.
Timedemos sind nur für Grafikkartentests brauchbar als Mittel zum Zweck. CPU-Last wird zum größten Teil ausgehebelt wodurch sich Graka X besser von der Graka Y absetzen kann. Mit der Praxis hat das selbst bei Grafikkartentests aber nichts zu tun.
Daher bin ich der Meinung, dass (fast) jeder Bench seine Berechtigung hat, um sich ein Bild von der Performance einer CPU zu machen...
Völlig falsch.
Von einem Test erwarte zumindest ich einen gewissen wissenschaftlichen Anspruch mit den entsprechenden Hintergedanken (was mache ich da eigentlich, ist es sinnvoll, was denke ich mir dabei), die der Tester sich zu machen hat. Er hat ja auch Verantwortung ggü. seinen Lesern, die er damit berät. Wenn er nur in seiner Freizeit privat irgendwas vor sich hinbencht wäre es egal. Aber so ist es einfach irreführend.
Völlig korrekt! Das Ergebnis sieht man hier im Forum immer öfter. Wobei ich zugeben muss, dass viele die Problematik mittlerweile verstanden haben.
dargo hat schlicht recht, Timedemos spiegeln das echte Spielgescheheneinfach nicht wieder, zum 3165. Mal. 90 % aller Reviewer nutzen integrierte Timedemos, weil's bequemer ist, als eigene, aussagekräftige Savegames zu kreieren und ein statistisches Mittel aus mehren Durchläufen anzufertigen. Far Cry 2 ist ein wunderbares Beispiel für diesen Sachverhalt. Da durchläuft in der integrierten "Ranch"-Demo einfach nur eine Kamera eine leere Landschaft. Im Spiel selber ballert man sich aber durch Horden von Gegnern und latscht nicht durch ruhige Landschaften.
Gibt eine einfache Faustregel. CPU-Power wird überall da benötigt, wo sich viele Einheiten (von Menschen, Autos, Flugzeugen, Siedlungen – was auch immer ...) bewegen, deswegen sind vor allem Strategiespiele und Multiplayerparts so CPU-hungrig. Eine Counter-Strike-Map mit einem Gegner fordert die CPU nicht so stark wie eine mit 64 Bots. Anderes Beispiel: GTA IV, riesige Stadt mit vielen Häusern, Passanten, Autos, Motorrädern etc. Veranstaltet man eine Gaudi, indem man 5 oder 6 Sterne als Fahndungslevel erreicht und dadurch die halbe Stadt in Schutt und Asche gelegt wird, dann wird vor allem die CPU gefordert. Anderes Beispiel: Anno 1404. Errichtet man riesengroße Siedlungen mit 100.000 Bewohnern, zwingt das die CPU in die Knie. Gegenbeispiel: Irgendein Innenlevel von Metro, wo sich gar nichts tut. Beispielbild:
http://www.abload.de/img/image_0010yo7t.jpg
Was soll die CPU da groß berechnen?
Rollenspiele: Befindet man sich in einer Stadt mit vielen NPCs, wird die CPU eher gefordert als in irgendeiner leeren Höhle.
dargo
2010-09-25, 11:22:25
Ergänzend dazu möchte ich eins noch loswerden. Selbst wenn man komplett auf Savegames umsteigt muss trotzdem einiges beachtet werden. Bei längeren Savegames-Szenen (nehmen wir als Beispiel mal 30 Sekunden) kann es vorkommen, dass man mehrere Sekunden dieser 30 sekündigen Testszene mal mehr, mal weniger stark ins GPU-Limit läuft. Wenn jetzt nur 10 Sekunden im "leichten" CPU-Limit waren, die anderen 20 Sekunden aber im "starken" GPU-Limit landen dann ergibt das keine Aussagekraft über die CPU-Leistung. Durch die Glättung der avg.fps kann sich in so einem Fall CPU X logischerweise kaum von der CPU Y absetzen.
Das ist übrigens der einzige Kritikpunkt meinerseits wie die PCGH CPU-Benchmarks in Games durchführt.
Das gleiche gilt natürlich für Grafikkartentests. Deshalb sage ich nochmal - für Grafikkartentests eignen sich Timedemos sehr gut weil die CPU-Last dadurch extrem verrigert wird. Die Timedemo ist halt in diesem Fall nur Mittel zum Zweck. Korrekterweise müsste man also auch Grafikkartentests mit Savegames durchführen. Macht aber praktisch niemand weil die Arbeit mit Savegames deutlich zeitintensiver ist.
Okay, ich gebe Dargo größteneils recht.
Gibt es dann eigentlich gute CPU Limit Tests, außer den Farcry 2 und Gta IV Test hier auf 3dcenter?
Wie soll ich denn nun meine CPU und Graka ausbalancieren? Egal was ich spiele, es ist klar, dass Rpgler mehr GPU Power brauchen als Strategiespieler und Bad company Spieler, die eher auf die CPU angewiesen sind, aber WO genau nun die Ausgewogenheit liegt weiß keiner, man muss nur der vagen allgemeinen Meinung vertrauen...
Ich versteh nur nicht, warum die Leute mit den Zeitsparenden Demos arbeiten, hätte ich 20 Grakas und CPUs zur Verfügung würde ich benchen/testen wie blöd :)
(notfalls auch nach Feierabend...)
dargo
2010-09-25, 12:35:12
Gibt es dann eigentlich gute CPU Limit Tests, außer den Farcry 2 und Gta IV Test hier auf 3dcenter?
Reine CPU-Tests in Games (100% CPU-Limits) findest du hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=440739
Aber bitte den Text auch lesen und nicht nur auf die bunten Balken achten. Außerdem sollte hier beachtet werden, dass dies nur ein Bruchteil (5 Sekunden) vom Spiel ist und keinesfalls durchgehend aufs gesamte Spiel übertragen werden darf. Zudem garantiere ich auch nicht, dass ich Worst-Case-Szenarios in den Tests erwischt habe. Es kann also sein, dass es im Spiel Szenen gibt die noch höhere CPU-Last erzeugen.
Wie soll ich denn nun meine CPU und Graka ausbalancieren?
Ihr macht es euch viel zu kompliziert. Eine perfekte Balance zwischen CPU und GPU wird es nie geben da die Spiele zu stark sich von den Ansprüchen an die jeweilige Hardware unterscheiden. Man kann nur grobe Fehler machen indem man eine Seite verhältnismäßig schwach auswählt.
Beispiel:
i5-760 + G8800GT
oder
E8400 + GTX480
oder
Q6600 + GTX480 SLI
Ich versteh nur nicht, warum die Leute mit den Zeitsparenden Demos arbeiten, hätte ich 20 Grakas und CPUs zur Verfügung würde ich benchen/testen wie blöd :)
(notfalls auch nach Feierabend...)
Zeit ist Geld. Außerdem reicht es nicht aus nur zu benchen. Du musst vorher erstmal die Spiele durch haben (oder zumindest paar Stunden gespielt haben) um passende Savegames zu erstellen. Und selbst das wird immer schwieriger da die meisten Games kein freies Speichern bieten.
y33H@
2010-09-25, 13:00:37
Wie dargo schon sagt, der Zeitaufwand ist enorm.
Man muss das Spiel spielen, die Engine ein bisschen genauer kennen, mehrere Saves durchtesten, diverse Runs mitteln usw.
IMEAN
2010-09-25, 17:42:17
Naja muss man wohl selber machen, mit altlasten, aus den Systemen, die man "aufgebohrt" hat....
Sentionline
2010-09-26, 03:05:41
Bei längeren Savegames-Szenen (nehmen wir als Beispiel mal 30 Sekunden) kann es vorkommen, dass man mehrere Sekunden dieser 30 sekündigen Testszene mal mehr, mal weniger stark ins GPU-Limit läuft. Wenn jetzt nur 10 Sekunden im "leichten" CPU-Limit waren, die anderen 20 Sekunden aber im "starken" GPU-Limit landen dann ergibt das keine Aussagekraft über die CPU-Leistung.
Man darf Peak Lasten nicht bewerten. Ebenso ist es nicht schlau diese zu provozieren in Savegames und diese als Bewertungsgrundlage nehmen, was du ja unbedingt aber willst. Gemittelt und "geglättet" ergibt das den besten Kompromiss.
Das was du willst ist volle Pulle über die Autonbahn brettern und sagen; "Mit der Karre kann man überall fahren, sei die Piste noch so uneben".
Fakt ist, das logischerweise CPU wie auch GPU in Spielen schwankungen ausgesetzt sind. Das aber nicht durchgehend, das ist ein dynamischer Prozess. Bring es doch auf den Punkt und sag das man kein Spiel und keine Auflösung für ein CPU Test verwenden kann. Du sagst aber, das wenn man die Auflösung runterschraubt, die CPU Lasten ansteigen, bedenkst aber nicht, das die Parallelität und die Threadaufteilung eines Spiels sich nicht ändert. Wenn die Auflösung nähmlich wieder steigt nach deinem "Rekord CPU Last im UltraLowRes", dann hat die CPU nähmlich viel weniger zu tun, als es jemals im Spiel wirklich so zustande kommt. Zumal Faktoren wie AA das Ergebniss nochmals drücken.
Aus diesem Grund kannst du beispielsweise Grid nicht in 640x in deinem Save Bench durchjagen und die höchsten Werte einer CPU Last auf 1920x interpretieren. Denn villeicht werden diese Lasten in Real nie erreicht werden. Aus diesem Grund sind deine Rekord CPU Last Savebenches in LowRes ebenso nichts wert. Als CPU Test nicht, als GPU schon gar nicht. Selbst wenn du die Auflösung und AA auf RekordHigh stellst. Denn auch in höheren Auflösungen unterliegen GPUs ebenso schwankungen. Ebenso spielt die Engine und die vermutlich vorhandenen Bugs eine Rolle. Auch die Textur-/KI Changes bei Patches. Demnach müsste man nach jedem Patch für ein Spiel alles wieder von vorne Benchen. Somit sind wir wieder beim Anfang; Neue Benchszenen.
Als CPU Test kann man Benchmarks nehmen, die massiv Multithreaded sind wie MaxxPI², Cinebench oder Outbound.
Als Fazit sage ich; Dort wo ein QuadCore in deinen Savebenches Spitzenwerte erreicht, muss im realen Spielgeschehen mit normalen Gamer Auflösungen ein DualCore nicht zwangsläufig versagen. Mann kann deine SaveTests als "Reserve" für massive MultiCore Spiele interpretieren, aber nicht verallgemeinert auf das globale Spielgeschehen übernehmen. Sieht man auch in den Benches hier (http://ht4u.net/reviews/2010/amd_phenom_ii_x6_1075_x4_970/).
boxleitnerb
2010-09-26, 08:01:34
Man darf Peak Lasten nicht bewerten. Ebenso ist es nicht schlau diese zu provozieren in Savegames und diese als Bewertungsgrundlage nehmen, was du ja unbedingt aber willst. Gemittelt und "geglättet" ergibt das den besten Kompromiss.
Das was du willst ist volle Pulle über die Autonbahn brettern und sagen; "Mit der Karre kann man überall fahren, sei die Piste noch so uneben".
Fakt ist, das logischerweise CPU wie auch GPU in Spielen schwankungen ausgesetzt sind. Das aber nicht durchgehend, das ist ein dynamischer Prozess. Bring es doch auf den Punkt und sag das man kein Spiel und keine Auflösung für ein CPU Test verwenden kann. Du sagst aber, das wenn man die Auflösung runterschraubt, die CPU Lasten ansteigen, bedenkst aber nicht, das die Parallelität und die Threadaufteilung eines Spiels sich nicht ändert. Wenn die Auflösung nähmlich wieder steigt nach deinem "Rekord CPU Last im UltraLowRes", dann hat die CPU nähmlich viel weniger zu tun, als es jemals im Spiel wirklich so zustande kommt. Zumal Faktoren wie AA das Ergebniss nochmals drücken.
Aus diesem Grund kannst du beispielsweise Grid nicht in 640x in deinem Save Bench durchjagen und die höchsten Werte einer CPU Last auf 1920x interpretieren. Denn villeicht werden diese Lasten in Real nie erreicht werden. Aus diesem Grund sind deine Rekord CPU Last Savebenches in LowRes ebenso nichts wert. Als CPU Test nicht, als GPU schon gar nicht. Selbst wenn du die Auflösung und AA auf RekordHigh stellst. Denn auch in höheren Auflösungen unterliegen GPUs ebenso schwankungen. Ebenso spielt die Engine und die vermutlich vorhandenen Bugs eine Rolle. Auch die Textur-/KI Changes bei Patches. Demnach müsste man nach jedem Patch für ein Spiel alles wieder von vorne Benchen. Somit sind wir wieder beim Anfang; Neue Benchszenen.
Als CPU Test kann man Benchmarks nehmen, die massiv Multithreaded sind wie MaxxPI², Cinebench oder Outbound.
Als Fazit sage ich; Dort wo ein QuadCore in deinen Savebenches Spitzenwerte erreicht, muss im realen Spielgeschehen mit normalen Gamer Auflösungen ein DualCore nicht zwangsläufig versagen. Mann kann deine SaveTests als "Reserve" für massive MultiCore Spiele interpretieren, aber nicht verallgemeinert auf das globale Spielgeschehen übernehmen. Sieht man auch in den Benches hier (http://ht4u.net/reviews/2010/amd_phenom_ii_x6_1075_x4_970/).
Mitteln und Glätten vernichtet aber Informationen und genau das ist die Crux dabei.
Du schreibst (wieder einmal):
"dann hat die CPU nähmlich viel weniger zu tun, als es jemals im Spiel wirklich so zustande kommt"
Woher weißt du das denn? Du behauptest, ohne zu wissen, wieso? Hast du bei allen deinen Spielen jede Sekunde auf die auftretende Lastverteilung untersucht?
Natürlich kommt es nicht permanent zustande und wer weiß, vielleicht auch nicht exakt 1:1. Vielleicht muss die CPU in intensiven Szenen nur 95% dessen leisten, was ihr in lowres abverlangt wird. AA drückt global, ja. Im Mittel. Aber wenn in einer bestimmten Szene die Grafikberechnungen verglichen mit den Anforderungen an die CPU (Physik, z.B. Explosionsorgie in Red Faction 3) sehr niedrig sind - trotz highres und AA - kannst du eine 100x schnellere Grafikkarte einbauen...an der Performance in dieser Szene wird sich absolut nichts ändern.
Man kann die Ergebnisse natürlich nicht 1:1 auf höhere Auflösungen übertragen, das sagt auch keiner. Weiß nicht wo du das wieder her hast. Man kann sagen:
Wenn die CPU sehr gefordert wird, geben Benchmarks in cpu-limitierten Szenen und niedrigen Auflösungen ohne AA ein ungefähres Bild wie verschiedene CPUs dann (und hauptsächlich dann!) zueinander stehen. Jedenfalls ein weitaus aussagekräftigeres als die üblichen Benchmarks in hohen Auflösungen mit AA. Diese sehen die getesteten CPUs deutlich näher beieinander als sie es in der Realität eigentlich sind.
Hälst du einen Benchmark für sinnvoll, der suggeriert, dass zwischen CPU A und CPU B nur 10% liegen (wohlgemerkt ausschließlich in der gebenchten Szene!), beim tatsächlichen Spielen (und Fraps nebenherlaufen lassen) aber szenenweise Unterschiede von bis zu sagen wir mal 40% auftreten können??? Ich nicht!
Du schreibst auch:
"verallgemeinert auf das globale Spielgeschehen übernehmen"
Das hat niemand behauptet.
Auch nochmal für dich:
CPU-Benchmarks in Spielen sagen erstmal nur etwas über die Performance in Spielen aus. Wer Anwendungsperformance wissen will, schaut sich andere Benchmarks an. Es hat auch niemand behauptet, dass die Ergebnisse aus Spielebenches dorthin übertragbar wären. Vielleicht sieht man Tendenzen, aber ohne Vorbehalt vergleichbar ist es natürlich nicht. Hat niemand gesagt. Ich wiederhole mich...
Sentionline
2010-09-26, 08:19:58
Wenn die CPU sehr gefordert wird, geben Benchmarks in cpu-limitierten Szenen und niedrigen Auflösungen ohne AA ein ungefähres Bild wie verschiedene CPUs dann (und hauptsächlich dann!) zueinander stehen.
Die Messungen stehen nicht 1 Gramm zueinander. Interpretier mir mal diese Messungen (http://ht4u.net/reviews/2010/amd_phenom_ii_x6_1075_x4_970/index16.php).
Hälst du einen Benchmark sinnvoll, der suggeriert, dass zwischen CPU A und CPU B nur 10% liegen (wohlgemerkt ausschließlich in der gebenchten Szene!), beim tatsächlichen Spielen (und Fraps nebenherlaufen lassen) aber szenenweise Unterschiede von bis zu sagen wir mal 40% auftreten können?
Nö, ein LowRes Bench ebensowenig aussagekraft, indem man die CPU gezielt provoziert und ihm durch die geringere Auflösung Rechenkraft "klaut". Diese steht in normalen Auflösungen nähmlich zur verfügung.
Du schreibst dauernd; "Das hat niemand behauptet.", Was hat man denn behauptet?
boxleitnerb
2010-09-26, 08:44:02
Die Messungen stehen nicht 1 Gramm zueinander. Interpretier mir mal diese Messungen (http://ht4u.net/reviews/2010/amd_phenom_ii_x6_1075_x4_970/index16.php).
Und wie begründest du deine Behauptung? Ich sag nochmal:
Hälst du einen Benchmark für sinnvoll, der suggeriert, dass zwischen CPU A und CPU B nur 10% liegen (wohlgemerkt ausschließlich in der gebenchten Szene!), beim tatsächlichen Spielen (und Fraps nebenherlaufen lassen) aber szenenweise Unterschiede von bis zu sagen wir mal 40% auftreten können?
Nö, ein LowRes Bench ebensowenig aussagekraft, indem man die CPU gezielt provoziert und ihm durch die geringere Auflösung Rechenkraft "klaut". Diese steht in normalen Auflösungen nähmlich zur verfügung.
So ein riesiger Quatsch! Die CPU leistet bei gleichem Seitenverhältnis nahezu dasselbe bei niedrigen und hohen Auflösungen. Für höhere Auflösungen ist ausschließlich die Grafikkarte zuständig. Hier wird überhaupt nichts geklaut...sag mal, denkst du nach, bevor du schreibst?
Du schreibst dauernd; "Das hat niemand behauptet.", Was hat man denn behauptet?
An dein eigenes Geschreibsel aus den Zitaten wirst du dich doch noch erinnern, oder?
dargo
2010-09-26, 18:53:51
@Sentionline
Du bist echt ein hoffnungloser Fall. ;(
Wenn ich ein 100%iges CPU-Limit durch eine niedrige Auflösung "provoziere" heißt das nicht automatisch, dass dieses Limit in der gleichen Szene in 1920x1200 4xMSAA/16xAF plötzlich vollständig in ein GPU-Limit übergeht. Ich kenne genug Szenen wo in der hohen Auflösung immer noch nahezu ein vollständiges CPU-Limit herrscht.
Lass dir dieses erstmal langsam durch den Kopf gehen bevor du wieder wirres Zeug von dir gibst. Ich meins wirklich ernst. Wenn du das immer noch nicht begriffen hast kann ich dir leider auch nicht mehr helfen.
PS: meine Tests haben nichts mit Kaufberatung zu tun. Dafür gibt es genug Threads im entsprechenden Unterforum. Ich verfolge ein ganz anderes Ziel - ich möchte die Spiele auf Kernskalierung untersuchen.
Die Messungen stehen nicht 1 Gramm zueinander. Interpretier mir mal diese Messungen (http://ht4u.net/reviews/2010/amd_phenom_ii_x6_1075_x4_970/index16.php).
:facepalm:
Wie oft willst du noch deine Timedemos verlinken?
nicht schon wieder diese leier :facepalm:
@dargo zogge mal mit deinem langsamen "i5" supreme commander und deine cpu sieht kein land gegen ein e8600@4ghz mit 6mb cache.
der Sentionline hat recht, es lohnt nicht für spiele von einem e6750 auf i5/7 aufzurüsten und gebe Sentionline auch recht, das gta4 schlecht programmiert ist.
ich selber habe nach langen hin und her mir einen quad gekauft, einen extreme qx9650@4ghz und ich muß sagen hätte ich mir auch schenken können, da mein e8600@4ghz dem in nichts nachsteht in spielen. ich kann es beurteilen, da ich einen vergleich habe.
mein 4ghz quad (12mb cache) ist locker von der speed vergleichbar mit einem i7 860 oder gar 870, das belegen auch die links von Sentionline am anfang des threads und mein system werde ich auch 2011 so behalten. außer einer neuen grafikkarte ati 5850, wenn die endlich mal günstiger werden, werde ich da nichts weiter ändern.
ps: es wurde in der fachpresse und auch von vielen spielern berichtet das in spielen ein i5/7 nicht schneller ist als ein Intel Core 2 zum teil sogar langsamer. ein i5/7 kann nur etwas seine stärke ausspielen bei multimedia anwendungen.
@dargo, schrotti und usw. mein quad nimmt es mit euren i5/7 locker in spielen auf, ob es euch paßt oder nicht, dat ist tatsache.
http://www.computerbase.de/artikel/prozessoren/2008/test-intel-core-i7-920-940-und-965-extreme-edition/24/#abschnitt_world_in_conflict
http://www.hartware.net/review_1144_7.html man achte besonders auf far cry2
boxleitnerb
2010-09-26, 22:23:43
Ich glaub langsam, den Thread kann man bei so viel Unsinn echt schließen. Alles Wichtige wurde eigentlich schon gesagt. Wer das nicht kapiert/kapieren will - kann uns doch egal sein.
dargo
2010-09-26, 22:26:35
Ich glaub langsam, den Thread kann man bei so viel Unsinn echt schließen.
Dito, 0815 schießt echt den Vogel ab. :ugly:
Ich glaub langsam, den Thread kann man bei so viel Unsinn echt schließen. Alles Wichtige wurde eigentlich schon gesagt. Wer das nicht kapiert/kapieren will - kann uns doch egal sein.
ein mod könnte mal bitte den post von @boxleitnerb löschen, weil der beinhaltet nichts was sein standpunkt untermauert. mit anderem worten, der post ist spamm:P
ps: und @dargos letzten post gleich mit.
boxleitnerb
2010-09-26, 22:29:28
Ja sorry, aber was anderes KANN man einfach nicht schreiben, da du offensichtlich keinen einzigen der relevanten Posts gelesen hast in diesem Thread. Anders kann man den Inhalt deines Postes nicht interpretieren. Wie gesagt - alles Wichtige wurde schon gesagt. Und 500x wiederholen braucht man es nun wirklich nicht. Du kannst dir aber gerne nochmal entsprechende Benchmarks im Netz anschauen, um zu sehen, dass du nicht Recht hast. Seien es 800x600 bei CB oder solche bei PCGH oder CPU-Benches mit CF/SLI.
Und btw:
Es wird langsam alt, zu behaupten, irgendwas wäre schlecht programmiert nur weil es die Hardware überdurchschnittlich fordert. Das ist das absolut billigste Nichtargument, das man bringen kann. Solange man keinen Einblick in den Code hat und an der Entwicklung beteiligt war, kann man nicht mitreden, so einfach ist das.
Ja sorry, aber was anderes KANN man einfach nicht schreiben, da du offensichtlich keinen einzigen der relevanten Posts gelesen hast in diesem Thread. Anderes kann man den Inhalt deines Postes nicht interpretieren. Wie gesagt - alles Wichtige wurde schon gesagt. Und 500x wiederholen braucht man es nun wirklich nicht.
ich habe mich erst jetzt eingeklingt und meine argumente werden, erst garnicht von euch wiederlegt und ihr kommt dann nur mit spamm posts.
ganz tolle diskussion hier:uclap:
boxleitnerb
2010-09-26, 22:34:54
Welche Argumente? Ich sehe in deinem Post kein einziges Argument, nur Behauptungen - die Seiten zuvor schon zigmal widerlegt wurden.
Welche Argumente? Ich sehe in deinem Post kein einziges Argument, nur Behauptungen - die Seiten zuvor schon zigmal widerlegt wurden.
hier wurde garnichts widerlegt, komm endlich mal mit fakten.
boxleitnerb
2010-09-26, 22:42:55
Bitte lies den Thread richtig durch, ich such dir nicht extra die entsprechenden Posts raus (hab dir in meinem vorletzten Post sogar genannt, wo du nachschauen kannst). Danke und gute Nacht.
Schrotti
2010-09-26, 23:45:26
@dargo, schrotti und usw. mein quad nimmt es mit euren i5/7 locker in spielen auf, ob es euch paßt oder nicht, dat ist tatsache.
Ha ha jetzt wird es geil.
Ich hatte einen Q9550@4GHz und bin trotzdem umgestiegen. Deinen Extreme @4GHz vernasche ich auch so ohne groß an der Taktschraube zu drehen.
Ich habe mir dein Sys angeschaut und den 2006er Bench auch. Deine CPU Punkte hatte ich schon mit meinem alten Q9450@3,8GHz.
y33H@
2010-09-26, 23:50:09
Ein i5-750 schlägt einen E8600 in SupCom problemlos.
Ha ha jetzt wird es geil.
Ich hatte einen Q9550@4GHz und bin trotzdem umgestiegen. Deinen Extreme @4GHz vernasche ich auch so ohne groß an der Taktschraube zu drehen.
Ich habe mir dein Sys angeschaut und den 2006er Bench auch. Deine CPU Punkte hatte ich schon mit meinem alten Q9450@3,8GHz.
klar @schrotti:rolleyes:
http://www.hartware.net/review_1144_7.html
mit solchen behauptungen solltest du sehr vorsichtig sein und mit deinem alten Q9450@3,8GHz wirst du nicht die leistung von meinem quad geschafft haben. wo sind deine belege bzw. fakten?
@y33H@ wie kommst du darauf:confused: und wo sind deine belege und fakten?
(del)
2010-09-27, 00:02:42
Doch nochmal kurz...
@0815
Schrotti hat die 200 Mhz mit den Speichertimings rausgeholt ;)
Ja sorry, aber was anderes KANN man einfach nicht schreiben, da du offensichtlich keinen einzigen der relevanten Posts gelesen hast in diesem Thread.Sorry aber wozu sollte er das für seinen besagten Beitrag hier zwingend tun? Kann oder soll er damit seine eigenen praxisbezogenen Erfahrungswerte irgendwie revidieren oder neu interpretieren oder wie? :|
p.s.:
Wer zum Geier ist "uns"?
Schrotti
2010-09-27, 00:16:30
klar @schrotti:rolleyes:
http://www.hartware.net/review_1144_7.html
Bitte schön.
http://www.anandtech.com/bench/Product/49?vs=108
http://service.futuremark.com/compare?3dm06=11064308
Doch nochmal kurz...
@0815
Schrotti hat die 200 Mhz mit den Speichertimings rausgeholt ;)
kann sein, aber meine speicher laufen mit 533mhz cl5-5-5-12 bei 2volt.
meine cpu selber läuft mit 10 x 400mhz fsb. seiner wird wohl etwas höher fsb haben, weiß jetzt nicht genau im kopf wie hoch der multi vom q9450 ist 7-8 schätze ich mal. ich würde meinen auch am liebsten mit 8 x 500mhz betreiben, aber diese einstellungen sind doch schon recht komplex um es genau auszuloten. ich habe es mir da einfacher gemacht und ihn schön über multi übertaktet, so mußte ich nur die cpu spannung etwas anheben, aber ich bezweifel das er mit seinen alten q9450@3,8ghz meinen q9650@4ghz schlägt, das wird er nicht mit seinen besseren timmings kompensieren können, zumal meine timings ja auch nicht wirklich schlecht sind.
http://www.anandtech.com/bench/Product/49?vs=108Die 4 Spiele am Ende sehen doch erwartungsgemäß aus. Viel mehr hat 0815 auch nicht behauptet.
Bei Duo vs. Quad zieht auch nur FC2 bisschen an.
http://www.anandtech.com/bench/Product/49?vs=55
Interessant sind eh nur die minFPS. Oder Leute die kein Tearing mögen und Vsync an haben, wenn wir schon bei Highend-Ansprüchen sind und 800x600 ad acta gelegt haben :ulol:
Bitte schön.
http://www.anandtech.com/bench/Product/49?vs=108
http://service.futuremark.com/compare?3dm06=11064308
der link von anaddtech gebe ich garnichts, da nicht präsentativ, da wird mit verschienen treibern usw. getestet und zum teil auch überaltet.
da finde ich mein letzten geposteten link viel aussagekräfiger, zumal neuer da auch ein neuer intel i7 875k @4,1 ghz sich zb. in far cry2 einen q9550s@3,8ghz geschlagen geben muß und nicht nur in farcry2.
futuremarkt, gebe mir eine geforce 280gtx und ich habe mit meinem auch über 20.000punkte, aber darauf kommt es hier nicht an, hier geht es einzig und alleine um cpus.
Das man Du nicht verstehst warum man CPUs wie Dargo es beschrieben hat bencht, verstehe ich ja noch halbwegs.
Aber bitte schreib doch wenigstens halbwegs deutsche Sätze.
Schrotti
2010-09-27, 01:00:13
futuremarkt, gebe mir eine geforce 280gtx und ich habe mit meinem auch über 20.000punkte, aber darauf kommt es hier nicht an, hier geht es einzig und alleine um cpus.
Es geht nicht um die GTX 280 sondern um die erreichten CPU Punkte.
Das man Du nicht verstehst warum man CPUs wie Dargo es beschrieben hat bencht, verstehe ich ja noch halbwegs.
Aber bitte schreib doch wenigstens halbwegs deutsche Sätze.
ich schreibe so wie mir der schnabel gewachsen ist und wenn du damit ein problem hast brauchst du hier nicht teilnehmen:P wieder ein spammpost
@schrotti jo mein cpu score liegt mit 6381punkten etwas höher als dein alter quad, von spielen her hat sich deine anschaffung i7 860 nicht gelohnt und war rausgeworfenes geld, ich gebe auch nicht wirklich viel was 3d bernachmarkt an punkten ausspuckt, da sie nicht die leistungsfähigkeit eines spiels wiedergeben.
Schrotti
2010-09-27, 11:24:02
Behalte ruhig deinen Glauben das dein 4GHz Quad schneller sei als mein i7 860.
Irgendwann wirst auch du merken das dem nicht so ist.
Behalte ruhig deinen Glauben das dein 4GHz Quad schneller sei als mein i7 860.
Irgendwann wirst auch du merken das dem nicht so ist.
idR ist ein Lynnfield ohne SMT pro Takt 20-30% schneller in Spielen als ein Yorkfield, d.h. ein i5-760 mit 2,8 GHz ist einem QX9770 bereits oft über und kann wenn's gut läuft, selbst einem 3,6-GHz-Yorkfield Paroli bieten. Und wenn's schei0e läuft, ist er kaum schneller als ein Q9650.Ich hab immer noch einen QX9770 @ 4GHz in Betrieb. Den werd ich auch nicht hergeben. Im anderen Rechner einen X3520 @ 4,2 GHz. Also so weit sind die in Spielen nicht auseinander, dass es mir groß auffallen würde. Im Gegenteil, ich zocke lieber mit dem "langsameren" QX.
Schaut ihr bei euren Vergleichen eigentlich auch mal auf die min FPS? Weil das sind die, die bei mir zählen, nur die ganz alleine. Von den anderen hab ich immer mehr als genug. ;)
puntarenas
2010-09-27, 12:34:14
Einige hier berichten von einem Gefühl der Zufriedenheit mit ihren jeweiligen Prozessoren. Das heißt dann wohl, dass sie in ihren Spielesessions nur sehr selten oder nie in ein nerviges CPU-Limit geraten oder eben ohne mit der Wimper zu zucken über gelegentliche, der CPU geschuldete Performanceeinbrüche hinwegsehen können. Wie auch immer, darüber kann man kaum streiten und das ist ja auch völlig in Ordnung.
Das ist dann als Geplauder auch recht hübsch, ich mag meinen E6600 auch und er schlägt sich noch immer recht stattlich, ich weiß aber auch welche Spiele ich damit nicht beginnen will und schiebe sie entsprechend nach hinten bis zum nächsten CPU-Upgrade. Ich kann mit Fug und Recht behaupten, für meinen Spielealltag liefert der alte C2D noch ausreichend Performance, um mich persönlich zufriedenzustellen. Einwände gibt es hier im Thread doch nur, wenn sachlich falsche Aussagen getroffen oder zur Untermauerung des eigenen Zufriedenheitsgefühls, als ob man sich für Zufriedenheit rechtfertigen müsste, ungeeignete Benchmarks verlinkt werden.
Wenn man anhand von Spielen ermitteln will, wie Prozessoren hinsichtlich ihres Leistungspotentials zueinander stehen, dann muss man nun einmal störende Faktoren weitestgehend ausschalten. Man kann die Auflösung reduzieren und/oder sehr leistungsfähige Grafikkarten verwenden, um eine Limitierung durch die Grafikkarte möglichst weitestgehend auszuschließen. Bei Timedemos ist die CPU-Last allerdings häufig so gering, dass man dennoch stark geglättete Ergebnisse erhält und diese sind hinsichtlich der Zielstellung dann wertlos. Weil viele Leser aus den Benchmarkbalken dann auch arglos folgern, die angezeigten Frameraten der gebenchten Szene seien stellvertretend auf das ganze Spiel übertragbar, empfiehlt es sich aus Rücksicht auf weniger bewanderte Leser gleich eine Worst-Case-Szene oder wenigstens eine kurze Sequenz nahe der prozessorfordensten Spielszenen heranzuziehen.
Wenn man ermitteln möchte, welchen Prozessor man in einem bestimmten Spiel für ungetrübtes Spielvergnügen benötigt, dann muss man eben eine besonders prozessorlastige Spielszene auswählen und gegebenenfalls wiederum das GPU-Limit ausschalten. Über Mindestperformance kann man natürlich geteilter Meinung sein, ob nun 30FPS, 40FPS oder stets 60FPS in jeder Lage gewünscht sind ist eine Frage des persönlichen Anspruchs. Es ist außerdem schwer zu quantifizieren, wie häufig im Spielverlauf Performanceeinbrüche im Bereich der Worst Case Szene zu erwarten sind, es sollte also idealerweise im Fließtext vermerkt werden, ob wir die Worst Case Frameraten erhalten oder eine auf fundierten Erfahrungswerten beruhend als repräsentativ ausgewählte Szene leicht oberhalb der Worst Case Fälle.
Wie auch immer, wenn man ganz offensichtlich unreflektiert erstellte, oftmals völlig wertlose Benchmarkbalken verlinkt und/oder eine falsche Interpretation derselben ebenso unreflektiert ins Forum stellt, dann muss man sich im 3DCenter-Forum zum Glück nicht wundern, wenn man auf Widerspruch stößt.
Tatsächlich haben einige User hier nicht nur begründet widersprochen, sondern waren sogar sehr engagiert darum bemüht, anderen zu einem besseren Verständis von Spielebenchmarks und ihrer Interpretation zu verhelfen. Hilfsbereitschaft wird hier allerdings leider manchmal als persönlicher Angiff mißverstanden. :(
Sentionline
2010-09-27, 12:53:07
Och ich bin nicht angegriffen. Ich spiele nach wie vor und alle anderen auch halbwegs. Wenns ruckelt muss man eben investieren und die 500€ alle 2 Jahre in den Rechner pumpen. Wenn ein neuer Monitor da ist, muss auch dieser in Form der starken Grafikkarte passieren. Den Monitor wechsle ich aber nicht alle 2 Jahre, von daher kann ich den GPU Tausch noch etwas hinaus zögern.
Wenn jemand ein Athlon X2 hat, der andere alledings ein C2D, würd ich sagen der mit dem X2 muss etwas flotter seine CPU tauschen als der mit dem C2D. Ein Spiel darf aber auch mal aussetzer haben, ohne gleich 400€ Board + CPU + Speicher zu kaufen, um diese gelegendlichen aussetzer auszuschalten. Nur ist es schwierig zu bestimmen ob Aussetzer/Ruckeln auf die CPU oder GPU zurückzuführen ist. Mein Problem der Verständnis ist, das alles jegliches ruckeln in ein CPU Limit interpretieren. Manche schwören jetzt (2010) auch auf einen Quad, wobei doch die wenigsten Spiele einen Quad voll auslasten. Ich besitze kein Quad, deswegen kann ich persönlich nur auf Reviews zurück greifen. Nur selten liegt ein CPU Limit vor. Das allerdings die Grafikkarte häufiger limitiert, sollte man auch bedenken, gerade in gewöhnlichen Spielauflösungen mit AA. Tun manche hier allerdings nicht. Ein C2D eignet sich nach wie vor um normal zu spielen.
Wenn man anhand von Spielen ermitteln will, wie Prozessoren hinsichtlich ihres Leistungspotentials zueinander stehen, dann muss man nun einmal störende Faktoren weitestgehend ausschalten. Man kann die Auflösung reduzieren und/oder sehr leistungsfähige Grafikkarten verwenden, um eine Limitierung durch die Grafikkarte möglichst weitestgehend auszuschließen.
Genau bei dem verfahren rümpfe ich mir die Nase, wenn solch ein "Worst Case" dazu benutzt wird, die Leistungen der Prozessoren zu bewerten und global auf das Spielgeschehen übertragen wird. Was ist wenn dieses "Worst Case Framedrop" im gesammten Spiel nur in einer oder 2 Szenen vorkommt? Wenn im Worst Case ein i5 Frames rettet (nicht zuletzt wegen seinem größeren Cache/Speicherbandbreite), muss das ja nicht heissen das ein C2D im normalen Spielbetrieb nicht ausreichend Frames liefert. Das wiederum möchten die Quad besitzer nicht hören.
Leider nichts kapiert.
Es geht nicht darum was dir reicht. Es geht auch nicht darum was mir reicht.
Es geht darum, wie die Leistung aussieht. Ganz egal wer sie wann braucht.
Es ist ebenfalls keine Kaufberatung zum besseren oder schlechteren Produkt.
puntarenas
2010-09-27, 13:31:08
Wenn Aussagen getroffen und mit Benchmarkbalken verknüpft werden, dann muss der Benchmarkansatz natürlich aussagekräftig im Hinblick auf die These sein. Ist dies nicht der Fall, hagelt es wenigstens hier im Forum Widerspruch.
Natürlich ist es durchaus denkbar, dass jemand ganz unverschuldet und ohne bösen Willen einfach intelektuell nicht im Stande ist, Argumentation und Erklärungsversuche nachzuvollziehen. In dem Fall hätte diese Person eben ein unüberwindliches, grundsätzliches Verständnisproblem, das man zunächst natürlich niemandem zum Vorwurf machen kann. Dieser Jemand könnte allerdings nach mehrmaligen Anläufen zumindest erahnen, dass er offensichtlich auf dem Holzweg ist und im Folgenden keine weiteren, haltlosen Thesen nach dem selben Muster postulieren. Man muss einen Sachverhalt nicht unbedingt verstehen, um nach zahllosen Hinweisen erkennen zu können, dass ein Standpunkt nicht haltbar ist. Es gibt ganz einfach Themenfelder, auf denen man nicht mitreden kann, sobald ein gewisses Niveau überschritten wird und dabei sollte man es dann aus Fairness gegenüber den anderen Diskussionsteilnehmern auch belassen. =)
Genau bei dem verfahren rümpfe ich mir die Nase, wenn solch ein "Worst Case" dazu benutzt wird, die Leistungen der Prozessoren zu bewerten und global auf das Spielgeschehen übertragen wird. Was ist wenn dieses "Worst Case Framedrop" im gesammten Spiel nur in einer oder 2 Szenen vorkommt?
Habe ich weiter unten doch selbst bereits angemerkt. Allerdings hast du erneut "Prozessor-Review in Spielen" und "CPU-Performancereport zu einem bestimmten Spiel" durcheinandergewürfelt. Du zitierst mich aus meinem Abschnitt zu Ersterem und bringst einen Einwand, der auf Letzteres zielt.
Wenn im Worst Case ein i5 Frames rettet (nicht zuletzt wegen seinem größeren Cache/Speicherbandbreite), muss das ja nicht heissen das ein C2D im normalen Spielbetrieb nicht ausreichend Frames liefert. Das wiederum möchten die Quad besitzer nicht hören.
Was jemand hören möchte spielt doch im Rahmen der sachlichen Betrachtung keine Rolle, es geht um Messwerte und deren Interpretation. Es gibt einen Unterschied zwischen brauchbaren und unbrauchbaren Benchmarkergebnissen und je nach Benchmarkansatz kann man wiederum auch nur gewisse Aussagen auf die jeweiligen Ergebnisse stützen.
Es geht darum, wie die Leistung aussieht. Ganz egal wer sie wann braucht.
Es ist ebenfalls keine Kaufberatung zum besseren oder schlechteren Produkt.
Richtig, wobei belastbare Ergebnisse dann natürlich mittels einer gewissen geistigen Transferleistung durchaus auch für eine Kaufberatung gewinnbringend herangezogen werden können. Aus Fakten wird dann eben eine Projektion, die immer noch weitaus besser ist, als rein aus dem Bauch heraus zu spekulieren.
Mir scheint allerdings, die schiere Anzahl an schlecht gemachten Prozessorbenchmarks mit Spielen raubt den wenigen, gewissenhaft ausgeführten Benchmarks ihre Reputation. Das ist erstaunlich, widersinnig und sehr traurig.
Das ist erstaunlich, widersinnig und sehr traurig.
Völlig normal.
Machen fast alle so -> muss richtig sein.
Xaver Koch
2010-11-17, 10:20:05
Ich werfe mal den Test von Computerbase in den Raum:
http://www.computerbase.de/artikel/prozessoren/2009/test-intel-core-i5-750-core-i7-860-und-core-i7-870/32/
Man beachte die Leitungseinstufung im Bereich der Spiele (neu Deutsch: Performance-Rating).
Mein Fazit: i5-750 lohnt nur, wenn man Spiele wie GTA4 hat, die wirklich von den vier Kernen profitieren. Ein E8600 rennt immer noch 1a, da hoffe ich auf Ivy-Bridge, damit ich einen Grund zum Aufrüsten habe. ;)
y33H@
2010-11-17, 10:34:16
Das CPU-Spiele-Rating läuft im Grafiklimit. Zudem ist es uralt. So sieht das aktuelle aus:
http://www.abload.de/thumb/2010-11-17_103254gnpz.png (http://www.abload.de/image.php?img=2010-11-17_103254gnpz.png)
Xaver Koch
2010-11-17, 11:05:01
Das CPU-Spiele-Rating läuft im Grafiklimit. Zudem ist es uralt. So sieht das aktuelle aus:
http://www.abload.de/thumb/2010-11-17_103254gnpz.png (http://www.abload.de/image.php?img=2010-11-17_103254gnpz.png)
Wer ein gutes 775er Brett hat, steckt halt notfalls einen Q 9550/9560 rein, fertig. Dann bleibt der Unterschied zum i5 750 überschaubar.
Von daher bleibe ich bei meiner Einschätzung, dass sich ein Wechsel von S775 auf S1156 nicht wirklich lohnt.
Wer spielt in 800x600? :D
dargo
2010-11-17, 11:40:58
Wer ein gutes 775er Brett hat, steckt halt notfalls einen Q 9550/9560 rein, fertig macht einen großen Fehler wenns ums Gaming geht.
So passt es.
Undertaker
2010-11-17, 11:42:41
@Xaver:
Ein Q9550 kostet über 200€, dafür bekommst du schon fast einen i5 + Board. Warum sollte man das noch machen, außer um sich den Umbauaufwand zu sparen? P/L mäßig macht es wenig Sinn, maximal falls man noch ein High-End LGA775 Board + sehr teuren DDR2 hat.
y33H@
2010-11-17, 11:44:03
Dann bleibt der Unterschied zum i5 750 überschaubar.Laut neuestem Ranking, was ich hier vorliegen habe, liegt ein i5-760 im Mittel (Anno 1404, BC2, Dragon Age, F1 2010, Mass Effect 2, Starcraft II) satte 28 Prozent vor einem Q9550 E0 und ist dabei klar sparsamer! Nehalem ist einfach für Spieler die aktuelle Nr.1 - bis Sandy kommt.
dargo hat Recht.
Hellstaff
2010-11-17, 12:26:15
Ich habe eine DC 775 System und ich finde, dass die Preise für einen quad so hoch sind, dass es sich kaum lohnt, da weiter aufzurüsten. Mit einem X4 oder i5 hat man bei einem gewissem Aufpreis mehr Performance und noch Hardwaregarantie. Die alten Sachen kann man übrigens für ein paar €uronen verscherbeln.
Ein Phenom X3 wäre imo die unterste Schranke für aktuelle Spiele.
mapel110
2010-11-17, 12:43:21
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7561344&postcount=87
Vergleich von Frank1974
Bei aktuellen Spielen siehts logischerweise noch besser aus für den i5.
Xaver Koch
2010-11-17, 13:39:55
Ach Leute, ich habe weder GTA4 noch Anno 1404, von daher limitiert bei mir eher die 450GTS. Also passen Eure Aussagen ebenfalls nicht allgemeingültig.
Den Spieler möchte ich mal sehen, der die Einstellungen seiner GTX so weit herunter stellt, dass kein Grafikkartenlimit mehr vorliegt, damit die Leistung der CPU "bewundert" (80 statt 70 fps wird man sicher satt spüren) werden kann. Klar, wer Spiele hat, bei denen die min. FPS kritisch sind, wird zum i5 Quad greifen.
Und die E0 (Duo wie Quad) kann man sehr schön mit niedriger Spannung betreiben, dann ist der Verbrauch auch nicht mehr (viel) höher. ;)
Wer sich einen Q 9550/9560 holt, kann ja auch seinen Duo z.B. in der Bucht noch verticken. Von daher stimmen Eure Rechnung so nicht. Brett und Speicher kann man auch behalten.
Klar, wer ein neues System kauft, greift zum i5 760.
Xaver Koch
2010-11-17, 13:41:30
@Xaver:
Ein Q9550 kostet über 200€, dafür bekommst du schon fast einen i5 + Board. Warum sollte man das noch machen, außer um sich den Umbauaufwand zu sparen? P/L mäßig macht es wenig Sinn, maximal falls man noch ein High-End LGA775 Board + sehr teuren DDR2 hat.
Ein ordentliches Brett von Gigabyte oder Asus alleine kostet ca. 115-150 €uro. Neuen DDR3-Speicher braucht man auch noch, da DDR2 ja "out" ist. Dann legt man insgesamt eher 300-400 Euro hin für - wenn man die o.g. Spiele hat- 25-30% mehr Leistung. Na, wenn das mal kein Schnäppchen ist. ;)
Gleiches Spielchen wie bei der BR: Ist ja Galaxien besser als DVD. Blöd nur, dass eine gut gemastere DVD wie Herr der Ringe 2 oder Gladiator mit einem ordentlichen Videoprozessor (DVDO VP 50pro) auf der Leinwand besser als die Gladiator BR aussieht. Na ja, immerhin kann ich jetzt besten Gewissens die alten DVDs behalten und neue Scheiben nur dann als BR erwerben, wenn die mindestens blue oder gold sind. Drunter lohnt es sich bei meiner Hardware nicht. :D
Xaver Koch
2010-11-18, 08:57:50
Laut neuestem Ranking, was ich hier vorliegen habe, liegt ein i5-760 im Mittel (Anno 1404, BC2, Dragon Age, F1 2010, Mass Effect 2, Starcraft II) satte 28 Prozent vor einem Q9550 E0 und ist dabei klar sparsamer! Nehalem ist einfach für Spieler die aktuelle Nr.1 - bis Sandy kommt.
dargo hat Recht.
Kommt aber sehr auf das Spiel an, bei Anno 1404 lohnt sich der Wechsel nicht, bei Arma sieht es gut für den i5 760 aus: alle Benches nachtürlich in praxisnahen 1680x1050
Anno 1404
http://www.computerbase.de/artikel/prozessoren/2010/test-intel-core-i5-760/23/#abschnitt_anno_1404
Arma II
http://www.computerbase.de/artikel/prozessoren/2010/test-intel-core-i5-760/24/
Man beachte hier mal die "Leistung" eines "Intel Core i7-960, 3,20 GHz, DDR3-1066, Turbo & SMT ein" im Vergleich zum betagten E8600. :D :D :D
Dirt2
http://www.computerbase.de/artikel/prozessoren/2010/test-intel-core-i5-760/26/
Kann bestätigen, dass Dirt2 sehr gut mit dem E8600 läuft, Empire TW / Napolen machen sich auch nichts aus vier Kernen.
Von daher bleibt das Fazit: Wer ein Spiel hat, dessen min. fps kritisch sind, für den kann der i5 760 einen Schritt bringen, eben weil es auf das Spiel ankommt. Also ist nicht in jedem Fall grundsätzlich ein Wechsel auf vom Q 9550/60 auf den i5 760 anzuraten! Aber genau das wollen hier einige als die Wahrheit verkaufen (habt ihr Aktien bei Intel?).
Xaver Koch
2010-11-18, 09:13:20
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7561344&postcount=87
Vergleich von Frank1974
Bei aktuellen Spielen siehts logischerweise noch besser aus für den i5.
Die Asus P5Q sind gut 5% langsamer als Gigabyte und ziehen trotzdem 3-8W mehr Strom. Habe ich selbst getestet (EP 45 DS4 vs. neuem P5QD Turbo aus der neuen D-Series mit verbesserter Cu-Platine, welche u.a. die Wärmeableitung optimiert).
boxleitnerb
2010-11-18, 11:00:52
Ich kann dieses Wort nicht mehr hören, es hängt mir zum Hals heraus!
Benchmarks sind NIE praxisnah! Das liegt in der Natur der Sache, denn es wird möglichst immer nur eine Komponente gefordert, um eben die Leistung dieser untersuchen zu können. Das hat mit der Performancecharakteristik über das ganze Spiel aber Nullkommagarnichts zu tun. Praxisnähe erreicht man erst, wenn man mehrere Benchmarks miteinander kombiniert und dann seine Schlüsse daraus zieht.
dargo
2010-11-18, 11:28:33
@boxleitnerb
Ich mische mich auch gar nicht mehr ein, schont die Nerven. ;) Lass den anderen einfach ihren Glauben. ;)
boxleitnerb
2010-11-18, 11:30:04
Sollte ich auch tun. Alles andere macht nur Aua im Kopf bei dem Stuss, der in Foren verzapft wird :)
dargo
2010-11-18, 11:32:14
Viele sind so festgefahren dank CB & Co. Die kannst du nicht mehr umpolen. :D
boxleitnerb
2010-11-18, 12:01:43
Was mal fehlt, ist ein wirklich ausführlicher Artikel mit Untersuchungen zur Benchmarkmethodik. Wie häufig treten heute unter 1080P mit AA/AF CPU-Limits auf? In einem zeitgenössischen Parcour, wieviele Spiele sind CPU-limitiert? Wie oft? Nur 1% der Zeit, 5, 10? Wieviele CPU-limitierte Szenen muss man finden, um eine sinnvolle Aussage über die Limits in einem Spiel zu machen? Geht das überhaupt?
Es fehlt halt an "Beweisen", die von der Masse auch akzeptiert werden. Da kommen sie mit praxisnah, GPU-Limit und Co. und man kann nichts außer immer denselben Benches entgegenhalten (z.B. die von XBitlabs mit 5870 Crossfire), die als Intel-gesponsert oder sonstwie inkompetent abgewatscht werden. Oder es heißt: Ich hab ja gar kein CF, ich komme eh nie ins CPU-Limit.
Man kann wissenschaftlich argumentieren, mit Logik ankommen - solange man es nicht in Babysprache und vor allem mit haufenweise belegbaren Beispielen direkt vor die Nase gesetzt bekommt, wird es nicht geglaubt.
Blöd nur, dass dafür wohl die Zeit fehlt, der Aufwand unverhältnismäßig groß wäre und es nachher die Mehrheit eh nicht interessiert, weil sie sich ihre Meinung schon vorher gebildet hat.
dargo
2010-11-18, 12:09:15
Was mal fehlt, ist ein wirklich ausführlicher Artikel mit Untersuchungen zur Benchmarkmethodik. Wie häufig treten heute unter 1080P mit AA/AF CPU-Limits auf? In einem zeitgenössischen Parcour, wieviele Spiele sind CPU-limitiert? Wie oft? Nur 1% der Zeit, 5, 10? Wieviele CPU-limitierte Szenen muss man finden, um eine sinnvolle Aussage über die Limits in einem Spiel zu machen? Geht das überhaupt?
Leider nicht. Aufgrund von fehlender Möglichkeit freizuspeichern ist es nahezu unmöglich die Vergleichbarkeit bei Savegames zu gewährleisten. Deswegen wirds in Zukunft weiter schön mit Timedemos jongliert. :usad: Außerdem ist der Zeitaufwand so enorm, dass 99% aller Reviewer daran kein Interesse haben.
boxleitnerb
2010-11-18, 12:12:48
Ein Reviewer reicht, wenn er seine Arbeit gut macht :)
Gibt es echt überall Autosave heute? Was ist mit Openworld-Games? Strategie, (Sport)Simulationen? Denke, Autosave ist hauptsächlich bei Shootern und Rennspielen ein Problem (mitten im Rennen zu speichern ist ja eh Unsinn).
Ich würde mich evtl. bereit erklären, mich an sowas zu probieren. Wenn ich merke, es kostet zuviel Zeit, kann ich ja immer noch aufhören. Aber erst, wenn ich mit meiner Diplomarbeit fertig bin und ein neues System habe, also ca. Februar. Da ich mir einen 2600K und evtl. zwei 580er im SLI holen würde, könnte ich sicher auch öfters ins CPU-Limit kommen und die CPU durch den offenen Multi schön einfach skalieren im Takt. Vielleicht können wir ja auch zusammenarbeiten - du hast da deutlich mehr Erfahrung als ich, was sicherlich ne Menge Zeit sparen würde.
y33H@
2010-11-18, 12:18:29
Wir haben intern das mal angedacht auf 4-6 Seiten. Der Aufwand ist halt wirklich krankhaft hoch (und das sage ich, der pro Monat locker 5.000 Benchmarks macht!).
boxleitnerb
2010-11-18, 12:21:01
Ups :freak:
Wenn man mehrere Leute mit praktisch identischer Hardware hätte, könnte man die Arbeit wenigstens verteilen.
dargo
2010-11-18, 12:24:45
Gibt es echt überall Autosave heute? Was ist mit Openworld-Games? Strategie, (Sport)Simulationen? Denke, Autosave ist hauptsächlich bei Shootern und Rennspielen ein Problem (mitten im Rennen zu speichern ist ja eh Unsinn).
Rennspiele sind noch das kleinste Übel. Dort kannst du wenigstens das Fahrzeug ganz hinten anstellen um am Start benchen. Somit hast du ein wunderbares CPU-Limit und zudem ist die Vergleichbarkeit immer gewährleistet. Ist nichts weiter als ein Savegame obwohl nicht gespeichert wurde.
Wir haben intern das mal angedacht auf 4-6 Seiten. Der Aufwand ist halt wirklich krankhaft hoch (und das sage ich, der pro Monat locker 5.000 Benchmarks macht!).
Mein Beileid. :freak:
y33H@
2010-11-18, 12:34:06
Laut den CSVs im Fraps-Ordner bis just in diesem Moment sind es 63.714 Files für 2010 ;D
dargo
2010-11-18, 12:39:02
Laut den CSVs im Fraps-Ordner bis just in diesem Moment sind es 63.714 Files für 2010 ;D
:ueye:
Wer spielt denn bei euch die Games um an die Saves zu kommen? Jetzt sag nicht das bist auch du. :ugly:
y33H@
2010-11-18, 12:47:27
Doch, idR bin ich das ebenfalls. Raff zockt allerdings auch ab und zu - meist aber in Ruhe daheim und nicht am Release-Tag via Rush über Nacht durch :ulol: Teilweise holen wir uns auch Saves von der PCG/PCA. Daher finde ich es auch belustigend, wenn jemand ankommt und meint, ich wüsste nicht, wie welche CPU oder GPU performt - fuck, ich zocke und benche alles, was Rang und Namen hat, kaum einer auf dieser blöden Kugel dürfte da deutlich mehr Plan haben ;(
Xaver Koch
2010-11-18, 13:17:47
Ich will ja nicht nur nerven, sondern vor allem in der Sache weiter kommen bzw. neue Erkenntnisse gewinnen. Von daher gebt doch einfach mal Beispiele, wo es mit der vorherigen CPU gezwickt hat und was mit einem i5 750/760 nun besser läuft. Ich glaub das Euch dann auch ohne "Beweise". ;)
Bei mir hat damals der E6700 mit fps-Drops und min-fps genervt, sodass ich auf einen E8600 umgestiegen bin. Ich hatte mir davon nicht so viel versprochen, wurde dann aber doch positiv überrascht: Die min. fps in WiC und Company of Heroes haben ca. 25-35% zugelegt und die nervigen fps-Drops "gefühlt" um 2/3 abgenommen.
Also los, wie hat bei Euch der i5 750/760 den Spaß am Zocken gesteigert im Vergleich zur CPU (welche) davor?
y33H@
2010-11-18, 13:24:42
Ein Beispiel: Ich habe daheim noch meinen E8200 @ 3,6 GHz. Ich habe mal spaßeshalber die SSD und die GTX 460 damit statt mit dem i5-750 @ 3,6 GHz kombiniert. In 19x12 mit 4x MSAA + 16:1 AF und max. Details gibt's diverse Spiele, die auf zweiterer Kombi weitaus besser performen: Dazu gehören Gothic III, RUSE, Left 4 Dead, GTA IV, Black Ops (!), Anno 1404, Crysis (bei hohem Gegner-Aufkommen), F1 2010, Empire Total War, Ghostbusters, SupCom und natürlich Starcraft II.
Eine schnellere CPU berechnet ja nicht nur AI, Geometrie usw. schneller, sondern versorgt auch die GraKa mit flotter mit Daten - daher bringt's eine dicke CPU fast immer.
fuck, ich zocke und benche alles, was Rang und Namen hat, kaum einer auf dieser blöden Kugel dürfte da deutlich mehr Plan haben ;(
Da kannst du ja richtig Stolz auf dich sein
EvilTechno
2010-11-18, 15:41:09
http://www.youtube.com/watch?v=lhmjnYKlVnM
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.