Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wieviele Jahre wird ein DC den ich mir heute kaufe noch aktuell sein?


Gast
2009-07-05, 22:02:12
Hi.

Ich hoffe, ich bin hier richtig mit meiner Frage, wieviele Jahre ein Dualcore, den ich mir dieses Jahr kaufe, noch aktuell sein wird. D.h. wie hoch ist die "maximale Lebensdauer" bevor der wirklich veraltet ist und mir wirklich jeder eine neue CPU empfiehlt?

Mir ist natürlich klar, dass es auch auf den Bereich ankommt, in dem diese CPU verwendet wird. Daher würde ich gerne die drei Bereiche: "aktuelle Spiele", "Multimedia, Video- und Bildbearbeitung" und "Office/Word/Internet" herausgestellt haben. Also praktisch das "Verfallsdatum" der CPU für jeden der drei Bereiche ab jetzt.

Hintergrund des ganzen: Man sagt zwar, dass ein PC für Zocker nach spätestens 4 Jahre veraltet ist, einer für Multimedia nach meinetwegen 6 bis 8 Jahren und heutige Office-PCs nach 8 bis 10 Jahren. Das ist heutzutage durch das vorhandensein von Quad- UND Dual-Core CPUs aber sicherlich nicht mehr so einfach abgrenzbar wie damals, als es nur SC CPUs auf dem Markt gab.

Gast
2009-07-05, 22:07:55
Die Hellseherin auf dem Jahrmarkt wird dir da genauso gute Antworten geben können wie du sie hier im Thread bekommst. Die Zukunft sind nun mal Spielekonsolen, da kannst du deinen DC (Domaincontroller?) nicht einbauen.

Disclaimer:
Achtung, dieser Beitrag kann Spuren von Sarkasmus enthalten. Allergiker sollten Abstand halten.

Jake Dunn
2009-07-05, 22:15:37
Daher würde ich gerne die drei Bereiche: "aktuelle Spiele", "Multimedia, Video- und Bildbearbeitung" und "Office/Word/Internet" herausgestellt haben.



Wer die Bereiche nutzt und ein Neukauf plant, sollte schon ein Quad nehmen (gute gibt es für 160-180€) ;)

=Floi=
2009-07-05, 22:30:40
DC max. 2 jahre, wenn man heuer kauft. 2009 ist ja auch schon weit fortgeschritten. wenn der kauf dann erst im oktober/nov stattfindet, sind diese 2 jahre eh gut.

anddill
2009-07-05, 22:37:04
Für mehr als gelegentliches Zocken und Videobearbeitung würde ich jetzt schon mehr als 2 Kerne empfehlen.

Der_Korken
2009-07-05, 23:11:34
Das hängt vom Dualcore ab, den du dir kaufen willst und wie du "veraltet" definierst. Ich hatte etwa März '07 nen 1,8Ghz Dualcore gekauft und vor 2 Tagen durch nen 2,8Ghz Quadcore ersetzt und den würde ich auch nicht mehr hergeben wollen, da er schon heute merklich schneller ist. Ergo IST Dualcore je nach Ansicht bereits heute veraltet.

Ich rate jetzt mal und sage, dass ein Dualcore von heute 2011 insofern veraltet ist, dass die Mehrheit der Spiele nicht mehr spielbar ist. Ich hatte z.B. bis Anfang '07 noch einen Athlon XP im Rechner, aber zu dem Zeitpunkt hab ich einfach festgestellt, dass mit dem Teil nichts mehr geht. Der Prozessor war zu dem Zeitpunkt etwa 5 Jahre alte Technik. Die heutigen C2D sind im Grunde Technik von 2006, ergo dürften sie 2011 endgültig zu langsam sein (wenn man sie nicht gerade auf >4Ghz taktet).

Gast
2009-07-05, 23:26:07
Kommt auf die Taktrate an, wenn man einen E8400-E8600 mit 3,4-4GHz betreibt, dann reicht der erstmal noch ne Weile. Weiter als 2 Jahre kann man eh nicht im voraus Planen. Danach wirds wohl nur noch Quads geben, und die DualCores gibts in er billig Variante für Büro PCs. Wobei in 32nm ein Stock 4GHz Dualcore auch nice wäre XD

sw0rdfish
2009-07-05, 23:28:22
Ich denke, das ist eine Frage, die nicht zu beantworten isst. Im Prinzip ist ja jede CPU, die du heute kaufst schon veraltet. Dennoch kommt es ja auch auf deine eigenen Ansprüche an. Ich z.B. könnte mit nem Quadcore eher weniger was anfangen und einen Dual Core brauche ich in 99,99% der Situationen auch nicht.

Aktuell ist im Computerbereich ja doch eh nichts länger als ein paar Monate. Du musst selber wissen, wie lange dir eine bestimmte Hardware ausreicht. Den meisten Leuten ist es ja eh egal, was drin steckt und die kaufen sich dann auch eben nur höchst selten mal was neues.

lg

Schrotti
2009-07-05, 23:43:32
Gerade bei Video und Bildbearbeitung hat der DC seine Daseinsberechtigung schon verloren.

Gast
2009-07-05, 23:55:06
Vor einem Jahr wurde noch oft ein 45nm DC statt einem niedriger getakteten 65nm Quad empfohlen.

Heute hat es sich scheinbar gewandelt interessant.
Ich meine mich sogar erinnern zu können, das niemand schrieb ein DC würde nur ein Jahr halten.

Naja, zum Glück habe ich auf diese Aussagen nicht gehört und mir einen Quad geholt.

Der_Korken
2009-07-06, 00:16:10
Vor einem Jahr wurde noch oft ein 45nm DC statt einem niedriger getakteten 65nm Quad empfohlen.

Heute hat es sich scheinbar gewandelt interessant.
Ich meine mich sogar erinnern zu können, das niemand schrieb ein DC würde nur ein Jahr halten.


In diesen einem Jahr ist man mit einem 45nm Dualcore auch besser gefahren, was Spiele angeht. Ich würde auch heute noch den 45nm DC einem 65nm QC vorziehen, allein wegen des kleinen Stromverbrauchs und hohen OC-Potenzials. In Zeiten von GTA4 mögen das einige aber auch sicher anders sehen, da hast du schon Recht.

Gast
2009-07-06, 01:24:49
Schonmal Danke für die ganzen Antworten.

Also Dualcore geht für Spiele noch bis ca. 2011. Aber wie siehts mit normalen Office Anwendungen und Internet aus? Lässt sich da eine "Bis Wann"-Prognose stellen oder entzieht sich das noch weiter der "Glaskugel"? Vor Youtube und mit Flash Animationen vollkommen überladenen Internetseiten hat ein 1 Ghz Singlecore Rechner für Internet ja auch noch vollkommen ausgereicht. Auch wenn sich das Internet in näherer Zeit wohl nicht so schnell weiterentwickeln wird, so wird auch da sicherlich irgendwann mal die Zeit kommen, in der heutige Dualcore Rechner stark an ihre Grenzen stoßen werden.

P.S.: Ich hoffe, ich habe jetzt keine Dual vs. Quadcore Diskussion losgetreten ;)

mapel110
2009-07-06, 01:32:47
Und ich sage, viele sind mit ihrer DC-Leistung schon so zufrieden, dass sich ihr Verbreitungsgrad noch sehr lange halten wird. Außerdem dürften Reviews ala Computerbase auch dafür sorgen, dass viele Hardcore-Gamer keinen Sinn in Quads sehen.
Hinzu kommt, dass Windows7 resourcenverbrauchstechnisch auch nochmal einen Rückschritt darstellt.

Gute 2 Jahre würd ich deshalb den DCs auf jedenfall noch geben. Warte selbst gespannt auf die 32nm DCs.

Lokadamus
2009-07-06, 07:07:14
Schonmal Danke für die ganzen Antworten.

Also Dualcore geht für Spiele noch bis ca. 2011. Aber wie siehts mit normalen Office Anwendungen und Internet aus? Lässt sich da eine "Bis Wann"-Prognose stellen oder entzieht sich das noch weiter der "Glaskugel"? Vor Youtube und mit Flash Animationen vollkommen überladenen Internetseiten hat ein 1 Ghz Singlecore Rechner für Internet ja auch noch vollkommen ausgereicht. Auch wenn sich das Internet in näherer Zeit wohl nicht so schnell weiterentwickeln wird, so wird auch da sicherlich irgendwann mal die Zeit kommen, in der heutige Dualcore Rechner stark an ihre Grenzen stoßen werden.

P.S.: Ich hoffe, ich habe jetzt keine Dual vs. Quadcore Diskussion losgetreten ;)mmm...

Zum Surfen und Office- Anwendungen reicht heute noch ein Single- Core (hab P4 - 3GHz mit 1GB DDR1), wobei das auch schon träge wird (XP Updates ahoi). Hier ist eher die Frage nach dem OS sinnvoll ;).
Ich denke, surfen dürften mit einem DC in ca. 5 - 7 Jahren anfangen ruckelig zu werden.
Zum Zocken dürften die High- End DCs ca. 2 - 4 Jahren reichen, je nach Spiel und Einstellungen. Einem Quad gebe ich 3 - 5 Jahre, je nach Spiel und Anwendungen.

Frage ist auch, welche Generation der CPU sich man holt. Das Problem wurde schon in Form 45nm DC versus 65nm Quad angesprochen ;).

V2.0
2009-07-06, 07:29:23
Da gerade auch die Triplecores sehr günstig sind, würde ich mir keine DC mehr holen.

Klingone mit Klampfe
2009-07-06, 10:13:09
Ich überlege mir auch schon eine ganze Weile, mir einen Vierkerner zu holen. Die Frage ist nur, womit ich meinen AMD 6400er Windsor überhaupt sinnvoll ersetzen kann. Der hat ja immerhin 3,2Ghz je Kern und langweilt sich die meiste Zeit.

Gast
2009-07-06, 10:17:42
Die Frage ist nicht allgemeingültig zu beantworten. Da spielen subjektive Empfingungen zu sehr eine Rolle.

Sicher ist nur 1: Egal was Du Dir heute kaufst, in (spätestens) 2 Jahren wird es Dich so oder so nach neuen Gerätschaften gelüsten.

Mr.Fency Pants
2009-07-06, 11:41:50
Das hängt vom Dualcore ab, den du dir kaufen willst und wie du "veraltet" definierst. Ich hatte etwa März '07 nen 1,8Ghz Dualcore gekauft und vor 2 Tagen durch nen 2,8Ghz Quadcore ersetzt und den würde ich auch nicht mehr hergeben wollen, da er schon heute merklich schneller ist. Ergo IST Dualcore je nach Ansicht bereits heute veraltet.

Da vergleichst du aber Äpfel mit Birnen. Die Leistungssteigerung dürfte in dem Fall vor allem durch den höheren Takt zustande gekommen sein. Hättest du auch durch OC des alten Prozzis haben können. Wenn, dann müsste man gleichgetaktete DC/QC miteinander vergleichen. Mit nem 3GHz Dualcore würde ich erstmal nicht aufrüsten (kommt natürlich drauf an, was man damit macht, nur für Spiele wirds wohl nicht lohnen), bei Neuanschaffung natürlich möglichst Tri- oder Quadcore.

Mr.Fency Pants
2009-07-06, 11:45:28
Ich überlege mir auch schon eine ganze Weile, mir einen Vierkerner zu holen. Die Frage ist nur, womit ich meinen AMD 6400er Windsor überhaupt sinnvoll ersetzen kann. Der hat ja immerhin 3,2Ghz je Kern und langweilt sich die meiste Zeit.

Warum überlegst du dir nen Quad zu holen, wenn anscheinend noch alles gut läuft? :confused:

Klingone mit Klampfe
2009-07-06, 12:05:23
Keine Ahnung, um mitreden zu können? :uponder: Naja, vielleicht will ich ja doch mal GTA IV spielen, wenn's in die Budget-Ecke rutscht. Ansonsten fällt mir in der Tat kein überzeugender Grund ein.

Gast
2009-07-06, 12:18:55
Keine Ahnung, um mitreden zu können? :uponder: Naja, vielleicht will ich ja doch mal GTA IV spielen,

Dann nimm besser gleich einen i7

Tesseract
2009-07-06, 12:33:37
Ich hoffe, ich bin hier richtig mit meiner Frage, wieviele Jahre ein Dualcore, den ich mir dieses Jahr kaufe, noch aktuell sein wird. D.h. wie hoch ist die "maximale Lebensdauer" bevor der wirklich veraltet ist und mir wirklich jeder eine neue CPU empfiehlt?

hängt davon ab was du unter "veraltet" verstehst. die performace ist wichtig für zeitkritische anwendungen. also spiele und video decoding. wenn da die performance nicht reicht kannst du das ganze vergessen.

bei zeitunkritischen anwendungen (encoding, office usw.) musst du halt etwas länger warten aber verwendbar bleibt das ganze für jahrzehnte.
diese bereiche werden imho generell ziemlich überbewertet weil da in der regel sowieso der user limitiert und nicht die hardware. und wenn man mal wirklich was dickes über mehrere stunden rendert macht man das eh über nacht. ich bleibe weder 3 noch 6 stunden vor dem balken sitzen.
ein viel größeres problem in diesem bereich ist eher die ramgröße.

Der_Korken
2009-07-06, 12:59:24
Da vergleichst du aber Äpfel mit Birnen. Die Leistungssteigerung dürfte in dem Fall vor allem durch den höheren Takt zustande gekommen sein. Hättest du auch durch OC des alten Prozzis haben können. Wenn, dann müsste man gleichgetaktete DC/QC miteinander vergleichen. Mit nem 3GHz Dualcore würde ich erstmal nicht aufrüsten (kommt natürlich drauf an, was man damit macht, nur für Spiele wirds wohl nicht lohnen), bei Neuanschaffung natürlich möglichst Tri- oder Quadcore.

Da hast du natürlich nicht ganz Unrecht. Aber der alte Dualcore hat beim OC höchstens 2,7Ghz gebracht, während der neue schon default 2,83Ghz und 3mal so viel Cache hat. Da sieht man mal, wie stark ein Dualcore in 2 Jahren veralten kann, da es nicht immer nur mehr Kerne werden, sondern die Kerne durch Optimierungen auch mehr leisten. Beim DC und QC auf gleichem Tech-Level hast du natürlich Recht.

Tesseract
2009-07-06, 13:18:15
Aber der alte Dualcore hat beim OC höchstens 2,7Ghz gebracht, während der neue schon default 2,83Ghz und 3mal so viel Cache hat. Da sieht man mal, wie stark ein Dualcore in 2 Jahren veralten kann, da es nicht immer nur mehr Kerne werden, sondern die Kerne durch Optimierungen auch mehr leisten.

das hat aber nichts mit der corezahl sondern mit den fortschreitenden fertigung zu tun und betrifft jeden QC genauso.

deswegen sollte man sich immer auch die frage stellen ob man nicht besser wegkommt, wenn man öfter günstig upgradet als einmal "für lange zeit". das rentiert sich nämlich in den meisten fällen nicht.

Der_Korken
2009-07-06, 13:38:47
das hat aber nichts mit der corezahl sondern mit den fortschreitenden fertigung zu tun und betrifft jeden QC genauso.

deswegen sollte man sich immer auch die frage stellen ob man nicht besser wegkommt, wenn man öfter günstig upgradet als einmal "für lange zeit". das rentiert sich nämlich in den meisten fällen nicht.

Ich sehe da jetzt keinen Widerspruch zu meiner Aussage. Wenn der TS fragt, wie lange ein Dualcore von heute halten wird, dann muss man auch berücksichtigen, dass in 2 Jahren die Fertigungstechnik wieder deutlich weiter ist. Hätte er den Thread vor 2 Jahren aufgemacht, könnte ich ihm heute sagen, dass der Dualcore von damals heute schon ne lahme Ente ist. 2011 wird man im Gaming-Bereich über einen E8400 lachen.

Raff
2009-07-06, 16:54:56
Selbst ein drei Jahre alter E6600 ist heute keine lahme Ente. Die Dinger sehen alle 3+ GHz und damit kann man noch eine Menge anfangen. :)

MfG,
Raff

dargo
2009-07-06, 17:32:54
Auf diese Frage (in Bezug auf Games) gibt es keine eindeutige Antwort.

1. Niemand weiß wo deine Schmerzgrenze ist, dh. ab wann du ein Spiel als unspielbar langsam empfindest.
2. Keiner kann hellsehen welche CPU-Last zukünftige Spiele erzeugen werden und in welchem Umfang (falls überhaupt) eine Skalierung angeboten wird.
3. Keine Angabe von CPU-Architektur und Taktrate.
4. Welche Spiele überhaupt?

Um es kurz zu machen, auf deine Frage kann man gar nicht antworten. :D

Dann nimm besser gleich einen i7
Ist nicht zwingend notwendig. GTA IV lässt über die Sichtdistanz wunderbar eine CPU-Skalierung zu. Wer natürlich unbedingt die Sichtdistanz auf 100% haben will und zusätzlich dabei um die 60fps kommt an einem i7 nicht vorbei, das stimmt. :)

Gast
2009-07-06, 18:20:39
Vor Youtube und mit Flash Animationen vollkommen überladenen Internetseiten hat ein 1 Ghz Singlecore Rechner für Internet ja auch noch vollkommen ausgereicht.
Seit Vista weiß man, daß es einen unmittelbaren Zusammenhang zwischen PC-Performance und Betriebssystem-Services gibt. Das ganze ist ein Teufelskreis: Windows wird immer komfortabler und langsamer, während aktuelle Spiele mit immer haarsträubenderen Kopierschutztechniken am Markt erscheinen. Irgendwann kommt dann der Zeitpunkt, wo man für den neuesten Kopierschutz den Vista-Installer braucht.

Auch wenn sich das Internet in näherer Zeit wohl nicht so schnell weiterentwickeln wird, so wird auch da sicherlich irgendwann mal die Zeit kommen, in der heutige Dualcore Rechner stark an ihre Grenzen stoßen werden.
Der Zeitpunkt kommt exakt dann, wenn man ohne den Installer von Windows 7 oder 8 keine aktuellen Spiele mehr installieren kann.

P.S.: Ich hoffe, ich habe jetzt keine Dual vs. Quadcore Diskussion losgetreten ;)
Das ist in diesem Forum nicht zu vermeiden. Die Argumente liegen seit Jahren auf dem Tisch, aber in den Köpfen der an dieser Scheindiskussion beteiligten User hat sich nichts bewegt. Allein das diese Diskussion bereits Jahre nach Erscheinen der ersten Mainstream-QCs immernoch aktuell ist (weil sich beide Seiten in ihrer Meinung bestätigt sehen), sagt alles. ;) Zu dem Thema kann man nur eins sagen: Solange jeder mit seinem PC (DC/QC) zufrieden ist, hat niemand etwas falsch gemacht. Die Unterschiede zwischen diesen CPUs sind rein leistungsmäßig für den Endanwender so wahnsinnig gering, daß es für die Mehrheit einfach egal ist. Hauptsache alle sind mit ihrer CPU-Wahl zufrieden. :biggrin:

@Topic:
Deine Frage ist zu undifferenziert. Es gibt heute schon eine ganze Menge Gurken unter den DCs. Das fängt bei verstümmeltem Cache an und geht über nachträglich gelaserte Dies weiter. Wenn man Pech hat, dann wird einem eine QC-Mißgeburt als DC unter die Weste gejubelt. Man muß sich also vorher gut informieren. Meine Meinung: Mit einem anständigen DC kann man heute genausowenig verkehrt machen, wie mit einem anständigen QC. Und wenn der Zeitpunkt kommt, wo ein aktueller und guter heutiger DC den Leistungsanforderungen nicht mehr gewachsen ist, dann können auch alle heutigen QC-Besitzer getrost einpacken. Das muß dann noch nichtmal an der CPU liegen. - Es reicht völlig wenn die neue Grafikkartengeneration -die dann zwingend benötigt wird- auf aktuellen DC/QC-Boards nicht mehr läuft.

dargo
2009-07-06, 18:30:03
Und wenn der Zeitpunkt kommt, wo ein aktueller und guter heutiger DC den Leistungsanforderungen nicht mehr gewachsen ist, dann können auch alle heutigen QC-Besitzer getrost einpacken.
Das ist doch Unsinn. Zwischen einem E8600 und dem i7-975 (beides jeweils die schnellsten CPUs ihrer Klasse) liegen Welten. Da ist ein Faktor 2 und mehr keine Seltenheit was die Frames betrifft. Während ein Game mit dem E8600 in einigen Situationen kaum mehr spielbar ist flutscht es noch wunderbar mit dem i7-975.

_DrillSarge]I[
2009-07-06, 19:12:45
Hintergrund des ganzen: Man sagt zwar, dass ein PC für Zocker nach spätestens 4 Jahre veraltet ist, einer für Multimedia nach meinetwegen 6 bis 8 Jahren und heutige Office-PCs nach 8 bis 10 Jahren.
das ist, wenn überhaupt, der fall, wenn man immer absolutes ultra-high-end kauft. einen üblichen "normalo" pc kann man nach 4 jahren zum zocken aktueller titel gar nicht mehr gebrauchen. daher ist auch ein kauf "für die zukunft" unsinnig, da man erstens nicht weiss, wie sich alles entwickelt und zweitens hardware viel zu schnell "altert".
kauf lieber etwas, was du hier und jetzt benötigtst, am besten mit einem guten p/l-verhältnis.

Gast
2009-07-06, 19:27:25
Das ist doch Unsinn. Zwischen einem E8600 und dem i7-975 (beides jeweils die schnellsten CPUs ihrer Klasse) liegen Welten. Da ist ein Faktor 2 und mehr keine Seltenheit was die Frames betrifft. Während ein Game mit dem E8600 in einigen Situationen kaum mehr spielbar ist flutscht es noch wunderbar mit dem i7-975.
Ach so. ;)

Man darf nicht vergessen, in welchem Bereich diese Unterschiede auftreten:
a) im Bereich zwischen 0-30 FPS (also unspielbar)
b) im Bereich über 60 FPS (für Besitzer von TFTs wegen Tearing uninteressant)

Zu den GTA4-Tests, die in Umlauf sind: Dort wurden bestimmte von Hand verlesene Spielszenen ausgewählt, wo der i7 seine Stärken kurzzeitig ausspielen konnte. Wer meint, er könne GTA 4 auf einem i7 durchgängig flüssig spielen, hat also absolut Recht. :biggrin: Meine Empfehlung: Einfach mal auf eine LAN gehen und die i7-Performance von GTA 4 bei 1920x1200,max Details, 100% Distance, max. FSAA & max. AF live erleben.

PS: Ich behaupte nicht, daß ein DC bei GTA4 bessere Ergebnisse abliefert.

dargo
2009-07-06, 19:55:05
Ach so. ;)

Man darf nicht vergessen, in welchem Bereich diese Unterschiede auftreten:
a) im Bereich zwischen 0-30 FPS (also unspielbar)
b) im Bereich über 60 FPS (für Besitzer von TFTs wegen Tearing uninteressant)

Wie kommst du jetzt genau an diese zwei Bereiche? Stelle dir mal vor du hast eine Szene wo der E8600 20fps liefert und der i7-975 40fps aufwärts. Hier wird die Szene von "unspielbar" bzw. "verdammt zäh" plötzlich zum butterweichen Spielvergnügen. GPU-Limits natürlich ausgeschlossen.

Meine Empfehlung: Einfach mal auf eine LAN gehen und die i7-Performance von GTA 4 bei 1920x1200,max Details, 100% Distance, max. FSAA & max. AF live erleben.

Absolut kein Problem für den i7 solange eine starke Grafikkarte ihm zur Seite steht. Detaildistanz (oder wie sich das Ding schimpft, eins tiefer unter Sichtdistanz) geht enorm auf die GPU, aber auch ganz gut auf die CPU. Ein G300 (sollte er doppelt so schnell wie die GTX280 werden) schafft das spielend. Ich kenne nämlich die Frameraten von GTA IV @3360x2100 @max. (dagegen sind 1920x1200 schon fast ein Witz) mit einer GTX260. Der G300 wäre an meinem oberen Rechenbeispiel um ca. den Faktor 2,5 schneller als die GTX260.

Gast
2009-07-06, 21:00:15
Wie kommst du jetzt genau an diese zwei Bereiche?
Erst ab 25-30 FPS aufwärts wirkt eine Bildersequenz für das menschliche Auge flüssig. Oft findet man Benchmarks wo zwei Produkte miteinander verglichen werden, wo das eine um die 10 FPS schafft, während das andere 20 FPS oder knapp mehr leistet. Diese beiden völlig ungenügenden Performancen halten die 'Hardwaretester' durch die Bank nicht davon ab das Produkt mit den lächerlichen 20+ FPS in den höchsten Tönen als Meilenstein der Technik (100% mehr Leistung) zu loben. Obwohl die Leistung unter dem Strich natürlich bei beiden Produkten völlig unbrauchbar ist.
Der zweite Bereich ergibt sich aus dem Umstand, daß Spiele mit VSYNC=OFF auf TFTs einfach nicht zu ertragen sind (Tearing). Deswegen ist VSYNC bei den meisten an. Ob ein i7 in einem theoretischen Benchmark bei Spiel X jetzt 70, 200 oder 1000 FPS mehr schafft, interessiert deshalb -außer einer Handvoll Leuten mit komischen T-Shirts- niemanden.

Stelle dir mal vor du hast eine Szene wo der E8600 20fps liefert und der i7-975 40fps aufwärts. Hier wird die Szene von "unspielbar" bzw. "verdammt zäh" plötzlich zum butterweichen Spielvergnügen. GPU-Limits natürlich ausgeschlossen.
Das wäre der Idealfall. Diesen Idealfall hat ein besonders objektiver Redakteur an dieser Stelle konstruiert:
http://www.pcgameshardware.de/aid,671956/GTA-4-Intel-Core-i7-weit-vor-Core-2-Quad-im-CPU-Benchmark/CPU/Test/
Während der i7 oben bei lediglich 50% Sichtweite ohne FSAA und ohne FA noch mit Hängen und Würgen 40 FPS abliefert, ist der E8600 mit 23 FPS im unspielbaren Bereich.

Dieses Beispiel zeigt sehr schön, wie man mit Statistiken bluffen kann. Die Wahrheit ist nämlich, daß man sowohl mit einem i7 als auch mit einem E8600/C2Q das Spiel halbwegs vernünftig spielen kann. Darum bleibe ich dabei, was ich oben bereits geschrieben habe: Wenn du einen i7 gekauft hast und damit glücklich bist, dann war der i7 genau die richtige CPU für dich. Es gibt allerdings auch Leute die einen C2D oder C2Q haben und damit mindestens genauso glücklich sind. Man munkelt sogar, daß letztere teilweise glücklicher sind, weil sie mehr Geld für eine anständige Graka hatten.

Lokadamus
2009-07-06, 21:08:59
Ich sehe da jetzt keinen Widerspruch zu meiner Aussage. Wenn der TS fragt, wie lange ein Dualcore von heute halten wird, dann muss man auch berücksichtigen, dass in 2 Jahren die Fertigungstechnik wieder deutlich weiter ist. Hätte er den Thread vor 2 Jahren aufgemacht, könnte ich ihm heute sagen, dass der Dualcore von damals heute schon ne lahme Ente ist. 2011 wird man im Gaming-Bereich über einen E8400 lachen.mmm...

Jup, im Verhältnis ist es eben so, dass alle 2 - 4 Jahre die CPUs "veraltet" sind. In wie weit sie den Leuten noch reichen, hängt von deren Einstellung ab.
Wenn die Games auf max. Grafikdetails und bei hoher Auflösung rennen sollen, dann kann man nach 2 Jahren überlegen, einen neuen PC zu kaufen, ansonsten kann man es auf 3 - 5 Jahre hinausschieben.
Meine Kiste ist von Dezember 2003, das sind mittlerweile fast 6 Jahre. Was aktuelles kann ich hier schon lange nicht mehr zocken, zum Surfen und für ein paar ältere Games reicht es noch, so lange Windows XP nicht noch langsamer wird ;(.

Wegen der Entwicklung: http://www.golem.de/0907/68184.html
Gibt 2010 neue CPUs und 2011 eine neue Generation und das sind die Momente, wo ich mich freue, so lange auf eine neue Kiste verzichtet haben zu können :tongue:. Für 1.000 Euro dürfte ich jetzt wohl eine Kiste bekommen, die erstmal wieder für ca. 5 Jahre reichen dürfte und meine alte Kiste wird zu einer FreeBSD- Daddelkiste :tongue:.

dargo
2009-07-06, 21:47:39
Der zweite Bereich ergibt sich aus dem Umstand, daß Spiele mit VSYNC=OFF auf TFTs einfach nicht zu ertragen sind (Tearing). Deswegen ist VSYNC bei den meisten an.
Genau das Gegenteil ist der Fall, übrigens auch bei mir. ;)
Wie stark Tearing übrigens vorhanden ist bzw. obs überhaupt vorkommt liegt nicht nur an den Framerate. Wobei ich der Meinung bin, dass Tearing bei höheren Frameraten als 60fps stärker auffällt als darunter. Bildschirm natürlich @60Hz in diesem Fall.

Lokadamus
2009-07-06, 21:55:01
Wobei ich der Meinung bin, dass Tearing bei höheren Frameraten als 60fps stärker auffällt als darunter. Bildschirm natürlich @60Hz in diesem Fall.mmm...

Unter 60Hz kannst du kein Tearing haben, dann ist deine Kiste einfach zu lahm oder ich hab Tearing nicht richtig verstanden ;).
http://de.wikipedia.org/wiki/Tearing
dass ein kürzlich gerenderter Frame von dem darauf folgenden überlagert wird, sodass das Objekt zerrissen wirkt.

Tearing entsteht dadurch, dass eine höhere Framerate als die Wiederholungsrate des Monitors vorhanden ist. Der Monitor (CRT oder TFT ist hierbei egal) kommt mit dem Zeichnen des Bildes nicht mehr hinterher und fängt irgendwo an, das nächste Bild zu zeichnen, obwohl das aktuelle noch gar nicht fertig war.

dargo
2009-07-06, 22:14:40
@Lokadamus

Über Vsync gabs auch im 3DC mal einen schönen Artikel. Ich habe den aber ebenfalls nicht ausführlich verfolgt da mich das Thema weniger interessiert. Ich schaue auf meinen Bildschirm und wenn das Bild nicht ständig stark zerrissen wird (es gibt nämlich nicht das Tearing, gibt zig Stufen wenn ich es so nennen darf) finde ich es nicht störend. Viel störender finde ich da schon die Lags bei der Steuerung die mit Vsync auftreten können. Und seit dem ich das beobachtet habe bleibt Vsync bei mir schon seit Jahren ausgeschaltet. Das ist aber nur meine persönliche Einstellung zu Vsync. :)

blackbox
2009-07-06, 22:48:40
Gerade bei Video und Bildbearbeitung hat der DC seine Daseinsberechtigung schon verloren.

Nö, überhaupt nicht. Die Grafikkarte wird zunehmend solche Aufgaben übernehmen und das erheblich schneller als ein Quadcore es je könnte.

deadkey
2009-07-07, 00:23:29
Nö, überhaupt nicht. Die Grafikkarte wird zunehmend solche Aufgaben übernehmen und das erheblich schneller als ein Quadcore es je könnte.


Diese Prognose ist aber auch schon mindestens so alt wie Hardware T&L;)

Coda
2009-07-07, 01:02:24
Bei Hardware-T&L ist das ja auch uneingeschränkt Realität geworden. Eigentor?

Gast
2009-07-07, 01:07:04
Es gibt da ne deprimierende Formel in der technischen Informatik, die besagt, dass die Steigerung , die man beim Einsatz von mehr CPUs erhält, bereits bei 4 % Anteil von sequentiellen Code drastisch abfällt. Für 20 fache Netto-Leistung bedarf es knapp 100 CPUs.
Und seien wir realistisch, 96% voll parallelisierbarer Code ist momentan noch Traumzone bei den meisten Apps. Das einzigste was uns diese mehr Cores noch bringen, ist mehr Luft beim Arbeiten, d.h parallel diverse Dinge erledigen zu können.
Von daher ist das völlig latte, welchen DualCore du dir käufst, bringt eh nix, alles nur Verarschung!
Gruß
Heise.de

deadkey
2009-07-07, 10:38:13
Bei Hardware-T&L ist das ja auch uneingeschränkt Realität geworden. Eigentor?

Ja sicher, nur sahen die Werbeversprechen da etwas blumiger aus. Mir ist bis heute kein Fall bekannt, in dem speziell die Spieleleistung nur mit der GraKa skaliert. Die CPU ist immernoch extrem wichtig und wird es auch noch eine ganze Weile bleiben, wahrscheinlich sogar für immer.

Dass die GPU immer mehr Fähigkeiten bekommt, will ich nicht bestreiten. Ich halte es nur für gewagt, die Bedeutung von potenten CPUs auf mittlere Sicht kleinzureden;)

blackbox
2009-07-07, 10:46:35
Kleinreden tun wir hier nichts, aber die Bedeutung nimmt ab.
Schon jetzt verfügen wir über so viel CPU-Power und wissen nicht wofür. Beispiel: HDTV. Dort braucht man keine überpotente CPU. Übernimmt schon heutzutage die GPU. Oder typische Officeanwendungen.
Ein Dualcore wird noch sehr lange völlig ausreichend sein.
Richtig ist allerdings, dass es auf das Benutzerprofil ankommt. Ich würde mir jetzt auch keinen DC mehr kaufen, sondern gleich einen QC.

Mr.Fency Pants
2009-07-07, 11:32:20
Das ist doch Unsinn. Zwischen einem E8600 und dem i7-975 (beides jeweils die schnellsten CPUs ihrer Klasse) liegen Welten. Da ist ein Faktor 2 und mehr keine Seltenheit was die Frames betrifft. Während ein Game mit dem E8600 in einigen Situationen kaum mehr spielbar ist flutscht es noch wunderbar mit dem i7-975.

Das sind doch meist konstruierte Extremfälle (ich sag nur GTA4) oder Spiele mit Settings, die für Spieler sowieso uninteressant sind. Ich würde nicht so weit gehen und sagen, dass zwischen E8600 und i7 Welten liegen. Vom Preis vielleicht ok, aber ansonsten loht es sich nicht das fast 4fache nur für die CPU zu zahlen. Dieser Preisunterschied spiegelt sich in keinster Weise in der Leistung wider.

Gast
2009-07-07, 14:09:53
Erst ab 25-30 FPS aufwärts wirkt eine Bildersequenz für das menschliche Auge flüssig. Oft findet man Benchmarks wo zwei Produkte miteinander verglichen werden, wo das eine um die 10 FPS schafft, während das andere 20 FPS oder knapp mehr leistet. Diese beiden völlig ungenügenden Performancen halten die 'Hardwaretester' durch die Bank nicht davon ab das Produkt mit den lächerlichen 20+ FPS in den höchsten Tönen als Meilenstein der Technik (100% mehr Leistung) zu loben. Obwohl die Leistung unter dem Strich natürlich bei beiden Produkten völlig unbrauchbar ist.

Genau das gegenteil ist der fall, in dem bereich ist jedes frame extra goldes wert. 20fps sind schon deutlich besser als nur 10fps, wenn auch natürlich nicht optimal.

Gast
2009-07-07, 14:13:00
Unter 60Hz kannst du kein Tearing haben, dann ist deine Kiste einfach zu lahm oder ich hab Tearing nicht richtig verstanden ;).

Du hast es offenbar nicht verstanden ;)

Tearing ohne vsync immer auf, es sei denn die grafikkarte wird immer genau dann fertig, wenn der buffer-flip stattfindet, was aber extrem unwahrscheinlich ist.

So lange die framerate unter der bildwiederholfrequenz ist kann allerdings maximal eine rissstelle auftreten, die möglicherweise weniger auffällt. Mit höheren frameraten können immer mehr rissstellen auftreten.

Tesseract
2009-07-07, 15:38:35
Ja sicher, nur sahen die Werbeversprechen da etwas blumiger aus. Mir ist bis heute kein Fall bekannt, in dem speziell die Spieleleistung nur mit der GraKa skaliert. Die CPU ist immernoch extrem wichtig und wird es auch noch eine ganze Weile bleiben, wahrscheinlich sogar für immer.

"nur" mit der graka zu skalieren ist schon aus technischer sicht nicht möglich weil die CPU immer noch alle anweisungen geben muss, was denn überhaupt von der GPU gerendert werden soll.
aber es sind trotzdem fast alle spiele am markt zu einem großteil graka-limitiert.
mit einer starken graka bist du in den meisten fällen wesentlich besser unterwegs als mit einer starken CPU wenn der rest schwach ist.

Gast
2009-07-07, 19:27:03
Genau das gegenteil ist der fall, in dem bereich ist jedes frame extra goldes wert. 20fps sind schon deutlich besser als nur 10fps, wenn auch natürlich nicht optimal.
Sorry - das sehe ich ganz anders. Alles was unter 30 FPS liegt ist für mich ganz und gar nicht 'goldes wert', sondern keinen cent wert. Wenn ich merke das es anfängt zu ruckeln oder das Spiel vermehrt Slowdowns produziert oder sogar die Steuerung versagt, dann zieh ich die CD aus dem Laufwerk. Da kann das Spiel noch so neu/spannend/toll/teuer/sonstwas sein - irgendwo hört bei mir der Spaß auf. Ich setz mich auch nicht in einen roten Porsche, bei dem sich der Motor selbst bei Schrittempo ständig verschluckt. Ich mach mich doch nicht für einen Publisher zum Beta-Affen und bezahl auch noch dafür.

PS: Wenn mir einer seinen HighEnd-PC vorführt und ich sehe, wie sich der unter DX10 einen zusammenruckelt, krieg ich einen Lachkrampf. Und da ich nicht den ganzen Tag Tränen lachen kann, spiel ich lieber an meinem PC ein Spiel das nicht ruckelt und mindestens genausoviel Spaß macht. Und das beste: Die wirklich gut programmierten Spiele laufen auch auf einem DC und unter DX9 absolut einwandfrei. ;)

dargo
2009-07-07, 21:08:33
Ich würde nicht so weit gehen und sagen, dass zwischen E8600 und i7 Welten liegen. Vom Preis vielleicht ok, aber ansonsten loht es sich nicht das fast 4fache nur für die CPU zu zahlen. Dieser Preisunterschied spiegelt sich in keinster Weise in der Leistung wider.
Der Preis stand bei der entstandenen Diskussion gar nicht zu Debatte. :) Wenn du es anhand vom Preis machen willst dann nimm den E8200 und den i7-920. Und schon hat letztere CPU ein deutlich besseres P/L-Verhältnis.

Lokadamus
2009-07-07, 21:25:37
Du hast es offenbar nicht verstanden ;)

So lange die framerate unter der bildwiederholfrequenz ist kann allerdings maximal eine rissstelle auftreten, die möglicherweise weniger auffällt. Mit höheren frameraten können immer mehr rissstellen auftreten.mmm...

Du aber anscheinend auch nicht.

Tearing fällt in den meisten Fällen nicht auf. Wenn der Monitor mit 85Hz läuft und das Spiel 90 Frames gerade macht, werden die 5 Frames, die nicht sauber dargestellt werden, nicht weiter auf.
Hast du 100 Frames, aber nur 60Hz fallen 40 Frames weg. Das fällt auf, es wirkt, obwohl es flüssig sein sollte, verzogen.
In diesem Punkt haben wir wohl ein ähnliches Verständnis von Tearing.

Hast du 30 - 60 Frames, kann der Monitor jedes Frame darstellen ohne dass sie sich überlagen.
Damit entspricht es nicht mehr der Definition von Tearing, es wird kein Frame überlagert ;). Der Monitor kann jedes Frame zeichnen, bevor ein neues anfängt.
Hättest du recht, hätten wir in jedem Spiel Risse, da die meisten Spiele irgendwo zwischen 30 - 75 Frames rumturnen und so mathematisch betrachtet Tearing permanent auftreten würde (auftritt, aber nicht wahrgenommen wird. Kein Spiel hat permanent exakt 60Hz, es springt immer etwas).

Kommst du unter 20 Frames, ruckelt es zwar, aber das Problem besteht nicht mehr in der Anzahl der Frameraten (Graka) versus Monitor, sondern zwischen Graka, Eingabegerät und CPU.

Oder kurz zitiert ( http://de.wikipedia.org/wiki/Tearing ):
Eine vertikale Synchronisation verhindert bei Grafikkarten eine Aktualisierung der Bilddaten, während der Bildschirm das Bild aufbaut.

Das, was ich als Tearing verstanden habe, sind diese netten Balken, wie sie hier im Bild dauernd rumlaufen: http://www.youtube.com/watch?v=tnUvP4M3R4o
Das ist ein extremes Beispiel von Tearing.

Oder kennst/ hast du eine andere Definition von Tearing?

Mr.Fency Pants
2009-07-07, 21:33:17
Der Preis stand bei der entstandenen Diskussion gar nicht zu Debatte. :) Wenn du es anhand vom Preis machen willst dann nimm den E8200 und den i7-920. Und schon hat letztere CPU ein deutlich besseres P/L-Verhältnis.

Es ging um deine Aussage, dass zwischen einem E8600 und einem i7 Welten liegen und das ist außer in unrealistischen Extremfällen nun mal nicht der Fall.

dargo
2009-07-07, 21:41:50
Es ging um deine Aussage, dass zwischen einem E8600 und einem i7 Welten liegen und das ist außer in unrealistischen Extremfällen nun mal nicht der Fall.
Im CPU-Bereich ist ein Faktor =>2 für mich schon extrem. Und das sind keine unrealistischen Extremfälle. Unrealistisch ist höchstens der gesamte Benchmark-Müll der im Netz kursiert in Bezug auf CPUs in Games.

Mr.Fency Pants
2009-07-07, 21:53:43
Aha, die gesamten CPU Benchmarks sind natürlich Müll (warum denn?), aber dargo hat natürlich als Einziger den absoluten Durchblick. Wenn du uns jetzt noch an deinem sagenumwobenen Wissen teilhaben lässt...

dargo
2009-07-07, 22:07:40
Aha, die gesamten CPU Benchmarks sind natürlich Müll (warum denn?)...
Weil die meisten Reviewer leider keinen Schimmer haben wie man CPUs in Games testet. Viele kennen noch nicht mal den Unterschied zwischen einer Timedemo und Savegames. Es wird einfach unter XYZ-Settings losgebencht ohne sich Gedanken zu machen welchen Müll man da präsentiert. In 99,xx% der Fälle werden CPUs in gpu-limitierten Szenen getestet. Demnächst testen wir GPUs in cpu-limitierten Szenen und alle sind zufrieden. :uup:

Mr.Fency Pants
2009-07-07, 22:11:56
Das ist mir zu ungenau, wenn du schon alle CPU Reviewer niedermachst, dann bitte auch konkrete Beispiele wo falsch gebencht wird (jau, ich weiss, die haben natürlich alle ausser dir keine Ahnung, aber ein paar Beispiele wären angebracht) und Vorschläge, wie und was besser gemacht werden sollte.

dargo
2009-07-07, 22:17:16
Das ist mir zu ungenau, wenn du schon alle CPU Reviewer niedermachst, dann bitte auch konkrete Beispiele wo falsch gebencht wird...
In 99,xx% der Fälle werden CPUs in gpu-limitierten Szenen getestet.

...und Vorschläge, wie und was besser gemacht werden sollte.
Einfach etwas nachdenken. Damit meine ich die Tester.

anderer Gast
2009-07-07, 22:18:04
Das, was ich als Tearing verstanden habe, sind diese netten Balken, wie sie hier im Bild dauernd rumlaufen: http://www.youtube.com/watch?v=tnUvP4M3R4o
Das ist ein extremes Beispiel von Tearing.

Oder kennst/ hast du eine andere Definition von Tearing?
Das was auf dem von dir verlinkten Clip zu sehen ist, ist kein Tearing! - Das ist das typische Ergebnis, wenn man mit einer Kamera ohne Flimmerfilter ein Fernseh/Monitor-Bild abfilmt. Das hat mit Tearing nichts zu tun: Auf diesen Bildern erkennst du nur die durch den Kathodenstrahl verursachten Helligkeitsunterschiede. Solche wandernden Balken gibt es gar nicht im Bereich PC-Spiele.

Tearing ist etwas ganz anderes. Die Grafikkarte beliefert den TFT mit einem Bild, welches im BILDSpeicher der Graka liegt. Dieses Bild wird an das TFT gesendet und dort Zeile für Zeile sofort dargestellt. Sobald das nächste Bild (Frame) gerendert wurde, wird das alte Bild von der Graka im BILDSpeicher überschrieben. Das Problem ist nun, daß es ohne VSYNC dazu kommt, daß das alte Bild erst zu sagen wir mal 50% an das TFT gesendet wurde. Jetzt ist aber das neue Bild fertig und der BILDSpeicher wird in Sekundenbruchteilen mit dem neuen Bild überschrieben. Das Resultat: Auf dem TFT ist bereits die obere Hälfte vom ersten Bild zu sehen und nun plötzlich die untere Hälfte vom nächsten Bild. Und je öfter das Bild wechselt (während es 1x an das TFT gesendet wird), umso mehr unterschiedliche Bildstücke erhält man.

Ein gutes Beispiel für Tearing gibt es hier:
http://www.youtube.com/watch?v=L0ZhDGTVm4M

Falls ihr bei dem Clip nicht wißt worauf ihr achten müßt:
Das Monster schießt erst von hinten gegen das Mittelstück der 'Radkappe'. Dabei wackelt die Kappe erst 2x hin und her, bevor sie nach vorne aus dem Ring fällt und das Monster aus der Öffnung steigt. Genau beim Hin- und Herwackeln tritt extremes Tearing zutage. Im zweiten Teil des Clips wackelt die Radkappe auch, aber das Bild wird nicht durch unterschiedlich berechnete Frames zerrissen. - Das ist Tearing. - Man kann ruhig auch mal im Clip öfteres Pause drücken - da sieht man im Standbild teilweise sehr schön, daß zwei Hälften des Rings überhaupt nicht zusammenpassen.

Gast
2009-07-07, 22:20:18
Im CPU Bereich ist es fast so wie im GPU Bereich (bis auf das das Rechenergebnis einer CPU immer gleich sein sollte), die Presse liefert praktisch nur noch Müll.
puntarenas Fred passt dort also auch.

Mr.Fency Pants
2009-07-07, 22:20:33
Einfach etwas nachdenken. Damit meine ich die Tester.

Heutzutage sind die meisten Spiele nunmal GPU limitiert. Ist mir lieber es wird in praxisnahen Auflösungen und Einstellungen getestet als in 800er oder 1024er Auflösung. Genau so etwas meine ich mit realitätsfremd. Was bringt mir es zu wissen, dass CPU a schneller als CPU b ist mit Settings, die niemand nutzt?

Ich nutze die CPU dann zum zocken, nicht um Benchmarks zu fahren, du etwas nicht?

Gast
2009-07-07, 22:23:34
Heutzutage sind die meisten Spiele nunmal GPU limitiert.
Hier fängt das Problem an.
Ist es wirklich so?

Die Benches mit Crysistimedemo machen einem das Glauben.

dargo
2009-07-07, 22:31:16
Heutzutage sind die meisten Spiele nunmal GPU limitiert. Ist mir lieber es wird in praxisnahen Auflösungen und Einstellungen getestet als in 800er oder 1024er Auflösung.
Woher wusste ich nur, dass genau das kommt? :tongue:
Diese Aussage kann nur auf dem Benchmark-Müll im Netz basieren. Naja, wenn man sich mit dem Thema nicht tiefgreifender befasst, nicht verwunderlich. Denn hier trifft absolut dieses zu:
die Presse liefert praktisch nur noch Müll. puntarenas Fred passt dort also auch.


640x480 1xAA/1xAF max. Details
http://img3.imagebanana.com/img/ii7yzjzd/nfs2009041919543786.jpg

1680x1050 4xMSAA/16xAF max. Details
http://img3.imagebanana.com/img/0r6hcczl/nfs2009041919533760.jpg

Ist diese Szene praxisnah genug oder habe ich die Settings im unteren Bild noch zu praxisfern gewählt?

Gast
2009-07-07, 22:36:22
Ist diese Szene praxisnah genug oder habe ich die Settings im unteren Bild noch zu praxisfern gewählt?
Irgendwie weiß vor allem das 4xMSAA nicht so recht zu gefallen. ;)

Cubitus
2009-07-07, 22:36:53
Spätestens mit der neuen GPU Genration wird der I7/I5 eine Daseinsberechtigung im Spiele PC haben.

Bzw ich als Zocker habe den Kauf eines Q6600 bis jetzt nicht bereut. 3,6 Ghz reichen auch für nur Dual-Core optimierte Spiele. Falls es etwas mehr Leistung sein soll, wie im Fall von Prototype, GTA mit hoher Sichtweite oder bei lost Planet, die Leistung ist da falls sie benötigt wird. Obendrein kann ich viele Anwendungen im Windows Betrieb paralell laufen lassen, was sich bei mir auch im Alltagsbetrieb öfters mal ergibt . Brauchen tut man diesen Luxus nicht, aber es gibt einem doch eine Art Befriedigung es zu haben.

Mr.Fency Pants
2009-07-07, 22:40:18
Und inwieweit sollen diese Screenshots zeigen, dass die gesamten Benchmarker keine Ahnung haben? Du hast irgendein Spiel gewählt um deine These zu stützen, inwieweit sagt das etwas aus? Ich kann dir Screenshots posten, die meine These stützen, und dann? :confused:
Repräsentativ=0, aber danke für den unumstösslichen Beweis deiner Behauptung.

Du kannst hier nicht allen Benchmarkern unterstellen, dass sie keine Ahnung haben und dann mit zwei Screnshots zur Unterstützung deiner Behauptung ankommen. :crazy:

Nimm mal z.B. diesen CPU Test: http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_amd_phenom_ii_x4_945_955_black_edition/ was ist da an den Benchmarks und am Fazit soooo falsch wie du es darstellst? Ich bin ja sogar geneigt dir evtl. zu glauben, aber mit zwei aus dem Zusammenhang gerissenen Screenshots und ohne echte Argumente sollte man hier nicht so die Klappe aufreissen. Erleuchte uns, du Allwissender.

Cubitus
2009-07-07, 22:50:31
Was dargo meint ist das CPU Limit bei aktuellen Games.
Da das GPU-Limit durch die starke Leistung heutiger Graphikkarten nach hinten gedrängt wird.

3,7 Ghz sind schon ne Menge.
Mit einem I7 wird die FPS Anzahl höher sein ;)
Wobei die 70 FPS natürlich für flüssiges Spielen vollkommen ausreichen.
Zukünftig wird der I7 eher aber der I5 wohl richtig durchstarten.

Einen ahnlichen Effekt sehe bei einigen Games eines Bekannten.
Dem habe ich letztens, da seine alte 8800GTS verreckt ist, eine GTX260er bestellt. Da er noch mit 1280*1024 und einem E8400 unterwegs ist, fällt einem das CPU Limit viel häufiger auf als mit z.b 1920*1200.

dargo
2009-07-07, 22:55:37
Und inwieweit sollen diese Screenshots zeigen, dass die gesamten Benchmarker keine Ahnung haben? Du hast irgendein Spiel gewählt um deine These zu stützen, inwieweit sagt das etwas aus?

Das war auf dieses hier bezogen:
Heutzutage sind die meisten Spiele nunmal GPU limitiert. Ist mir lieber es wird in praxisnahen Auflösungen und Einstellungen getestet als in 800er oder 1024er Auflösung.
Ich liefere dir eine wesentlich höhere Auflösung inkl. 4xMSAA/16xAF und es reicht dir immer noch nicht?


Nimm mal z.B. diesen CPU Test: http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_amd_phenom_ii_x4_945_955_black_edition/ was ist da an den Benchmarks und am Fazit soooo falsch wie du es darstellst? Ich bin ja sogar geneigt dir evtl. zu glauben, aber mit zwei aus dem Zusammenhang gerissenen Screenshots und ohne echte Argumente sollte man hier nicht so die Klappe aufreissen. Erleuchte uns, du Allwissender.
Das ist eine der Stellen die wie ich schon sagte leider keinen Schimmer von CPU-Tests in Games hat. Da brauche ich mir den Test noch nicht mal anschauen, ich kenne jetzt schon das Fazit. Wenn du mehr zu diesem Thema erfahren möchtest dann bemühe die Suchfunktion. Ich bin schon zu alt und müde jeden 2-3 Monat ständig das selbe zu wiederholen. Das Thema wurde schon zig fach behandelt.

Mr.Fency Pants
2009-07-07, 22:56:02
Komisch, gerade in Bezug auf den Tausch der Graka lese ich hier im Forum ständig, dass sich die fps alleine dadurch stark erhöhen. Natürlich steigen auch mit der CPU die fps, aber Dargo spricht hier die ganze Zeit von extremen leistungssteigerungen und die sind einfach nicht vorhanden.

Btw. warum schafft Dargo es nicht zu sagen, was er meint, was du jetzt mit einem Satz erklären konntest? Ständig Drumherumgelaber ala "Diese Aussage kann nur auf dem Benchmark-Müll im Netz basieren." ohne mal konkret zu werden.

Mr.Fency Pants
2009-07-07, 22:57:16
Das ist eine der Stellen die wie ich schon sagte leider keinen Schimmer von CPU-Tests in Games hat. Da brauche ich mir den Test noch nicht mal anschauen, ich kenne jetzt schon das Fazit. Wenn du mehr zu diesem Thema erfahren möchtest dann bemühe die Suchfunktion. Ich bin schon zu alt und müde jeden 2-3 Monat ständig das selbe zu wiederholen. Das Thema wurde schon zig fach behandelt.

Jau, alles klar, wenn du noch nicht mal zwei Sätze für mich übrig hast weshalb und wieso, dann bin ich an der Stelle raus.

Der_Korken
2009-07-08, 00:19:59
Was dargo in Bezug auf CPU-Tests meint ist vermutlich folgendes: Schau dir mal folgenden Benchmark an:

klick (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_260_216_shader/14/#abschnitt_unreal_tournament_3)

Da rotzt ein einzelner Yorkfield@4Ghz bis zu 380fps raus im verwendeten Test - ich vermute eine Timedemo. Wenn ich jetzt aber mal kritische Stellen im Spiel rausgreife, dann kommen ganz andere Werte zustande. Ich selbst bin jetzt von einem E4300@2,4Ghz auf einen Q9550@2,83Ghz (noch nicht OCed) umgestiegen. Wenn ich dann beispielsweise mal eine sehr große Map in UT3 starte mit 32 Bots, dann schafft der Quad 30fps an Stellen, wo der Dualcore nur 20fps hatte. Eine kleinere Auflösung ändert an diesen min fps nichts, ergo liegt hier im unteren fps-Bereich bereits eine starke CPU-Limitierung an.

Würde man den CPU-Test mit der oben verwendeten Time-Demo durchführen, dann würde das Duell meinetwegen 200fps zu 300fps ausgehen und jeder würde sich denken: Ob 200 oder 300 ist doch egal, beides ist mehr als ausreichend.

Generell ist eine gute CPU heutzutage nicht zu unterschätzen, der CPU-Wechsel hat gefühlt deutlich mehr gebracht als mein Graka-Wechsel davor (8800GTS 320 -> GTX260). Beim GPU-Limit kann man notfalls die Aufösung und Details reduzieren, um flüssig spielen zu können. Ist aber die CPU zu schwachbrüstig, dann muss man sich mit der zähen Performane abfinden.

Edit: Anmerkung: UT3 lastet der Quad zu ~60% aus, also nichtmal voller Triple Core Support

Tiamat
2009-07-08, 08:50:10
Es ist eigentlich absurd von "Wieviel Jahre ist mein PC noch aktuell" zu sprechen, weil es ständig neue Entwicklungen gibt.
Ich benutze z.b noch n 3 Jahren alten Mac mini. Also zocktechnisch geht damit natürlich gar nix, aber für meine Bedürfnisse eigentlich noch ausreichend.
Kommt halt ganz drauf an, was du damit machst.

Da MS ja beim Win-7 den Ressourcenbedarf gehemmt hat, stehen die Karten gut, das Teil noch auf Jahre benutzen zu können.
Ach im Prinzip kann man doch eh sagen, die Dinger halten in den meisten Fällen länger als der eigene Geduldsfaden.

Meistens kribbelt es einen selbst dann nach ner Zeit, sich einfach mal was neues zu gönnen ;D

Gast
2009-07-12, 12:24:31
Schonmal Danke für die ganzen Antworten.

Also Dualcore geht für Spiele noch bis ca. 2011. Aber wie siehts mit normalen Office Anwendungen und Internet aus? Lässt sich da eine "Bis Wann"-Prognose stellen oder entzieht sich das noch weiter der "Glaskugel"? Vor Youtube und mit Flash Animationen vollkommen überladenen Internetseiten hat ein 1 Ghz Singlecore Rechner für Internet ja auch noch vollkommen ausgereicht. Auch wenn sich das Internet in näherer Zeit wohl nicht so schnell weiterentwickeln wird, so wird auch da sicherlich irgendwann mal die Zeit kommen, in der heutige Dualcore Rechner stark an ihre Grenzen stoßen werden.

P.S.: Ich hoffe, ich habe jetzt keine Dual vs. Quadcore Diskussion losgetreten ;)

Har, har! Ich lese diesen Beitragsfaden mit einem Pentium M 1,1 MHz (Notebook Vaio VGN x505 VP, externer Bildschirm und externe Tastatur).....und das geht saugut. Auch mit youtube habe ich keine Probleme... Ich glaube ja, wer nicht ultimativer Zocker ist, kann mit einem Dual-Core auch aktuelle Hobby-Anwender-Programme inklusive Bild- und Videobearbeitung bestreiten. Ich zocke Crysis gerade wieder einmal auf meinem "Boliden" mit einem X2 4200 und einer GTS 8800 640 MB. Das bewertet Crysis als mittleres System, finde aber trotzdem, daß das Spiel mit den vorgebenen "mittleren" Einstellungen Spaß macht. Und es ruckelt nichts.

Ich glaube, man läßt sich manchmal ein wenig zuviel von der Industrie blenden, was man "braucht" und was nicht.

Gast
2009-07-13, 23:31:56
mmm...

Du aber anscheinend auch nicht.


ähm doch.


Tearing fällt in den meisten Fällen nicht auf. Wenn der Monitor mit 85Hz läuft und das Spiel 90 Frames gerade macht, werden die 5 Frames, die nicht sauber dargestellt werden, nicht weiter auf.

Es werden nicht 5 von 90 frames unsauber dargestellt, sondern 90 von 90.

Da refreshrate und framerate nicht übereinstimmern wandert die rissstelle natürlich über den bildschirm, und mit 85Hz ist jedes dieser unsauberen bilder nur ca. 12ms sichtbar, was deutlich weniger als die ~17ms bei LCD-üblichen 60Hz sind, wodurch das ganze natürlich auch weniger auffällt.


Hast du 100 Frames, aber nur 60Hz fallen 40 Frames weg. Das fällt auf, es wirkt, obwohl es flüssig sein sollte, verzogen.


Ohne vsync fallen sie eben nicht weg, sondern werden dargestellt, das tearing fällt genauso viel auf wie immer ohne vsync, ein bild am bildschirm besteht immer aus genau 2 verschiedenen berechneten bildern. Das ist immer so, wenn die framerate unter der doppelten bildwiederholrate liegt. Ist die framerate noch höher kann ein dargestelltes bild auch aus 3 oder noch mehr frames bestehen (wobei das ganze dann kaum relevant ist, mit derart hohen frameraten ist vsync nicht wirklich problematisch)


Hast du 30 - 60 Frames, kann der Monitor jedes Frame darstellen ohne dass sie sich überlagen.

Sie überlagern sich nicht, 1 vom monitor dargestelltes bild besteht aber trotztem immer aus 2 verschiedenen bildern. Da die bilder zeilenweise an den monitor übertragen werden fällt das ganze natürlich in erster linie bei horizontalen bewegungen auf. Das tearing tritt zwar auch bei vertikalen bewegungen auf, ist dann aber kaum wahrnehmbar.

Selbst mit konstanten 60fps auf einem 60Hz monitor kann (und wird mit aller höchster wahrscheinlichkeit) ohne vsync tearing auftreten. Der bufferswitch ist nämlich nicht mit dem monitor synchronisiert, der zeitpunkt an dem die grafikkarte von einem zum nächsten bild switched ist nämlich nicht zwangsläufig dann wenn der monitor auch mit der darstellung des bildes fertig ist (ohne synchronisation ist er genauer gesagt mit einer wahrscheinlichkeit von Y-1/Y, wobei Y für die anzahl der zeilen der eingestellten bildschirmauflösung steht, nicht identisch)

Der Monitor kann jedes Frame zeichnen, bevor ein neues anfängt.

Wie ich gerade erklärt habe kann das ohne vsync praktisch nie der fall sein. Der monitor ist komplett doof, der zeichnet genau das was er von der grafikkarte bekommt. Wenn diese front- und backbuffer switched während der monitor gerade das halbe bild gezeichnet hat, ist die andere hälfte eben mit dem bildinhalt des folgenden frames gefüllt.


Hättest du recht, hätten wir in jedem Spiel Risse, da die meisten Spiele irgendwo zwischen 30 - 75 Frames rumturnen und so mathematisch betrachtet Tearing permanent auftreten würde
(auftritt, aber nicht wahrgenommen wird. Kein Spiel hat permanent exakt 60Hz, es springt immer etwas).

Haben wir auch, je nach wahrnehmungsschwelle, bildinhalt und bewegung nehmen wir es aber kaum bis garnicht war. Fotografier mal deinen bildschirm während du ein 3D-game spielst. Um auszuschließen, dass das tearing durch die fotografie zustande kommt musst du eine belichtungszeit von 1/2*Hz (Hz=bildwiederholfrequenz) oder schneller wählen (am einfachsten im shutter-priority-modus fotografieren und beispielsweise bei 60Hz 1/120s vorgeben)
Im spiel muss natürlich auch genügend bewegung vorhanden sein, damit das tearing sichtbar wird.
Deine augen nehmen es vielleicht nicht war, die kamera deckt aber gnadenlos auf, dass tearing in jedem dargestellten frame (sofern genügend bewegung vorhanden ist) auftritt.



Oder kurz zitiert ( http://de.wikipedia.org/wiki/Tearing ):
Eine vertikale Synchronisation verhindert bei Grafikkarten eine Aktualisierung der Bilddaten, während der Bildschirm das Bild aufbaut.

Richtig, wie du nach durchlesen dieses satzes zur annahme kommen kannst, das tearing auch ohne vsync nicht auftreten kann ist mir schleierhaft.


Das, was ich als Tearing verstanden habe, sind diese netten Balken, wie sie hier im Bild dauernd rumlaufen: http://www.youtube.com/watch?v=tnUvP4M3R4o
Das ist ein extremes Beispiel von Tearing.

Das ist überhaupt kein tearing, wir sehen hier nur, dass aufnahmegerät (kamera) und wiedergabegerät (fernsehr) nicht synchron ist.

Tearing kommt vom englische wort tear, was soviel wie riss bedeutet.
Das beschreibt das ganze auch ziemlich gut, während eines refreshzyklus des monitors werden 2 (oder mehr bei extrem hohen frameraten) verschiedene frames dargestellt. Dazwischen gibt es den "Riss", der je nach bildinhalt und bewegung mal mehr mal weniger wahrnehmbar ist.

Tesseract
2009-07-14, 02:05:39
hier könnt ihr tearing in action sehen wenn ihr euch drunter nix vorstellen könnt:
(vsync darf im treiber natürlich nicht auf "on" sein)

http://www.filefront.com/14035785/tearing.zip

Gast
2009-07-15, 11:48:12
Ich bin mir nicht sicher, ob ich hier richtig gelandet bin, aber da ich mir mein P4 langsam auf die Nüsse geht, stehe ich auch vor der Frage, wieviele Kerne wohl am sinnvollsten sind.
Es stellt sich wie immer die Frage, ob wenig "schnelle" Kerne oder viele "langsame" Kerne besser geeignet sind.

Meine Überlegung ist ausgehend von Spielen (für alles andere reicht MIR meine P4-Gurke) folgende:

1) Wie schnell sollte eine einzelner Kern sein?
In single CPU-Anwendungen das A und O, diese Frage sollte doch ganz leicht zu beantworten sein, indem ich die anspruchsvollste Anwendung nehme und schaue, wieviel Leistung dafür nötig ist. Da afaik kaum/keine Spiele dieser Art mehr erscheinen, müsste diese Frage aufgrund Wegfalls möglicher zukünftiger Entwicklungen einfach zu beantworten sein (warte auf Antwort, welches Spiel, wieviel Leistung nötig?) ;).

2) analog zu 1. müsste doch auch die Frage zu klären sein, wie schnell die CPU für dualcore-Anwendungen sein muß. Diese werden auch immer weniger(?), jedoch ist da die Frage möglicher zukünftiger Entwicklungen zu berücksichtigen.

3) Wie sieht es bei 3-Kern-Anwendungen aus? Ist dies der beste Kompromis zwischen 2- und 4-Kern CPUs? Immerhin werkeln in in der XBox360 auch 3 Kerne und aufgrund der vielen Konsolenportierungen sollte man damit doch vorerst auf der sichersten Seite stehen?!

4) Nun wird es Zeit für die Kristallkugeln: was ist mit Quads? Wieviel Leistung pro Kern ist für derzeitige Quad-Spiele nötig? Wie schnell muß hier eine 2- oder 3-Kern Cpu sein, um nicht ins Hintertreffen zu geraten?

Und letztendlich: Was ist mit den Preisen? Ist es sinnvoll, noch auf wenig Kerne zu setzen, oder bekommt man prozentual "für n Appel und n Ei" weitere (gleichschnelle) Kerne dazu?

Gast
2009-07-16, 01:31:45
4) Nun wird es Zeit für die Kristallkugeln: was ist mit Quads? Wieviel Leistung pro Kern ist für derzeitige Quad-Spiele nötig? Wie schnell muß hier eine 2- oder 3-Kern Cpu sein, um nicht ins Hintertreffen zu geraten?
Du scheinst das ganze System noch nicht wirklich durchschaut zu haben. Es gibt keine Quad-Spiele. Es gibt nur schlecht programmierte Spiele und solche Spiele, die Multithreading sinnvoll unterstützen. Wenn ein Spiel auf einem heutigen Quad schneller läuft, als auf einem Dual, dann ist für mich damit der Beweis erbracht, das der Code nix taugt. Ein Beispiel für unglaublich schlechten MT-Code ist das Spiel Left4Dead. Auf einem SingleCore läuft dieser Shooter mit Abstand am schnellsten, während man sich ab DC aufwärts mit unglaublichen Frameeinbrüchen und sekundenlangen Gamefreezes herumärgern muß. Einfach mal 'L4D mat_queue_mode' googeln - und staunen.

Den größten Performancezuwachs gibt es beim Schritt von SC nach DC. Beim Schritt von DC nach QC muß man Software, die das auch sinnvoll umsetzen kann, mit der Lupe suchen. Über heutige Spiele, die angeblich einen Quad benötigen, kann ich nur herzlich lachen. Wenn du willst, dann stümpert dir hier jeder mit Basic einen Tetris-Clone zusammen, der selbst auf einem i7 auf allen Kernen 100% Last erzeugt. :mad: Früher nannte man sowas unter Entwicklern einen Bug. Heute bedeuten 70-100% Last auf 4 Kernen: 'optimiert'. :biggrin:

Gast
2009-07-16, 14:32:20
Du scheinst das ganze System noch nicht wirklich durchschaut zu haben. Es gibt keine Quad-Spiele. Es gibt nur schlecht programmierte Spiele und solche Spiele, die Multithreading sinnvoll unterstützen. Wenn ein Spiel auf einem heutigen Quad schneller läuft, als auf einem Dual, dann ist für mich damit der Beweis erbracht, das der Code nix taugt. Ein Beispiel für unglaublich schlechten MT-Code ist das Spiel Left4Dead. Auf einem SingleCore läuft dieser Shooter mit Abstand am schnellsten, während man sich ab DC aufwärts mit unglaublichen Frameeinbrüchen und sekundenlangen Gamefreezes herumärgern muß. Einfach mal 'L4D mat_queue_mode' googeln - und staunen.

Den größten Performancezuwachs gibt es beim Schritt von SC nach DC. Beim Schritt von DC nach QC muß man Software, die das auch sinnvoll umsetzen kann, mit der Lupe suchen. Über heutige Spiele, die angeblich einen Quad benötigen, kann ich nur herzlich lachen. Wenn du willst, dann stümpert dir hier jeder mit Basic einen Tetris-Clone zusammen, der selbst auf einem i7 auf allen Kernen 100% Last erzeugt. :mad: Früher nannte man sowas unter Entwicklern einen Bug. Heute bedeuten 70-100% Last auf 4 Kernen: 'optimiert'. :biggrin:
Angenommen, alles was du schreibst ist vollkommen richtig - was nutzt es? Soll ich trotzig n SC/DC kaufen und mich dann heulend und über die Unfähigkeit schimpfend auf den Boden werfen, wenn die FPS nicht ausreichen?

Tesseract
2009-07-16, 14:43:50
Wenn ein Spiel auf einem heutigen Quad schneller läuft, als auf einem Dual, dann ist für mich damit der Beweis erbracht, das der Code nix taugt.
(ich nehme mal an du meinst es umgekehrt)
oder es heißt einfach, dass die last nicht hoch genug ist. in threads zu programmieren erzeugt unheimlich viel overhead und ist extrem kompliziert, selbst bei einfachsten beispielen. wenn die last der kerne nicht besonders hoch ist kann context-switching und threadsynchronisation das ganze zunächst ohne weiteres langsamer machen, selbst wenn alles sauber programmiert ist, und sich erst dann positiv auswirken wenn sich die last der threads (z.B. 100 statt 5 KIs usw.) erhöht.

wenn das threading allerdings stocken wie bei l4d erzeugt, ist das natürlich ein programmierfehler.

Gast
2009-07-16, 22:01:45
(ich nehme mal an du meinst es umgekehrt)
Ne - ich mein das schon so. Es gibt viele Aufgaben am PC, die sich schlicht nicht parallelisieren lassen. Auch zusätzliche KI's die auf verschiedenen Kernen berechnet werden, müssen irgendwo wieder synchronisiert werden. In Wirklichkeit gibt es nämlich im Spielebereich noch gar keine echte KI. Das sind alles nur winzige Skriptfetzen, die mehr oder weniger gelungen zusammengesetzt werden, um dem Spieler autonomes Handeln vorzugaukeln. In Wirklichkeit ist alles der reine Zufall und ohne Sinn und Verstand. Zum Würfeln mit gezinkten Karten reicht mir ein SingleCore. ;) Mit anderen Worten: Ein Quad wird nie nennenswert schneller sein als ein SingleCore, wenn die Aufgaben, die die Kerne getrennt von einander erledigen sollen, nicht auch wirklich getrennte Prozesse darstellen. Sobald die Kerne einem Mainthread unterworfen werden, ist der Geschwindigkeitsvorteil sofort absolut Null. Deswegen hat man einen größeren Schub beim Wechsel von SC nach DC als von SC nach QC. Das Betriebssystem und die zugehörigen Services sind das Paradebeispiel für Threads, die mit dem Spielethread nichts zu tun haben und ihn deswegen potentiell bremsen können. Man sollte sich gut überlegen, ob man einen QC wirklich braucht. Brauchen tut man ihn nur bei wirklich mehreren UNTERSCHIEDLICHEN Anwendungen, die gleichzeitig laufen sollen. Und dann auch nur, wenn diese weiteren Anwendungen keine Peanuts darstellen, die ein einzelner moderner Kern heute auch alleine bewältigt.

Ich könnte mir vorstellen, daß es in einer fernen Zukunft mal interessant werden könnte, wenn man mehrere virtuelle Arbeits- oder Spieleplattformen bedienen will. Aber dieses Szenario wird wieder spurlos am Spiele-PC vorbeilaufen, weil an diesem PC meist nur eine Person sitzt und den ganzen Tag nur ein Spiel spielt: Moorhuhn QuadCore-Edition. Ergo muß im ganzen nur ein Thread bedient werden. Interessant wird ein Quadcore in meinen Augen erst, wenn er tatsächlich benötigt wird um Features zu realisieren, die man auf einem SC/DC nicht realisieren kann. Was bietet das Spielprinzip von GTA4 zB. an neuen Features, die man nicht auch auf einem SingleCore verwirklichen könnte (wenn man bei Rockstar denn noch programmieren könnte/wollte)? Richtig: Keine. Ist alles schonmal dagewesen. Das Spiel ist ein Sammelsurium von Minigames, die in ein primitives Belohnungsystem integriert wurden. Das ganze wurde dann in eine resourcenfressende Grafikengine verpackt, die für dieses Spielprinzip schlicht nicht nötig gewesen wäre. Wenn man solche Spiele sieht, fragt man sich nur noch wann endlich Pac-Man in der Quadcore-Edition rauskommt. Um die unglaubliche Resourcenverschwendung zu rechtfertigen, sollte jeder zu fressende Geist auf einen eigenen Core zurückgreifen können und über das Internet frei kommunizieren können. Dort müßten sich die Geister zu Clustern vereinigen, die selbst die modernsten Kopierschutztechniken und Verschlüsselungsverfahren in Nannosekunden knacken und den Spielemarkt an sich reissen. :biggrin:
Dann würd ich sagen: Die Investition in einen QuadCore hat sich gelohnt.

Tesseract
2009-07-17, 22:37:28
Ein Quad wird nie nennenswert schneller sein als ein SingleCore, wenn die Aufgaben, die die Kerne getrennt von einander erledigen sollen, nicht auch wirklich getrennte Prozesse darstellen. Sobald die Kerne einem Mainthread unterworfen werden, ist der Geschwindigkeitsvorteil sofort absolut Null.

wenn du den mainthread forkst und dann wieder joinst kannst du durchaus annähernd doppelte performance rausholen. dazu müssen aber beide threads wirklich fast gleich stark belastet sein und die belastung deutlich höher sein als der aufwand der threadverwaltung selbst.

Coda
2009-07-17, 22:54:47
Gast du hast sehr komische Vorstellungen. Das Betriebssystem braucht im Spielbetrieb sehr wenige Resourcen. Der Performancezuwachs kommt praktisch allein vom parallelisierten Programm.

Es ist auch falsch zu glauben, dass man keine Parallelisierung hinbekommt nur weil man einmal im Frame synchronisieren muss.

Gast
2009-07-18, 03:02:12
Gast du hast sehr komische Vorstellungen. Das Betriebssystem braucht im Spielbetrieb sehr wenige Resourcen. Der Performancezuwachs kommt praktisch allein vom parallelisierten Programm.
Das ist so nicht immer richtig. Und es gibt hierfür einen sehr einfachen Beweis: Besorg dir ein Spiel, welches in keinster Weise Multithreading unterstützt und starte es auf XP oder Vista. Z.B. das Autorennspiel GTR 2 (gabs neulich gratis zur Computerbild-Spiele). Jetzt starte ein Rennen mit 40 Gegnern und maximalen Einstellungen und sieh dir an, wie die Performance bei einer Massenkarambolage in die Knie geht (besonders wenn du dich im Feld hinten einreihst). Jetzt gehst du mit Alt-Tab in den Taskmanager und aktivierst für dieses Spiel manuell zusätzlich den zweiten Kern. Eigentlich dürfte es nach deiner Theorie ja überhaupt keinen Unterschied machen. Die Praxis zeigt aber: Plötzlich gibt es einen deutlich spürbaren Performanceschub. Und warum? - Weil das BS nämlich per default ebenfalls core #0 benutzt. Sobald man aber den core #1 für das Spiel freigibt, läuft alles butterweich. Es macht also durchaus Sinn einen DualCore einzusetzen, selbst wenn man Spiele verwendet, die in keinster Weise für Multithreading ausgelegt sind, eben WEIL das BS im Spielebetrieb so viele Resourcen verbrennt. Welchen Vorteil würde in diesem Szenario -welches immernoch bei der Masse der Spiele das default-szenario ist- ein QuadCore bringen? Ich weiß es nicht. Aber ich vermute: KEINEN. Denn wenn ich nun core #2 und auch noch core #3 zuschalte, wird das BS GTR2 dennoch nur einen der unbenutzten Kerne zuweisen. Und die Resourcen, die das BS im Spielebetrieb verwendet, sind beachtlich. Die gesamte Steuerung von USB-Eingabegeräten mit ihren Treibern läuft nämlich weiterhin über das BS auf core#0. Der gesamte Sound mit allen Audiotreibern ebenfalls. Ebenso das VPN (zB. hamachi) und auch Kommunikationssoftware wie Teamspeak und Ventrilo. Wenn du dir die Auslastung im Taskmanager während dem Betrieb eines solchen Singlethreaded-Spiels anschaust, wirst du merken, daß core #0 keineswegs (wie im idle) bei 1-2% liegt, sondern eher bei fetten 40+%, während core #1 mit 60-70% natürlich das Spiel bedient. Das selbe Phenomen kannst du auch bei Spielen beobachten, die definitv Multithreading unterstützen: Nimm dir zum Beispiel Left 4 Dead und schalte per Kommandozeile das Multithreading komplett ab (mat_queue_mode "0"). Du wirst feststellen, daß dennoch beide Kerne weiterhin bestens beschäftigt sind.

Es ist auch falsch zu glauben, dass man keine Parallelisierung hinbekommt nur weil man einmal im Frame synchronisieren muss.
Da hast du mich falsch verstanden. Das Hauptproblem auf das ich Hinweisen wollte war, daß es in einem Spiel für einen Spieler oder einen einzelnen Spiele-Client absolut nichts zu parallelisieren gibt. Denn das Spiel muß zu jedem Zeitpunkt exakt auf den Input des Spielers reagieren. Alles andere wäre reine Verschwendung und überflüssig, da für die Wahrnehmung des Spielers nicht relevant. Interessant wird es erst, wenn man Spieleserver erstellt, auf denen ein Spiel auf völlig autonome Ereignisse reagieren soll, die von mehreren Spielern in der gleichen Spielewelt ausgelöst werden. Aber auch hier gibt es bereits viele Kniffe und Tricks, die zeigen, daß es überhaupt nicht nötig ist ein Multiplayer-Szenario in Echtzeit bis in den letzten Winkel durchzuberechnen, damit es für die Spieler realistisch erscheint.

Zu welchen Aufgaben QuadCores in heutigen Spielen benutzt werden, ist die blanke Verschwendung. Man nehme nur ein Spiel wie SupCom oder FA. Wenn man liest, daß dort jede einzelne Patrone ballistisch korrekt extra berechnet wird und dazu auch noch ihr Schatten, und dann feststellen muß, daß ein Panzer wie blöde in den Boden ballert, weil ein Gegner vor dem Plateau steht, auf dem sich der Panzer befindet, dann weiß man sofort: Hier haben die Programmierer die richtigen Prioritäten gesetzt. Das Spiel ist so dermaßen gut programmiert, daß auf großen Karten selbst bei Quadcores die Ingame-Sekunden zu RL-Minuten werden.

Welchen Vorteil hat nun also ein Quadcore-Besitzer bei einem Spiel wie SupCom? - Meine Meinung: Null, Zero, Niente, Keinen. Der Code ist einfach schlecht. Ich gehe sogar noch weiter und behaupte folgendes:
Wenn ein Spiel auf einem 3 GHz DualCore heute nicht anständig läuft, dann besteht eine 99+Wahrscheinlichkeit, daß es auch auf einem QuadCore nicht anständig läuft. Denn es spricht viel dafür, daß die Programmierer hier einfach mal wieder Dinge ausgebrütet haben, die so nicht funktionieren.

hardtech
2009-07-30, 00:47:45
ich muss sagen, der gast hat tolle argumente und ich kann ihm folgen. vielen dank für deine anregungen gast! ;)

Gast
2009-07-30, 01:22:08
Das ist so nicht immer richtig. Und es gibt hierfür einen sehr einfachen Beweis: Besorg dir ein Spiel, welches in keinster Weise Multithreading unterstützt und starte es auf XP oder Vista. Z.B. das Autorennspiel GTR 2 (gabs neulich gratis zur Computerbild-Spiele). Jetzt starte ein Rennen mit 40 Gegnern und maximalen Einstellungen und sieh dir an, wie die Performance bei einer Massenkarambolage in die Knie geht (besonders wenn du dich im Feld hinten einreihst). Jetzt gehst du mit Alt-Tab in den Taskmanager und aktivierst für dieses Spiel manuell zusätzlich den zweiten Kern. Eigentlich dürfte es nach deiner Theorie ja überhaupt keinen Unterschied machen. Die Praxis zeigt aber: Plötzlich gibt es einen deutlich spürbaren Performanceschub. Und warum? - Weil das BS nämlich per default ebenfalls core #0 benutzt. Sobald man aber den core #1 für das Spiel freigibt, läuft alles butterweich.
Halt Stop! Hab da als SC und zunkünftiger MC-Nutzer Erklärungsbedarf: was du beschreibst, ist absolut logisch und ich würde einer (vor allem SC) Anwendung auch immer zunächt einen "jungfräulichen" Kern zuweisen - macht das ein BS nicht automatisch?! Also wenn ich eine SC Anwendung auf einem MC System starte, muss sich diese defaultmäßig die Rechenleistung eines Kerns mit dem BS und sonstigem Trallafitti teilen?

dargo
2009-08-02, 11:41:37
Hier mal ein weiteres Beispiel wie stark heutige Games cpu-lastig bzw. cpu-limitiert sind:


640x480 1xAA/16xAF, max. Details
http://www2.pic-upload.de/02.08.09/gljrm2gswwh.jpg

1680x1050 1xAA/16xAF, max. Details
http://www2.pic-upload.de/02.08.09/ws7lkd6urx4i.jpg
Und das mit einem 3,7Ghz Yorkfield X-D und GTX260 @621/1404/1107Mhz.

PS: ich habe in dieser Szene selbst mit 2100x1313 1xAA/16xAF, max. Details 50fps. Kann es nur leider nicht knipsen da Fraps beim Downsampling mir nur einen 1920x1200 Ausschnitt fotografiert und EVGA-Precision den Framecounter nicht mitknipst.

Gast
2009-08-02, 12:56:54
Hier mal ein weiteres Beispiel wie stark heutige Games cpu-lastig bzw. cpu-limitiert sind:


Immer diese Verallgemeinerungen. Ghostbusters ist ein Spiel, welches nun wahrlich nicht die nötige Qualität aufweist, um als Beispiel dienen zu dürfen. Sogar seitens des Herstellers offiziell bestätigt.
Liest man deine Sachen durch, so könnte man meinen, dass alles unterhalb eines 4GHZ i7 fürs Spielen nicht mehr geeignet sei.

dargo
2009-08-02, 13:09:21
Immer diese Verallgemeinerungen. Ghostbusters ist ein Spiel, welches nun wahrlich nicht die nötige Qualität aufweist, um als Beispiel dienen zu dürfen. Sogar seitens des Herstellers offiziell bestätigt.

Achso, also jedes Spiel welches eine hohe CPU-Last verursacht ist mies programmiert. X-D


Liest man deine Sachen durch, so könnte man meinen, dass alles unterhalb eines 4GHZ i7 fürs Spielen nicht mehr geeignet sei.
Ich weiß ja nicht was du da reininterpretierst, aber wenn du aufgepasst hättest und dir das Ghostbusters-Diagramm:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6973301&postcount=1

anschauen würdest würde dir auffallen, dass für die gleiche Szene ein 3,5Ghz Wolfdale ebenfalls reichen würde um die "Schmerzgrenze" ~30fps zu halten. So eine cpu-lastige Szene kenne ich schon aus Crysis, aber das ist ja auch mies programmiert. ;D

Gast
2009-08-02, 19:06:36
Achso, also jedes Spiel welches eine hohe CPU-Last verursacht ist mies programmiert. X-D


Ich weiß ja nicht was du da reininterpretierst, aber wenn du aufgepasst hättest und dir das Ghostbusters-Diagramm:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6973301&postcount=1

anschauen würdest würde dir auffallen, dass für die gleiche Szene ein 3,5Ghz Wolfdale ebenfalls reichen würde um die "Schmerzgrenze" ~30fps zu halten. So eine cpu-lastige Szene kenne ich schon aus Crysis, aber das ist ja auch mies programmiert. ;D

Bist ein bisschen kindisch.

Von schlecht programmiert hast lediglich Du gejammert. Es lässt sich nun mal nicht leugnen, dass selbst der Hersteller des Spiels mehrfach betont hat, dass die Konsolenversion deutlich priorität hatte. Deswegen fehlt beim PC der Multiplayer. Daher liegt auch der Verdacht nahe, dass der Spielcode nicht aufopferungsvoll optimiert wurde.

dargo
2009-08-02, 19:17:54
Von schlecht programmiert hast lediglich Du gejammert.

Die Ironie nicht erkannt?


Es lässt sich nun mal nicht leugnen, dass selbst der Hersteller des Spiels mehrfach betont hat, dass die Konsolenversion deutlich priorität hatte. Deswegen fehlt beim PC der Multiplayer. Daher liegt auch der Verdacht nahe, dass der Spielcode nicht aufopferungsvoll optimiert wurde.
Die XBox360- und PS3-Version bricht bei diesem Spiel bis auf 18fps runter.
http://forum.beyond3d.com/showpost.php?p=1306731&postcount=308
http://zoome.jp/ps360/diary/289/

Die Verhältnisse was die Performance angeht passen also grob. Ich kann beim besten Willen bei diesem Spiel nicht erkennen wo hier Performance-Resourcen erheblich verschenkt wurden wenn ich die Konsolen-Version als Basis nehme.

Gast
2009-08-02, 19:38:11
Halt Stop! Hab da als SC und zunkünftiger MC-Nutzer Erklärungsbedarf: was du beschreibst, ist absolut logisch und ich würde einer (vor allem SC) Anwendung auch immer zunächt einen "jungfräulichen" Kern zuweisen - macht das ein BS nicht automatisch?! Also wenn ich eine SC Anwendung auf einem MC System starte, muss sich diese defaultmäßig die Rechenleistung eines Kerns mit dem BS und sonstigem Trallafitti teilen?
Nachdem was ich auf meinem Rechner beobachte: Ja. Es gibt inzwischen ein paar kleine Tools, mit denen sich bestimmte Einstellungen (Zuweisung der Kerne) festlegen lassen, so daß man nicht jedesmal nach dem Spielstart mit Alt-Tab im Taskmanager die Einstellungen wiederholen muß.

Es gibt Spiele, die nutzen automatisch einen freien Kern (falls verfügbar)- aber wie man bei GTR2 sehr schön sieht, gibt es auch Spiele, die hierzu nicht in der Lage sind und sich daher durch den manuellen Eingriff nochmal spürbar beschleunigen lassen. Zu welcher Gruppe ein Spiel gehört, läßt sich im Taskmanager sehr schnell feststellen. Unter Prozesszugehörigkeit sollte bei der betroffenen Anwendung ein Häkchen bei JEDER physikalisch verfügbaren CPU sein. NUR DANN wird das BS eingreifen und die Anwendung auf dem freien Kern starten. Man kann es auch ganz manuell machen und das Häkchen für den ersten Kern gleich ganz wegnehmen. Aber das war bislang nicht nötig. Windows hat bei mir bislang immer von alleine die beste Prozessverteilung vorgenommen, wenn alle Kerne 'zugelassen' waren.

Gast
2009-08-02, 19:47:48
Nachtrag:

Bevor jetzt einige die Theorie ausbrüten, ich würde gegen Quadcores bashen:

Ich habe nichts gegen QCs - aber nur solange sie denselben Takt fahren wie ein aktueller DC. Ich würde also bedenkenlos auch zu einem Core i7 greifen, wenn dieser denselben Takt und einen vergleichbar großen Cache aufweisen kann.

Natürlich ist ein i7@3GHz (nebst erforderlichem HighEnd-Mainboard und DDR3-Ram) 'ein bischen' teurer als der vergleichbare DC (zB. E8400). Aber wenn Geld keine Rolle spielt....

Gast
2009-08-02, 20:58:53
Di
Die Verhältnisse was die Performance angeht passen also grob. Ich kann beim besten Willen bei diesem Spiel nicht erkennen wo hier Performance-Resourcen erheblich verschenkt wurden wenn ich die Konsolen-Version als Basis nehme.
Bei den Konsolen dürfte aber eher die GPU der Bottleneck sein. Mir kann sich der Eindruck nicht verwehren, dass das Gebotene für einen CPU-Kern abgenommen hat und dafür auf Multi-Core hauptsächlich wegen der Konsolenarchitektur gesetzt wird. Ich mein, hätte mir einer 2005 manche Ports mit Physik und Gegnerintelligenz gezeigt, hätte ich nie gedacht, dass ich dafür einen hochgetakteten DC brauche, um möglichst smooth jederzeit spielene zu können. Jetzt kristallisiert sich langsam raus, dass man langsam einen QC braucht um jederzeit smooth dabei zu sein. Früher hatten die Programmierer immer einen starke CPU als mehreren schwachen vorgezogen, jetzt holt man auch locker lässig mehr Performance von 2 auf 4 Kernen raus. Ich denke aber, dass da die Effizienz pro Kern beim Programmieren vernachlässigt wird, sprich nichtt optimiert wird.

dargo
2009-08-02, 21:20:37
Bei den Konsolen dürfte aber eher die GPU der Bottleneck sein.
Bei der Anfangsszene vom PS3-Video bin ich mir gar nicht so sicher. Nach dem kurzen Abspann endet die Timedemo und wo sich der Typ umdreht und die Framerate Richtung 21fps geht ist diese Szene schon sehr cpu-lastig. Ich habe genau diese Szene für meinen Thread "Kernskalierung in Games genommen". Ob jetzt der Cell oder der RSX hier stärker limitiert lässt sich natürlich nicht genau sagen, die PS3-Version läuft zwar nur mit 960x540 (QAA), der RSX ansich ist dafür aber auch deutlich schwächer als eine GTX260.

SC-Gast
2009-08-04, 00:40:36
Nachdem was ich auf meinem Rechner beobachte: Ja. Es gibt inzwischen ein paar kleine Tools, mit denen sich bestimmte Einstellungen (Zuweisung der Kerne) festlegen lassen, so daß man nicht jedesmal nach dem Spielstart mit Alt-Tab im Taskmanager die Einstellungen wiederholen muß.

Es gibt Spiele, die nutzen automatisch einen freien Kern (falls verfügbar)- aber wie man bei GTR2 sehr schön sieht, gibt es auch Spiele, die hierzu nicht in der Lage sind und sich daher durch den manuellen Eingriff nochmal spürbar beschleunigen lassen. Zu welcher Gruppe ein Spiel gehört, läßt sich im Taskmanager sehr schnell feststellen. Unter Prozesszugehörigkeit sollte bei der betroffenen Anwendung ein Häkchen bei JEDER physikalisch verfügbaren CPU sein. NUR DANN wird das BS eingreifen und die Anwendung auf dem freien Kern starten. Man kann es auch ganz manuell machen und das Häkchen für den ersten Kern gleich ganz wegnehmen. Aber das war bislang nicht nötig. Windows hat bei mir bislang immer von alleine die beste Prozessverteilung vorgenommen, wenn alle Kerne 'zugelassen' waren.
Also in meiner kleinen "wie ich das bauen würde"-Welt sähe das anders aus... Anwendungen, bei denen die Graka aus dem 2d in den 3d Modus wechselt (vereinfacht gesagt) würden per default (=abstellbar!) automatisch auf einem neuen Kern ausgeführt und das Wichtigste(!!): ich hätte eine Option in den Verknüpfungseigenschaften, so dass ich für jede Anwendung festlegen kann, auf welchem Kern sie laufen soll. Bei jedem Start ALT+Tab ist doch unnötige Frickelel.
(obs das so gibt kann ich nicht sagen, so würde ich das jedenfalls NEBEN der BS-internen Verteilung machen)