Archiv verlassen und diese Seite im Standarddesign anzeigen : Was können Entwickler Mehrkern CPUs rausholen ?
Bis jetzt hats noch kein Spiel geschafft mit DC umzugehn,Quake4 gabs nen DC Patch aber die Mehrleistung kommt eher als Fusch rüber.
Wird man DC nur richtig nutzen können wenn man eine "neue" engine programmiert also nen extra Pfad für mehr Kerne ?
Oder können die Entwickler nicht voll DC eingehen weil dann Singlecore zu schlecht abschneiden würden ?
Wirds wieder so sein das DC erst richtig genutzt wird wenn 50% der User DC´s haben ?
Was wird man aus DC rausholen können,werden 50% das max sein oder eher weniger ?`
Es dauert nicht lang dann kommen 4 Kerncpu´s wird,kann man dei 4 mehr erwarten können ?
Wirds für mit Windows Vista besser mit der Mehrkernnutzung oder habens dann Entwickler eifnacher ?
Wie weit wird man das führen mit Mehrkernen,werden wir mehr als 8,12 Kerne erleben und was kommt dann ?
avalox@Gast
2006-05-04, 10:44:02
Kilocore mit PowerPC CPU mit 1025 Kernen für den Embedded Bereich im Design schon vorgestellt.
Intel tönt auch in den nächsten Jahren 1024 Kern x86 auf den Markt zu bringen.
Geht man von Moore aus, wird sich auch weiter die Transistoren Zahl alle 2 Jahre verdoppeln. Dieses zusammen, mit dem Trend Kerne eher einfacher, aber spezieller zu gestallten wird die Anzahl der Kerne in den nächsten Jahren explodieren.
mit "spezieller" also das sich die Kerne unterscheiden also eine besser für sagen wir mal Physik und andere für 2D Aufgaben usw
Rhönpaulus
2006-05-04, 11:22:54
eine komplexe rechenaufgabe soll gelöst werden.
man setzt einen mathematiker mit taschenrechner drann der schritt für schritt die einzelnen teilrechnungen mit den zwischenergebnissen hintereinander ausführt bis das gesammtergebniss vorliegt.
dieser benötigt zur lösung der aufgabe die zeitspanne x.
weil das aber zu lange dauert werden beim nächsten mal vier mathematiker ranngesetzt welche nun gemeinsam an der selben aufgabe gleichzeitig rechnen.
preisfrage: wie lange benötigen nun diese vier "rechner" zur lösung der aufgabe?
die marketingfuzis werden sagen: die zeit beträgt x/4 ,is ja logisch.
in wirklichkeit wird abhängig von der struktur der aufgabe eine zeit zwischen x/4 und x benötigt wobei es bei komplexen rechnungen bestenfalls 90% x sein werden weil jeder der mathematiker immer warten muß bis ein anderer mit seiner zwischenrechnung fertig ist damit er seinen nächsten rechenschritt beginnen kann.
games basieren auf stark verzweigten programmen mit sich ständig ändernden rechenabläufen weswegen hier der vorteil von mehreren rechnern besonders gering sein wird.
Avalox@Gast
2006-05-04, 11:42:03
siehst, dass ist genau das was ich nicht akzeptiere. Ein Spiel ist die Ausgeburt, der ideal zu parallelisierenden Aufgabe. Nur der Ansatz wie heute ein Spiel zu erstellt wird, oder besser auf dem Rechner auszuführt wird ist die Limitation.
Sieht man sich die Verteilung der Prozessorzeit auf einzelne Aspekte des Spiels heute an (in der aktuellen c’t, ist dort ein schönes Tortendiagramm), so sieht man dass fast die Hälfte der CPU Rechenzeit zur Grafikaufbereitung im Schnitt verpufft. Das trotz 3D Beschleuniger. Dazu kommen 5% für Sound, 15% für KI usw. usw. . Die Ursache der mangelnden Parallelisierbarkeit heutiger Spiele also in diesen fürs Spiel eher nebensächlichen Aspekten. Die eigentliche Spielmechanik findet heute nur im geringsten Teil überhaupt statt. Eine Parallelisierung dieses Teils würde keinen erheblichen Performancevorteil bieten (wenig von wenig ist halt noch weniger ersichtlich), deshalb wird auch bestimmt huete keine grosse Energie eingesetzt dort Fortschritte zu erzielen. Solange es die grossen Ressourecen Fresser gibt, wo eine Optimierung viel mehr Ergebnis einbringt, solange wird an dieser Schraube gedreht.
Wie gut sich Spiele Aufgaben parallelisieren lassen, zeigen im Ansatz die massiven Multiplayer Spiele. Welche eine Komplexität erreichen, die auf einzelnen Home PCs heute nicht erzielbar sind. Diese Spiele sind auch eine Form der Parallelisierung. Es sind keine Threads und auch keine Dualcores. Doch ist es ein Netzwerk parallel arbeitender Computer, welche letztendlich an einem Problem arbeite. Natürlich sind die Figuren Mensch gesteuert. Allerdings wäre es auch möglich, dass jeder PC seine Figur, seine Umgebungsphysik selbst rechnet und in den Verbund einbringt.
Es muss ein Umdenken statt finden. Das Spiel muss wieder in den Vordergrund rücken, die technischen Aspekte in den Hintergrund. Dann klappt das auch. Ich denke genau dazu wird der Vielkern Trend führen.- Wir werden nicht ein hübscheres Doom sehen (das sicher auch), wie werden andere Spiele sehen.
TheBrother
2006-05-04, 12:07:09
Hast du dir mal die Quelltexte von Spielen angeschaut? Ich darf ja hier keine Namen nennen, aber damals gab es ja ein bekanntes Spiel das gelaked ist.
Man ist das Spaghetti Code!. Bei der Quake Engine kommen mir auch die tränen. Ich weis nicht wer da programmieren darf, aber n Informatik Studium haben die maximal an der FH gemacht *g*
Alles was man so als Info lernt mit Planung von Projekten, Milestones, gute Doku usw irgendwie haben die alles vergessen.
Dazu kommt der Entwicklungsdruck. Ich nehme jetzt mal EA als Beispiel: da werden Releases relativ selten verschoben. jo das sieht man auch an der Qualitaet der Engines. Viele der Spiele (NFSMW z.B.) haben eine grotten schlechte Performance. Ich denke das liegt u.a. auch an der Entwicklungszeit die die Programmierer bekommen.
hmm wollte noch mehr schreiben aber irgendwie faellt mir grad nix mehr ein :)
The_Invisible
2006-05-04, 12:26:32
du sprichst es ja schon an: entwicklungszeit
kenne das ja selber, bei knappen resourcen hat man eben (fast) keine zeit für doku oder schönen code... da wird eben mehr gefrickelt als sonstwas. da jeder tag geld kostet muss halt alles möglichst schnell über die bühne gehen
mfg
TheBrother
2006-05-04, 12:37:06
Entwicklungszeit: Die Spiele werden immer komplexer (polycount, objektanzahl usw) Ein Level aufzubauen dauert mittlerweile einiges länger als noch vor 5 Jahren. Also braucht man viel mehr Mann-Stunden. Entweder man verlängert die Entwicklungszeit, was dann aber auf die "Aktualität" der Engine geht, oder man braucht halt mehr Leute. Was dann aber wiederum viel mehr kostet. Diesen Preis kann man aber dann nicht an den Kunden weitergeben. Versuch das mal dem 13 Jährigen Kid im Mädchenmarkt zu erklären dass ein Spiel das, banal ausgedrückt "toll aussieht" 20 EUR mehr kosten soll als ein Spiel das halt nicht so schoen aussieht. :)
so und nun mal meine Fragen kurz beantworten :D
Man könnte sehr, sehr viel rausholen, im theoretischen best-case wohl bis zu 50%. Beispielsweise könnte man sämmtliche Physikberechnungen in einem extra thread auslagern. Dies sollte solange gehen, bis man an die Grenzen des Pipelinings gerät (siehe Rhönpaulus Post). Wenn Berechnungen aber weiter zerlegt werden können, sprich etwas noch zu parallelisieren ist, ist auch eine Performancesteigerung möglich. Aber das ist dann wohl eher ein Feld für die Mathematiker...
Ich denke wohl, dass wir auch hier wieder an de Grenze des Von-Neumann-Rechners angekommen sind, die aktuelle x86 Architektur. Spich dieser ganzen Fetch-Interprete-Hold-Execute-Save Geschichte. Mehr kann ich dazu allerdings auch nicht sagen.
kevsti
2006-05-04, 14:28:01
Bei Grafikkarten geht das ja noch relativ einfach, da rechnet eine Graka einige zeilen und die andere, halt die anderen zeilen.. aber beim CPU, wie können solche komplexen aufgaben geteilt werden? wie Rhönpaulus ja gesagt hat, mehr Mathematiker (in den fall Cores) können auch nicht schneller an einer Aufgabe rechnen und atm. sind die Spiele halt drauf ausgerichtet das der CPU nur eine Aufgabe zugeteilt bekommt.. was hier fehlt wär ne Hardware/Software(was beim CPU ja eher schlecht möglich ist) die 2+ Cores zu einen "gigantischen" Core zusamm fast (AMD wollte doch sowas entwickeln?). man könnte sicherlich auch spezi. nen Game darauf entwickeln das es 2 Aufgaben miteinmal an den CPU gibt nur die probleme wären A. eine höhre Entwicklungszeit (Der Entwickler muss sich noch damit beschäftigen das er möglichst 2 Aufgaben findet die sich gleichzeitig ausführen lassen) B. eine unmögliche Entwicklungszeit solang es noch viel mehr Singlecore's gibt (man müsste ja quasi das Spiel 2 mal entwickeln, den ein Singlecore wär von plötzlich 2 Aufgaben überfordert, es würde vlt. auch schlichtweg nicht gehen..) C. was ist dann wenn es 4,8,12,.... 1024 Cores gibt? das kann doch kein Mensch mehr ein Spiel entwickeln wo er 1024 Aufgaben finden muss die gleichzeitig berechnet werden könnten)
naja also wäre eine Engine von nöten die Dynamisch Aufgaben an die CPU weiterleitet, nur soweit sind wir halt noch nicht..
aber in einigen Monaten vlt. sogar Jahren wird es sicher auch Engines geben die das können oder Hardwareseitige techniken die mehrere Cores zu einen bündeln..
btw. der komplette Post ist meine subjektive Meinung ;) es kann durchaus anders sein als ich es mir denke..
Banshee18
2006-05-04, 22:44:58
kevsti[/POST]']was hier fehlt wär ne Hardware/Software(was beim CPU ja eher schlecht möglich ist) die 2+ Cores zu einen "gigantischen" Core zusamm fast (AMD wollte doch sowas entwickeln?).
Lat einiger Gurus ist das praktisch unmöglich. Wie denn auch?
kevsti
2006-05-05, 06:24:52
Banshee18[/POST]']Lat einiger Gurus ist das praktisch unmöglich. Wie denn auch?Okay, ich hab halt nur am rande das von AMD mitbekommen dieses "Anti-HT".. und soo scjwer stell ich mir das nicht vor, aber naja ein CPU Guru bin ich auch wieder nicht..
KraetziChriZ
2006-05-06, 15:47:52
Um nochmal auf deine Theorie mit den vielen Cores zurückzukommen, das es schwieirg würde, so viele Aufgaben auf die Cores zu verteilen, da es nicht so viele gibt.
Das ist imho falsch. In dem Programmcode von Spielen sollte es hunderte von Funktionen geben. Eine Funtkion die die Blätterbewegeung berechnet, eine für die KI usw. und wenn man jetzt jede Funktion bzw. jeden Funktionsaufruf (der eig. sowieso schon "einzeln" aufgerufen wird, auf eine CPU verteilt, wäre das ganze relativ simpel.
Allerdings ist das in wirklichkeit nicht so einfach, wie sich das ganze anhört, da wie auch schon geschrieben die meisten Games mehr so Spagetthicode sind, und das es dort schwierig wird, überhaupt irgendwas zu optimieren.
Da tritt leider wieder das alte Problem in kraft, das Properitäre Software einfach unter Zeitdruck steht, und auch unter druck der Hardware-Hersteller... leider :(
Das ist so ähnlich wie mit der Software Sicherheit.
Microsoft bietet z.B. sehr gute Tools und Hilfen in ihrem Visual Studio, die z.B. das überlaufen von Buffers verhindern. Man hat auch ganz viele Entwickler Schulen wollen (Adobe, Corel usw.), allerdings ist dehnen aufgefallen, das so wie die programmieren, man mit diesen Sicherheitsfeatures (verhinderung von Buffer Überlaufs usw.) einfach nicht arbeiten konnte, da bei ihrem Spagetthicode sowieso ständig Buffer überlaufen, und da da ganze viiieeelll zu Zeitaufwendig ist. Tja, da kann die Maschiene doch nicht mehr. Da muss dann ein Mensch ran, der es programmiert. Und wenn der es nicht drauf hat, dann nützt einem auch die beste Hardware nix :)
LordDeath
2006-05-06, 19:06:12
dualcore optimierungen müssen auch so dezent sein, damit dieser code auf single-core cpus nicht langsamer läuft. aber bei einer totalen auslastung von dualcore würde es sehr sicher auf einem single core langsamer laufen.
damit das nicht passiert müssten die wohl die anwendung zweimal schreiben: einmal für mehrere cpus, einmal für eine cpu!
welches spiel versucht denn soviele grafikkarten wie möglich optimal anzusprechen? gibt es immer shaderpfade für jede einzelne gpu-generation? nö, und bei dualcore wird man das auch nicht tun.
Vielleicht sollte man ganz einfach eine Ebene weiter oben anfangen, nämlich bei den Schnittstellen wie DirectX und nicht beim Code selber. So müssten sich die Entwickler nicht mit der PolyCore-Anpassung beschäftigen, sondern nur noch auf "vorgefertigte" Funktionen/Klassen/Objekte zurückgreifen.
Demirug
2006-05-06, 19:56:40
orda[/POST]']Vielleicht sollte man ganz einfach eine Ebene weiter oben anfangen, nämlich bei den Schnittstellen wie DirectX und nicht beim Code selber. So müssten sich die Entwickler nicht mit der PolyCore-Anpassung beschäftigen, sondern nur noch auf "vorgefertigte" Funktionen/Klassen/Objekte zurückgreifen.
Die Vista Version von Direct3D 9 hat eine Multicore Unterstützung.
Supporting Multiple Processors
User-mode display drivers on multiple-processor computers can let the Microsoft Direct3D runtime handle multiple-processor optimizations, or the drivers can perform their own multiple-processor optimizations.
hm werden aktuelle Spiele unter Vista mit DC´s dann besser laufen ohne extra extra Patches/Optimierungen ?
86318
2006-05-06, 21:18:44
Banshee18[/POST]']Lat einiger Gurus ist das praktisch unmöglich. Wie denn auch?
NEC kann das... (http://www.computerbase.de/news/hardware/prozessoren/2005/dezember/nec_multi-core-technik/)
Edit: Link gefixt
kevsti
2006-05-06, 21:19:05
Zumindestens behauptet MS das das Vista DirectX eine Optimierung für DualCore hat, allerdings kann ich mir nicht gerade vorstellen das DirectX da viel machen kann? DirectX ist doch primär nur für die Grafik zuständig und nicht für die KI, Physik und was nicht alles der CPU noch zu rechnen hat.. naja gut für die Grafikkarte muss der CPU auch ordenlich rechnen aber ob da DirectX viel Optimieren kann? naja wir werden sehen..
und man soll mit sepziellen Treiber dann noch besser optimieren können? wie soll das gehen? Treiber für CPU? :D
aber ohne spezi. Patches/Optimierung kann Direct3D in Vista auch keine DualCore optimieren (glaub ich zumindestens), den Direct3D stell diese funktion nur zu verfügung, vom Spiel muss das auch genutzt werden und das würd es wohl erst in 1-2 Jahren soweit sein, wenn Spiele mit den neuen DirectX entwickelt werden
edit://86318[/POST]']NEC kann das... (://www.computerbase.de/news/hardware/prozessoren/2005/dezember/nec_multi-core-technik/)die richtige URL ist http://www.computerbase.de/news/hardware/prozessoren/2005/dezember/nec_multi-core-technik/
du hast einmal :// zuviel ;)
KraetziChriZ
2006-05-06, 21:24:03
Klar hat DirectX in Windows Vista Dual Core Optimierung. DX10!
In DX10 sind (afaik) mehr GPU und CPU Optimierungen vorhanden, bzw. es ist deutlich schneller, mit mehr GPU und CPU Systemen.
Alte DX9 Spiele werden davon aber nicht profitieren, da sie weiterhin die alten DX9 Features ansprechen, wenn sie denn überhaupt auf einem Vista laufen werden.
gruß
chris
Avalox
2006-05-06, 22:19:47
kevsti[/POST]']Zumindestens behauptet MS das das Vista DirectX eine Optimierung für DualCore hat, allerdings kann ich mir nicht gerade vorstellen das DirectX da viel machen kann? DirectX ist doch primär nur für die Grafik zuständig und nicht für die KI, Physik und was nicht alles der CPU noch zu rechnen hat..
Die c't hat in der aktuellen Ausgabe (10/06) mal eine Übersicht erstellt, wie viel der Gesamt CPU Rechenzeit eines Spiel für "was" verwendet wird.
CPU Zeit Zweck
5% allgemeine Aufgaben
5% Audio Verarbeitung
10% Grafiktreiber (Shader kompilation, etc)
15% Direct3D Kommandos an den Grafiktreiber senden
15% Grafikberechnungen (Schattenvolumen etc)
15% Objekt Kollisionserkennung
<1% Eingabeverarbeitung
10% Spiellogik
15% KI und Skriptverarbeitung
10% Physik Effekte.
Hättest du also einen Nullzeit Audiobeschleuniger, also einen Beschleuniger welcher alles autonom und ohne Ausführungszeit erbringt, liesse sich ein Spiel grade mal um 5% beschleunigen. Das ist so, weil der getriebene Aufwand für den Sound in heutigen Spielen so minimal ist.
Sieht man sich die CPU Lastverteilung oben an, so stellt man fest, dass die Grafik trotz aller Beschleuniger das grösste Potential hat, um Beschleunigungsansätze auch für den Benutzer spürbar durchzuführen. Nun ist aber leider Grafik schon hoch optimiert und auf der GPU parallelisiert.
Spiele müssen komplexer werden, damit sich verschiedene Ansätze auch auszahlen. Eine ordentlich KI, ordentlich Physik und ein ordentlicher Sound, in komplexen Spielen sind die besten Voraussetzungen um dass eine breite Parallelisierung auch einen Nutzen hat. Heutzutage wird ja sehr viel Wert auf die einfache Optik Wert gelegt.
Aquaschaf
2006-05-06, 22:37:57
Avalox@Gast[/POST]']Ein Spiel ist die Ausgeburt, der ideal zu parallelisierenden Aufgabe.
Ein System das etwa 30 mal pro Sekunde auf eine aus seiner Sicht zufällige Eingabe reagieren muss ist alles andere als die ideal zu parallelisierende Aufgabe, aber darin kann eben auch die Herausforderung liegen trotzdem die verfügbaren Resourcen auszunutzen.
Vielleicht sollte man sich einmal darüber unterhalten was man für Vorstellungen von zukünftigen Spielen hat. Liegt die Zukunft wirklich darin möglichst realistische Welten mit Physik und KI zu erstellen? Ich denke das wird nicht der einzige Typ an Spielen sein (sicher nicht der mit dem größten Marktpotenzial). Außerdem ergibt sich doch ganz unabhängig von der Hardware das Problem, das die tollen Features die gefordert werden um z.B. Multicore-CPUs auszunutzen die Entwicklungskosten für ein Spiel noch weiter in die Höhe treiben.
kevsti
2006-05-06, 23:03:48
Avalox[/POST]']Die c't hat in der aktuellen Ausgabe (10/06) mal eine Übersicht erstellt, wie viel der Gesamt CPU Rechenzeit eines Spiel für "was" verwendet wird.
CPU Zeit Zweck
5% allgemeine Aufgaben
5% Audio Verarbeitung
10% Grafiktreiber (Shader kompilation, etc)
15% Direct3D Kommandos an den Grafiktreiber senden
15% Grafikberechnungen (Schattenvolumen etc)
15% Objekt Kollisionserkennung
<1% Eingabeverarbeitung
10% Spiellogik
15% KI und Skriptverarbeitung
10% Physik Effekte.
<abgekützt..>
eben das einzigste was Direct3D Vista (ich nenns mal Vista.. ich kanns mir schon vorstellen, am ende schaffts MS mit Vista noch nicht auf DX10 nur auf 9+ und DX10 kommt mit SP1 eins oder so.. bei MS weiß man nie..) optimieren kann sind die 15% Direct3D Kommandos und evtl. noch die 15% Grafikberechnung, das sind dann 30%, selbst bei 100%iger Optimierung auf 2 Kernen wären das dann nur 15% zuwachs.. nicht grad viel, aber immerhin... ich bezweifel aber eine 100%ige optimierung..
Avalox
2006-05-06, 23:05:10
@Aquaschaf
Ich denke der Prototyp für zukünftige Spiele stellen heutige massive Multiplayer Spiele dar.
Das einzige Schlechte an diesen Multiplayer Spielen sind die anderen Mitspieler. Menschliche Mitspieler neigen zum schummeln, gliedern sich nicht in die Spielwelt ein und spielen auch äusserst ungern in eine unpopulären Rolle. Ausserdem sind die Spielewelten heute in dieser Art von Spiel doch äusserst unflexibel.
Aber eines haben diese Spiel unmittelbar voraus. Es reagiert nicht alles unmittelbar auf den Spieler. Der eigene Computer ist nur das Sichtfeld, die Rendering Einheit, welche die virtuelle Welt in die Perspektive des Spielers steckt. Das funktioniert, weil diese Form von Spiel schon heute massiv parallel arbeitet. Weg vom Skript, hin zu einer autonome Spielwelt mit einer konsistenten Darstellung, dass denke ich wird die Zukunft bringen. NPCs welche tatsächlich im Rahmen ihrer Handlungsmöglichkeiten agieren und interagieren. Dann wird es nämlich möglich werden die Vorteile der heutigen massiven Multiplayerspiele und eine ordentliche Geschichte zusammen zu kombinieren. Dann spielt man nicht mehr unbedingt mit 100derten anderer in einem Spiel, sondern nur noch mit ein paar bekannten Gleichgesinnten ein Spiel, welches eine neue Form der Unterhaltung erlauben wird.
Natürlich werden solche Spiele aufwendiger in der Entwicklung. Aber, dass sind diese seit erfinden des Computers geworden. Teurer sind die Spiele im Verkaufspreis allerdings nicht geworden. Weil sich die Entwicklungswerkzeuge angepasst haben. Dass werden die Methoden in Zukunft sicherlich auch weiterhin tun.
kevsti
2006-05-06, 23:34:28
Das wär in der tat ein genialer gedanke ;> nen MSORPG (Massiv Singelplayer Offline Role Playing Game, RPG heist doch Role Playing Game? und MMO Massiv Multiplayer Online oder?) wär doch genial.. wo alles so agiert wie in nen MMORPG.. man kann mit NPCs Freundschaft schliesen die mit einen rum latschen, mit einen sachen tauschen.. vlt. sogar mit einen Labern :D das wär krank ^^ aber cool
Aquaschaf
2006-05-07, 00:00:44
Avalox[/POST]']Natürlich werden solche Spiele aufwendiger in der Entwicklung. Aber, dass sind diese seit erfinden des Computers geworden. Teurer sind die Spiele im Verkaufspreis allerdings nicht geworden. Weil sich die Entwicklungswerkzeuge angepasst haben. Dass werden die Methoden in Zukunft sicherlich auch weiterhin tun.
Die Spiele sind hauptsächlich nicht teurer geworden weil der Markt dafür gewachsen ist. Aber das sind jetzt schon für AAA-Titel zweistellige Millionenbeträge und das ist schon nicht mehr so weit von der Grenze entfernt in der sich damit noch zuverlässig Geld verdienen lässt, denn es gibt auch nur so viele Jugendliche und Nerds die daran Interesse haben sich stundenlang in aufwändigen virtuellen Welten aufzuhalten.
Avalox
2006-05-07, 00:47:56
Na ja. Der Markt wird grösser geworden sein. Allerdings haben sich doch TV Spiele schon immer blendet verdient. Atari setzte 1980 einen halbe Milliarde $ um. Ein Grossteil mit dem damals populären Space Invaders Port. Auf heutig Maßstäbe umgerechnet wären dass 2,5 Milliarden $. Summen die gar nicht mal so weit entfernt sind, von dem was ein Sony heute mit seiner riesen Spieleindustrie umsetzt. Ich bin mir ziemlich sicher, dass wenn man Perlen von damals mit den Perlen von heute vergleicht, diese auf ähnliche Verkaufszahlen kommen. Nur dass damals die Spiele auf ein 8KB Rom geliefert wurden und Spiele heute schon mal 8GB benötigen. Natürlich ist der Aufwand für die Spielentwicklung gestiegen. Allerdings nicht in dem Maß, wie es die erzeugten Daten und Zeilen von Code vermuten lassen.
Ich denke das teuerste Spiel aller Zeiten wird Et Matrix gewesen sein. Teuer durch die Lizenzkosten. Spieledesign wird sich auch in der Zukunft ändern müssen. Weniger Programmieren, weniger Designen, mehr Code und Modelle lizenzieren. Alternative Finazierungsmöglichkeiten finden. Werbung z.B.
Der Designer muss sich mehr um die eigentliche Spielemechanik kümmern. Wer sich heute nicht anpasst, wird morgen nicht mehr da sein.
kevsti
2006-05-07, 02:09:23
et matrix? kenn ich nicht o,O
edit://Achso du meinst enter the matrix ^^ ob das soviel gekostet hat.. hm.. glaub ich eher nicht.. trotz lizenskosten..
von reinen Spieltech. kosten würd ich sagen das HL2 ganz weit oben (wenn nicht sogar ganz oben) mitspielt.
ich versteh sowieso nicht warum die Entwickler nichtmal zu nen alten Spiel nen remake machen, aber dennoch im alten desing (halt nur tech. leicht angepasst..)
ich glaube nen Monkey Island 6 (?) im Style von 1/2 würde sich wesentlich kostengünstiger und schneller entwickeln lassen als ein 3D Spiel und würde auserdem besser verkauft werden.. es gibt sicher einige die sich das Game kaufen.. am besten gleich 5 mal.. weil sie es sooo sehr lieben *g* ansonsten gibts ja auch bei anderen gerne viele perlen, die heute auch noch mit DOS-Emulatoren etc.. gezockt werden.. nur davon kenne ich nicht so wirklich welche.. bin mit Adventure aufgewachsen und mit nichts anderen ^^
Avalox
2006-05-07, 10:17:11
kevsti[/POST]']et matrix? kenn ich nicht o,O
edit://Achso du meinst enter the matrix ^^ ob das soviel gekostet hat.. hm.. glaub ich eher nicht.. trotz lizenskosten..
Enter the Matrix soll knapp 50 Millionen Doller gekostet haben. Es wurden Filmaufnamen mit den Schauspielern extra für das Spiel produziert. Die Schauspieler tauchen auch in digitalisierter Form wieder im Spiel auf. Ich denke es wird nicht viele Spiele geben, die so viel gekostet haben.
Ein weiterer Kandidat ist "der Pate". Quellen reden von 20 Millionen $. Entwicklungskosten.
Aber man merkt, dass Spiele besonders teuer werden, wenn Film oder Sport Rechte genutzt werden sollen. Aber dafür habe ich eher weniger Verständnis.
PatkIllA
2006-05-07, 10:24:08
86318[/POST]']NEC kann das... (http://www.computerbase.de/news/hardware/prozessoren/2005/dezember/nec_multi-core-technik/)Ohne unabhängige Benchmarks würde ich da mal nicht an Wunder glauben.
Die x86 Prozessoren parallelisieren doch auch schon längst den Programmablauf und treiben dafür einen enormen AUfwand. Wenn man da mit ein paar Recheneinheiten mehr noch nennenswert was rausholen könnte, würden die schon längst verbaut.
Aquaschaf
2006-05-07, 11:25:36
Avalox[/POST]']Natürlich ist der Aufwand für die Spielentwicklung gestiegen. Allerdings nicht in dem Maß, wie es die erzeugten Daten und Zeilen von Code vermuten lassen.
1980 wurde ein Spiel von 1-3 Leuten in ein paar Monaten entwickelt. ETM war fast mit Sicherheit ein Verlustgeschäft.
PatkIllA
2006-05-07, 11:28:06
Bei Wing Commander 2 stand schon damals was von 14 Mannjahren dabei.
Und wenn ich heute in den Abstand eines Spiels schaue reibe ich mir oft nur noch die Augen. Das steht einem Film oft nichts mehr nach.
Avalox
2006-05-07, 14:07:07
Aquaschaf[/POST]']1980 wurde ein Spiel von 1-3 Leuten in ein paar Monaten entwickelt.
Aber damals konnten es weniger. Der Programmierer von Pac Man für das Atari2600 erhielt für das Programm 1 Million $, heute umgerechnet 3 Millionen $. Eine grösse die auch heutige Spiele durchaus kosten. Nur war Pac Man ein 4KB Spiel, eines Programmierers. Ohne die Linzenzkosten wohlgemerkt.
Ich will ja gar nicht behaupten, dass heutige Spielentwicklung nicht aufwendig ist. Ich denke aber, dass noch eine riesige Menge an Ratiopotential in der Spielerstellung steckt.
Wie oft Räder doppelt erfunden werden. Wie wenig die Bereitschaft da ist, sich mit neuen Programmkonzepten zu beschäftigen. Da wird sich noch eine Menge ändern. Der der es schafft mit einem Ansatz ein Ratiopotential zu erschließen, hat in Zukunft grade im Bereich Unterhaltungssoftware sicherlich gute Karten.
Aquaschaf
2006-05-07, 14:28:36
Avalox[/POST]']Aber damals konnten es weniger. Der Programmierer von Pac Man für das Atari2600 erhielt für das Programm 1 Million $, heute umgerechnet 3 Millionen $. Eine grösse die auch heutige Spiele durchaus kosten. Nur war Pac Man ein 4KB Spiel, eines Programmierers. Ohne die Linzenzkosten wohlgemerkt.
Pac Man für Atari2600 war übrigens ein Flop damals und mit 3 Millionen kommst du heute nicht sehr weit ;)
Avalox
2006-05-07, 16:05:55
Aquaschaf[/POST]']Pac Man für Atari2600 war übrigens ein Flop
Es war spielerisch grausam schlecht, aber eines der bestverkauften (http://www.thedoteaters.com/play3sta6.htm) Spiele von Atari. Interessanter Weise ging der Konsolen Markt unmittelbar nach dieser Hochphase zu Grunde. Die Leute haben mehr erwartet und dieses mehr aber nicht bei den Videospielekonsolen gefunden und sich den Heimcomputern zugewendet. Die Spiele waren dort einfach viel besser, dank leistungsfähigerer Hardware. Womit wir jetzt wieder den Bogen zu den PCs von heute schliessen und mal kräftig die Daumen drücken sollten, dass sich leistungsfähige Physikbeschleuniger mal schnell durchsetzen und entsprechend bessere Spiele auf den Markt kommen. Zeit für ein "Mehr" ist heute wieder gekommen.
Aquaschaf
2006-05-07, 17:39:23
AFAIK hat es sich zwar gut verkauft, aber Atari hat so viele Spielmodule produziert weil sie dachten es würde sich noch besser verkaufen und trotzdem Verluste eingefahren. Siehe: http://en.wikipedia.org/wiki/Pacman
PatkIllA
2006-05-07, 17:43:18
Wobei Pacman ja jetzt nun auch nicht das represäntative Computerspiel ist.
Bei wirklich guten Programmen, die sich entsprechend verkaufen ist jedes Exemplar irgendwann praktisch Reingewinn.
Ich glaube ja auch, dass man da noch einiges an Effizienz rausholen kann, aber das muss sich auch lohnen.
Und grade bei Spielen, darf während der Entwicklung doch mal von einigen Änderungen ausgehen, die dann zwangsläufig irgendwann zu einer Frickelei ausarten.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.