Archiv verlassen und diese Seite im Standarddesign anzeigen : So sieht es im Gamer-PC wirklich aus! High-End interessiert nicht.
Armaq
2006-11-17, 00:05:32
http://www.steampowered.com/status/survey.html
Generell kann man also durchaus sagen, dass eine neue Generation wie die 8800er-Serie von Nvidia keinerlei Relevanz am Markt entfaltet, wenn keine entsprechenden Derivate auf Midrange-Basis folgen.
Nun Frage ich, brauchen wir eine High-End 8800 GTX, wenn eine neue Generation für 200€ eine viel größere Verbreitung findet?
Warum entwickelt NV nicht einfach einen 8600GT und freut sich über eine Wahnsinnsnachfrage im 150 - 250€ Bereich.
Sicherlich könnte man erstmal schnellere Modelle entwickeln, diese aber einmotten und gleich eine preiswerte Modellvariante einführen?!
Nutzen ATI und NV vll. den Meinungsgeber einer Gruppe, damit sich die Serie gut verkauft - klassisches Leadership-Marketing?
Oder sitzen am Ende doch technikgeile Ingenieure soweit oben, dass sie sich richtig austoben dürfen?
dildo4u
2006-11-17, 00:10:17
Dir ist aber schon klar das ca 50% der User die Steam nutzen das alte CS zocken. ;)
http://archive.gamespy.com/stats/
Armaq
2006-11-17, 00:18:38
Dir ist aber schon klar das ca 50% der User die Steam nutzen das alte CS zocken. ;)
http://archive.gamespy.com/stats/
Ändert nichts an der Aussagekraft. Wenn du den Anteil durch zwei nimmst hast du immernoch eine Statistik. Auch CSler schauen manchmal "über den Teich".
Ausserdem gibt es keine vergleichbare Quelle.
tokugawa
2006-11-17, 00:50:47
http://www.steampowered.com/status/survey.html
Generell kann man also durchaus sagen, dass eine neue Generation wie die 8800er-Serie von Nvidia keinerlei Relevanz am Markt entfaltet, wenn keine entsprechenden Derivate auf Midrange-Basis folgen.
Nun Frage ich, brauchen wir eine High-End 8800 GTX, wenn eine neue Generation für 200€ eine viel größere Verbreitung findet?
Warum entwickelt NV nicht einfach einen 8600GT und freut sich über eine Wahnsinnsnachfrage im 150 - 250€ Bereich.
Sicherlich könnte man erstmal schnellere Modelle entwickeln, diese aber einmotten und gleich eine preiswerte Modellvariante einführen?!
Nutzen ATI und NV vll. den Meinungsgeber einer Gruppe, damit sich die Serie gut verkauft - klassisches Leadership-Marketing?
Oder sitzen am Ende doch technikgeile Ingenieure soweit oben, dass sie sich richtig austoben dürfen?
Weil's auch Forscher und andere "seriöse" Leute gibt, die die Leistung einer 8800 GTX auch ernsthaftig brauchen.
Die Relevanz ist indirekt: wozu braucht man die neue Midrange um 150-250€? Natürlich dadurch dass neue Effekte eingeführt werden. Diese Effekte werden von Forschern entwickelt, die selbst auf High-End-Hardware entwickeln. Diese Effekte rechtfertigen erst neue Grafikkartengenerationen.
Ohne High-End-Hardware gäbe es auch keine Effekte, die die Midrange nutzen könnte.
Armaq
2006-11-17, 01:00:34
Man kann solche Effekte 100% auch auf langsamer Hardware abspielen. Sie läuft dann halt erst später flüssig.
Glaub mir du hast keinen Bock bei 5FPS rumzuentwickeln. 10FPS gehen grad noch so.
Dir ist aber schon klar das ca 50% der User die Steam nutzen das alte CS zocken. ;)
Dir ist schon klar, das Valve die Statistiken öfters mal zurücksetzt werden und neugestartet werden? Ergebnisse sind erst seit November 2006 berücksichtigt, brandaktuell.
Half-Life 2 zählt also ebenfalls dazu, deren Verbreitung nicht gerade gering ist, dank CS:S.
Die Statistik haut sicherlich hin, der großteil der User hat noch 512 bis 1024 MB RAM, Single Core und eine Grafikkarte der GeForce 6 Serie.
Die User in diesem Hardwareforum waren noch nie ein Maßstabe und werden nie einer sein. Denn registrieren tut sich nur, wer an Hardware interessiert ist, ergo wird er auch meist bessere Hardware haben / kaufen.
Aufgrund der Statistik kann man auch davon ausgehen, das es noch sehr lange für Multicore / 64 bit Umschwung brauchen wird, die 92 % Single Core Quote sagt eigentlich alles...
Für die Entwickler wirds erst interessiert, wenn das Verhältniss sich auf ca. 30-50% Dual/Quadcore verschoben hat...
Dafür müssen aber erstmal die Preise runter, sonst sind die nicht attraktiv. Sehe nicht wenige, die nicht mal bereit sind, mehr als 150 € für eine CPU zu bezahlen, wen wunderts...
kizi81
2006-11-17, 07:58:10
höher, schneller, weiter
wenn nvidia jetzt nur eine 8600 entwickelt hätte, würde die genauso 400€ kosten, denn dann wäre die karte ja auch High-End :)
wenn die menschheit sich stets mit dem mittelmaß hätte zufrieden gegeben würden wir heute noch auf pferden sitzen und durch die gegend reiten. innovation heißt das zauberwort. und nur so kann auch die entwicklung der technik vorangetrieben werden.
mfg
taylan
Mr.Soapdown
2006-11-17, 08:49:37
http://www.steampowered.com/status/survey.html
Generell kann man also durchaus sagen, dass eine neue Generation wie die 8800er-Serie von Nvidia keinerlei Relevanz am Markt entfaltet, wenn keine entsprechenden Derivate auf Midrange-Basis folgen.
Generell kann man sagen: Ist die Verfügbarkeit wie hoch? Es ist noch vielzu früh hier handfeste Aussagen zu machen.
Eher kann man daraus folgern das den meisten 1600x1200 @ highest +aa und af egal sind, oder sie sich eine karte von einem wert über der 300er marke nicht leisten können bzw. wollen.
Manchen reicht ein 1024x768 @ mittel bis high...
Manche können ohne hohe auflösung und mega grafik sich ein spiel garnicht mehr vorstellen. Vielleicht kommt das davon das man viel zu sehr auf die grafik achtet als auf das spiel selber, was wichtiger sein sollte. Ich für meinen teil zocke noch sehr gerne alte titel wie gothic1 und 2 usw. und wenn man in dem spiel drin ist denkt man schon garnicht mehr daran.
Es ist doch ganz normal das es viiiiiel mehr midrange karten gibt als highend, da ja auch noch sehr oft komplett pc's gekauft wurden/werden in denen meistens dann eine 9600/6600 war und eine x1300/x1600 bzw. 7300/7600 drin ist.
Ich bin zwar selber dem wahn verfallen und habe für meine beiden x1900er karten ein vermögen ausgegeben(über 500 eur pro stck.), aber will auch erstmal die erste generation der d3d10 karten überspringen um es rechtfertigen zu können denke ich...:)
robbitop@work
2006-11-17, 10:57:58
High End Karten bringen die größten Margen also die größte Umsatzrendite.
Purer Umsatz ist für den Gewinn uninteressant.
Außerdem sind High End Karten Prestigeprodukte, die in den Print und Webmedien da sind, um Käufer zu akquirieren. Ähnlich läuft es in der Autobranche auch.
Außerdem bringt die High End Hardware neue Technologie. Sollte ein Hersteller nur noch Midrange entwickeln, so würde er nach einer gewissen Zeit technologisch und was Effizienzfeatures angeht hinterherhinken. Woran das liegt, weiß ich nicht.
Analog: Formel 1 und Autobranche.
Oder Weltraum und Kriegstechnik -> Ziviltechnik
das die meisten "gamer-rechnern" viel schwächer sind als die rechner der leute hier aus dem forum ist ja nichts neues. hier scheinen einige mitglieder zu glauben, dass games in 1024 oder 1280 ohne AA/AF unspielbar sind, aber so wird zum überwiegenden teil gezockt. grad besonders hier die member sind die spitze des eisberges, der überwiegende teil liegt eben weit darunter was die rechner-power und die ansprüche an die bildqualität angeht.
klar ist auch wieso solche karten wie die 8800gtx entwickelt werden: jeder hersteller will die schnellste karte haben, da sich das dann auch auf die verkäufe von mainstream und lowend auswirkt. hätte man die konkurrenz situation zwischen nv und ati nicht, hätte es so eine karte wie die 8800gtx nie gegeben, oder zumindest erst später in einem kleineren fertigungsprozess. und so spielereien wie sli oder gx2-karten hätte es auch nie gegeben, wenn sich die 2 großen nicht so in dem maße um die performance-krone streiten würden.
ollix
2006-11-17, 11:23:10
überrascht mich etwas, daß nur noch so wenige 9700 eingesetzt werden (im Verhältnis zu 9600 und 9800).
Matrix316
2006-11-17, 11:45:19
Ich würde gerne wissen was:
Other 8,541 14.76 %
Bei den Grafikkarten sein sollen? Sieht so aus als ob die GF2 und 3 fehlt, aber warum, wenns so viele sind? Oder gibts noch viele die TNT(2) oder Voodoo(2) Karten nutzen?
Armaq
2006-11-17, 11:52:36
S3 und Co?
Was man Nvidia hier zugute halten muss, ist die Verbreitung von SM3 durch die 6800 und 6600 Serien.
Diese Karten haben eindeutig SM3 in die Haushalte gebracht.
Gibt es eigentlich Berechnungen, die ungefähr prognostizieren wie sich ein solcher "generation swap" ausbreitet? Immerhin gehört meine 6800GT schon zum ältesten Alteisen.
edit:
@robbitop: die Stückzahlen sind so winzig, dass sie garantiert keine echte Auswirkung auf das Umsatz/Gewinnverhältnis haben.
deekey777
2006-11-17, 12:26:29
http://www.steampowered.com/status/survey.html
Generell kann man also durchaus sagen, dass eine neue Generation wie die 8800er-Serie von Nvidia keinerlei Relevanz am Markt entfaltet, wenn keine entsprechenden Derivate auf Midrange-Basis folgen.
Nun Frage ich, brauchen wir eine High-End 8800 GTX, wenn eine neue Generation für 200€ eine viel größere Verbreitung findet?
Warum entwickelt NV nicht einfach einen 8600GT und freut sich über eine Wahnsinnsnachfrage im 150 - 250€ Bereich.
Sicherlich könnte man erstmal schnellere Modelle entwickeln, diese aber einmotten und gleich eine preiswerte Modellvariante einführen?!
Nutzen ATI und NV vll. den Meinungsgeber einer Gruppe, damit sich die Serie gut verkauft - klassisches Leadership-Marketing?
Oder sitzen am Ende doch technikgeile Ingenieure soweit oben, dass sie sich richtig austoben dürfen?
Die Mainstream-Grafikkarten kommen zur CeBIT, aber ja: nVidia ist ein böses börsenorientiertes und gewinngieirgs Unternehmen und bringt auf den Markt zuerst die teure 8800GTX und das so kurz vor Weihnachten.
Ich hoffe, du verstehst, wie ich das meine. Du musst auch berücksichtigen, dass die kommenden 8600er schneller sein werden als heutige 7900er. nVidia und deren Partner müssen vorher die "alten" Grafikkarten loswerden, denn sonst wird sie niemand kaufen.
Kladderadatsch
2006-11-17, 13:00:09
dort spielen über 60% mit 60hz.:confused:
Armaq
2006-11-17, 13:03:46
dort spielen über 60% mit 60hz.:confused:
TFT?!
Armaq
2006-11-17, 13:04:18
Die Mainstream-Grafikkarten kommen zur CeBIT, aber ja: nVidia ist ein böses börsenorientiertes und gewinngieirgs Unternehmen und bringt auf den Markt zuerst die teure 8800GTX und das so kurz vor Weihnachten.
Ich hoffe, du verstehst, wie ich das meine. Du musst auch berücksichtigen, dass die kommenden 8600er schneller sein werden als heutige 7900er. nVidia und deren Partner müssen vorher die "alten" Grafikkarten loswerden, denn sonst wird sie niemand kaufen.
Das klingt einigermaßen plausibel. Nur könnten sich 200€ Karten mehr Leute zu Weihnachten kaufen.
robbitop@work
2006-11-17, 13:14:59
@robbitop: die Stückzahlen sind so winzig, dass sie garantiert keine echte Auswirkung auf das Umsatz/Gewinnverhältnis haben.
Da sagt Mercury Research was anderes. (das ist doch ein anderes Kalbier als diese lächerliche CS Umfrage)
R300 wurde IIRC >1 Millionen mal verkauft. Und gerade im High End Markt gibt's pro Stück die fettesten Margen.
Sicherlich reicht das nicht, um die Entwicklung einer kompletten Serie zu finanzieren aber "nichts" ist es sicher nicht.
Vertigo
2006-11-17, 13:17:09
Das klingt einigermaßen plausibel. Nur könnten sich 200€ Karten mehr Leute zu Weihnachten kaufen.
Mit 200€ pro Karte wäre man bei dem Entwicklungsaufwand aber nicht mehr profitabel. ;)
Kladderadatsch
2006-11-17, 13:36:30
TFT?!
ich kenne in meinem bekanntenkreis nicht eine einzige person, die einen tft hat. und der raren verbreitung aktueller hardware zufolge kann ich das bei denen irgendwie auch nicht glauben..
tokugawa
2006-11-17, 13:45:19
Man kann solche Effekte 100% auch auf langsamer Hardware abspielen. Sie läuft dann halt erst später flüssig.
Nicht wenn es Effekte sind, die nicht mal auf High-End-Hardware richtig flüssig rennen und für die Zukunft gedacht sind.
In der Echtzeitgrafikforschung kommen oft Effekte raus die aktuelle High-End-Hardware in die Knie zwingt, aber in ein paar Jahren dann in jedem Spiel verwendet werden.
Und wie jemand schon erwähnt hat: mit 5 oder weniger fps rumgurken ist nicht lustig beim Entwickeln. Ab 10 fps geht's.
Sven77
2006-11-17, 13:53:55
ich kenne in meinem bekanntenkreis nicht eine einzige person, die einen tft hat. und der raren verbreitung aktueller hardware zufolge kann ich das bei denen irgendwie auch nicht glauben..
oehm, bei mir siehts genau andersrum aus... ich kenne niemanden mehr, der noch nen CRT hat
ich kenne in meinem bekanntenkreis nicht eine einzige person, die einen tft hat. und der raren verbreitung aktueller hardware zufolge kann ich das bei denen irgendwie auch nicht glauben..
von der hardware kann man schlecht auf den monitor schließen. kenn einige in meinem bekanntschaftskreis die zwar miese hardware haben dafür aber nen tft.
Armaq
2006-11-17, 14:15:10
Mit 200€ pro Karte wäre man bei dem Entwicklungsaufwand aber nicht mehr profitabel. ;)
Man verkauft doch mehr Midrange-Karten. Ausserdem wäre es ein anderer Aufwand, wenn man eh nur für Midrange baut, aber High-End entwickelt. (aus jetziger Sicht Midrange)
Vertigo
2006-11-17, 14:21:00
Man verkauft doch mehr Midrange-Karten. Ausserdem wäre es ein anderer Aufwand, wenn man eh nur für Midrange baut, aber High-End entwickelt. (aus jetziger Sicht Midrange)
Aber doch nicht zum Launch einer neuen Serie. Das gibt die Produktionskapazität einfach (noch) nicht her. Außerdem gibt es bei Generationswechseln immer eine Übergangszeit - und da bietet es sich eben an, zunächst die teuren High-End-Modelle einzuführen und die alte Generation im Preis zu senken, so dass davon die Restbestände verkauft werden. Das geht nicht von jetzt auf gleich.
Außerdem sind die HighEnd-Karten für das Marketing extrem wichtig. Mid-Range only würde nie funktionieren. Das ist in ausnahmslos jedem Industriezweig so: geworben wird mit der Leistung der absoluten Topmodelle und dem Preis der Basisversion.
Armaq
2006-11-17, 14:47:49
Aber doch nicht zum Launch einer neuen Serie. Das gibt die Produktionskapazität einfach (noch) nicht her. Außerdem gibt es bei Generationswechseln immer eine Übergangszeit - und da bietet es sich eben an, zunächst die teuren High-End-Modelle einzuführen und die alte Generation im Preis zu senken, so dass davon die Restbestände verkauft werden. Das geht nicht von jetzt auf gleich.
Außerdem sind die HighEnd-Karten für das Marketing extrem wichtig. Mid-Range only würde nie funktionieren. Das ist in ausnahmslos jedem Industriezweig so: geworben wird mit der Leistung der absoluten Topmodelle und dem Preis der Basisversion.
Der Abverkauf von Altlasten leuchtet mir ein. Nur halt nicht die Philosophie Midrange erst viel später einzuführen. Wenigstens vorstellen sollte man sie doch, oder?
Matrix316
2006-11-17, 15:00:42
Vor allem wer käuft jetzt dann noch eine 7900GTX oder 7950GX2 wenn er quasi fürs gleiche Geld eine 8800GTS bekommt? Wollen die nicht erst mal die alten High End Karten loswerden? :rolleyes:
Ri*g*g*er
2006-11-17, 16:31:52
Tja so sieht es leider aus.
Wenn ich in meinem Bekannten-Kreis nachschau was die im Rechner habe.
Die müssen froh sein überhaupt CSS spielen zu können.
Von AA und AF haben die noch nie was gehört.
Bzw. sehen die keinen Treppeneffekte etc.
Aber die haben auch wenn Sie überhaupt einen TFT besitzten diesen nicht in der nativen Auflösung laufen (Augenkrebs lässt grüßen).
Die wissen garnicht das es eine native TFT Auflösung gibt etc.
Auch kaufen die Hardware nach Mediamarkt Prospekten ein.
Boah Geil 512 Ram auf der GeForce 6200 das ist ja eine geile Grafikkarte hehe
Tja so sieht das aus: Traurig aber wahr.
---
Als PC-User muss man ja froh sein heute nicht nur Konsolenportierung vorgesetzt zu bekommen. Bzw. jeden Abend den Videospielegott anbeten, das mal ein Shooter von einer Firma mit Support und zum größtem Teil ohne Bugs auf den Markt kommt.
---
Da hilft nur sich jeden Tag anstrengen und die Menschen aufklären im Umfeld.
Damit die Ihre 3 Kröten wenn Sie den mal nach 4 Jahren bereit sind in eine Grafikkarte etc. geld zu investieren nicht den bösen Marketingdrachen zum opfer fallen.
So long
Ri*g*g*er
Beispiel:
Me: 1900 XT
Freunde: 6200 und x700
Spasstiger
2006-11-17, 16:36:27
Naja, in meinem Bekanntenkreis bin ich eher der schwachbrüstig ausgestattete (P4 2,53 GHz, Radeon 9700), obwohl ich mich am Intensivsten mit der Thematik auseinandersetze. Aber Geld wächst nicht auf Bäumen und als Student hat man auch andere Sorgen als Geld verdienen.
Colin MacLaren
2006-11-17, 17:17:33
Ich frage mich nur warum Spiele dann nicht auf diese Hardwarebasis zugeschnitten werden. Wenn man sich alle Top-Titel des Herbstes anschaut, so steht in den Reviews immer dass diese negativ durch exorbitante Hardwareanforderungen auffielen. Da nützt auch eine etwas niedrigere Auflösung nicht viel. Für hohe Details setzten aktuelle Titel einen Core 2 Duo 6600 und eine 7900GTX+ quasi schon voraus.
Anno 1701
Dark Messiah of Might and Magic
Gohthic 3
Flight Simulator X
Medieval 2
Neverwinter Nights 2
Damit hat man im Grunde genommen schon alle Blockbuster des Herbstes durch. Und alle sind so fürchterlich schlecht optimiert dass selbst akutelle Highend-Hardware in Schwitzen kommt. Das ist blanker Irrsinn.
Gebrauchte Voodoo Banshee für 100DM -> trotzdem noch fast drei Jahre alles in HighDetails flüssig
Geforce 2Ms für 179DM -> zwei Jahre alles Top
Geforce 4 Ti für 200EUR -> zwei Jahre alles in High Details flüssig
Geforce 7800GT für 300 EUR -> nach einem Jahr hoffnungslos überfordert
Wundert mich kein bißchen, dass die meisten WoW und Sims 2 zocken oder noch beim alten CS 1.6 rumgurken. Alle in meinem Freundeskreis, die sich früher stets fleißig alle zwei Jahre neue Hardware kauften, sind in der XP2x00+ mi Geforce 4/Radeon 9600 - Klasse stehen geblieben und zocken bestenfalls mal noch paar ältere Titel wie Age of Empires 2 oder mal das Siedler II Remake. Nochmal richtig Geld in neue Hardware zu investieren hat eigentlich keiner Lust, da er genau weiß dass er in einem halben Jahr schon wieder anfangen darf den Detailregler auf Mittel zu schieben bzw. sie es gleich sein lassen wenn ich ihnen sag dass sie sich für 100 EUR gar nicht erst eine neue Graka kaufen brauchen, da die nicht mal mehr für aktuelles reichen wird.
PatkIllA
2006-11-17, 17:27:32
@Colin MacLaren
Ich glaub da trügen dich deine Erinnerungen.
Auch mit alten Karten lief nach zwei Jahren die neusten Titel nicht mit vollen Details. Und da waren die Auflösungen noch recht moderat und Dinge wie AA und AF gabs auch nicht.
Colin MacLaren
2006-11-17, 17:55:18
Doch, sie hielten eben ziemlich exakt zwei Jahre durch. Ich habe immer nach dem Grundsatz aufgerüstet: Wenn ein neues Spiel, dass ich sehr gern zocken möchte, in hohen Details (alles auf knapp unter dem Maximum und evt. mal den ganz bösen Hardwarefresser komplexe Charakterschatten aus) in 800x600 ohne AA/AF nicht mehr flüssig flüssig lief mußte neue Hardware her. Selbst akutelle Midrange-Karten sind bei o.g. Spielen ja schon arg grenzwertig.
PatkIllA
2006-11-17, 18:00:10
Bei der Voodoo Banshee reicht schon Quake3 als Gegenbeispiel. Da hat selbst die GF2 danach noch dran zu knappern.
Colin MacLaren
2006-11-17, 18:14:28
Quake 3 auf einer Voodoo Banshee war in 640x480 (was auf meinem damaligen Monitor nun nicht soo schlimm war) und paar Tweaks kein Problem. Ich glaub erst für Operation Flashpoint hatte ich die austauschen müssen. Und die Gefoce 2MX hatte mir noch über zwei Jahre treue Dienste geleistet, das letze was damit prima lief war Jedi Academy (ohne Schatten halt). Erst danach mußte die Geforce 4 her und seitdem ging es langsam bergab, die Schere installierte Basis - Hardwareanforderungen neuer Spiele fing an immer weiter auseinanderzuklaffen.
PS: Heute spielen die meisten zwar in 1024x768, aber ab der Radeon Radeon 9700-Ära ist das performancetechnisch kein Unterschied mehr zu 640x480, da eher andere Sachen in den niedrigen Auflösungen limitieren. Wenn es heute in 1024 ruckelt wirds in 640 nicht flüssig.
Dunkeltier
2006-11-17, 18:53:30
das die meisten "gamer-rechnern" viel schwächer sind als die rechner der leute hier aus dem forum ist ja nichts neues. hier scheinen einige mitglieder zu glauben, dass games in 1024 oder 1280 ohne AA/AF unspielbar sind, aber so wird zum überwiegenden teil gezockt. grad besonders hier die member sind die spitze des eisberges, der überwiegende teil liegt eben weit darunter was die rechner-power und die ansprüche an die bildqualität angeht.
klar ist auch wieso solche karten wie die 8800gtx entwickelt werden: jeder hersteller will die schnellste karte haben, da sich das dann auch auf die verkäufe von mainstream und lowend auswirkt. hätte man die konkurrenz situation zwischen nv und ati nicht, hätte es so eine karte wie die 8800gtx nie gegeben, oder zumindest erst später in einem kleineren fertigungsprozess. und so spielereien wie sli oder gx2-karten hätte es auch nie gegeben, wenn sich die 2 großen nicht so in dem maße um die performance-krone streiten würden.
Wenn man keine Ansprüche hat, zockt man halt mit Matschgrafik™. Seit der Voodoo 5 5500 nutze ich regelmäßig AA. Und mit dem erscheinen der Radeon 8500 LE halt immer mehr und besseres AF. Mit der Radeon 9700 Pro wurde dann ja irgendwie alles zugleich in eigentlich jeden Spiel möglich.
Meist kaufe ich eigentlich nur einfache, lediglich taktreduzierte XT oder GT Grafikkarten welche von der Hardware her nicht weiter beschnitten sind - und hole den Rest per OC raus. Nun ja, mit der GTX hat nVidia wohl vielen Menschen, welche wie ich denken, in die Eier gekniffen. Da heißt es nun entweder..., oder....
Spasstiger
2006-11-17, 18:53:39
Wenn es heute in 1024 ruckelt wirds in 640 nicht flüssig.
Stimmt nur bedingt. Need for Speed Carbon läuft bei mir (Radeon 9700) in 640x480 im Schnitt sicherlich doppelt so schnell wie in 1024x768 (selbst getestet mit fps-Anzeige) und auch die minimale Framerate steigt deutlich an (fast um 100%). Dennoch gibt es Situationen, in denen ich nicht mehr als 21 fps erreiche, da limitiert einfach die CPU (trotzdem besser als ~13 fps, die ich in 1024x768 ab und an hab).
Allerdings rutsche ich in 800x600 auch nicht unter diese 21 fps, weshalb ich in dieser Auflösung spiele.
reallord
2006-11-18, 00:38:03
Noch ma zur Survery... Die Ergebnisse von Crossfire vs SLI find ich dann doch schon sehr interessant...
Auch der Anteil an Retail Soundkarten scheint vernachlässigbar...
und die Russen wissen anscheinend nich ma so richtig was Steam iss ;D
Gummikuh
2006-11-18, 01:09:57
Nun ja, mit der GTX hat nVidia wohl vielen Menschen, welche wie ich denken, in die Eier gekniffen. Da heißt es nun entweder..., oder....
Hmm..die 8800GTS ist ja auch net sooo schlecht...ok ist beschnitten...aber trotzdem fett.
Also die 880GTX geht mir am A...uge vorbei...finde die GTS so vom preis her interessanter...aber solange man von ATI nix hört, behalte ich meine X1800XT...:rolleyes:
MiamiNice
2006-11-18, 02:51:28
Ich finde Stats, die über Steam gesammelt werden ziemlich wertlos. Das Hauptspiel in denen diese Stats ermittelt werden ist wohl CS in unterschiedlichen Versionen. Wie bekannt liegt der "Kiddy" Anteil bei diesem Game überdurchschnittlich hoch. Nicht jede/r Mami/Vati kauft seinem Kind aktuelle Hardware und nen 600€ Beschleuniger ist wohl noch seltener drin.
MfG
tokugawa
2006-11-18, 07:40:40
Damit hat man im Grunde genommen schon alle Blockbuster des Herbstes durch. Und alle sind so fürchterlich schlecht optimiert dass selbst akutelle Highend-Hardware in Schwitzen kommt. Das ist blanker Irrsinn.
Ich kann dieses Argument schon nicht mehr hören "sie sind so fürchterlich schlecht optimiert". Das stimmt einfach nicht!
Klar, sicher gibt's den einen oder anderen Titel, der noch besser performen hätte können, aber du kannst davon ausgehen dass die Blockbuster-Titel alle soweit optimiert wurden, dass man nicht wesentlich mehr Performance erwarten könnte.
Bedenke dass diese Blockbuster-Titel dafür auch graphisch einiges bieten (egal ob man das jetzt - vor allem etwa als Laie, der von Grafiktechnologie keine Ahnung hat - aktiv erkennt). Bloß weil die Technik drin ist, muß die Grafik ja für den Einzelnen subjektiv nicht als "revolutionär" gelten - aber trotzdem ist es dann alles andere als "schlecht optimiert".
Wenn dann kann man nur vorwerfen dass die Artists und Designer die Technologie nicht wirklich in subjektiv besser wahrgenommene Grafik umsetzen haben können, und nicht dass "schlecht optimiert" wurde.
Doch, sie hielten eben ziemlich exakt zwei Jahre durch. Ich habe immer nach dem Grundsatz aufgerüstet: Wenn ein neues Spiel, dass ich sehr gern zocken möchte, in hohen Details (alles auf knapp unter dem Maximum und evt. mal den ganz bösen Hardwarefresser komplexe Charakterschatten aus) in 800x600 ohne AA/AF nicht mehr flüssig flüssig lief mußte neue Hardware her. Selbst akutelle Midrange-Karten sind bei o.g. Spielen ja schon arg grenzwertig.
In 800x600 gelten deine Aussagen auch heute noch. Und du kannst nicht wirklich vergleichen wenn du damals von 800x600 ausgingst und heute verlangst dass dasselbe bei 1600x1200 oder was weiß ich gilt, wenn die Technik "pro Pixel" gestiegen ist, also wesentlich mehr Technologie/Effekt in einem einzelnen Pixel steckt als früher.
Tigerchen
2006-11-18, 08:29:47
Ich finde Stats, die über Steam gesammelt werden ziemlich wertlos. Das Hauptspiel in denen diese Stats ermittelt werden ist wohl CS in unterschiedlichen Versionen. Wie bekannt liegt der "Kiddy" Anteil bei diesem Game überdurchschnittlich hoch. Nicht jede/r Mami/Vati kauft seinem Kind aktuelle Hardware und nen 600€ Beschleuniger ist wohl noch seltener drin.
MfG
Hmm. Auf meinem Stammserver sind schon viele 30+ und einige so wie ich schon über 40. Kiddies kommen bei den Admins gar nicht gut an und sind meist schnell gebannt(Flamer/Assel/Cheater). Woher beziehst du dein Wissen?
haifisch1896
2006-11-18, 09:40:59
Bestimmt von den früheren öffentlichen Servern, als es noch kein Steam gab.
Colin MacLaren
2006-11-18, 12:48:56
Ich kann dieses Argument schon nicht mehr hören "sie sind so fürchterlich schlecht optimiert". Das stimmt einfach nicht!
Klar, sicher gibt's den einen oder anderen Titel, der noch besser performen hätte können, aber du kannst davon ausgehen dass die Blockbuster-Titel alle soweit optimiert wurden, dass man nicht wesentlich mehr Performance erwarten könnte.
Bedenke dass diese Blockbuster-Titel dafür auch graphisch einiges bieten (egal ob man das jetzt - vor allem etwa als Laie, der von Grafiktechnologie keine Ahnung hat - aktiv erkennt). Bloß weil die Technik drin ist, muß die Grafik ja für den Einzelnen subjektiv nicht als "revolutionär" gelten - aber trotzdem ist es dann alles andere als "schlecht optimiert".
Wenn dann kann man nur vorwerfen dass die Artists und Designer die Technologie nicht wirklich in subjektiv besser wahrgenommene Grafik umsetzen haben können, und nicht dass "schlecht optimiert" wurde.
In 800x600 gelten deine Aussagen auch heute noch. Und du kannst nicht wirklich vergleichen wenn du damals von 800x600 ausgingst und heute verlangst dass dasselbe bei 1600x1200 oder was weiß ich gilt, wenn die Technik "pro Pixel" gestiegen ist, also wesentlich mehr Technologie/Effekt in einem einzelnen Pixel steckt als früher.
Also rekapitulieren wir Dein Statement:
In den aktuellen Spielen steckt ganz viel neue Technik drin, die dann verständlicherweise auch entsprechend viel Leistung frißt. Gleichzeitig ist davon nur wenig zu sehen, da die Grafik kaum besser ist als wenn man das ganze ohne HDR-Protz und Co. darstellen würde (was Spiele wie Far Cry oder Doom 3 eigentlich gut zeigen, der graphische Sprung zu aktuellen Titeln hält sich sehr schwer in Grenzen und rechtfertigt keinesfalls dass man dafür dreimal soviel Rechen- und Grafikpower braucht). Und genau das verstehe ich dann unter schlecht optimiert. Noch lieber sind mir da solche Späße wie Need for Speed Carbon. Sieht aus wie die Vorgänger vor vier Jahren, braucht aber aktuelle Hardware.
Gleichzeitig verlang ich gar nicht dass eine heutige Midrange-Grafikkarten zwei Jahre lang Top-Leistung in 1600x1200 mit 8xAA bringen, mir, und wohl auch den meisten Usern jenseits des kleinen Kreises von Hardwareenthusiasten die jeden Tag im 3DCenter und Forumdeluxx unterwegs sind, reichen wohl nach wie vor 800x600 oder vielleicht heute eher 1024x768.
Nur versuch mal mit einer 9800Pro bzw. 6600GT Gothic 3 und Co. mit halbwegs anständigen Details zu zocken, oder überleg Dir was Du erwarten kannst, wenn Du auf einer 7600GS, oder von mir aus 7600GT in zwei Jahren noch etwas aktuelles zu spielen willst.
Fakt ist einfach, dass die Hardwareanforderungen aktueller Spiele der installierten Basis immer mehr davon laufen. Waren früher die Lowend-Karten wie Geforce 2MX für 179DM noch echte empfehlenswerte Schnäppchen an denen man lange Freude hatte, sind Karten für 100EUR heutzutage völlig indiskutabel und selbst wer 300EUR investiert muß nach einem Jahr schon wieder kräftig die Details herunterschrauben. Nicht nur die phösen Raubkopierer und die Konsolen sind schuld, dass die Absatzzahlen im PC-Spiele-Bereich sinken, sondern eben auch dieses Phänomen. Kenne genug Leute die sich früher ohne zu zögern Gothic 3 gekäuft hätten sich aber jetzt sagen "Haufenweise Bugs und läuft eh nicht bei mir! Um schon wieder aufzurüsten ist mir da das Geld zu schade.". Logisch dass dann alle bei CS 1.6 und Quake 3 bleiben oder gleich auf Browsergames umsteigen.
iDiot
2006-11-18, 13:00:27
Hmm also ich habe eine 7800GTX mit 256MB gekauft, und ehrlich gesagt gibt es kein Spiel das auf 1280x1024 Max Detals mit 2 oder 4x AA ruckelt.
Aufgefallen ist mir aber, das wieder vermehrt CPU Power gefordert wird.
Aquaschaf
2006-11-18, 13:00:41
Nur versuch mal mit einer 9800Pro bzw. 6600GT Gothic 3 und Co. mit halbwegs anständigen Details zu zocken
Beispielsweise Oblivion, Fear oder Quake 4 kann man mit den Karten ohne auf ganz niedrige Einstellungen ausweichen zu müssen noch gut spielen. Wenn man gleichen Maßstab anlegt, dann ist die Halbwertszeit von Grafikkarten in den letzten Jahren gestiegen.
Colin MacLaren
2006-11-18, 13:10:37
Die Spiele haben auch alle schon wieder einige Monate auf dem Buckel. Und selbst Doom 3 war auf meiner Radeon 9800 Pro schon mit einigen (zugegebenermaßen vertretbaren Kompromissen) verbunden. Wie Quake 4 und FEAR da darauf laufen kann ich nicht mehr beurteilen, sicher aber nicht besser. Ich rede aber von aktuellen Spielen, also Medieval 2, Gothic 3 und Co. Da sieht die Welt schon ganz anders aus.
Worauf ich eigentlich hinaus will: die meisten hier im Forum leben ein bißchen in einer anderen Welt, die Ergebnisse des STEAM-surveys haben imho sehr wohl etwas mit der Realität zu tun.
Wenn ich mir Kommentare wie eben Azis durchlese (nicht böse gemeint): Frei übersetzt: "Ich habe einen aktuellen Highend-Prozessor, den noch mal ordentlich übertaktet und dazu eine Grafikkarte die vor einem reichlichen halben Jahr das absolute Highend war. Alles läuft flüssig, ich weiß also nicht was Du hast." - Dann führt das bißchen an dem vorbei, was ich zum Ausdruck bringen wollte.
Aquaschaf
2006-11-18, 13:14:02
Mit Gothic 3 und Medieval 2 hast du genau 2 Spiele genannt, und zumindest Gothic 3 ist kein sehr repräsentatives Beispiel.
BK-Morpheus
2006-11-18, 13:19:09
http://www.steampowered.com/status/survey.html
Generell kann man also durchaus sagen, dass eine neue Generation wie die 8800er-Serie von Nvidia keinerlei Relevanz am Markt entfaltet, wenn keine entsprechenden Derivate auf Midrange-Basis folgen.
Nun Frage ich, brauchen wir eine High-End 8800 GTX, wenn eine neue Generation für 200€ eine viel größere Verbreitung findet?
Warum entwickelt NV nicht einfach einen 8600GT und freut sich über eine Wahnsinnsnachfrage im 150 - 250€ Bereich.
Sicherlich könnte man erstmal schnellere Modelle entwickeln, diese aber einmotten und gleich eine preiswerte Modellvariante einführen?!
Nutzen ATI und NV vll. den Meinungsgeber einer Gruppe, damit sich die Serie gut verkauft - klassisches Leadership-Marketing?
Oder sitzen am Ende doch technikgeile Ingenieure soweit oben, dass sie sich richtig austoben dürfen?
Gute Frage...hast schon Recht.
Viell. produzeieren die trotzdem die Highendkarte, damit ihr Ruf sagt sie seien die tollsten um somit in all ihren Produkt-Bereichen gut dazustehen.
Vom Umsatz her ist es schonklar, dass sie viel mehr Umsatz im langsameren bis mittelschnellen Grafikkarten-Markt machen.
In so Hardwareforen wie hier und im Hardwareluxx bekommt man zwar eher den Eindruck, als wenn die meisten Leute Highend kaufen und OCen, aber im wirklichen Leben bzw. gemessen an allen PC Besitzern ist es viel mehr so, dass die meisten halt mittelmäßige bis langsame PCs kaufen. Das was hier Highend ist, dass ist was, was die meisten Ottonormal PC Benutzer als Ultra spezial krank ansehen.
Ich selber fahre auch schon seit langem eher auf der Schiene der besten Preis/Leistung, welche man halt eher im mittleren Preissegment trifft und bin damit auch zufrieden.
Colin MacLaren
2006-11-18, 13:32:23
Mit Gothic 3 und Medieval 2 hast du genau 2 Spiele genannt, und zumindest Gothic 3 ist kein sehr repräsentatives Beispiel.
Ich bezieh mich eigentlich auf fast das komplette Lineup der besseren Titel dieses Herbstes.
Anno 1701, Gothic 3, Dark Messiah of Might and Magic, FEAR Extraction Point, Flight Simulator X, Neverwinter Nights 2 und eigentlich läuft auch Need for Speed Carbon für das gebotene eher mäßig.
Spasstiger
2006-11-18, 13:35:34
Noch ma zur Survery... Die Ergebnisse von Crossfire vs SLI find ich dann doch schon sehr interessant...
Naja, das sagt aber noch nix über die Leistung aus. Bei Crossfire kann man zu 95% von High-End-Lösungen ausgehen, bei SLI dagegen können auch zwei GeForce 6600 drinstecken, die immer noch langsamer als eine GeForce 6800 wären. MediaMarkt hatte afaik auch mal nen SLI-Komplettrechner mit zwei GeForce 6600.
Ich finde Stats, die über Steam gesammelt werden ziemlich wertlos. Das Hauptspiel in denen diese Stats ermittelt werden ist wohl CS in unterschiedlichen Versionen. Wie bekannt liegt der "Kiddy" Anteil bei diesem Game überdurchschnittlich hoch. Nicht jede/r Mami/Vati kauft seinem Kind aktuelle Hardware und nen 600€ Beschleuniger ist wohl noch seltener drin.
MfG
Schwaches Argument, ich habe auch abgestimmt und habe noch nie CS gespielt. Es werden sehr viele andere Games über steam (ver-)betrieben.
Steam ist nicht nur eine Plattform für CS. Aber alles was nicht in deine kleine Welt reinpasst, kann nicht war sein. Stimmt??
gruss
Armaq
2006-11-18, 14:41:21
Gute Frage...hast schon Recht.
Viell. produzeieren die trotzdem die Highendkarte, damit ihr Ruf sagt sie seien die tollsten um somit in all ihren Produkt-Bereichen gut dazustehen.
Vom Umsatz her ist es schonklar, dass sie viel mehr Umsatz im langsameren bis mittelschnellen Grafikkarten-Markt machen.
In so Hardwareforen wie hier und im Hardwareluxx bekommt man zwar eher den Eindruck, als wenn die meisten Leute Highend kaufen und OCen, aber im wirklichen Leben bzw. gemessen an allen PC Besitzern ist es viel mehr so, dass die meisten halt mittelmäßige bis langsame PCs kaufen. Das was hier Highend ist, dass ist was, was die meisten Ottonormal PC Benutzer als Ultra spezial krank ansehen.
Ich selber fahre auch schon seit langem eher auf der Schiene der besten Preis/Leistung, welche man halt eher im mittleren Preissegment trifft und bin damit auch zufrieden.
Ich habe mir 2x High-End gekauft. Einmal zu Zeiten des Athlon XP mit 1700+ und Geforce 3 (keine TI-Modelle). Dann ein kleiner Refresh mit 2600+ und einer 9600XT. Schließlich mein A64 3500+ und 6800GT (von Anfang an auf 420/1100). Daraus wird wahrscheinlich ein x23800@2400 Mhz (schon vorhanden) und vll nach Weihnachten noch eine x1950pro. Wobei ich hier nochmal Kaufberatung in Anspruch nehmen werde.
Diese Kopplung hat mich eigentlich immer zufrieden gestellt. Immer High-End kaufen macht für mich preislich keinen Sinn. Aus dem Breitenspektrum heraus sehe ich auch kaum Notwendigkeit ausser halt durch das Leadership-Marketing.
p.s.: wie man sieht bin ich immer nett von nv zu ati gewechselt. ;)
Zur STEAM-PROBLEMATIK:
Valve hat einfach mal ein wahnsinnig erfolgreiches und innovatives Produkt auf den Markt gebracht. Ich habe zwar wieder ein paar GB runterladen müssen (Remake von XP-Prof), da ich kein Backup genutzt hatte, aber diese Variante des Spielervertriebs finde ich schlichtweg genial.
Anhand der Titel die über Steam laufen kann man auch die zukünftige Relevanz ablesen.
Jeder Publisher und Entwickler hätte gerne ein eigenes "Steam". Ich bin mir sicher, dass es in wenigen Jahren als die Vertriebsinnovation im Bereich Software gilt. Einzig die Preise müsste man noch ein bisschen nach unten justieren.
Ich finde Stats, die über Steam gesammelt werden ziemlich wertlos. Das Hauptspiel in denen diese Stats ermittelt werden ist wohl CS in unterschiedlichen Versionen. Wie bekannt liegt der "Kiddy" Anteil bei diesem Game überdurchschnittlich hoch. Nicht jede/r Mami/Vati kauft seinem Kind aktuelle Hardware und nen 600€ Beschleuniger ist wohl noch seltener drin.
MfG
Genau deshalb ist diese Statistik ja sehr wohl aussagekräftig, weil eben Durchschnittszocker (du nennst sie "Kiddys") befragt werden bzw. deren Hardware ermittelt wird. Und nicht jeder der CS 1.6 spielt, hat automatisch noch einen 500 Mhz Rechner.
Es ist eben ein Einblick in die tatsächliche Hardware-Realität, und da spielt ein 600 Euro 3D-Beschleuniger nur eine sehr untergeordnete Rolle.
Nun Frage ich, brauchen wir eine High-End 8800 GTX, wenn eine neue Generation für 200€ eine viel größere Verbreitung findet?
Warum entwickelt NV nicht einfach einen 8600GT und freut sich über eine Wahnsinnsnachfrage im 150 - 250€ Bereich.
Sicherlich könnte man erstmal schnellere Modelle entwickeln, diese aber einmotten und gleich eine preiswerte Modellvariante einführen?!
nvidia bzw tsmc kann momentan nichtmal genug karten fuer den high end markt entwickeln.
wenn du nur eine limitierte zahl herstellen und verkaufen kannst macht es doch sinn diese dort anzubieten wo man am meisten fuer das produkt kriegt.
genau das macht nvidia...
zu deiner frage, wann gibts einen guenstigen g80 mainstream chip:
typisch fuer nvidia waere nun g80 mainstream chips in 80nm herzustellen.
die wuerden dann wohl erst in ende q1 auftauchen denk ich.
oder, deutlich riskanter:
g80 mainstream in 90nm asap, die koennten dann schon sehr bald auftauchen.
90 kostet mehr als 80 kann aber schneller auf den markt. gleichzeitig 65nm pushen und dann in 6monaten den markt mit einem sehr guenstigen 65nm g80 mainstream chip ueberfluten ehe amd/ati wissen was los ist :D
riskant, aber wenns klappt kriegt amd/ati maechtig einen auf den deckel :D
schwer zu sagen, ohne zu wissen wie die kapazitaeten von 90 80 und 65nm aussehen und aussehen werden und wie schwierig es ist den 90 80 und 90 65 sprung zu machen.
Armaq
2006-11-19, 13:16:20
Da sehe ich aber die Gefahr eines zu technikverliebten Launches. 65nm würde mich an Apples ersten PDA erinnern. Keiner rechnete damit und niemand sah die Notwendigkeit - ein paar Jahre später hat sich die Technologie durchgesetzt.
Die Problematik bei 65nm in G8x sehe ich in der Technologie - ist sie für Grafikchips schon gereift?
Eigentlich ist doch die Frage, ob dieser Tech-Wahn anhält, oder sich der Markt auch wieder beruhigt. Denn die Launches von Refreshes und NextGen mit der damit verbundenen Einkaufsgeilheit der User wird nich ewig anhalten.
Durch die immer stärkere Präsenz von Spielen innerhalb der Medienlandschaft - selbst Spiegel, Focus und Stern bringen regelmäßig kleine Ausblicke - ist auch die Aufmerksamkeit auf die damit verbundenen Technologie gestiegen. Vor allem Heranwachsende werden noch schneller an die Produkte herangeführt.
Du willst ein ProGamer sein, dass geht nur mit Nv/Ati und einer Intel Extreme Edition.
Das die Eltern dem dann natürliche (finanzielle) Grenzen setzen ist halt die Konsequenz die zu Verbreitung von Midrange-Karten beiträgt. Mutti du zu Weihnachten kommt die und die Grafikkarte raus - Mutter rennt vll. sogar in ein Fachgeschäft und dort sagt man ihr, auf Nachfrage, die für 200€ tut es auch. Ergo kommt eine Zielgruppe meist an eine preiswertere Variante. Das diese dann mit der ersten "richtigen" Kohle auch mal ein bisschen mehr zulange ist sicherlich nicht ungewöhnlich - frisierter Golf.
Für die großen Hersteller stellt sich doch die Frage, wie lange kaufen diese Leute eine teurere Karte, bis sich ihnen die "Notwendigkeit/Bedürfnisse" nicht mehr aufzeigen? Mit dem erscheinen einer neuen Konsolengeneration dürfte das noch stärker kollidieren. Schließlich braucht man hier auch keine neuen Treiber (wobei das ja anscheinend auch der Vergangenheit angehört, aber wenigstens machen die Konsolen es automatisch).
Ich sehe als einzige Möglichkeit die Entwicklung von Produkten (Spielen). Damit kann Nv/Ati aufzeigen wo der Hammer hängt. Tech-Demos werden es nicht bringen.
Man stelle sich den Launch vom G90 vor, mit einem darauf optimierten Spiel. Das ist wie Xbox mit Halo!
LovesuckZ
2006-11-19, 16:14:07
Mit dem erscheinen einer neuen Konsolengeneration dürfte das noch stärker kollidieren. Schließlich braucht man hier auch keine neuen Treiber (wobei das ja anscheinend auch der Vergangenheit angehört, aber wenigstens machen die Konsolen es automatisch).
Und trotzdem kaufen sich die Leute den G80.
Das bedeutet also, dass entweder du eine falsche Sichtweise hast oder die Leute keinen G80 besitzen und nur prollen wollen...
Armaq
2006-11-19, 16:54:20
Und trotzdem kaufen sich die Leute den G80.
Das bedeutet also, dass entweder du eine falsche Sichtweise hast oder die Leute keinen G80 besitzen und nur prollen wollen...
Wie viele PS3, Xbox360 Käufer haben eine G80?
Nicht jeder G80 User hat NextGen-Konsolen?
Ich hoffe du siehst deine etwas eingeschränkte Sichtweise. ;)
Etwas aus dem Zusammenhang nehmen und dann kommentieren, ohne den Zirkelbezug herzustellen, ist auch irgendwie nicht angebracht.
Ich verteufele keine High-End Käufer und habe selbst High-end gekauft, als ich die finanziellen Möglichkeiten hatte ...
tokugawa
2006-11-19, 17:47:12
Da sehe ich aber die Gefahr eines zu technikverliebten Launches. 65nm würde mich an Apples ersten PDA erinnern. Keiner rechnete damit und niemand sah die Notwendigkeit - ein paar Jahre später hat sich die Technologie durchgesetzt.
Die Problematik bei 65nm in G8x sehe ich in der Technologie - ist sie für Grafikchips schon gereift?
Eigentlich ist doch die Frage, ob dieser Tech-Wahn anhält, oder sich der Markt auch wieder beruhigt. Denn die Launches von Refreshes und NextGen mit der damit verbundenen Einkaufsgeilheit der User wird nich ewig anhalten.
Durch die immer stärkere Präsenz von Spielen innerhalb der Medienlandschaft - selbst Spiegel, Focus und Stern bringen regelmäßig kleine Ausblicke - ist auch die Aufmerksamkeit auf die damit verbundenen Technologie gestiegen. Vor allem Heranwachsende werden noch schneller an die Produkte herangeführt.
Du willst ein ProGamer sein, dass geht nur mit Nv/Ati und einer Intel Extreme Edition.
Das die Eltern dem dann natürliche (finanzielle) Grenzen setzen ist halt die Konsequenz die zu Verbreitung von Midrange-Karten beiträgt. Mutti du zu Weihnachten kommt die und die Grafikkarte raus - Mutter rennt vll. sogar in ein Fachgeschäft und dort sagt man ihr, auf Nachfrage, die für 200€ tut es auch. Ergo kommt eine Zielgruppe meist an eine preiswertere Variante. Das diese dann mit der ersten "richtigen" Kohle auch mal ein bisschen mehr zulange ist sicherlich nicht ungewöhnlich - frisierter Golf.
Für die großen Hersteller stellt sich doch die Frage, wie lange kaufen diese Leute eine teurere Karte, bis sich ihnen die "Notwendigkeit/Bedürfnisse" nicht mehr aufzeigen? Mit dem erscheinen einer neuen Konsolengeneration dürfte das noch stärker kollidieren. Schließlich braucht man hier auch keine neuen Treiber (wobei das ja anscheinend auch der Vergangenheit angehört, aber wenigstens machen die Konsolen es automatisch).
Ich sehe als einzige Möglichkeit die Entwicklung von Produkten (Spielen). Damit kann Nv/Ati aufzeigen wo der Hammer hängt. Tech-Demos werden es nicht bringen.
Man stelle sich den Launch vom G90 vor, mit einem darauf optimierten Spiel. Das ist wie Xbox mit Halo!
Ich tät ja gern wissen, was für ein Prozentsatz der Käufer der ersten Charge an G80-Karten Entwickler waren.
Ich glaub dass dieser Prozentsatz ziemlich hoch sein dürfte, zumindest höher als bei Midrange-Karten-Launches oder sogar mehr als bei Refreshes.
Ich weiß nur dass jede Firma und Forschungsinstitut das sich mit Grafik für Realtime Rendering beschäftigt, ziemlich gierig nach G80-Karten ist, ganz zu schweigen von den Leuten die dort arbeiten.
nvidia bzw tsmc kann momentan nichtmal genug karten fuer den high end markt entwickeln.
wenn du nur eine limitierte zahl herstellen und verkaufen kannst macht es doch sinn diese dort anzubieten wo man am meisten fuer das produkt kriegt.
genau das macht nvidia...
Irgendwo in deiner Aussage ist ein Fehler. Hier geht es um die Entwicklung, und nicht um die Produktion (das ist das was du als "entwickeln" bezeichnest). Die Produktion liegt hinten nach da die Nachfrage hoch ist. Die Entwicklung dagegen (um die es in diesem Thread geht), ist für den G80 abgeschlossen, NVIDIA kann also schon "genug Karten entwickeln" für den High-End-Markt - es gibt ja schon zwei!
TMSC hat mit der Entwicklung von NVIDIA-Karten nicht wirklich was zu tun, sondern mit der Produktion.
Also rekapitulieren wir Dein Statement:
OK, dann mach ma das jetzt umgekehrt:
In den aktuellen Spielen steckt ganz viel neue Technik drin, die dann verständlicherweise auch entsprechend viel Leistung frißt. Gleichzeitig ist davon nur wenig zu sehen, da die Grafik kaum besser ist als wenn man das ganze ohne HDR-Protz und Co. darstellen würde (was Spiele wie Far Cry oder Doom 3 eigentlich gut zeigen, der graphische Sprung zu aktuellen Titeln hält sich sehr schwer in Grenzen und rechtfertigt keinesfalls dass man dafür dreimal soviel Rechen- und Grafikpower braucht). Und genau das verstehe ich dann unter schlecht optimiert.
Dann ist "optimiert" das falsche Wort. Optimierung ist eine technische Maßnahme, ob ein Spiel auch graphisch "einschlägt", liegt aber an der Kombination Technik & Content/Art. Wenn ein Spiel mit aktueller Technik, die dadurch dass sie aufwändig ist, so viel frißt, nicht den "Impact" hat, dann liegt das am Artwork. Das hat nichts mit Optimierung zu tun, sondern einfach damit dass diese Technik ganz einfach schlecht inszeniert wird. D.h. es fällt den Spielern gar nicht auf, dass die Technik um einiges moderner ist, wenn der Content und das Artwork diese Technik nicht ins Rampenlicht zu stellen vermögen.
Daher bin ich es so leid wenn Leute von "schlecht optimierten Spielen" reden. Es ist nicht die Optimierung (d.h. es ist nicht die Technik), es ist der künstlerische Teil der Spieleproduktion (Content, Artwork, usw.)!
Noch lieber sind mir da solche Späße wie Need for Speed Carbon. Sieht aus wie die Vorgänger vor vier Jahren, braucht aber aktuelle Hardware.
Keine Ahnung was die da machen aber schon NFS:Underground fand ich nicht spektakulär im Vergleich zu den Hardware-Anforderungen. Aber wie gesagt, das liegt vielleicht daran dass bei dieser Art von Spielen irgendwie künstlerisch nicht mehr viel zu holen ist.
Gleichzeitig verlang ich gar nicht dass eine heutige Midrange-Grafikkarten zwei Jahre lang Top-Leistung in 1600x1200 mit 8xAA bringen, mir, und wohl auch den meisten Usern jenseits des kleinen Kreises von Hardwareenthusiasten die jeden Tag im 3DCenter und Forumdeluxx unterwegs sind, reichen wohl nach wie vor 800x600 oder vielleicht heute eher 1024x768.
Unter 800x600 oder 1024x768 laufen aber selbst aktuelle Titel mit maximalen Details, wenn man mal von spektakulär verbuggten "Spezialtiteln" absieht (Gothic 3 oder ähnliches).
Nur versuch mal mit einer 9800Pro bzw. 6600GT Gothic 3 und Co. mit halbwegs anständigen Details zu zocken, oder überleg Dir was Du erwarten kannst, wenn Du auf einer 7600GS, oder von mir aus 7600GT in zwei Jahren noch etwas aktuelles zu spielen willst.
Gothic 3 ist ein extremer Ausnahmefall. Die QA hat bei Gothic 3 scheinbar total versagt, oder JoWood wollte einen weiteren Fast-Konkurs verhindern und mußte es einfach rausbringen ohne dass es wirklich fertig ist... wer weiß. Ich arbeite nicht bei JoWood und kann es nicht nachvollziehen.
Fakt ist einfach, dass die Hardwareanforderungen aktueller Spiele der installierten Basis immer mehr davon laufen. Waren früher die Lowend-Karten wie Geforce 2MX für 179DM noch echte empfehlenswerte Schnäppchen an denen man lange Freude hatte, sind Karten für 100EUR heutzutage völlig indiskutabel und selbst wer 300EUR investiert muß nach einem Jahr schon wieder kräftig die Details herunterschrauben.
Gleichzeitig ist aber die verwendete Technik in Spielen so schnell gewachsen wie noch nie zuvor. Waren früher Spieleentwickler eher konservativ was neue Effekte anbelangt ("lieber nicht zuviel"), buttern heute Spieleentwickler alles rein, was noch vor wenigen Monaten erst auf wissenschaftlichen Computergrafik-Kongressen präsentiert wurde.
Das ist allerdings auch positiv zu sehen: noch nie zuvor gab es engere Zusammenarbeit zwischen Wissenschaft und Spieleindustrie. Die Spieleindustrie wird akademischer, und selbst wissenschaftlicher, und etabliert sich langsam als ganz eigener Forschungszweig (in ihren Richtungen "Game Design", "Game Art", "Game/Medien-Musik", und natürlich "Computergrafik" - bei letzterer ist die technische Seite gemeint).
Nicht nur die phösen Raubkopierer und die Konsolen sind schuld, dass die Absatzzahlen im PC-Spiele-Bereich sinken, sondern eben auch dieses Phänomen. Kenne genug Leute die sich früher ohne zu zögern Gothic 3 gekäuft hätten sich aber jetzt sagen "Haufenweise Bugs und läuft eh nicht bei mir! Um schon wieder aufzurüsten ist mir da das Geld zu schade.". Logisch dass dann alle bei CS 1.6 und Quake 3 bleiben oder gleich auf Browsergames umsteigen.
Casual Games sind ganz im Kommen. Sind auch die einzig wirklich profitablen (zumindest relativ risikofrei profitablen) Spiele heutzutage - auch dank Dauernervern wie "Jamba" und Co.
Ich glaube wie du auch, dass es auch daran liegt dass immer weniger "normale Nutzer" abseits von Freaks sich wirklich diese Hardware-Spirale antun wollen. Aber nicht nur, d.h. es den motivierten Entwicklern anzulasten, die enthusiastisch unbedingt einen neuen Effekt einbauen wollen, wäre etwas unfair.
Ich kenn selbst das Bedürfnis, irgendeinen coolen Effekt einbauen zu wollen, aber dann an der Hardware zu scheitern (gewisse Plattformen wie Handheld-Konsolen sind halt etwas limitiert...). Was glaubst du wie frustrierend das ist, dann irgendwie eine lahmere Variante einbauen zu müssen :)
Auf dem PC hab ich solche Einschränkungen kaum, aber das verführt natürlich auch. Aber andererseits: mit der Beschäftigung mit HIgh-End-Effekten, die erst durch neueste Hardware (nicht nur leistungs- sondern auch feature-mäßig) möglich wird, wird auch der Fortschritt gefördert, etwa auch der Fortschritt in der Wissenschaft der Computergrafik.
Nachtrag zu Technik vs. Content: Wir kommen auch immer näher an einen Punkt, wo neue Technik nicht automatisch "besser" aussieht. Gerade Gamer, die ja Laien sind was Computergrafik betrifft, erkennen sehr oft nicht mehr den Unterschied dazwischen was neue Technik an Vorteilen bringt, und sehen dann nur mehr dass die Performance "schlechter" ist. Zum Beispiel würden wohl normale 0815-Gamer nicht den Unterschied zwischen Raytraced Refractions oder einfacher Perturbations-Refraktion erkennen. Das ist gewissermaßen auch ein wahrnehmungspsychologisches Problem: für welche Effekte zahlt es sich wirklich aus, einen höherwertigen (und leistungsfressenderen) Effekt einzusetzen?
Aber nicht verzagen: auch in diese Richtung wird geforscht (etwa mit Eyetracking Testpersonen Spiele spielen lassen und mittracken, auf was sie überhaupt schauen).
Armaq
2006-11-19, 19:08:44
Ich tät ja gern wissen, was für ein Prozentsatz der Käufer der ersten Charge an G80-Karten Entwickler waren.
Ich glaub dass dieser Prozentsatz ziemlich hoch sein dürfte, zumindest höher als bei Midrange-Karten-Launches oder sogar mehr als bei Refreshes.
Ich weiß nur dass jede Firma und Forschungsinstitut das sich mit Grafik für Realtime Rendering beschäftigt, ziemlich gierig nach G80-Karten ist, ganz zu schweigen von den Leuten die dort arbeiten.
Siehst du, damit untermauerst du im Prinzip was ich sagen will. Für das Featureset eines Spieles ist die Midrange-Generation von entscheidenster Bedeutung.
Gibt es eine breite Unterstützung? Dann gibt es auch Games mit neuen Effekten. Auch wenn diese vll. langsam laufen.
Dein Einwand mit sichtbaren und unsichtbaren Features klingt recht interessant. Mir leuchtet zB. ein, dass ich eine präzisere Berechnungsgrundlage für HDRR brauche, was gibt es ansonsten für Effekte die von der Basis her nötig sind, aber im Endeffekt nicht viel bringen - SplinterCell 3 und 4 fallen mir spontan ein, was Optik und Performance angeht.
tokugawa
2006-11-19, 19:22:18
Siehst du, damit untermauerst du im Prinzip was ich sagen will. Für das Featureset eines Spieles ist die Midrange-Generation von entscheidenster Bedeutung.
Das ist aber doch eh immer klar gewesen oder?
Es ging ja nicht darum dass die Midrange-Generation von entscheidenster Bedeutung ist, sondern eigentlich darum, ob die High-End-Karten überhaupt irgendeine Bedeutung haben - und da würde ich definitiv "ja" sagen. Klarerweise haben die High-End-Karten nicht die primäre Bedeutung für Spiele die in aktueller Entwicklung sind, aber man sollte ja als Entwickler auch vorrausschauend denken, und da darf man die High-End-Generation einfach nicht ignorieren.
Gibt es eine breite Unterstützung? Dann gibt es auch Games mit neuen Effekten. Auch wenn diese vll. langsam laufen.
Ja, und wenn du dann noch miteinberechnest, wie lange ein Spiel zur Entwicklung braucht, ist es logisch dass man sich am Anfang das zu der Zeit aktuelle High-End anschaut - denn wenn das Spiel langsam fertig wird, sind die Eigenschaften der damaligen High-End-Generation bereits im Midrange gang und gebe.
Dein Einwand mit sichtbaren und unsichtbaren Features klingt recht interessant. Mir leuchtet zB. ein, dass ich eine präzisere Berechnungsgrundlage für HDRR brauche, was gibt es ansonsten für Effekte die von der Basis her nötig sind, aber im Endeffekt nicht viel bringen - SplinterCell 3 und 4 fallen mir spontan ein, was Optik und Performance angeht.
Es ist eigentlich eh klar: man kann noch so viel Effekte technisch einbauen, wenn diese inszenierungstechnisch nicht so "rübergebracht" werden dass sie auch noch der ignoranteste Laie bemerkt, bringen sie relativ wenig außer für die wenigen, die den technischen Background haben.
Das ist der Grund warum bei Normalmapping die Figuren alle so einen extremem "Specküberzug" hatten - erst mit einem hohen Specularterm bemerkt man überhaupt bei Normalmapping die Vorteile. Wäre dem nicht so, hätte jeder Laie nicht gesehen, warum Normalmapping anders ist als einfach eine normale 2D-Textur mit vorgerechneter Beleuchtung drüberzupappen.
Was im Prinzip auf "Technik allein macht noch keine gute Grafik. Gute Grafik macht gute Grafik" hinausläuft: die Künstler die daran arbeiten sind genauso wichtig wie die technologische Grundlage. Und das sag ich obwohl ich eigentlich im Programmiererteam sitze und die Artists eigentlich "die andere Seite" sind :)
Armaq
2006-11-19, 21:38:38
Das ist aber doch eh immer klar gewesen oder?
Es ging ja nicht darum dass die Midrange-Generation von entscheidenster Bedeutung ist, sondern eigentlich darum, ob die High-End-Karten überhaupt irgendeine Bedeutung haben - und da würde ich definitiv "ja" sagen. Klarerweise haben die High-End-Karten nicht die primäre Bedeutung für Spiele die in aktueller Entwicklung sind, aber man sollte ja als Entwickler auch vorrausschauend denken, und da darf man die High-End-Generation einfach nicht ignorieren.
Ja, und wenn du dann noch miteinberechnest, wie lange ein Spiel zur Entwicklung braucht, ist es logisch dass man sich am Anfang das zu der Zeit aktuelle High-End anschaut - denn wenn das Spiel langsam fertig wird, sind die Eigenschaften der damaligen High-End-Generation bereits im Midrange gang und gebe.
Nicht jedes Spiel hat solch lange Entwicklungszyklen.
Ausserdem muss man glaube ich schon noch weiter schauen, oder? Wenn ich an Half-Life denke und dann an HL2, dann muss Valve eher eine Glaskugel gehabt haben. :D
MiamiNice
2006-11-19, 22:24:55
Hmm. Auf meinem Stammserver sind schon viele 30+ und einige so wie ich schon über 40. Kiddies kommen bei den Admins gar nicht gut an und sind meist schnell gebannt(Flamer/Assel/Cheater). Woher beziehst du dein Wissen?
Dann guck Dich mal auf den ganzen Public Servern um, oder besuch mal ein CS-only Forum. Ich sage ja nicht das alle "Kids" sind, nur der Anteil ist sehr hoch.
MfG
LovesuckZ
2006-11-19, 22:50:21
Ich verteufele keine High-End Käufer
Nicht die Käufer, aber die Hardware.
Ansonsten ist das Bringen einer Mid-Range Serie am Anfang gefährlich, da das ganze "System" (Board, Treiber, Bugs) noch nicht 100% erkannt und beseitigt werden konnten.
Eine 8600GT zum jetzigen Zeitpunkt würde wie Bleich in den Regalen liegen, da ohne annährend funktionierende Treiber die Karten unverkäuflich wären.
Nicht jedes Spiel hat solch lange Entwicklungszyklen.
Dann ist die Engine aber auch nicht weiterentwickelt wurden, sondern leicht optimiert. Die ganzen Serienspiele (FIFA, NfS, Smackown) sehen fast gleich aus und führen Probleme von früheren Versionen jahrelang mit.
Eine Wntwicklung einer Engine dauert heutzutage Jahre, wenn sie auf langllebigkeit getrimt wird.
Armaq
2006-11-19, 23:07:36
Nicht die Käufer, aber die Hardware.
Ansonsten ist das Bringen einer Mid-Range Serie am Anfang gefährlich, da das ganze "System" (Board, Treiber, Bugs) noch nicht 100% erkannt und beseitigt werden konnten.
Eine 8600GT zum jetzigen Zeitpunkt würde wie Bleich in den Regalen liegen, da ohne annährend funktionierende Treiber die Karten unverkäuflich wären.
Aha und bei High-End für 500+€ sind solche Fehler verzeihbar? Mir erschließt sich deine Sichtweise gar nicht und ich glaube du hast auch keine und willst nur contra geben.:rolleyes:
edit: Auch Hardware verteufle ich nicht. Ich frage nur nach dem Zweck und wollte nur auf die Umfrage/Studie von Valve Hinweisen. Ebenfalls lag es mir am Herzen ein wenig Realitätsnähe in die Betrachtungsweisen zu bringen, da diese hier manchmal zu sehr in Richtung High-End tendiert. Obwohl der Titel schwer nach Bild klingt, gebe ich zu.
tokugawa
2006-11-20, 13:29:18
Nicht jedes Spiel hat solch lange Entwicklungszyklen.
Ausserdem muss man glaube ich schon noch weiter schauen, oder? Wenn ich an Half-Life denke und dann an HL2, dann muss Valve eher eine Glaskugel gehabt haben. :D
Naja, unter einem Jahr entwickelt sich kein Spiel, das auf Grafik achten muß (sprich, das überhaupt irgendwie High-End-Grafik haben will). Ich würd sogar sagen dass solche Spiele nicht typischerweise unter 2 Jahre fertig werden; selbst wenn fertige Middleware (Engines, usw.) verwendet wird, oder wiederverwendet wird (wie im Fall von EA).
Klar, Spiele die von vornherein nicht als graphisch anspruchsvoll geplant sind, können durchauch auch in unter einem Jahr entwickelt werden, aber unter einem halben Jahr spielt sich nichts ab - und ein halbes Jahr kann schon wieder eine Refresh-Generation später sein.
Und selbst diese jährlichen EA-Aufgüsse entstehen ja trotz der Zyklen nicht in unter einem Jahr, sondern schon wenn z.B. das diesjährige EA Sports BLABLA 2006 rauskommt, wurde schon eine Weile an BLABLA 2007 gearbeitet.
Aha und bei High-End für 500+€ sind solche Fehler verzeihbar? Mir erschließt sich deine Sichtweise gar nicht und ich glaube du hast auch keine und willst nur contra geben.:rolleyes:
Naja, High-End-Hardware wird eher von Spezialisten gekauft, die gut wissen, wie man diverse Problemchen beseitigt. Midrange-Karten müssen dagegen problemlos für jeden DAU rennen.
Bei echten Fehlern im Design oder der Produktion ist es natürlich nicht verzeihbar, aufgrund des Preises. Aber ich denke LovesuckZ spielt eher auf diverse Anfangsproblemchen hin, die durch Treiberupdates oder BIOS/Firmwareupdates gefixt werden können - was sich kein DAU antun würde.
edit: Auch Hardware verteufle ich nicht. Ich frage nur nach dem Zweck und wollte nur auf die Umfrage/Studie von Valve Hinweisen. Ebenfalls lag es mir am Herzen ein wenig Realitätsnähe in die Betrachtungsweisen zu bringen, da diese hier manchmal zu sehr in Richtung High-End tendiert. Obwohl der Titel schwer nach Bild klingt, gebe ich zu.
Naja, die Diskussion hat doch ziemlich klar ergeben dass High-End-Hardware durchaus ihren Sinn für Spezialisten (Entwickler etwa) hat (die paar Freaks die einfach immer das neueste haben müssen, kommen dann noch dazu).
Dass aber für die Masse nur Midrange interessant ist - und der Fokus von Hardwareseiten leider etwas zu stark in Richtung High-End geht - ist ja auch keine neue Erkenntnis.
Also insofern ist der Informationsgewinn in diesem Thread eher gering :) nichts von dem was hier gefallen ist, wäre irgendwas, was nicht jedem bewußt wäre hier, denk ich.
robbitop@work
2006-11-20, 13:45:04
Ich kann dieses Argument schon nicht mehr hören "sie sind so fürchterlich schlecht optimiert". Das stimmt einfach nicht!
Manchmal stimmt es schon. Demirug hat mittels seinem DX Debugger sich mal Far Cry in der Umsetzung angeschaut. Und ich erinnere mich, dass er die Hände über dem Kopf zusammengeschlagen hat, wie ineffizient viele Dinge umgesetzt worden sind.
Ich bin kein großer Programmierer, aber ich denke dass nicht jeder Spieleentwickler so fit in 3D und so bedacht darauf ist, Ressourcen auf Kosten der Zeit zu sparen, wie Demirug.
Bedenke dass diese Blockbuster-Titel dafür auch graphisch einiges bieten (egal ob man das jetzt - vor allem etwa als Laie, der von Grafiktechnologie keine Ahnung hat - aktiv erkennt). Bloß weil die Technik drin ist, muß die Grafik ja für den Einzelnen subjektiv nicht als "revolutionär" gelten - aber trotzdem ist es dann alles andere als "schlecht optimiert".
Ein Teil dieses Eindrucks könnte aus dem Gesetz des sinkenden Grenzertrages entstehen. Heutzutage kosten Effekte richtig Leistung, sind optisch aber nicht mehr in dem Verhältnis zu erkennen. Aber in der Summe sind sie doch sehr schön anzusehen.
Fakt ist, dass eine breite Anwendung von Effekten richtig Leistung kostet. Um ein Vielfaches mehr als stark vereinfachte Versionen dieser Effekte, die oftmals auch nicht so schlecht aussehen.
Wenn dann kann man nur vorwerfen dass die Artists und Designer die Technologie nicht wirklich in subjektiv besser wahrgenommene Grafik umsetzen haben können, und nicht dass "schlecht optimiert" wurde.
Ack, das ist auch eine Contentfrage. Oftmals wird, wie du weißt, auf Konsolen der Kontent so gut optimiert, dass es toll aussieht und nicht so teuer ist (so ist sogar Far Cry Instincts auf der XBOX1 sehr ansehnlich).
In 800x600 gelten deine Aussagen auch heute noch. Und du kannst nicht wirklich vergleichen wenn du damals von 800x600 ausgingst und heute verlangst dass dasselbe bei 1600x1200 oder was weiß ich gilt, wenn die Technik "pro Pixel" gestiegen ist, also wesentlich mehr Technologie/Effekt in einem einzelnen Pixel steckt als früher.
Naja, manchmal könnte man aber auch denken, die Entwickler aasen ohne auf die HW Basis der Abnehmer zu achten (was komerziell sehr wichtig wäre).
Die Anforderungen für Gothic3, Oblivion und Konsorten sind irre.
Ich habe auch das Gefühl, dass heutige Systeme schneller verfallen als "früher" (und das bei einer festen Auflösung).
tokugawa
2006-11-20, 14:01:19
Manchmal stimmt es schon. Demirug hat mittels seinem DX Debugger sich mal Far Cry in der Umsetzung angeschaut. Und ich erinnere mich, dass er die Hände über dem Kopf zusammengeschlagen hat, wie ineffizient viele Dinge umgesetzt worden sind.
Klar ist nicht jedes Spiel bis zum Anschlag optimiert. Ich hab aber was dagegen wenn irgendwie allgemein vorgeworfen wird, dass die eine angebliche "Mehrheit" der Spiele "total schlecht" laufen würde.
Far Cry läuft gut. Könnte natürlich auch besser laufen.
Es ist immer ein Trade-Off bei Optimierungen, auch insofern wie weit man optimiert und gleichzeitig den Code wartbar hält. Viele Optimierungen setzen vorraus, dass viele Teile des Codes in ein engeres Korsett gezwängt werden, aus dem sie nicht mehr herauskönnen.
Ich denke dass Far Cry eben genau auch darauf geachtet hat: eine Engine die leicht erweiterbar ist um graphische Features (wurde ja gemacht), sowie eine Engine die eine leichte Editierbarkeit der Umgebung hat (etwa über diesen Sandbox-Editor). Beides Dinge die ziemlich diametral zu allzu starken Optimierungsmethoden stehen.
Ich bin kein großer Programmierer, aber ich denke dass nicht jeder Spieleentwickler so fit in 3D und so bedacht darauf ist, Ressourcen auf Kosten der Zeit zu sparen, wie Demirug.
"Optimierung" an sich sagt ja nicht auf was man optimiert.
Optimierung kann sein:
- Resourcen sparen (etwa auf Kosten der Zeit)
- Zeit sparen (etwa auf Kosten des Resourcenverbrauchs)
- Wartbarkeit erhöhen (auf Kosten der beiden obigen Dinge)
uvm.
Da muß man sich jedes Spiel einzeln anschauen, auf was die besonders geachtet haben - aber generell würde ich schon sagen dass die Aussage dass Spiele generell "ach-so-schlecht optimiert sind", prinzipiell falsch ist und nur in einzelnen Fällen zutrifft.
Ein Teil dieses Eindrucks könnte aus dem Gesetz des sinkenden Grenzertrages entstehen. Heutzutage kosten Effekte richtig Leistung, sind optisch aber nicht mehr in dem Verhältnis zu erkennen. Aber in der Summe sind sie doch sehr schön anzusehen.
Genau das meinte ich auch im letzten Posting.
Fakt ist, dass eine breite Anwendung von Effekten richtig Leistung kostet. Um ein Vielfaches mehr als stark vereinfachte Versionen dieser Effekte, die oftmals auch nicht so schlecht aussehen.
Genau, deswegen bin ich auch ein ziemlicher Verfechter des "Billig-Hinfakens, wenn es mehr Leistung bringt und kaum schlechter aussieht" :)
Ack, das ist auch eine Contentfrage. Oftmals wird, wie du weißt, auf Konsolen der Kontent so gut optimiert, dass es toll aussieht und nicht so teuer ist (so ist sogar Far Cry Instincts auf der XBOX1 sehr ansehnlich).
Genau. Zudem - wenn man jetzt nicht 1:1-Umsetzungen ansieht - viele Konsolenspiele generell ein inspirierteres Design haben. Es ist halt nicht immer irgendein machoesker Elitesoldat, der halt alle Feinde abschießen muß, warum interessiert nicht.
Der emotionelle Impact von plausiblen Charakteren und plausibler Story kann oftmals eine Auswirkung haben wie das Spiel generell auf einen wirkt, abseits der Grafik selbst.
Naja, manchmal könnte man aber auch denken, die Entwickler aasen ohne auf die HW Basis der Abnehmer zu achten (was komerziell sehr wichtig wäre).
Die Anforderungen für Gothic3, Oblivion und Konsorten sind irre.
Gothic3 halt ich für einen Fehler der QA-Abteilung...
Oblivion hab ich nicht gespielt, aber auch hier gibt's ziemlich komfortable Editing-Funktionen, und wie bei Far Cry denk ich dass auch hier darauf geachtet wurde, dass möglichst viel möglichst einfach editierbar ist, auf Kosten einiger Performance.
Bei High-Performance-Shootern war ja früher üblich einen ziemlich kryptischen Editor zu verwenden (UnrealEd oder Q3-Radiant), der einem halt optimale Datenstrukturen (BSP-Trees) rausbäckt, was zwar dann im Spiel schnell ist, aber einem beim Levelbauen ziemlich Nerven kosten kann.
Wenn man in einem bekannten 3D-Package (3dsmax, Maya, XSI) modellieren kann, und diese Objekte dann einfach als "Level" oder "Objekt" bzw als Teil eines Levels zusammenklicken kann, kann das natürlich weniger optimal sein, ist aber gerade der Content-Arbeit sehr zuträglich. Und gerade Oblivion lebt vom Content - hier also in Richtung Content-Pipeline zu optimieren war also denk ich schon eine richtige Entscheidung.
Ich habe auch das Gefühl, dass heutige Systeme schneller verfallen als "früher" (und das bei einer festen Auflösung).
Das Gefühl hatte ich erst dieses Jahr, nachdem ich selbst mit moderner Technik einen Shooter für ein EU-Projekt entwickelt hab...
Armaq
2006-11-20, 23:03:45
Also insofern ist der Informationsgewinn in diesem Thread eher gering :) nichts von dem was hier gefallen ist, wäre irgendwas, was nicht jedem bewußt wäre hier, denk ich.
Das ein Featureset nur durch die Midrange-Generation geprägt wird ist mit Sicherheit keine gefestigte Erkenntnis, vor allem nicht in "Freak"-Foren.
Wäre ATI mit ihrer X800 Generation wesentlich erfolgreicher als Nvidia gewesen, hätten wir jetzt sicherlich eine andere Basis.
Eine 8800GTX ist sicherlich von Relevanz, was technischen Fortschritt angeht, aber ihre kleineren Geschwister bestimmten, was wir letztendlich auf dem Bildschirm zu sehen bekommen, ausser natürlich AA/AF.
Colin MacLaren
2006-11-20, 23:17:36
Ich habe auch das Gefühl, dass heutige Systeme schneller verfallen als "früher" (und das bei einer festen Auflösung).
Ich persönlich finde es fast schon erschreckend, dass eine Grafikkarte wie die meinige, die noch vor reichlich einem halben Jahr 300 EUR gekostet hatte und, da sie ja auch noch bißchen übertaktet wurde, nun nicht undbedingt um Welten hinter dem damaligen Topmodell zurückhing, in aktuellen Titeln schon schwer an ihre Grenzen stöpt und ich anfangen muß die Regler für die Textur- und Schattenualität in die mittlere Position zu verschieben bzw. mir überlegen muß ob ich die jeweilige "Next-Gen"- (sprich HDR-)Option nicht ganz ausschalte da spätestens bei 20 fps die Grenze erreicht ist wo der Spielspaß wirklich leidet. Oblivion finde ich gar nicht mal so schlimm, da kann man noch viel rausholen und das läuft imho für das Gebotene ganz passabel, erst recht wenn man noch ein paar Fan-Mods aufspielt. Aber was Gothic 3, Dark Messiah of M&M, NWN2 und Konsorten diesen Herbst in Sachen Performance abgeliefert haben macht mich doch bißchen nachdenklich wo die Reise hingehen soll.
Eine 8800GTX ist sicherlich von Relevanz, was technischen Fortschritt angeht, aber ihre kleineren Geschwister bestimmten, was wir letztendlich auf dem Bildschirm zu sehen bekommen, ausser natürlich AA/AF.
Nicht unbedingt. Bei den Top-Titeln konnte man bisher eigentlich nur auf High-End alles aufdrehen zum Launch.
Sumpfmolch
2006-11-21, 01:18:03
überrascht mich etwas, daß nur noch so wenige 9700 eingesetzt werden (im Verhältnis zu 9600 und 9800).
ich hab noch meine 9700pro drinnen...vielleicht sind einfach schon so viele von den dingern abgeraucht ? ich musste auch schon ALLE VIER lötstellen des mieserabelst verarbeiteten zusatzstromsteckers nachlöten....
zum thema hardwareanforderungen...ja die games diesen herbst waren teilweise ziemlich fordernd. hab davon nicht ein einziges gekauft (radeon 9700pro, 1gb ram...nein danke die ruckelei brauch ich mir nicht geben)....der geldbeutel freut sich.
Armaq
2006-11-21, 08:36:07
Nicht unbedingt. Bei den Top-Titeln konnte man bisher eigentlich nur auf High-End alles aufdrehen zum Launch.
Die Effekte werden aber aufgrund der Verbreitung von Hardware implementiert. Wie schnell sie dann sind ist eine andere Frage.
Die Effekte werden aber aufgrund der Verbreitung von Hardware implementiert. Wie schnell sie dann sind ist eine andere Frage.
Solang das Mainstream das gleiche kann ist das doch kein Problem (Bei der GeForce 4 MX wars ein *hust*).
Zum Survey:
Er sieht genauso aus, wie ich ihn erwartet hätte, bzw. ich ihn in meinem Umfeld täglich sehe.
Wer lesitet sich den schon eine Highend/Midend- Karte? Nur wer es zum Arbeiten braucht oder den PC als sein Hobby betrachtet. Die Basis dümpelt wohl weit abgeschlagen.
Ist aber doch überall so, mach gucke sich in anderen Hobbys um:
Wer von euch hat ein 10.000,00€ Fahrrad?
Und trotzdem werden sie gekauft bzw. haben sie ihre Berechtigung.
Zur aktuellen Diskussion:
Viele vergessen, dass die Sprünge bei der Grafik immer schwerer werden!
Viele Verbesserungen wirken sich nur im Detail aus, ziehen aber viel Leistung. Ab einem gewissen Grad kann man halt nicht mehr die Auflösung einfach hochbohren, die Texturen einfach größer machen.
Schatten ist hier z.B. ein gutes Beispiel. Für viele ist der Sprung von (gut gemachten" "Fake"- Schatten zu echten Schatten "nett", aber nichts wofür sie es einsehen viel Leistung auszugehen.
Alle schreien nach realistischerer Grafik, aber die neuen Games sollen auf der heutigen Highend-Generation in der gleichen Auflösung mit AA/AF tollen Texturen laufen!
"Das bisschen Lichteffekte/Schatten usw. kanns ja nicht sein!"
"Neu weil sich die Schatten jetzt bewegen?"
...
Armaq
2006-11-21, 17:57:12
Solang das Mainstream das gleiche kann ist das doch kein Problem (Bei der GeForce 4 MX wars ein *hust*).
Genau! Das ist ein absolutes Paradebeispiel für eine Generation, wo High-End einfach nicht federführend war.
Kann die Midrange-Generation weniger als die High-End Generation liegen die Beschleuniger einfach brach - was das Featureset angeht. Siehe x800/6800.
tokugawa
2006-11-21, 19:11:18
Das ein Featureset nur durch die Midrange-Generation geprägt wird ist mit Sicherheit keine gefestigte Erkenntnis, vor allem nicht in "Freak"-Foren.
Wäre ATI mit ihrer X800 Generation wesentlich erfolgreicher als Nvidia gewesen, hätten wir jetzt sicherlich eine andere Basis.
Eine 8800GTX ist sicherlich von Relevanz, was technischen Fortschritt angeht, aber ihre kleineren Geschwister bestimmten, was wir letztendlich auf dem Bildschirm zu sehen bekommen, ausser natürlich AA/AF.
Nicht nur. Ein nicht unwesentlicher Teil bestimmt auch die High-End-Hardware für die "nächste" Generation.
Dass du die X800-Generation angesprochen hast, ist ein gutes Beispiel. Die 6800er war feature-mäßig sehr attraktiv für Entwickler, wurde auch dementsprechend genutzt.
Es ist letztlich ein Henne-Ei-Problem, ob jetzt die installierte Basis die Spieletechnik bestimmt, oder die Spieletechnik die installierte Basis.
In der Praxis ist es ein wenig von beiden (vorsichtige Hersteller schauen nur auf die installierte Basis, risikoreichere Entwickler schauen wie sie technisch am weitesten kommen). Wobei natürlich jene Entwickler, die das Risiko scheuen die absolute Mehrheit sind.
Genau! Das ist ein absolutes Paradebeispiel für eine Generation, wo High-End einfach nicht federführend war.
Kann die Midrange-Generation weniger als die High-End Generation liegen die Beschleuniger einfach brach - was das Featureset angeht. Siehe x800/6800.
Das ist etwas stark einseitig formuliert. Siehe was ich oben geschrieben habe.
Schatten ist hier z.B. ein gutes Beispiel. Für viele ist der Sprung von (gut gemachten" "Fake"- Schatten zu echten Schatten "nett", aber nichts wofür sie es einsehen viel Leistung auszugehen.
Alle schreien nach realistischerer Grafik, aber die neuen Games sollen auf der heutigen Highend-Generation in der gleichen Auflösung mit AA/AF tollen Texturen laufen!
"Das bisschen Lichteffekte/Schatten usw. kanns ja nicht sein!"
"Neu weil sich die Schatten jetzt bewegen?"
...
Und gerade dynamische Schatten mit Selbstbeschattung empfinde ich - auch als Nicht-Computergrafiker - als eine der wesentlichsten Dinge, um eine gute Tiefenwahrnehmung (maßgeblich für 3D) zu bekommen.
Wenn aber selbst solch offensichtliche Fortschritte von Laien kaum beachtet werden, wundert es natürlich nicht dass dieselben Fortschritte in Dingen wie Beleuchtungsberechnung oder Refraktionen noch viel weniger bemerken.
Armaq
2006-11-22, 01:17:18
Lichtbrechung am PC klingt für auch schon vom der Logik her abstrus. :D
Aber sicher sind es zZ solche Grundlagen die vll. 2007/2008 zu den Fortschritten in Sachen sichtbarer Effekte führen. Wer schonmal eine Sonne im Spiegel durch ein gut geputztes Fenster gesehen hat, weiss sicher was ich meine.
tokugawa
2006-11-22, 18:12:55
Lichtbrechung am PC klingt für auch schon vom der Logik her abstrus. :D
Warum sollte das abstrus sein?
Siehe:
http://www.cg.tuwien.ac.at/~chiu/raytrace_effects.jpg
Lief auf einer 250 MHz GeForce Go 6600. Auf meiner GeForce 7950 GT läufts wirklich flüssig.
Mr.Soapdown
2006-11-22, 18:44:55
zum thema hardwareanforderungen...ja die games diesen herbst waren teilweise ziemlich fordernd. hab davon nicht ein einziges gekauft (radeon 9700pro, 1gb ram...nein danke die ruckelei brauch ich mir nicht geben)....der geldbeutel freut sich.
Diese Verhaltensweise ist für mich bewundernswert.
Das Problem ist doch auch, selbst wenn neue Effecte hinzukommen, kann die aktuelle HW es nicht flüssig wiedergeben. Meist ist doch erst die NextGen dazu in der Lage.
Diese Verhaltensweise ist für mich bewundernswert.
Das Problem ist doch auch, selbst wenn neue Effecte hinzukommen, kann die aktuelle HW es nicht flüssig wiedergeben. Meist ist doch erst die NextGen dazu in der Lage.
Wie gut das man bei den meisten Spiele die Effekte bze Details runterschrauben kann und dann auf älterer Hardware noch zocken kann ;)
Armaq
2006-11-22, 20:56:20
Warum sollte das abstrus sein?
Siehe:
http://www.cg.tuwien.ac.at/~chiu/raytrace_effects.jpg
Lief auf einer 250 MHz GeForce Go 6600. Auf meiner GeForce 7950 GT läufts wirklich flüssig.
Sicherlich geht so etwas. Und es sieht auch gut aus, aber Lichtbrechungseffekte auf einem 2D-Panel darstellen hat halt, meiner Meinung nach, irgendwas abstruses.
Ich bin halt nur ein Anwender und habe auch keine Ahnung von der Realisation eines solches Effektes.
Ich finde sie auch hübsch anzusehen, aber ich frage mich halt, ob man wirklich die Physik zum Beispiel nehmen sollte, oder vielmehr den Film.
Da wird retuschiert was nur geht! Warum sollte man ein Feld als Vorbild nehmen, welches solch extreme Mengen an Rechenleistung verschlingt?
Aquaschaf
2006-11-22, 21:11:22
Ich finde sie auch hübsch anzusehen, aber ich frage mich halt, ob man wirklich die Physik zum Beispiel nehmen sollte, oder vielmehr den Film.
Was hat das beides miteinander zu tun?
Mr.Soapdown
2006-11-22, 21:55:13
Wie gut das man bei den meisten Spiele die Effekte bze Details runterschrauben kann und dann auf älterer Hardware noch zocken kann ;)
Richtig, deswegen macht es sogar Spass ein älteres Game wieder raus zu kramen und mal mit vollen Details zu zocken.
Wenn ich mir diese steam statistik ansehe, kann ich nur grinsen. Die meisten zocken Cs oder css und haben alles was grafik betrifft so runter geschraubt (nicht unbedingt weil man sich kein neue Hw kaufen möchte)........nur zum Fraggen. Denn es geht auch so. Evtl. kommt auch das durchschnitts alter dazu, ich denke es sind eher junge Gamer, die noch die Füße zu Haus unter den Tisch stellen und kein eigenverdientes Geld investieren können. Diese eben zocken mit der HW bis nix mehr performancemäßig geht, oder es sind die ganz kühlen "Rechner" die nur investieren wenn´s von Nöten ist.
Zu UT2004 hab ich au schon mal gesagt, das man nur auf einem server mit gleichen settings connecten dürfte. Der eine hat alles voll an (incl. Gras usw.) der andere nix und fraggt dich immer weg, weil er dich besser sieht.
Armaq
2006-11-22, 22:38:57
Was hat das beides miteinander zu tun?
Es kann doch gut aussehen, aber muss nicht so aufwendig berechnet werden wie echte Physik. Von mir aus zumindest. Wenn es Wege gibt, gutes Aussehen ohne Physikerechnung hinzubiegen - von mir aus.
Aquaschaf
2006-11-22, 23:19:33
Es kann doch gut aussehen, aber muss nicht so aufwendig berechnet werden wie echte Physik.
Was verstehst du unter "echter Physik"? Z.B. Refraktion funktioniert in Echtzeit doch gerade erst wegen Näherungslösungen die nicht physikalisch korrekt sind, aber dafür schnell genug berechenbar. Grafik in Filmen ist etwas ganz anderes, das passt aus vielen Gründen nicht als Vergleich oder Vorbild für Videospiele.
Da wird retuschiert was nur geht! Warum sollte man ein Feld als Vorbild nehmen, welches solch extreme Mengen an Rechenleistung verschlingt?
Zunächst benutzen Grafiken in Filmen genauso, bzw. noch viel mehr "Physik" in dem Sinne in dem du das Wort gebrauchst. Außerdem: ein Film ist eine feste Folge von Bildern, ein Spiel nicht. Das man in einem Film ganz anders mit Nachbearbeitung umgehen kann sollte klar sein.
Armaq
2006-11-23, 12:35:26
Es geht halt mehr um die Masse an Trickeffekten. Das "Tricksen". Das ein Spiel etwas komplett anderes ist als ein Film - kein Disput. Nur finde ich ein gut gescriptetes Ereigniss, das richtig gut performt, besser als eine KI die vll. brillant ist, aber kaum lauffähig.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.