Archiv verlassen und diese Seite im Standarddesign anzeigen : Next-Gen-Konsolen?
fizzo
2010-12-28, 09:06:32
neue Nintendokonsole muss folgendes können:
- 720p
- BluRay-Laufwerk + ordentliches Mediacenter
- guter Onlinemodus ist Pflicht
- mindestens ~ 3x so leistungsfähig wie PS3/XBox360 (sollte 2013 kein Problem sein!)
- ordentliche Eingabegeräte (Gamepads, Maus, Tastaur)
- NIntendo muss ThirdParty-Titel unterstützen.
IMHO wird die neue Heimkonsole von Nintendo zeitnäher erscheinen als gedacht. N64 (1996) -> Gamecube (2001) -> Wii (2006) -> Next (2011?). Ich könnte mir ohne weiteres vorstellen, dass die Konsole ohne optischen Laufwerk (Speicherkarte?) auskommt. Das spart Lizenzgebühren, mindert die Lautstärkeentwicklung, senkt die Produktionskosten und die Konsole könnte noch kompakter konstruiert werden. Die Leistung erwarte ich auf PS360 Niveau damit die 3rd Partys auch Ihre Titel günstig portieren können.
mapel110
2010-12-28, 09:13:02
Die Leistung erwarte ich auf PS360 Niveau
So grottige GPUs und CPUs gibts aber gar nicht mehr. ^^
Die Nachfolger-Wii muss unbedingt grafisch potent sein und zwar weil:
1. - die Casualgamer(Omas, fette Mittvierziger, SingStarWhores) schon bedient sind und denen die Wii eh voll ausreicht. Die werden sich zu 100% keine neue Konsole holen.
2. - Die etwas anspruchsvollere Fraktion sich nicht mit 8 Jahre altem Grafikniveau zufrieden gibt
3. - die Leute gute ThirdParty-Titel haben wollen. Auf der Wii gibt es nichts dergleichen, deswegen sind 50% der Käufer verstimmt.
1. Blödsinn. Das beweist jede Konsolengeneration aufs neue.
2. Für Grafikfetischisten gibts den PC. Konsoleros sind leidensfähig.
3. Was meinst du damit?
Exxtreme
2010-12-28, 09:15:57
IMHO wird die neue Heimkonsole von Nintendo zeitnäher erscheinen als gedacht. N64 (1996) -> Gamecube (2001) -> Wii (2006) -> Next (2011?). Ich könnte mir ohne weiteres vorstellen, dass die Konsole ohne optischen Laufwerk (Speicherkarte?) auskommt. Das spart Lizenzgebühren, mindert die Lautstärkeentwicklung, senkt die Produktionskosten und die Konsole könnte noch kompakter konstruiert werden. Die Leistung erwarte ich auf PS360 Niveau damit die 3rd Partys auch Ihre Titel günstig portieren können.
Speicherkarten dürften wesentlich teurer sein als die Lizenzgebühren für die optischen Laufwerke.
SamLombardo
2010-12-28, 09:36:15
2. Für Grafikfetischisten gibts den PC. Konsoleros sind leidensfähig.
Na. Sowohl XboX360 als auch PS3 zeig(t)en das Gegenteil. Die waren zu ihrem Erscheinen jedem PC im Punkto grafisch Gebotenes überlegen. Nicht wenige PC Spieler sind damals schwach geworden (mich eingeschlossen). Dass das aktuell nicht mehr so ist ist, weil die Konsolen vier-fünf Jahre alt sind, ist auch klar. Der Satz ist so nicht generell richtig;)
fondness
2010-12-28, 09:41:52
Na. Sowohl XboX360 als auch PS3 zeig(t)en das Gegenteil. Die waren zu ihrem Erscheinen jedem PC im Punkto grafisch Gebotenes überlegen. Nicht wenige PC Spieler sind damals schwach geworden (mich eingeschlossen). Dass das aktuell nicht mehr so ist ist, weil die Konsolen vier-fünf Jahre alt sind, ist auch klar. Der Satz ist so nicht generell richtig;)
Das ist ja auch schlichtweg Unsinn.
john carmack
2010-12-28, 10:29:36
Das ist ja auch schlichtweg Unsinn.
Neee, aber das stimmt schon. Konsolen sind zum Zeitpunkt Ihres erscheinens einem PC ebenwürdig. Aber eben nur 1/2 - 1 Jahr...
san.salvador
2010-12-28, 11:03:04
Na. Sowohl XboX360 als auch PS3 zeig(t)en das Gegenteil. Die waren zu ihrem Erscheinen jedem PC im Punkto grafisch Gebotenes überlegen. Nicht wenige PC Spieler sind damals schwach geworden (mich eingeschlossen). Dass das aktuell nicht mehr so ist ist, weil die Konsolen vier-fünf Jahre alt sind, ist auch klar. Der Satz ist so nicht generell richtig;)
So ein Nonsens. Xbox 360/PS3 war die erste Konsolengeneration, die schon beim Release der PC hinterher gewatschelt ist.
Deathcrush
2010-12-28, 11:16:08
Dennoch waren die Spiele ende 2005 grafisch herausragend. Ich kann mich da noch an Kameo und PGR erinnern, die immer auf diesen Spielestationen liefen. Ich fand das damals sehr beeindruckend :) Und als dann GoW erschien, war es um mich geschehen ;)
Avalox
2010-12-28, 11:19:05
So ein Nonsens. Xbox 360/PS3 war die erste Konsolengeneration, die schon beim Release der PC hinterher gewatschelt ist.
Na ja, dieses gab es schon öfter in der Geschichte. Reihenweise sind Konsolen technisch schlechter gewesen, als die Heim Microcomputer zu dieser Zeit.
Eher ist es eine Ausnahme, wenn eine Konsole tatsächlich mal irgendwo deutlich zukunfsweisender bestückt war. Ich denke das letzte mal im PC Bereich Anfang der 90er Jahre. Was allerdings am 3D Beschleuniger lag, welche sich ja im Unterhaltungsbereich am PC erst sehr spät und mit Aufkommen von 3dfx überhaupt etablieren konnte.. Dieses Versagen der PC Plattform haben eben Konsolen zu dieser Zeit ausnutzen können.
Der PC ist eh generell ein technologischer Spätzünder, welcher dann allerdings wettbewerbsgesteuert einen einmal eingefahrenen Bereich immer bis zum Exzess treibt.
Wenn man allerdings z.B. technologischen Fortschritt abseits von eh immer uninteressanter werdender Grafik- und CPU-Leistung definiert,so erkennt man, dass auch heute dort der PC wieder meilenweit der Konsole hinterher hinkt.
So ist die Steuerung nun bei allen Konsolen weit fortschrittlicher, als am PC. Die Wii war dort die einzig wahre NextGen Konsole gewesen, kann man nun im Nachgang guten Gewissens feststellen.
Wenn doch aber eines konsequent beobachtet werden kann, dann doch dieses, dass Hardware für sich völlig uninteressant ist. Die Software macht die Plattform und dort ist der Vorsprung der Konsolen vor dem Heim-Microcomputer so groß, wie noch niemals zuvor.
Deathcrush
2010-12-28, 11:32:15
Wobei ich nicht glaube, das die XBox360 bei Release rückständig war. Welcher PC hatte ende 2005 schon eine Mehrkern-CPU + eine Grafikkarte mit UF Shader etc.
N0Thing
2010-12-28, 11:33:13
So ist die Steuerung nun bei allen Konsolen weit fortschrittlicher, als am PC. Die Wii war dort die einzig wahre NextGen Konsole gewesen, kann man nun im Nachgang guten Gewissens feststellen.
Sie bieten zumindest eine auf dem PC bisher nicht genutzte Steuerung an. Einen Fortschritt im Sinn von Verbesserung sehe ich darin nicht, zumindest nicht pauschal, sondern nur ein breiteres Band an Möglichkeiten.
thade
2010-12-28, 11:34:28
Na. Sowohl XboX360 als auch PS3 zeig(t)en das Gegenteil. Die waren zu ihrem Erscheinen jedem PC im Punkto grafisch Gebotenes überlegen. Nicht wenige PC Spieler sind damals schwach geworden (mich eingeschlossen). Dass das aktuell nicht mehr so ist ist, weil die Konsolen vier-fünf Jahre alt sind, ist auch klar. Der Satz ist so nicht generell richtig;)
Kameo und vor allem PGR3 haben bei mir einen Aha-Effekt ausgelöst. PGR3 war allen anderen Rennspielen optisch deutlich voraus. :)
Avalox
2010-12-28, 11:45:04
Sie bieten zumindest eine auf dem PC bisher nicht genutzte Steuerung an. Einen Fortschritt im Sinn von Verbesserung sehe ich darin nicht, zumindest nicht pauschal, sondern nur ein breiteres Band an Möglichkeiten.
Verbesserung ist dort immer individual zu betrachten.
Der Cowboy, welcher durch die Prärie ritt, wird das Auto auch nicht als Verbesserung gesehen haben. Denn dieses fährt ja nicht mit Gras und Tankstellen gab es in der Prärie auch nicht. Nur konnte sich niemand dem Fortschritt des Autos entziehen.
Die Bewegungs-/Gestensteuerung ist der größte und nachhaltigste Innovationsschritt der aktuellen Konsolengeneration gewesen. Vermutlich die größte Innovation der Konsolen seit Einführung der optischen Speichermedien.
SamLombardo
2010-12-28, 11:53:38
Wobei ich nicht glaube, das die XBox360 bei Release rückständig war. Welcher PC hatte ende 2005 schon eine Mehrkern-CPU + eine Grafikkarte mit UF Shader etc.
Gar Keiner. Daher ist SanSalvadors Geschreibsel auch falsch. Sowohl hardwaremäßig war die Box im Vorteil und Spielegrafikmäßig ebenso (deutlich). Von den Effekten und plastischen Texturen die Kameo auf den Bildschirm gezaubert hat konnte der PC noch lange danach nur träumen. Oft war es damals sogar so, dass die Multiplattformspiele auf der Box besser aussahen (bessere Beleuchtung, schönere Texturen) als auf dem PC (TR Legend, GRAW, Splinter Cell CT waren solche Beispiele.) und noch dazu schneller liefen. Heute ist es natürlich umgekehrt, einfach weil inzwischen vier, fünf Jahre vergangen sind.
PS: Ich bin kein klassischer Konsolero, sondern lediglich Grafikfeteschist:D Zur Zeit spiele ich fast ausschließlich am PC, das war vor vier Jahren keineswegs so, obwohl ich immer einen Highend Spiele PC hatte.
Exxtreme
2010-12-28, 11:58:46
Gar Keiner. Daher ist SanSalvadors Geschreibsel auch falsch. Sowohl hardwaremäßig war die Box im Vorteil und Spielegrafikmäßig ebenso (deutlich). Von den Effekten und plastischen Texturen die Kameo auf den Bildschirm gezaubert hat konnte der PC noch lange danach nur träumen. Oft war es damals sogar so, dass die Multiplattformspiele auf der Box besser aussahen (bessere Beleuchtung, schönere Texturen) als auf dem PC (TR Legend, GRAW, Splinter Cell CT waren solche Beispiele.) und noch dazu schneller liefen. Heute ist es natürlich umgekehrt, einfach weil inzwischen vier, fünf Jahre vergangen sind.
Gegen einen High-End-PC konnte die aktuelle Konsolengeneration zum Release nicht mehr anstinken und zwar in keinerlei Hinsicht. Und das ist ein Novum denn davor war's immer anders auch wenn es bei der PS2 nicht mehr uneingeschränkt so war. Lass dich nicht von irgendwelchen MHz-Zahlen blenden denn die Konsolenhardware ist idR. bei weitem nicht so effizient.
Avalox
2010-12-28, 12:05:51
Und das ist ein Novum denn davor war's immer anders auch wenn es bei der PS2 nicht mehr uneingeschränkt so war.
Das ist doch Quatsch. Eigentlich war es nur in der Generation Playstation 1 Geräten so und vorher nicht und dann auch nie wieder.
Haben halt nur viele mit der Playstation 1 (oder einen anderen Gerät dieser Generation) hier angefangen und sehen diesen Ausnahmefall als maßgeblich.
Exxtreme
2010-12-28, 12:08:26
Das ist doch Quatsch. Eigentlich war es nur in der Generation Playstation 1 Geräten so und vorher nicht und dann auch nie wieder.
Die PS2 konnte mit Polygonen um sich werfen da konnte der damalige PC-Zocker nur davon träumen. Nicht vergessen, damals gab es keine T&L-Units auf Grafikchips und das musste die CPU machen. Und die war darin verdammt lahm.
Avalox
2010-12-28, 12:14:13
Die PS2 konnte mit Polygonen um sich werfen da konnte der damalige PC-Zocker nur davon träumen. Nicht vergessen, damals gab es keine T&L-Units auf Grafikchips und das musste die CPU machen. Und die war darin verdammt lahm.
PS2 Jahr 2000.
Es war die Zeit der GF2 und der Voodoo5 5500. Es war die Zeit der schnellen Pentium 4 (als die Netburst Welt noch i.O. war)
Natürlich gab es auch T&L auf dem Grafikchip.
Nur gab es die passenden PC Spiele nicht. So wie es heute auch keine passenden PC Spiele für aktuelle PC Hardware gibt.
Deshalb ist die Software das Maß der Dinge und nicht die Hardware.
|-Sh0r7y-|
2010-12-28, 12:16:15
Naja also eine voodoo Karte mit ordentlich Füllrate hat schon bisschen mehr herrgemacht als eine ps1...
Destruktion Derby 2 auf nen schlechten 486 oh oh.... grafik zwar besser als auf psx gewesen dafür aber nur mit 2 fps ;)
NFS ist Grafisch auf pc auch besser gewesen vorallem als glide zum einsatz bei der se gekommen ist.
Edit: kann mich nicht erinnern das der PC einer Konsole nicht standhalten konnte...
deekey777
2010-12-28, 12:20:29
Die PS2 konnte mit Polygonen um sich werfen da konnte der damalige PC-Zocker nur davon träumen. Nicht vergessen, damals gab es keine T&L-Units auf Grafikchips und das musste die CPU machen. Und die war darin verdammt lahm.
Da gab's schon die T&L-Einheit: Geforce256.
Avalox
2010-12-28, 12:20:42
Naja also eine voodoo Karte mit ordentlich Füllrate hat schon bisschen mehr herrgemacht als eine ps1...
Die PS1 ist aber viel älter als eine Voodoo1 Karte und vor der Voodoo 1 gab es natürlich schon 3D Beschleuniger für den PC, aber für Spiele wurden diese nicht benutzt.
Damit hat die PS1 natürlich einen wegweisenden Vorsprung in der Darstellung. Aber dieses ist natürlich auch keine Erfindung der Konsole gewesen, man hat einfach den Arcade Trend übernommen. Einen Trend, von welchen PC Spiele lange nichts wissen wollten, weil zu teuer. Erst die Voodoo Karte machte 3D am PC ja billig.
Da gab's schon die T&L-Einheit: Geforce256.
Der Geforce256 hat zur Zeit der PS2 schon niemanden mehr interessiert. Dort gab es ja schon die fetten GF2 und die GF3 zeichneten sich ab.
Der Knacktus der PS2 war ja nicht eine "tolle 3D Grafik", sondern die Möglichkeit einen billigen DVD Player gleich mit zu kaufen. Ganz ähnlich, wie es dann später mit der PS3 und Blu-ray wiederholt wurde.
G.A.S.T.
2010-12-28, 12:22:30
Um mit der Wiimote was zu machen, brauche ich nicht meinen Arm bewegen, sondern nur mein Handgelenk zu drehen.
Yeah und wo bleibt dann das tolle Gefühl, Dinge mit den eigenen Händen zu steuern (ohne Stick oder Lenkrad)?
hä?
Du kannst doch selbst entscheiden, ob du z.B. die Wiimote bei Rennspielen nur mit dem Handgelenk drehst, oder aber in ein Pseudo-Lenkrad aus billigem Plastik packst und dann möglicherweise noch wie in der Werbung in der Luft hälst.
Die Wiimote ist in jedem Fall den Daumen-Analogsticks überlegen, weil sie mehr Feingefühl zulässt
und nicht nur bei irgendwelchen Fuchtel-Spielen.
fizzo
2010-12-28, 12:24:29
Edit: kann mich nicht erinnern das der PC einer Konsole nicht standhalten konnte...
Was gab es anno 1996 adäquates zu Mario 64 auf dem PC?
Quaker
2010-12-28, 12:26:44
Quake 1 hatte mehr zu bieten. :)
Deathcrush
2010-12-28, 12:34:15
Gegen einen High-End-PC konnte die aktuelle Konsolengeneration zum Release nicht mehr anstinken und zwar in keinerlei Hinsicht.
Das glaube ich nicht. Was gab es denn ende 2005? Singlecore CPU´s mit einer 7800er. Die 8800er kam erst ende 2006. Wenn man es sogar genau nimmt, haben die aktuellen Konsolen die Hersteller quasi dazu gezwungen, für Multicore CPU´s zu schreiben. Das gab es vorher so einfach nicht.
Exxtreme
2010-12-28, 12:34:41
PS2 Jahr 2000.
Es war die Zeit der GF2 und der Voodoo5 5500. Es war die Zeit der schnellen Pentium 4 (als die Netburst Welt noch i.O. war)
Natürlich gab es auch T&L auf dem Grafikchip.
Nur gab es die passenden PC Spiele nicht. So wie es heute auch keine passenden PC Spiele für aktuelle PC Hardware gibt.
Deshalb ist die Software das Maß der Dinge und nicht die Hardware.
Da gab's schon die T&L-Einheit: Geforce256.
Ihr habt recht, die T&L-Einheit gab es schon. Nur war die Polygonleistung der PS2 rund 6x so hoch wie die der GF256 und immer noch mehr als doppelt so hoch wie die der GF2U.
G.A.S.T.
2010-12-28, 12:36:45
neue Nintendokonsole muss folgendes können:
- 720p
- BluRay-Laufwerk + ordentliches Mediacenter
- guter Onlinemodus ist Pflicht
- mindestens ~ 3x so leistungsfähig wie PS3/XBox360 (sollte 2013 kein Problem sein!)
- ordentliche Eingabegeräte (Gamepads, Maus, Tastaur)
- NIntendo muss ThirdParty-Titel unterstützen.
Nintendo-Spiele mit Maus & Tastatur? :biggrin:
Und wieso Gamepads wenn es Wiimote+ samt Nunchuck gibt?
Sollen wir etwa auch bald wieder mit Dampfloks und Pferdekutschen unterwegs sein?
So ein Nonsens. Xbox 360/PS3 war die erste Konsolengeneration, die schon beim Release der PC hinterher gewatschelt ist.
Die PS3 schon.
Von der 360 kann man das nicht behaupten.
Avalox
2010-12-28, 12:40:00
Ihr habt recht, die T&L-Einheit gab es schon. Nur war die Polygonleistung der PS2 rund 6x so hoch wie die der GF256 und immer noch mehr als doppelt so hoch wie die der GF2U.
Das ist doch ein sehr theoretischer Wert?
Die PS2 hat dem PC niemals das Wasser reichen können. Konsolen sind ja nun mal Billigplattformen. Ein technische Zugangmöglichkeit zum konsumieren von Fertigmedien Angeboten. Schon der TV als Schnittstelle limitierte die Grafik gewaltig und setzte diese hinter dem PC weit zurück.
Da kann eine Konsole nur fortschrittlicher als ein PC sein, wenn diese tatsächlich einen Trend aufgreift, welcher beim PC zu der Zeit vorbei gegangen ist. Bei der PS1 war es eben die 3D Grafik. Aber die PS2 hat ja nichts anderes geboten, als jeder PC zu dieser Zeit und somit blieb dann ja nur noch der Preis und natürlich die einfachere Bedienung.
Eben auch wie bei der Xbox/XBox360 oder auch der PS3. Diese Konsolen kann man eh kaum voneinander trennen, da Innovationen kaum vorhanden waren. Eigentlich nur Fortsetzungen des selben Konzepts.
Crazy_Chris
2010-12-28, 12:46:49
Das glaube ich nicht. Was gab es denn ende 2005? Singlecore CPU´s mit einer 7800er. Die 8800er kam erst ende 2006. Wenn man es sogar genau nimmt, haben die aktuellen Konsolen die Hersteller quasi dazu gezwungen, für Multicore CPU´s zu schreiben. Das gab es vorher so einfach nicht.
Nö, der Pentium 4 D und der Athlon 64 X2 waren bereits im April/Mai 2005 verfügbar. Die Xbox 360 erst Ende November des selben Jahres. Genauso die Radeon X1800 XT die im Oktober erschien.
G.A.S.T.
2010-12-28, 12:52:32
Ihr habt recht, die T&L-Einheit gab es schon. Nur war die Polygonleistung der PS2 rund 6x so hoch wie die der GF256 und immer noch mehr als doppelt so hoch wie die der GF2U.
Glaube ich nicht...... wie wurde das denn berechnet? :tongue:
Exxtreme
2010-12-28, 12:54:26
Das glaube ich nicht. Was gab es denn ende 2005? Singlecore CPU´s mit einer 7800er. Die 8800er kam erst ende 2006. Wenn man es sogar genau nimmt, haben die aktuellen Konsolen die Hersteller quasi dazu gezwungen, für Multicore CPU´s zu schreiben. Das gab es vorher so einfach nicht.
Im Frühjahr 2005 gab es die ersten Dualcore-Pentiums und Dualcore-Athlons und die waren schneller als die CPU der Xbox 360. Und der Grafikchip der Xbox 360 ist mit einer Geforce 7600 GT vergleichbar.
|-Sh0r7y-|
2010-12-28, 12:54:47
Was gab es anno 1996 adäquates zu Mario 64 auf dem PC?
Tombraider ist 1996 rausgekommen glaub ich.
Aber zu gut erinnere ich mich an die ÜBLEN clipping fehler (na wer kennt sie noch)
Also nichts...
Stimmt stimmt die N64 wurde erst durch 3DfX eingeholt.... FX hm
Star Fox FX und der Super FX Chip Anno 1993 :redface: damit hat es angefangen :)
Wir hatten uns damals eine N64 aus Japan inportiert gehabt inklusive Mario64 (auf japanisch richtig schwer), später folgte noch Wave Racer (diese wellen und reflectionen im wasser :eek:) und das" Starwars Rouge...
:tongue:
Master3
2010-12-28, 12:56:43
Nö, der Pentium 4 D und der Athlon 64 X2 waren bereits im April/Mai 2005 verfügbar. Die Xbox 360 erst Ende November des selben Jahres. Genauso die Radeon X1800 XT die im Oktober erschien.
Das Zeug war doch unendlich teuer am Anfang gegenüber der Xbox 360. Ich hab mir nämlich 2006 einen X2 4200+ und die X1800XT gekauft gehabt und selbst dann noch für beides ca. 600€ bezahlt gehabt.
Crazy_Chris
2010-12-28, 13:03:15
Das Zeug war doch unendlich teuer am Anfang gegenüber der Xbox 360. Ich hab mir nämlich 2006 einen X2 4200+ und die X1800XT gekauft gehabt und selbst dann noch für beides ca. 600€ bezahlt gehabt.
Die Xbox 360 wäre ohne Subvention wahrscheinlich genauso teuer gewesen. :wink:
|-Sh0r7y-|
2010-12-28, 13:03:41
Im Frühjahr 2005 gab es die ersten Dualcore-Pentiums und Dualcore-Athlons und die waren schneller als die CPU der Xbox 360. Und der Grafikchip der Xbox 360 ist mit einer Geforce 7600 GT vergleichbar.
Hat die xbox nicht ein triplecore @ 3ghz oder sowas, das ist aber nun auch nicht so schlecht.
Die GPU laut: http://www.heise.de/newsticker/meldung/Nintendos-Revolution-unter-die-Haube-geschaut-114280.html nur oberes mittelmass damals gewesen hm.
y33H@
2010-12-28, 13:07:07
Das Zeug war doch unendlich teuer am Anfang gegenüber der Xbox 360. Ich hab mir nämlich 2006 einen X2 4200+ und die X1800XT gekauft gehabt und selbst dann noch für beides ca. 600€ bezahlt gehabt.Und weiter? Der PC war schon damals besser. Mit einer X1k und einem Dualcore war beispielsweise TES IV Oblivion in 720p mit AA+HDR und viel hübscheren Texturen spielbar, dank mehr RAM war die Sicht auf die Entfernung besser - und das alles bei mehr Fps.
thade
2010-12-28, 13:07:12
Und der Grafikchip der Xbox 360 ist mit einer Geforce 7600 GT vergleichbar.
Xenos hat mit absoluter Sicherheit deutlich mehr Leistung als eine 7600GT...
Deathcrush
2010-12-28, 13:10:38
Und der Grafikchip der Xbox 360 ist mit einer Geforce 7600 GT vergleichbar.
Aha, die 7600GT hatte also ein UF Shader architektur, 10MB embedded RAM, tessellation Unit usw. Ich glaube nicht, das der Xenos mit einer 7600GT vergleichbar ist.
Master3
2010-12-28, 13:16:10
Die Xbox 360 wäre ohne Subvention wahrscheinlich genauso teuer gewesen. :wink:
Das interessiert mich als Kunden herzlich wenig was die Unternehmen beisteuern.
Und weiter? Der PC war schon damals besser. Mit einer X1k und einem Dualcore war beispielsweise TES IV Oblivion in 720p mit AA+HDR und viel hübscheren Texturen spielbar, dank mehr RAM war die Sicht auf die Entfernung besser - und das alles bei mehr Fps.
Ja, war besser. Aber halt teuer erkauft das ganze. Ein Mittelklasse PC hätte es wohl nicht schaffen können. Damals hatte man ja wenigstens noch mehr exklusive Games für den PC als jetzt, wo man auch mehr den Anreiz hatte teure Hardware zu kaufen. Der fehlt mir jetzt nämlich komplett. Ich hab persönlich keine Lust nur wegen einem hohen AA Level und irgendwelchen DX11 Extras mir ne aktuelle Grafikkarte zu kaufen.
|-Sh0r7y-|
2010-12-28, 13:21:16
Xenos hat mit absoluter Sicherheit deutlich mehr Leistung als eine 7600GT...
mit der 7600 paßt das auch ehr zum RSX der ps3
Master3
2010-12-28, 13:23:36
Der RSX basert auf einer Geforce 7800: http://en.wikipedia.org/wiki/RSX_%27Reality_Synthesizer%27
thade
2010-12-28, 13:24:29
mit der 7600 paßt das auch ehr zum RSX der ps3
Nein, ne 7900gt passt eher zum RSX. Ne 7600er hatte nur 12 Pipes, RSX und die 7900gt aber 24. :)
|-Sh0r7y-|
2010-12-28, 13:24:47
Der RSX basert auf einer Geforce 7800: http://en.wikipedia.org/wiki/RSX_%27Reality_Synthesizer%27
ja wollte ich auch grade korrigieren!
Exxtreme
2010-12-28, 13:31:50
Glaube ich nicht...... wie wurde das denn berechnet? :tongue:
Theoretische Werte.
Xenos hat mit absoluter Sicherheit deutlich mehr Leistung als eine 7600GT...
Mit Sicherheit nicht. Für die 7600 GT ist die 720p-Auflösung eher ein Klacks. Ich weiss das weil ich selbst eine hatte. Nur selbst damit hat die Xbox 360-GPU so ihre Problemchen, von Antialiasing ganz zu schweigen. Gibt nicht viele Spiele, die das nutzen.
Master3
2010-12-28, 13:51:49
Theoretische Werte.
Mit Sicherheit nicht. Für die 7600 GT ist die 720p-Auflösung eher ein Klacks. Ich weiss das weil ich selbst eine hatte. Nur selbst damit hat die Xbox 360-GPU so ihre Problemchen, von Antialiasing ganz zu schweigen. Gibt nicht viele Spiele, die das nutzen.
Die ganze Geforce 7 Reihe kackte doch damals bei kommenden Games völlig ab. Da sah man doch super zu was die X1800 und X1900 Reihe gut war.
Hier Splinter Cell Double Agent:
http://www.computerbase.de/artikel/grafikkarten/2007/test-nvidia-geforce-8800-ultra/22/#abschnitt_splinter_cell_4
Wohl kaum spielbar auf einer 7600GT. Bei der Xbox 360 läuft das Spiel in 720p. Ich glaube kaum, dass in 720p eine 7600 GT plötzlich auf ca. 30fps kommt. Selbst eine 7900GT hat da so ihre Probleme.
G.A.S.T.
2010-12-28, 21:46:19
Was ist denn hier los?
Warum wurde seit heute mittag nix geschrieben?
Los, streitet euch! :mad: :P
Amboss
2010-12-29, 07:24:25
Der RSX der PS3 ist deren größter Flaschenhals. Manch einer würde Nvidia unterstellen, Sony einen minderwertigen Grafikchip verkauft zu haben (Sony soll angeblich nur 30Mill. dafür bezahlt haben). Die CELL-CPU ist ein auch Papiertieger: Zu weit entfernt von der PC Standard-Architektur. So was funktionierte noch zu Zeiten einer PS2, nur hatte Sony damals so gut wie keine Konkurrenz. Heute steht Microsoft mit seiner Xbox360 im Konsolengeschäft.
thade
2010-12-29, 10:43:04
Das die Architektur der PS3 sehr gut funktionieren kann, zeigen viele Exlusiv-Games auf der PS3. Natürlich ist Microsoft den besseren Weg gegangen, aber die Diskussion 360 vs PS3 ist alt und wurde schon 100 mal durchgekaut. -> mit dem Ergebnis: beide nehmen sich im Endeffekt nicht sehr viel...
Deathcrush
2010-12-29, 10:47:59
Das die Architektur der PS3 sehr gut funktionieren kann, zeigen viele Exlusiv-Games auf der PS3.
Deshalb müssen sich die Hersteller untereinander auch unterstützen, weil die Hardware der PS3 so gut zu bändigen ist. Damit man für die PS3 vernünftige Spiele programmieren kann, muss man viel Zeit und Energie reinstecken, was eigentlich nicht der Sinn einer Plattform sein sollte.
Crazy_Chris
2010-12-29, 10:52:22
Das die Architektur der PS3 sehr gut funktionieren kann, zeigen viele Exlusiv-Games auf der PS3. Natürlich ist Microsoft den besseren Weg gegangen, aber die Diskussion 360 vs PS3 ist alt und wurde schon 100 mal durchgekaut. -> mit dem Ergebnis: beide nehmen sich im Endeffekt nicht sehr viel...
Funktionieren ja, Aber gut? Eher mehr schlecht als recht. :freak: Aber man baut ja mit Absicht lieber eine eher kompliziert zu programmierende Architektur damit sich die Entwickler schön anstrengen müssen und es auch noch nach Jahren Steigerungen bei der Grafik gibt. ;D Das wurde ja so mehr oder weniger sogar offiziell gesagt. Ich bin schon überrascht das Sony nach der PS2 nochmal diesen Weg gegangen ist. Die PS1 soll ja dagegen deutlich Entwicklerfreundlicher gewesen sein.
thade
2010-12-29, 10:55:57
Nein das war nicht der Grund. Man wollte wie schon zu PS2-Zeiten die Entwickler an die Sony-Architektur binden. Sony ist gescheitert könnte man sagen. :)
P.S.: Die PS3-Architektur funktioniert sehr gut und ist auch im Vergleich zur Konkurrenz sehr potent wenn man sie richtig anfasst...
Crazy_Chris
2010-12-29, 10:58:53
Nein das war nicht der Grund. Man wollte wie schon zu PS2-Zeiten die Entwickler an die Sony-Architektur binden. Sony ist gescheitert könnte man sagen. :)
P.S.: Die PS3-Architektur funktioniert sehr gut und ist auch im Vergleich zur Konkurrenz sehr potent wenn man sie richtig anfasst...
In dieser Hinsicht muss man also Microsoft sogar dankbar sein. :wink:
Woran machst du das fest? Klar sehen einige Exklusive Spiele klasse aus aber das sind Xbox 360 Games auch. Ich sehe da jetzt technisch keinen Vorteil für de PS3.
Exxtreme
2010-12-29, 11:01:58
P.S.: Die PS3-Architektur funktioniert sehr gut und ist auch im Vergleich zur Konkurrenz sehr potent wenn man sie richtig anfasst...
Das richtig anfassen ist so teuer, dass sogar die Entwicklung von PC-Spielen wesentlich günstiger ist trotz etlicher Grafikkarten, DirectX-Versionen und Treiber.
san.salvador
2010-12-29, 11:02:49
Nein das war nicht der Grund. Man wollte wie schon zu PS2-Zeiten die Entwickler an die Sony-Architektur binden. Sony ist gescheitert könnte man sagen. :)
P.S.: Die PS3-Architektur funktioniert sehr gut und ist auch im Vergleich zur Konkurrenz sehr potent wenn man sie richtig anfasst...
Sieht man ja wunderbar bei den Multiplattformtiteln, wo die Xbox in 90% aller Fälle die Nase in der einen oder anderen Form vorne hat.
oh wait... :uponder:
Hugo78
2010-12-29, 11:04:15
Ich will nur hoffen, dass Sony und MS bei der nächsten Playstation / XBOX konventionellere HW verbauen, damit die PC Ports nicht ständig darunter leiden.
edit:
Und das die XBOX oft besser läuft, liegt halt am verkacken von Sony, die PS3 wurde schlicht weg falsch geplant.
Der RSX war ja auch nur ne Notlösung, als die Verantwortlichen entlich erkannt hatten, dass Cell nicht als Grafikchip zugebrauchen ist.
2 halbe Sachen, ergeben ebend noch lange kein Ganzes.
thade
2010-12-29, 11:09:22
Woran machst du das fest? Klar sehen einige Exklusive Spiele klasse aus aber das sind Xbox 360 Games auch. Ich sehe da jetzt technisch keinen Vorteil für de PS3.
Das habe ich so auch gar nicht gesagt! ;)
Allgemein finde ich das Exklusiv-Lineup der PS3 beeindruckender als das was ich auf der 360 sehe. Ob nun die PS3 bei richtiger Programmierung marginal schneller ist, oder ob der exzellente Content den Unterschied macht ist mir als Endkunde im Prinzip egal.
Multiplattform-Games kaufe ich fast auschließlich auf der 360, weil ich dort meist bessere FPS und mehr AA habe.
Nakai
2010-12-29, 12:26:00
Allgemein finde ich das Exklusiv-Lineup der PS3 beeindruckender als das was ich auf der 360 sehe. Ob nun die PS3 bei richtiger Programmierung marginal schneller ist, oder ob der exzellente Content den Unterschied macht ist mir als Endkunde im Prinzip egal.
Liegt in erster Linie daran, dass da deutlich mehr "Exklusivität" reingesteckt wird. Würde man das auch bei nem Xbox360-Spiel machen, sollte das Resultat auch anders aussehen.
Der RSX der PS3 ist deren größter Flaschenhals. Manch einer würde Nvidia unterstellen, Sony einen minderwertigen Grafikchip verkauft zu haben (Sony soll angeblich nur 30Mill. dafür bezahlt haben). Die CELL-CPU ist ein auch Papiertieger: Zu weit entfernt von der PC Standard-Architektur. So was funktionierte noch zu Zeiten einer PS2, nur hatte Sony damals so gut wie keine Konkurrenz. Heute steht Microsoft mit seiner Xbox360 im Konsolengeschäft.
Welche Alternative gab es denn?;) ATI war ja schon vergeben.
Sony hat das kleinere Übel genommen. RSX war billig und sah auf dem Papier auch ganz gut aus. Dass er beim Erscheinen schon sehr stark veraltet war und es schon bessere theoretische Alternativen gab, lag vor allem an Sonys Verspätung. Hätte Sony einen Geforce 8-Derivat eingebaut(wär von der Zeit sogar hingekommen), wäre man der Xbox360 mindestens ebenbürtig.
mfg
thade
2010-12-29, 13:02:11
Die PS3 ist der 360 auch mit einem G70-Derivat ebenbürtig, so schnell ist Xenos nicht und außerdem kann Cell RSX einige Aufgaben abnehmen...
Das Thema ist aber schon uralt und inzwischen ziemlich langweilig. :)
dildo4u
2010-12-29, 13:24:53
Beste Grafik 2009 Uncharted 2
http://www.gametrailers.com/video/best-graphics-gt-goty/60223
Beste Grafik 2010 God of War 3
http://www.gametrailers.com/video/best-graphics-game-of-the/708649
Nich schlecht für ne Konsole von 2006. ;)
Leider hat's hier kaum einer gezockt um ne fundierte Meinung zu haben es wird einfach nur vom hören Sagen gebasht.
Werewolf
2010-12-29, 13:27:42
Lasst die Spiele entscheiden. Nur die zählen. ;)
Ailuros
2010-12-29, 13:31:30
mir geht es eher um die größe und um den verbrauch. eine 65-85 watt cpu und eine 200 watt gpu mit richtig dampf unter der haube.
Bei einem SoC würde man wieder kompromisse bei der leistungsaufnahme und bei dessen größe eingehen müssen, weil man da keine highend technik unterbringen kann. nebenbei muß man da auch kompromisse bei der fertigungstechnologie eingehen. (cpu mehr takt und gpu eher mehr logik)
Und was passiert wenn ein hypothetischer SoC auch insgesamt etwas unter 300W verbraucht? Wenn jeglichem Hersteller die daraus entstehende Leistung ausreicht, dann bleibt der einzige Vorteil einer getrennten GPU dass sie ihre eigene dedizierte Bandbreite hat, welches man aber durch balancierte Aufgaben-Verteilung via etwas wie OpenCL schon ausbuegeln koennte.
Fertigungs-technologie ist nur dann ein Problem wenn man bei einem Design X die maximalen Werte eines Herstellungsprozesses ueberschreiten wuerde. Wenn aber fuer den GPU Block tatsaechlich 200W die oberste Schwelle sein sollte, sehe ich kein besonderes Problem fuer einen Konsolen-Design.
Das mit dem hohen CPU Takt und GPU mehr Logik sieht man auf jeglichem heutigen SoC. Der OMAP4 der im besten Fall fuer smart-phones bzw. tablets gedacht ist takten die 2 Cortex A9 bis zu 1.5GHz und die GPU bis zu 400MHz, wobei sich der insgesamte Stromverbrauch von ein etlichen milliWatt bis zu ein paar Watt (je nach Variante und Frequenzen) bewegt.
ich sehe den einfachen weg über die GPU mit standardisierten APIs als den besseren an, als wie wenn man wieder so eine super cpu verbaut, wo man alles per hand optimieren muß und es dafür auch keinen brauchbaren schatz an wissen über diesen gibt.
Was genau ist "standardisiertes API" in der Konsolen-Welt? Warum glaubst Du rennt die OGL_ES Entwicklung so rapide den desktop APIs hinterher? Weil es nur fuer embedded designs gedacht ist?
das aktuelle wissen über den cell zB ist quasi fürs licht, weil man das in zukunft nirgends mehr sinnvoll einsetzen kann.
Aktuell scheitert es ja an der GPU und dass diese zu schwach ist bei der PS3 und man deshalb sachen auf die (nicht ausgelastete) cpu auslagert. Da geht es mir eher darum das was sinnvoll und nötig ist auf der gpu zu belassen und dort sachen unterzubringen die dort auch besser laufen.
RSX schwaechelt hauptsaechlich fuer sich selber an Bandbreite im Vergleich zum Xenos und dessen tochter-eDRAM-die. Rechne mal aus wieviel Bandbreite die interne "Verbindung" zwischen Cell und RSX liefern kann auf Papier und es sieht schnell nicht mehr so tragisch aus. Und eben genau das ist der Punkt der es mich persoenlich nicht ausschliessen laesst dass einer oder mehr Hersteller an einen sehr grossen SoC vielleicht gedacht haben.
Ich bezweifle dass es jemand lieber waere wenn Cell nur dumm rumhocken wuerde. Das er sich mit RSX resourcen austauschen kann ist ein Segen fuer die Konsole selber und NVIDIA hat den RSX Design auch genau unter dieser Logik entwickelt und angepasst. RSX ist zwar auf ersten Blick ein G7x Ableger, aber ich wuerde an Stelle von manchen mal einen Blick auf die z/stencil Faehigkeiten von dem Ding richten. Ein grosser Schritt weiter von G7x ist das Ganze schon; und bevor mich jemand falsch versteht ein G80 ist es garantiert nicht. Trotz allem aber eine Weiter-entwicklung eben ein Konsolen GPU refresh der auf G7x basiert.
Und nochmal das dumme an der ganzen Sache ist dass die Entwicklung fuer XBox360 um einiges leichter sein soll nach Entwicklern selber. Ergo warum nicht beide vorerwaehnte Vorteile kombinieren?
Werewolf
2010-12-29, 13:37:50
Beste Grafik 2009 Uncharted 2
http://www.gametrailers.com/video/best-graphics-gt-goty/60223
Beste Grafik 2010 God of War 3
http://www.gametrailers.com/video/best-graphics-game-of-the/708649
Nich schlecht für ne Konsole von 2006. ;)
Leider hat's hier kaum einer gezockt um ne fundierte Meinung zu haben es wird einfach nur vom hören Sagen gebasht.
LOPLOLO PIXELBREI! TEXTURENMATSCH OIDA. KOA DOWNSAMPLING LOLOLOOL. SCHROTT!!!111 HOSCH KOA GEID FÜR WOS GSCHEIDS?
Ailuros
2010-12-29, 13:39:02
Welche Alternative gab es denn?;) ATI war ja schon vergeben.
ATI haette auch einen dritten Konsolen-Design uebernehmen koennen wenn es die Moeglichkeit gegeben haette. SONY wollte aus ihren eigenen Gruenden (womoeglich auch kindischer Stolz) nicht vom gleichen GPU IP einkaufen wie Microsoft.
Sony hat das kleinere Übel genommen. RSX war billig und sah auf dem Papier auch ganz gut aus.
Eher das Gegenteil. SONY bezahlt um einiges mehr an royalties fuer RSX als Microsoft fuer Xenos. Bei Zweifel frag nach; die Antwort wird Dich ueberraschen.
Dass er beim Erscheinen schon sehr stark veraltet war und es schon bessere theoretische Alternativen gab, lag vor allem an Sonys Verspätung. Hätte Sony einen Geforce 8-Derivat eingebaut(wär von der Zeit sogar hingekommen), wäre man der Xbox360 mindestens ebenbürtig.
Ja aber auch nicht mehr unter 90nm@TSMC sonst waere der Stromverbrauch auch nicht so maessig gewesen. RSX wurde nicht mit seiner von NV vorgeschlagenen Frequenz eingebaut.
Avalox
2010-12-29, 13:41:42
Leider hat's hier kaum einer gezockt um ne fundierte Meinung zu haben es wird einfach nur vom hören Sagen gebasht.
Auf PC wird zunehmend virtuell High-End gezockt.
Nachdem man ja nun nicht mal mehr selbstlaufende Hersteller Demos am PC zocken kann, da selbst diese mangels Geld nicht mehr gut aussehen (Beispiel HK-2207 zeigt es wieder mal deutlich), wird eben virtuell gezockt. Was dann irgendwie so abläuft:
"... wenn es denn aber ein Spiel geben würde, welches die Hardware ordentlich nutzt, dann würde dessen Grafik aber ganz toll sein."
Das beste Spiel ist eben immer das, was auch tatsächlich kaufbar ist. Bin mal wirklich gespannt, wie es mit PC Spielen im Jahr 2011 weiter gehen wird.
Ailuros
2010-12-29, 13:58:54
=/>1080p mit =/>4xMSAA und 16xAF + maximale Details sind wohl doch nicht "virtuelles high end".
***edit: hat zwar nichts direkt mit dem Thema zu tun, aber Bildschirme werden in der absehbaren Zukunft wieder in Aufloesung skalieren.
Avalox
2010-12-29, 14:09:13
=/>1080p mit =/>4xMSAA und 16xAF + maximale Details sind wohl doch nicht "virtuelles high end".
Das ist in meinen Augen Vernichtung von nicht genutzter Rechenleistung.
Wenn man schon keinen Content hat, so argumentiert man sich dann einen Sinn anders daher.
Wenn jemand die Auswahl hat, ob er mit seiner beschränkten Grafikkarte eben Doom 3 mit Supersampling spielt oder Crysis ohne Supersampling, dann wird dieser nicht lange brauchen um das Spiel mit der attraktiveren Grafik zu erkennen.
Spielt auch niemand PacMan mit 1024xMSAA und sagt dazu tolle Grafik.
Es ist nur eben heute nicht vergleichbar, weil es gar kein PC Spiel mit HighEnd Grafik gibt. Deswegen ist das was man zu sehen bekommt das Maß der Dinge und dieses sieht mit 4xMSAA und 16xAF eben schicker aus.
Der Spiele PC krankt am fehlenden Content und nicht an der Technik.
Werewolf
2010-12-29, 14:11:09
Spielt auch niemand PacMan mit 1024xMSAA und sagt dazu tolle Grafik.
Doch, dargo. :biggrin:
y33H@
2010-12-29, 14:15:06
Ein älteres Spiel mit hoher SGSSAA-Stufe sieht imo oft "besser" aus als aktuelle Flimmer-Orgien.
Ailuros
2010-12-29, 14:26:51
Das ist in meinen Augen Vernichtung von nicht genutzter Rechenleistung.
Der Satz wuerde noch halbwegs Sinn machen wenn es immer nur noch CRT Fernseher geben wuerde mit 640*480 Aufloesung und im mainstream 21-24" Bildflaeche. Bei den heutigen Bildschirmen und dessen Bildflaeche aendert sich aber trotz allem einiges.
Uebrigens ist lahmarschiges bi- bzw. trilinear (wenn es sich ueberhaupt um solches handelt und nicht brilinear) im Jahr 2010 auf jeglichem Geraet eine Zumutung. Noch schlimmer wenn man Gott hilf eine Konsole auf einen =/>32" TV ansteckt.
Wenn man schon keinen Content hat, so argumentiert man sich dann einen Sinn anders daher.
Oder wenn man beschissene Bildqualitaet in Kauf nehmen will kann man auch so wie oben argumentieren.
Wenn jemand die Auswahl hat, ob er mit seiner beschränkten Grafikkarte eben Doom 3 mit Supersampling spielt oder Crysis ohne Supersampling, dann wird dieser nicht lange brauchen um das Spiel mit der attraktiveren Grafik zu erkennen.
Das wird mir eine zu lange Debatte und in total falscher Richtung was den Thread betrifft. Denn wenn ich jetzt anfange mit den jeweiligen falschen Design-Entscheidungen jeglichen ISVs bei jeglicher engine wird es Seiten lang.
Spielt auch niemand PacMan mit 1024xMSAA und sagt dazu tolle Grafik. Deswegen ist das was man zu sehen bekommt das Maß der Dinge und dieses sieht mit 4xMSAA und 16xAF eben schicker aus.
Tja je frueher man einsieht dass die PacMan Zeiten und jegliches beschissene sw processing vorueber sind desto besser wird man sich der Entwicklung anpassen koennen.
Es ist nur eben heute nicht vergleichbar, weil es gar kein PC Spiel mit HighEnd Grafik gibt.
Dann liegt das eigentliche Problem in der Beschreibung von "high end graphic". Jedem das seine. Eine jegliche Konsole dank sehr grosser Lebenszeit bewegt sich wie man es auch verdrehen will in einem anderen Raum als ein high end PC. Das eigentliche Thema hier ist Konsolen der naechsten Generation und nicht irgendwelche OT Abweichung damit sich Konsolen-fans mit PC fans einen neuen flamewar aufwaermen koennen.
Sven77
2010-12-29, 14:32:16
Beste Grafik 2009 Uncharted 2
http://www.gametrailers.com/video/best-graphics-gt-goty/60223
Beste Grafik 2010 God of War 3
http://www.gametrailers.com/video/best-graphics-game-of-the/708649
Nich schlecht für ne Konsole von 2006. ;)
Leider hat's hier kaum einer gezockt um ne fundierte Meinung zu haben es wird einfach nur vom hören Sagen gebasht.
Natürlich stehen hier Dinge wie Art Direction usw. im Vordergrund und nicht die reine Technik.. im Prinzip also Off-Topic, wie die Hälfte der Posts in diesem Thread..
Niemand sagt das die Spiele schlecht aussehen, sonder das sie eben auf dem PC viel besser aussehen würden
Etienne
2010-12-29, 14:36:28
Beste Grafik 2009 Uncharted 2
http://www.gametrailers.com/video/best-graphics-gt-goty/60223
Beste Grafik 2010 God of War 3
http://www.gametrailers.com/video/best-graphics-game-of-the/708649
Nich schlecht für ne Konsole von 2006. ;)
Leider hat's hier kaum einer gezockt um ne fundierte Meinung zu haben es wird einfach nur vom hören Sagen gebasht.
Hab hier eine PS3 hier stehen und sämtliche Multiplattformspiele sehen deutlich schlechter aus als auf meinem Rechner.
Pixelbrei ist schon das richtige Wort.
GoW3 ist da schon eine schöne Ausnahme, weil mit Liebe und so, dennoch wäre ich mir sicher, dass es bei einem Port auch auf dem PC besser aussehen würde ;)
Konsolen sind eben unkompliziert, mir persönlich zu unkompliziert weshalb ich das aber eher als Nachteil sehe, denn wo bleibt denn dann der Spaß beim Rumbasteln/-tweaken? ;)
Werewolf
2010-12-29, 14:41:27
Es gibt sicherlich Rechenleistung die jeden PC in den Schatten stellen würde, ein Crysis bei 120fps zum rennen bringen und und und...ist das nun ein Argument? Nein. Egal wie rum man es dreht. Die höhere Rechenleistung ist längst kein Argument mehr sondern zahlungswillige Käuferschichten.
Tesseract
2010-12-29, 14:45:24
Ein älteres Spiel mit hoher SGSSAA-Stufe sieht imo oft "besser" aus als aktuelle Flimmer-Orgien.
das GoW1/2 remake sieht sogar besser aus als GoW3. hat zwar weniger details/effekte, dafür rennt es butterweich und ist optisch total glattgebügelt wärend der 3er oft genug vor sich hin flimmert und ruckelt.
daher musste ich bei dem "GoW3 - beste grafik 2010"-link etwas schmunzeln. ;)
y33H@
2010-12-29, 15:00:45
Ein Far Cry mit Mods und Tweaks und SGSSAA bei 60 Fps ist mir oft lieber als ein flimmerndes Crysis mit unter 30 Fps.
Avalox
2010-12-29, 15:06:53
Ein Far Cry mit Mods und Tweaks und SGSSAA bei 60 Fps ist mir oft lieber als ein flimmerndes Crysis mit unter 30 Fps.
Diesen Bedarf der HighEnd PC User hat CryTek nun nach zwei Fehlversuchen endlich erkannt und Crysis 2 so konzipiert, dass viel Rechenleistung für Bildverbesserung übrig bleibt.
y33H@
2010-12-29, 15:11:46
Das ist eher eine indirekte Folge der Cross-Platform-Entwicklung. Edge-AA hin oder her, Crysis II flimmert auf einer 360 oder PS3 "dank" 720p, runterskalierter Geometrie usw. furchtbar.
dildo4u
2010-12-29, 15:13:24
das GoW1/2 remake sieht sogar besser aus als GoW3. hat zwar weniger details/effekte, dafür rennt es butterweich und ist optisch total glattgebügelt wärend der 3er oft genug vor sich hin flimmert und ruckelt.
daher musste ich bei dem "GoW3 - beste grafik 2010"-link etwas schmunzeln. ;)
Auflösung ist die selbe plus MLAA GOW3 läuft dazu immer flüssig und der FPS schnitt liegt weit über jedem anderen Exklusiv Grafikkracher der letzen 5 Jahre.Perfekte Animation und sich bewegende Level sind auch neu bzw deutlich verbessert.
Schöner Arktiel dazu wie hier die PS3 ans Limit gebracht wird.
In God of War III sind die Details in Sachen Texturen und Geometrie ein massiver Schritt jenseits von dem, was man in Spielen bisher zu sehen bekam. Programmierbare Pixel-Shader ermöglichen Texturen und Effekte, die der Qualität des finalen Produkts eine ganz neue Dimension verleihen.
Es ist ein wahrhaftiger Generationensprung und die Performance des neuen Spiels ist in Sachen Framerate ungefähr gleichwertig zu den beiden vorherigen God-of-War-Titeln.
http://www.eurogamer.de/articles/the-making-of-god-of-war-iii_2
Deathcrush
2010-12-29, 15:16:09
Ich weiss gar nicht was ihr immer mit eurem God of War habt. Das sieht oft sogar einfach nur hässlich aus.
http://www.youtube.com/watch?v=ewzP976o6KQ
dildo4u
2010-12-29, 15:20:29
Ich weiss gar nicht was ihr immer mit eurem God of War habt. Das sieht oft sogar einfach nur hässlich aus.
http://www.youtube.com/watch?v=ewzP976o6KQ
Kein Plan was du mit einem SD Video zeigen willst.
Es gewinnt nich umsonst die Grafik Awards.Natürlich ist Desgin Geschmacksache aber Technisch ist das vorallem mit fps über 30 eine Meisterleistung.
Halbwegs gutes Video wo man auch was erkennen kann.
http://www.youtube.com/watch?v=CsbtgyRObXo&hd=1
Deathcrush
2010-12-29, 15:22:47
aber Technisch ist das vorallem mit fps über 30 eine Meisterleistung.
Bei der gebotenen Grafik wundern mich die 40-45 FPS ehrlich gesagt nicht. Und ja, ich habe GoW3 selbst gespielt. Grafisch ist es einfach 08/15 und nichts besonders womit man angeben könnte, siehe dazu auch das Video.
dildo4u
2010-12-29, 15:25:39
Bei der gebotenen Grafik wundern mich die 40-45 FPS ehrlich gesagt nicht. Und ja, ich habe GoW3 selbst gespielt. Grafisch ist es einfach 08/15 und nichts besonders womit man angeben könnte, siehe dazu auch das Video.
Tja da wiedersprechen dir diverse Seiten z.b Eurogamer bzw verschiedene Awards neben GT hat GOW3 auch bei den VGAs den Grafik Award bekommen.
san.salvador
2010-12-29, 15:27:11
Awards sagen über Qualitäten nichts aus.
Habt ihr euch überhaupt mal den Thementitel durchgelesen?
Es muss doch nicht jeder Konsolen-Thread in eine Dildo-PR-Aktion ausarten...
dildo4u
2010-12-29, 15:30:19
Awards sagen über Qualitäten nichts aus.
Lies dir einfach den Artikel auf Eurogamer durch dort wird alles durchgegangen und der Schreiber hat ein Plan von dem was er schreibt.Es wird noch lange dauern bis man davon ein Sprung sieht der es rechtfertigen würde neue Konsolen zu brauchen.
|-Sh0r7y-|
2010-12-29, 15:50:20
Lies dir einfach den Artikel auf Eurogamer durch dort wird alles durchgegangen und der Schreiber hat ein Plan von dem was er schreibt.Es wird noch lange dauern bis man davon ein Sprung sieht der es rechtfertigen würde neue Konsolen zu brauchen.
Ist auch eigentlich nicht nötig wen man sich deine zwei Videos anschaut die du hier gepostet haßt!
Eine neue Konsole für aa, af, bessere texturen und fullhd bei allen games quasi standart.
Einfach nicht nötig.
Nintendo hätte es vielleicht nötig aber da läuft es einfach zu gut.
Deathcrush
2010-12-29, 15:50:26
Tja da wiedersprechen dir diverse Seiten z.b Eurogamer bzw verschiedene Awards neben GT hat GOW3 auch bei den VGAs den Grafik Award bekommen.
Die meissten Mags feiern auch CoD Black Ops als Meilenstein. Und, ist er das? Nein.
dildo4u
2010-12-29, 15:56:43
Die meissten Mags feiern auch CoD Black Ops als Meilenstein. Und, ist er das? Nein.
Es geht hier um die Technik und dort gewinnt Black Ops gar nix.Imo sind die meisten Seiten beim Thema Grafik wenig von persönlichen vorlieben beeinflusst und recht Objektiv.
Nightspider
2010-12-29, 15:56:56
Nintendo Wii hat Tastatur unterstützung via usb, sogar wireless,,, und die remoter funktioniert auch so gut genug.
Naja aber die nimmt man nicht zum Spielen, was ja der User (Name vergessen) sicherlich wollte.
Im Frühjahr 2005 gab es die ersten Dualcore-Pentiums und Dualcore-Athlons und die waren schneller als die CPU der Xbox 360. Und der Grafikchip der Xbox 360 ist mit einer Geforce 7600 GT vergleichbar.
Also ich hatte schon nen DualCore zu 360 Anfangszeiten und mein DualCore kam mir deutlich langsamer vor.
Glaube nicht, das ein Athlon 64 X2 mit ~2,5 Ghz wirklich schneller war als ein IBM TripleCore mit ~3Ghz.
Dann hätten die AMD Kerne eine über 50% höhere Effizienz haben müssen.
Um mal wieder aufs Topic zurückzukommen: Es ist doch die Frage ob die Entwicklung für die PS3-Fail-Architektur immernoch teurer ist, als für 360 und PC und ob Sony im Nachfolger zwecks Abwärtskompatibilität weiter auf die Cell Architektur setzen wird.
schoppi
2010-12-29, 16:03:21
Es geht hier um die Technik und dort gewinnt Black Ops gar nix.Imo sind die meisten Seiten beim Thema Grafik wenig von persönlichen vorlieben beeinflusst und recht Objektiv.Rein objektiv sind deine genannten Grafikperlen aus 2008 und 2009 aber einen PC-Spiel aus dem Jahre 2007 bei weitem unterlegen.
Abwärtskompatibilität muss imo ein wichtiger Punkt in der Entwicklung de PS4 sein würde gerne alle Meisterwerke der PS3 noch mal in 1080p bzw 3D zocken.Fehlt der angepriesenen 1080p Konsole etwa jetzt schon die Power dazu?
IMO wird es langsam Zeit, dass von den Nachfolgern berichtet wird (1-2 Jahre zwischen den ersten Infos bis zum Markteintritt vergehen ja schnell). Warum musste die wii aber auch so gut laufen.
dildo4u
2010-12-29, 16:06:16
Um mal wieder aufs Topic zurückzukommen: Es ist doch die Frage ob die Entwicklung für die PS3-Fail-Architektur immernoch teurer ist, als für 360 und PC und ob Sony im Nachfolger zwecks Abwärtskompatibilität weiter auf die Cell Architektur setzen wird.
Wenn man sieht das Cell Heute fast alle Arbeit der GPU abnimmt,halte ich es auch für wahrscheinlich das die PS4 ein Cell in 32nm bzw 22nm bekommt vieleicht mit 16 SPUs.Abwärtskompatibilität muss imo ein wichtiger Punkt in der Entwicklung de PS4 sein würde gerne alle Meisterwerke der PS3 noch mal in 1080p bzw 3D zocken.
dargo
2010-12-29, 16:07:38
Also ich hatte schon nen DualCore zu 360 Anfangszeiten und mein DualCore kam mir deutlich langsamer vor.
Glaube nicht, das ein Athlon 64 X2 mit ~2,5 Ghz wirklich schneller war als ein IBM TripleCore mit ~3Ghz.
Dann hätten die AMD Kerne eine über 50% höhere Effizienz haben müssen.
Leute, diese Vergleiche zur Anfangszeit der XBox360 sind ziemlich sinnfrei. Die ersten Portierungen waren ziemlich schlecht was die Performance am PC anging.
Quaker
2010-12-29, 16:08:22
Wenn man sieht das Cell Heute fast alle Arbeit der GPU abnimmt,halte ich es auch für wahrscheinlich das die PS4 ein Cell in 32nm bzw 22nm bekommt vieleicht mit 16 SPUs.Abwärtskompatibilität muss imo ein wichtiger Punkt in der Entwicklung de PS4 sein würde gerne alle Meisterwerke der PS3 noch mal in 1080p bzw 3D zocken.
Cell wurde mangels Erfolg eingestellt und wird nicht mehr weiter entwickelt...
_DrillSarge]I[
2010-12-29, 16:11:18
LOPLOLO PIXELBREI! TEXTURENMATSCH OIDA. KOA DOWNSAMPLING LOLOLOOL. SCHROTT!!!111 HOSCH KOA GEID FÜR WOS GSCHEIDS?
so?
http://666kb.com/i/bpngzirjwyk9k6kkb.jpg
Avalox
2010-12-29, 16:11:24
Also ich hatte schon nen DualCore zu 360 Anfangszeiten und mein DualCore kam mir deutlich langsamer vor.
Glaube nicht, das ein Athlon 64 X2 mit ~2,5 Ghz wirklich schneller war als ein IBM TripleCore mit ~3Ghz.
Aber ganz sicher. Was war der Einstiegs AMD DualCore? Der 3800+ glaube ich mit 2GHz. Der wird schon deutlich schneller gewesen sein. Ganz zu schweigen, dass eine CPU mit weniger Kernen zudem eh immer Softwareseitig überlegen in der Effizienz sein wird.
Heutige gute PC CPUs werden mindestens Faktor 10 überlegen sein dem Xenon. Sind die PC Spiele heute aber deshalb um Faktor 10 besser?
dildo4u
2010-12-29, 16:13:48
Cell wurde mangels Erfolg eingestellt und wird nicht mehr weiter entwickelt...
Nö.
"will IBM die Architektur des Cell-Prozessors doch nicht ganz aufgeben. Im professionellen Bereich soll er in die Power-Prozessoren integriert werden, für künftige Konsolen hält sich IBM alle Optionen offen."
http://www.golem.de/1011/79124.html
I[;8474693']so?
http://666kb.com/i/bpngzirjwyk9k6kkb.jpg
Wurde gepatcht mehr informieren weniger bashen.
Quaker
2010-12-29, 16:20:09
"will IBM die Architektur des Cell-Prozessors doch nicht ganz aufgeben. Im professionellen Bereich soll er in die Power-Prozessoren integriert werden, für künftige Konsolen hält sich IBM alle Optionen offen."
http://www.golem.de/1011/79124.html
Okeeeyy, lassen wir uns in dem Fall überraschen - obwohl ich nicht wirklich daran glaube, da einfach zu konstenintensiv.
Aber bei Sony scheint man sich ja solche Sachen leisten zu können.
_DrillSarge]I[
2010-12-29, 16:21:59
Wurde gepatcht mehr informieren weniger bashen.
ok
cell ist ja lange noch nicht am ende, sondern hat, wie jeder gut informierte dildo4u newsbot weiss, geheime leistungsreserven....:cool:
Exxtreme
2010-12-29, 16:25:01
Also ich hatte schon nen DualCore zu 360 Anfangszeiten und mein DualCore kam mir deutlich langsamer vor.
Glaube nicht, das ein Athlon 64 X2 mit ~2,5 Ghz wirklich schneller war als ein IBM TripleCore mit ~3Ghz.
Dann hätten die AMD Kerne eine über 50% höhere Effizienz haben müssen.
Die Xbox-CPU ist real in etwa so schnell wie ein Athlon 64 X2 mit 2,2 GHz. Wie schon geschrieben, man darf sich nicht von MHz-Zahlen blenden lassen. Die Konsolen-CPUs sind sehr stark abgespeckt und nur in Spielen sind sie halbwegs schnell.
Nö.
"will IBM die Architektur des Cell-Prozessors doch nicht ganz aufgeben. Im professionellen Bereich soll er in die Power-Prozessoren integriert werden, für künftige Konsolen hält sich IBM alle Optionen offen."
http://www.golem.de/1011/79124.html
Wäre ja auch schade drum.
Im ChaosRadio PodCast 2006 wurde vorausgesagt, dass der Cell eine ganz wunderbare, inovative und zukunftsweisende Technik ist :freak:
http://chaosradio.ccc.de/cre036.html
dildo4u
2010-12-29, 16:36:10
Wäre ja auch schade drum.
Im ChaosRadio PodCast 2006 wurde vorausgesagt, dass der Cell eine ganz wunderbare, inovative und zukunftsweisende Technik ist :freak:
http://chaosradio.ccc.de/cre036.html
Gute Einschätzung vom CCC immerhin war ein Cluster mit Cell Mitte 2010 in den Top 3.
http://www.top500.org/list/2010/06/100
Jetzt haben aber langsam die Nvidia GPU's das sagen.Aber davon hat IBM ja nix*g* vieleicht kommt der 1TF Cell ja noch.
http://www.ps4forums.org/wp-content/gallery/ps3-cell-chip/page10.png
Nightspider
2010-12-29, 16:44:25
Wenn man sieht das Cell Heute fast alle Arbeit der GPU abnimmt,halte ich es auch für wahrscheinlich das die PS4 ein Cell in 32nm bzw 22nm bekommt vieleicht mit 16 SPUs.Abwärtskompatibilität muss imo ein wichtiger Punkt in der Entwicklung de PS4 sein würde gerne alle Meisterwerke der PS3 noch mal in 1080p bzw 3D zocken.
Welche Grafiklast kann denn der Cell der GPU alles abnehmen?
Das wird ein interessanter Punkt.
Ich kann mir gut vorstellen, das in der nächsten Konsolengeneration das Watt Verhältnis von CPU und GPU mehr zu Gunsten der GPU ausfällt, da man mit DX11 Aufwärts wunderbar CPU Leistung auf die GPU auslagern kann und alles noch flexibler wird.
thade
2010-12-29, 16:59:09
das GoW1/2 remake sieht sogar besser aus als GoW3. hat zwar weniger details/effekte, dafür rennt es butterweich und ist optisch total glattgebügelt wärend der 3er oft genug vor sich hin flimmert und ruckelt.
daher musste ich bei dem "GoW3 - beste grafik 2010"-link etwas schmunzeln. ;)
Ich muss eher über deinen Post schmunzeln. ;)
Der Thread hier sollte wirklich umbenannt werden. Hier gehts schon lange nicht mehr um NexGen-Konsolen...
dildo4u
2010-12-29, 16:59:42
Welche Grafiklast kann denn der Cell der GPU alles abnehmen?
Bei God of War 3,Uncharted 2,Killzone 2 u.a Beleuchtung,Partikelflug und Kleidung(Was man Beides Heute beim PC am besten per GPU macht Physx),Objekt Basierter Motion Blur,Anti Aliasing(MLAA) etc.
SPU Nutzung bei GOW3.
http://www.tilander.org/aurora/comp/gdc2009_Tilander_Filippov_SPU.pdf
Uncharted 2 SPU Beleuchtung
http://www.neogaf.com/forum/showpost.php?p=25121322&postcount=71
Killzone 2 SPU Nutzung
http://sijm.ca/2009/wp-content/uploads/2009/12/michiel-van-der-leeuw.pdf
y33H@
2010-12-29, 17:06:20
Das Ding kann über Post-Effekte wie MLAA oder Motion Blur bis hin zu Deferred Rendering ziemlich viel.
thade
2010-12-29, 17:12:05
Wurde gepatcht mehr informieren weniger bashen.
Ich wollts auch grad schreiben. Ja manche sollten sich hier wirklich an einen gewissen Spruch halten. Aber schön ist es, wenn man ihre plumpen Bashes in Sekunden widerlegen kann. ;D
MarcWessels
2010-12-29, 17:13:15
Nur selbst damit hat die Xbox 360-GPU so ihre Problemchen, von Antialiasing ganz zu schweigen. Gibt nicht viele Spiele, die das nutzen.Häh? Nahezu jedes 360-Spiel nutzt AA.
Quaker
2010-12-29, 17:22:05
Wäre ja auch schade drum.
Im ChaosRadio PodCast 2006 wurde vorausgesagt, dass der Cell eine ganz wunderbare, inovative und zukunftsweisende Technik ist :freak:
http://chaosradio.ccc.de/cre036.html
Naja, klar wird es in Zukunft in diese Richtung gehen, dafür braucht es kein Chaos Radio...
Innovativ und zukunftsweisend heisst noch lange nicht brauchbar und effizient.
Cayman ist z.bsp. auch um einiges zukunftsweisender als der fette Fermi...
Micky92
2010-12-29, 18:10:08
Das Thema war "Next-Gen Konsolen?" und nicht "mein PC ist besser als eure scheiß Konsolen" oder "meine Konsole ist bessser als dein Nerd-PC!"
Mensch Leute, muss das jedes Mal so ausarten?
Ailuros
2010-12-29, 18:20:05
Diesen Bedarf der HighEnd PC User hat CryTek nun nach zwei Fehlversuchen endlich erkannt und Crysis 2 so konzipiert, dass viel Rechenleistung für Bildverbesserung übrig bleibt.
Wie y33H@ schon erwaehnte ist dieses eher ein Resultat des eigentlichen Entwicklungsziels seitens CryTek fuer Crysis2. Crysis war eben rein zufaellig ein high end PC Projekt.
Häh? Nahezu jedes 360-Spiel nutzt AA.
Echt? Mach mal eine Liste.
Scheinbar schon...
Wie penetrant hier einige "ihre" Konsolen verteidigen ist schon lustig :D
Fakt ist, dass weder XBox 360 noch PS3 von der Hardware mit einem guten (also Performance bis High-End) Spiele-PC von Ende 2005 mithalten können.
Muss das eine Konsole überhaupt? Meiner Meinung nicht, also könnt ich mir ein starkes SoC in der nächsten Konsolengeneration gut vorstellen. An AMD/Intel mag ich da aber nicht so recht glauben, die Hersteller haben es bisher tunlichst vermieden x86-Harware zu verbaun. (Ausnahme XBox)
Ailuros
2010-12-29, 18:22:49
Heutige gute PC CPUs werden mindestens Faktor 10 überlegen sein dem Xenon. Sind die PC Spiele heute aber deshalb um Faktor 10 besser?
Heutige PC CPUs sollen einem Xenos mit 48 VLiW ALUs ueberlegen sein und dazu noch zu einem Faktor 10? :rolleyes:
Amboss
2010-12-29, 18:23:04
"meine Konsole ist bessser als dein Nerd-PC!"
Mensch Leute, muss das jedes Mal so ausarten?
Na klar, Beleidigungen müssen trotzdem sein. Ich spiele vorwiegend am PC, mit nem Nerd habe ich absolut nichts gemeinsam!
san.salvador
2010-12-29, 18:24:55
Echt? Mach mal eine Liste.
So eine Liste hab ich mal aus dem beyond3d-Thread gestrickt. (Multiplattformervergleich)
SuFu. :D
Heutige PC CPUs sollen einem Xenos mit 48 VLiW ALUs ueberlegen sein und dazu noch zu einem Faktor 10? :rolleyes:
Xenon ist der Prozessor, Xenos der Grafikchip wenn ich das richtig in Erinnerung hab. ;)
Gute Einschätzung vom CCC immerhin war ein Cluster mit Cell Mitte 2010 in den Top 3.
http://www.top500.org/list/2010/06/100
Dir ist aber schon klar, dass das ganz anderer Code ist? DAS kann Cell, ich hab auf dem schon entwickelt, hat halt nur wenig mit Spielen zu tun...
Ailuros
2010-12-29, 18:30:48
Xenon ist der Prozessor, Xenos der Grafikchip wenn ich das richtig in Erinnerung hab. ;)
Kann sein dass es sich bloed anhoert aber ich hoere es zum ersten Mal.
fondness
2010-12-29, 18:36:15
Die Xbox-CPU ist real in etwa so schnell wie ein Athlon 64 X2 mit 2,2 GHz. Wie schon geschrieben, man darf sich nicht von MHz-Zahlen blenden lassen. Die Konsolen-CPUs sind sehr stark abgespeckt und nur in Spielen sind sie halbwegs schnell.
Ähm wie kommst du auf das? Sind die Konsolen-CPUs nicht IO?
dildo4u
2010-12-29, 18:38:54
Xenon ist der Prozessor, Xenos der Grafikchip wenn ich das richtig in Erinnerung hab. ;)
Dir ist aber schon klar, dass das ganz anderer Code ist? DAS kann Cell, ich hab auf dem schon entwickelt, hat halt nur wenig mit Spielen zu tun...
Warum lagert man dann Aufgaben der GPU auf Cell aus?Zusätzlich rechnet Cell noch Gameplayphysik und KI.Irgendwie scheint da noch verdammt viel Spielraum zu sein.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8474766&postcount=352
Und so weit ich das überblicke sind Intel und AMD noch nicht bei 200 GFlop Rechenleistung mit ihren CPU's.
2 Video's zu Uncharted 3 kommt schon gut und sie haben noch 1 Jahr bis zur Release.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8472668&postcount=64
Werewolf
2010-12-29, 18:44:29
Scheinbar schon...
Wie penetrant hier einige "ihre" Konsolen verteidigen ist schon lustig :D
Fakt ist, dass weder XBox 360 noch PS3 von der Hardware mit einem guten (also Performance bis High-End) Spiele-PC von Ende 2005 mithalten können.
Muss das eine Konsole überhaupt? Meiner Meinung nicht, also könnt ich mir ein starkes SoC in der nächsten Konsolengeneration gut vorstellen. An AMD/Intel mag ich da aber nicht so recht glauben, die Hersteller haben es bisher tunlichst vermieden x86-Harware zu verbaun. (Ausnahme XBox)
Die technische Überlegenheit bestreitet keiner, das wirst du auch gelesen haben, nur wolltest du noch etwas sticheln. Nicht gerade intelligent. ;)
Das Problem ist die maßlose Übertreibung nach dem Fuchs-und-Trauben-Prinzip. Sämtlichen Magazinen wird nun die Kompetenz abgesprochen darüber urteilen zu können was Grafik ausmacht und warum dieses oder jenes Spiel dieses Jahr sämtliche Awards abstaubt, ob nun in Sachen Grafik oder Gameplay/Story etc.. Aber nur weil es ein Konsolenspiel ist. ;) Den Jungs von Eurogamer (DigitalFoundy) und Co. traue ich mehr zu als den allermeisten aus diesem Forum. Hier wird in erster Linie unsachlich gebashed und irrational um sich geschlagen. Angst ums eigene Hobby? Verletzter Stolz?
Ich spiele auf jeder interessanten Plattform, und wenn ein Konsolentitel auf dem Thron sitzt heulen weder meine GTX 570 noch ich, auch bekomme ich kein Augenkrebs wenn ich von Downsampling zur Konsole (Uncharted und Co.) wechsele. Wie die kleinen Mädchen... :D
fondness
2010-12-29, 18:47:58
Warum lagert man dann Aufgaben der GPU auf Cell aus?
Weil die GPU ein totaler Krüppel ist.
Zusätzlich rechnet Cell noch Gameplayphysik und KI.Irgendwie scheint da noch verdammt viel Spielraum zu sein.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8474766&postcount=352
Physik und KI berechnet schon immer die CPU.
dildo4u
2010-12-29, 18:49:44
Physik und KI berechnet schon immer die CPU.
Darum geht's Cell rechnet Teile der Grafik und zusätzlich alle CPU Aufgaben soviel zu nicht brauchbar für Spielecode.
Killzone 3
http://www.youtube.com/watch?v=D1vs9H7WqAo&hd=1
Avalox
2010-12-29, 18:55:40
Heutige PC CPUs sollen einem Xenos mit 48 VLiW ALUs ueberlegen sein und dazu noch zu einem Faktor 10? :rolleyes:
Xenon, nicht Xenos.
Xenon (processor) - Not to be confused with the ATI Xenos (also used in the Xbox 360 as the GPU) (http://en.wikipedia.org/wiki/Xenon_(processor))
Ja Faktor 10 wird vermutlich nicht mal reichen.
Tesseract
2010-12-29, 19:07:23
Auflösung ist die selbe plus MLAA GOW3 läuft dazu immer flüssig und der FPS schnitt liegt weit über jedem anderen Exklusiv Grafikkracher der letzen 5 Jahre.
ändert nix daran, dass GOW3 im gegensatz zu den beiden PS3-remakes flimmert und ruckelt wie scheiße. die grafik ist in den remakes einfach viel homogener und kohärenter.
jeder der was anderes behauptet ist entweder blind oder hat sie nie vergleichen.
dildo4u
2010-12-29, 19:11:45
ändert nix daran, dass GOW3 im gegensatz zu den beiden PS3-remakes flimmert und ruckelt wie scheiße. die grafik ist in den remakes einfach viel homogener und koherenter.
jeder der was anderes behauptet ist entweder blind oder hat sie nie vergleichen.
Es ruckelt gar nix was auch gemessen wurde im Eurogamer Artikel.Deshalb bringt deine Lügerei gar nix.
http://www.eurogamer.net/videos/digitalfoundry-god-of-war-iii-performance-analysis?size=hd
Tesseract
2010-12-29, 19:23:53
Es ruckelt gar nix was auch gemessen wurde im Eurogamer Artikel.Deshalb bringt deine Lügerei gar nix.
http://www.eurogamer.net/videos/digitalfoundry-god-of-war-iii-performance-analysis?size=hd
sry, aber das video läuft nicht weich. nichtmal ansatzweise.
kennst du die remakes? das ist eine ganz andere welt.
dildo4u
2010-12-29, 19:26:29
sry, aber das video läuft nicht weich. nichtmal ansatzweise.
kennst du die remakes? das ist eine ganz andere welt.
Das Video ist auf 30fps codiert bzw beschränkt beim zocken ist es flüssiger mir gings um die FPS Anzeige.Ruckelt wie scheiße sind bei mir ständig unter 30fps.
Kann sein dass es sich bloed anhoert aber ich hoere es zum ersten Mal.
Naja wir sprechen hier in der Regel mehr über die Grafikchips, der Name wird auch sonst selten verwendet.
Die technische Überlegenheit bestreitet keiner, das wirst du auch gelesen haben, nur wolltest du noch etwas sticheln. Nicht gerade intelligent. ;)
Manche hier im Forum schon und um das gehts mir. Was "Grafik" angeht, mich interessiert eher die Technik und nicht das Artwork bei solchen Betrachtungen, bei den Magazinen schaut das anders aus ;)
Warum lagert man dann Aufgaben der GPU auf Cell aus?Zusätzlich rechnet Cell noch Gameplayphysik und KI.Irgendwie scheint da noch verdammt viel Spielraum zu sein.
Man macht PP-Effekte und Effektphysik auf den SPEs weil das recht gut geht und der Grafikchip zu langsam dafür ist. Anders ausgedrückt, man MUSS solche Sachen auf dem Cell machen, da man sonst keine vernünftige Leistung aus der PS3 bekommt. Deswegen ist das Ding schlecht für Spiele geeignet, ich kann keine aufwendige KI etc darauf machen, weil die PPE viel zu langsam ist. Aus Sicht eines Informatikers iist das eine schlecht ausbalancierte Architektur, das heißt aber nicht, dass ich damit nichts machen kann. Klarer?
dildo4u
2010-12-29, 19:37:22
Naja wir sprechen hier in der Regel mehr über die Grafikchips, der Name wird auch sonst selten verwendet.
Manche hier im Forum schon und um das gehts mir. Was "Grafik" angeht, mich interessiert eher die Technik und nicht das Artwork bei solchen Betrachtungen, bei den Magazinen schaut das anders aus ;)
Man macht PP-Effekte und Effektphysik auf den SPEs weil das recht gut geht und der Grafikchip zu langsam dafür ist. Anders ausgedrückt, man MUSS solche Sachen auf dem Cell machen, da man sonst keine vernünftige Leistung aus der PS3 bekommt. Deswegen ist das Ding schlecht für Spiele geeignet, ich kann keine aufwendige KI etc darauf machen, weil die PPE viel zu langsam ist. Aus Sicht eines Informatikers iist das eine schlecht ausbalancierte Architektur, das heißt aber nicht, dass ich damit nichts machen kann. Klarer?
Keine aufwendige KI aha.
Technical Innovation in Game AI
"Vote Winner
Combat AI in KILLZONE 2"
http://aigamedev.com/open/editorial/2009-awards-results/
Tesseract
2010-12-29, 19:43:46
Das Video ist auf 30fps codiert bzw beschränkt beim zocken ist es flüssiger mir gings um die FPS Anzeige.Ruckelt wie scheiße sind bei mir ständig unter 30fps.
das ist aber dein persönlicher maßstab. für mich ist ruckeln alles unterhalb der wiederholfrequenz des fernsehers und das ist bei GOW3 der fall, bei den remakes in den meisten fällen nicht - und den unterschied sieht man (nicht im video sondern live am TV) sofort.
dildo4u
2010-12-29, 19:47:38
das ist aber dein persönlicher maßstab. für mich ist ruckeln alles unterhalb der wiederholfrequenz des fernsehers und das ist bei GOW3 der fall, bei den remakes in den meisten fällen nicht - und den unterschied sieht man (nicht im video sondern live am TV) sofort.
Dann ruckelt jedes neue High-End Game für dich,das Ports von alten Games mit 60fps laufen können ist jetzt imo keine Technische Meisterleistung.Die PC Spitze Crysis,Metro 2003 ruckelt dann auch wie scheiße fällt also auch raus als Technische Meisterleistung,möchte nicht wissen was da der FPS Schnitt bei 90% der User ist.Glaub kaum das du die mit 60fps @Max spielen kannst.
Deathcrush
2010-12-29, 19:48:57
Die KI bei Killzone 2 ist ein Witz und keineswegs aufwendig.
dildo4u
2010-12-29, 19:52:52
Die KI bei Killzone 2 ist ein Witz und keineswegs aufwendig.
Eine Seite die sich nur mit AI beschäftigt sieht das anders,wobei die Hauptsächlich die Bots im MP loben haste vieleicht nicht so viel gegen gezockt.Aber Klar die KI ist ein Witz oder eher deine Posts ich sehe ein vertrautes Muster.
Deathcrush
2010-12-29, 20:02:11
Dann Spiele mal Shooter mit eine wirklich aufwendigen KI bzw schau über den Tellerrand.
_DrillSarge]I[
2010-12-29, 20:06:02
diskutiert ihr hier ernsthaft mit unserem GT5-PS3-newsbot? :eek:
thade
2010-12-29, 20:13:27
I[;8475152']diskutiert ihr hier ernsthaft mit unserem GT5-PS3-newsbot? :eek:
Im Gegensatz zu dir und vielen anderen hier im Thread belegt er seine Aussagen wenigstens durch Links von renommierten Webseiten. Hinter seinen Aussagen steckt auch meist immer die Wahrheit. Das er die meisten hier im Thread locker in die Tasche steckt was sein Konsolenwissen angeht, darüber müssen wir uns nicht unterhalten?
Da fragt man sich, was du noch hier willst? ;)
@dildo
Ignorier Deathcrush bitte, tu dir selbst den Gefallen!
dildo4u
2010-12-29, 20:14:06
I[;8475152']diskutiert ihr hier ernsthaft mit unserem GT5-PS3-newsbot? :eek:
Muss ja nicht jeder meiner Meinung sein aber wär schon schön wenn auch mal andere Leute Substanz(Links,Artikel,PDFs) mit in den Thread bringen und nicht nur Gebasche.
LuXon
2010-12-29, 20:15:24
GOW3 sieht eigentlich nicht schlecht aus. Allerdings muss man bedenken, dass da keine grosse Welt ist, welche gestreamt werden muss. Die level sind in sich abgeschlossen. Auch kein Blick in die ferne ist möglich und die festgesetzte Kamera tut ihr übriges. Grafik hui, Technik pfui.
_DrillSarge]I[
2010-12-29, 20:16:00
^^aaahhh, thade+dildo in einem thread ;D. das thema ist übrigens Next-Gen Konsolen und nicht pc vs konsolen JETZT :P
dildo4u
2010-12-29, 20:20:30
I[;8475184']^^aaahhh, thade+dildo in einem thread ;D. das thema ist übrigens Next-Gen Konsolen und nicht pc vs konsolen JETZT :P
Ich wollte das Thema da hin bringen Cell in PS4 als speku dadraus entstand die Diskussion um Cell.Ich denke ein neuer Cell ist ne Option für die PS4 vorallem wegen der Abwärtskompatibilität zur PS3.
Deathcrush
2010-12-29, 20:20:43
I[;8475184']^^aaahhh, thade+dildo in einem thread ;D.
Ja, es wird spannend. Ich frage mich sowieso, warum der Kerl hier mit mehreren Accounts herumgeistern darf. Er wurde ja nicht nur einmal gesperrt.
_DrillSarge]I[
2010-12-29, 20:23:10
vorallem wegen der Abwärtskompatibilität zur PS3.
abwärtskompatibilität hat sony doch schon beim ps3 "refresh" nicht mehr interessiert :(
aoe_forever
2010-12-29, 20:28:38
Aus dem Cell-Projekt ist Sony ausgestiegen; IBM kann evtl. damit weitermachen.
Damit ist Cell für die PS4 tot - auch wenn manche es nicht wahrhaben wollen. Bestenfalls gibts eine teuere HW-Abwärtskompatibilität mit zusätzlicher Hardware, und wie sich das bewährt hat zeigt sich ja an den ersten PS3-Modellen...
Zu meinen daß die PS4 auf Cell aufbaut ist halt ein Wunschglaube, mehr nicht.
Micky92
2010-12-29, 20:29:39
Leute, euer Problem ist, dass ihr euch für den Mittelpunkt der Welt haltet.
In der Realität seid ihr aber nur eine kleine Außenseitergruppe, die weniger als 5% aller Spieler ausmacht.
Tatsache ist: es interessiert die Spieleindustrie einen Scheißdreck was ihr denkt oder wollt! Da könnt ihr noch bis an's Lebensende über nicht vorhandenes AF/AA und 30fps/720p meckern, es interessiert einfach keine Sau. 90% aller PS3/Xbox360 Besitzer sind mit der gebotenen Grafik voll und ganz zufrieden! Man wird nicht exklusiv für euch eine HighPower 2000€ Konsole entwickeln. Also beendet doch diese schwachsinnige Diskussion und lasst uns auf das Thema konzentrieren: "Next-Gen Konsolen?"
dildo4u
2010-12-29, 20:34:05
Aus dem Cell-Projekt ist Sony ausgestiegen; IBM kann evtl. damit weitermachen.
Damit ist Cell für die PS4 tot - auch wenn manche es nicht wahrhaben wollen. Bestenfalls gibts eine teuere HW-Abwärtskompatibilität mit zusätzlicher Hardware, und wie sich das bewährt hat zeigt sich ja an den ersten PS3-Modellen...
Zu meinen daß die PS4 auf Cell aufbaut ist halt ein Wunschglaube, mehr nicht.
http://www.computerbase.de/news/wirtschaft/2010/dezember/sony-kauft-cell-cpu-fabrik-zurueck/
Warum sollte Sony das Desgin von IBM nicht kaufen können? Nintendo und MS machen auch nix anderes als Designs von IBM zu kaufen.
Tesseract
2010-12-29, 20:36:48
Dann ruckelt jedes neue High-End Game für dich
tut es in den meisten fällen auch. darum spiele ich die meisten spiele auch mit aktueller high-end-hardware wenn sie selbst schon etwas älter sind. das macht das ganze gameplay einfach besser. (hi @ steam deals :D)
gerade bei offline-singleplayer-spielen ist es sowas von egal ob ich sie heute oder in einem jahr spiele. aber die "erstspiel-experience" hat man nur einmal und die ist komplett flüssig auf max details einfach ein ganz anderes erlebnis.
außerdem will ich garnicht die grafik von GOW schlecht machen. aber ich finde die remakes optisch trotzdem besser, vor allem weil sie die hardware nicht zu 100% auslasten und deswegen einfach kompromisslos gut laufen. (mal bagesehen davon, dass ich auch abseits von der grafik GOW1 besser als die anderen teile finde)
das Ports von alten Games mit 60fps laufen können ist jetzt imo keine Technische Meisterleistung.
ich hab nie behauptet es sei eine technische meisterleistung. ich hab behauptet es sieht (aus genannten gründen) einfach besser aus. ich finde z.B. auch doom 3 ist nach wie vor eines der optisch ansprechendsten spiele (auch wenn die models relativ polygonarm sind) weil die ganze grafik wie aus einem guss wirkt.
aoe_forever
2010-12-29, 20:39:29
Ok, IBM hat mit Cell kaum Umsatz gemacht - aber vermutlich mehr als die anderen beiden Partner - und jetzt kauft einer der anderen Partner dem dritten die Fabrik ab... was bedeutet daß?
Eigentlich nicht viel mehr als das Sony eine Produktionsstätte für die aktuelle Konsole irgendwie erhält. Anders gesagt: Keiner will/braucht die Fabrik noch.
Ridcully
2010-12-29, 21:11:08
Erst mal: schöner Thread :biggrin:. Endlich mal was los.
Vor ein paar Seiten wurde angesprochen ob eine next Gen Konsole das Laufwerk durch Flash ersetzen könnte.
Vorteile:
Keine Kosten durch Laufwerk und ein mechanisches Teil weniger.
Erstklassiger Kopierschutz.
Schnelle Zugriffszeiten.
Keine Lizenzgebühren.
Nachteile:
1-2€ pro Gb.
Kein Multimedia
dildo4u
2010-12-29, 21:15:35
Blu Ray ist imo gesetzt für die näste Gen(für Filme und alte/neu Games) aber SSDs als Systemplatte sind ne Möglichkeit.
Micky92
2010-12-29, 21:16:50
1-2€ pro Gb.
Was bei heutigen und zukünftigen Spielen schnell mal 10€ nur für den Datenträger macht...
Sven77
2010-12-29, 21:20:21
Das physische Medium für Spiele aufzugeben ist der nächste Schritt. Ich glaube nicht, das es noch lange dauert bis die ersten Vollpreistitel exklusiv über den PSN Store respective MS Marketplace reinschneien.
Steam macht es vor, die Bindung von Spielen an einen Account unterbindet den Gebrauchtmarkt für Spiele und man ist den Raubkopierern wieder (zunächst) einen Schritt voraus.
Tesseract
2010-12-29, 21:31:37
Vor ein paar Seiten wurde angesprochen ob eine next Gen Konsole das Laufwerk durch Flash ersetzen könnte.
das glaub ich weniger, dazu sind die speichermengen einfach viel zu groß.
viel eher bekommenen die next gen konsolen endlich mal "ordentliche" festplatten, die per download/online-marketplacce befüllt werden. im ansatz (aber schlecht umgesetzt) gibt es sowas eh schon auf den aktuellen konsolen.
Blu Ray ist imo gesetzt für die näste Gen(für Filme und alte/neu Games) aber SSDs als Systemplatte sind ne Möglichkeit.
SSD kommen garantiert nicht. dazu werden sie auch in ein paar jahren noch viel zu teuer pro GB sein.
und bei blu ray ist die frage wann endlich der filmdownload kommerzialisiert wird. eigentlich ist das schon seit jahren überfällig und eigentlich hätte schon die blu ray nichtmehr kommen müssen.
sobald die betonschädel in der industrie endlich mal draufkommen, dass sie einen riesen markt aus purer dummheit seit mehr als 10 jahren komplett kampflos (im sinne von wettbewerb, nicht von DRM) der piraterie überlassen haben und in den markt einsteigen (wie es in der musikindustrie schon passiert ist) werden die speicherscheiben sehr an bedeutung verlieren.
dargo
2010-12-29, 22:06:47
Blu Ray ist imo gesetzt für die näste Gen(für Filme und alte/neu Games) aber SSDs als Systemplatte sind ne Möglichkeit.
Eine Konsole muss möglichst günstig sein. Eine SSD ist da imo eher fehl am Platz.
Crazy_Chris
2010-12-29, 22:20:52
und bei blu ray ist die frage wann endlich der filmdownload kommerzialisiert wird. eigentlich ist das schon seit jahren überfällig und eigentlich hätte schon die blu ray nichtmehr kommen müssen.
sobald die betonschädel in der industrie endlich mal draufkommen, dass sie einen riesen markt aus purer dummheit seit mehr als 10 jahren komplett kampflos (im sinne von wettbewerb, nicht von DRM) der piraterie überlassen haben und in den markt einsteigen (wie es in der musikindustrie schon passiert ist) werden die speicherscheiben sehr an bedeutung verlieren.
Das kommt nicht so schnell da es flächendeckend massiv an Bandbreite für die Internetzugänge fehlt. In Japan oder Südkorea viell. vorstellbar aber hier in Europa und auch in den USA eher nicht. Viell. in 10 Jahren, da braucht man sich keine Illusionen zu machen. Wenn 95% aller Haushalte mind. 25Mbit/s bekommen dann kann man darüber viell. reden. (Im Schnitt hat ne Film-Blu-ray so um die 30-40Gb an Daten und das ist selbst mit 100Mbit/s kein spaß) Streaming + Buffering wäre noch ne Möglichkeit aber das ist auch nicht das wahre. Ansonsten gibt es schon jedemenenge "kommerzialisierte Filmdownloads" die aber allesamt nichtmal im Ansatz die Qualität einer BD liefern.
Um zum Thema zu kommen. Die nächste Konsolengeneration bietet wieder ein optisches Laufwerk oder sie wird direkt gleich durch Streamingclients ala "OnLive" ersetzt. Ich denke mal ersteres wird eintreffen. Wird dann aber auch die letzte sein denke ich. Konsolen sind mittelfristig wohl dem Tode geweiht. Dazu funktionieren Streamingdienste selbst jetzt schon zu gut. Die Zeit läuft jedenfalls gegen sie denke ich.
Tesseract
2010-12-29, 22:47:57
Das kommt nicht so schnell da es flächendeckend massiv an Bandbreite für die Internetzugänge fehlt.
soso, deswegen funktioniert p2p auch so schlecht - selbst ohne starke finanzielle mittel im rücken. :D
und selbstverständlich würde sich dann auch die verfügbarkeit der anschlüsse anpassen. so ist das in der marktwirtschaft.
außerdem sind mpeg2-blurays mit 30-40GB definitiv keine referenz. erst recht nicht wenn das ausgangsmaterial bei älteren filmen die möglichkeiten oft garnicht sinnvoll ausnutzen lässt.
MarcWessels
2010-12-29, 22:51:22
außerdem sind mpeg2-blurays mit 30-40GB definitiv keine referenz. erst recht nicht wenn das ausgangsmaterial bei älteren filmen die möglichkeiten oft garnicht sinnvoll ausnutzen lässt.OMFG. Informiere Dich erst einmal über Dinge, bevor Du über sie sprichst. Das gilt übrigens auch für den nicht fettgedruckten ersten Teil des Zitats.
Tesseract
2010-12-29, 23:00:23
OMFG. Informiere Dich erst einmal über Dinge, bevor Du über sie sprichst. Das gilt übrigens auch für den nicht fettgedruckten ersten Teil des Zitats.
inwiefern?
Windi
2010-12-29, 23:07:38
Eine Konsole muss möglichst günstig sein. Eine SSD ist da imo eher fehl am Platz.
Selbst die WII hatte ja quasi von Anfang an eine SSD verbaut und Microsoft macht es bei der Xbox360 mittlerer Weile ähnlich. Der Begriff SSD steht ja nicht zwingend für dutzende Gigabyte.
Genau das erwarte ich, in ähnlicher Form, bei der nächsten Generation genau so. Ein paar GB verbauter Flashspeicher und optional die Möglichkeit eine USB-Festplatte anzuschließen.
Wirklich günstige Minifestplatten gibt es ja leider nicht und Flash in großen Mengen ist anfangs noch viel zu teuer.
Windi
2010-12-29, 23:12:06
inwiefern?
Weil so gut wie alle Filme nicht in PAL- oder NTCS-Auflösung gedreht wurden, sondern deutlich höher. (erst recht die alten auf Zelluloid)
Sven77
2010-12-29, 23:17:56
Weil so gut wie alle Filme nicht in PAL- oder NTCS-Auflösung gedreht wurden, sondern deutlich höher. (erst recht die alten auf Zelluloid)
Ja, nur bringt es einem nichts, wenn das Master eben nicht in HD vorliegt.. ich behaupte mal dreist das 50% der Datenmenge auf einer Blu-Ray unnötig ist
Spasstiger
2010-12-29, 23:19:48
Eine geringe Menge an Flashspeicher (16-32 GiB) fürs OS und Downloads ist auf jeden Fall günstiger als eine Festplatte der gleichen Kapazität und hat den deutlich kleineren Footprint. Bei der Flashspeicherlösung lötet man einfach 1-2 Speicherchips aufs Board und den evtl. benötigten Controller dazu (bei SoCs ist der Flashcontroller oft schon integriert). Ist bei der Montage auch logistisch einfach zu handhaben als der Verbau von Festplatten.
Crazy_Chris
2010-12-29, 23:21:00
soso, deswegen funktioniert p2p auch so schlecht - selbst ohne starke finanzielle mittel im rücken. :D
und selbstverständlich würde sich dann auch die verfügbarkeit der anschlüsse anpassen. so ist das in der marktwirtschaft.
außerdem sind mpeg2-blurays mit 30-40GB definitiv keine referenz. erst recht nicht wenn das ausgangsmaterial bei älteren filmen die möglichkeiten oft garnicht sinnvoll ausnutzen lässt.
Selbst Filme die direkt in h.264 oder vc1 codiert sind können soviel Speicher verbraten. 8Gb gehen alleine schon für die vielen Tonspuren drauf. Außerderm war bei mir die Rede von einer Blu-ray, also auch mit Zusatzmaterial usw. Wenn man 3 Tage auf seinen Film warten will dann geht das natürlich auch mit nen popelligen DSL 3000 Anschluss. ;)
Eine geringe Menge an Flashspeicher (16-32 GiB) fürs OS und Downloads ist auf jeden Fall günstiger als eine Festplatte der gleichen Kapazität und hat den deutlich kleineren Footprint. Bei der Flashspeicherlösung lötet man einfach 1-2 Speicherchips aufs Board und den evtl. benötigten Controller dazu (bei SoCs ist der Flashcontroller oft schon integriert). Ist bei der Montage auch logistisch einfach zu handhaben als der Verbau von Festplatten.
Soll das ein Witz sein? In Anbetracht das selbst heute schon Demos gerne 1Gb und größer sind kommt man in Zukunft damit erst recht nicht weit.
Windi
2010-12-29, 23:25:19
Für mich bedeutet der Satz:
"erst recht nicht wenn das ausgangsmaterial bei älteren filmen die möglichkeiten oft garnicht sinnvoll ausnutzen lässt"
das man bei älteren Filmen nicht die volle HDTV-Auflösung ausnutzen kann.
Und genau das sehe ich nicht so. Die meisten Filme wurden eh fürs Kino produziert und sind viel höher aufgelöst.
dildo4u
2010-12-29, 23:26:55
Ja, nur bringt es einem nichts, wenn das Master eben nicht in HD vorliegt.. ich behaupte mal dreist das 50% der Datenmenge auf einer Blu-Ray unnötig ist
Der Master liegt meistens im 35mm Format vor aus dem man 2-4 Mio Pixel Auflösungen raus bekommt.
"Auch hat sich die Filmindustrie für die einschlägigen Spielfilme einstweilen auf das digitale HDTV-Format 1080p ( 1920x1080 = 2 Millionen Bildpunkte ) festgelegt, was in vielen Fällen das Auflösungsvermögen des 35mm-Films recht gut ausnutzt."
http://sprec000.lima-city.de/Digicam5.html
Windi
2010-12-29, 23:29:46
Soll das ein Witz sein? In Anbetracht das selbst heute schon Demos gerne 1Gb und größer sind kommt man in Zukunft damit erst recht nicht weit.
Fürs OS, ein wenig Musik, ein paar Patches und einer Hand voll Demos wird es schon reichen. Wer mehr will muss sich halt eine USB-Festplatte anschließen.
dargo
2010-12-29, 23:30:45
Selbst die WII hatte ja quasi von Anfang an eine SSD verbaut und Microsoft macht es bei der Xbox360 mittlerer Weile ähnlich. Der Begriff SSD steht ja nicht zwingend für dutzende Gigabyte.
Und wozu soll eine SSD dann in der Konsole gut sein die nur wenige GB bietet?
Windi
2010-12-29, 23:37:10
Und wozu soll eine SSD dann in der Konsole gut sein die nur wenige GB bietet?
OS, Spielstände abspeichern, Patches, Demos und APPs
Wer weiterern Content aus dem Downloadbereich will (Musik, Filme, Spiele) muss sich halt beschränken. Oder mit Hilfe von USB-Sticks und Speicherkarten die Daten auslagern. Eleganteste Lösung wäre da natürlich eine USB-Festplatte, aber dass brauch nicht jeder.
dargo
2010-12-29, 23:40:34
OS, Spielstände abspeichern, Patches, Demos und APPs
Dafür reicht eine HDD völlig aus, die zudem günstiger ist.
=Floi=
2010-12-29, 23:42:19
Es ruckelt gar nix was auch gemessen wurde im Eurogamer Artikel.Deshalb bringt deine Lügerei gar nix.
http://www.eurogamer.net/videos/digitalfoundry-god-of-war-iii-performance-analysis?size=hd
wie kann man sich auf der ps3 die fps anzeigen lassen?
deine promo videos von NICHT veröffentlichten games kannst du dir komplett sparen! (U3, KZ3)
wir haben ja an GT5 gesehen was dabei rauskommt und die marketingabteilungen erzählen viel, wenn der tag lang ist.
Windi
2010-12-29, 23:51:05
Dafür reicht eine HDD völlig aus, die zudem günstiger ist.
Festplatten sinken erstens kaum im Preis. (Die werden 2020 noch ähnlich viel kosten wie 2013) Eine Konsole soll aber während ihrer Lebenszeit immer billiger werden.
Zweitens wird 2012/13 Flashspeicher (8GB/16GB/32GB) wohl weniger Kosten als eine HDD. (8GB Kosten heute keine 12€)
dildo4u
2010-12-29, 23:52:12
wie kann man sich auf der ps3 die fps anzeigen lassen?
deine promo videos von NICHT veröffentlichten games kannst du dir komplett sparen! (U3, KZ3)
wir haben ja an GT5 gesehen was dabei rauskommt und die marketingabteilungen erzählen viel, wenn der tag lang ist.
Die Videos sind alle von spielbaren Versionen,das Video von KZ3 ist von einem Gamemagazin das die Preview Version hat.Uncharted 3 wurde live bei Jimmy Fallon gespielt.Eurogamer hat spezielles Capture Equipment womit sie die fps messen.
Uncharted 3 bei Jimmy Fallon
http://www.latenightwithjimmyfallon.com/video/uncharted_3_demo_121310/1264778
Killzone 3 Preview bei videogamezone
Unter dem Video gibt mehr Links u.a zum Boss Kampf.
http://videos.videogameszone.de/v/7kEyY25Iytt/Killzone-3/Killzone-3-mit-PlayStation-Move-gespielt/
Leider kann man die Streams meistens vergessen da kaputt kompremiert.
Crazy_Chris
2010-12-29, 23:54:53
Festplatten sinken erstens kaum im Preis. (Die werden 2020 noch ähnlich viel kosten wie 2013) Eine Konsole soll aber während ihrer Lebenszeit immer billiger werden.
Zweitens wird 2012/13 Flashspeicher (8GB/16GB/32GB) wohl weniger Kosten als eine HDD. (8GB Kosten heute keine 12€)
Naja 2Tb gibts inzwischen schon ab ~70€ im Einzelhandel. :wink: Ich will dann nicht wissen was ein Hersteller bezahlen muß der gleich Verträge über mehrere Millionen abschließt. :eek:
Micky92
2010-12-30, 00:00:57
Festplatten sinken erstens kaum im Preis.
Ach deswegen habe ich vor 10 Jahren ~150€ für eine 20GB HDD bezahlt :uponder:
dargo
2010-12-30, 00:01:06
Festplatten sinken erstens kaum im Preis.
Wie bitte?
http://geizhals.at/deutschland/a400379.html
Zweitens wird 2012/13 Flashspeicher (8GB/16GB/32GB) wohl weniger Kosten als eine HDD. (8GB Kosten heute keine 12€)
Ich glaube wir reden aneinander vorbei. Unter einer SSD verstehe ich sowas:
http://geizhals.at/deutschland/a444063.html
Wenn du von Flashspeicher allgemein ausgehst könnte man theoretisch einen stinknormalen USB-Stick nehmen, der heute schon kaum was kostet. Die Übertragungsraten dieser sind nur deutlich schlechter als eine HDD. Fürs Streaming reicht kein stinknormaler Flashspeicher.
thade
2010-12-30, 00:01:28
deine promo videos von NICHT veröffentlichten games kannst du dir komplett sparen! (U3, KZ3)
Die Vorgänger sehen genauso aus und was hier gezeigt wird ist 1:1 Gameplay.
Hier (http://www.youtube.com/watch?v=rtbIxNKClGg&hd=1) auch ein schönes Promo-Video von God of War 3, so würdest du es ja bezeichnen nicht wahr? :freak: Versuche bitte nicht mitzureden wenn du die Spiele nie selbst gezockt hast, Danke! :)
Sven77
2010-12-30, 00:01:31
Der Master liegt meistens im 35mm Format vor aus dem man 2-4 Mio Pixel Auflösungen raus bekommt.
Ok, ich habe mich falsch ausgedrückt.. DIGITALE Master liegen nicht für jeden Film vor.. zudem wurden viele 35mm Originale mit nur 2K ausbelichtet weil das Postprocessing damals nicht mehr hergab.. mir als Endkunden bringt es nichts wenn alle Filme in HD möglich wären, es sich für die Verleihe aber nicht lohnt diese zu remastern..
dildo4u
2010-12-30, 00:09:24
Hier (http://www.youtube.com/watch?v=rtbIxNKClGg&hd=1) auch ein schönes Promo-Video von God of War 3, so würdest du es ja bezeichnen nicht wahr? :freak: Versuche bitte nicht mitzureden wenn du die Spiele nie selbst gezockt hast, Danke! :)
Lecker das kannte ich noch nicht schön zusammengestellt.
dargo
2010-12-30, 00:11:28
Ich frage mich gerade was ihr so toll an diesen GoW3 und Uncharted 3 Videos findet? Ich habe eher das Gefühl, dass hier einige Artwork und Präsentation mit guter Grafik verwechseln. Ich sehe nichts besonderes an diesen Videos.
Lecker das kannte ich noch nicht schön zusammengestellt.
Sag ich doch. ;)
MarcWessels
2010-12-30, 00:13:07
@sven77
Das haben sie sich ja noch nichtmal bei dem schlechten Zurück in die Zukunft-Transfer getraut, etwas schlechters als einen 2K-Scan (leider obendrein noch vom Interpositiv) zu verwenden.
Und selbstverständlich wirken sich zu geringe Bitraten auch bei eher mittelprächtigen Transfers aus, indem Kompressionsartefakte wie beispielsweise Blockartefakte entstehen.
Avatar hätte auch gut eine 100GB Blu-ray gebrauchen können.
Und was ist beim Umstieg auf 4K, der demnächst ansteht? Da reichen die DSL-Anbindungen erst recht nicht aus - die Anbieter interessiert das natürlich nicht, die komprimieren die Filme einfach tot und bauen darauf, dass der 08/15-Kunde nichts von dem Scheiß mitbekommt.
Iruwen
2010-12-30, 00:14:46
Worum gehts überhaupt? God of War 3 ruckelt nicht (bzw. nur ganz selten) aber läuft deutlich weniger flüssig (fühlt sich also für jemanden der PC-Verhältnisse gewohnt ist manchmal zäh an) als die GoW 1+2 Remakes, ist ja auch logisch bei dem Detailunterschied. Und flimmern tut GoW 3 leider auch ab und zu kräftig, z.B. direkt am Anfang wenn man auf Gaia kämpft. Dass das Spiel genialen Content und Gameplay bietet kaschiert solche Schwächen nicht, das muss man trennen.
/e: 100% Zustimmung @dargo.
dildo4u
2010-12-30, 00:16:25
Ich frage mich gerade was ihr so toll an diesen GoW3 und Uncharted 3 Videos findet? Ich habe eher das Gefühl, dass hier einige Artwork und Präsentation mit guter Grafik verwechseln. Ich sehe nichts besonderes an diesen Videos.
Sag ich doch. ;)
Das arbeitet Hand in Hand und so gewinnt man Grafikawards.Das wird sogar im Video von Gametrailers angesprochen das GOW3 vor Kirby liegt,weil es Beides hat.(Artwork und Technik)
thade
2010-12-30, 00:17:35
Ich sehe nichts besonderes an diesen Videos.
Na du bist eben gewollt blind in der Hinsicht. :)
@dildo
Joa epic Moments in diesem Video die der PC-Gamer in der Art natürlich nicht kennt. :cool:
Wer GoW3 gezockt hat ist bei dem Video natürlich wieder voll dabei. ;)
dargo
2010-12-30, 00:23:36
Avatar hätte auch gut eine 100GB Blu-ray gebrauchen können.
Erklärung? Ich fand Avatar spitze. Mit ~40Mbit auch die höchste Bitrate bei BD die ich gesehen habe. Muss allerdings sagen, dass ich noch nicht so viele konsumiert habe.
Iruwen
2010-12-30, 00:24:33
Jahresvollversammlung der GoW3 Fanboys hier wa? Na macht ihr man.
@sven77
Das haben sie sich ja noch nichtmal bei dem schlechten Zurück in die Zukunft-Transfer getraut, etwas schlechters als einen 2K-Scan (leider obendrein noch vom Interpositiv) zu verwenden.
Doof dass bei BD-Versionen dann manchmal sowas rauskommt:
http://www.avpgalaxy.net/website/articles/predator-blu-ray-comparison/
Da gibt es endlich die Möglichkeit das Quellmaterial nahezu in Originalqualität zu übertragen und dann jagt man einen Filter drüber der das Filmkorn entfernt... :facepalm:
/e: wird langsam etwas OT.
dargo
2010-12-30, 00:29:01
Na du bist eben gewollt blind in der Hinsicht. :)
Ich hab dich auch lieb. :comfort: Lerne erstmal den Unterschied zwischen Technik und Präsentation wie zb. Kameraführung etc. dann können wir weiter reden. Präsentation schön und gut. Wenn mich aber die Technik dahinter nicht überzeugt nützt mir ersteres nicht viel.
|-Sh0r7y-|
2010-12-30, 00:50:03
Die Videos sind alle von spielbaren Versionen,das Video von KZ3 ist von einem Gamemagazin das die Preview Version hat.Uncharted 3 wurde live bei Jimmy Fallon gespielt.Eurogamer hat spezielles Capture Equipment womit sie die fps messen.
Uncharted 3 bei Jimmy Fallon
http://www.latenightwithjimmyfallon.com/video/uncharted_3_demo_121310/1264778
Killzone 3 Preview bei videogamezone
Unter dem Video gibt mehr Links u.a zum Boss Kampf.
http://videos.videogameszone.de/v/7kEyY25Iytt/Killzone-3/Killzone-3-mit-PlayStation-Move-gespielt/
Leider kann man die Streams meistens vergessen da kaputt kompremiert.
KZ3
KI beim Video genau so schlecht wie auch schon beim 2ten Teil!
Und nimmt sich damit nichts im vergleich zu 90% aller anderen spiele die es so gibt.
Eine gute KI schießt doch nicht auf ein, duckt sich, steht wieder auf bakllert auf ein aber diesmal 10 meter daneben.
Eine gute KI cheatet auch nicht und sie rastet nicht ein wie nen oller Bot.
Eine gute KI rastet nicht sofort in ein anderes ziel ein sobald man in deckung geht und läst sich dan ohne reaktion töten.
Eine gute KI steht nicht vor ein und ballert dauerfeuer nen halbes magazien auf dich ohne groß schaden zu verursachen.
Sie ist nicht schlechter als die ganzen anderen taugenix KI´s aber gelobt werden muss so eine standart ki nun wirklich nicht.
Edit:
Das ist immer noch nicht der PS3 Spiele sind super können alles besser thread.
dildo4u
2010-12-30, 00:52:56
KZ3
KI beim Video genau so schlecht wie auch schon beim 2ten Teil!
Und nimmt sich damit nichts im vergleich zu 90% aller anderen spiele die es so gibt.
Eine gute KI schießt doch nicht auf ein, duckt sich, steht wieder auf bakllert auf ein aber diesmal 10 meter daneben.
Eine gute KI cheatet auch nicht und sie rastet nicht ein wie nen oller Bot.
Eine gute KI rastet nicht sofort in ein anderes ziel ein sobald man in deckung geht und läst sich dan ohne reaktion töten.
Eine gute KI steht nicht vor ein und ballert dauerfeuer nen halbes magazien auf dich ohne groß schaden zu verursachen.
Sie ist nicht schlechter als die ganzen anderen taugenix KI´s aber gelobt werden muss so eine standart ki nun wirklich nicht.
Die Preview Version hat den God Mode an normal stirbt man schon lange wenn man so zockt.
|-Sh0r7y-|
2010-12-30, 00:54:33
Die Preview Version hat den God Mode an normal stirbt man schon lange wenn man so zockt.
Er ist aber ganz am anfang gestorben...
=Floi=
2010-12-30, 00:57:36
Die Vorgänger sehen genauso aus und was hier gezeigt wird ist 1:1 Gameplay.
Hier (http://www.youtube.com/watch?v=rtbIxNKClGg&hd=1) auch ein schönes Promo-Video von God of War 3, so würdest du es ja bezeichnen nicht wahr? :freak: Versuche bitte nicht mitzureden wenn du die Spiele nie selbst gezockt hast, Danke! :)
dann stellt videos der vorgänger online, welche ich 1:1 auch selsbst so nachspielen könnte.
der satz gebe ich mal so zurück:
Versuche bitte nicht mitzureden wenn du die Spiele nie selbst gezockt hast, Danke! ;D :biggrin:
man kann bei ausgesuchten szenen (kleine abschnitte, alles durchoptimiert, ablenkung durch spezielle gegner oder andere eyecandy sachen) und level eben auch nur das schöne zeug vorstellen und veröffentlichen. GT5 hat auch wirklich schöne stellen und ist bei manchen sachen auch wirklich toll, aber hat eben auch massive schattenseiten und die kamen erst durch die (kritischen) kunden zum vorschein.
leider wird man sich wohl bei der ps4 die abwärtskompatibilität wieder sparen imho. bei der 360er redet auch keiner darüber, obwohl es diese konsole noch immer sehr gut kann. das feature nützen einfach zu wenige leute und in den medien/hier im forum redet auch keiner darüber. Damit verdient man auch kein geld.
Es wäre auch von sehr großem vorteil, wenn man den programmierern bei den design rules variable auflösungen und AA in kombination mit variabler konsolenhardware vorschreiben würde. so könnte man mal einen refresh der konsole mit mehr leistung bringen und der kunde hätte auch etwas davon oder auf dem nachfolger kann man selbst (oder automatisch) die auflösung und das AA erhöhen. Ich finde es noch immer schwach, dass man den neuen 360er SoC extra ausbremst um ihn 1:1 an die alte hardware (wegen dem timing) anzupassen, obwohl auch hier mehr power wünschenswert wäre.
edit
http://www.youtube.com/watch?v=rtbIxNKClGg&hd=1
das video hat eine fantastisch gute musikuntermalung, welche super zu der szenerie passt.
edit2
ich finde die version ohne grain und mit besserem bild wesentlich schöner. ich dachte gerade das ist der vorteil der höheren ausflösungen und besseren bitraten, dass man hier einfach auch ein besseres bild rüberbringt. in der hinsicht finde ich da die "billigen" portierungen auf BR alter filme immer sehr schwach, weil man sich da auch das SD material ansehen kann.
dildo4u
2010-12-30, 01:07:11
Er ist aber ganz am anfang gestorben...
Hast recht muss aber auf Easy sein ich glaub nicht das es auf Hard einfacher wird als KZ2.
dildo4u
2010-12-30, 01:38:22
dann stellt videos der vorgänger online, welche ich 1:1 auch selsbst so nachspielen könnte.
http://www.youtube.com/watch?v=tA4Yegsd5OU&feature=related&hd=1
Von dem Typen gibts das komplette Game durchgezockt zum angucken.
Tesseract
2010-12-30, 01:39:56
Außerderm war bei mir die Rede von einer Blu-ray, also auch mit Zusatzmaterial usw.
eigentlich war die rede von filmen in HD. zusatzmaterial ist sicher kein kriterium ob ein online-filmverkauf funktioniert oder nicht.
Weil so gut wie alle Filme nicht in PAL- oder NTCS-Auflösung gedreht wurden, sondern deutlich höher. (erst recht die alten auf Zelluloid)
ich hab kein wort über PAL oder NTSC verloren. tatsache ist, dass viele der alten zelluloid-filme keine besonders gute qualität haben, egal wie hoch man sie noch abtastet. das ist meist entweder alters- oder budgetbedingt weil sie schon damals nicht besonders hochwertig gedreht wurden. oder es gibt den master überhaupt nicht mehr, oder es gibt ihn und der publisher digitalisiert ihn trotzdem nicht anständig.
außerdem haben viele filme aus den 90ern special effects, die deutlich geringere auflösungen haben als der rest des films.
tatsache ist, dass es bei blu rays teilweise gewaltige qualitative schwankungen gibt, wie es sie auch schon bei der DVD davor gab. viele filme könntest du mit 1/2 oder noch weniger der bandbreite speichern und der unterschied wäre kaum sichtbar.
8Gb gehen alleine schon für die vielen Tonspuren drauf..
du braucht in einem downloadsystem keine vielen tonspuren weil du nicht billiger produzieren kannst wenn alle downloads identisch sind.
das selbe gilt für zusatzcontent.
löst euch mal davon immer in datenträgern zu denken.
Iruwen
2010-12-30, 02:23:31
tatsache ist, dass viele der alten zelluloid-filme keine besonders gute qualität haben, egal wie hoch man sie noch abtastet. das ist meist entweder alters- oder budgetbedingt weil sie schon damals nicht besonders hochwertig gedreht wurden. oder es gibt den master überhaupt nicht mehr, oder es gibt ihn und der publisher digitalisiert ihn trotzdem nicht anständig.
Also einfach gar nicht mehr anständig aufarbeiten sondern direkt in bescheidener Qualität veröffentlichen. Wenn die Leute das möchten... jeder bekommt was er verdient. Die Generation YT & MP3 ist sowieso weitestgehend vermurkst.
PS: Filmkorn ist kein Bildfehler und wenn es entfernt wird einfach nur die billigstmögliche Variante der Nachbearbeitung. Es zu erhalten ist die wahre Kunst. Bei DVD-Produktionen musste man es aufgrund der niedrigen Bitraten filtern weil es sonst zu Artefaktbildung geführt hätte, BDs haben endlich die Möglichkeit das Bild originalgetreu wiederzugeben. Dass es trotzdem oft fehlt liegt wohl daran dass für die BD das schon vorbearbeitete digital abgetastete Material weiterverwendet wird und an den Präferenzen von Leuten die auch finden dass CDs besser als Schallplatten klingen.
Huhamamba
2010-12-30, 07:07:58
Ich frage mich gerade was ihr so toll an diesen GoW3 und Uncharted 3 Videos findet? Ich habe eher das Gefühl, dass hier einige Artwork und Präsentation mit guter Grafik verwechseln. Ich sehe nichts besonderes an diesen Videos.
Hast ja recht, gute Grafik bedeutet natürlich einen Pfad abzulatschen auf dem tausend mal ein und die selbe Palme gepflanzt wurde mangels Content. :uclap:
Allein der herrlich aufwändig erstellte Himmel in manchen Szenen von GoW3 spricht für sich. Da können viele selbsternannte PC-Ikonen auch die zehnfache Rechenleistung aktueller HighEnd-PCs zur Verfügung gestellt bekommen und ihre Grafik-Artists würden sowas nicht gebacken kriegen.
thade
2010-12-30, 10:04:36
...
Kurz gesagt: du bist beeindruckt vom Video willst es aber nicht zugeben! Was du darauf antwortest ist nur blablabla, die typische Antwort die man hier bekommt. "Die Technik in God of War 3 ist steinzeitlich. Nur durch die geniale Kameraführung wird aus steinzeitlich ein ansehbares Produkt." Danke Dargo, du hast mir mal wieder die Augen geöffnet.
Technik und sehr guten Content, das Spiel hat bei beiden Punkten sehr viel zu bieten. :)
Crazy_Chris
2010-12-30, 11:12:25
Jahresvollversammlung der GoW3 Fanboys hier wa? Na macht ihr man.
Doof dass bei BD-Versionen dann manchmal sowas rauskommt:
http://www.avpgalaxy.net/website/articles/predator-blu-ray-comparison/
Da gibt es endlich die Möglichkeit das Quellmaterial nahezu in Originalqualität zu übertragen und dann jagt man einen Filter drüber der das Filmkorn entfernt... :facepalm:
/e: wird langsam etwas OT.
Ich habe die BD auch und mir gefällt diese Version wesentlich besser. :smile: Filmkorn ist definitiv kein Stilmittel (gewesen) sondern nur ein Resultat schlechter Technik. Von daher weg damit. Es wird vielleicht heute von einigen als Stilmittel stilisiert aber das war damals sicher nicht so gewollt. Genauso bei Blade Runner wo nachträglich die Special Effects verbessert wurden. (sichtbare Befestigungen der Modelle usw. entfernt)
Windi
2010-12-30, 11:17:40
Wie bitte?
http://geizhals.at/deutschland/a400379.html
Daran sieht man eigentlich ziehmlich genau, das ein Preis von unter 25€ kaum möglich ist. Egal ob heute, 2013 oder erst 2020. Ein einziger Anbieter bietet eine Festplatte für 24,94€ an, ansonsten sind alle teurer. Selbst ältere Platten mit weniger Platz und veralteten Anschlüssen kosten mehr.
Außerdem benötigt eine HDD mehr Platz, mehr Strom und eine bessere Kühlung.
Flashspeicher wird hingegen jedes Jahr billiger und kann dierekt aufs Board gelötet werden.
Ich glaube wir reden aneinander vorbei. Unter einer SSD verstehe ich sowas:
http://geizhals.at/deutschland/a444063.html
Wenn du von Flashspeicher allgemein ausgehst könnte man theoretisch einen stinknormalen USB-Stick nehmen, der heute schon kaum was kostet. Die Übertragungsraten dieser sind nur deutlich schlechter als eine HDD. Fürs Streaming reicht kein stinknormaler Flashspeicher.
Flashspeicher ist Flashspeicher, egal wie er nun verbaut wurde. Samsung und Konsorten bauen mit Sicherheit nicht verschiedene Fertigungsstraßen für USB-Flashspeicher und SSD-Flashspeicher auf. Für die bessere Geschwindigkeit bei den SSDs sorgen wohl eher die besseren internen Controller und die SATA-Schnittstelle.
Bei einer Konsole wird man halt einen brauchbaren Controller in den Chipsatz integrieren und den Flashspeicher aufs Board löten.
Oder muss eine SSD zwingend über eine SATA-Schnittstelle verfügen und in den standard Bauformen 3,5" / 2,5" / 1,8" auf den Markt kommen?
|-Sh0r7y-|
2010-12-30, 11:23:22
Mein Mainboard hat ein 512MB SSD Speicher fest eingebaut.
Das ist ein kleiner Chip der am Mainboard befestigt ist und auf dem ich Android drauf gepackt habe.
Nur ob das groß was bringt für Konsolen naja...
Windi
2010-12-30, 11:29:34
Die Wii und die Xbox360 Arcade machen es heute schon genau so. Anscheinend bringt es ja was, sonst würde man es nicht machen.
Es ist halt die günstigste Lösung.
dargo
2010-12-30, 12:05:33
Kurz gesagt: du bist beeindruckt vom Video willst es aber nicht zugeben!
Nein, da musst du schon wesentlich mehr bieten damit mich was beeindruckt. Zumal das Gameplay mich absolut nicht anspricht. Konsoliger (soll jetzt nicht abwertend klingen, Geschmäcker sind nun mal unterschiedlich) als GoW3 gehts wohl kaum.
Wenn du mich beeindrucken willst dann musst du schon sowas liefern:
http://www.youtube.com/watch?feature=iv&annotation_id=annotation_941138&v=xEQrPZntkU8&fmt=37
Da werden sofort bei mir Erinnerungen an Aquanox wach. Ein neues Aquanox mit dieser Engine... *träum*
Und wenn du mich total flashen willst:
http://download.amd.com/Corporate/AMD_RUBY_S04.mov
Spätestens hier bin ich gesättigt. Mehr brauche ich nicht.
Huhamamba
2010-12-30, 12:29:56
Nein, da musst du schon wesentlich mehr bieten damit mich was beeindruckt. Zumal das Gameplay mich absolut nicht anspricht. Konsoliger (soll jetzt nicht abwertend klingen, Geschmäcker sind nun mal unterschiedlich) als GoW3 gehts wohl kaum.
Wenn du mich beeindrucken willst dann musst du schon sowas liefern:
http://www.youtube.com/watch?feature=iv&annotation_id=annotation_941138&v=xEQrPZntkU8&fmt=37
Da werden sofort bei mir Erinnerungen an Aquanox wach. Ein neues Aquanox mit dieser Engine... *träum*
Sowas beeindruckt dich? Präsentation grottenschlecht, Content absolut langweilig und ideenlos, da es 1:1 die Realität nachzubilden versucht mit sehr mäßigem Erfolg, null Stil dahinter...
Wer sowas ernsthaft einem God of War, Uncharted, MGS4 etc. pp. vorzieht, dem ist auch nicht mehr zu helfen. Wünsche dir aber weiterhin viel Spaß mit 3DMark-Zock0rn. ;D
Btw.: Das nenn ich mal 'ne Kulisse (http://www.youtube.com/watch?v=kMMC1etr3sQ&hd=1&t=2m) ;)
dargo
2010-12-30, 12:38:16
Ich nenne sowas Augenkrebs.
|-Sh0r7y-|
2010-12-30, 12:53:20
Ich nenne sowas Augenkrebs.
Ich würde an deiner stelle da garnicht weiter drauf eingehn...
Mal wieder alles total am thema vorbei und die alte leier die Konsolen sind ja so viel toller, GT5, God of War, Uncharted, MGS4.
Gib dich damit ab das ist einfach das beste was es gibt, gab und geben wir und da hilft auch deine 100.000x200.000 downsampling Grafik nix das ist alles mist, die Grafik ist nix wert der content muss stimmen.
Huhamamba
2010-12-30, 12:55:40
und da hilft auch deine 100.000x200.000 downsampling Grafik nix das ist alles mist, die Grafik ist nix wert der content muss stimmen.
Ja, der grafische Content muss stimmen (neben dem Gameplay versteht sich ;)). Gott sei Dank bin ich neben dem PC auch mit Konsolen aufgewachsen, sonst wäre ich vermutlich auch zu einem Honk mutiert der die BQ-Settings über den Content stellt.
dargo
2010-12-30, 12:57:11
@Sh0r7y
Ich finds irgendwie amüsant mit den beiden, was soll ich machen? ;D
|-Sh0r7y-|
2010-12-30, 12:59:44
Ja, der grafische Content muss stimmen (neben dem Gameplay versteht sich ;)). Gott sei Dank bin ich neben dem PC auch mit Konsolen aufgewachsen, sonst wäre ich vermutlich auch zu einem Honk mutiert der die BQ-Settings über den Content stellt.
Was machst du in ein forum wo fast nur "honks" deiner meinung nach unterwegs sind?
Beleidigst andere und hälst dich für was besseres... noch in der pupertät?
Samenstau?
3D center usw.
dargo
2010-12-30, 13:05:42
Beleidigst andere und hälst dich für was besseres... noch in der pupertät?
Samenstau?
Eine Mischung von beidem. ;)
Mich würde mal interessieren was Huhamamba und Thade...ähm, Apple von den ganzen Pixar-Filmen halten? Afaik wird dort 64xSSAA genutzt (man möge mich korrigieren wenns falsch ist). Was glauben die eigentlich warum solche AA-Modis, nur um ein Beispiel zu nennen, genutzt werden? Man hätte die Filme doch auch in 1280x720 1xAA ausstrahlen können. X-D Unsere beiden Konsolengurus würdens eh nicht merken. :D
Nakai
2010-12-30, 13:08:58
Gott sei Dank bin ich neben dem PC auch mit Konsolen aufgewachsen, sonst wäre ich vermutlich auch zu einem Honk mutiert der die BQ-Settings über den Content stellt.
Die derzeitigen Spiele mangelts es an einer Sache. Der Spieler wird in keinster Weise gefordert. Das war frühers auf den Konsolen zum Glück anders, da gabs wenigstens noch richtige Geschicklichkeitsanforderungen und nicht so etwas wo man zum richtigen Zeitpunkt eine oder mehrere Tasten drücken muss.
Da gelob ich mir den PC als Spielebasis. Da gibts wenigstens noch Spiele, die die Spielerleistung fordern.
Und nein, das heißt nicht, dass alle Konsolenspiele für den Mainstream gemacht sind. Spiele wie Heavy Rain oder Uncharted sind gut umgesetzt und machen Spaß. Aber meistens wird das spielerische völlig verdrängt.
mfg
|-Sh0r7y-|
2010-12-30, 13:11:05
Das haben die gemacht um Thade und Huhamamba zu ärgern!
Bei Wall-E steht sogar im abspann produziert in bestmöglicher qualität um zu gewährleisten das die beiden sich schwarz ärgern.
Ja schon scheisse wen man im mitelpunkt des universum steht:rolleyes:
Crazy_Chris
2010-12-30, 13:12:43
Also ich habe auf keinen Fall mehr Lust auf künstlich gestreckte Spiele weil der Schwierigkeitsgrad so hoch ist. :rolleyes: Ich möchte gut unterhalten werden und nicht das erste Level 1000 mal spielen weil das 2. so schwer ist das man ständig neu beginnen muß.
Master3
2010-12-30, 13:13:29
@ Nakai
Und welche aktuellen PC Spiele fordern einen? Viel ist nicht geblieben bis auf exklusive Strategiespiele und Point and Click Adventures.
Des Rest gibts sowieso nun auch alles auf Konsolen.
Mal son Quatsch wie Landwirtschaftssimulator und Co. ausgenommen.
Werewolf
2010-12-30, 13:22:09
Mich würde mal interessieren was Huhamamba und Thade...ähm, Apple von den ganzen Pixar-Filmen halten? Afaik wird dort 64xSSAA genutzt (man möge mich korrigieren wenns falsch ist). Was glauben die eigentlich warum solche AA-Modis, nur um ein Beispiel zu nennen, genutzt werden? Man hätte die Filme doch auch in 1280x720 1xAA ausstrahlen können. X-D Unsere beiden Konsolengurus würdens eh nicht merken. :D
Bist mal wieder verzweifelt, dargo? Weil du nichts praktisches gegen jene Titel anzubieten hast, kommst du zuerst mit dem unspielbaren 3DMARK und hälst nun mit Pixar-Filmchen dagegen obwohl sich keiner gegen AA oder AF ausspricht. Komm mal runter, dargo. Wenn jene Titel downsampling und co. anböten würdest du deine kindische Abwehrhaltung immernoch nicht ablegen. Braucht man so viel Stolz bei diesem Hobby?
Nochmal. Hier hält keiner die Konsolen für technisch besser, auch nicht huhamamba. Ein Blick über den Tellerrand schadet nicht.
Master3
2010-12-30, 13:28:17
@ Werewolf
Irgendwie muss man sich ja verteidigen wenn man ständig Kohle in den PC steckt. Vor noch kurzer Zeit hat 1680*1050 4AA und 16 AF gereicht. Heute muss es Downsampling@Full HD und am besten noch Super Sampling AA sein.
Da kann man sich auf keinen Fall mit der Konsolengrafik zufrieden geben...
Nakai
2010-12-30, 13:38:41
@ Nakai
Und welche aktuellen PC Spiele fordern einen? Viel ist nicht geblieben bis auf exklusive Strategiespiele und Point and Click Adventures.
Des Rest gibts sowieso nun auch alles auf Konsolen.
Mal son Quatsch wie Landwirtschaftssimulator und Co. ausgenommen.
Ich sprach hier hauptsächlich von Multiplayer-Spielen. Dazu nehme man alle Titel von Valve als Beispiel.
Und klar, einige Strategiespiele darf man nicht vergessen. Supreme Commander, Battle Forge und selbst das alte WC3 sind Spiele die man so nicht auf der Konsole sieht.
Und klar sieht man eine krasse Verkonsolerung auf dem PC:
Siehe TES3 -> TES4:
Das Spielsystem wurde dramatisch entkompliziert und das Kampfsystem wurde dynamischer gemacht. Ebenso leveln die Gegner nun mit.
Siehe Gothic 3 -> Risen:
Das Kampfsystem auf Gothic war noch nie überragend, jedoch war es extrem taktisch. Der Spieler musste sich auf bestimmte Gegnertypen gut vorbereiten, sonst erleidet der Spieler einen schnellen...sehr schnellen ;) Tod.
Bei Risen wurde das Kampfsystem dramatisch auf Reaktion abgeändert. Es war zwar immer noch mies, aber es war besser. Außerdem wurde die Spielwelt deutlich verkleinert und mit allem und jedem(hauptsächlich für den Hauptquest) vollgestopft. Viele Freiheiten gab es da nicht mehr. Das war sogar noch bei Gothic 2 anders.
mfg
€:Da kann man sich auf keinen Fall mit der Konsolengrafik zufrieden geben...
Lol, ich denke selbst die Konsoleros würden dann bei meinen Einstellungen Augenkrebs kriegen...
Werewolf
2010-12-30, 13:39:01
Ich stecke auch Geld rein, nach der Grafikkarte warte ich nun auf Sandy Bridge. Und das alles trotz deutlich weniger "reinen" PC-Titeln. Ich suche mir das beste aus allen Welten raus und was nicht auf dem PC erscheint gibt es für die Konsolen. Ich nutze selbst Downsampling und bin auch dankbar dass sich dargo jedes Mal die Mühe macht und Treiber durchtestet auf dem Weg zu noch höheren Auflösungen, aber diese künstliche Hysterie vieler hier ist nur noch lächerlich. Der Umstieg ist nicht vom Himmel zur Hölle. Gamer-Snobs sind peinlich.
Bei einigen Multititeln könnte ich es noch verstehen. "Majin and The Forsaken Kingdom" sieht z.B. fürchterlich aus auf der PS3, ist aber kein Argument gegen die Konsole bzw. gegen Toptitel wie God of War III und Co. Das ist aber genau das was in diesen Diskussionen passiert. Es wird mit allem dagegengehalten, dabei könnten alle viel mehr Spaß haben wenn sie das reichhaltige Portfolio des Gesamtmarktes beanspruchen würden. (y)
Avalox
2010-12-30, 13:41:58
Afaik wird dort 64xSSAA genutzt (man möge mich korrigieren wenns falsch ist).
Ich denke dieses ist falsch. Pixar benutzt natürlich Antialiasing, aber es ist ein eigenes Prinzip.
Zumal natürlich Pixar, wie alle prof. Hersteller auch zeitliches Antialiasing nutzen, eben die Belichtungszeit der Bilder simulieren. Prof. Motionblur.
Einen Bereich, welcher heute überhaupt noch nicht Einzug gehalten hat.
Der Punkt ist eben, dass der Pixar-Film auf 1000m² Wände projiziert wird und niemand die Auflösung hochdreht.
Rechenleistung ist nun mal begrenzt, erst Recht wenn man etwas mit Microsystemen in Echtzeit zu realisieren versucht. Da muss man sehen, wie man diese Rechenleistung sinnvoll verteilt.
AFAIR nutzen die ein stochastic AA
Keine aufwendige KI aha.
Technical Innovation in Game AI
"Vote Winner
Combat AI in KILLZONE 2"
http://aigamedev.com/open/editorial/2009-awards-results/
Soll das ein Witz sein? Ironie? Die ist alles andere als aufwendig...
Zu der Diskussion der letzten Seiten, lernst zwischen Präsentation, Artwork und Technik zu unterscheiden...
Werewolf
2010-12-30, 13:46:55
Soll das ein Witz sein? Ironie? Die ist alles andere als aufwendig...
Zu der Diskussion der letzten Seiten, lernst zwischen Präsentation, Artwork und Technik zu unterscheiden...
Dass man den Jungs dort mehr zutraut als dir könnte wohl daran liegen dass du nur stur behauptest ohne Referenzen zu haben noch irgendwelche Links oder Belege. Ich bin gespannt was du anzubieten hast um uns den Witz hier aufzuzeigen.
Ich bin meine eigene Referenz, ich brauch keine Links mit Marketingaussagen, denn das sind eure Links, nichts anderes. Um auf Marketingaussagen einzugehn, ist mir meine Zeit zu schade.
Master3
2010-12-30, 13:50:26
Ich stecke auch Geld rein, nach der Grafikkarte warte ich nun auf Sandy Bridge. Und das alles trotz deutlich weniger "reinen" PC-Titeln. Ich suche mir das beste aus allen Welten raus und was nicht auf dem PC erscheint gibt es für die Konsolen. Ich nutze selbst Downsampling und bin auch dankbar dass sich dargo jedes Mal die Mühe macht und Treiber durchtestet auf dem Weg zu noch höheren Auflösungen, aber diese künstliche Hysterie vieler hier ist nur noch lächerlich. Der Umstieg ist nicht vom Himmel zur Hölle. Gamer-Snobs sind peinlich.
Bei einigen Multititeln könnte ich es noch verstehen. "Majin and The Forsaken Kingdom" sieht z.B. fürchterlich aus auf der PS3, ist aber kein Argument gegen die Konsole bzw. gegen Toptitel wie God of War III und Co. Das ist aber genau das was in diesen Diskussionen passiert. Es wird mit allem dagegengehalten, dabei könnten alle viel mehr Spaß haben wenn sie das reichhaltige Portfolio des Gesamtmarktes beanspruchen würden. (y)
Zum letzten muss ich dir absolut recht geben.
Aber imho sind die heutigen schnellen GPUs so unnötig wie noch nie. Die Grafik stagniert doch seit Crysis und in absehbarer Zukunft kommt auch nichts besseres um die Hardware ausreichend zu nutzen. So wird von den Entwicklern irgendwelche leistungsfressenden Extras für den PC entwickelt und/oder man erhöht die Bildqualität immer weiter.
Wer es mag kann es gerne nutzen, aber dann sich gegen Konsolen wie blöde zu stemmen ist unnötig.
Bei mir ist es im Moment so: Spielerlebnis > letztes Quäntchen Grafik.
Bei EA gab es ja jetzt mal Burnout Paradise umsonst. Habs es mir geschnappt und es mit 1680*1050 4 oder 8AA (keine Ahnung was eingestellt war) und 16 AF gezockt. Klar sah es deutlich besser aus. Aber das lässige zocken an der 360 hat mir mehr Spaß gemacht.
Apropo mehr CPU Leistung und Co. Die ist natürlich notwendig für jegliche Software zum arbeiten. Für Ansys würde ich gerne nach einen Sandy Bridge mit 8GB Ram sehnen...
Werewolf
2010-12-30, 13:51:16
Ich bin meine eigene Referenz, ich brauch keine Links mit Marketingaussagen, denn das sind eure Links, nichts anderes.
Den Marketinganteil möchtest du uns sicher auch nicht raussuchen, gelle? Dann ist ja alles klar. Gut rausgemogelt. Ernstnehmen kann man dich nach diesem Geständnis aber leider nicht mehr. ;)
Geh anderswo trollen.
Den Marketinganteil möchtest du uns sicher auch nicht raussuchen, gelle?
Ich seh da keine Aussage die nicht aus der Marketingabteilung stammen könnte. Selbstbeweihräucherung zähl ich da genauso dazu.
Technischer Inhalt NULL, Begründungen fadenscheinig und ohne technischen Bezug...
Erklär mir mal was an den "AIs" so toll sein soll, ich kanns da nicht rauslesen.
Ahja ich hab noch garnicht zum trollen angefangen. :P
dargo
2010-12-30, 14:18:47
Bist mal wieder verzweifelt, dargo? Weil du nichts praktisches gegen jene Titel anzubieten hast, kommst du zuerst mit dem unspielbaren 3DMARK und hälst nun mit Pixar-Filmchen dagegen obwohl sich keiner gegen AA oder AF ausspricht. Komm mal runter, dargo.
Du musst dir schon die Mühe machen aus dem Zusammenhang zu lesen sonst verschwendest du nur meine Zeit.
Irgendwie muss man sich ja verteidigen wenn man ständig Kohle in den PC steckt.
Genau... wenn einem nichts mehr einfällt kommt natürlich dieser Spruch. :freak: Das Geld was ich für den PC ausgebe sind Peanuts im Vergleich dazu was ich vor paar Monaten investiert habe. Aber das können natürlich Leute die gerade mal das zwanzigste Lebensjahr vollendet haben nicht verstehen. Arbeitet ihr erstmal paar Jahre.
|-Sh0r7y-|
2010-12-30, 14:29:26
B&W2, HL2, Fear.
Die KI von KZ ist in etwa auf ein level mit der von HL1... im vergleich zu ein B&W2 wo die KI wirklich auf das verhalten des Spielers reagiert ein witz.
Thief, FarCry, Flashpoint
AwesomeSauce
2010-12-30, 14:32:31
Afair wurde in B&W2 die Creature-KI durch ein künstliches neuronales Netz unterstützt, das richtig lernen konnte. Ich meine, davon etwas im Guinness Book of World Records gelesen zu haben.
dildo4u
2010-12-30, 14:32:57
AFAIR nutzen die ein stochastic AA
Soll das ein Witz sein? Ironie? Die ist alles andere als aufwendig...
.
Und wieder Gebashe ohne das du es gespielt hast um es bewerten zu können,das Game wird den Award nich umsonst bekommen haben und zwar Plattformübergreifend,weil dort sind auch Pc Games dabei.Aber wär ja mal interresant welche KI's egal auf welcher Plattform so viel besser sein soll.
http://www.computerbild.de/videos/Killzone-2-Video-Gegner-KI-Verhalten-3960242.html
|-Sh0r7y-|
2010-12-30, 14:46:12
Und wieder Gebashe ohne das du es gespielt hast um es bewerten zu können,das Game wird den Award nich umsonst bekommen haben und zwar Plattformübergreifend,weil dort sind auch Pc Games dabei.Aber wär ja mal interresant welche KI's egal auf welcher Plattform so viel besser sein soll.
http://www.computerbild.de/videos/Killzone-2-Video-Gegner-KI-Verhalten-3960242.html
absolutes negativbeispiel... struntz dumm sind die gegner, von einer ki kann man da überhaupt nicht reden... was willst du damit beweisenaußer das keine ki vorhanden ist?
dargo
2010-12-30, 14:51:08
Den Marketinganteil möchtest du uns sicher auch nicht raussuchen, gelle?
Dazu möchte ich noch was loswerden. Diversen Spielereviews im Netz glaube ich schon seit Jahren nichts mehr, völlig egal um welche Plattform es sich handelt. Sie interessieren mich einfach nicht weil ich den Eindruck habe, dass zumindest der Großteil geschmiert ist. Ich möchte nicht wissen was da hinter den Kulissen alles passiert. Ist ähnlich wie bei Hardwaretests. Schreibst du was schlechtes über mein Produkt bekommst du beim nächsten Release kein Testsample mehr von uns.
Und die wenigen "objektiven" Reviewer (falls es diese überhaupt noch gibt) können auch nur den eigenen Geschmack niederschreiben. Dazu passt auch ganz gut dieser Thread:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=499751
Sven77
2010-12-30, 14:51:09
Und wieder Gebashe ohne das du es gespielt hast um es bewerten zu können,das Game wird den Award nich umsonst bekommen haben und zwar Plattformübergreifend,weil dort sind auch Pc Games dabei.
Bitte lass diese Awards weg... die sind durchgehend lächerlich, vor allem wenn sie noch durch Voting verliehen werden. Fanboys ahoi sag ich da nur, sieht man ja wieder aktuell was auf GT.com abgeht..
Chronicle
2010-12-30, 14:54:58
Ich würde an deiner stelle da garnicht weiter drauf eingehn...
Mal wieder alles total am thema vorbei und die alte leier die Konsolen sind ja so viel toller, GT5, God of War, Uncharted, MGS4.
Gib dich damit ab das ist einfach das beste was es gibt, gab und geben wir und da hilft auch deine 100.000x200.000 downsampling Grafik nix das ist alles mist, die Grafik ist nix wert der content muss stimmen.
Wenn Grafik soviel mehr wert wäre als Content, dann würden wir jetzt alle zusammen 3DMark spielen
Und wieder Gebashe ohne das du es gespielt hast um es bewerten zu können,das Game wird den Award nich umsonst bekommen haben und zwar Plattformübergreifend,weil dort sind auch Pc Games dabei.Aber wär ja mal interresant welche KI's egal auf welcher Plattform so viel besser sein soll.
http://www.computerbild.de/videos/Killzone-2-Video-Gegner-KI-Verhalten-3960242.html
Woher willst du wissen, dass ich den Titel nicht mal angespielt hab? Ich hätte genug wissen um das, auch ohne es gespielt zu haben, bewerten zu können. Bessere "KIs" wurden in den Beiträgen vorher erwähnt.
Mir gehts aber generell darum, dass es mit Cell eng werden würde, wenn man eine aufwendige Computational-Inelligence verwenden würde (in Spielen). Dass man das nicht macht, liegt aber eher daran, dass es keine Bereitschaft seitens der Publisher gibt dort zu investieren. Man bräuchte ja auch zusätliche Leute, der normale Programmierer in den Studios hat maximal Basiswissen.
Ich wär der Erste, der Hurra schreit wenns den mal ein Spiel gibt, dass sowas hat, egal ob auf Konsole, PC oder sonstwas. Darauf werd ich aber noch sehr lange warten... ;)
Ich glaub du verstehst nicht so ganz was ich aussagen will.
Master3
2010-12-30, 15:00:42
Genau... wenn einem nichts mehr einfällt kommt natürlich dieser Spruch. :freak: Das Geld was ich für den PC ausgebe sind Peanuts im Vergleich dazu was ich vor paar Monaten investiert habe. Aber das können natürlich Leute die gerade mal das zwanzigste Lebensjahr vollendet haben nicht verstehen. Arbeitet ihr erstmal paar Jahre.
Aha, muss man dazu also >30 sein um das zu verstehen:freak:.
Ich bin ja so blöd in meinem Alter:rolleyes:
MarcWessels
2010-12-30, 15:01:53
ich finde die version ohne grain und mit besserem bild wesentlich schöner. ich dachte gerade das ist der vorteil der höheren ausflösungen und besseren bitraten, dass man hier einfach auch ein besseres bild rüberbringt. in der hinsicht finde ich da die "billigen" portierungen auf BR alter filme immer sehr schwach, weil man sich da auch das SD material ansehen kann.Waaaaah, Du hast keine Ahnung von einem guten Bild! ;(
Du kannst doch nicht ernsthaft dieses Wachsfigurenkabinett in "Predator - Hunter Edition" gut finden??? :freak::confused:
Und weisst Du, warum die aussehen wie Wachsfiguren?! Eben weil das ganze schöne Filmkorn entfernt wurde und somit gleichzeitig auch das ganze feine hochfrequente Detail! (das auch noch massiv aufgehellt wurde, lassen wir jetzt mal beiseite)
Die erste BD-Version in MPEG2 ist die korrektere, wenn auch dummerweise durch den Codec mit jeder Menge Artefakte verunstaltet. Was macht Universal, als sich die Leute beschweren? Bringt eine neue Version, sogar mit frischem 4K-Scan, und haut dann dieses scheiß DNR wie bekloppt drüer. :frown:
Ein Film muss aussehen wie Film und nicht wie ein digitales Kasperletheater.
Erklärung? Ich fand Avatar spitze. Mit ~40Mbit auch die höchste Bitrate bei BD die ich gesehen habe. Muss allerdings sagen, dass ich noch nicht so viele konsumiert habe.Man bemerkte an der einen oder anderen stelle ein unsaubereres Bild, das meiner Meinung nach der stellenweise zu geringen Bitrate geschuldet war. Avatar sollte eben unbedingt auf eine einzige BD gequetscht werden.
Ich habe die BD auch und mir gefällt diese Version wesentlich besser. :smile: Filmkorn ist definitiv kein Stilmittel (gewesen) sondern nur ein Resultat schlechter Technik. Von daher weg damit. Es wird vielleicht heute von einigen als Stilmittel stilisiert aber das war damals sicher nicht so gewollt. Genauso bei Blade Runner wo nachträglich die Special Effects verbessert wurden. (sichtbare Befestigungen der Modelle usw. entfernt)Und schalten sie auch morgen wieder ein, wenn es heißt "Predator - Der CGI-Film"!
Nur, dass ein Animationsfilm nicht so verwischte Kamerfahrten und Bewegungen hat. :freak:
|-Sh0r7y-|
2010-12-30, 15:03:36
Wenn Grafik soviel mehr wert wäre als Content, dann würden wir jetzt alle zusammen 3DMark spielen
sehe ich genau so deswegen spiele ich Nintendo Wii... ja richtig gelesen!
Es geht darum das wir hier eigentlich über neue konsolen reden wollten und das mal wieder mit unsere PS3/360 spiele sind besser kaputt gemacht wird so.
Aber eigentlich geht es um neue Konsolen und die brauchen wir wen überhaupt nur wegen besserer Grafik... für besseren Content brauchen wir keine neuen Konsolen das ist sache der entwickler nicht der hardware.
Also geht es hier eigentlich um die Technik der Grafik und deswegen ist content hier nicht sdo das thema.
Das hier viele technik freaks am werrk sind nun ja ich schrieb ja schon 3D center usw.
dargo
2010-12-30, 15:08:10
Ich bin ja so blöd in meinem Alter:rolleyes:
Von blöd war gar keine Rede. Wenn du mir aber so kommst:
Irgendwie muss man sich ja verteidigen wenn man ständig Kohle in den PC steckt.
mache ich mir halt so meine Gedanken über deine Reife.
Man bemerkte an der einen oder anderen stelle ein unsaubereres Bild, das meiner Meinung nach der stellenweise zu geringen Bitrate geschuldet war.
Wus:confused:
Kannst du mir die Stelle(n) nennen. Gerne über PN. Mir ist nichts deartiges aufgefallen. Oder ich war gerade abgelenkt. :D
thade
2010-12-30, 15:10:22
Die KI von KZ ist in etwa auf ein level mit der von HL1...
Genau und die Grafik auch. :freak: Wie willst du so überhaupt noch ernst genommen werden in Zukunft? Das einzige was an der AI in KZ2 suckt ist die Team-AI, ansonsten ist es einer der besseren AIs in Shootern!
P.S.: Dargo man sieht in welcher Sackgasse du dich befindest. Geh 3DMark spielen und schau schöne Pixarfilme. :)
Master3
2010-12-30, 15:16:04
@ Dargo
Na irgendwas muss man schreiben um dich aufzustacheln:biggrin:.
Ist denn eine Koexistenz zwischen Konsole und PC nicht möglich?
Jedem sollte doch nun klar sein, dass solange keine Konsole rauskommt die Spiele grafisch nicht besser werden können.
Aber eigentlich kann man deswegen froh sein. Endlich müssen sich die Entwickler Gedanken um Content, frische Spielideen etc. machen.
dargo
2010-12-30, 15:22:29
@ Dargo
Na irgendwas muss man schreiben um dich aufzustacheln:biggrin:.
Du Lümmel. ;)
Ist denn eine Koexistenz zwischen Konsole und PC nicht möglich?
Warum sollte dies nicht möglich sein? Solange alle Zielgruppen bedient und glücklich sind...
Master3
2010-12-30, 15:24:21
Warum sollte dies nicht möglich sein? Solange alle Zielgruppen bedient und glücklich sind...
Du machst mir den Eindruck, als ob das gar nicht ginge.
Mensch, du verpasst absolute Perlen!
Den Multikrams kann man doch weiterhin auf dem PC zocken.
Iruwen
2010-12-30, 15:26:28
Die derzeitigen Spiele mangelts es an einer Sache. Der Spieler wird in keinster Weise gefordert. Das war frühers auf den Konsolen zum Glück anders, da gabs wenigstens noch richtige Geschicklichkeitsanforderungen und nicht so etwas wo man zum richtigen Zeitpunkt eine oder mehrere Tasten drücken muss.
Sowas wie DRÜCKE EINE MINUTE LANG ZEHNMAL PRO SEKUNDE TASTE X ODER DU BIST TOT? Pixelgenau springen und millisekundengenau timen? Ja, der Hammer. Das war damals schon was für Masochisten und nur nötig weil die Herausforderung aufgrund der schwachen Technik nicht aus dem Gameplay heraus entstanden ist. Die Zeit ist glücklicherweise vorbei. Es gibt genug fordernde Spiele die zeigen wie man das besser löst.
Ob die komplexen Maps der Spiele früher zwingend besser waren als die "Schlauchlevel" heute ist auch diskussionswürdig.
|-Sh0r7y-|
2010-12-30, 15:27:19
Genau und die Grafik auch. :freak: Wie willst du so überhaupt noch ernst genommen werden in Zukunft? Das einzige was an der AI in KZ2 suckt ist die Team-AI, ansonsten ist es einer der besseren AIs in Shootern!
P.S.: Dargo man sieht in welcher Sackgasse du dich befindest. Geh 3DMark spielen und schau schöne Pixarfilme. :)
Ich habe selber schon hunderte von stunden in Leveleditoren verbracht und wegpunkte und routings gesetzt und die "KI" wie du sie nennst erstellt.
Wen man keine ahnung von Technik hat einfach mal die ohren steif halten.
Meine Fresse!;D
An der KI ist nichts gut das ist standart von vor 10 jahren.
Iruwen
2010-12-30, 15:36:35
Ich habe selber schon hunderte von stunden in Leveleditoren verbracht und wegpunkte und routings gesetzt und die "KI" wie du sie nennst erstellt.
Wen man keine ahnung von Technik hat einfach mal die ohren steif halten.
Meine Fresse!;D
An der KI ist nichts gut das ist standart von vor 10 jahren.
Du hast den KZ2 Leveleditor? Krass.
Vor noch kurzer Zeit hat 1680*1050 4AA und 16 AF gereicht. Heute muss es Downsampling@Full HD und am besten noch Super Sampling AA sein.
Das hat nicht "gereicht" es war nur einfach nicht mehr möglich. Da der Content (dank Konsolen) kaum besser wird kann man zumindest mehr Rohleistung in Bildverbesserung investieren. Der Punkt an dem das keinen Sinn mehr macht ist noch nicht erreicht, noch macht SSAA einen gravierenden Unterschied aus.
B&W2, HL2, Fear.
Die KI von KZ ist in etwa auf ein level mit der von HL1... im vergleich zu ein B&W2 wo die KI wirklich auf das verhalten des Spielers reagiert ein witz.
Thief, FarCry, Flashpoint
Die letzte KI die mich beeindruckt hat war tatsächlich die von Half-Life, speziell in Blue Shift. Far Cry und Thief waren auch toll. Danach hab ich keine wirkliche Weiterentwicklung mehr gesehen. In allen aktuellen Shootern verhalten sich die Gegner eigentlich eher ausgesprochen dämlich, u.a. FEAR.
Tesseract
2010-12-30, 15:41:37
Also einfach gar nicht mehr anständig aufarbeiten sondern direkt in bescheidener Qualität veröffentlichen. Wenn die Leute das möchten... jeder bekommt was er verdient.
ob die leute das möchten oder nicht steht meist garnicht zur debatte. der film wird einfach releast und der kunde kann fressen oder sterben.
Ein Film muss aussehen wie Film und nicht wie ein digitales Kasperletheater.
ansichtssache. ich finde ein sauberes digitalbild toll. bei einem zelluloid-film den grain wegzufiltern ist nicht schlimmer als eine schöne digitalaufnahme zu vergilben und (übertrieben starkes) geriesel reinzurendern, das total unnatürlich wirkt.
gibt in beiden fällen ziemliche negativbeispiele.
Außerdem wurde die Spielwelt deutlich verkleinert und mit allem und jedem(hauptsächlich für den Hauptquest) vollgestopft. Viele Freiheiten gab es da nicht mehr. Das war sogar noch bei Gothic 2 anders.
das hat einen ganz anderen grund. mit gothic 3 haben sie sich einfach vollkommen übernommen und mussten ein verbuggtes, unfertiges spiel releasen weil der publisher nichtmehr warten wollte. sowas wollte man dieses mal verhindern.
|-Sh0r7y-|
2010-12-30, 15:42:31
Du hast den KZ2 Leveleditor? Krass.
Die letzte KI die mich beeindruckt hat war tatsächlich die von Half-Life, speziell in Blue Shift. Far Cry und Thief waren auch toll. Danach hab ich keine wirkliche Weiterentwicklung mehr gesehen. In allen aktuellen Shootern verhalten sich die Gegner eigentlich eher ausgesprochen dämlich, u.a. FEAR.
Die KI von HL ist genau so simpel wie die von KZ2.
Das sind 4-5 funktionen mehr als noch bei Duke Nukem 3D
dargo
2010-12-30, 15:44:52
Du machst mir den Eindruck, als ob das gar nicht ginge.
Dann hast du den falschen Eindruck von mir.
Mensch, du verpasst absolute Perlen!
Ob ein Spiel eine Perle ist bzw. mich anspricht entscheide ich noch selbst und kein anderer. Zudem erwarte ich ein gewisses Grafikniveau welches möglichst von Jahr zu Jahr steigen sollte. Ich hasse Stagnation. Konsolenspiele sprechen mich aus diesem Grund nicht an. Es gibt natürlich weitere für mich wichtige Gründe - ich hasse Gamepads. Außerdem interessieren mich solche Genres wie zb. hier das genannte GoW3 absolut nicht. Dass ich Konsolen völlig abgeneigt bin kann ich auch nicht behaupten. Wenn wir uns mal bei Bekannten/Freunden treffen wird auch mal die Wii (nicht meine) angeschmissen. Ab und zu finde ich sowas auch mal spaßig.
PS: jetzt wirds aber noch mehr OT als es schon ist. :freak:
Master3
2010-12-30, 18:30:47
Um aufs Thema zurück zu kommen. Was müsste eine Next gen Konsole denn für dich bieten. Ein Gamepad oder eine Art der Bewegungssteuerung wird ja schonmal dabei sein;)
dargo
2010-12-30, 18:38:09
Native M+T Steuerung.
Master3
2010-12-30, 18:40:06
Native M+T Steuerung.
Möglich wäre es bestimmt, aber ich glaube man kann davon ausgehen das dies eher unwahrscheinlich ist.
Größtes Problem wäre dann der Onlinemodus.
AwesomeSauce
2010-12-30, 18:41:24
Native M+T Steuerung.
Jo, geht auch so bequem von der Couch oder vom Sessel aus :ucrazy2:
dargo
2010-12-30, 18:46:20
Möglich wäre es bestimmt, aber ich glaube man kann davon ausgehen das dies eher unwahrscheinlich ist.
Größtes Problem wäre dann der Onlinemodus.
Ich denke viel größeres Problem ist, dass auf der Konsole zum größten Teil von der Couch aus gespielt wird. Deswegen ist dort M+T eher fehl am Platz und wird auch nicht kommen. Was mich noch reizen würde wäre zusätzlich eine Joystick-Steuerung aka Sidewinder oder ähnliches. Comanche, Aquanox etc. hatte ich früher sehr gerne gespielt. Dieses Genre ist heute leider ausgestorben. Und natürlich Lenkradsteuerung, was aber kein Problem darstellt. Wird ja schon praktiziert.
Jo, geht auch so bequem von der Couch oder vom Sessel aus :ucrazy2:
Ich dachte eigentlich es wäre mehr als ersichtlich, dass ich kein Couch-Spieler bin. Schon gar nicht im Wohnzimmer. Für den PC habe ich ein Arbeitszimmer.
PS: schon mal versucht von der Couch aus mit einem G25 zu hantieren?
jay.gee
2010-12-30, 20:24:03
Und welche aktuellen PC Spiele fordern einen? Viel ist nicht geblieben bis auf exklusive Strategiespiele und Point and Click Adventures.
• Klick mich, lehne dich ein paar Minuten zurück, dreh deinen Sound auf und staune (http://www.youtube.com/watch?v=WUu4SV3GjVw).
• Klick mich (http://www.youtube.com/watch?v=zs3ebD0w2ko)
• Klick mich (http://www.youtube.com/watch?v=6c2OBfg8_WY&feature=related)
Heutige PC CPUs sollen einem Xenos mit 48 VLiW ALUs ueberlegen sein und dazu noch zu einem Faktor 10? :rolleyes:
Ja? Das sind gerade mal 240 ALUs @ 500 Mhz, die soweit ich weiß noch dazu nur 4+1 können und nicht 1+1+1+1+1.
Eine 6970 mit 1920 ALUs @ 880 Mhz ist also rein auf dem Papier 14x so schnell.
dargo
2010-12-30, 21:38:05
Eine 6970 mit 1920 ALUs @ 880 Mhz ist also rein auf dem Papier 14x so schnell.
Diese theoretischen Zahlen führen eh zu nichts. Das soll jetzt kein Widerspruch auf dich Coda sein. Dildo kam hier auch schon mal mit GFLOPS an.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.