Archiv verlassen und diese Seite im Standarddesign anzeigen : Vergleich Xbox 360 (ATI) und PS3 (Nvidia RSX)
Da das Thema in unterschiedlichen Foren diskutiert wird, wäre es nützlich, wenn man dies in einem Forum vergleicht.
Hier ist eine Blogseite von einem XBOX 360 Team-mitglied (soll jedenfalls sein):
http://www.majornelson.com/
http://majornelson.com/wp/images/moreimages/index.4.gif
The PS3 has 22.4 GB/s of GDDR3 bandwidth and 25.6 GB/s of RDRAM bandwidth for a total system bandwidth of 48 GB/s.
The Xbox 360 has 22.4 GB/s of GDDR3 bandwidth and a 256 GB/s of EDRAM bandwidth for a total of 278.4 GB/s total system bandwidth.[/size]
Wird da nicht mit Äpfel und Birnen verglichen? ;)
Below are the specs from Sony’s press release regarding the PS3’s GPU.
RSX GPU
• 550 MHz
• Independent vertex/pixel shaders
• 51 billion dot products per second (total system performance)
• 300M transistors
• 136 “shader operations” per clock [/size]
Die Werte sind bekannt, aber 51 Milliarden Fließkomma-Rechenoperationen pro Sekunde für das ganze PS3-System? Klingt wenig.
The 51 billions dot products per cycle were listed on a summary slide of total graphics system performance and are assumed to include the Cell processor. Sony’s calculations seem to assume that the Cell can do a dot product per cycle per DSP, despite not having a dot product instruction.
However, using Sony’s claim, 7 dot products per cycle * 3.2 GHz = 22.4 billion dot products per second for the CPU. That leaves 51 – 22.4 = 28.6 billion dot products per second that are left over for the GPU. That leaves 28.6 billion dot products per second / 550 MHz = 52 GPU ALU ops per clock.[/size]
Das wäre ja mickrig für den PS3 (Cell+RSX):
CPU 22,4 Milliarden Rechenoperationen pro Sekunde
GPU 28,6 Milliarden Rechenoperationen pro Sekunde
It is important to note that if the RSX ALUs are similar to the GeForce 6800 ALUs then they work on vector4s, while the Xbox 360 GPU ALUs work on vector5s.[/size]
Welche Unterschiede gibt es zwischen vectors4s und vectors5s?
http://majornelson.com/wp/images/moreimages/index.5.gif
The total programmable GPU floating point performance for the PS3 would be 52 ALU ops * 4 floats per op *2 (madd) * 550 MHz = 228.8 GFLOPS which is less than the Xbox 360’s 48 ALU ops * 5 floats per op * 2 (madd) * 500 MHz= 240 GFLOPS.[/size]
http://majornelson.com/wp/images/moreimages/index.3.gif
For shader operations per clock, Sony is most likely counting each pixel pipe as four ALU operations (co-issued vector+scalar) and a texture operation per pixel pipe and 4 scalar operations for each vector pipe, for a total of 24 * (4 + 1) + (4*4) = 136 operations per cycle or 136 * 550 = 74.8 GOps per second.
Given the Xbox 360 GPU’s multithreading and balanced design, you really can’t compare the two systems in terms of shading operations per clock. However, the Xbox 360’s GPU can do 48 ALU operations (each can do a vector4 and scalar op per clock), 16 texture fetches, 32 control flow operations, and 16 programmable vertex fetch operations with tessellation per clock for a total of 48*2 + 16 + 32 + 16 = 160 operations per cycle or 160 * 500 = 80 GOps per second.[/size]
Die Shader-Operationen liegen bei 80 GOps (ATI) und 74,8 (NVidia).
http://majornelson.com/wp/images/moreimages/index.7.gif
http://majornelson.com/wp/images/moreimages/index.8.gif
(Wahrscheinlich auf 1 normiert)
Sony’s CPU is ideal for an environment where 12.5% of the work is general-purpose computing and 87.5% of the work is DSP calculations. That sort of mix makes sense for video playback or networked waveform analysis, but not for games. In fact, when analyzing real games one finds almost the opposite distribution of general purpose computing and DSP calculation requirements. A relatively small percentage of instructions are actually floating point. Of those instructions which are floating-point, very few involve processing continuous streams of numbers. Instead they are used in tasks like AI and path-finding, which require random access to memory and frequent branches, which the DSPs are ill-suited to.
Based on measurements of running next generation games, only ~10-30% of the instructions executed are floating point. The remainders of the instructions are load, store, integer, branch, etc. Even fewer of the instructions executed are streaming floating point—probably ~5-10%. Cell is optimized for streaming floating-point, with 87.5% of its cores good for streaming floating-point and nothing else.
Das würde auch begründen, warum der CELL bis zu 42 HD Streams abspielen kann. "Normale" Anwendungen (nicht mediale) wären eine Überforderung.
No, you do not need to recompile your Xbox games
Posted: May 19, 2005 @ 3:23 pm (21 hours, 20 minutes ago) By: Mobile Nelson
Ok, let’s stop this right now. There is some serious wrong information floating around, so I need to clear this up. I grabbed my favorite PR dudes, and they are saying what I was telling a few of you in email:
“We’re not sure where this came from, and is incorrect. At launch, Xbox 360 will be backward compatible with the top Xbox games. Our goal is to have every Xbox game work on Xbox 360. You will NOT need to purchase a new ‘version’ — your original games will work on Xbox 360.”
Case closed. Now, let’s get back to that Killzone demo discussion.[/size]
Also, am Anfang Top Spiele, Ziel alle XBOX Spiele sollen auf dem XBOX 360 laufen.
PS: Ich bin weder für die XBOX 360 noch für die PS3. Nach dem ganzen Marketing-Hype wäre es gut, die Systeme objektiv zu vergleichen.
Die Vergleiche sind alle absoluter Schwachsinn. Bloß nicht ernstnehmen bitte.
Weder Flops noch die Speicherbandbreite sind Indikatoren für Performance. Das müsste man eigentlich wissen.
Die Vergleiche sind alle absoluter Schwachsinn. Bloß nicht ernstnehmen bitte.
Weder Flops noch die Speicherbandbreite sind Indikatoren für Performance. Das müsste man eigentlich wissen.
Die Seite ist nicht objektiv, aber wie soll man sonst auf Hardware-Ebene vergleichen? Mit Dummy-Werten?
Man kann es einfach nicht vergleichen, da keine Benchmarks gegeneinander möglich sind.
Imho ist die PS3 deutlich stärker als die XBox 360. Und das sage ich als neutraler Betracheter, weil ich mich für Konsolen eh nicht interessiere.
Flops und Bandbreite zu vergleichen ist wie gesagt genauso sinnvoll wie Mhz. Es macht keine Sinn. Es kommt vielmehr darauf an was mit den Flops gemacht werden kann und ob überhaupt der maximale Durchsatz erreicht wird steht sowieso auf einem anderen Blatt. Desweiteren ist das eDRAM gar nicht direkt über den 1024bit Bus an die GPU angebunden sondern nur die ROPs. Aber das wird auch verschwiegen.
Ach ich könnte hier jetzt Seitenweise schreiben warum das ganze unsinnig ist, aber was würde es bei den Fanboys schon ändern?
Man kann es einfach nicht vergleichen, da keine Benchmarks gegeneinander möglich sind.
Imho ist die PS3 deutlich stärker als die XBox 360. Und das sage ich als neutraler Betracheter, weil ich mich für Konsolen eh nicht interessiere.
Flops und Bandbreite zu vergleichen ist wie gesagt genauso sinnvoll wie Mhz. Es macht keine Sinn. Es kommt vielmehr darauf an was mit den Flops gemacht werden kann und ob überhaupt der maximale Durchsatz erreicht wird steht sowieso auf einem anderen Blatt. Desweiteren ist das eDRAM gar nicht direkt über den 1024bit Bus an die GPU angebunden sondern nur die ROPs. Aber das wird auch verschwiegen.
Ach ich könnte hier jetzt Seitenweise schreiben warum das ganze unsinnig ist, aber was würde es bei den Fanboys schon ändern?
Nett wäre noch zu wissen wieso Du die PS3 stärker siehst. Ich sehe das ähnlich, aber wie kommst Du zu deiner Einschätzung, wenn nicht durch technische Specs?
konsolenfreund
dildo4u
2005-05-21, 02:10:40
LOL das ist so Geil diese X-Box Fanboy Page
http://majornelson.com/wp/images/moreimages/index.7.gif
The Xbox 360’s CPU has more general purpose processing power because it has three general purpose cores, and Cell has just one.
Crazy_Bon
2005-05-21, 02:28:04
Die Technologien sind unterschiedlich, die RSX soll sich jedoch mehr an eine PC-GPU ähneln als es beim R500 der Fall wäre.
Die Technologien sind unterschiedlich, die RSX soll sich jedoch mehr an eine PC-GPU ähneln als es beim R500 der Fall wäre.
Die Frage ist, ob das gut oder schlecht ist. ;)
Kf
EL_Mariachi
2005-05-21, 04:20:14
jopa .. ich denke die Rohleistung der PS3 ist schon ein Stück höher als der XboX360!
nur wissen wir ja alle, wie schnell Rohleistung verpuffen kann, wenn grafischer Schnickschnack hinzukommt ...
Das PS3 Killzone Video ist z.B. schon mal sehr beeindruckend ...
Ich bin mir aber fast sicher, dass die Xbox360 sowas auch schafft.
naja letztendlich wirds durch die Spiele entschieden, da die Technik bei beiden Geräten ziemlich fortgeschritten daherkommt :)
abwarten und Tee trinken ... cya
TobiWahnKenobi
2005-05-21, 08:55:48
ähm..
in den letzten 20 jahren sahen games auf allen konsolen immer gleich aus. egal, was die HW leisten konnte.
vorteile eine bestimmten architektur kamen bestenfalls bei exclusiv-titeln zum tragen.
da kann man dann ja abwägen, ob einem die xbox-only titel, oder die japan-styled PS titel mehr interessieren.
einheitsbrei wird auch auf next-gen konsolen gleich aussehen. es war immer so und wird auch immer so bleiben.
insoweit ist die technik schall und rauch.
mir wäre viel wichtiger, dass xbox360 genauso modbar, wie xbox1 wird.
mit ner gemoddeten PS2 konnte ich nicht annähernd soviel anfangen, wie mit der gechippten xbox1.
mfg
tobi
BlackBirdSR
2005-05-21, 09:15:41
LOL das ist so Geil diese X-Box Fanboy Page
http://majornelson.com/wp/images/moreimages/index.7.gif
The Xbox 360’s CPU has more general purpose processing power because it has three general purpose cores, and Cell has just one.
Warum?
Ich finde die Vergleiche interessant.
Ausserdem wird hier auch einmal darauf hingewiesen, dass CELL haufenweise Leistung für aufbringen kann, die eventuell gar nicht so verwendet werden kann.
die XBox360 besitzt ja anscheinend 3 CPU Kerne gegenüber den einen der PS3. Das hängt sicherlich Alles von der Programmierung ab, aber die PS3 jetzt als deutlich stärker hinzustellen, weil sie Cell hat?
Das muss sie erst noch beweisen, und dazu muss man die Vektoreinheiten erstmal ausnutzen.
dildo4u
2005-05-21, 09:18:03
Warum?
Ich finde die Vergleiche interessant.
Ausserdem wird hier auch einmal darauf hingewiesen, dass CELL haufenweise Leistung für aufbringen kann, die eventuell gar nicht so verwendet werden kann.
die XBox360 besitzt ja anscheinend 3 CPU Kerne gegenüber den einen der PS3. Das hängt sicherlich Alles von der Programmierung ab, aber die PS3 jetzt als deutlich stärker hinzustellen, weil sie Cell hat?
Das muss sie erst noch beweisen, und dazu muss man die Vektoreinheiten erstmal ausnutzen. Hä ein Cell hat doch 8Cores?Oder nicht?Da hat sogar jeder sein eigenen Cache.
http://www.elektronik-kompendium.de/sites/com/fotos/10022811.jpg
"Der seit 2001 in einem Gemeinschaftsprojekt entwickelte Multi-Core-Prozessor basiert auf 8 einzelnen synergetischen Prozessorkernen (SPUs), die extrem umfangreiche Fließkomma-Berechnungen verarbeiten können und über einen 64-Bit POWER-Prozessorkern gesteuert werden."
"Der Cell enthält insgesamt 2,5 MByte Speicher. 512 kByte entfallen auf die Steuer-CPU, der Rest mit jeweils 256 kByte auf die 8 SPEs. Über eine bidirektionale Verbindung greift eine SPE direkt auf den lokalen Arbeitsspeicher zu. Ganz ohne Cache-Hierarchie. Ein mit halbem Systemtakt arbeitender Systembus (Element Interface Bus, EIB) verbindet die Prozessoreinheiten miteinander."
http://www.elektronik-kompendium.de/sites/com/1002281.htm
Ich Glaub Kaum das man 8Cores einbaut und die dann nicht nutzt.
BlackBirdSR
2005-05-21, 09:25:46
Hä ein Cell hat doch 8Cores?Oder nicht?Da hat sogar jeder sein eigenen Cache.
"Der seit 2001 in einem Gemeinschaftsprojekt entwickelte Multi-Core-Prozessor basiert auf 8 einzelnen synergetischen Prozessorkernen (SPUs), die extrem umfangreiche Fließkomma-Berechnungen verarbeiten können und über einen 64-Bit POWER-Prozessorkern gesteuert werden.
Und da liegt das Problem.
Cell hat nur einen PPC Kern für generelle Berechnungen.
Der Rest sind 8 SPUs. (also 1xPPC + 8xSPU = 9 Cores -1 wegen Redundanz)
Die PS3 kann sicherlich massig Gleitkommaoperationen verarbeiten. Aber wie man seit längerer zeit schon merkt (inbesondere beim PM) setzen Spiele zum großen Teil nicht auf Gleitkommaoperationen.
siehe dazu
Based on measurements of running next generation games, only ~10-30% of the instructions executed are floating point. The remainders of the instructions are load, store, integer, branch, etc. Even fewer of the instructions executed are streaming floating point—probably ~5-10%. Cell is optimized for streaming floating-point, with 87.5% of its cores good for streaming floating-point and nothing else.
Eben da liegt der Hund begraben.
Der PPC im Cell steuert die SPUs an, und muss generelle Berechnungen durchführen.
Die 3 PPC Kerne in der XBox haben hier natürlich einen Vorteil.
dildo4u
2005-05-21, 09:27:33
Eben da liegt der Hund begraben.
Der PPC im Cell steuert die SPUs an, und muss generelle Berechnungen durchführen.
Die 3 PPC Kerne in der XBox haben hier natürlich einen Vorteil.
Naja ich denk schon das ibm da keinen Scheiss gebaut hat die cell wurde ja fast extra für die PS3 Entwickelt.
BlackBirdSR
2005-05-21, 09:32:07
Naja ich denk schon das ibm da keinen Scheiss gebaut hat die cell wurde ja fast extra für die PS3 Entwickelt.
Niemand sagt, dass IBM scheiss gebaut hat.
Aber ich glaube nicht, dass Cell nur und direkt für die PS3 entwickelt wurde.
Es bleibt aber dabei, dass man bei der XBox360 erstmal einfacher an die verfügbare Leistung kommt.
Cell mag sehr Leistungsstark sein, aber eben für Gleitkomma und FP-Streaming.
Ich bin mir nicht sicher, ob ich sowas z.B in meinem PC haben wollte...
Gasat222
2005-05-21, 09:46:06
Und da liegt das Problem.
Cell hat nur einen PPC Kern für generelle Berechnungen.
Der Rest sind 8 SPUs. (also 1xPPC + 8xSPU = 9 Cores -1 wegen Redundanz)
Laut c't werden aber nur 7 SPU's genutzt!
in den c't news wird spekuliert, das man eine SPU als Reserve vorsieht damit die Chipausbeute höher ist.
Also insgesamt nur 8 nutzbare Cores : 1xPPC + 7x SPU @ 3.2 GHz
BlackBirdSR
2005-05-21, 09:47:21
Laut c't werden aber nur 7 SPU's genutzt!
in den c't news wird spekuliert, das man eine SPU als Reserve vorsieht damit die Chipausbeute höher ist.
Also insgesamt nur 8 nutzbare Cores : 1xPPC + 7x SPU @ 3.2 GHz
Und was hab ich geschrieben?
Crazy_Bon
2005-05-21, 11:03:32
Verhält es sich nicht so wie schon bei der PS2? Damals wahnsinnige Rechenleistung (Fliesskomma) der CPU (EmotionEngine genannt), die so gar nicht in Spielen zur Geltung kam?
Demirug
2005-05-21, 12:02:11
Verhält es sich nicht so wie schon bei der PS2? Damals wahnsinnige Rechenleistung (Fliesskomma) der CPU (EmotionEngine genannt), die so gar nicht in Spielen zur Geltung kam?
Sony hat scheinbar etwas gelernt. Das Design ist wesentlich einfacher. Irgendwie sogar schon sehr PC ähnlich. Zudem wird man diesesmal vermehrt auf bekannte APIs setzten.
Jesus
2005-05-21, 12:46:39
Mich würde mal intressieren wie M$ auf die 105(?) "GFLOPS" bei der Xbox CPU kommt? Durch 3 mal Altivec kommt das doch niemals hin, selbst wenn man sehr optimistisch zählt sollten es nicht mehr als 45 "GFLOPS" sein. :rolleyes:
die XBox360 besitzt ja anscheinend 3 CPU Kerne gegenüber den einen der PS3. Das hängt sicherlich Alles von der Programmierung ab, aber die PS3 jetzt als deutlich stärker hinzustellen, weil sie Cell hat?
Das muss sie erst noch beweisen, und dazu muss man die Vektoreinheiten erstmal ausnutzen.Das ist wohl richtig, aber ich denke der RSX hat schon mehr Power als R500.
Sollte der PS3 Cell nicht ursprünglich 2 CPU Kerne haben? Einer von den ineffizienten Teilen ist schon extrem mager.
Demirug
2005-05-21, 12:54:05
Das ist wohl richtig, aber ich denke der RSX hat schon mehr Power als R500.
Sollte der PS3 Cell nicht ursprünglich 2 CPU Kerne haben? Einer von den ineffizienten Teilen ist schon extrem mager.
nur 2? Machen waren sogar der Meinung das es 4 wären.
Ich würde mal gerne das Toolset sehen um besser einschätzen zu können wie viel Gamelogik man in die SPU legen kann.
BlackBirdSR
2005-05-21, 13:01:27
nur 2? Machen waren sogar der Meinung das es 4 wären.
Ich würde mal gerne das Toolset sehen um besser einschätzen zu können wie viel Gamelogik man in die SPU legen kann.
Spontan würde ich große Teile der Physikberechnung auf die SPEs verlagern.Wie sieht es mit Vertexberechnungen aus?
Sachen wie KI und die meisten allgemeinen Aufgaben müsste dann der PowerPC übernehmen, (zusätzlich zur Ansteuerung der SPEs?)
Demirug
2005-05-21, 13:08:44
Spontan würde ich große Teile der Physikberechnung auf die SPEs verlagern.Wie sieht es mit Vertexberechnungen aus?
Für Vertexberechnungen nimmt man wohl besser den RSX. Als Geometrie Prozessoren dürften sie noch sehr gut. Desweiteren wurde schon gesagt das sie auch gut für Postfilter aufgaben wären.
Sachen wie KI und die meisten allgemeinen Aufgaben müsste dann der PowerPC übernehmen, (zusätzlich zur Ansteuerung der SPEs?)
Ich könnte mir durchaus auch KI Modele vorstellen die auf den SPEs laufen könnten.
Das Problem das ich aber sehe ist das die meisten aktuellen Gameengines gar nicht für dermassen massive Multithreading ausgelegt sind. Unreal3 muss zum Beispiel die gesamte Gamelogik zwingend in einem Thread laufen lassen.
Jesus
2005-05-21, 13:23:49
Gamespot - Mark Rein:
GS: How has it been programming for the Cell processor? Have you tapped into the extra processing cores yet?
MR: We haven't really delved into the Cell all that deeply yet. All we've done is mostly take advantage of just the normal PowerPC core and the RSX graphics, so we really look forward to getting home and tackling all kinds of cool stuff on the Cell. Ultimately, Cell is like a super-MMX processor, and as you know, Unreal was Intel's poster child for MMX many years ago. We're going to be able to do a lot of cool stuff on it. Especially great physics--the NovodeX guys are going to get their API put on it.
StefanV
2005-05-21, 13:28:50
Naja ich denk schon das ibm da keinen Scheiss gebaut hat die cell wurde ja fast extra für die PS3 Entwickelt.
Nein, eigentlich nicht.
SIehe die Statements von SoNie und Toshiba zum Cell!
Das Teil sollte ein 'Multimediaprozessor' werden und hauptsächlich in DVD Playern und ähnlichem verbaut werden, nebenbei auch noch in der PS3.
PrefoX
2005-05-21, 13:48:25
Das ist wohl richtig, aber ich denke der RSX hat schon mehr Power als R500.
Sollte der PS3 Cell nicht ursprünglich 2 CPU Kerne haben? Einer von den ineffizienten Teilen ist schon extrem mager.
also der RSX hat 24 unified shaders, die aber 2 operationen pro takt machen.
die xbox hat 48, die 4 pro takt machen, welche ist stärker?
R520 soll 2,5x schneller sein als die 6800U im SLI modus aber die graka ist schon stärker...
€dit: die 24 unified beim RSX sind doch eine bissl ältere news(muss alte net stimmen), aber das der R520 so schnell sein soll ist offiziell von ATI gesagt worden.
Quasar
2005-05-21, 13:53:03
R520 soll 2,5x schneller sein als die 6800U im SLI modus aber die graka ist schon stärker...
€dit: [...]aber das der R520 so schnell sein soll ist offiziell von ATI gesagt worden.
Der oder "die" R520? Quelle?
also der RSX hat 24 unified shaders, die aber 2 operationen pro takt machen.
die xbox hat 48, die 4 pro takt machen, welche ist stärker?Der RSX hat keine unified shader. Außerdem ist der Peak Throughput kein Leistungsindikator.
R520 soll 2,5x schneller sein als die 6800U im SLI modus aber die graka ist schon stärker...Das ist schon allein durch die Verfügbaren Speicher absolut unmöglich. Ich denke 2x6800 Ultra ohne SLi ist mit viel Glück möglich.
Und wie es aussieht ist R500 nicht stärker als R520.
Jensk22
2005-05-21, 13:59:12
Die Vergleiche sind alle absoluter Schwachsinn. Bloß nicht ernstnehmen bitte.
Weder Flops noch die Speicherbandbreite sind Indikatoren für Performance. Das müsste man eigentlich wissen.
..nicht zu vergessen das das auch noch vollkommen verschiedene Hardwarestrukturen sind ...
Demirug
2005-05-21, 13:59:38
also der RSX hat 24 unified shaders, die aber 2 operationen pro takt machen.
die xbox hat 48, die 4 pro takt machen, welche ist stärker?
R520 soll 2,5x schneller sein als die 6800U im SLI modus aber die graka ist schon stärker...
€dit: die 24 unified beim RSX sind doch eine bissl ältere news(muss alte net stimmen), aber das der R520 so schnell sein soll ist offiziell von ATI gesagt worden.
RSX ist mit an sicherheit grenzender Wahrscheinlichkeit kein unified Shader Chip.
Wenn man jetzt anfängt zu vergleichen muss man dafür sorgen das man vergleichbare einheiten hat.
FLOP
R500: 16 faches SIMD mit 3 ALUs mit 4 Elementen = 192
RSX: 24 * 2 * 4 = 192
TMU
R500: 16
RSX: 24
Was aber entscheident sein wird ist in wie weit die Rohleistung umgesetzt werden kann. Beim RSX kommt allerdings noch ein Vertexshader dazu desen Aufgabe beim R500 das vorhandene universal Rechenwerrk mit übernehmen muss.
Irgendwie ist der RSX ja verdammt ähnlich zum G70, oder täuscht das?
dargo
2005-05-21, 14:05:54
Die Werte sind bekannt, aber 51 Milliarden Fließkomma-Rechenoperationen pro Sekunde für das ganze PS3-System? Klingt wenig.
Ähm, also ich lese da was von 51000 Milliarden bzw. 51 Billionen. :rolleyes:
English billion = Deutsch Milliarde
Es gibt im Englischen jeweils nur die "erste" Form. Also Million - Billion - Trillion - Quadrillion anstatt Million - Milliarde - Billion - Billiarde
reunion
2005-05-21, 14:08:51
Irgendwie ist der RSX ja verdammt ähnlich zum G70, oder täuscht das?
AFAIK ist der RSX nichts anderes als ein G70 @ 90nm.
Demirug
2005-05-21, 14:10:21
Irgendwie ist der RSX ja verdammt ähnlich zum G70, oder täuscht das?
Bei der Vorstellung der PS3 wurde ja gesagt das RSX auf einem PC Grafikchip aufbaut der aber noch nicht veröffentlicht ist.
Als nVidia damals angekündigt hat das sie den Chip für die PS3 liefern wurde ebenso gesagt das man nur ein kleines Team dafür benötigen würde weil er aus vorhandener Technik aufgebaut wird.
Mit diesem Konzept ist man ja auch bei der XBox sehr gut gefahren. Bei der XBox brauchte man damals mehr Leute weil man auch noch den ganzen sonstigen Chipsatz entwerfen muste.
Zumindest den FP Datenpfad zum Rendertarget sollten sie ja verbreitert haben.
Wie sieht's eigentlich mit optimiertem AF aus bei Konsolen? Da man da keine Benchmarks gewinnen muss sollte man ja eigentlich den vernünftigen (unoptimierten) Weg gehen, oder?
Ich könnte mir durchaus auch KI Modele vorstellen die auf den SPEs laufen könnten.
Coda behauptet das ist nicht möglich.
Das Problem das ich aber sehe ist das die meisten aktuellen Gameengines gar nicht für dermassen massive Multithreading ausgelegt sind. Unreal3 muss zum Beispiel die gesamte Gamelogik zwingend in einem Thread laufen lassen.
Sony sagt, dass man die Last automatisch aufteilen lassen kann, wenn man will.
Konsolenfreund
Coda behauptet das ist nicht möglich.Das habe ich so bestimmt nicht gesagt. Neuronale Netze etc. sind sogar recht gut parallelisierbar.
Nur bei AI ala Unreal Engine mit sehr vielen Abhängigkeiten ist das eigentlich nicht möglich.
Sony sagt, dass man die Last automatisch aufteilen lassen kann, wenn man will.Das geht nur bei Algorithmen die schon parallelsiert sind.
Demirug
2005-05-21, 14:16:24
Coda behauptet das ist nicht möglich.
Deswegen sprach ich ja auch von "KI Modelen". es wird Definitive nicht mit jeder Art von KI gehen.
Sony sagt, dass man die Last automatisch aufteilen lassen kann, wenn man will.
Konsolenfreund
hehe, reine Schutbehauptung. Ein vollautomatische Aufteilen von Aufgaben auf mehrer Prozesoren ist sowas wie der heilige Grall.
dargo
2005-05-21, 14:19:58
English billion = Deutsch Milliarde
Es gibt im Englischen jeweils nur die "erste" Form. Also Million - Billion - Trillion - Quadrillion anstatt Million - Milliarde - Billion - Billiarde
Ups, dann habe ich nichts gesagt. :sneak:
Das habe ich so bestimmt nicht gesagt. Neuronale Netze etc. sind sogar recht gut parallelisierbar.
Nur bei AI ala Unreal Engine mit sehr vielen Abhängigkeiten ist das eigentlich nicht möglich.
Sorry, Du hast zig mal genrell behauptet, dass der Cell mit seinen SPEs nicht für KI nutzbar ist, ohne Bezug auf irgendein Spiel. Ich hatte dir mehrmals gesagt, dass Du dem Cell anfangs sehr viel in seiner Nutzbarkeit abgesprochen hast, was sich immer mehr ändert. Ich will dir deine Kompetenz nicht absprechen, aber man sollte schon zu seinen Falschaussagen stehen, wenn man diese getätigt hat.
Das geht nur bei Algorithmen die schon parallelsiert sind.
Und eine automatische Lastaufteilung ist generell undenkbar, so wie Sony verlauten ließ? Bei parallelisierten Algos solltes es natürlöich kein Problem sein, aber ich habe das so verstanden, dass man auch einen "großen" Algo automatisch lastverteilen lassen kann.
Konsolenfreund
Gasat222
2005-05-21, 14:23:04
Und was hab ich geschrieben?
Ja...schon gut Asche auf mein Haupt. Ich habe es erst gesehen als ich das Posting schon abgeschickt hatte, sollte vielleicht doch nicht nur als Gast posten. Sorry!
Deswegen sprach ich ja auch von "KI Modelen". es wird Definitive nicht mit jeder Art von KI gehen.
Mit welchen Einschränkungen muss man da in der Anwendbarkeit rechnen?
Konsolenfreund
reunion
2005-05-21, 14:37:41
IMO ist die Xbox 360 das intelligentere bzw. ausgeglichenere Design.
Die PS3 hat einen Prozessor, der auf dem Papier mit 256Gflops glänzen kann, dies aber in der Praxis hauptsächlich durch bei Spielen kaum benötigte Gleitkommaoperationen erreicht.
Einen Grafikchip, welcher auf einer Desktoparchitektur aufbaut und mit verdammt wenig Speicherbandbreite auskommen muss.
Und zweimal 256MB RAM, wobei offensichtlich sowohl der Grafikchip, als auch die CPU auf beide zugreifen können.
Die Xbox hat drei vollständige CPUs, welche man mit Sicherheit leichter auslasten wird können als dieses Cell-Monster.
Einen Unified-Shader-Grafikchipsatz, wodurch man die Last dynamisch zwischen Pixel- und Vertexshader regeln kann und durch den eDRAM selbst AA und/oder HDR problemlos darstellen können sollte.
Und einen 512MB unified-Speicher, auf den jeder zugriff hat und der aufgrund des eDRAMs für die GPU locker ausreichen sollte.
Irgendwie kommt es mir so vor als ob es Sony diesmal mit der Brechstange versucht hat. Die Xbox 360 erscheint wesentlich schlanker, kommt also mit deutlich weniger Transistoren aus (IMO).
Quasar
2005-05-21, 14:44:34
IMO ist die Xbox 360 das intelligentere bzw. ausgeglichenere Design.
Ich denke, es wird sich zeigen müssen, aus welchem der beiden Designs die Programmierer mehr Leistung herauskitzeln können.
Die PS3 hat einen Prozessor, der auf dem Papier mit 256Gflops glänzen kann, dies aber in der Praxis hauptsächlich durch bei Spielen kaum benötigte Gleitkommaoperationen erreicht.
Konsolenspiele könnten ja auch so entwickelt werden, wie es der Konsole schmeckt - nur so als Denkanstoß.
Einen Grafikchip, welcher auf einer Desktoparchitektur aufbaut und mit verdammt wenig Speicherbandbreite auskommen muss.
Und zweimal 256MB RAM, wobei offensichtlich sowohl der Grafikchip, als auch die CPU auf beide zugreifen können.
Und ein ziemlich flottes XDR-Speicherinterface.
BTW, daß die 256GB/s des Xenon für sein eDRAM schöngerechnet sind, ist dir bekannt?
Die Xbox hat drei vollständige CPUs, welche man mit Sicherheit leichter auslasten wird können als dieses Cell-Monster.
Die sich einen L2-Cache teilen - im Gegensatz zum CELL, wo jede SPU ihren eigenen L2 hat.
Einen Unified-Shader-Grafikchipsatz, wodurch man die Last dynamisch zwischen Pixel- und Vertexshader regeln kann und durch den eDRAM selbst AA und/oder HDR problemlos darstellen können sollte.
Richtig. Die Frage bleibt aber, ob es ein "und" oder ein "oder" werden wird.
Und einen 512MB unified-Speicher, auf den jeder zugriff hat und der aufgrund des eDRAMs für die GPU locker ausreichen sollte.
Da es sich um eine Konsole handelt, ist die Speichergröße nicht so ausschlaggebend, wie beim PC, denke ich, da man hier genauestens mit der verfügbaren Menge rechnen kann.
Jesus
2005-05-21, 14:47:41
Übersetzt aus dem japanischen:
The person who does not know RSX well seems to think so that this is hash-up of GPU for PCs, but, in fact, is different for the architecture at all. Include Mr. Kirk (a NVIDIA architect), and people of NVIDIA are people liking that draw a dream. At this point, there is a part to sympathize with each other, and we talk to still do a new thing.
RSX is not subspecies of a chip for PCs of NVIDIA. Cell and RSX have close relation and both are accessible for main memory and VRAM seamlessly. Cell can access VRAM in the same way as main memory, and RSX can treat main memory as a frame buffer, too.
The reason why we made PS3 such architecture is to get rid of a copy and operation of useless data between Cell and RSX. RSX can refer to a result to simulate in Cell directly and Cell can refer to form of the object which RSX made shadeing directly too. Shared memory cannot do such an act even if it can do rendering beautifully and complicated shading.
Sorry, Du hast zig mal genrell behauptet, dass der Cell mit seinen SPEs nicht für KI nutzbar ist, ohne Bezug auf irgendein Spiel.Habe ich das? Kann mich nicht mehr genau erinnern.
Auf jeden Fall meinte ich damit wie man KI heute im meistens programmiert. Das ist kaum parallelisierbar.
and RSX can treat main memory as a frame buffer, too.
Ich würde nun annehmen, dass man den Framebuffer vielleicht doch aufteilen kann, um die Bandbreite zu erhöhen.
Konsolenfreund
Jesus
2005-05-21, 14:59:19
bessere übersetzung :)
For example, RSX is not a variant of nVIDIA's PC chip. CELL and RSX have close relationship and both can access the main memory and the VRAM transparently. CELL can access the VRAM just like the main memory, and RSX can use the main memory as a frame buffer. They are just separated for the main usage, and do not really have distinction.
This architecture was designed to kill wasteful data copy and calculation between CELL and RSX. RSX can directly refer to a result simulated by CELL and CELL can directly refer to a shape of a thing RSX added shading to (note: CELL and RSX have independent bidirectional bandwidths so there is no contention). It's impossible for shared memory no matter how beautiful rendering and complicated shading shared memory can do.
VooDoo7mx
2005-05-21, 14:59:50
The person who does not know RSX well seems to think so that this is hash-up of GPU for PCs, but, in fact, is different for the architecture at all. Include Mr. Kirk (a NVIDIA architect), and people of NVIDIA are people liking that draw a dream. At this point, there is a part to sympathize with each other, and we talk to still do a new thing.
RSX is not subspecies of a chip for PCs of NVIDIA. Cell and RSX have close relation and both are accessible for main memory and VRAM seamlessly. Cell can access VRAM in the same way as main memory, and RSX can treat main memory as a frame buffer, too.
The reason why we made PS3 such architecture is to get rid of a copy and operation of useless data between Cell and RSX. RSX can refer to a result to simulate in Cell directly and Cell can refer to form of the object which RSX made shadeing directly too. Shared memory cannot do such an act even if it can do rendering beautifully and complicated shading.
Sehr interessant. Der RSX soll ja auch einzelne SPEs vom Cell nutzen können.
Aber ich denke da können einige Sony-Männer soviel schwafeln wie sie wollen. Zu Grunde liegt immer ein anderes Design für den RSX.
Heute wird kein Chip von Grund auf neu designed, immer sind Teile von alten Architekturen vorhanden.
Sowohl der R500 als auch der RSX sind Custom Chips, die in enger zusammenarbeit mit den Konsolenbauern entworfen wurden sind. Diese Chips werden aber genauso ihre wurzeln bei früheren Chips haben wie der G80 und der R600 diese haben werden.
reunion
2005-05-21, 15:04:22
Konsolenspiele könnten ja auch so entwickelt werden, wie es der Konsole schmeckt - nur so als Denkanstoß.
Was die Entwicklung wieder zusätzlich verkompliziert.
Und ein ziemlich flottes XDR-Speicherinterface.
Ja, nur dürfte davon der Grafikchip einen nicht unwesentlichen Teil in anspruch nehmen.
BTW, daß die 256GB/s des Xenon für sein eDRAM schöngerechnet sind, ist dir bekannt?
Natürlich, allerdings erscheint die Verbindung zum eDRAM-Chip auch nicht gerade unterdimensioniert.
Habe ich das? Kann mich nicht mehr genau erinnern.
Auf jeden Fall meinte ich damit wie man KI heute im meistens programmiert. Das ist kaum parallelisierbar.
Ok, das mag ja sein, nur ist es für mich irgendwie klar, dass Sony wusste was sie tun und KI gehört sicherlich dazu. Und wenn neue Wege gegangen werden müssen für ein Konsolenarchitektur, dann wird man die Spiele so entwickeln, wie sie der Konsole schmecken.
Mich würde nun mal interessieren, wie sich ein aktuelles KI Konzept unterscheidet von eins was auf den Cell SPEs denkbar wäre, in der Ausführung und im Resultat.
Konsolenfreund
Quasar
2005-05-21, 15:06:42
Ja, nur dürfte davon der Grafikchip einen nicht unwesentlichen Teil in anspruch nehmen.
Der hat ja zusätzlich noch einen "eigenen" Speicher (eigens angebunden).
Natürlich, allerdings erscheint die Verbindung zum eDRAM-Chip auch nicht gerade unterdimensioniert.
Nein, 32 GB/s klingen schon nett.
Aber längst nicht so beeindruckend, wie die 2 TBit/s, die neulich mal jemand in den Mund nahm.
Ja, nur dürfte davon der Grafikchip einen nicht unwesentlichen Teil in anspruch nehmen.
Und Du meinst der eDRAM der Xbox lässt das 22Gb Interface, was sich CPU und GPU teilen lassen unverschohnt? :rolleyes:
Natürlich, allerdings erscheint die Verbindung zum eDRAM-Chip auch nicht gerade unterdimensioniert.
Aber im grunde werden mit dem eDRAM doch nur andere Defizite aufgefangen. Nicht das ich das Konzept schlecht finde, aber es ist doch nicht so, als ob der eDRAM den normalen Speicher ersetzt.
Kf
reunion
2005-05-21, 15:11:36
Der hat ja zusätzlich noch einen "eigenen" Speicher (eigens angebunden).
Welcher für einen Chip mit 24Pipelines und 550Mhz Chiptakt hoffnungslos unterdimensioniert erscheint.
Nein, 32 GB/s klingen schon nett.
Aber längst nicht so beeindruckend, wie die 2 TBit/s, die neulich mal jemand in den Mund nahm.
Die 2 Tbir/s bezeihen sich auf die FPU logik in den eDRAm Chips selber, die für das AA verantwortlich sind.
Kf
Welcher für einen Chip mit 24Pipelines und 550Mhz Chiptakt hoffnungslos unterdimensioniert erscheint.
Die GPU kann direkt auf die SPEs zugreifen ;) Deshalb auch 33GB/s Anbindung an Cell und XDA. Da hätten wir also ~55GB/s als Peakwert, was durchaus nicht schlecht ist.
Kf
Quasar
2005-05-21, 15:17:23
Welcher für einen Chip mit 24Pipelines und 550Mhz Chiptakt hoffnungslos unterdimensioniert erscheint.
Für einen Chip im PC-Bereich, der mit PC-Titeln sich rumschlagen muss, ja. Für einen Chip im Konsolenbereich IMO absolut ausreichend - oder rechnest du damit, daß XBox 360- oder PS3-Titel sehr viel bilineares Single-Texturing mit 4xAA einsetzen?
Die 2 Tbir/s bezeihen sich auf die FPU logik in den eDRAm Chips selber, die für das AA verantwortlich sind.
Kf
...und sind trotzdem nichts anderes, als die 256GB/s, resp. 32GB/s ohne Kompression, die da schöngerechnet werden. AFAIK.
Die GPU kann direkt auf die SPEs zugreifen ;) Deshalb auch 33GB/s Anbindung an Cell und XDA. Da hätten wir also ~55GB/s als Peakwert, was durchaus nicht schlecht ist.
Kf
Ich bin mir da nicht sicher, ob das nicht alles über dasselbe Speicherinterface läuft....
reunion
2005-05-21, 15:17:36
Die GPU kann direkt auf die SPEs zugreifen ;) Deshalb auch 33GB/s Anbindung an Cell und XDA. Da hätten wir also ~55GB/s als Peakwert, was durchaus nicht schlecht ist.
Womit die gesamte Bandbreite erschöpft wäre.
Und was macht dann z.B. die CPU?
reunion
2005-05-21, 15:23:03
Für einen Chip im PC-Bereich, der mit PC-Titeln sich rumschlagen muss, ja. Für einen Chip im Konsolenbereich IMO absolut ausreichend - oder rechnest du damit, daß XBox 360- oder PS3-Titel sehr viel bilineares Single-Texturing mit 4xAA einsetzen?
Bilineares Single-Texturing nicht, aber AA oder z.B. HDR schon.
Man sieht ja schon heute, wie sehr NV40 beim Einsatz von HDR oder AA einbricht.
Jesus
2005-05-21, 15:23:38
Ich bin mir da nicht sicher, ob das nicht alles über dasselbe Speicherinterface läuft....
Das eine über RSX-VRAM (22,4GB/s) direkt das andere über RSX-FLEXIO-CELL-RAM (35 GB/s), wenn ichs irchtig in erinnerung habe.
Jesus
2005-05-21, 15:24:23
Bilineares Single-Texturing nicht, aber AA oder z.B. HDR schon.
Man sieht ja schon heute, wie sehr NV40 beim Einsatz von HDR einbricht.
Die HDR Diskussion hatten wir schon in nem anderen Thread. Geht nicht gibts nicht :wink:
Quasar
2005-05-21, 15:27:02
Das eine über RSX-VRAM (22,4GB/s) direkt das andere über RSX-FLEXIO-CELL-RAM (35 GB/s), wenn ichs irchtig in erinnerung habe.
So sah's im Blockdiagramm aus, ja. Aber ob man da wirklich zwei separate Speicherkontroller verbaut hat? Sind ja auch nicht grad inkomplex...
Bilineares Single-Texturing nicht, aber AA oder z.B. HDR schon.
Man sieht ja schon heute, wie sehr NV40 beim Einsatz von HDR oder AA einbricht.
Ja, aber aus welchen Gründen?
HDR in Single-Pass (und auf was wird man wohl optimieren, wenn der RSX und Xenon das können) beansprucht nicht so wahnsinnig viel Bandbreite.
Womit die gesamte Bandbreite erschöpft wäre.
Und was macht die CPU dann?
Nun, nehmen wir diese 55BG/s und geben dem Cell 10GB/s für seinen XDA Speicheracess, dann haben wir immer noch 45GB/s für den RSX!
Was bleibt der XBox abseits des eDRAMs, wenn man der CPU 10GB/s für den Speicherfluss gibt? 12Gb/s! Das ist nicht wirklich viel - eDRAM hin und her.
Konsolenfreund
Demirug
2005-05-21, 15:29:40
So sah's im Blockdiagramm aus, ja. Aber ob man da wirklich zwei separate Speicherkontroller verbaut hat? Sind ja auch nicht grad inkomplex...
Es sind ja keine zwei Speichercontroller. Das Interface zu Cell muss eher wie ein PCIe Interface eines PC Chips gesehen werden.
Quasar
2005-05-21, 15:32:41
Es sind ja keine zwei Speichercontroller. Das Interface zu Cell muss eher wie ein PCIe Interface eines PC Chips gesehen werden.
Und kann es GDDR3- und XDR-Protokolle simultan bedienen? Darauf läuft's ja im Endeffekt hinaus.
Gasat222
2005-05-21, 15:40:45
Der hat ja zusätzlich noch einen "eigenen" Speicher (eigens angebunden).
Nein, 32 GB/s klingen schon nett.
Aber längst nicht so beeindruckend, wie die 2 TBit/s, die neulich mal jemand in den Mund nahm.
Diese 256GB/sec kommen aber auch in allen Interviews und Berichten vor die du im Netz finden kannst. Auch Dave Baumann hat es noch einmal bestätigt. Die 256GB/sec eDRAM-Bandbreite sind fakt. Natürlich nicht zwischen eDRAM und GPU, aber intern; eben so wie die 48GB/sec des GS der PS2.
Alles andere würde auch keinen Sinn machen. Schließlich soll das Ding gleichzeitig 32Pixel durchschleusen können.
Demirug
2005-05-21, 15:41:55
Woher kommt eigentlich die Aussage das der Cell Chip nur über eine brutale FP Leistung verfügt? Die SPEs haben doch neben den FPUs auch noch die gleiche Anzahl Integer ALU.
reunion
2005-05-21, 15:46:26
Nun, nehmen wir diese 55BG/s und geben dem Cell 10GB/s für seinen XDA Speicheracess, dann haben wir immer noch 45GB/s für den RSX!
Ich denke, dass Sony die Einteilung mit 22GB/s für den Grafikchip, und 15GB/s read + 20GB/s write für Cell nicht ohne Grund so gewählt hat.
Natürlich kann der RSX im "Notfall" auch etwas vom Cell abzwicken, dass sich Cell mit 10GB/s begnügt glaube ich allerdings nicht.
Was bleibt der XBox abseits des eDRAMs, wenn man der CPU 10GB/s für den Speicherfluss gibt? 12Gb/s! Das ist nicht wirklich viel - eDRAM hin und her.
R500 benötigt durch den eDRAM abseits auch nicht viel Bandbreite.
reunion
2005-05-21, 15:50:31
Und Du meinst der eDRAM der Xbox lässt das 22Gb Interface, was sich CPU und GPU teilen lassen unverschohnt? :rolleyes:
Größtenteils ja.
Aber im grunde werden mit dem eDRAM doch nur andere Defizite aufgefangen.
Logisch, sonst könnte man ja auch drauf verzichten.
Nicht das ich das Konzept schlecht finde, aber es ist doch nicht so, als ob der eDRAM den normalen Speicher ersetzt.
Warum nicht?
Quasar
2005-05-21, 15:53:18
Diese 256GB/sec kommen aber auch in allen Interviews und Berichten vor die du im Netz finden kannst. Auch Dave Baumann hat es noch einmal bestätigt. Die 256GB/sec eDRAM-Bandbreite sind fakt. Natürlich nicht zwischen eDRAM und GPU, aber intern; eben so wie die 48GB/sec des GS der PS2.
Alles andere würde auch keinen Sinn machen. Schließlich soll das Ding gleichzeitig 32Pixel durchschleusen können.
Nein, sie sind errechnet (genau, wie sich aus ihnen auch die 2 TBit/s errechnen).
Da 4-Sample AA eDRAM-intern realisiert wird über redundante Einheiten, würde eine herkömmliche Architektur eben diese 256GB/s benötigen.
Faktisch wirst du da aber nie hinkommen, sondern eher auf 256 GB/s / 4 Samples je Takt / Lese-/Schreibvorgang = 32 GB/s.
edit:
Ja, intern ist diese Transferleistung vorhanden. Das habe ich eben überlesen, sry.
edit2:
Wie du auf 32 Pixel kommst, ist mir schleierhaft. Acht waren's AFAIK.
edit3:
http://www.techreport.com/etc/2005q2/xbox360-gpu/block.gif
Dieses Diagramm, angeblich direkt von ATi, ist dann aber leider falsch.
Jesus
2005-05-21, 15:54:17
Woher kommt eigentlich die Aussage das der Cell Chip nur über eine brutale FP Leistung verfügt? Die SPEs haben doch neben den FPUs auch noch die gleiche Anzahl Integer ALU.
Im übrigen scheint es eine zweite Revision der PPE zu geben die 4 Threads abarbeiten kann bzw. 2 VMX Units besitzt. Hab ich irgendwo im B3D Forum gelesen.
Ich denke, dass Sony die Einteilung mit 22GB/s für den Grafikchip, und 15GB/s read + 20GB/s write für Cell nicht ohne Grund so gewählt hat.
Natürlich kann der RSX im "Notfall" auch etwas vom Cell abzwicken, dass sich Cell mit 10GB/s begnügt glaube ich allerdings nicht.
Die 10GB/s beziehen sich auf den Speicher Access. Ansonsten bleiben ja noch 23GB/s direkt zum RSX.
R500 benötigt durch den eDRAM abseits auch nicht viel Bandbreite.
Achso. ... Sicherlich ist das nicht so. Ich glaube Du hast die Funktion des 10MB großen eDRAM nicht verstanden.
Konsolenfreund
Größtenteils ja.
Ja sicher. Die 10eDRAM, die größtenteils als Frambuffer genutzt werden reichen dem R500 völlig. :ugly:
Logisch, sonst könnte man ja auch drauf verzichten.
Ja, siehste. Du schreibst dem eDRAm aber glaube ich noch was anderes zu. Wo kommen denn bitte die ganzen Daten her. Ist das alles im eDRAM? :|
Warum nicht?
Weil 10MB wohl keinen vollen Ersatz darstellen zum normalen Grafikartenspeicher, dessen Bandbreite bei 22GB/s liegt und die nochmals aufgeteilt wird zwischen CPU und GPU.
Konsolenfreund
Quasar
2005-05-21, 18:37:08
Die 10 MByte eDRAM fangen doch eine Menge an Speicherzugriffen ab. Z-, Stencil-, Alpha- und MSAA-Ops z.B. belasten die externe Bandbreite zum VRAM gar nicht mehr. Bleiben noch reine Framebufferzugriffe und Texture Reads. Ob und woher die Vertexinformationen kommen, weiß ich momentan nicht.
Demirug
2005-05-21, 18:48:01
Die 10 MByte eDRAM fangen doch eine Menge an Speicherzugriffen ab. Z-, Stencil-, Alpha- und MSAA-Ops z.B. belasten die externe Bandbreite zum VRAM gar nicht mehr. Bleiben noch reine Framebufferzugriffe und Texture Reads. Ob und woher die Vertexinformationen kommen, weiß ich momentan nicht.
Entwedert auch aus dem Speicher (statische Daten) oder direkt aus dem Cache der CPU (dynamische Daten)
Quasar
2005-05-21, 18:49:14
Ok, aber wohl nicht im Gegenwert von etlichen GB/s...
Demirug
2005-05-21, 18:51:59
Ok, aber wohl nicht im Gegenwert von etlichen GB/s...
Nein, Geometrie macht ja sowieso nicht so viel aus.
Bei der XBox I wurde viel dadurch gespart des es dort spezielle Texturekompresionen gab. Nur mal so als möglicher Denkansatz.
StefanV
2005-05-21, 19:44:20
Ja sicher. Die 10eDRAM, die größtenteils als Frambuffer genutzt werden reichen dem R500 völlig. :ugly:
Nur mal so zum Vergleich:
Der Gamecube hat aktuell 3MB und kaum Kompressionsalgos.
Die Paystation 2 hat 4MB eDRAM und garkeine Kompressionsalgos.
Sprich: mit den 10MB eDRAM kann man schonmal 'ne Menge machen!!
Quasar
2005-05-21, 19:49:21
Die beiden müssen aber keine HD-Auflösungen bedienen und haben AFAIK kein AA.
Jesus
2005-05-21, 19:57:29
Die beiden müssen aber keine HD-Auflösungen bedienen und haben AFAIK kein AA.
doch GT4 :rolleyes:
Quasar
2005-05-21, 20:04:49
Ach ja? In-Game?
Jesus
2005-05-21, 20:38:47
Ach ja? In-Game?
jo, nennt sich 1080i Modus, ist es zwar nicht ganz, aber besser als
normal allemal :smile:
Gran Turismo 4 - PS2:
480p Modus:
http://nemesis.rushers.net/small_480p.JPG
1080i Modus:
http://nemesis.rushers.net/small_1080i.JPG
Und die original Fotos (sehr gross :wink: ), am Zaun sieht mans auch nochmal recht deutlich:
480p (http://nemesis.rushers.net/480p.JPG)
1080i (http://nemesis.rushers.net/1080i.JPG)
Quasar
2005-05-21, 20:54:28
Sieht aus wie billig hochskaliert, aber ok - dann kann die PS2 halt auch eine HD-"Variante"...
Jesus
2005-05-21, 20:58:52
Sieht aus wie billig hochskaliert, aber ok - dann kann die PS2 halt auch eine HD-"Variante"...
Naja schau dir mal die schrägen Kanten an der Motorhaube an. Die Auflösung ist schon gut doppelt so hoch wie vorher. Im Spiel selbst merkt mans aber gewaltig, weit entfernte Autos oder Objekte auf langen Geraden kann man wesentlich besser erkennen als vorher, bzw. man kann sie überhaupt erkennen :rolleyes:
Jesus
2005-05-21, 21:08:41
Vielleicht erklärt dass ja das HDR Phänomen etwas ?
For example we showed the demo that renders London City, it's not rendered in the GPU but the CELL does lighting and texture processing then outputs it to the frame buffer. Even without GPU, only CELL can create good enough 3D graphics.
Das macht die Sache nur noch verwirrender. Wahrscheinlich macht Cell das Postprocessing.
Fetza
2005-05-21, 22:02:37
heisst das etwa, der cell prozessor ist in der lage, ohne die gpu bereits vernünftig 3d grafik zu berechnen? :eek:
Gruss
Fetza
Hey Jungs :)
sicherlich ist ein technischer Vergleich der beiden Konsolen interessant....
aber Ihr vergesst, das es wichtiger ist, wie die Spiele spielerisch sind...
(cool - Tarentino Satz)
Was bringt mir eine tolle Hardware, wenn die Spiele außer Grafik nicht zu bieten haben....
Deswegen sollte zur Betrachtung auch ein Look auf die angekündigten Spiele oder wahrscheinlich erscheinenden Spiele dazugehören.......(finde ich zumindest)
heisst das etwa, der cell prozessor ist in der lage, ohne die gpu bereits vernünftig 3d grafik zu berechnen?Die GPU dürfte deutlich schneller sein, sonst würde man einfach mehr Cells verbauen ;)
heisst das etwa, der cell prozessor ist in der lage, ohne die gpu bereits vernünftig 3d grafik zu berechnen? :eek:
Gruss
Fetza
Ich denke nicht....der Cell ist ein guter DSP - aber eine GPU kann er nicht ersetzen....
Hey Jungs :)
sicherlich ist ein technischer Vergleich der beiden Konsolen interessant....
aber Ihr vergesst, das es wichtiger ist, wie die Spiele spielerisch sind...
(cool - Tarentino Satz)
Was bringt mir eine tolle Hardware, wenn die Spiele außer Grafik nicht zu bieten haben....
Deswegen sollte zur Betrachtung auch ein Look auf die angekündigten Spiele oder wahrscheinlich erscheinenden Spiele dazugehören.......(finde ich zumindest)
Beste Antwort diese Jahr im Forum! Diese Antwort rahme ich mir ein, weil sie in den Köpfen der Fanboys gar nicht erst exestiert. Hier dreht sich doch der eigentliche Vergleich um A gegen N - GPU.
StefanV
2005-05-22, 08:36:10
heisst das etwa, der cell prozessor ist in der lage, ohne die gpu bereits vernünftig 3d grafik zu berechnen? :eek:
Gruss
Fetza
Dafür war er ursprünglich gedacht, ja :)
Aber anscheinend hats sich SoNie irgendwann doch anders überlegt und 'ne GPU dazu gepackt...
Quasar
2005-05-22, 11:13:28
War CELL nicht urspünglich als massiv-paralleler Stream-Processor gedacht? :rolleyes:
Ganon
2005-05-22, 11:37:18
War CELL nicht urspünglich als massiv-paralleler Stream-Processor gedacht? :rolleyes:
Soweit ich weiß, ist er als "Multimedia"-Prozessor mit starken Bezug auf Video De- und Encodierung. Gerade im Bereich HDTV-1080p.
Darum soll er ja auch Anwendung in Fernsehern und anderen HDTV-Geräten finden.
Darin ist er auch sehr gut. ;)
Dafür war er ursprünglich gedacht, jaWar er nicht. Das sind ziemlich sicher Gerüchte.
War CELL nicht urspünglich als massiv-paralleler Stream-Processor gedacht?Das ist er doch auch :|
Jesus
2005-05-22, 12:23:32
War er nicht. Das sind ziemlich sicher Gerüchte.
Jep. Denke ich auch, auf der PK sagte der Nvidia CEO auch was von "over the last five years" Entwickung mit Sony, oder so ... :rolleyes:
Quasar
2005-05-22, 12:30:07
Das ist er doch auch :|
Ja, aber eben nicht zwangsläufig zur Berechnung von 3D-Grafik. Dafür hätte man sicherlich sowas wie eine TMU mit ins Konzept hereingenommen.
Ja natürlich. Aber ein Streamprozessor ist ja ohne solch Zeug eben auch nicht wirklich ein guter Rasterizer.
War er nicht. Das sind ziemlich sicher Gerüchte.
In den Patenten stehen Erweiterungen für Cell, um ihn als GPU einzusetzen.
StefanV
2005-05-22, 14:49:20
War er nicht. Das sind ziemlich sicher Gerüchte.
Am Anfang schien es so, als ob Sonie mehrere von den Cells verbauen wollte, in der PS3, ohne GPU and so on...
Sprich:
Mehrere Cell Chips sollten alles berechnen, so war der Stand am Anfang...
Es ist aber auch nicht soo ein großer Aufwand 'mal eben' eine GPU dazuzupflanzen, zumal solche Designs eigentlich recht 'einfach' zu bekommen sind (einfach bei nV, ATi oder ImgTec nachfragen)...
Auf jeden Fall ist Cell in der Form wie er jetzt verbaut wird nicht als GPU zu gebrauchen.
Hier kann man sich gut über den Cell informieren:
http://www.igeek.com/CellProcessor.pdf
Viel Spass beim Lesen.
Demirug
2005-05-22, 15:29:57
Gibt ja Untersuchungen dazu warum reine Streamprozessoren nicht als GPU taugen. Wahrscheinlich hat Sony sowas auch durchgeführt und ist zum Schluss gekommen das sie damit nicht Konkurenzfähig sind.
Quasar
2005-05-22, 15:30:55
Oder sie hatten die Wahl, eine GPU anstelle mehrerer zusätzlicher CELLs einzubauen.
Hier kann man sich gut über den Cell informieren:
http://www.igeek.com/CellProcessor.pdf
Viel Spass beim Lesen.Das ist verdammt biased. Der redet von x86 als wäre es der letzte Müll nur weil es CISC ist. Das Vorurteil wird wohl aus manchen Köpfen nie verschwinden.
Oder auch hier:
http://www.cerc.utexas.edu/vlsi-seminar/spring05/slides/2005.02.16.hph.pdf
http://www-306.ibm.com/chips/techlib/techlib.nsf/techdocs/D9439D04EA9B080B87256FC00075CC2D/$file/MPR-Cell-details-article-021405.pdf
http://www.hpcaconf.org/hpca11/papers/25_hofstee-cellprocessor_final.pdf
@Quasar
Ursprünglich wollten die 3 Cells in den PS3 einbauen.
Avalox
2005-05-23, 10:35:22
Hat jemand Infos zum Thema Sound auf der XBOX 360?
Bisher weiss ich nur, dass die eine ominöse Southbridge um den Sound kümmert, 256 Stimmen bei 32Bit Sampletiefe und die Ausgabe mit 16Bit und 48kHz erfolgt. Was und wie und mit welchen Effekten dabei geschieht habe ich bisher nicht gelesen.
Wer liefert denn eigentlichen den Chipsatz?
Hat jemand Infos zum Thema Sound auf der XBOX 360?
Bisher weiss ich nur, dass die eine ominöse Southbridge um den Sound kümmert, 256 Stimmen bei 32Bit Sampletiefe und die Ausgabe mit 16Bit und 48kHz erfolgt. Was und wie und mit welchen Effekten dabei geschieht habe ich bisher nicht gelesen.
Wer liefert denn eigentlichen den Chipsatz?
Bei der PS3 und der XBox 360 wird der Sound von der CPU genreriert. Da ist also sehr viel möglich was Qualität und Kanalmengel angeht. Es gibt ein PS3 Techdemo, da wurden hunderttausende von Blättern dargestellt und jedes Blatt hatte einen eigenen Soundkanal. :O Raus kommt es dann in 5.1.
Konsolenfreund
Und wer soll den Unterschied zwischen 100 und 100.000 hören? Behaupten kann man viel ;)
Und wer soll den Unterschied zwischen 100 und 100.000 hören? Behaupten kann man viel ;)
Keiner, aber mehr als 64 Kanäle machen durchaus Sinn bei einem gutem 5.1 System und den Unterschied zwischen 64 kanälen und sagen wir mal 256 kann man durchaus hören bei guter räumlicher Auflösung des Soundsystems.
Worauf willst Du eigentlich hinaus? Dass Sony so eine Techdemo macht und schlicht lügt? Wenn der Cell zig HDTV Stream gleichzeitig decodieren kann, wird er wohl mit eine paar hunderttausend Soundkanälen in einer Techdemo keine Problem haben.
Kommt drauf an... Wenn es nur gemischt wird ist es wohl wirklich kein Problem.
Kommt drauf an... Wenn es nur gemischt wird ist es wohl wirklich kein Problem.
Mehr war glaube ich auch nicht gemeint.
Wobei mich mal interessieren würde, ob es in Spielen möglich wäre mit entsprechender Hardware, Soundgenerierung mit der Physikengine zu kombinieren. Also ein Teil rutscht über dem Boden und gibt der Geschwindigkeit und der Oberflächeneigenschafften entsprechend einen synthetisierten Sound von sich.
Kf
Avalox
2005-05-23, 17:20:04
Zumindest für die Xbox 360 hat Heise aber ganz konkrete Angaben zum Sound gemacht (s.o.).
Allerdings kann es auch einfach die Grenzen der API und damit Softwareseitig sein.
Viele Stimmen zu haben ist elementar für ein Wavetracing.
Interessant wäre es, ob schon die GameCODA Middleware für die XBox 360 verfügbar ist.
Handelt es sich um ein reines Softwarerendering, hat man schon mal einen guten Verwendungszweck für einen Kern.
ATI is talking massively about this chip and we know it's R500 and that this beast has 10MB of EDRAM memory. This memory has 512Mbit interconnections with the core making it at least twice as fast as external memory. And 10MB is enough for HDTV picture isn't it?
Jetzt doch nur 512M(?)bit ?
Jesus
2005-05-24, 18:21:00
Weiss nicht ob ihr das schon kennt... sagt uns das irgendwas?
http://ruliweb4.dreamwiz.com:8080/data/news6/05m/17/ps3/s/P1010276.jpg
Soweit ich das beurteilen kann sieht das ziemlich nach NV40 artig aus
Savant
2005-05-25, 11:35:55
Hat jemand Infos zum Thema Sound auf der XBOX 360?
Wer liefert denn eigentlichen den Chipsatz?
Sollte das nich grotten Firma SIS machen ? Oder sind die nur für die Controller für die Eingabegeräte zuständig ?
DanMan
2005-05-25, 14:56:58
heißt das etwa, der cell prozessor ist in der lage ohne die gpu bereits vernünftig 3d grafik zu berechnen? :eek:
Ne. Ohne GPU gibts auch keine Polygone.
Ich denke nicht....der Cell ist ein guter DSP - aber eine GPU kann er nicht ersetzen....
So kann man das aber auch nicht sagen. Hast du die Demo gesehen, auf der eine 3D Landschaft ausschließlich auf dem Cell in Echtzeit in 720p geraytraced wird? Besteht nur aus 2 Infos (nem 2D Satellitenphoto und einer 3D Satelliten-"Heightmap"). Find leider gerade keinen Link zu nem Video. Werd ich nachreichen wenn ich einen find.
edit: Hab eins bei Gamespot (http://www.gamespot.com/live/streamer_new2.html?title=PlayStation+3+Hardware+Technology+Demonstration&path=landscapestech_gp_0516.asx&pid=927750&ppath=ps3/action/playstation3hardware&ksubmoid=&urdate=1167552000) gefunden.
Demirug
2005-05-25, 15:00:24
Ne. Ohne GPU gibts auch keine Polygone.
Warum den nicht? Mit einem Streamprozessor kann man auch rendern.
zeckensack
2005-05-25, 15:01:57
Warum den nicht? Mit einem Streamprozessor kann man auch rendern.Man kann gut füllen, aber den Scan Converter würde ich lieber auf einer GP-CPU implementieren :)
Demirug
2005-05-25, 15:05:46
Man kann gut füllen, aber den Scan Converter würde ich lieber auf einer GP-CPU implementieren :)
Es geht aber und der Scan Converter war IIRC gar nicht mal das größte Problem dabei. Man hat massiv Leistung durch den Texturefilter verloren.
Effektiv ist aber auf keinen Fall. Ansonsten hätte Sony ja auch eher einen zweiten Cell anstelle des RSX verbaut.
zeckensack
2005-05-25, 15:16:40
Es geht aber und der Scan Converter war IIRC gar nicht mal das größte Problem dabei. Man hat massiv Leistung durch den Texturefilter verloren.*hrhr*
Das kann eigentlich nur zwei Gründe haben.
1)zu wenig Cache
2)kein Support für komplexe Adressierungsmodi ... (oder das, was man bei GPUs "dependent read" nennen würde)
Eigentlich albern ... zum Glück braucht Cell das in der PS3-Konfiguration nicht zu machen.
Demirug
2005-05-25, 15:21:51
*hrhr*
Das kann eigentlich nur zwei Gründe haben.
1)zu wenig Cache
2)kein Support für komplexe Adressierungsmodi ... (oder das, was man bei GPUs "dependent read" nennen würde)
Eigentlich albern ... zum Glück braucht Cell das in der PS3-Konfiguration nicht zu machen.
Nicht falsch verstehen. Ich bezog mich auf ein Experiment mit einer reinen Stream CPU. Ob man das mit Cell auch schon gemacht hat entzieht sich meiner Kentniss.
Jesus
2005-05-26, 21:38:50
At the recent J.P. Morgan technology conference, NVIDIA's CFO, Marv Burkett, gave a fifteen-minute presentation discussing how business matters inside NVIDIA are flowing, including how well certain areas of the business are growing. The larger topics covered included RSX, the chip behind the awesome graphics on Playstation 3, and upcoming 90 nanometre products.
Burkett stated that RSX is still in development and that no actual silicon is available yet. In other words, the silicon is not even taped out thus far. If we look at Sony's schedule, we expect that RSX is being finalised right now, and should be taped out before September, and the first silicon will be available nearer Christmas, in time for enough units to be made in the run up to the expected Spring 2006 launch.
The beauty is that once NVIDIA have bug-free silicon and the chip works as it is meant to, Sony will take complete control of production, paying NVIDIA for the technology. Once Sony take over production, NVIDIA need not worry about anything related to the production of the GPU, which means that the money they make of Playstation 3 will be free, as their work was completed before Sony took over the reins.
This means that there is one question that remains unanswered. The pre-E3 press conference that was held by Sony had a large number of technology demos - what GPU was used to render those if RSX is still in development?
Burkett discussed how NVIDIA and Sony had used an upcoming product with many similar capabilities to the RSX to demonstrate the capabilities of the Playstation 3 GPU. The demos at the show were running on NVIDIA's upcoming high-end desktop part, and also SLI systems. It is unclear whether these were based on the new desktop part that we've referred to as G70 in the past, or whether they were GeForce 6800 Ultra SLI combinations.
@Jesus
Quelle angeben:
http://www.bit-tech.net/news/2005/05/25/rsx_still_in_development
Tyler_Durden
2005-05-27, 10:06:00
2 x G70 mit einem Single Chip Design?
Bin ja mal gespannt ob der RSX am Ende auch diese Performance erreicht? Ganz vorstellen kann ich mir das noch nicht.
Demirug
2005-05-27, 10:11:00
Das sind mit an sicherheit grenzender Wahrscheinlichkeit 2 GF6800 Ultras gewesen. Das entspricht nämlich in etwa der Leistungangabe die man von Entwicklern vor der offiziellen Vortsellung zu höhren bekommen hat.
Mich würde mal intressieren wie M$ auf die 105(?) "GFLOPS" bei der Xbox CPU kommt? Durch 3 mal Altivec kommt das doch niemals hin, selbst wenn man sehr optimistisch zählt sollten es nicht mehr als 45 "GFLOPS" sein. :rolleyes:
Weil die 3 PPC-SMT-Kerne je 2 Befehle zeitgleich ausführen können? MS geht ja bei den 3 Kernen mit bis zu 6 Befehlen zeitgleich aus, da es SMT kann. Sony rechnet ja auch ähnlich. ;)
Das ist wohl richtig, aber ich denke der RSX hat schon mehr Power als R500.
Sollte der PS3 Cell nicht ursprünglich 2 CPU Kerne haben? Einer von den ineffizienten Teilen ist schon extrem mager.
Sollte 2 PPC Kerne haben, wurde einer wegrationalisiert und der andere durch einen PPC-Kern mit SMT ersetzt.
Woher kommt eigentlich die Aussage das der Cell Chip nur über eine brutale FP Leistung verfügt? Die SPEs haben doch neben den FPUs auch noch die gleiche Anzahl Integer ALU.
Sony gibt selber die Leistung im SP FP (32 bit) von 256 GFlops an, klingt besser als 25 GFlops DP FP (64 bit). Die Integer-Leistungen sind bis jetzt nicht veröffentlicht worden bzw. habe sie noch nicht gesehen. Welche Integer Befehle kann der Cell?
Weiss nicht ob ihr das schon kennt... sagt uns das irgendwas?
http://ruliweb4.dreamwiz.com:8080/data/news6/05m/17/ps3/s/P1010276.jpg
Das ist beim PC längst bekannt, seit DX9?
Das sind mit an sicherheit grenzender Wahrscheinlichkeit 2 GF6800 Ultras gewesen. Das entspricht nämlich in etwa der Leistungangabe die man von Entwicklern vor der offiziellen Vortsellung zu höhren bekommen hat.
Da ist aber die Bandbreite des SLI Systems (egal ob 6800 U oder G70) insgesamt deutlich höher als beim RSX, wie es auch in den 3DC-News hingewiesen worden war. Also wird die Leistung des RSX eher darunter liegen?
Demirug
2005-05-27, 10:49:41
Sony gibt selber die Leistung im SP FP (32 bit) von 256 GFlops an, klingt besser als 25 GFlops DP FP (64 bit). Die Integer-Leistungen sind bis jetzt nicht veröffentlicht worden bzw. habe sie noch nicht gesehen. Welche Integer Befehle kann der Cell?
Der genaue Befehlssatz ist bisher nicht veröffentlicht. Icxh kenne nur das Diagramm in dem eben pro FPU auch immer noch eine entsprechenden ALU eigenzeichnet ist.
Da ist aber die Bandbreite des SLI Systems (egal ob 6800 U oder G70) insgesamt deutlich höher als beim RSX, wie es auch in den 3DC-News hingewiesen worden war. Also wird die Leistung des RSX eher darunter liegen?
Bandbreite ist immer so eine Sache. Historisch gesehen hat sich gezeigt das man bei Konsolen die zur Verfügung stehen Bandbreite meist viel besser ausnutzen kann als bei einem PC. Zudem kann sich RSX ja Hauptspeicher Bandbreite abzweigen.
Jesus
2005-05-27, 11:25:43
Weil die 3 PPC-SMT-Kerne je 2 Befehle zeitgleich ausführen können? MS geht ja bei den 3 Kernen mit bis zu 6 Befehlen zeitgleich aus, da es SMT kann. Sony rechnet ja auch ähnlich. ;)
Naja, die SPEs können kein SMT sondern sind real vorhanden ;) Das ist schon ein nicht zu verachtender Unterschied :rolleyes:
Savant
2005-05-27, 12:09:35
Gibts irgendwo ne erklärung was SMT und was SPE ist ?
StefanV
2005-05-27, 13:08:16
Gibts irgendwo ne erklärung was SMT und was SPE ist ?
SPE -> einzelner Cell Streming Prozessor
SMT -> bei Intel Hyper Threading genannt, der Sinn ist, das man durch 'ne Virtuelle CPU die Ausführungseinheiten besser auslasten kann...
Der genaue Befehlssatz ist bisher nicht veröffentlicht. Icxh kenne nur das Diagramm in dem eben pro FPU auch immer noch eine entsprechenden ALU eigenzeichnet ist.
Ich frage mich, warum IBM und Sony so ein großes Geheimnis um die ALU Leistung machen. Oder ist er nicht stark genug?
Bandbreite ist immer so eine Sache. Historisch gesehen hat sich gezeigt das man bei Konsolen die zur Verfügung stehen Bandbreite meist viel besser ausnutzen kann als bei einem PC. Zudem kann sich RSX ja Hauptspeicher Bandbreite abzweigen.
Deswegen bin ich der Meinung, dass der RSX und ein SLI-System 2 unterschiedliche Systeme sind. Es sei denn, der RSX besitzt Verbesserungen/Optimierungen, die das ausgleicht.
Naja, die SPEs können kein SMT sondern sind real vorhanden ;) Das ist schon ein nicht zu verachtender Unterschied :rolleyes:
Ja, die SPEs können kein SMT, wäre zu aufwendig und bei 7-8 braucht man es nicht. Aber der komplexere PPC ist auf SMT angewiesen.
*hrhr*
Das kann eigentlich nur zwei Gründe haben.
1)zu wenig Cache
2)kein Support für komplexe Adressierungsmodi ... (oder das, was man bei GPUs "dependent read" nennen würde)
Eigentlich albern ... zum Glück braucht Cell das in der PS3-Konfiguration nicht zu machen.
An der Rechenleistung scheiterts auch. Nur mal als Vergleich, NV40: 16TMUs @400MHz gegenüber Cell, 8 SPE @3,2GHz. Das bedeutet 4 Takte für LOD/LOA-Berechnung, Texturadressierung, Filtern und Akkumulieren. Das ist einfach nicht drin. Okay, es wäre FP32-Filterung, aber was nutzt das wenn der Standardfall, komprimierte Texturen, sogar noch eine ganze Ecke langsamer wäre.
PS: Ich bin weder für die XBOX 360 noch für die PS3. Nach dem ganzen Marketing-Hype wäre es gut, die Systeme objektiv zu vergleichen.Man kann vielleicht die theoretische Rechenleistung miteinander vergleichen, aber mich als Konsolen-Spieler interessiert nicht, wie das Spielerlebnis zustande kommt. Ich halte es sogar für einen Irrweg, Ultrahochleistungschip zu verbauen, wo diese doch aktiv gekühlt werden müssen. Eine Konsole sollte imo durch ein einfaches Design bestechen, also leicht und effizient zu programmieren sein. Je weniger sich die Entwickler darum kümmern müssen, sorgfältige Performance-Optimierungen vorzunehmen, weil sonst die Framerate nicht reicht, desto mehr Zeit haben sie um sich um die Inhalte zu kümmern.
Noch schlimmer: Wenn überhaupt, würde ich mir höchstens den Nintendo Revolution kaufen, weil ich mit dem Vorgänger Gamecube ganz zufrieden bin – un das, ohne Xbox oder PS2 zu kennen. Für mich ist für eine Kaufentscheidung ein Vergleich der theoretischen Rechenleistung überhaupt nicht interessant.
Man kann vielleicht die theoretische Rechenleistung miteinander vergleichen, aber mich als Konsolen-Spieler interessiert nicht, wie das Spielerlebnis zustande kommt. Ich halte es sogar für einen Irrweg, Ultrahochleistungschip zu verbauen, wo diese doch aktiv gekühlt werden müssen. Eine Konsole sollte imo durch ein einfaches Design bestechen, also leicht und effizient zu programmieren sein. Je weniger sich die Entwickler darum kümmern müssen, sorgfältige Performance-Optimierungen vorzunehmen, weil sonst die Framerate nicht reicht, desto mehr Zeit haben sie um sich um die Inhalte zu kümmern.
Noch schlimmer: Wenn überhaupt, würde ich mir höchstens den Nintendo Revolution kaufen, weil ich mit dem Vorgänger Gamecube ganz zufrieden bin – un das, ohne Xbox oder PS2 zu kennen. Für mich ist für eine Kaufentscheidung ein Vergleich der theoretischen Rechenleistung überhaupt nicht interessant.
Es gibt auch einen Mittelweg. Man muss nicht gleich immer von einem Extrem in das Andere, so wie Du es scheinbar gerade mit deinem Gamecube durchlebst.
Konsolenfreund
Habe ich das? Kann mich nicht mehr genau erinnern.
Auf jeden Fall meinte ich damit wie man KI heute im meistens programmiert. Das ist kaum parallelisierbar.Ich sehe bei KI eigentlich viele Möglichkeiten, das mit Parallelberechnungen zu gestalten. Jeder Thread kann eine Handlungsoption bewerten, und bricht ab, wenn eine bestimmte Grenze erreicht ist (entweder weil schon zu lange gerechnet wurde oder weil das Ergebnis bereits zu wenige Punkte bringt, als dass sich ein Weiterverfolgen der Schiene noch lohnt.)
Was die Entwicklung wieder zusätzlich verkompliziert.
FP-Leistung ist allerdings die Zukunft.
Ich sehe bei KI eigentlich viele Möglichkeiten, das mit Parallelberechnungen zu gestalten. Jeder Thread kann eine Handlungsoption bewerten, und bricht ab, wenn eine bestimmte Grenze erreicht ist (entweder weil schon zu lange gerechnet wurde oder weil das Ergebnis bereits zu wenige Punkte bringt, als dass sich ein Weiterverfolgen der Schiene noch lohnt.)For multithreading optimizations, we're focusing on physics, animation updates, the renderer's scene traversal loop, sound updates, and content streaming.We are not attempting to multithread systems that are highly sequential and object-oriented, such as the gameplay.These are hard problems, certainly not the kind of problems every game industry programmer is going to want to tackle. This is also why it's especially important to focus multithreading efforts on the self-contained and performance-critical subsystems in an engine that offer the most potential performance gain. You definitely don't want to execute your 150,000 lines of object-oriented gameplay logic across multiple threads - the combinatorical complexity of all of the interactions is beyond what a team can economically manage. But if you're looking at handing off physics calculations or animation updates to threads, that becomes a more tractable problem.
@ Coda
Und nun? Diese Aussage gibt seine Meinung und den Aufbau der UE3 wieder. Meinst Du es gibt nur die UE3?
Konsolenfreund
Es gibt auch einen Mittelweg. Man muss nicht gleich immer von einem Extrem in das Andere, so wie Du es scheinbar gerade mit deinem Gamecube durchlebst.Der Mittelweg ist, dass – wenn meine neue Konsole nicht GC-kompatibel sein sollte – ich mir mehrere Spiele auf den Konsolen ansehen würde. Und nicht danach fragen, wie viele CPUs und GPUs mit wie viel MHz darin laufen.
Demirug
2005-05-28, 17:10:02
Was sagt das jetzt?
Das der ganze Gameplay Code und dazu gehört auch die KI bei der Unreal Engine 3 zwingend in einem einzigen Thread laufen muß.
Und nun? Diese Aussage gibt seine Meinung und den Aufbau der UE3 wieder. Meinst Du es gibt nur die UE3?Nein. Ich meine nur dass es allgemein absolut unpraktikabel ist Gameplaycode zu parallelisieren - genau was Sweeney eben auch sagt.
Das gilt natürlich nicht für Teile daraus, aber je höher das Level ist in dem man zerlegt desto besser. OpenMP könnte aber hilfreich sein.
StefanV
2005-05-28, 17:14:45
Man kann vielleicht die theoretische Rechenleistung miteinander vergleichen, aber mich als Konsolen-Spieler interessiert nicht, wie das Spielerlebnis zustande kommt. Ich halte es sogar für einen Irrweg, Ultrahochleistungschip zu verbauen, wo diese doch aktiv gekühlt werden müssen. Eine Konsole sollte imo durch ein einfaches Design bestechen, also leicht und effizient zu programmieren sein. Je weniger sich die Entwickler darum kümmern müssen, sorgfältige Performance-Optimierungen vorzunehmen, weil sonst die Framerate nicht reicht, desto mehr Zeit haben sie um sich um die Inhalte zu kümmern.
Noch schlimmer: Wenn überhaupt, würde ich mir höchstens den Nintendo Revolution kaufen, weil ich mit dem Vorgänger Gamecube ganz zufrieden bin – un das, ohne Xbox oder PS2 zu kennen. Für mich ist für eine Kaufentscheidung ein Vergleich der theoretischen Rechenleistung überhaupt nicht interessant.
Der Cube ist IMO auch die leistungsfähigste und auch sinnigste aktuelle Spielekonsole, ja man munkelt sogar, das Nintendo das Teil so günstig herstellen kann, das ein sponsoring der Konsole unnötig ist...
Die PS2 ist ganz klar abgeschlagen am Ende, da hat SoNie allerhand verbockt (u.A. die flimmrige Grafik)...
Der Mittelweg ist, dass – wenn meine neue Konsole nicht GC-kompatibel sein sollte – ich mir mehrere Spiele auf den Konsolen ansehen würde. Und nicht danach fragen, wie viele CPUs und GPUs mit wie viel MHz darin laufen.
Natürlich kommt es im Endeffekt nur darauf an, ob einem das Softwareangebot zusagt. Ich habe aus diesem Grund auch einen Cube, statt einer Xbox.
Aber natürlich ist es interessant was in der Hardware schlummert, denn so kann man abschätzen, was die Konsolen grafisch und bzgl. Umweltsimulation möglich machen. Was dann an Software kommt muss man abwarten, wobei mir Sony und Nintendo vom bisherigen Angebotsspektrum der Software am meisten zusagen, und das wird auch wohl so bleiben, solange diverse Brandnames weitergeführt werden und die Entwickler ihr Leistungsniveau auf die NextGen Konsolen transportieren können.
Konsolenfreund
Der Cube ist IMO auch die leistungsfähigste und auch sinnigste aktuelle Spielekonsole, ja man munkelt sogar, das Nintendo das Teil so günstig herstellen kann, das ein sponsoring der Konsole unnötig ist...
Die PS2 ist ganz klar abgeschlagen am Ende, da hat SoNie allerhand verbockt (u.A. die flimmrige Grafik)...
Die PS2 bietet immer noch absolut unerreichte Toptitel und einige davon, wie zum Beispiel ganz aktuell "God of War", ohne Flimmern.
Und auch bei einigen PS2 Games, die flimmerm, ist der Gesamteindruck trotzdem unschlagbar. Und Flimmern kann der GameCube auch, wie man an RE4 sieht.
Konsolenfreund
Demirug
2005-05-28, 17:18:58
Nein. Ich meine nur dass es allgemein absolut unpraktikabel ist Gameplaycode zu parallelisieren - genau was Sweeney eben auch sagt.
Das gilt natürlich nicht für Teile daraus, aber je höher das Level ist in dem man zerlegt desto besser. OpenMP könnte aber hilfreich sein.
So unpraktikabel ist das eigentlich gar nicht.
Man muss dabei nur mal etwas über den Tellerrand schauen und Verfahren aus anderen Bereichen nutzen.
Nein. Ich meine nur dass es allgemein absolut unpraktikabel ist Gameplaycode zu parallelisieren - genau was Sweeney eben auch sagt.
Das gilt natürlich nicht für Teile daraus, aber je höher das Level ist in dem man zerlegt desto besser. OpenMP könnte aber hilfreich sein.
Ich bin da leider fachlich nicht so kompetent, aber wenn Demi da nicht schwarz sieht und Sony extrem hohe Investitionen für den Cell gemacht hat, muss es gute Ansätze geben Gameplaycode auch parallelisiert ablaufen zu lassen. Ansonsten müsste man die PS3 ja als elementare Fehlkonstruktion und bezeichnen.
Konsolenfreund
So unpraktikabel ist das eigentlich gar nicht.
Man muss dabei nur mal etwas über den Tellerrand schauen und Verfahren aus anderen Bereichen nutzen.Ja richtig, das bestreite ich ja gar nicht. Aber mir ging es ja um bisherige Codebasis.
Ich bin da leider fachlich nicht so kompetent, aber wenn Demi da nicht schwarz sieht und Sony extrem hohe Investitionen für den Cell gemacht hat, muss es gute Ansätze geben Gameplaycode auch parallelisiert ablaufen zu lassen. Ansonsten müsste man die PS3 ja als elementare Fehlkonstruktion und bezeichnen.Richtig, man muss aber entsprechenden Aufwand treiben, was sicher nicht jeder machen wird.
Das der ganze Gameplay Code und dazu gehört auch die KI bei der Unreal Engine 3 zwingend in einem einzigen Thread laufen muß.Öff. Das klingt wenig zukunftstauglich.
Der Cube ist IMO auch die leistungsfähigste und auch sinnigste aktuelle Spielekonsole, ja man munkelt sogar, das Nintendo das Teil so günstig herstellen kann, das ein sponsoring der Konsole unnötig ist...
Die PS2 ist ganz klar abgeschlagen am Ende, da hat SoNie allerhand verbockt (u.A. die flimmrige Grafik)...Man munkelt? Wer munkelt? Ich munkele, dass Nintendo selbstverständlich auch den Cube subventioniert. Einen Hersteller "SoNie" kenne ich nicht. Auch die GC-Grafik kann je nach Spiel flimmern.
Nein. Ich meine nur dass es allgemein absolut unpraktikabel ist Gameplaycode zu parallelisieren - genau was Sweeney eben auch sagt.Wieso sollte das "absolut" impraktikabel sein? Zwar muss man sich bei Parallelisierung um die Synchronisation kümmern, aber Parallelleistung ist nun mal eher da, als Singlethread-Leistung.
Öff. Das klingt wenig zukunftstauglich.
Mal abwarten. Ich würde denken die überarbeiten da noch einiges, denn Epic will nach eigener Aussage mit der UE3 auf der PS3 eine erfolgreiche Lizenzengine anbieten, mal abgesehen von den eigenen PS3 Produkten, was mit einer Singlethread Eingine nicht möglich sein sollte.
Konsolenfreund
Man munkelt? Wer munkelt? Ich munkele, dass Nintendo selbstverständlich auch den Cube subventioniert. Einen Hersteller "SoNie" kenne ich nicht. Auch die GC-Grafik kann je nach Spiel flimmern.
Das habe ich aber auch mehrfach gelesen, dass BigN den Cube mit leichtem Gewinn verkaufen kann.
Konsolenfreund
Natürlich kommt es im Endeffekt nur darauf an, ob einem das Softwareangebot zusagt. Ich habe aus diesem Grund auch einen Cube, statt einer Xbox.
Aber natürlich ist es interessant was in der Hardware schlummert, denn so kann man abschätzen, was die Konsolen grafisch und bzgl. Umweltsimulation möglich machen. Was dann an Software kommt muss man abwarten, wobei mir Sony und Nintendo vom bisherigen Angebotsspektrum der Software am meisten zusagen, und das wird auch wohl so bleiben, solange diverse Brandnames weitergeführt werden und die Entwickler ihr Leistungsniveau auf die NextGen Konsolen transportieren können.Eben. Die Qualitiät einiger Mario-Games ist so hoch, da ertrage ich auch die etwas simple Grafik. Was unter der Haube steckt ist interessant, ja – aber um Vergleiche sinnvoll anzustellen bedarf es eines Konsolen-Architekturexperten, der außerdem Detailkenntnisse bezüglich der Spiele-Entwicklung hat. Einfach mal GFlop-Werte zu vergleichen halte ich für hirnrissig, ehrlich gesagt.
Wieso sollte das "absolut" impraktikabel sein? Zwar muss man sich bei Parallelisierung um die Synchronisation kümmern, aber Parallelleistung ist nun mal eher da, als Singlethread-Leistung.Weil das auf Grund der Codekomplexität in einem Team nicht handhabbar ist.
Mal abwarten. Ich würde denken die überarbeiten da noch einiges,Das nehme ich auch an.
Das habe ich aber auch mehrfach gelesen, dass BigN den Cube mit leichtem Gewinn verkaufen kann.
KonsolenfreundAus seriöser Quelle? Wenn ja, wo?
Demirug
2005-05-28, 17:43:42
Richtig, man muss aber entsprechenden Aufwand treiben, was sicher nicht jeder machen wird.
Das Problem ist hier wohl eher die vorhandene Codebais als der Aufwand. Des ist gar kein Problem. Es könnte aber auch daran liegen das ich jahrelanges Training darin habe mit Multi CPU System die einie einzige Aufgabe lösen müssen umzugehen.
Demirug
2005-05-28, 17:45:10
Wieso sollte das "absolut" impraktikabel sein? Zwar muss man sich bei Parallelisierung um die Synchronisation kümmern, aber Parallelleistung ist nun mal eher da, als Singlethread-Leistung.
Sowas schon mal gemacht?
Ich habe Leute gesehen die daran verzeifelt sind.
Demirug
2005-05-28, 17:47:56
Mal abwarten. Ich würde denken die überarbeiten da noch einiges, denn Epic will nach eigener Aussage mit der UE3 auf der PS3 eine erfolgreiche Lizenzengine anbieten, mal abgesehen von den eigenen PS3 Produkten, was mit einer Singlethread Eingine nicht möglich sein sollte.
Konsolenfreund
Warum singelthreaded. Die ganze Mittelware darf sich ja jeweils einen eigenen Thread aufmachen. Da Epic Novodex benutzt ist schon mal die Physik in einem eigenen Thread. Die Soundengine wird im nächsten Thread laufen. usw. Ist zwar nicht die ideale Lösung aber besser als nichts.
Eben. Die Qualitiät einiger Mario-Games ist so hoch, da ertrage ich auch die etwas simple Grafik. Was unter der Haube steckt ist interessant, ja – aber um Vergleiche sinnvoll anzustellen bedarf es eines Konsolen-Architekturexperten, der außerdem Detailkenntnisse bezüglich der Spiele-Entwicklung hat. Einfach mal GFlop-Werte zu vergleichen halte ich für hirnrissig, ehrlich gesagt.
Keine Frage. Erstens fehlen tiefergehende Dokumentationen und zweitens der Experte. Trotzdem kann man ja spekulieren und versuchen mal abgesehen von den GigaFLOP Markteingsprüchen das Eine oder Andere des Aufbaus zu erforschen. Ich selber sehe es auch so, dass man gerade bei hochoptimierten Konsolenarchitekturen die Werte einzelner Komponenten nicht mit anderen Systemen vergleichen sollte, weil es primär auf ein effizentes Zusammenspiel ankommt.
Zum ersten Teil deines Postings muss ich allerdings anmerken, das viel Gameplay unter der Haube keine Edeloptik ausschließen muss. Wichtig ist, dass die Grafik in sich stimmig ist und homogen erscheint. Egal, ob sie nun eher simple und comichaft oder aufwendig und realistisch daher kommt.
OT: Hast Du "Super Mario Sunshine" angespielt? Meiner Meinung nach das beste Spiel auf dem Cube.
Konsolenfreund
Warum singelthreaded. Die ganze Mittelware darf sich ja jeweils einen eigenen Thread aufmachen. Da Epic Novodex benutzt ist schon mal die Physik in einem eigenen Thread. Die Soundengine wird im nächsten Thread laufen. usw. Ist zwar nicht die ideale Lösung aber besser als nichts.
Klar, aber die Resourcenverteilung ist nun wirklich nicht ideal, wenn der Gameplaycode nur einen Thread nutzen kann.
Konsolenfreund
Also gerade bei der KI sehe ich in der Parallelisierung überhaupt kein Problem, weil es bereits ein inhärent paralleles Problem ist.
Demirug
2005-05-28, 17:59:18
Klar, aber die Resourcenverteilung ist nun wirklich nicht ideal, wenn der Gameplaycode nur einen Thread nutzen kann.
Konsolenfreund
Das ist richtig aber gerade dieses ist nachträglich schwer zu ändern. Man darf nicht vergessen das die aktuellen Engines fast alle Weiterentwicklungen von Engines aus der Zeit als man an Multi CPU System nicht dachte sind.
Erschwerend kommt dann noch hinzu das viele Engines im Gameplay Code stark auf Scripts setzen. Bei den entsprechenden Scriptsystemen ist das Multithreadverhalten teilweise noch weitgehend unbekannt.
Ich gehe davon aus das die erste Generation der neuen Konsolen Spiele die zusätzlichen Ausführungseinheiten weitgehend nur durch die Mittelware nutzen lässt und ansonsten nur ein paar schnell eingefügte OpenMP optimierungen nutzt.
Sowas schon mal gemacht?Nee. Aber ich bin auch kein Tim Sweeny.
Das ist richtig aber gerade dieses ist nachträglich schwer zu ändern. Man darf nicht vergessen das die aktuellen Engines fast alle Weiterentwicklungen von Engines aus der Zeit als man an Multi CPU System nicht dachte sind.
Erschwerend kommt dann noch hinzu das viele Engines im Gameplay Code stark auf Scripts setzen. Bei den entsprechenden Scriptsystemen ist das Multithreadverhalten teilweise noch weitgehend unbekannt.
Ich gehe davon aus das die erste Generation der neuen Konsolen Spiele die zusätzlichen Ausführungseinheiten weitgehend nur durch die Mittelware nutzen lässt und ansonsten nur ein paar schnell eingefügte OpenMP optimierungen nutzt.
Das mag natürlich sein. Ich bin mal gespannt, ob die hauseigenen Engines seitens der diversen Sony Studios da weitergehen werden bei den ersten Spielen.
Kosnolenfreund
Demirug
2005-05-28, 18:04:33
Also gerade bei der KI sehe ich in der Parallelisierung überhaupt kein Problem, weil es bereits ein inhärent paralleles Problem ist.
Die Datenbasis ist hier oft das Problem. Wenn der KI-Code Daten verändert auf die anderer Teile des KI-Codes zugreifen kann die Reihenfolge ja durchaus wichtig sein.
OT: Hast Du "Super Mario Sunshine" angespielt? Meiner Meinung nach das beste Spiel auf dem Cube.Ich komme mit dem Zielen des Wasserstrahls nicht klar. Warum kann man nicht beide Achsen invertieren? Das fände ich dann viel intuitiver zu bedienen. Die Grafik ist ok, "realistischer Comicstil". Viewtiful Joe sieht ja aus wie gezeichneter Comic. Das macht Laune, wobei ich das Spiel selbst im "Kids"-Modus ziemlich schwer finde.
Keine Frage. Erstens fehlen tiefergehende Dokumentationen und zweitens der Experte. Trotzdem kann man ja spekulieren und versuchen mal abgesehen von den GigaFLOP Markteingsprüchen das Eine oder Andere des Aufbaus zu erforschen.Die Marketingsprüche sollen doch nur sagen, wie toll die neue Hardware ist, und nicht aufzeigen, wie sie aufgebaut ist. Man kann spekulieren, ja, aber ich sehe darin keinen Sinn; außer dass mit technischen Werten "seiner" Konsole geprotzt wird. Das ist imo das Ziel der aktuellen Marketingschlacht: Der Kunde soll verwirrt werden und glauben, dass ein hoher theoretischer Leistungswert gleichbedeutend mit (technisch) guten Spielen ist.
Demirug
2005-05-28, 18:08:53
Nee. Aber ich bin auch kein Tim Sweeny.
Ich kenne zwar den genauen Trackrecord von Tim Sweeny nicht aber das was er in den letzten Jahren so getan hat macht in IMHO nicht gerade zum Multithread experten.
micki
2005-05-28, 20:06:28
n. Hast du die Demo gesehen, auf der eine 3D Landschaft ausschließlich auf dem Cell in Echtzeit in 720p geraytraced wird? Besteht nur aus 2 Infos (nem 2D Satellitenphoto und einer 3D Satelliten-"Heightmap"). Find leider gerade keinen Link zu nem Video. Werd ich nachreichen wenn ich einen find.
edit: Hab eins bei Gamespot (http://www.gamespot.com/live/streamer_new2.html?title=PlayStation+3+Hardware+Technology+Demonstration&path=landscapestech_gp_0516.asx&pid=927750&ppath=ps3/action/playstation3hardware&ksubmoid=&urdate=1167552000) gefunden.
schaut aber nach normalem raycasting aus das man schon auf dem p3 600 in outcast bei 512*384(?) flüssig sehen konnte. (vielleicht mit ein bissle besseren texturen)
(der zweite teil der presentation mit der "dynamischen landschaft" soll ja angäblich schon mit den nv chip gewesen sein?
MfG
micki
Für Raytracing/casting dürfte Cell übelst abgehen das ist wohl wahr :)
Da bin ich auch gespannt ob das jemand in einem Spiel bringt
micki
2005-05-28, 20:49:51
Für Raytracing/casting dürfte Cell übelst abgehen das ist wohl wahr :)
Da bin ich auch gespannt ob das jemand in einem Spiel bringt
da hat man ja auf jedenfall kaum probleme mit trianglesetup usw. mag sein dass das der grund für die demo ist.
vielleicht hatte man am anfang auch vor die 3cell fürs raytracing zu nutzen, aber selbst die 24superdinger bei 4GHz dürften da noch zuwenig sein für realtime.
MfG
micki
Die Entwickler hätten Sony dafür halt den Kopf abgebissen :D
Die Datenbasis ist hier oft das Problem. Wenn der KI-Code Daten verändert auf die anderer Teile des KI-Codes zugreifen kann die Reihenfolge ja durchaus wichtig sein.
Hm, vielleicht haben wir hier einen unterschiedlichen Betrachtungswinkel, aber IMO sollten alle KI-Entscheidungen auf identischer Datenbasis gefällt und erst danach der Einfluss dieser Entscheidungen auf die Datenbasis berechnet werden.
Aus seriöser Quelle? Wenn ja, wo?
Das ging mal auf diversen Newsseiten rum, nach der letzten Preissenkung. Ausgangspunkt waren wohl einige Wirtschafftsexperten, die das erfahren haben wollen, was es natürlich nicht zwingend richtig macht.
Nintendo hat meiner Meinng nach den Gamecube auch strikt auf günstige Herstellungskosten geplant, weil sie einfach nicht Sony oder Microsoft sind und mit Lizenzen verdienen sie Cube auch nicht gerade enorme Summen. Und Konsolenhardware dauerhaft quer zu subventionieren ohne größere Lizenzeinahmen, die das wieder einspielen, macht auch keinen Sinn.
Konsolenfreund
micki
2005-05-29, 02:03:21
Hm, vielleicht haben wir hier einen unterschiedlichen Betrachtungswinkel, aber IMO sollten alle KI-Entscheidungen auf identischer Datenbasis gefällt und erst danach der Einfluss dieser Entscheidungen auf die Datenbasis berechnet werden.
das hängt vom design ab.
natürlich wäre es optimal immer so zu arbeiten, dass man eine Source-DB und eine Destination-DB hat, dazwischen ein algorithmuss der die daten verarbeitet, wenn es so laufen könnte wäre eine massive p. möglich.
aber gerade wenn man das am anfang nicht bedacht hat, hat man eher zig verschatelte subalgorithmen die von der aktuellen datenbasis abhängen und garkein atomares arbeiten erlauben. bsp wäre z.b. ein squad aus ein paar KI einheiten von denen einer die Tür auftretten soll.
wenn man es parallel bearbeiten möchte, ist das script womöglich:
if command==OPENDOOR && nearestbot==me then ...
wenn man es wie bisher macht und jede KI auf einem aktuellen datenstand arbeitet
if command==OPENDOOR && door.opener==nil then...
würde man das parallel abarbeiten lassen, würde in einem logicdurchlauf jeder bot sich dran machen die tür aufzutretten. würde man das erste auf einer singlecpu architektur berechnen lassen, würde jeder bot erstmal die entfernung jeden anderen bots berechnen um zu entscheiden, ob er die tür aufmacht O(n^2)... falls man sich nicht irgendwelche anderen entscheidungsgrundlagen ausdenkt.
was aber fakt ist, ist dass man beim kompletten design der KI auf parallelität achten muss und das ist nicht einfach mit der umstellung der engine möglich, sondern nur in cooperation mit den spielemachern möglich... jedenfalls kenn ich bisher kein design das diese fehleranfälligkeit löst.
MfG
micki
Quasar
2005-05-29, 09:44:53
Man kann vielleicht die theoretische Rechenleistung miteinander vergleichen, aber mich als Konsolen-Spieler interessiert nicht, wie das Spielerlebnis zustande kommt. Ich halte es sogar für einen Irrweg, Ultrahochleistungschip zu verbauen, wo diese doch aktiv gekühlt werden müssen. Eine Konsole sollte imo durch ein einfaches Design bestechen, also leicht und effizient zu programmieren sein. Je weniger sich die Entwickler darum kümmern müssen, sorgfältige Performance-Optimierungen vorzunehmen, weil sonst die Framerate nicht reicht, desto mehr Zeit haben sie um sich um die Inhalte zu kümmern.
Das geht aus dem Grunde nicht, weil die Spieleindustrie ja seit Jahren Grafik in dem Maße hyped, daß diese vom Gros der Spieler und auch der Spielemagazine als essentieller Bestandteil angesehen wird.
Wenn nun auf einer "effizienenten", aber eben nicht hochleistungsfähigen Konsole Game herauskommen, die Spaß machen, aber eben grafisch nicht überzeugen, dann hat man sich durch's eigene Marketing den Ast abgesägt, auf dem man dann sitzt.
Außerdem müssten dann alle großen Konsolenhersteller mitziehen und die Chance für einen Nebeneinsteiger, hier einfach nur durch die Grafik zu punkten ("Spiel XY auf dem Phantom 3000 zeigt Sonys und Microsofts aktuellen Konsolen, wie man Grafik richtig macht") wieder viel größer, könnte er sich doch einfach auf jahrelange Marketingvorarbeit durch die Großen stützen.
Nein, ich denke, der reine "Gameplay"-Zug ist erst einmal für lange Zeit abgefahren.
Das ging mal auf diversen Newsseiten rum, nach der letzten Preissenkung. Ausgangspunkt waren wohl einige Wirtschafftsexperten, die das erfahren haben wollen, was es natürlich nicht zwingend richtig macht.
Nintendo hat meiner Meinng nach den Gamecube auch strikt auf günstige Herstellungskosten geplant, weil sie einfach nicht Sony oder Microsoft sind und mit Lizenzen verdienen sie Cube auch nicht gerade enorme Summen. Und Konsolenhardware dauerhaft quer zu subventionieren ohne größere Lizenzeinahmen, die das wieder einspielen, macht auch keinen Sinn.
KonsolenfreundNintendo verkauft den Cube, um einerseits eigene Spiele zu verkaufen, andererseits wirds das Nintendo Seal of Quality für ISV wohl auch nicht umsonst geben. Und dank (imo subventioniertem) GCN verkauft Nintendo auch völlig überteurte Memory Cards und Controller. Ich kann mir vorstellen, dass Nintendo trotz dem geringsten Grundpreis von allen Konsolen am wenigsten zuschießt. Dass sie den GCN zum Kampfpreis von 99 € mit leichtem Gewinn verkaufen, kann ich mir nicht vorstellen. Allerdings kommt es auch darauf an, wie man rechnet, zum Beispiel ob man die Entwicklungkosten außer acht lässt.
Das geht aus dem Grunde nicht, weil die Spieleindustrie ja seit Jahren Grafik in dem Maße hyped, daß diese vom Gros der Spieler und auch der Spielemagazine als essentieller Bestandteil angesehen wird.
Wenn nun auf einer "effizienenten", aber eben nicht hochleistungsfähigen Konsole Game herauskommen, die Spaß machen, aber eben grafisch nicht überzeugen, dann hat man sich durch's eigene Marketing den Ast abgesägt, auf dem man dann sitzt.
Außerdem müssten dann alle großen Konsolenhersteller mitziehen und die Chance für einen Nebeneinsteiger, hier einfach nur durch die Grafik zu punkten ("Spiel XY auf dem Phantom 3000 zeigt Sonys und Microsofts aktuellen Konsolen, wie man Grafik richtig macht") wieder viel größer, könnte er sich doch einfach auf jahrelange Marketingvorarbeit durch die Großen stützen.
Nein, ich denke, der reine "Gameplay"-Zug ist erst einmal für lange Zeit abgefahren.Mein Posting sollte nicht so verstanden werden, dass mir Grafik egal sei. Im Gegenteil. Mich interessiert als Gamer allerdings nicht, ob die Grafik durch Hochleistungschips, die kaum ausgenutzt werden erzeugt wird, oder durch sorgfältige Optimierung auf einen Mittelklasse-Chip. Letzere Hardware wird allerdings leiser und kleiner sein. Und erschwinglicher. Einfach zu verstehende Designs ermöglichen eine vernünftige Auslastung ohne jahrelang auf die ausoptimierten Spiele warten zu müssen.
was aber fakt ist, ist dass man beim kompletten design der KI auf parallelität achten muss und das ist nicht einfach mit der umstellung der engine möglich, sondern nur in cooperation mit den spielemachern möglich... jedenfalls kenn ich bisher kein design das diese fehleranfälligkeit löst.
Nun ja, man könnte die Content-Entwickler dazu zwingen, parallelisierbare KI zu designen, indem man man jedem "intelligent Actor" nur Schreibzugriff auf seine privaten Variablen gibt. Im Prinzip wie in der Realität. Das eigentliche Ausführen jeglicher Aktionen erfolgt dann seriell in einem Action-Resolve-Thread.
micki
2005-05-30, 09:36:18
Nun ja, man könnte die Content-Entwickler dazu zwingen, parallelisierbare KI zu designen, indem man man jedem "intelligent Actor" nur Schreibzugriff auf seine privaten Variablen gibt. Im Prinzip wie in der Realität. Das eigentliche Ausführen jeglicher Aktionen erfolgt dann seriell in einem Action-Resolve-Thread.
du hast das problem noch nicht ganz überblickt ;)
siehe mein beispiel, 10bots die sehen dass "tür öffnen" irgendwo als commando rauskommt.
wenn man nun sequentiel arbeitet, würde man prüfen ob jemand die tür öffnet, falls nicht, dann öffnet man sie selbst.
bei einer parallelverarbeitung merken 10bots dass noch niemand die tür öffnet und setzen sich alle zugleich in bewegung die tür zu öffnen. und wenn sie nur auf sich selbst schreibzugriff haben, verhindert das vielleicht technische fehler, aber diese logicbugs bleiben. klar lässt sich das problem lösen. aber es gibt halt massig probleme die auftretten und das nur aufgrund von parallelität und das zu debuggen ist wirklich nicht spassig.
wenn es da kein elegantes design gibt (ich kenne bisher keines), wird das a nightmare.
MfG
micki
Demirug
2005-05-30, 10:02:56
micki, für solche Probleme empfehle ich eigentlich immer eine Group Lead KI.
micki
2005-05-30, 10:43:09
micki, für solche Probleme empfehle ich eigentlich immer eine Group Lead KI.
ich empfehle grundsätzlich nichts als lösungsansatz für beispiele die etwas auf einfache weise veranschaulichen sollen. sonst muss ich mich so anstrengen um realistische und kaum noch nachfolziehbare beispiele zu suchen ;)
MfG
micki
du hast das problem noch nicht ganz überblickt ;)
siehe mein beispiel, 10bots die sehen dass "tür öffnen" irgendwo als commando rauskommt.
wenn man nun sequentiel arbeitet, würde man prüfen ob jemand die tür öffnet, falls nicht, dann öffnet man sie selbst.
bei einer parallelverarbeitung merken 10bots dass noch niemand die tür öffnet und setzen sich alle zugleich in bewegung die tür zu öffnen. und wenn sie nur auf sich selbst schreibzugriff haben, verhindert das vielleicht technische fehler, aber diese logicbugs bleiben. klar lässt sich das problem lösen. aber es gibt halt massig probleme die auftretten und das nur aufgrund von parallelität und das zu debuggen ist wirklich nicht spassig.
wenn es da kein elegantes design gibt (ich kenne bisher keines), wird das a nightmare.
MfG
micki
Ich habe das Problem durchaus genauer überlegt.
Aber erklär mir mal eines: wie wahrscheinlich ist es wohl, dass zehn reale Menschen in einem Raum zum exakt gleichen Zeitpunkt auf die Idee kommen, die Tür öffnen zu wollen? Und wie hoch ist wohl die Wahrscheinlichkeit, dass sie daraufhin auch alle gleichzeitig die Gelegenheit dazu haben? ;)
Denn ist die Tür erst einmal offen (und einer kommt ja zwangsläufig zuerst an) sind die Öffnen-Aktionen der anderen hinfällig. Und der Anlass, die Tür zu öffnen, kommt vielleicht auch nicht bei allen gleichzeitig an (bzw. ergibt sich vielleicht erst dadurch dass der Vorderste auf seinem Weg mit der Tür kollidiert).
Es besteht zwar tatsächlich allgemein die Gefahr von Deadlocks, aber das könnte man z.B. dadurch in den Griff kriegen dass man die KI-Actors immer mal wieder zufällig einen Tick aussetzen lässt.
Real-Parallele: Zwei Personen auf Kollisionskurs. "Weiche ich jetzt rechts oder links aus?" - die Situation löst sich dadurch, dass einer eben gerade zufällig "schneller schaltet" und somit die Initiative übernimmt.
MarioK
2005-05-30, 11:24:16
Sowas schon mal gemacht?
Ich habe Leute gesehen die daran verzeifelt sind.
ACK, 95% von programmierer scheitern schon auf einfachem desync.
bsp. get, inc, set
<SCRIPT ID=clientEventHandlersJS LANGUAGE=javascript>
<!--
var stepGET = -1;
var stepSET = -1;
var hexmyVAR = "00";
function b_VAR_start_onclick()
{
//get
stepGET = WXPTBR.PTFunction("CCVARFW",2,hexmyVAR,0,"",8,"",0,0);
}
function WXPTBR_PTFuncEnd( sIN, sRET, strDATA1, strDATA2, strDATA3 )
{
switch( sIN )
{
case stepGET:
stepGET = -1;
strValue = WXPTBR.ConvHex2Str(strDATA2);
tx_TMP.value = strValue;
//inc
intValue = new Number(strValue)
intValue++;
strValueNew = WXPTBR.ConvStr2Hex(intValue.toString());
//set
stepSET = WXPTBR.PTFunction("CCVARFW",1,hexmyVAR,0,strValueNew+"00",0,"",0,0);
break;
case stepSET:
stepSET = -1;
//recursiv!
b_VAR_start_onclick();
break;
default:
break;
}
}
//-->
</SCRIPT>
<SCRIPT LANGUAGE=javascript FOR=WXPTBR EVENT=PTEvent>
<!--
WXPTBR_PTEvent( arguments[0], arguments[1], arguments[2] );
//-->
</SCRIPT>
<SCRIPT LANGUAGE=javascript FOR=WXPTBR EVENT=PTFunctionEnd>
<!--
WXPTBR_PTFuncEnd( arguments[0], arguments[1], arguments[2], arguments[3], arguments[4] );
//-->
</SCRIPT>
<SCRIPT LANGUAGE=javascript FOR=window EVENT=onLoad>
<!--
//conv's
hexmyVAR = WXPTBR.ConvStr2Hex("myVAR")+"00";
strValue = WXPTBR.ConvStr2Hex("0");
//init '6D79564152' -> 'myVAR', '30' -> '0'
WXPTBR.PTFunction("CCVARFW",1,hexmyVAR,0,strValue+"00",0,"",0,0);
//-->
</SCRIPT>
...
mario
Aber erklär mir mal eines: wie wahrscheinlich ist es wohl, dass zehn reale Menschen in einem Raum zum exakt gleichen Zeitpunkt auf die Idee kommen, die Tür öffnen zu wollen?Leider kann man menschliche Intelligenz derzeit noch nicht wirklich simulieren ;)
Leider kann man menschliche Intelligenz derzeit noch nicht wirklich simulieren ;)
Aber irgendwie halbwegs vernünftige Entscheidungen kriegt man schon hin. Wenn 10 Bots gleichzeitig zur exakt selben Entscheidung kommen, stimmt etwas mit dem KI-Design nicht, denn alle Aktionsentscheidungen sollten von lokalen Variablen beeinflusst werden.
Beim genannten Beispiel muss es ja einen Anlass geben, dass die Bots die Tür öffnen wollen. Am wahrscheinlichsten ist es, dass sie alle hindurchgehen wollen. Dann spielt es gar keine Rolle, ob alle gleichzeitig öffnen wollen, denn nur einer kommt zuerst, und hin(durch) wollen eh alle.
Andere Anlässe betreffen vielleicht nur einen Bot oder sind Entfernungs- oder Blickrichtungsabhängig.
micki
2005-05-30, 13:29:24
Ich habe das Problem durchaus genauer überlegt.
scheinbar nicht, denn:
Aber erklär mir mal eines: wie wahrscheinlich ist es wohl, dass zehn reale Menschen in einem Raum zum exakt gleichen Zeitpunkt auf die Idee kommen, die Tür öffnen zu wollen?
wenn das commando kommt "tür aufmachen" dürften es selbst in einem super team zu missverständnissen kommen, sofern man nicht "Den Türaufmachgefreiten" hat.
Und wie hoch ist wohl die Wahrscheinlichkeit, dass sie daraufhin auch alle gleichzeitig die Gelegenheit dazu haben? ;)
Das ist sehr irrelevant, es wird jeden spieler schon ausreichend nerven, wenn auf das kommando hin alle 10 bots gleichzeitig zur tür loslaufen.
Denn ist die Tür erst einmal offen (und einer kommt ja zwangsläufig zuerst an) sind die Öffnen-Aktionen der anderen hinfällig.
ist sicherlich sehr spassig zu sehen, dass die kollisionsabfrage funktioniert und deswegen nur einer der zehn sich an der tür berammelnden bots die türe öffnet.
Und der Anlass, die Tür zu öffnen, kommt vielleicht auch nicht bei allen gleichzeitig an (bzw. ergibt sich vielleicht erst dadurch dass der Vorderste auf seinem Weg mit der Tür kollidiert).
klar, vielleicht wird auch die tür vorher von der anderen seite gesprengt, aber nur weil du mein beispiel exploitest, ändert es nichts daran, dass eine sequentiel designte KI viele unüberschaubere fehler macht nur aufgrund von Parallel-processing.
Es besteht zwar tatsächlich allgemein die Gefahr von Deadlocks, aber das könnte man z.B. dadurch in den Griff kriegen dass man die KI-Actors immer mal wieder zufällig einen Tick aussetzen lässt.
Real-Parallele: Zwei Personen auf Kollisionskurs. "Weiche ich jetzt rechts oder links aus?" - die Situation löst sich dadurch, dass einer eben gerade zufällig "schneller schaltet" und somit die Initiative übernimmt.
ja, und ich wette mit dir, zwei aufeinander zufahrende rennradfahrer knallen öfter zusammen als dass sie ausweichen.
es geht nicht darum dass du beweist, dass jedes problem lösbar ist.
Es geht darum dass es kein Design gibt, das gleichzeitig & autonom handelnde KIs nicht schlechter arbeiten lässt als eine sequentiel arbeitende KIs.
egal wie man es anstellt, die Bots wird man irgendwie synchen müssen, ob das jetzt durch signals passiert die die bots untereinander austauschen, durch eine "überki" die dann "sequentialisiert" weil sie wieder alleine für alle mitdenken muss, oder ob man jeden Bot auch noch berechnen lässt, was jeder andere denkt, damit jeder deterministisch auf die selbe entscheidung kommt.
es muss a) von anfang an das ganze design darauf schon getrimmt werden (nicht einfach die UE3 per OpenMP neu compilieren), b) die gamekontentscripter müssen daraufhin arbeiten und c) selbst bei größter Sorgfallt wird es alleine wegen multiprocessing zusätzliche fehler geben, weil es zZ kein Designpattern gibt, dass dieses interaktionsproblem der Bots lösen kann (AFAIK)
ich sage nicht dass das ganze unmöglich ist, oder dass es nuuuur nachteile hat. ich sage dass die umstellung der bisheringen arbeits und denkweise von KI und der menschen die damit arbeiten ernom aufwendig ist und wenn sie vollzogen wurde, hat man die gesammtgeschwindigkeit gesteigert, die geschwindigkeit je process aber erhöht, zudem noch den entwicklungsaufwand durch schwerer aufspürbare und schwerer zu behebende bugs verlangsammt.
MfG
micki
scheinbar nicht, denn:
wenn das commando kommt "tür aufmachen" dürften es selbst in einem super team zu missverständnissen kommen, sofern man nicht "Den Türaufmachgefreiten" hat.
Und du vergisst, dass "wenn das commando kommt", es auch irgendwo her kommen muss, d.h. es muss einen konkreten Anlass dazu geben. Wieso sollten denn alle Bots überhaupt dieses "Kommando" erhalten?
Außerdem, Missverständnisse sind normal und sollten IMO auch simuliert werden.
ja, und ich wette mit dir, zwei aufeinander zufahrende rennradfahrer knallen öfter zusammen als dass sie ausweichen.
Das "Standardverhalten" wäre ja (bei uns zumindest) rechts ausweichen.
es geht nicht darum dass du beweist, dass jedes problem lösbar ist.
Es geht darum dass es kein Design gibt, das gleichzeitig & autonom handelnde KIs nicht schlechter arbeiten lässt als eine sequentiel arbeitende KIs.
Was ist hier genau "schlechter arbeiten"? Die KI soll "intelligent" und glaubwürdig wirken. Letzteres wird durch autonome KI sicherlich gefördert.
egal wie man es anstellt, die Bots wird man irgendwie synchen müssen, ob das jetzt durch signals passiert die die bots untereinander austauschen, durch eine "überki" die dann "sequentialisiert" weil sie wieder alleine für alle mitdenken muss, oder ob man jeden Bot auch noch berechnen lässt, was jeder andere denkt, damit jeder deterministisch auf die selbe entscheidung kommt.
Warum sollten alle deterministisch auf dieselbe Entscheidung kommen? Kommunizieren können die Bots über Framegrenzen hinaus.
es muss a) von anfang an das ganze design darauf schon getrimmt werden (nicht einfach die UE3 per OpenMP neu compilieren), b) die gamekontentscripter müssen daraufhin arbeiten und c) selbst bei größter Sorgfallt wird es alleine wegen multiprocessing zusätzliche fehler geben, weil es zZ kein Designpattern gibt, dass dieses interaktionsproblem der Bots lösen kann (AFAIK)
ich sage nicht dass das ganze unmöglich ist, oder dass es nuuuur nachteile hat. ich sage dass die umstellung der bisheringen arbeits und denkweise von KI und der menschen die damit arbeiten ernom aufwendig ist und wenn sie vollzogen wurde, hat man die gesammtgeschwindigkeit gesteigert, die geschwindigkeit je process aber erhöht, zudem noch den entwicklungsaufwand durch schwerer aufspürbare und schwerer zu behebende bugs verlangsammt.
Klar muss man das so designen und darauf hinarbeiten, per Zufall kanns ja wohl nicht rauskommen. Dass eine realistischer KI mehr Aufwand bedeutet, stört mich nicht.
Ich bin aber ehrlich gesagt nicht überzeugt davon dass das Debuggen dadurch schwieriger wird.
zeckensack
2005-05-30, 20:47:36
ich empfehle grundsätzlich nichts als lösungsansatz für beispiele die etwas auf einfache weise veranschaulichen sollen. sonst muss ich mich so anstrengen um realistische und kaum noch nachfolziehbare beispiele zu suchen ;)
MfG
mickiIch helf' dir :)
Drei Bots laufen im Pulk einen schmalen Gang entlang.
Eine Granate kommt um die Ecke geflogen (oder von oben, oder ... Rakete ...egal).
Die drei Bots "sehen" das und wollen der Gefahrenzone entkommen.
Was macht der in der Mitte? Woher weiß er, welcher der beiden anderen ihm Platz machen wird?
(er könnte natürlich seinen Vordermann aufheben und in die gewünschte Richtung tragen oder werfen X-D)
micki
2005-05-31, 00:01:33
Ich helf' dir :)
Drei Bots laufen im Pulk einen schmalen Gang entlang.
Eine Granate kommt um die Ecke geflogen (oder von oben, oder ... Rakete ...egal).
Die drei Bots "sehen" das und wollen der Gefahrenzone entkommen.
Was macht der in der Mitte? Woher weiß er, welcher der beiden anderen ihm Platz machen wird?
(er könnte natürlich seinen Vordermann aufheben und in die gewünschte Richtung tragen oder werfen X-D)
kann auch sein dass sich einer drauf wirft.. oder zwei... oder aller drei... :)
micki
2005-05-31, 01:07:13
Und du vergisst, dass "wenn das commando kommt", es auch irgendwo her kommen muss, d.h. es muss einen konkreten Anlass dazu geben. Wieso sollten denn alle Bots überhaupt dieses "Kommando" erhalten?
ein signal erhällt ein bot wenn er an einem slot angemeldet ist der dieses signal broatcasted. in einem sequentiel arbeitendem system könnte man das ja auch bot für bot einzeln zuschicken und der der es verarbeitet stopt das "weiterschicken", bei deinem ansatz mit 2 DB, eine source, eine dest, muss man natürlich jedem bot dieses signal im gleichen takt geben, man möchte ja nicht dass die reaktionszeit der bots mit deren anzahl zunimmt.
Außerdem, Missverständnisse sind normal und sollten IMO auch simuliert werden.
klar sind die normal, viele dinge sind normal, dass software fehler hat ist normal, dass der computer weil er nur inteligenz nur simuliert, sie auch sehr unzureichend und für spezialfälle simuliert usw.
aber einen spieler interessiert das nicht, er hat jetzt 30mal mehr power, er hat eine KI die auf 200cpus gleichzeitig abläuft und plötzlich sind die bots so dumm dass sie alle gleichzeitig die tür aufmachen wollen... *heul* "ich will meinen c64 zurück, da war alles besser"
Das "Standardverhalten" wäre ja (bei uns zumindest) rechts ausweichen. ein grosser teil der rennradfahrer fährt aber auch in ländern rum, bei denen das anders ist. zudem kann man während eines ausweichreflexes nicht darauf zählen, dass man sich das logisch überlegt, gibt sehr viel mehr einflussgrößen als nur "bei uns ist das so".
Was ist hier genau "schlechter arbeiten"? Die KI soll "intelligent" und glaubwürdig wirken. Letzteres wird durch autonome KI sicherlich gefördert.
ein ungeschriebenes gesetz der Spieleentwicklung: "Niemand möchte realismus"
dass soll heißen, du mußt dem spieler glaubhaft machen, dass dort etwas realistisches passiert, es darf absolut stumpf sein, es muss nur in seinem kopf "real" sein. Das sieht man daran dass jedesmal wenn eine neue UnrealEngine rauskommt, in jeder zeitschrift steht "jetzt bewegen sich die gegner endlich realistisch, während früher...", schon beim ersten Unreal lobte man es in den himmel dass ein gegner zur seite sprang wenn man auf ihn schoss, sie hatten doch tatsächlich ein 1337-script ala
if Player.Firebuttondown && dot(normalize(Bot.Pos-Player.Pos),Player.dir)>0.9 then Bot.animator.trigger("animation..")
Am ende interresiert einen Spieler nicht wie gut parallel es läuft und wieviel schneller es ist, was ihn bewegt ist zu 50% marketing und zu 50% die fehler der KI. die beste KI die bei 1% ihrer handlungen fehler macht, bekommt ein schlechteres image als eine 08/15KI die ziemlich keine fehler macht, denn dann akzeptiert man halt den stumpfsinn der KI.
das meine ich mit "schlechter arbeiten"
Warum sollten alle deterministisch auf dieselbe Entscheidung kommen? Kommunizieren können die Bots über Framegrenzen hinaus.
das hilft keinem bot, wenn er jetzt ein signal bekommt auf das er reagieren muss. er muss wissen wie seine umgebung reagieren wird, damit er passend dazu arbeitet. es hilft niemandem wenn sich alle auf die granate werfen wollen, es hilft auch niemandem wenn alle wie dodos losrennen "einer wird schon überleben" und eine lösungsmöglichkeit ist halt, dass die Bots mitrechnen was die umgebung machen wird.
Klar muss man das so designen und darauf hinarbeiten, per Zufall kanns ja wohl nicht rauskommen. Dass eine realistischer KI mehr Aufwand bedeutet, stört mich nicht.
Ich bin aber ehrlich gesagt nicht überzeugt davon dass das Debuggen dadurch schwieriger wird.
dann scheinst du noch nicht sehr oft multithreaded applikationen gedebugged zu haben. das "tracking" von kommunikation von processen untereinander kan uU sehr sehr kompliziert werden. wenn man sich z.B. ein protokoll ausgedacht hat, was sehr viel kommunikation erlaubt, dafür aber mit kleinen daten, du mußt dann aber rausfinden wann wer ein fehlerhaftes packet verschickt, dann kann es sein dass dein protokoll plötzlich 10x soviel daten verarbeiten muss nur damit du das tracken kannst, kann sein, dass deswegen das ganze system soviel langsammer läuft, dass dieser fehler nicht mehr auftritt.
und es ist bei KI dann noch schlimmer, denn wenn die KI ein falsches verhalten an den tag legt, merkst du das meist erst beim resultat, dann also wenn der bug schon längst passiert ist. und du hast kein devstudio das dir eine "stupid decision violation"-exception wirft und du genau weißt wo es passiert. du hast da halt deine 50 wuselnden figuren bei B&W und eine davon hat scheinbar ein annormales verhalten und wenn das aufgrund von interaktionsproblemen von gleichzeitig ablaufenden KIs liegt... dann nimm dir schonmal urlaub ;)
die rechenleistung die man durch multikern systeme dazubekommt ist wirklich "winzig" wenn man sich mal das laufzeitverhalten viele algorithmen für physic und graphik anschaut. mit 4 kernen würde man es schaffen vielleicht doppelt soviele kisten aufeinander fallen zu lassen. uiii...würde man auf nem singlecpu system 10% der kisten einsparren, könnte man die KI mit doppelt soviel rechenzeit beglücken bei gleicher framerate.
in meinen augen ist schlechte KI nicht das problem von zuwenig rechenzeit und sie wird mit sehr viel mehr rechenzeit auch nicht besser. das problem sind
1. die meist sehr stumpfen algorithmen, weil man im gegensatz zur darstellung und physik, bei der Logic noch im totalen steinzeitalter ist, die meisten algorithmen sind zu stumpf um sie nutzen zu können, das einzige was den entwicklern bleibt ist viele verschachtelte if-else-endifs mit riesigen statemachines.
2. die schlechte aufbereitung der umgebungsdaten, dinge wie "wenn jemand auf dich schiesst, dann geh hinter eine sichere deckung" ist schon zu komlex als das ein bot das könnte. die deckungen müssen entweder von leveldesignern gesetzt werden, oder sie müssen das level selbst so umbauen dass der bot aufgrund von typischen dingen eine vermeindliche deckung identifizieren kann oder der bot benimmt sich stumpf und versteckt sich beim kugelhagel hinter einer gardine.
MfG
micki
DanMan
2005-06-10, 15:40:16
Interview mit einem ATi Techniker warum der R500 doch schneller ist als der RSX: http://www.bit-tech.net/bits/2005/06/10/richard_huddy_ati/1.html [/kontrovers]
Gassstttt
2005-06-10, 15:54:46
Interview mit einem ATi Techniker warum der R500 doch schneller ist als der RSX: http://www.bit-tech.net/bits/2005/06/10/richard_huddy_ati/1.html [/kontrovers]
Das übliche blabla...
Savant
2005-06-10, 16:23:37
Das übliche blabla...
wie von nvidia auch :P
Naja es passt hier zwar nicht so ganz und weiss auch nicht ob es schon gepostet wurde aber zum NRev sind mal wieder angeblich spzifikationen durch einen anonymen Programmierer aufgetaucht, klingt auf jedenfall interessant wenn auch an 1T SRAM ziemlich unwahrscheinlichklingt aber nun gut:
2x G5 1.8 GHz CPUs
• 512k L2 Cache
• 1200 MHz Front Side BUS
• 600 MHz GPU (with 12MB embedded 1T SRAM)
• 128 MB 1T SRAM Hauptspeicher mit 600 MHz (L3 Cache für CPU und GPU)
• 256 MB 400 MHz NEC DRAM
• Eingebetteter 16-BIT HD 7.1 Digital Sound Chip
• Sound Bandbreite/Berechung soll die CPU nicht belasten
• 6 GB HD Dual Layer Panasonic Discs
• Beide CPUs haben kombiniert rund 3,6 GHz-Leistung
• 3:1 Balance ratio zwischen CPU und RAM
• 1:1 Balance ratio zwischen GPU und RAM
Zitat von zeckensack
Ich helf' dir
Drei Bots laufen im Pulk einen schmalen Gang entlang.
Eine Granate kommt um die Ecke geflogen (oder von oben, oder ... Rakete ...egal).
Die drei Bots "sehen" das und wollen der Gefahrenzone entkommen.
Was macht der in der Mitte? Woher weiß er, welcher der beiden anderen ihm Platz machen wird?
(er könnte natürlich seinen Vordermann aufheben und in die gewünschte Richtung tragen oder werfen )
a.
Granate wird in den Gang geworfen
_____________________
->G O? O? O?
_____________________
b.
Bots bemerken die Granate und kriegen gleichzeitig den befehl, deckung,fliehen oder so ^^
Da es nur einen fluchtweg gibt, sowas berechnet halt ne gute KI,
werden wohl alle bits sich gleichzeitig umdrehen und in die entgegengesetzte Richtung auf den Boden hechten.
______________________
G! O->O->O->
______________________
Theoretidsch können sie sich somit nicht behindern.
Ob sie dann später teils übereinander liegen ist sache der Physik-Engine.
Ausserdem könnte man jedem Bot ein für die Ki sichtbares Shape verpassen.
Sodass, wenn die Bots zb verschiedene Anatomie aufweisen,
also einer langsamer könnte als der andere, und der langsamere
vorne wegrennt , dies der schnellere bot erkennen würde und sich an
die langsamere geschwindigkeit dynamisch anpassen es sei denn
es gäbe genug platz in dem gang , das man vorbeirennen könnte.
Savant
2005-06-13, 09:58:58
Naja es passt hier zwar nicht so ganz und weiss auch nicht ob es schon gepostet wurde aber zum NRev sind mal wieder angeblich spzifikationen durch einen anonymen Programmierer aufgetaucht, klingt auf jedenfall interessant wenn auch an 1T SRAM ziemlich unwahrscheinlichklingt aber nun gut:
2x G5 1.8 GHz CPUs
• 512k L2 Cache
• 1200 MHz Front Side BUS
• 600 MHz GPU (with 12MB embedded 1T SRAM)
• 128 MB 1T SRAM Hauptspeicher mit 600 MHz (L3 Cache für CPU und GPU)
• 256 MB 400 MHz NEC DRAM
• Eingebetteter 16-BIT HD 7.1 Digital Sound Chip
• Sound Bandbreite/Berechung soll die CPU nicht belasten
• 6 GB HD Dual Layer Panasonic Discs
• Beide CPUs haben kombiniert rund 3,6 GHz-Leistung
Sollte das ding nich 3 cores haben ? Oder is das die DEV-Kiste...
Irgendwer sagt hier doch mal was das Apfel den Cell haben will....
"Apple will keinen Cell Chip
Apple entscheid sich vor einigen Tagen, für seine Mac-Rechner von IBMs PowerPC-Chips zu Intel-Chips zu wechseln.
Wie die New York Times schreibt, hatte auch Sony Apple ein Angebot unterbreitet, ihren Cell-Chip zu verwenden.
Dazu traf sich Apple-Chef Steve Jobs im letzten Jahr mit Nobuyuki Idei, damaliger Chairman und Chief Executive von Sony, und Ken Kutaragi, dem Präsidenten von Sony Computer Entertainment.
Kutaragi wollte das Interesse von Steven Jobs wecken, den Cell Chip zu verwenden - der Chip kommt auch in der PlayStation3 zum Einsatz. Zusätzlich bot Kutaragi Steve Jobs an, dass Apple Zugang zu bestimmten Sony-Technologien erhalten würde.
Steve Jobs lehnte Sonys Angebot ab: Er sagte zu Ken Kutaragi, dass er vom Cell-Design enttäuscht ist und der Chip in Desktop-Rechnern weniger effektiv sei als der PowerPC.
Wobei man hier ganz klar beachten muss das Microsoft Mitaktionär von Apple ist, und auch sicherlich dort die Gründe für die Ablehnung zu suchen sind.
quelle: Gamefront.de"
HellHorse
2005-06-13, 15:47:41
2x G5 1.8 GHz CPUs
Nein. Eine lahme 1.8 GHz SMT CPU.
• Beide CPUs haben kombiniert rund 3,6 GHz-Leistung
BS, siehe oben.
StefanV
2005-06-13, 17:14:46
Naja es passt hier zwar nicht so ganz und weiss auch nicht ob es schon gepostet wurde aber zum NRev sind mal wieder angeblich spzifikationen durch einen anonymen Programmierer aufgetaucht, klingt auf jedenfall interessant wenn auch an 1T SRAM ziemlich unwahrscheinlichklingt aber nun gut:
2x G5 1.8 GHz CPUs
• 512k L2 Cache
• 1200 MHz Front Side BUS
• 600 MHz GPU (with 12MB embedded 1T SRAM)
• 128 MB 1T SRAM Hauptspeicher mit 600 MHz (L3 Cache für CPU und GPU)
• 256 MB 400 MHz NEC DRAM
• Eingebetteter 16-BIT HD 7.1 Digital Sound Chip
• Sound Bandbreite/Berechung soll die CPU nicht belasten
• 6 GB HD Dual Layer Panasonic Discs
• Beide CPUs haben kombiniert rund 3,6 GHz-Leistung
• 3:1 Balance ratio zwischen CPU und RAM
• 1:1 Balance ratio zwischen GPU und RAM
LOL?!
MoSys 1T SRAM wird schon im Gamecube verbaut, warum sollts nicht auch im Rev verbaut werden?!
Das ganze klingt auf jeden Fall schonmal nicht sooo unwahrscheinlich...
• 128 MB 1T SRAM Hauptspeicher mit 600 MHz (L3 Cache für CPU und GPU)Das ist nicht herstellbar und definitiv ein Fake.
Die 12MB embedded SRAM bei der GPU halte ich ja schon für unwahrscheinlich, aber das ist Quatsch. Schon allein weil 128MB für heutige Anwendungen viel zu wenig sind.
zeckensack
2005-06-13, 18:08:21
Das ist nicht herstellbar und definitiv ein Fake.
Die 12MB embedded SRAM bei der GPU halte ich ja schon für unwahrscheinlich, aber das ist Quatsch. Schon allein weil 128MB für heutige Anwendungen viel zu wenig sind.Mach MBit draus, dann passt's.
Außerdem steht da noch was von 256MB extra.
Btw, sind das jetzt Revo-Phantasiespecs, YBOX-Phantasiespecs oder PS3-Phantasiespecs? Komme irgendwie nicht ganz mit hier :ugly:
StefanV
2005-06-13, 18:11:10
Btw, sind das jetzt Revo-Phantasiespecs, YBOX-Phantasiespecs oder PS3-Phantasiespecs? Komme irgendwie nicht ganz mit hier :ugly:
Revo :)
TeeKay
2005-06-13, 21:05:17
2x G5 1.8 GHz CPUs
• 1200 MHz Front Side BUS
Beim G5 ist der FSB halb so schnell wie der Prozessor getaktet. 1200 MHz gehen demnach nicht.
• 128 MB 1T SRAM Hauptspeicher mit 600 MHz (L3 Cache für CPU und GPU)
Intel hat mit die besten Packungsdichten bei SRAM. Selbst wenn Intel die 128MB im 65nm-Prozess herstellt, waere der resultierende Chip 1609mm² gross.
Von der gigantischen Leistungsaufnahme und Preisvergleichen mit dem 4-CPU-Power5-Modul mit 144MB L3-Cache moechte ich gar nicht erst anfangen.
StefanV
2005-06-13, 21:32:02
Intel hat mit die besten Packungsdichten bei SRAM. Selbst wenn Intel die 128MB im 65nm-Prozess herstellt, waere der resultierende Chip 1609mm² gross.
Von der gigantischen Leistungsaufnahme und Preisvergleichen mit dem 4-CPU-Power5-Modul mit 144MB L3-Cache moechte ich gar nicht erst anfangen.
1T SRAM = 1 Transistor SRAM = eigentlich DRAM
Der Gamecube hat ja auch schon 24MB von dem MoSys 1T-SRAM als Hauptspeicher, wie du z.B. hier (http://hardware.gamespot.com/Nintendo-GameCube-9400-S-4-4) und da (http://www.consoleinfo.co.uk/gamecube.html) nachlesen kannst.
MarioK
2005-06-13, 21:33:40
Intel hat mit die besten Packungsdichten bei SRAM. Selbst wenn Intel die 128MB im 65nm-Prozess herstellt, waere der resultierende Chip 1609mm² gross.
Von der gigantischen Leistungsaufnahme und Preisvergleichen mit dem 4-CPU-Power5-Modul mit 144MB L3-Cache moechte ich gar nicht erst anfangen.
das ganze ist aber 6T(oder 4?) SRAM ...
mario
TeeKay
2005-06-13, 21:41:08
das ganze ist aber 6T(oder 4?) SRAM ...
mario
Na gut. Mosys spricht von 2-3facher Packungsdichte verglichen mit normalen SRAM. Macht immer noch einen ziemlich gigantischen Core.
HellHorse
2005-06-13, 21:47:27
Beim G5 ist der FSB halb so schnell wie der Prozessor getaktet. 1200 MHz gehen demnach nicht.
In der PS3 steckt kein G5 ffs.
Gasat222
2005-06-14, 18:11:38
Keiner diskutiert über den XBox360/C1 Artikel auf Beyond3D? Warum?
reunion
2005-06-14, 19:19:46
Keine Ahnung ob das schon gepostet wurde:
B3D: ATI Xenos: XBOX 360 Graphics Demystified (http://www.beyond3d.com/articles/xenos/)
reunion
2005-06-16, 19:24:31
http://www.beyond3d.com/articles/xenos/images/c1.jpg
DanMan
2005-06-21, 14:40:18
http://www.hardspell.com/newsimage/2005-6-21-16-10-14-654986702.gif
Tyler_Durden
2005-06-21, 16:25:19
wenn hier je mehr desto besser gilt, dann ist das ne klare angelegenheit für rsx/g70!
Riptor
2005-11-13, 13:05:24
Beherrscht die Xbox 360 4xMSAA mit FullScene-Effekten wie Motion Blur? Wie funktioniert AA bei der X360 bzw. was ist möglich?
After logging in, Sony marketing spin quotes can be found while employees read, learn & test their PS3 knowledge. Here’s the real gem:
“Welcome to your PS3 Retail Online Training. We trust that you will find the following information valuable and assist you in understanding and explaining PS3 Technology to your customers and staff. … The Cell Processor is essentially as powerful as 3 Xbox 360 CPU’s or 35 PlayStation® 2 CPU’s”
http://www.videogamesblogger.com/2006/11/07/ps3s-cell-three-times-more-powerful-as-the-xbox-360-processor.htm
Kleiner fredrefresh :biggrin:
spieler_hut
2006-11-11, 23:39:51
Was mir aufgefallen ist das die PS3 Spiele(was man bis jetzt gesehen hat)
irgendwie farblos aussehen,von den Texturen her z.B. liegt das an einer
zu starken Kompression oder kann der RSX weniger Farben real darstellen als
die X360 GPU??
Was mir aufgefallen ist das die PS3 Spiele(was man bis jetzt gesehen hat)
irgendwie farblos aussehen,von den Texturen her z.B. liegt das an einer
zu starken Kompression oder kann der RSX weniger Farben real darstellen als
die X360 GPU??
Ist das Dein ernst ?
Habe das gleiche Gefühl. Die Farben sehen nicht so kräftig und satt aus wie bei der 360. Kann aber auch daran liege, dass es sich hierbei um Sirst Generation Games handelt.
dildo4u
2006-12-21, 16:22:43
Habe das gleiche Gefühl. Die Farben sehen nicht so kräftig und satt aus wie bei der 360. Kann aber auch daran liege, dass es sich hierbei um Sirst Generation Games handelt.Nein das liegt an der Art der Bildübertragung YUV(X-Box 360)Analog gegen HDMI(PS3)Digital wenn du die X-Box 360 per VGA anschließt sind die Farben auch viel blasser.
Nein das liegt an der Art der Bildübertragung YUV(X-Box 360)Analog gegen HDMI(PS3)Digital wenn du die X-Box 360 per VGA anschließt sind die Farben auch viel blasser.
Warum sollten die Farben bei HDMI verblassen, wo ja überhaupt gar keine D->A Wandlung stattfindet?
LovesuckZ
2006-12-21, 16:44:07
Gibt es Informationen, ob die Playstation ohne OPtimierungen filtert?
Das Fimmern in Gears of War und der Demo von Rainbow Six:Vegas sind schon verdammt Hart an der Grenze des erträglichen.
dildo4u
2006-12-21, 16:47:20
Warum sollten die Farben bei HDMI verblassen, wo ja überhaupt gar keine D->A Wandlung stattfindet?Sie verblassen nicht auf der PS3 ist der Look so gewollt auf der X-Box 360 sind die Farben über YUV teilweise zu kräftig und eigentlich über VGA erst Perfekt was aber auch Geschmackssache ist ich mag es eher weniger Bunt.
Kannst ja den Kontrast am Monitor höher einstellen - kommt aufs gleiche raus.
Ich habe jetzt nicht viel Zeit mich in alle Threads PS3 vs. Xbox360 reinzulesen. Deshalb frage ich jetzt einfach mal kurz und knapp: Kann man Aussagen machen, welche Konsole insgesamt die potentere Hardware hat, bzw. grob die bessere Grafik? Und kommen für die PS3 auch so viele gute Spiele wie für die 360 raus?
Aquaschaf
2006-12-31, 16:40:14
Kann man Aussagen machen, welche Konsole insgesamt die potentere Hardware hat, bzw. grob die bessere Grafik? Und kommen für die PS3 auch so viele gute Spiele wie für die 360 raus?
Ohne in eine Kristallkugel zu sehen kann die Fragen niemand beantworten.
Gouvernator
2006-12-31, 16:44:42
Ohne in eine Kristallkugel zu sehen kann die Fragen niemand beantworten.
Warum? Für die Box gibts bereits jetzt mindestens 2 Titel die PS3 erstmal einholen soll und die bei weitem alles in den Schatten stellen. Zur Zeit wenn man das Angebot betrachtet gibts auf der PS3 abolut nix weder grafisch noch spielerisch und je nach dem wie sie sich Mühe geben kommen erst in 2 Jahren vernünftige Titel die aber genauso für die Box rauskommen werden.
Warum? Für die Box gibts bereits jetzt mindestens 2 Titel die PS3 erstmal einholen soll und die bei weitem alles in den Schatten stellen. Zur Zeit wenn man das Angebot betrachtet gibts auf der PS3 abolut nix weder grafisch noch spielerisch und je nach dem wie sie sich Mühe geben kommen erst in 2 Jahren vernünftige Titel die aber genauso für die Box rauskommen werden.
2007 werden auf der PS3 mehr Blockbuster kommen, als für die 360 in 3 Jahren. Aber ihr Trolle, die jetzt 2 Titel haben, wow ganze 2 Titel, so ein schwaches Lineup wie es die Xbox 360 hat, das gab es selten.
Gouvernator
2006-12-31, 16:55:52
Die zwei reizen die Box ersteinmal einbisschen aus, bis DAS soweit mit der PS3 ist werden 2 Jahre schon vergehen. Hauptsache man bekommt als box Besitzer RE5 das ist einziger Titel den ich so einigermassen erwarte, auf egal welcher Plattform, alles andere ist eher 08/15 Müll.
Cleaner
2006-12-31, 17:45:52
Weiss einer ob Crysis auf 360 kommt ?
Von der Grafik her sollte sie es locker schaffen.
2007 werden auf der PS3 mehr Blockbuster kommen, als für die 360 in 3 Jahren. Aber ihr Trolle, die jetzt 2 Titel haben, wow ganze 2 Titel, so ein schwaches Lineup wie es die Xbox 360 hat, das gab es selten.
Mich würde interessieren, welche Top-Titel kommen. Kannste mir paar gute Spiele sagen? Wenn ich mich auf ein paar gute Titel freuen kann fällt mir der Kauf der PS3 schon leichter.
Warum wartest du nicht erst auf die PS3 und kaufst sie dann, wenn es dafür bereits gute Spiele gibt?
Die zwei reizen die Box ersteinmal einbisschen aus, bis DAS soweit mit der PS3 ist werden 2 Jahre schon vergehen. Hauptsache man bekommt als box Besitzer RE5 das ist einziger Titel den ich so einigermassen erwarte, auf egal welcher Plattform, alles andere ist eher 08/15 Müll.Na gut dass du heute schon weißt, was alles Müll ist.
wenn hier je mehr desto besser gilt, dann ist das ne klare angelegenheit für rsx/g70!Wobei der eben keinen großen Onchip-Cache hat. Wenn Sony wirklich die 1080p-Linie durchhalten will, wird man von der RSX-Leistung aufgrund der hohen Auflösung vielleicht weniger sehen, als man denkt.
Kann man Aussagen machen, welche Konsole insgesamt die potentere Hardware hat
Vermutlich die PS3. Aber solange nicht ein Faktor von mindestens 1,5 dazwischen liegt, wird man nicht viel davon merken. Sie scheinen aber näher zusammenzuliegen.
, bzw. grob die bessere Grafik?
Die mit den Spielen mit dem besten Content. Das wird sich erst die Jahre ergeben.
Und kommen für die PS3 auch so viele gute Spiele wie für die 360 raus?
Viele gute Spiele für die X360?
Ich habe schon einige (an-)gespielt, aber ausser GOW hat mich keins überzeugt. Für die PS3 kommen hoffentlich auch mal Beat'm Ups, die neben Tittenphysik auch mal Spielspass bieten.
Weiss einer ob Crysis auf 360 kommt ?
Von der Grafik her sollte sie es locker schaffen.
Es wurde mal gesagt nein. Und wenn wirds wohl wie beim PC ohne D3D10 kein AA geben. Es denn die kriegen die Artefakte noch irgendwie in den Griff (unwahrscheinlich).
Nebenbei würde ich nicht die benötigte Grafikleistung von Crysis unterschätzen. Da wird viel dynamisch berechnet, was sonst nur vorberechnet und/oder statisch vorliegt.
Avalox
2006-12-31, 18:48:56
Weiss einer ob Crysis auf 360 kommt ?
Von der Grafik her sollte sie es locker schaffen.
Bernd Diemer
"Next-Generation-Konsolen wie die Xbox 360 als auch die Playstation 3 bieten nicht genügend Leistung, die wir für die Grafikqualität des Spiels anpeilen."
http://www.heise.de/newsticker/result.xhtml?url=/newsticker/meldung/77282&words=anpeilen%20gen%FCgend%20wir%20Grafikqualit%E4t%20die%20Generation%20360%20 Konsolen%20bieten%20wie%20Wir%20f%FCr%20Die%20Xbox%203%20Next%20F%FCr%20nicht%20 Leistung%20Spiels%20auch%20als%20des%20Playstation
Michael Khaimzons
"Wir haben mit unseren Programmierern und Künstlern genug Power, um so etwas " (http://www.areaxbox.de/news.php?id=3130)
Mit den nötigen Anpassungen an die geringere Leistung und den Einschränkungen die die Konsolen Leistungstechnisch mitbringen wäre es möglich.
SamLombardo
2007-01-01, 10:08:03
Irgendwann kommt Crysis sicher. Es kamen ja selbst Far Cry, Doom 3 und Half Life 2 für die alte xbox. Und das mit 64mb shared Memory und 733mhz CPU. Es sah zwar nicht ganz so gut aus wie auf dem PC, für solche Leistungsdaten aber trotzdem bemerkenswert. Auf einem PC mit solchen Daten wären die Spiele nicht mal gestartet...
Wenn man das mal in Relation sieht, wird die Leistungsfähigkeit der Xbox360 sicher für eine Portierung ausreichen.
Irgendwann kommt Crysis sicher. Es kamen ja selbst Far Cry, Doom 3 und Half Life 2 für die alte xbox. Und das mit 64mb shared Memory und 733mhz CPU. Es sah zwar nicht ganz so gut aus wie auf dem PC, für solche Leistungsdaten aber trotzdem bemerkenswert. Auf einem PC mit solchen Daten wären die Spiele nicht mal gestartet...
Wenn man das mal in Relation sieht, wird die Leistungsfähigkeit der Xbox360 sicher für eine Portierung ausreichen.
Nein, da fehlt es vorwiegend am Speicher.
Mich würde interessieren, welche Top-Titel kommen. Kannste mir paar gute Spiele sagen? Wenn ich mich auf ein paar gute Titel freuen kann fällt mir der Kauf der PS3 schon leichter.Der nächste GTA-Teil ist für mich als Fan der Serie sehr interessant. Allerdings habe ich gehört, dass man die PS3 nur an HDCP-fähigen Bildschirmen betreiben kann, was ich ganz und gar nicht gut finde. Ich habe hier einen guten TFT und hatte eigentlich nicht vor den zu tauschen. Bei der Wiedergabe von Blu-Ray-Filmen könnte ich das ja noch verstehen, aber warum muss der Bildschirm HDCP können, wenn ich doch nur spielen will? Deshalb hoffe ich, dass GTA4 auch gleichzeitig für die Xbox2 erscheint. Auf eine PC-Version darf man ja vermutlich länger warten.
Aber ansonsten kann ich mich Aths' Rat nur anschließen. Warte doch einfach bis es genug für dich interessante Spiele gibt, sodass sich der Kauf der Konsole lohnt.
Cleaner
2007-01-01, 13:45:18
[QUOTE=Avalox]Bernd Diemer
[B]"Next-Generation-Konsolen wie die Xbox 360 als auch die Playstation 3 bieten nicht genügend Leistung, die wir für die Grafikqualität des Spiels anpeilen."QUOTE]
Glaub ich nicht, ich sag bloss Gears of War, es sieht besser aus wie Crysis (nicht immer) aber in den meisten fällen, ich denk die XBOX360 schafft das mit Links.
das ist ingame, also kein Video;) ich denk die XBOX360 o. PS3 lacht sich noch schlapp über Crysis:biggrin:
http://img245.imageshack.us/img245/9296/gearsofwar1oh3.jpg (http://imageshack.us)
http://img177.imageshack.us/img177/2963/gearsofwar22uz4.jpg (http://imageshack.us)
MSABK
2007-01-01, 13:58:45
Die Grafik von GoW ist schon geil. Des müßen die anderen erstmal überbieten. Des ist ja noch des erste spiel mit so einer Grafik, ich will ned wissen wie es in 2 Jahren auf der Xbox 360 aussieht.
dildo4u
2007-01-01, 14:03:51
Die Grafik von GoW ist schon geil. Des müßen die anderen erstmal überbieten. Des ist ja noch des erste spiel mit so einer Grafik, ich will ned wissen wie es in 2 Jahren auf der Xbox 360 aussieht.Vieleicht bleibt Gears auch das Optimum was kein Problem wäre würden alle 360 Game in dieser Liga spielen könnte man bis 2008-2009 locker mit der 360 als Konsole auskommen.
Glaub ich nicht, ich sag bloss Gears of War, es sieht besser aus wie Crysis (nicht immer) aber in den meisten fällen, ich denk die XBOX360 schafft das mit Links.
Gears of War ist technisch weit hinter Crysis.
Allerdings ist das Setting für solch einen Shooter auch weit weniger anspruchsvoll für die Technik.
Cleaner
2007-01-01, 14:24:54
Ich hab mal irgendwo gelesen das die XBOX360 noch lange nicht ausgereizt ist , ist da was dran?
Ich meine vorstellen könnte ich mir das in dem gnazen Spiel kein einziger Slowdown an Frames, alles geht rasend schnell als ob sie sich langweilt die XBOX:| (und das in 1080i auf nem 34" LG :biggrin: )
Gears of War ist technisch weit hinter Crysis.
Allerdings ist das Setting für solch einen Shooter auch weit weniger anspruchsvoll für die Technik.
Interessiert glaub ich niemanden, das einzige was die Leute sehen wollen ist geile Grafik, ob da Crysis nun Technisch neuer ist ist völlig egal.
Ich hab Crysis auf der GC gezockt und es fühlte sich an wie ein ganz normaler Shooter ala Farcry, aber wenn man GoW zockt ist das irgendwie anders man hat das gefühl als ob man selber im spielt ist, also was ganz anderes.
Hört sich bestimmt wie Freak an oder ? xD
Interessiert glaub ich niemanden, das einzige was die Leute sehen wollen ist geile Grafik, ob da Crysis nun Technisch neuer ist ist völlig egal.
Es ging ja hier darum, dass GOW technisch mind. gleichwertig sein sollte.
Ich hab Crysis auf der GC gezockt und es fühlte sich an wie ein ganz normaler Shooter ala Farcry, aber wenn man GoW zockt ist das irgendwie anders man hat das gefühl als ob man selber im spielt ist, also was ganz anderes.
Ich hab zwar noch kein Crysis gespielt, aber GOW. Hälfte der Zeit auf nem Beamer.
Die Grafik ist richtig gut, aber auch nicht revolutionär. Aber allein was man in Content an Arbeit gesteckt hat ist schon beeindruckend.
Hört sich bestimmt wie Freak an oder ? xD
Nein. Eher wie ein Fan.
Ich fand das Spielsetting zu trist (langsam gibts genug Zombie- und Endzeitmetzelspiele) und die imo hakelige Steuerung war der Grund warum ich es nicht zuende gespielt habe.
Dass man im Splittscreen kein 4:3 Format nutzen kann ist ein schlechter Witz, aber wahrscheinlich der Tatsache geschuldet, dass die Konsole am Maximum läuft und es so schon nicht immer ruckelfrei ist.
Mein Ding ists nicht, aber es ist trotzdem ein sehr gutes Spiel (bis auf die Steuerung...).
LovesuckZ
2007-01-01, 15:18:09
Glaub ich nicht, ich sag bloss Gears of War, es sieht besser aus wie Crysis (nicht immer) aber in den meisten fällen, ich denk die XBOX360 schafft das mit Links.
GoW sieht auch nur so geil, weil sich auf kleine Schauplätze mit geringeren Gegneraufkommen beschränkt wurde.
Wenn es mal Größer und Dicker wird, ruckelt es merklich und im Spiel wird der fluss deutlich zäher (schön zu sehen bei der Tankstelle).
Glaub ich nicht, ich sag bloss Gears of War, es sieht besser aus wie Crysis (nicht immer) aber in den meisten fällen, ich denk die XBOX360 schafft das mit Links.
das ist ingame, also kein Video;) ich denk die XBOX360 o. PS3 lacht sich noch schlapp über Crysis:biggrin: ...
GOW hat sehr begrenzte Sichtweite und wenig Objekte verglichen mit Crysis, und ich glaube, dass das das eigentliche Problem ist, weshalb Crysis kaum auf Konsolen laufen kann. So gesehen kann man bei GOW auch gut sehen, dass sie diese Probleme schon vom Konzept des Spieles her versuchten zu umgehen, z.B. wenig Gegner, kurze Sichtweite.
Ich sage nich, dass es schlecht aussieht ;). Es ist eindeutig das beste was man aus der Xbox360 herauspressen kann, aber doch weit hinter Crysis, wenn man nicht nur einzelne Objekte gegeneinander vergleicht.
GoW sieht auch nur so geil, weil sich auf kleine Schauplätze mit geringeren Gegneraufkommen beschränkt wurde.
Wenn es mal Größer und Dicker wird, ruckelt es merklich und im Spiel wird der fluss deutlich zäher (schön zu sehen bei der Tankstelle).
Bei der Tankstelle hat bei mir gar nichts geruckelt. Außerdem ist die Tankstelle nicht gerade ein Beispiel für viele Gegner. Da gibt es wesentlich mehrere/andere Locations.
Es ist eindeutig das beste was man aus der Xbox360 herauspressen kann
Da wird noch viel mehr möglich sein. GoW ist nicht schlecht, aber auch nicht durchgehend spitze. Es gibt auch sehr viele Schauplätze, wo IMO ein SC DA grafisch weit vor GoW liegt.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.