Archiv verlassen und diese Seite im Standarddesign anzeigen : Microsofts Xbox 360, Sonys PS3 – was bringts?
Sehr nett gemacht! :wink:
http://www.anandtech.com/video/showdoc.aspx?i=2453
AAhh danke up¦²! Hab noch garnicht gewusst dass man den PSIII als Router out of the box nutzen kann! N1ce Thing.
Abwarten, besonders die Zukunftsprognosen in hinsicht auf die CPU - Entwicklung ist mehr als Zukunftsmusik, sind ja auch ZUKUNFTSprognosen ;)
Cya Lubi
dabad1
2005-06-30, 13:10:45
Der link zum Artikel funktioniert nicht mehr.
Vorhin ging er noch ... kann ihn aber auch nicht mehr bei AnandTech finden.
da hat wohl was dringestanden was irgendwem nicht gefallen hat...
HellHorse
2005-07-01, 10:25:42
Mittlerweile kommt wieder der originale XBox 360 vs PS3 Artikel.
Weiss jemand was da abgeht? NDAs verletzt?
BlackBirdSR
2005-07-01, 12:03:02
Mittlerweile kommt wieder der originale XBox 360 vs PS3 Artikel.
Weiss jemand was da abgeht? NDAs verletzt?
Es gab einen recht ausführlichen Abschnitt darüber, dass Programmierer mit Cell und Xenon gar nicht zufrieden sind.
Die Chips seien schwer zu programmieren, und ausserdordentlich launisch.
In vielen Fällen nicht viel schneller als die doppelte Leistung der 733MHZ der XBox 1 CPU.
Nach einigen Aussagen wäre die Konsole der anderen weit überlegen, die sich für einen Pentium D oder Athlon X2 entschieden hätte. Da Multithreading mit 2 Threads zwar im kommen ist, 4 oder 6 Threads aber noch locker 3-6 Jahre entfernt sein sollen.
Ingesamt ist man sehr unzufrieden mit den MPUs in XBox und PS.
Das stand da ca drinn. Das gefiehl wohl jemandem nicht, und ANand hatte auch Angst, dass die Quellen auffliegen, von denen die Infos stammen.
ShadowXX
2005-07-01, 13:13:47
Es gab einen recht ausführlichen Abschnitt darüber, dass Programmierer mit Cell und Xenon gar nicht zufrieden sind.
Die Chips seien schwer zu programmieren, und ausserdordentlich launisch.
In vielen Fällen nicht viel schneller als die doppelte Leistung der 733MHZ der XBox 1 CPU.
Nach einigen Aussagen wäre die Konsole der anderen weit überlegen, die sich für einen Pentium D oder Athlon X2 entschieden hätte. Da Multithreading mit 2 Threads zwar im kommen ist, 4 oder 6 Threads aber noch locker 3-6 Jahre entfernt sein sollen.
Ingesamt ist man sehr unzufrieden mit den MPUs in XBox und PS.
Das stand da ca drinn. Das gefiehl wohl jemandem nicht, und ANand hatte auch Angst, dass die Quellen auffliegen, von denen die Infos stammen.
So richtig was neues war das aber nicht....wenn man unsere beiden Threads über die beiden Next-Gen-Consolen durchguckt gibt es öfter mal die Aussage, das die CPUs von XBox bzw. PS3 für den normalen Programmier und genauso für den Spieleprogrammierer nicht das Non-Plus Ultra darstellen und zwar a.) weil Sie gar nicht so fix sind, wie das Marketing einen glauben lassen möchte (ausser in Spezialsituationen) und b.) die Dinger extrem kompliziert zu Programmieren sind, wenn man Sie ansatzweise ausnutzen möchte.
Das die XBox360 CPU bei normaler Programmierweise nicht mal an einen SingleCore A64 3200+ rankommt war mir von anfang an klar....und selbst wenn man ihn zu 100% ausnutzen würde wäre er nicht der Reisser.
MS und Sony wollten möglichst hohe und viel Zahlen für ihre Chips, damit die Marketingabteilungen möglichst dick auftragen können....ob dabei wirklich daran gedacht wurde, das man die Dinger noch Programmieren können soll weiss ich nicht so recht.
Ist doch das gleiche wie bei den Grafikchips...nüchtern und abseits des Marketinggehypes ist der r500 nicht der Monsterchip, als der er gerne dargestellt wird...und der Chip der PS3 ist nichts anderes als ein G70@90nm mit mehr Takt.
Ich glaube das der eine oder andere von den Next-Gen-Konsolen enttäuscht sein wird, da die Erwartungshaltung gegenüber dieses einfach viel zu hoch ist....
Gast123456
2005-07-01, 13:34:42
Ich glaube darum hält sich Nintendo auch noch weitestgehend zurück.
Es gibt keine hohen Erwartungen, also kann man auch niemanden wirklich entäuschen. Außer natürlich die, die sich Zahlen wie 4x2,5Ghz G5 mit Ghz-RAM einreden. ;)
DrumDub
2005-07-01, 13:40:16
Ich glaube das der eine oder andere von den Next-Gen-Konsolen enttäuscht sein wird, da die Erwartungshaltung gegenüber dieses einfach viel zu hoch ist.... jupp. nach anfänglicher begeisterung auf grund von screenshots (oder warens renderings?), muss ich sagen, dass ein pc von den grafischen möglichkeiten (hier rede ich nicht unbedingt von schon erhältlichen spielen), den konsolen überlegen ist (natürlich kostet der dann auch komplett ca. 1300 eur).
HellHorse
2005-07-01, 14:33:57
Das stand da ca drinn.
So viel anderes steht da jetzt auch nicht drin.
http://groups-beta.google.com/group/alt.games.video.sony-playstation2/msg/62ff83d96ea78ea9?hl=en
Ist das der verschwundene Artikel?
DrumDub
2005-07-01, 14:52:09
http://groups-beta.google.com/group/alt.games.video.sony-playstation2/msg/62ff83d96ea78ea9?hl=en
Ist das der verschwundene Artikel? ich geh mal davon aus, wenn ich mir so die letzten absätze durchlese. find ich echt gut, dass der anand das so kritisch sieht und den marketinghype entlarvt. aber anscheiend hat er dafür wohl von ms und sony einen auf den deckel bekommen. möchte gerne wissen, womit oder wodurch die solchen druck gemacht haben, dass er den artikel wieder runtergenommen hat...
HellHorse
2005-07-01, 15:52:32
http://groups-beta.google.com/group/alt.games.video.sony-playstation2/msg/62ff83d96ea78ea9?hl=en
Ist das der verschwundene Artikel?
Aye, danke.
In dem Artikel steht genau das was ich die ganze Zeit schon predige.
One option we didn't discuss in the last article, was that the G70 GPU may
feature a number of disabled shader pipes already to improve yield. The
move to 90nm may allow for those pipes to be enabled and thus allowing for
another scenario where the RSX offers higher performance at the same
transistor count as the present-day G70.
Vermute mal das war's :rolleyes:
ShadowXX
2005-07-01, 16:30:43
Am besten trifft es diese Aussage aus dem Text:
The answer is actually quite frequently
found in history; as with anything, you get what you pay for.
Amun-Re
2005-07-01, 21:30:04
Interessant auch die neuesten News von Xbitlabs in denen steht wie signifikant beide Hersteller aber offensichtlich insbesondere Sony die Konsolen subventionieren für eine "attraktive" Preisgestaltung.
Refinaziert wird sich ja ohnehin dann über den Verkauf von Games aber trotzdem schon erstaunlich was für erhebliche Verluste mit dem Verkauf der Konsolen einhergeht.
Ist doch lächerlich der Artikel. Als ob Sony und Microsoft beide total ungeeignete und extrem langsame CPUs verbauen. Wenn ich schon lese "The Cell processor doesn't get off the hook just because it only uses a
single one of these horribly slow cores; the SPE array ends up being fairly
useless in the majority of situations, making it little more than a waste of
die space.", dann frage ich mich wer sowas ernst nehmen kann. Aber ist schon klar, Sony baut den Cell und die SPEs sind völlig unnütz und können gleich weggeleassen werden. Achja, der Hauptcore ist ja auch so grottenschlecht, von daher ist der ganze Cell eigentlich unnötig. *rofl* So ein beschränkter Unsinn.
Für was brauch ich denn ne Power CPU, wenn ich 60FPS erreichen muss und 90% der Grafikarbeit mein RSX abarbeitet ^^
Früher dachte man die Stream Co Prozessoren würden große teile der Grafikarbeit übernehmen aber nun... für was sind die da?
Tyler_Durden
2005-07-01, 22:33:50
Glaube ich ehrlich gesagt auch nicht, das die 360 cpu nur 2x so schnell sein soll, wie die alte xbox1 cpu!
das wäre ja wirklich schwach und ich glaube nicht, das damit die unreal 3 engine vernünftig laufen wird.
http://groups-beta.google.com/group/alt.games.video.sony-playstation2/msg/62ff83d96ea78ea9?hl=en
Ist das der verschwundene Artikel?
Dem Artikel nach zu urteilen, kann man die CPU´s der Consolen in die Tonne kloppen ^^ Bissl KI Routinen drauf laufen lassen, Emulation der alten Consolen, den Rest machen die GPU´s...
Für was brauch ich denn ne Power CPU, wenn ich 60FPS erreichen muss und 90% der Grafikarbeit mein RSX abarbeitet ^^
Früher dachte man die Stream Co Prozessoren würden große teile der Grafikarbeit übernehmen aber nun... für was sind die da?
Genau das muss man sich dem Artikel nach auch fragen. Im Endeffekt werden sie für Grafik, Physik und KI da sein.
Glaube ich ehrlich gesagt auch nicht, das die 360 cpu nur 2x so schnell sein soll, wie die alte xbox1 cpu!
das wäre ja wirklich schwach und ich glaube nicht, das damit die unreal 3 engine vernünftig laufen wird.Es ist leider so. Die Dinger haben nur 2 Ausführungsslots, sind in-order, nicht superskalar und haben auch noch eine tiefe Pipeline. Da bekommst du auch bei 3Ghz keine vernünftige Leistung raus. Selbst ein Pentium 4 ist dagegen schnell.
Bei Cell ist das besonders krass. Wenn man einen Algorithmus hat der sich nicht parallelisieren lässt fährt man schnell gegen eine Wand. Ursprünglich waren ja auch 2 PPUs geplant, wurden aber wegrationalisiert. Imho hätten sie lieber 4 SPEs gekürzt und stattdessen IBM eine etwas breitere PPE entwerfen lassen.
Was bleibt sind werbewirksame GFlop-Zahlen - hat ja auch was für sich ;)
ScottManDeath
2005-07-02, 01:51:29
Es ist leider so. Die Dinger haben nur 2 Ausführungsslots, sind in-order, nicht superskalar und haben auch noch eine tiefe Pipeline. Da bekommst du auch bei 3Ghz keine vernünftige Leistung raus. Selbst ein Pentium 4 ist dagegen schnell.
Bei Cell ist das besonders krass. Wenn man einen Algorithmus hat der sich nicht parallelisieren lässt fährt man schnell gegen eine Wand. Ursprünglich waren ja auch 2 PPUs geplant, wurden aber wegrationalisiert. Imho hätten sie lieber 4 SPEs gekürzt und stattdessen IBM eine etwas breitere PPE entwerfen lassen.
Was bleibt sind werbewirksame GFlop-Zahlen - hat ja auch was für sich ;)
OT:
Hehe, ich habe gerade aus meiner GPGPU Diplomarbeit die theoretischen NV40 GFlops zahlen wieder rausgenommen da ich die im Praktischen bei weitem nicht erreiche :(
So OT ist das nicht. Bei Cell wird man auch nicht an den maximalen Durchsatz herankommen.
Bei Cell ist das besonders krass. Wenn man einen Algorithmus hat der sich nicht parallelisieren lässt fährt man schnell gegen eine Wand. Ursprünglich waren ja auch 2 PPUs geplant, wurden aber wegrationalisiert. Imho hätten sie lieber 4 SPEs gekürzt und stattdessen IBM eine etwas breitere PPE entwerfen lassen.
Was bleibt sind werbewirksame GFlop-Zahlen - hat ja auch was für sich ;)
Du meinst also Sony hat den Cell nur entworfen damit sie die paar Monate vor dem Release auf Messen mit den Specs angeben können? Du meinst Sony hat keine Ahnung und absoluten Müll entworfen, der nicht für eine Spielekonsole geeignet ist?
Microsoft erwägt Duldung Xbox-kompatibler Geräte
Microsoft erwägt, anderen Firmen die Herstellung von Geräten zu ermöglichen, auf denen Xbox-Spiele laufen. Das berichtet die japanische Wirtschaftszeitung Nihon Keizai Shimbun. Microsofts "Chief Software Architect" Bill Gates sagte gegenüber dem Blatt, in seinem Unternehmen gebe es interne Gespräche zu dem Thema. Man wolle die Xbox aber weiterhin auf jeden Fall auch selbst herstellen. Microsoft werde vermutlich demnächst Verhandlungen mit anderen Herstellern aufnehmen, schreibt die Zeitung weiter.
Gates habe in den Interview die Wichtigkeit von Software für die "digitale Gesellschaft" herausgestrichen. Sie werde auch weiterhin das Redmonder Kerngeschäft bleiben. Gegenüber Open-Source-Software sei er nicht feindlich eingestellt, nur entstünden durch diese Software keine neuen Arbeitsplätze.
http://www.heise.de/newsticker/meldung/61320
Hab das schon mal gepostet. Könnte ja sein, dass die xbox laufend bessere
Hardware spendiert bekommt :rolleyes:
ScottManDeath
2005-07-02, 03:24:11
So OT ist das nicht. Bei Cell wird man auch nicht an den maximalen Durchsatz herankommen.
Ich muss da nochmal nachmessen wieviele GFlops ich hinbekomme.
Naja, ich bin ja auch bandbreitenlimitiert, deswegen nutzen mir die 80 GFlops auch nix.
Der G70 hat nach ersten Tests jedenfalls eine deutlich höhere FP bandbreite, damit hab ich zum ersten mal ne CPU (A64 3500) geschlagen, wenn auch nur knapp =)
Demirug
2005-07-02, 08:08:14
OT:
Hehe, ich habe gerade aus meiner GPGPU Diplomarbeit die theoretischen NV40 GFlops zahlen wieder rausgenommen da ich die im Praktischen bei weitem nicht erreiche :(
Hätte ich nicht gemacht. Bei Großrechnern ist es zum Beispiel ja auch üblich zu analysieren wie viel von der Theoretisch vorhandenen Leistung wirklich genutzt werden kann für eine bestimmte Aufgabenstellung.
Habt ihr schon ein PerfKit damit könntest du dann durchaus auch noch Messungen anfügen die zeigen was blockiert.
Da ich aber den Umfang (sowohl auf die Größe wie auch den Inhalt bezogen)deiner Arbeit nicht kenne passt das möglciherweise auch gar nicht rein.
tombman
2005-07-02, 08:19:34
naja, so wie es aussieht werden die neues games wohl nicht sonderlich in der Spielmechanik und Physik brillieren sondern eher fett aufgemotzte Grafikdemos sein ;)
Wo auch nur in 720p, und nicht, wie wir eh alle wußten, 1080p- denn dazu fehlt die Leistung.
Und thx für den Artikellink, hätte ich ungern verpaßt :)
Der artikel ist doch ein schlechter joke,genauso schwachsinnig wie der damals bei Heise ,die tatsächlich meinten die xbox360 GPU wäre nur ein X700 verschnitt.
Die Xbox GPU 360 ist WGF 2.0 konform,dafür hat MS und ATI schon gesorgt,und die CPU ist sicherlich nicht nur doppelt so stark wie ein 700mhz celeron.
UE3 wird ohne probs mit 60fps laufen in 720p und 4xAA.
Wenn jemand ne Xbox sein eigen nennt,sollte mal Doom3 und riddick ansehen,glaube kaum das eins der beiden spiele flüssig auf einem 700er pentium mit 64MB und ner alten Geforce3 karte auch in 640er so machbar wäre auf nem pc.
Damit will ich nur sagen das die entwickler wirklich auch das letzte aus den konsolen rausholen und wesentlich effezienter die hardware arbeitet.
In Sachen KI sag ich nur Halo2,und Half life 2 erscheint ja auch noch für die alte Xbox mit nur abstrichen bei der Grafik ,pysik und ki sollen dasselbe sein wie aufm PC.
Wenn der Triplecore powerpc nicht reichen würde hätte MS bzw Sony doch was besseres eingebaut.
ciao
Ganon
2005-07-02, 10:23:17
Du meinst Sony hat keine Ahnung und absoluten Müll entworfen, der nicht für eine Spielekonsole geeignet ist?
Ich würde mal sagen: Ja!
Soweit ich weiß, fragen sich sogar IBM-Mitarbeiter, wie Sony auf die Idee kommt den CELL in die Spielekonsole zu verbauen.
Es ist einfach ein viel zu großer Aufwand in einem Spiel CELL wirklich auszulasten. Das werden die wenigsten machen, da sie nebenbei noch ne Engine für die XBOX, NRev und PC brauchen.
Demirug
2005-07-02, 10:36:06
Ich würde mal sagen: Ja!
Soweit ich weiß, fragen sich sogar IBM-Mitarbeiter, wie Sony auf die Idee kommt den CELL in die Spielekonsole zu verbauen.
Es ist einfach ein viel zu großer Aufwand in einem Spiel CELL wirklich auszulasten. Das werden die wenigsten machen, da sie nebenbei noch ne Engine für die XBOX, NRev und PC brauchen.
Es wird zwei primäre Bestrebungen geben um die Einheiten auszunutzen.
1. Software von dritten zum lösen bestimmter Teilkomplexe welche für unterschiedliche Platformen verfügbar ist. Physikengines hier mal als Beispiel.
2. Compiler für Standardsprachen welche Code für diese Einheiten erzeugen können.
Derzeit gibt es ja durchaus auch eine hohe wahrscheinlichkeit das wir eine Add-On Karte mit einer Cell CPU für den PC bekommen werden. Ich mache mir lediglich sorgen das dieses Produkt keinen Massenmarktpreis haben wird. Die Presseabteilung war freundlich wollte aber einfach keine Details rausrücken.
Ich kann hier wohl weniger mitreden da mir nunmal die Erfahrung fählt was die Hardware angeht!...
Ich möchte nur eines los werden, auch wenn die CPU's als solches vielleicht schlecht sind, zielten Microsoft als auch Sony eher auf den machbaren Preis.
Konsolen hatten immer schon eine Primäre "Preisfrage". Es ist ja nicht so wie beim PC Markt wo es weniger drauf ankommt alle von den Preisen zu überzeugen. Die meisten 'hardcore-gamer' und PC 'freaks' sind sicher entäuscht was die "next-gen" Konsolen angeht (auch ich) wobei wir alle nocht nicht wissen was so alles machbar sein wird, womöglich erst nach jahren des optimierens.
Sicherlich werden diese Konsolen 'power' haben .. und das nicht gerade wenig!
Auch wenn jetzt gesagt wird das die etwas schwach auf der Brust sind, bedeutet es nicht das die Mist produzieren werden.(siehe einfach Xbox 1)
Wir als Pc 'freaks' wünschen uns immer Konsolen die däftigst 'power' haben.
Dabei denken diese Firmen aber auch and die Otto-Normal Verbraucher welche später in den MM rennen werden. Ich würde gerne mehr bezahlen für mehr 'power' und dadurch vielleicht für mehr qualität. Würden das die anderen Kunden auch so machen?.. siehe Gamecube!......
wie auch immer... mal sehen was die aus der 'hardware' hollen können!
Ich habe eine Xbox und erst nach jahren kammen Spiele mit der vollen Qualität welche die Xbox 1 liefern konnte!.. also... ;)
Exxtreme
2005-07-02, 11:20:59
Du meinst also Sony hat den Cell nur entworfen damit sie die paar Monate vor dem Release auf Messen mit den Specs angeben können? Du meinst Sony hat keine Ahnung und absoluten Müll entworfen, der nicht für eine Spielekonsole geeignet ist?
???
Hat doch niemand geschrieben. Cell ist nur in bestimmten bereichen so richtig flott. Die Frage ist jetzt ob man Cell jetzt in Wald-und-Wiesen-Games ausnutzen kann. Wenn nicht dann wird die Leistung einfach brach liegen weil man für die Spezialbereiche, in denen Cell schnell ist, keine Verwendung hat.
Soweit ich weiß, fragen sich sogar IBM-Mitarbeiter, wie Sony auf die Idee kommt den CELL in die Spielekonsole zu verbauen.
Der Link dazu:
http://www.pro-linux.de/news/2005/8313.html
Letzter Abschnitt :)
Exxtreme
2005-07-02, 12:05:30
Dem Artikel nach zu urteilen, kann man die CPU´s der Consolen in die Tonne kloppen ^^ Bissl KI Routinen drauf laufen lassen, Emulation der alten Consolen, den Rest machen die GPU´s...
Bissl KI und Emulation ist bissl wenig, meinst du nicht? Das gesamte Spiel muss auf der CPU laufen und das dürfte den Großteil ausmachen. Die GPUs sind nur für Grafikausgabe zuständig. Und wenn man sich die CPU-Power so anschaut, eignen sich diese IMHO fast nur für Grafikdemos. Denn auch bei Grafikberechnungen ist die CPU noch sehr stark beteiligt auch wenn man es kaum glaubt. Vertices erzeugt immer noch die CPU ausser bei Tesselation etc.
Anands "The answer is actually quite frequently
found in history; as with anything, you get what you pay for." hat auch hier Gültigkeit. Wer glaubt eine Konsole zu bekommen, welche den PC um Längen versägt und gleichzeitig nur einen Bruchteil kostet, der wird enttäuscht.
Lightning
2005-07-02, 12:30:54
Ich würde mal sagen: Ja!
Das gleiche wird doch auch häufig von der PS2 behauptet, oder?
Bei mir als Laie kommt davon aber irgendwie nicht dermaßen viel an. Ich bin mit den grafischen Ergebnissen einer PS2- abgesehen vom Texturflimmern - doch ziemlich zufrieden. Was diese Konsole trotz "grauenhafter Architektur" vor allem in Exklusivtiteln noch leistet, finde ich immer wieder erstaunlich.
Und Exklusivtitel sind doch meistens der Punkt, über den eine Konsole hauptsächlich vermarktet wird. Solange sich die Entwickler dort ein wenig auf die Eigenarten einer CPU konzentrieren können, ist imho alles im Lot.
Ich erwarte von den NextGen-Konsolen zwar keinen grafischen Quantensprung, aber ganz so pessimistisch würde ich die Sache auch nicht sehen.
Am anfang war fast jede Konsolengeneration dem PC weit vorraus was Grafik betraf,das wird sich auch diesmal nicht ändern,was glaubt ihr wann ne Graka fürn PC verfügbar sein wird das WGF 2.0 konform ist?
Vor ende 2006 wohl nicht.
Wenn ich in 4 Monaten ne Konsole bekomme für 299€ das auch PC highlights wie COD2 ,Gears of War, Quake4 in 1280x720 +4AA absolut flüssig laufen läßt dann kann man schon zuschlagen,meine X800XL hatte 270€ gekostet und ich glaub kaum das die games auf meinem Rechner in dieser qualität laufen würden.
Wenn man auch zb die Preise von einer G70 ansieht (550€),dann bekommt man dafür wohl ne Xbox360 und nen Nrev gratis dazu :) .
Also Preileisrtung werden die konsolen spitze bleiben,für 149€ bekomm ich keinen rechner auf dem Riddikck oder Doom3 flüssig läuft :)
Beim gamecube (der ja grafisch fast genausogut ist) isses noch krasser mit nur 65€.
Nichtdestotrotz bin ich so "verrückt" und werde natürlich mein pc weiter aufrüsten und trotzdem Nextgen konsolen ins Wohnzimmer stellen :)
ciaioi
Jensk22
2005-07-02, 13:30:36
@Gast du vergleichst hier Äpfel mit Birnen. Die Qualität, im Bezug zu den Games (PC- und Konsolenbereich), ist aus Kundensicht dem Anforderungen her entsprechend unterschiedlich definiert.
ScottManDeath
2005-07-02, 13:32:55
Hätte ich nicht gemacht. Bei Großrechnern ist es zum Beispiel ja auch üblich zu analysieren wie viel von der Theoretisch vorhandenen Leistung wirklich genutzt werden kann für eine bestimmte Aufgabenstellung.
Habt ihr schon ein PerfKit damit könntest du dann durchaus auch noch Messungen anfügen die zeigen was blockiert.
Da ich aber den Umfang (sowohl auf die Größe wie auch den Inhalt bezogen)deiner Arbeit nicht kenne passt das möglciherweise auch gar nicht rein.
Perfkit habe ich nicht :( NV ignoriert mich anscheinend. Habe seit Anfang des Jahres mich mehrmals als Registered Developer beworben, habe aber keine Rückmeldung bekommen. Praktisch wäre das schon das Perfkit zu nutzen...
Mangels Tool zum Lokalisieren des Flaschenhalses habe ich die GPU und den Speicher über/untertaktet. Der GPU Takt hat keine Auswirkungen gehabt, die Leistung stieg hingegen mit Chiptakt. Irgendwie muss ich ja erklären warum die GPU [NV40] so langsam im vergelich zur CPU ist.
Der G70 sieht besser aus, der ist etwa 10% schneller als die CPU. Allerdings kann ich den nicht direkt selbst testen sondern habe mein Programm von einem G70 Besitzer testen lassen. Den habe ich schon genug gestresst. ;)
TheCounter
2005-07-02, 13:36:36
Hat doch niemand geschrieben. Cell ist nur in bestimmten bereichen so richtig flott. Die Frage ist jetzt ob man Cell jetzt in Wald-und-Wiesen-Games ausnutzen kann. Wenn nicht dann wird die Leistung einfach brach liegen weil man für die Spezialbereiche, in denen Cell schnell ist, keine Verwendung hat.
Ich glaube nicht das viele Entwickler sich die Mühe machen die SPE's "auszunutzen". Epic dürfte hier eine Ausnahme sein, zumindest wenn es stimmt das sie es geschafft haben die Physik, Animation Updates, Sound & Partikelsystem über die SPE's laufen zu lassen.
Die ganzen Multiplattform-Titel werden die SPE's wohl sowieso nicht nutzen, da es (laut Aussagen) viel zu Zeitaufwendig wäre. Hier zumindest sehe ich den Vorteil auf der Seite der X-Box 360 CPU mit den 3 General Purpose Prozessoren.
Schlussendlich muss man aber doch abwarten.
Interessant finde ich auch das die Produktionskosten der PS3 ($494) die der X-Box 360 ($375) um 119$ übersteigen. So scheint Sony diesesmal mehr Verlust zu machen als Microsoft.
Ich würde mal sagen: Ja!
Soweit ich weiß, fragen sich sogar IBM-Mitarbeiter, wie Sony auf die Idee kommt den CELL in die Spielekonsole zu verbauen.
Es ist einfach ein viel zu großer Aufwand in einem Spiel CELL wirklich auszulasten. Das werden die wenigsten machen, da sie nebenbei noch ne Engine für die XBOX, NRev und PC brauchen.
Entschuldigung, aber solche Aussagen empfinde ich als lächerlich. Nur weil irgendwelche 3rd Partys total überfordert sind heißt das noch lange nicht, dass Sony sich nicht ganz genau überlegt wieso der Cell entwickelt und eingesetzt wird. Wie hier einige Leute mit ihrerem Fachwissen die Sony Hardwareentwickler zu Idioten abstempen wollen, ist doch wirklich abgehoben und überheblich. Sony wird sich selbstverständlich ganz genau überlegt haben, was man mit den SPEs machen kann und machen wird. Ich mein wie blöd muss man sein, einfach zu sagen, die SPEs sind für Spiele nicht nutzbar und Sony hat das nicht erkannt. Ich denke eher es kommt andersherum und einige Leute werden hinterher Augen machen, wenn Sonys Exklusivtitel zeigen, was man alles mit den SPEs machen kann.
Und nur mal zum Thema Physik geht nicht auf den SPEs - Havok arbeitet in Auftrag von Sony schon seit längerer Zeit an einer spezialisierten Physikengine für den Cell. Und es wird noch ne Menge andere Midelware geben, die die SPEs gut auslasten werden.
TheCounter
2005-07-02, 15:19:25
Ich denke eher es kommt andersherum und einige Leute werden hinterher Augen machen, wenn Sonys Exklusivtitel zeigen, was man alles mit den SPEs machen kann.
Und genau das ist meine Befürchtung. Nur die Exklusivtitel nutzen die SPE's und der Rest darf sich mit einem einzigen GPP rumschlagen. Die Mehrheit der Spiele sind aber nicht Exklusivtitel. Multiplattformtitel müssten dann auf der X-Box 360 mehr drauf haben als auf der PS3, vorrausgesetzt die Entwickler nutzen alle 3 oder zumindest 2 GPP's der X-Box 360.
Ich bin wirklich gespannt wie das ganze am Schluss dann wirklich aussieht.
gruntzmaker
2005-07-02, 15:32:22
Und genau das ist meine Befürchtung. Nur die Exklusivtitel nutzen die SPE's und der Rest darf sich mit einem einzigen GPP rumschlagen. Die Mehrheit der Spiele sind aber nicht Exklusivtitel. Multiplattformtitel müssten dann auf der X-Box 360 mehr drauf haben als auf der PS3, vorrausgesetzt die Entwickler nutzen alle 3 oder zumindest 2 GPP's der X-Box 360.
Ich bin wirklich gespannt wie das ganze am Schluss dann wirklich aussieht.
Zum Schluss gibts immer bessere Developers Kits, die genau das verhindern sollen, für Nvidia und ATi Grafikprozessoren zu optimieren ist doch mit Sicherheit auch nicht leicht.
Sony wird sicher nicht ihre ach so lahmen Prozzis in ihre Kiste reinbauen, wenn sie diese nicht auch ausnutzen könnte, wär ja fast so als ob man das Rad erfindet und daraus Holzspäne machen würde, weil mans nicht 100%ig ausnutzen kann.
Naja kein Kommentar zu manchen Meinungen hier, allein das "You get what you pay for" ist zum tot lachen, ich würd' dem Typen lieber entgegnen "You talk, what you get payed" ;)
Exxtreme
2005-07-02, 15:58:10
Zum Schluss gibts immer bessere Developers Kits, die genau das verhindern sollen, für Nvidia und ATi Grafikprozessoren zu optimieren ist doch mit Sicherheit auch nicht leicht.
Sony wird sicher nicht ihre ach so lahmen Prozzis in ihre Kiste reinbauen, wenn sie diese nicht auch ausnutzen könnte, wär ja fast so als ob man das Rad erfindet und daraus Holzspäne machen würde, weil mans nicht 100%ig ausnutzen kann.
Tja, das Problem ist, daß Sony sich beim Dev-Support nicht gerade mit Ruhm bekleckert hat. :D Mal sehen ob sie es diesmal hinbekommen. Aber da sehe ich erstmal große Vorteile bei Microsoft.
Naja kein Kommentar zu manchen Meinungen hier, allein das "You get what you pay for" ist zum tot lachen, ich würd' dem Typen lieber entgegnen "You talk, what you get payed" ;)
Sehe ich nicht so. :)
Der Spruch hat immer seine Gültigkeit.
Ganon
2005-07-02, 16:07:37
Entschuldigung, aber solche Aussagen empfinde ich als lächerlich. Nur weil irgendwelche 3rd Partys total überfordert sind heißt das noch lange nicht, dass Sony sich nicht ganz genau überlegt wieso der Cell entwickelt und eingesetzt wird.
Diese "irgendwelche 3rd Partys" haben schon auf der PS2 gezeigt, wie viel Müll man mit der EE machen kann.
Was bringt es wenn ne Handvoll PS3 Titel gut aussehen, während XBOX360 Titel durchweg gut aussehen, ganz einfach deswegen weil sich 3 Cores besser nutzen lassen, als 1 Core und 7 SPUs?
Exxtreme
2005-07-02, 16:10:35
Am anfang war fast jede Konsolengeneration dem PC weit vorraus was Grafik betraf,das wird sich auch diesmal nicht ändern,was glaubt ihr wann ne Graka fürn PC verfügbar sein wird das WGF 2.0 konform ist?
Vor ende 2006 wohl nicht.
Die Frage ist, was dir die tollste Grafik bringt, die mit 3 fps vor sich hin ruckelt? Lies den Artikel von Anand. WGF2.0 Konformität ist kein Garant für tolle Grafik bei guter Framerate. Die CPUs der Nextgen-Konsolen sind leider so konstruiert, daß sie bei Wald-und-Wiesen-Code von jetzigen PC-CPUs deklassiert werden. Und vielen Entwicklern sind die heutigen PC-CPUs immer noch viel zu schwach auf der Brust. Sicherlich wird es einige Exklusiv-Titel geben, die die Architektur gut ausnutzen werden. Bei Multiplattform-Spielen sehe ich leider schwarz da man recht allgemein programmieren muss. Ausser der Hersteller betreibt wirklich den Aufwand und optimiert für alle Konsolen. Davon gehe ich persönlich aber nicht aus da das Kosten ohne Ende verursacht.
Aber ich lasse mich gerne überraschen. :)
Diese "irgendwelche 3rd Partys" haben schon auf der PS2 gezeigt, wie viel Müll man mit der EE machen kann.
Was bringt es wenn ne Handvoll PS3 Titel gut aussehen, während XBOX360 Titel durch die Bank gut aussehen, ganz einfach deswegen weil sich 3 Cores besser nutzen lassen, als 1 Core und 7 SPUs?
Deine Kristallkugel möchte ich haben. Konami, Capcom, Sega, Square u.v.a.m. werden sicherlich astreine Exklusivtitel für die PS3 bringen, die die Hardware ausnutzen, so wie es auf der PS2 auch war.
Und wenn Du diesem Nonsensartikel inhaltlich Bedeutung schenkst, dann solltest Du nochmal lesen, denn die 3 Cores sollen ebenfalls schwierig zu programmieren sein, wenn man sie richtig nutzen will.
Aber schon klar. Der Celeron aus der Xbox1 mit 1,4Ghz getaktet wäre schneller als Xenon und Cell. Ist ja auch logisch, dass M$ und Sony dann Geld für solche Scheiß CPUs ausgeben, obwohl jeder Athlon XP 1800+ schneller wäre, der sicherlich günstiger zu haben gewesen wäre. *rofl*
Die Frage ist, was dir die tollste Grafik bringt, die mit 3 fps vor sich hin ruckelt? Lies den Artikel von Anand. WGF2.0 Konformität ist kein Garant für tolle Grafik bei guter Framerate. Die CPUs der Nextgen-Konsolen sind leider so konstruiert, daß sie bei Wald-und-Wiesen-Code von jetzigen PC-CPUs deklassiert werden. Und vielen Entwicklern sind die heutigen PC-CPUs immer noch viel zu schwach auf der Brust. Sicherlich wird es einige Exklusiv-Titel geben, die die Architektur gut ausnutzen werden. Bei Multiplattform-Spielen sehe ich leider schwarz da man recht allgemein programmieren muss. Ausser der Hersteller betreibt wirklich den Aufwand und optimiert für alle Konsolen. Davon gehe ich persönlich aber nicht aus da das Kosten ohne Ende verursacht.
Aber ich lasse mich gerne überraschen. :)
Aber wer will schon Multiplattform. Multiplattformgames waren technisch schon immer Hausmannskost und werden auf den Konsolen trotzdem sehr gut aussehen, auch ohne exzessive Multicorenutzung. Eine Konsole kauft man sich primär wegen den cremigen Exklusivtiteln (auch 3rd Party), die die Hardware richtig ausnutzen, und die wird es zu Haufe geben, so wie es immer war.
BlackBirdSR
2005-07-02, 16:24:51
Aber schon klar. Der Celeron aus der Xbox1 mit 1,4Ghz getaktet wäre schneller als Xenon und Cell. Ist ja auch logisch, dass M$ und Sony dann Geld für solche Scheiß CPUs ausgeben, obwohl jeder Athlon XP 1800+ schneller wäre, der sicherlich günstiger zu haben gewesen wäre. *rofl*
Dieser "Argumentation" fehlt es leider an jeder Grundlage.
Ich kann mir vorstellen, dass Microsoft nicht mehr abhängig sein wollte, und daher die Hardware in Lizenz fertigt.
So geschieht es ja z.B auch beim R500.
Ich glaube nicht, dass Intel oder AMD Microsoft das Recht geben mal eben schnell einen P4 oder K8 in Lizenz zu bauen.
Ganon
2005-07-02, 16:31:33
Deine Kristallkugel möchte ich haben. Konami, Capcom, Sega, Square u.v.a.m. werden sicherlich astreine Exklusivtitel für die PS3 bringen, die die Hardware ausnutzen, so wie es auf der PS2 auch war.
200 EUR und ich schicke sie dir. Oder du schickst mir deine, denn du machst ja gerade nichts anderes... > vermuten.
dildo4u
2005-07-02, 16:33:20
Ich glaube nicht, dass Intel oder AMD Microsoft das Recht geben mal eben schnell einen P4 oder K8 in Lizenz zu bauen.
Interresiert auch nicht wirklich die eine der Dual Core cpus wäre unmöglich vernünftig zu Kühlen in einem Konsolen Gehäuse die andere wäre um ein viel faches zu teuer mann suchte nach cpus die klein Billig und leicht zu kühlen sind und so viel Schlechter ist die Pro mhz Leistung bei einem PowerPC nun auch nicht.
BlackBirdSR
2005-07-02, 16:38:29
Interresiert auch nicht wirklich die eine der Dual Core cpus wäre unmöglich vernünftig zu Kühlen in einem Konsolen Gehäuse die andere wäre um ein viel faches zu teuer mann suchte nach cpus die klein Billig und leicht zu kühlen sind und so viel Schlechter ist die Pro mhz Leistung bei einem PowerPC nun auch nicht.
Auf die thermischen Werte von AMD oder Intel wäre eine in Lizenz gefertigte CPU von Microsoft natürlich sowieso nie gekommen.
Es sollte klar sein, dass man massive Abstriche bei der Taktfrequenz hätte machen müssen.
Allerdings sind Cell oder die CPU in der XBox360, soweit ich vernommen habe, auch nicht gerade leichtgewichte in Sachen Preis und Verlustleistung.
Und im Endeffekt sind die verwendeten PPC Kerne nicht einmal so besonders leistungsfähig, verglichen mit einem PPC970 aka G5 oder einem K8.
Exxtreme
2005-07-02, 16:42:56
Interresiert auch nicht wirklich die eine der Dual Core cpus wäre unmöglich vernünftig zu Kühlen in einem Konsolen Gehäuse die andere wäre um ein viel faches zu teuer mann suchte nach cpus die klein Billig und leicht zu kühlen sind und so viel Schlechter ist die Pro mhz Leistung bei einem PowerPC nun auch nicht.
Und? Dann senkst du den Takt soweit ab, daß man das gut kühlen kann. Ein Athlon 64 X2 bei 1,5 GHz bräuchte wohl keinen Monsterkühler und wäre wohl trotzdem viel schneller als die jetzige CPU der PS3. :)
dildo4u
2005-07-02, 16:44:01
o besonders leistungsfähig, verglichen mit einem PPC970 aka G5 oder einem K8.
Also soweit ich weiss wurden die X-Box360 Games auf der E3 auf einem Dual G5 mit X800pro gezeigt und darauf geprogt warum sollte die X-Box 360 cpu langsammer sein als ein G5?
Und? Dann senkst du den Takt soweit ab, daß man das gut kühlen kann. Ein Athlon 64 X2 bei 1,5 GHz bräuchte wohl keinen Monsterkühler und wäre wohl trotzdem viel schneller als die jetzige CPU der PS3. :)
Ja sicher. Sorry, aber für wie blöd halten eigentlich einige hier die Leute von Sony und M$? Hey man, wieso lesen die nicht hier im Forum lassen sich von euch sagen, wie blöde sie doch sind, und dass ihr wisst wie man viel eine billigere viel bessere Konsole baut. Wie konnte Sony nur jahrelang den Cell entwickeln und hunderte von Millionen investieren, damit der Cell dann so schnell ist, wie ein XP 1800+.
Langsam wirds echt peinlich.
Also soweit ich weiss wurden die X-Box360 Games auf der E3 auf einem Dual G5 mit X800pro gezeigt und darauf geprogt warum sollte die X-Box 360 cpu langsammer sein als ein G5?
Tja, weil die Fachleute von Anantech das so sagen. Bei Sony und Microsoft arbeiten halt nur Nieten und jeder der Pseudofachleute hier im Forum kann es besser, wie es scheint.
DanMan
2005-07-02, 16:56:37
Diese "irgendwelche 3rd Partys" haben schon auf der PS2 gezeigt, wie viel Müll man mit der EE machen kann.
Was bringt es wenn ne Handvoll PS3 Titel gut aussehen, während XBOX360 Titel durchweg gut aussehen, ganz einfach deswegen weil sich 3 Cores besser nutzen lassen, als 1 Core und 7 SPUs?
Zumindest Sony Studios werden sich zur Lebenszeit der PS3 bemühen diese immer auch ein Stück weiter auszureizen. Dadurch wird die Messlatte für andere Hersteller auch höher gehangen, wodurch diese es sich dann auch nicht mehr leisten können deutlich unansehlichere Spiele zu veröffentlichen. Schließlich haben die potentiellen Käufer ja dann gesehen, dass es besser geht. Folglich will man sich dann auch nicht mehr mit weniger zufrieden geben.
Das gilt natürlich auch für alle anderen Konsolen. Ich mache mir also keine Sorgen auf dem Gebiet.
BlackBirdSR
2005-07-02, 17:01:01
Also soweit ich weiss wurden die X-Box360 Games auf der E3 auf einem Dual G5 mit X800pro gezeigt und darauf geprogt warum sollte die X-Box 360 cpu langsammer sein als ein G5?
Weil ein jeder Kern der Dual G5 mit 2.7GHz um Einiges "breiter" ist als einer dieser PPC Kerne. Weil jeder davon Out of Order Execution beherrscht, und damit weniger Anfällig wird für schlechten Code (bzw dafür aber anfälliger wird für Schlampereien ;) ), weil deren Caches größer sind, sie mehr als nur 2Ops/Takt bearbeiten können....
Im Endeffekt handelt es sich bei den in PS3 und XBox360 verwendeten PPCs um relativ hochgetaktete aber schmale und einfache Kerne.
Es ist kein Wunder, dass eine hochgezüchtete PPC oder x86 CPU hier mithalten kann. Wenn die Konsolen MPUs dann keinen optimierten Code bekommen, kann man schnell einiges an Leistung verlieren.
Also soweit ich weiss wurden die X-Box360 Games auf der E3 auf einem Dual G5 mit X800pro gezeigt und darauf geprogt warum sollte die X-Box 360 cpu langsammer sein als ein G5?Warum?
- Nur 2 Ausführungseinheiten
- Nicht Superskalar
- Tiefere Pipeline
- In-Order
Mit einem Thread hat das Ding einen Durchsatz von 1Op/Takt. Mit 2 Theads wohl so ~1.5 im Mittel. Davon ist selbst der P4 meilenweit entfernt.
BlackBirdSR
2005-07-02, 17:49:23
Warum?
Mit einem Thread hat das Ding einen Durchsatz von 1Op/Takt. Mit 2 Theads wohl so ~1.5 im Mittel. Davon ist selbst der P4 meilenweit entfernt.
Glaubst du die erreichen wirklich 1.5Ops/Cycle im Schnitt?
Ich weiss nicht so recht.
SPECInt/fp mag zwar ein schlechtes Beispiel sein (ist aber das Einzige das ich vorlegen kann) und auf 1.5-1.8Ops/Takt kommen da nur CPUs wie Power5 und Itanium2.
Und wir wissen ja wie verdammt breit die sind, und wie groß der Aufwand dafür ist.
Exxtreme
2005-07-02, 18:08:49
Ja sicher. Sorry, aber für wie blöd halten eigentlich einige hier die Leute von Sony und M$? Hey man, wieso lesen die nicht hier im Forum lassen sich von euch sagen, wie blöde sie doch sind, und dass ihr wisst wie man viel eine billigere viel bessere Konsole baut. Wie konnte Sony nur jahrelang den Cell entwickeln und hunderte von Millionen investieren, damit der Cell dann so schnell ist, wie ein XP 1800+.
Langsam wirds echt peinlich.
Hää? Sag mal, was hast du denn für ein Problem? Keiner behauptet, daß Sony und MS blöd sind. Du scheinst aber irgendwie davon auszugehen, daß das Ziel von Sony und MS war, das Maximum an Leistung rauszuholen und den PC weit zu versägen. Keiner behauptet, daß diese Konsolen schlecht sind. Es sieht aber so aus als ob der PC jetzt schon mithalten kann. Ob das schlecht ist?
Glaubst du die erreichen wirklich 1.5Ops/Cycle im Schnitt?.Ja. Ich denke nämlich die möglichen Ops sind gleichmäßig auf die 2 Instructionslots verteilt, nennen wir sie mal A und B. Wenn jetzt der eine Thread eine A Instruction ausführen will und der andere auch blockt es (In-Order!).
Kann natürlich auch sein, dass einige Befehle von beiden Einheiten ausgeführt werden können, dann dürfte es besser aussehen.
Hää? Sag mal, was hast du denn für ein Problem? Keiner behauptet, daß Sony und MS blöd sind. Du scheinst aber irgendwie davon auszugehen, daß das Ziel von Sony und MS war, das Maximum an Leistung rauszuholen und den PC weit zu versägen. Keiner behauptet, daß diese Konsolen schlecht sind. Es sieht aber so aus als ob der PC jetzt schon mithalten kann. Ob das schlecht ist?
Worauf ich hinaus will?
Dass es Unsinn ist, dass Sony über Jahre und für hunderte von Millionen eine CPU entwickelt, die 234 Millionen Transistoren hat (P4 e.g. hat 125 million Tranistoren), mit 4,6ghz taktet, viel kostet und von jeder billigen PC-CPU in Sachen Spielen versägt werden soll. Laut Anantech wäre ein Athlon XP1800+ schon locker so schnell wie Xenon oder Cell. Und was hat man mit 125 million Tranistoren bei 4,6Ghz Takt und 221mm² die size, als alles andere zu zersägen? Was soll so ein Aufwand, wenn das Ding nicht schneller ist, als jede PC CPU? Nur weil einige nicht blicken wie das Ding funktioniert und wie Sonys Vison von Gamecode aussieht, heißt das noch lange nicht, dass jeder hier mit ein bischen Ahnung von Silizium die Kompetenz hat M$ und Sony Ingenieure als Voldeppen abzustempeln.
Da muss man doch fragen für wie blöd ihr Sony haltet, wenn so ein Transitoren- und Taktmonstermonster laut der Aussagen einiger Experten hier und bei Anan von ner alten Lowend PC CPU geschlagen wird. Also entweder ihr seid superschlau und bei M$ und Sony arbeiten nur Volltrottel, oder es ist was anderes.
Worauf ich hinaus will?
Dass es Unsinn ist, dass Sony über Jahre und für hunderte von Millionen eine CPU entwickelt, die 234 Millionen Transistoren hat (P4 e.g. hat 125 million Tranistoren), mit 4,6ghz taktet, viel kostet und von jeder billigen PC-CPU in Sachen Spielen versägt werden soll. Laut Anantech wäre ein Athlon XP1800+ schon locker so schnell wie Xenon oder Cell. Und was hat man mit 125 million Tranistoren bei 4,6Ghz Takt und 221mm² die size, als alles andere zu zersägen? Was soll so ein Aufwand, wenn das Ding nicht schneller ist, als jede PC CPU? Nur weil einige nicht blicken wie das Ding funktioniert und wie Sonys Vison von Gamecode aussieht, heißt das noch lange nicht, dass jeder hier mit ein bischen Ahnung von Silizium die Kompetenz hat M$ und Sony Ingenieure als Voldeppen abzustempeln.
Da muss man doch fragen für wie blöd ihr Sony haltet, wenn so ein Transitoren- und Taktmonstermonster laut der Aussagen einiger Experten hier und bei Anan von ner alten Lowend PC CPU geschlagen wird. Also entweder ihr seid superschlau und bei M$ und Sony arbeiten nur Volltrottel, oder es ist was anderes.
Korrektur:
Und was hat man mit 234 Millionen Tranistoren bei 4,6Ghz Takt und 221mm² die size vor, außer alles andere zu zersägen?
Demirug
2005-07-02, 18:57:44
Bei der PS2 hat sich so mancher Entwickler auch gefragt ob man da bei Sony zuviel Sake in der Blutbahn hatte. Im Gegenzug hat sich der Chefentwickler von Sony ständig darüber beschwert das die Spieleentwickler scheinbar einfach nicht in der Lage wären die volle Leistung der PS2 auzuschöpfen.
BlackBirdSR
2005-07-02, 18:59:29
Ja. Ich denke nämlich die möglichen Ops sind gleichmäßig auf die 2 Instructionslots verteilt, nennen wir sie mal A und B. Wenn jetzt der eine Thread eine A Instruction ausführen will und der andere auch blockt es (In-Order!).
Kann natürlich auch sein, dass einige Befehle von beiden Einheiten ausgeführt werden können, dann dürfte es besser aussehen.
Ich schätze schwer, dass Sprünge und Speicherzugriffe hier einen ziemlichen Strich durch die Rechnung machen. Gerade bei InOrder.
Bei einem Cache-Miss herrscht erstmal Ruhe. Da ist es gut, dass ein zweiter Thread mitläuft.
Ist übrigens eine Überlegung wert: Ob SMT hier mehr Performance durch Parallelität erreicht (bei 1x Int, 1xFP, 1xL/S 2xVec (+extras),glaub ich das weniger) oder Stalls durch Cache-Misses verhindert (darauf würde ich meine falschen fünfziger verwetten)
Zudem sind die Caches schwer auf Streaming ausgelegt (bis soweit hin, dass der L2 Cache z.B direkt ausgelassen werden kann).
Aber gerade bei Branch.intensiven Integer Code kann das schnell in die Hose gehen. Es gibt zwar angeblich sowas wie Branch-Hints von den programmierern für die CPU, aber das muss auch erstmal perfektioniert werden.
Das sind Alles so Gründe, warum ich nich glaube, dass eine PPE aus der XBox360 oder Cell so viel schneller sind als eine x86 oder PPC970.
BlackBirdSR
2005-07-02, 19:01:16
Da muss man doch fragen für wie blöd ihr Sony haltet, wenn so ein Transitoren- und Taktmonstermonster laut der Aussagen einiger Experten hier und bei Anan von ner alten Lowend PC CPU geschlagen wird. Also entweder ihr seid superschlau und bei M$ und Sony arbeiten nur Volltrottel, oder es ist was anderes.
Ich frage mich da eher, ob du nicht vielleicht einige wichtige Details übersiehst.
z.B für was die PPEs und Cell konzipiert wurden, welche Zugriffsmuster wichtig sind, und welcher Vergleich hier überhaupt genau getätigt wurde.
Gehts übrigens etwas weniger anschuldigend und schroff?
Edit:
Zersägt Intels Montecito mit 1.7Milliarden Transistoren etwa Alles?
Ganon
2005-07-02, 19:47:39
Und was hat man mit 234 Millionen Tranistoren bei 4,6Ghz Takt und 221mm² die size vor, außer alles andere zu zersägen?
Komisch nur das CELL mit 8 SPUs in Wirklichkeit schon bei 2,4Ghz-2,8Ghz teilweise schon kaputt geht und IBM innig hofft eine 3,2Ghz-Version für PS3 bis zum nächsten Jahr zu haben.
Wie kommst du da auf 4,6Ghz Takt? Hör endlich auf Marketing-Texte von M$ und Sony hier zu propagieren.
Und seit wann entscheidet die Anzahl der Transistoren über die Leistung? Ich kann in eine CPU auch 1GB L2-Cache packen. Dann hat die CPU was weiß ich wie viele Milliarden Transistoren. Trotzdem muss diese nicht schneller sein.
reunion
2005-07-02, 20:00:34
Worauf ich hinaus will?
Dass es Unsinn ist, dass Sony über Jahre und für hunderte von Millionen eine CPU entwickelt, die 234 Millionen Transistoren hat (P4 e.g. hat 125 million Tranistoren), mit 4,6ghz taktet, viel kostet und von jeder billigen PC-CPU in Sachen Spielen versägt werden soll. Laut Anantech wäre ein Athlon XP1800+ schon locker so schnell wie Xenon oder Cell. Und was hat man mit 125 million Tranistoren bei 4,6Ghz Takt und 221mm² die size, als alles andere zu zersägen? Was soll so ein Aufwand, wenn das Ding nicht schneller ist, als jede PC CPU? Nur weil einige nicht blicken wie das Ding funktioniert und wie Sonys Vison von Gamecode aussieht, heißt das noch lange nicht, dass jeder hier mit ein bischen Ahnung von Silizium die Kompetenz hat M$ und Sony Ingenieure als Voldeppen abzustempeln.
Da muss man doch fragen für wie blöd ihr Sony haltet, wenn so ein Transitoren- und Taktmonstermonster laut der Aussagen einiger Experten hier und bei Anan von ner alten Lowend PC CPU geschlagen wird. Also entweder ihr seid superschlau und bei M$ und Sony arbeiten nur Volltrottel, oder es ist was anderes.
Ich muss dir bis zu einem gewissen Grad Recht geben.
Falls das wirklich alles wahr sein sollte, stellt sich mir als Laie eine simple Frage: Warum verwendet man dann keinen K7/K8/P4, wenn diese trotz deutlich geringerer Transistorenanzahl mehr leisten können?
reunion
2005-07-02, 20:06:22
Ich frage mich da eher, ob du nicht vielleicht einige wichtige Details übersiehst.
z.B für was die PPEs und Cell konzipiert wurden, welche Zugriffsmuster wichtig sind, und welcher Vergleich hier überhaupt genau getätigt wurde.
Irrelevant, Sony setzt Cell in der PS3 ein, warum, wenn dessen Leistung auch viel billiger zu erreichen wäre?
Dass Cell in die PS3 kommt, war im übrigen schon zu Beginn der Entwicklung klar AFAIK. Er wurde also, wenn man so will, durchaus als PS3-CPU konzipiert.
Demirug
2005-07-02, 20:08:47
Irrelevant, Sony setzt Cell in der PS3 ein, warum, wenn dessen Leistung auch viel billiger zu erreichen wäre?
Verfügbarkeit ist ja auch immer eine wichtige Frage bei Konsolen.
MS wollte für die XBOX I ja eigentlich auch eine AMD CPU. Allerdings hätte dann AMD nur noch für MS produziert und das wollten sie nicht.
Ganon
2005-07-02, 20:08:52
Falls das wirklich alles wahr sein sollte, stellt sich mir als Laie eine simple Frage: Warum verwendet man dann keinen K7/K8/P4, wenn diese trotz deutlich geringerer Transistorenanzahl mehr leisten können?
- zu teuer
- mehr Abwärme
- schlechteres Image (ala XBOX "miniPC")
- "nichts besonderes"
- etc. pp.
such dir was aus. ;) Ist ja im Prinzip egal. Die Marketing-Abteilungen machen ja alles wieder wett. Sieht man ja wie lange es dauert einem "Benutzer" klar zu machen das 3x/8x 3,2Ghz nicht gleich das schnellste auf Erden sein muss. ;)
Ich muss dir bis zu einem gewissen Grad Recht geben.
Falls das wirklich alles wahr sein sollte, stellt sich mir als Laie eine simple Frage: Warum verwendet man dann keinen K7/K8/P4, wenn diese trotz deutlich geringerer Transistorenanzahl mehr leisten können?
Xenon CPU: kleiner, billiger, bessere Werbung (ausserdem vergeben wohl AMD und Intel keine Lizenzen...)
Cell: billiger, weil Sony ihn in allen Multimediabereichen einsetzen will (nicht nur PS3). Durch die grosse Stückzahlen der PS3 knüppelt man den Stückpreis kräftig nach unten
Zudem hat man sich in der Leistung imo verschätzt. Anfangs ging man wohl davon aus, dass man sogar den GPU damit ersetzen kann. Das ging aber wohl schief, aber man war den Partnern schuldig, das Versprechen mit der PS3 einzuhalten.
Ich muss dir bis zu einem gewissen Grad Recht geben.
Falls das wirklich alles wahr sein sollte, stellt sich mir als Laie eine simple Frage: Warum verwendet man dann keinen K7/K8/P4, wenn diese trotz deutlich geringerer Transistorenanzahl mehr leisten können?
a) Marketing
b) Kosten
c) Unabhängigkeit
d) sich vom PC distanzieren etc
und das sind nur die Punkte die mir in 2s eingefallen sind.
Ganon
2005-07-02, 20:13:46
Jups. Man sieht ja auch an der PS2 das Sony ziemlich kranke Ideen hat(te).
Die PS2 sollte auch alle Texturen in Echtzeit generieren, darum hat die PS2 auch nur kümmerliche 4MB VRAM bekommen. Das die ersten PS2-Spiele wie High-Res N64-Spiele aussahen, hat Sony nicht wirklich gestört.
Das hat sich mit der PS3 nicht wirklich geändert. CELL sollte auch alles machen. Jetzt hat man aber ein Tick früher erkannt, das man so nicht wirklich Spiele erstellen kann und hat mal noch nen anständigen Grafikchip mit rein gepackt.
reunion
2005-07-02, 20:16:25
Verfügbarkeit ist ja auch immer eine wichtige Frage bei Konsolen.
MS wollte für die XBOX I ja eigentlich auch eine AMD CPU. Allerdings hätte dann AMD nur noch für MS produziert und das wollten sie nicht.
Mag sein, nur sollte das z.B. für Intel kein Problem sein; wie man ja an der Xbox I gesehen hat.
Im übrigen sollte man da auch anderweitig eine Lösung finden - man könnte ja einen K8 auch wo anders herstellen.
reunion
2005-07-02, 20:17:56
- zu teuer
- mehr Abwärme
- schlechteres Image (ala XBOX "miniPC")
- "nichts besonderes"
- etc. pp.
such dir was aus. ;) Ist ja im Prinzip egal. Die Marketing-Abteilungen machen ja alles wieder wett. Sieht man ja wie lange es dauert einem "Benutzer" klar zu machen das 3x/8x 3,2Ghz nicht gleich das schnellste auf Erden sein muss. ;)
Wenn ein AthlonXP 1800+ ausreicht, um einen Cell in die Knie zu zwingen, sind mir diese Argumente zu wenig, um einen solchen Schritt zu rechtfertigen.
zeckensack
2005-07-02, 20:20:22
Worauf ich hinaus will?
Dass es Unsinn ist, dass Sony über Jahre und für hunderte von Millionen eine CPU entwickelt, die 234 Millionen Transistoren hat (P4 e.g. hat 125 million Tranistoren), mit 4,6ghz taktet, viel kostet und von jeder billigen PC-CPU in Sachen Spielen versägt werden soll. Laut Anantech wäre ein Athlon XP1800+ schon locker so schnell wie Xenon oder Cell. Und was hat man mit 125 million Tranistoren bei 4,6Ghz Takt und 221mm² die size, als alles andere zu zersägen? Was soll so ein Aufwand, wenn das Ding nicht schneller ist, als jede PC CPU?Wenn es wirklich um maximale Leistung gegangen wäre, hätten sowohl Sony als auch Micros~1 statt des stark abgespeckten mini-PPC-Cores besser gleich zu einem vollwertigen PPC970 (aka G5) (http://arstechnica.com/articles/paedia/cpu/ppc970.ars) gegriffen. Haben sie aber nicht. Warum wohl?
Richtige Anwort: Geld sparen!
Nur weil einige nicht blicken wie das Ding funktioniert und wie Sonys Vison von Gamecode aussieht, heißt das noch lange nicht, dass jeder hier mit ein bischen Ahnung von Silizium die Kompetenz hat M$ und Sony Ingenieure als Voldeppen abzustempeln.Ich weiß nicht wie Micros~1s XBox-Entwickler so drauf sind, aber die Designer im Kerngeschäft sind IMO tatsächlich absolute Volltrottel, und diese Erkenntnis habe ich mir hart erarbeitet. Das gehört hier aber eigentlich nicht hin.
Sony hat mit der PS2 auch nicht unbedingt eine leicht auszulastende Maschine konstruiert. Das sollte nun wirklich kein Geheimnis mehr sein. Und es ist auch nicht vermessen, den Konstrukteur einer Grafiklösung ohne nativen Mipmap-Support und mit nur ein paar hundert kB effektiv nutzbarem Texturspeicher für einen Idioten zu erklären, auch nicht zu der Zeit als dieses Ding gerade frisch war. Es ist egal, ob man dann trotzdem irgendwie mit Zähneknirschen noch Spiele dafür machen kann. Es ist und bleibt trotzdem hirnrissig.
Da muss man doch fragen für wie blöd ihr Sony haltet, wenn so ein Transitoren- und Taktmonstermonster laut der Aussagen einiger Experten hier und bei Anan von ner alten Lowend PC CPU geschlagen wird. Also entweder ihr seid superschlau und bei M$ und Sony arbeiten nur Volltrottel, oder es ist was anderes.Klar denken!
Warum wird bei Desktop-CPUs OOOE eingesetzt? Warum werden breite Architekturen mit bis zu 9 Ausführungseinheiten eingesetzt?
Richtige Antwort: Performance.
Warum kommen Dual-Cores erst jetzt auf den Desktop? Warum nicht schon vor fünf Jahren?
Richtige Antwort: Single-Cores haben verlässlichere Performance.
Dual-Core ist eine Notlösung, um einen Ausgleich dafür zu kriegen, dass man die Taktrate nicht mehr signifikant steigern kann. Dual-Cores haben nominell die doppelte Leistung aber erfordern in der Praxis Software-Anpassungen und spezielle Problemstellungen um überhaupt messbar schneller sein zu können.
Und auf diese Erkenntnisse scheißen sowohl Sony als auch Micros~1.
Demirug
2005-07-02, 20:21:29
Mag sein, nur sollte das z.B. für Intel kein Problem sein; wie man ja an der Xbox I gesehen hat.
Im übrigen sollte man da auch anderweitig eine Lösung finden - man könnte ja einen K8 auch wo anders herstellen.
Natürlich man darf aber nicht vergessen das Cell für Sony ja mehr ist als nur die CPU für die nächste Spielkonsole. Es geht da ja um ein Gesamtkonzept.
reunion
2005-07-02, 20:21:30
(ausserdem vergeben wohl AMD und Intel keine Lizenzen...)
Warum sollte man das nicht machen?
Warum sollte man das nicht machen?
Sorry niemand will ein 2pc unterm TV X86 ist die sackgasse intel und amd treten seid 2jahren auf der stelle Leistungssprüngen sind nicht mher Groß drin deshalb wird jetzt auf Dual Core cpus gestezt da aber die Planungen für Konsolen schon jahre im vorraus gemacht werden musste wurde für die PS3 schon ab 2001 eine Multicore cpu gebaut da war bei weitem noch nicht absehbar ob oder wann es von intel oder amd jemals DC für den desktop geben wird
reunion
2005-07-02, 20:25:01
Wenn es wirklich um maximale Leistung gegangen wäre, hätten sowohl Sony als auch Micros~1 statt des stark abgespeckten mini-PPC-Cores besser gleich zu einem vollwertigen PPC970 (aka G5) (http://arstechnica.com/articles/paedia/cpu/ppc970.ars) gegriffen. Haben sie aber nicht. Warum wohl?
Richtige Anwort: Geld sparen!
Monsterchips, wie Cell oder Xenon, sollen Geld sparen? :|
dildo4u
2005-07-02, 20:26:33
Monsterchips, wie Cell oder Xenon, sollen Geld sparen? :|
Cell plus 300mio Transistoren vom RSX. :O Hier wird nicht gespart sony muss 491$ für den Fertigung ausgeben und macht pro Konsole ca 100$ verlust
http://www.4players.de/4players.php/dispnews/PlayStation2/Aktuelle_News/43250.html
reunion
2005-07-02, 20:27:09
Natürlich man darf aber nicht vergessen das Cell für Sony ja mehr ist als nur die CPU für die nächste Spielkonsole. Es geht da ja um ein Gesamtkonzept.
Natürlich hat Cell auch noch einen anderen Verwendungszweck, aber warum dann in die PS3 damit?
Demirug
2005-07-02, 20:31:03
Natürlich hat Cell auch noch einen anderen Verwendungszweck, aber warum dann in die PS3 damit?
Aus dem gleichen Grund aus dem AMD versucht mit X86(-64) alles abzudecken. Synergien. In je mehr Systemen Sony Cell benutzt desto mehr Kapital können sie in diese Platform investieren.
Gasat222
2005-07-02, 21:19:00
Natürlich man darf aber nicht vergessen das Cell für Sony ja mehr ist als nur die CPU für die nächste Spielkonsole. Es geht da ja um ein Gesamtkonzept.
Welches Gesamtkonzept? Nein, es handelt sich hier nicht um eine rethorische Frage!
Das ganze von wegen TV etc... kann ich nämlich schon nicht mehr hören. Wer verbaut den in normale Consumer-Elektronik schon ein MultiGHz-Monster mit (für Consumer-Elektronik) irrwitzigem Verbrauch und der Cell kostet ja angeblich US $100 pro Stück.
Für solche Aufgaben gibt es längst Produkte von anderen Firmen, entweder ASIC's oder die netten DSP's von Ti zB. oder eben auch die Cx-Reihe von VIA oder die entsprechenden MIPS-kompatiblen und/oder x86 Chips von AMD ( alles nur Beispiele ). Ach ja, die ARM-kompatiblen hätte ich ja glatt vergessen, schließlich haben die jetzt auch Multimedia-Erweiterungen incl. embedded ASIC oder wie man das so nennt.
Demirug
2005-07-02, 21:24:08
Welches Gesamtkonzept? Nein, es handelt sich hier nicht um eine rethorische Frage!
Das ganze von wegen TV etc... kann ich nämlich schon nicht mehr hören. Wer verbaut den in normale Consumer-Elektronik schon ein MultiGHz-Monster mit (für Consumer-Elektronik) irrwitzigem Verbrauch und der Cell kostet ja angeblich US $100 pro Stück.
Für solche Aufgaben gibt es längst Produkte von anderen Firmen, entweder ASIC's oder die netten DSP's von Ti zB. oder eben auch die Cx-Reihe von VIA oder die entsprechenden MIPS-kompatiblen und/oder x86 Chips von AMD ( alles nur Beispiele ). Ach ja, die ARM-kompatiblen hätte ich ja glatt vergessen, schließlich haben die jetzt auch Multimedia-Erweiterungen incl. embedded ASIC oder wie man das so nennt.
Wer sagt denn das da die gleichen Highend Cells wie in den PS3 reinkommen?
Tyler_Durden
2005-07-03, 11:17:15
Habt ihr eigentlich die PS3 Pressekonferenz auf der e3 gesehen und was da an Grafikdemos gezeigt wurde?
Ich fand diese ziemlich beeindruckend und bisher gab es nichts vergleichbares, weder auf Konsolen noch auf PC Sektor. Da muss schon eine extreme Lesitung, sowohl durch Cell als auch durch RSX hinterstecken um so ein Grafik hinzubekommen.
Die Xbox360 Demos sahen dahingegen eher dürftig aus, keine Ahnung warum M$ diese gezeigt hat, denn gegen PS3 gingen diese wirklich unter.
Mag sein, das in der Theorie Cell und Xenon nicht so leistungsfähig sind, die die Herstelller dies propagieren, aber die Grafik scheint im Falle der PS3 zumindest atemberaubend zu sein. Zumindest wenn das auf der e3 gezeigt auch wirklich so umgesetzt werden kann in späteren Spielen.
Und zu der Sache mit Multi Platform Entwicklungen will ich nur mal an EA verweisen, welche ja seit jeher für alle Konsolen proggen.
Das gezeigte Fight Night (Boxspiel) sah wirklich fast aus als wäre es ne Live TV Übertragung. Ich war da wirklich beeindruckt als ich die Videos gesehen hab.
BlackBirdSR
2005-07-03, 11:20:48
Habt ihr eigentlich die PS3 Pressekonferenz auf der e3 gesehen und was da an Grafikdemos gezeigt wurde?
Das ist es ja:
Grafikdemos...
Momentan stellt sich aber nur die Frage, ob es Grafikdemos bleiben, oder auch Spiele mit Qualität wirklich so aussehen werden.
Wieviel Saft bleibt für Wegfindung, KI, Physik, Sound, Kollisionsabfrage etc übrig?
Dass die neue Generation bei entsprechender Optimierung exzellente Grafiken erstellen kann, bezweifelt ja niemand.
Tyler_Durden
2005-07-03, 11:24:30
Die Programmierung auf der PS3 scheint dieses mal aber durch die guten DevKits wesentlich besser zu sein. Epics Demonstration der U3 Engine wurde innerhalb von ein paar Wochen auf die PS3 portiert.
Vorsicht. Sweeney hat gesagt, dass sie die SPEs noch gar nicht angerührt hatten bis zur Präsentation außer für die Physik.
Für die PPU reicht ja im Prinzip ein recompile mit einigen Anpassungen für RSX...
Epic hatte es wohl besonders einfach, weil man ein OpenGL Backend hat.
gruntzmaker
2005-07-03, 11:33:02
Habt ihr eigentlich die PS3 Pressekonferenz auf der e3 gesehen und was da an Grafikdemos gezeigt wurde?
Ich fand diese ziemlich beeindruckend und bisher gab es nichts vergleichbares, weder auf Konsolen noch auf PC Sektor. Da muss schon eine extreme Lesitung, sowohl durch Cell als auch durch RSX hinterstecken um so ein Grafik hinzubekommen.
Die Xbox360 Demos sahen dahingegen eher dürftig aus, keine Ahnung warum M$ diese gezeigt hat, denn gegen PS3 gingen diese wirklich unter.
Mag sein, das in der Theorie Cell und Xenon nicht so leistungsfähig sind, die die Herstelller dies propagieren, aber die Grafik scheint im Falle der PS3 zumindest atemberaubend zu sein. Zumindest wenn das auf der e3 gezeigt auch wirklich so umgesetzt werden kann in späteren Spielen.
Und zu der Sache mit Multi Platform Entwicklungen will ich nur mal an EA verweisen, welche ja seit jeher für alle Konsolen proggen.
Das gezeigte Fight Night (Boxspiel) sah wirklich fast aus als wäre es ne Live TV Übertragung. Ich war da wirklich beeindruckt als ich die Videos gesehen hab.
Die Grafikdemos liefen aber auf G5-Macs, da wird die Grafik für die Konsolen wegen den schwachen Prozzis sicher nochmal runtergerechnet ;), naja zumindest Perfect Dark lief schon auf ner echten Xbox 360, also das kann das Ding schon mal.
Was KI angeht: Wer mit nem Gamepad nen Ego-Shooter spielt, wird vermutlich froh sein, wenn die nicht so stark ist.
Innovationen wie Alan Wake werden aber sicher zeigen, was abseits von Technikdiskussionen noch für Möglichkeiten im Markt bestehen, will heissen:
Ich erwarte da keinen größeren Absatz auf dem PC als auf Konsole, auf der Innovationen nun mal nicht abgestraft werden (Firmen wie Blizzard mögen sicher ein Grund sein, diese Theorie nicht ausnahmslos hinzunehmen ;) ).
Tyler_Durden
2005-07-03, 11:35:04
Die PS3 Demos liefen auch auf G5 Macs?
BlackBirdSR
2005-07-03, 11:38:39
Die PS3 Demos liefen auch auf G5 Macs?
Damit waren wohl eher die Demos der XBox360 gemeint.
Allerdings deutet sehr Vieles daraufhin, dass die PPE im Cell nahezu identisch mit einem der Xenon Kerne ist.
Also mit einer G70 ausgestattet, sollte man theoretisch auch auf einem G5 System ein PS3 Demo ohne SPE Nutzung auf die Reihe bekommen.
dildo4u
2005-07-03, 11:41:00
Hier Kotzt sich auch der Chefentwickler von DOA4 über die X-Box 360 aus.
http://www.4players.de/4players.php/dispnews/XBox/Aktuelle_News/43362.html
BlackBirdSR
2005-07-03, 11:48:05
Wie immer ist es natürlich auch interessant die original Quelle zu lesen:
http://www.gamespot.com/news/2005/07/01/news_6128504.html
Demnach hofft er, dass Sony die angesetzten Specs für die PS3 überhaupt erreicht.
" However, he also added that he hopes Sony will make a machine that actually runs according to its listed hardware specs. "A machine that doesn't run according to its promised CPU frequency is out of the question," he said.
Zudem sagt er aber auch:
"The Xbox 360 has enough power without all the cores going into use. Even if just a single core is used for a game, it will still be several more times powerful than machines up until now."
Huhamamba
2005-07-03, 12:03:49
Die meisten 'hardcore-gamer' und PC 'freaks' sind sicher entäuscht was die "next-gen" Konsolen angeht (auch ich) wobei wir alle nocht nicht wissen was so alles machbar sein wird, womöglich erst nach jahren des optimierens.
Enttäuscht? Also wenn ich mir Spiele wie Gears of War, Killzone 2, Motorstorm, Project Gotham Racing 3, yada yada yada ansehe, kann von enttäuscht nicht die Rede sein. ;D
Wir als Pc 'freaks' wünschen uns immer Konsolen die däftigst 'power' haben.
Nicht ganz. Die meisten "PC-Cracks" wünschen den Konsolen die Pest am Hals und dementsprechend möglichst wenig Leistung, um was zum Spotten zu haben. Dass trotzdem rumgetrollt wird, obwohl es aufgrund der Leistungsstärke der Nextgen-Konsolen überhaupt nicht angebracht scheint, beweist ja schon das gegenseitige sich Aufgeilen an dem höchst fragwürdigen Anandtech-Artikel hier (damit bist jetzt aber nicht du gemeint). :rolleyes:
Und noch eine kleine Schlussbemerkung: Habt ihr euch überhaupt schon den neuen Trailer zu Far Cry Instincts (*ckickme* (http://www.axbserver.de/axb/download.php?file=122)) angesehen? Die Grafik ist nahezu die gleiche wie am PC (ok, etwas schwächere Texturen, nur in 640er Auflösung, aber immerhin mit AA, und kein HDR ;)), KI und Physik mit der PC-Version identisch und das Gameplay wird sogar noch etwas facettenreicher und komplexer. Und worauf läuft das Ganze? Richtig, einer leicht aufgespeckten GeForce 3, einem abgespeckten PIII 733 und 64MB Unified(!) RAM. Diese Komponenten wurden schon zum Launch der Xbox als PC-Müll abgewertet, und dennoch kann es fast mit heutigen PC-Spielen mithalten. Ich sage bewusst nicht mit heutiger PC-HighEnd-[i]Hardware[i], denn die ist klar haushoch überlegen, nur sieht man es in Spiele-Anwendungen kaum, fehlender Optimierung wegen unendlich vieler möglicher Kombinationen von Hardware (GPU,CPU,MB etc.) und Software (Treiber, BIOS, OS) und der nur sehr schleppenden Verbreitung neuer Hardware "sei Dank". :)
Und wer tatsächlich meint, Sony und Microsoft seinen komplett dämlich und würden völlig ungeeignete Hardware für bissl Marketing-Geblubber im Vorfeld bauen lassen (klar, Sony steckt über eine Milliarde $ in den Cell für nichts und wieder nichts :rolleyes:), der begeht wohl den gleichen fatalen Fehler wie Anandtech und alle anderen PC-Fanboy-Konsolenbashseiten im Netz und vergleicht Konsolenhardware mit PC-Hardware.
Cheers
Demirug
2005-07-03, 12:11:55
Hier Kotzt sich auch der Chefentwickler von DOA4 über die X-Box 360 aus.
http://www.4players.de/4players.php/dispnews/XBox/Aktuelle_News/43362.html
Entweder man beherscht die Multithread Entwicklung oder man wird von ihr beherscht.
gruntzmaker
2005-07-03, 12:19:37
Hier Kotzt sich auch der Chefentwickler von DOA4 über die X-Box 360 aus.
http://www.4players.de/4players.php/dispnews/XBox/Aktuelle_News/43362.html
...Gerade vorgerenderte HighRes-Videos benötigten eine Menge Speicherplatz - allein der kurze E3-Trailer zu Dead or Alive 4, der noch auf einem frühen Alpha-Devkit lief, würde in annehmbarer Qualität schon 2GB Speicher schlucken. Da man mit den Entwicklungsarbeiten an DoA 4 schon sehr früh begonnen hatte, werde man das Spiel nun an das geringe Speicherplatzangebot anpassen müssen und sei diesbezüglich sehr niedergeschlagen....
Das ist echt mal geil :D
Vor allem das "Wir sind darüber sehr niedergeschlagen" - 2Gb für den Trailer, au backe, die haben von Komprimierung noch nie was gehört scheint mir, wie soll das selbst auf ne Blu-Ray noch passen, wenn man mal annimmt, davon gibts später dann 10 Stück, da sind dann ja bereits 40% des Speichers weg.
Huhamamba
Ok, du hast Recht!...
Ich bin nicht direkt enttäuscht, eher verwundert über diesen Artikel!
Ich habe mir schon so einige Sachen angeschaut was die Nex-Gen Konsolen angeht. PGR habe ich alle beide Teile bis zum Ende gezockt! (super game)
Aber die meisten previews die ich zu PGR3 gesehen habe waren renderings (meiner Meinung nach). Wie auch immer, ich habe meine Xbox seit ende 2002.
Im Moment zocke ich Forza Motorsport, nicht übel das Spiel. Sieht auch Klasse aus. Ich mache mir da keine Sorgen was die Konsolen angeht! Auch wenn sie halb soviel Power haben wie versprochen wurde könnte man mehr als zufrieden sein. Hauptsache gutes AA ist endlich dabei ;) , sonst würden schon die meisten Xbox 1 Spiele hamme aussehen. Ich bin mir schon sehr sicher das die etwas auf dem Kasten haben werden, keine Frage.
Im Grunde braucht man hier auch nicht zu motzen, die Konsolen sollen ja noch bezahlbar sein. Und das ist hier der wichtigste Punkt!..
Ich hoffe ich rede hier net um den Brei herum :D
Riptor
2005-07-03, 12:48:23
Also AA, 720p/1080i und 4x sollte in Zukunft mehr als ausreichende Spielerlebnisse zulassen. Immerhin unterscheiden sich die Konsolen von PCs darin, dass sie konsequent auf die Spielentwicklung entwickelt sind (PS3 kann ich jetzt nicht so ganz beurteilen, dazu fehlen mir die inhaltlichen Kenntnisse des Cell-Chips bzw. seine Optimierungen in Bezug auf Spiele) und somit eine einheitliche Plattform bilden, die es bis heute so nicht in der PC-Welt geben kann.
Gasat222
2005-07-03, 13:06:57
Wer sagt denn das da die gleichen Highend Cells wie in den PS3 reinkommen?
Eben! Und für was brauche ich dann den Cell?
Die proMHz-Leistung bei normalem Code wird ja wohl so bei einem C5 von Centaur liegen, da beide InOrder-CPU's sind. Durch die längere Pipeline wohl einerseits niedriger durch das SMT andererseits wieder höher.
Wenn man sich dann anschaut wie "gut" die Centaur-CPU's wirklich sind, dann kann ich anstelle eines Cell mit niedriger GHz und nur 2-4SPE's auch gleich einen ARM mit Multimedia-Erweiterung + speziellen ASIC's (alles SoC) nehmen.
Deshalb glaube ich auch nicht, das der Cell für viele Anwendungen im Consumer-Bereich überhaupt tauglich ist und für den Rest wird er zu teuer sein.
Ergo, IMHO eine Todgeburt. Wir werden den Cell zumindest in den nächsten 3-4 Jahren als zu 90-99% (von der Stückzahl her) nur in der PS3 finden.
Gasat222
2005-07-03, 13:11:43
Also AA, 720p/1080i und 4x sollte in Zukunft mehr als ausreichende Spielerlebnisse zulassen. Immerhin unterscheiden sich die Konsolen von PCs darin, dass sie konsequent auf die Spielentwicklung entwickelt sind (PS3 kann ich jetzt nicht so ganz beurteilen, dazu fehlen mir die inhaltlichen Kenntnisse des Cell-Chips bzw. seine Optimierungen in Bezug auf Spiele) und somit eine einheitliche Plattform bilden, die es bis heute so nicht in der PC-Welt geben kann.
Ich dachte in diesem Thread geht es um die CPU's der neuen Konsolen und nicht um die GPU's? Die Leistungsfähigkeit der GPU's steht außer Frage. Der Artikel von Anandtech sagt zu den GPU's das _nur sie*_ dazu beitragen werden das die Spiele besser aussehen werden als die der jetzigen Generation, die CPU's jedoch ein "Let down" sind.
* zusammen mit den 512MB
Riptor
2005-07-03, 13:17:43
Das stimmt, ich bin jetzt nur auf DeX eingegangen in Bezug auf das Aussehen der Spiele... Eine CPU hatte halt in einer Konsole noch nie die Bedeutung wie im PC.
Zum Cell: Wo ist denn das Grundproblem dieser CPU in Bezug auf die Konsole und die zu erwarteten Spiele? Ist es allein die Programmierbarkeit, die sich als komplizierter gestaltet? Immerhin "klagen" ja jetzt schon Entwickler über die PowerPC-CPU mit 3 Cores bei der X360, dass die komplette Ausreizung ziemlich schwer werden würde, wie soll das dann mit den vielen SPEs funktionieren? Sony ist sich ja ziemlich sicher, dass der Cell-Chip die optimale Vorraussetzung für eine erfolgreiche Konsole hat und das das Potenzial sehr groß ist... Die Geschichte hat aber gezeigt, dass komplizierte Konsolen wie Sega's Saturn nie richtig ausgereizt wurden und Multiplattform-Spiele schwach aussahen...
BlackBirdSR
2005-07-03, 13:30:25
Eben! Und für was brauche ich dann den Cell?
Die proMHz-Leistung bei normalem Code wird ja wohl so bei einem C5 von Centaur liegen, da beide InOrder-CPU's sind. Durch die längere Pipeline wohl einerseits niedriger durch das SMT andererseits wieder höher.
Wenn man sich dann anschaut wie "gut" die Centaur-CPU's wirklich sind, dann kann ich anstelle eines Cell mit niedriger GHz und nur 2-4SPE's auch gleich einen ARM mit Multimedia-Erweiterung + speziellen ASIC's (alles SoC) nehmen.
Deshalb glaube ich auch nicht, das der Cell für viele Anwendungen im Consumer-Bereich überhaupt tauglich ist und für den Rest wird er zu teuer sein.
Ergo, IMHO eine Todgeburt. Wir werden den Cell zumindest in den nächsten 3-4 Jahren als zu 90-99% (von der Stückzahl her) nur in der PS3 finden.
Ich glaube nicht, dass man Cell mit einem C5 vergleichen kann. Sie sind zwar InOrder, aber das sind SUNs Sparcs auch. Im abstrakten Sinn gilt das auch für Itanium.
Der C5 hat wenestlich schwächere Ausführungseinheiten und baut zudem noch auf x86. D.h es nimmt Keiner Rücksicht auf sein InOrder Design.
Das wird bei Cell anders sein. Zudem besitzt man hier noch die VMX Vektorerweiterungen und eben die SPEs.
The Voice
2005-07-03, 13:37:37
.... und die Geschichte hat aber auch gezeigt das Sony IMMER gute CPU´s gebaut hat. Warum sollte das mit dem Cell anders werden. Es hat halt immer an der GPU gehapert (und ich sag nur 4MB V-RAM....).Jetzt haben sie sich endlich nen fähigen Chiphersteller mit an Board geholt und ich denke die Ergebnisse werden mehr als beeindruckend ausfallen (vorrausgesetzt gute programmierung...)!
Es gibt teilweise PS2-Spiele die Sachen mit der Hardware machen die theoretisch garnicht machbar sind, und das ist wircklich beeindruckend.
Stellt euch mal vor die Ps2 hätte 8 oder 16MB V-Ram....
Riptor
2005-07-03, 13:40:43
Gut, aber die PS2 war ja auch nicht gerade programmierfreundlich...
Windi
2005-07-03, 13:44:49
Eben! Und für was brauche ich dann den Cell?
Die proMHz-Leistung bei normalem Code wird ja wohl so bei einem C5 von Centaur liegen, da beide InOrder-CPU's sind. Durch die längere Pipeline wohl einerseits niedriger durch das SMT andererseits wieder höher.
Wenn man sich dann anschaut wie "gut" die Centaur-CPU's wirklich sind, dann kann ich anstelle eines Cell mit niedriger GHz und nur 2-4SPE's auch gleich einen ARM mit Multimedia-Erweiterung + speziellen ASIC's (alles SoC) nehmen.
Deshalb glaube ich auch nicht, das der Cell für viele Anwendungen im Consumer-Bereich überhaupt tauglich ist und für den Rest wird er zu teuer sein.
Ergo, IMHO eine Todgeburt. Wir werden den Cell zumindest in den nächsten 3-4 Jahren als zu 90-99% (von der Stückzahl her) nur in der PS3 finden.
Du hast wohl noch nicht verstanden was Demirug mit den Synergien meinte.
Ein Beispiel: Egal was AMD produziert, ob Dualcore mit mit je 1MB Cache oder Singelcore mit 256KB Cache. AMD muss für beide Prozessoren fast das gleiche entwickelt und erforscht haben.
Bei Sony ist es das gleiche. Ob Cell mit 1 PPC und 7 SPUs für die PS3, Cell mit 1 PPC und 3 SPUs für HDTV-Blueray-Recorder oder Cell mit 1PPC und 2 SPUs (vieleicht zusätzlich auch noch einmal abgespeckt) für HDTV Fernseher mit integrierter Internet Surf Box, aus sicht der Forchung und Entwicklung ist das alles das gleiche.
Zusätzlich Bleibt für Sony auc noch der Vorteil, das man keine Lizenzgebühren bezahlen muss.
Ganon
2005-07-03, 13:56:42
Naja. Bei der EE wollte Sony einfach ne CPU die man halbwegs als 128bit-CPU verkaufen kann.
2 64bit Recheneinheiten die man zusammenschalten kann und damit ne 128bit SIMD (4x32bit im CPU-Kern) hat. Anbei dann noch 2 128bit VectorUnits.
Das muss man erst mal mit Daten füttern. Im schlimmsten Fall hat man halt nur eine 64bit CPU mit knapp 300Mhz und wenig Speicher. Im besten Fall Arbeitet man als komplette SIMD + 2xVU.
Sicherlich kann man das so auslasten, aber ich frage mich nur eines:
Will ich eine Konsole die mir gute Grafik sofort bietet, oder will ich ne Konsole wo ich sage "In 5 Jahren wird die Grafik genial sein".
Als Beispiel mal den GameCube. Der wurde von Factor5 innerhalb von 6 Monaten teilweise schon ausgereizt (Rogue Leader). Später kam dann noch ne aufgemotzte Version (Rebel Strike) mit noch besserer Grafik und 2Spieler Modus. Genau dieses Spiel kann man selbst heute noch als "Spiel mit sehr guter Grafik" bezeichnen. Zumindest bin ich von RebelStrike heute noch beeindruckt. Sicherlich ist es nicht perfekt.
Hätte Factor5 mehr Zeit gehabt wäre RebelStrike schon ein Release-Titel gewesen.
Wäre das "schade" gewesen? Wäre es schlimm, wenn das Konsolen-Maximum schon kurz nach Release sieht und später noch ein paar Tweaks folgen?
Ich denke mal nicht, weil dann bräuchten sich Entwickler nicht mit der Hardware rumplagen, sondern könnten mal das machen was sie eigentlich sollen -> gute Spiele entwickeln.
Wenn aber ein Großteil der Zeit an der "optimalen Engine" drauf geht...
Naja. Wird wohl dieses mal wieder nichts.
BlackBirdSR
2005-07-03, 14:00:04
Wäre das "schade" gewesen? Wäre es schlimm, wenn das Konsolen-Maximum schon kurz nach Release sieht und später noch ein paar Tweaks folgen?
Ich denke eimal, hier spielt auch etwas Marketing mit.
Hätte man schon jetzt ein Maximum an grafischer Qualität, die Spiele in 3 Jahren würden nicht mehr so herrausstechen.
Aber gerade deswegen werden auch heute noch Spiele für die PS2 gekauft.
Weil die Grafik noch ein Stück besser ist, und man noch mehr Möglichkeiten mit der verbesserten Engine hat.
Ich will Sony wirklich nicht unterstellen, dass dies Absicht wäre. Aber man ist sicherlich nicht tot unglücklich, weil bei Release nicht alle Möglichkeiten ausgeschöpft werden können.
Riptor
2005-07-03, 14:27:56
Stimmt, dies ist aber nur ein Vorteil, weil Sony nach dem Dreamcast-Desaster (auf die Ursachen will ich jetzt nicht eingehen) allein da stand und die Konkurrenz erst später hinzukam.
Damit waren wohl eher die Demos der XBox360 gemeint.
Allerdings deutet sehr Vieles daraufhin, dass die PPE im Cell nahezu identisch mit einem der Xenon Kerne ist.
Also mit einer G70 ausgestattet, sollte man theoretisch auch auf einem G5 System ein PS3 Demo ohne SPE Nutzung auf die Reihe bekommen.
Du gehst wieder davon aus, dass die SPEs nicht genutzt werden, was schlicht Unsinn ist. Außerdem fehlt es erheblich an Bandbbreite.
Riptor
2005-07-03, 15:05:58
Wie schwer ist es, die SPEs sinnvoll zu nutzen? Kann man das schon sagen? Und für was sollte man so viele SPEs nutzen? Ist dies für Multiplattform-Titel hinderlich?
Ich denke eimal, hier spielt auch etwas Marketing mit.
Hätte man schon jetzt ein Maximum an grafischer Qualität, die Spiele in 3 Jahren würden nicht mehr so herrausstechen.
Aber gerade deswegen werden auch heute noch Spiele für die PS2 gekauft.
Weil die Grafik noch ein Stück besser ist, und man noch mehr Möglichkeiten mit der verbesserten Engine hat.
Ich will Sony wirklich nicht unterstellen, dass dies Absicht wäre. Aber man ist sicherlich nicht tot unglücklich, weil bei Release nicht alle Möglichkeiten ausgeschöpft werden können.
Ich halte es nnicht für unmöglich, dass Sony es gerne sieht, dass sie am Anfang die besten Tools für eine komplizierte Hardware haben und somit die besten Spiele. Ebenfalls ist auf diesem Wege eine längerfristige Evolution bei Spielen möglich.
Auf der anderen Seite muss ich noch mal fragen, ob hier niemand auf die Idee kommt, dass Sony genau den Cell haben wollte, weil sie ein Konzept von Gamecode im Kopf haben, der Ideal auf einer Cell Architektur läuft. Nur weil ihr nicht versteht, was Sonys Codekonzept beinhaltet, heißt das nicht, dass es das nicht gibt und die Milliardendollarinvestition Cell für die PS3 eine Fehlkonstruktion ist.
Wie schwer ist es, die SPEs sinnvoll zu nutzen? Kann man das schon sagen? Und für was sollte man so viele SPEs nutzen? Ist dies für Multiplattform-Titel hinderlich?
Darum gehts doch schon den ganzen Thread hier.
Ailuros
2005-07-03, 15:14:14
Stimmt, dies ist aber nur ein Vorteil, weil Sony nach dem Dreamcast-Desaster (auf die Ursachen will ich jetzt nicht eingehen) allein da stand und die Konkurrenz erst später hinzukam.
Die Ursachen liegen bei NEC aber wir brauchen das Zeug wirklich nicht bis zum geht nicht mehr wiederkauen.
Uebrigens irgendwo im thread hat jemand SEGA erwaehnt und die Spiele-entwicklung. Ich waere mir gar nicht so sicher dass SEGA fuer oder auf eine der beiden Consolen Spiele entwickeln wird.
Zum Rest und zum eigentlichen Thema ein Witz der als Metaphore dienen soll:
-"Herr Ober der Kuchen ist aber trocken..."
-"Dann machen sie aber gefaelligst den Mund zu, dass es nicht so staubt..."
Wenn sich der ganze Staub von den Consolen-Veroeffentlichungen setzt, werden viele dann ja sehen wie trocken der Kuchen eigentlich ist und dass man tatsaechlich das bekommt fuer das was man bezahlt.
Botcruscher
2005-07-03, 15:21:11
Wie sich die Consolen programmieren lassen werden wir erst mit den Spielen sehen. Bis jetzt giebt es nun einmal nur Anzeichen und völlig überzogene theoretische Zahlen.
Ailuros
2005-07-03, 15:21:26
Auf der anderen Seite muss ich noch mal fragen, ob hier niemand auf die Idee kommt, dass Sony genau den Cell haben wollte, weil sie ein Konzept von Gamecode im Kopf haben, der Ideal auf einer Cell Architektur läuft. Nur weil ihr nicht versteht, was Sonys Codekonzept beinhaltet, heißt das nicht, dass es das nicht gibt und die Milliardendollarinvestition Cell für die PS3 eine Fehlkonstruktion ist.
Auch in der Vergangenheit wollten viele Kutaragi als Genie ansehen und alle Entwickler als Banausen.
Fehlkonstruktion ist uebertrieben, aber etwas umstaendlich zum programmieren dann wohl schon. Wieso sollen ploetzlich alle Entwickler unfaehig sein und nur SONY hat eine konstante Vision die niemand folgen kann?
Mit Geld rumschmeissen kann jede Firma und nein das ist kein standhaftes Argument fuer diese Debatte, ueberhaupt wenn sich geschichtlich dabei nichts geaendert hat.
Ailuros
2005-07-03, 15:23:53
Wie sich die Consolen programmieren lassen werden wir erst mit den Spielen sehen. Bis jetzt giebt es nun einmal nur Anzeichen und völlig überzogene theoretische Zahlen.
Die Entwickler die sich bisher selbst im geheimen auesserten, sprachen bei weitem nicht ueber theoretische Zahlen.
Botcruscher
2005-07-03, 15:27:21
Die Entwickler die sich bisher selbst im geheimen auesserten, sprachen bei weitem nicht ueber theoretische Zahlen.
Das behaupte ich auch nicht. Was wirklich raus kommt ist leider unbekannt, was die Diskusion doch ziemlich "erschwert".
zeckensack
2005-07-03, 15:31:28
...Gerade vorgerenderte HighRes-Videos benötigten eine Menge Speicherplatz - allein der kurze E3-Trailer zu Dead or Alive 4, der noch auf einem frühen Alpha-Devkit lief, würde in annehmbarer Qualität schon 2GB Speicher schlucken. Da man mit den Entwicklungsarbeiten an DoA 4 schon sehr früh begonnen hatte, werde man das Spiel nun an das geringe Speicherplatzangebot anpassen müssen und sei diesbezüglich sehr niedergeschlagen....Dazu fallen mir drei Fragen ein:
1)Wie lang war der Trailer?
2)Wer will Render-Videos denn überhaupt haben?
3)Sind PS3/YBox schnell genug für XviD-Dekodierung in >=800x600?
Sind PS3/YBox schnell genug für XviD-Dekodierung in >=800x600?Also bitte. Gibt es eine bessere Anwendung für die SPEs des Cell?
Ailuros
2005-07-03, 15:40:23
Das behaupte ich auch nicht. Was wirklich raus kommt ist leider unbekannt, was die Diskusion doch ziemlich "erschwert".
Und wie entstanden die beiden Artikel von Anand (der stornierte und der revamp)?
zeckensack
2005-07-03, 15:40:43
Also bitte. Gibt es eine bessere Anwendung für die SPEs des Cell?Ich weiß es nicht.
Ich habe ehrlich gesagt keine Ahnung was die moderneren Codecs alles noch so brauchen :usweet:
Der letzte Video-Codec, den ich mehr oder weniger verstanden habe, ist MPEG(2), und da wäre ich auch der Meinung dass es leicht gehen müsste.
Da XviD et al aber deutlich besser komprimieren als MPEG, müssen logischerweise auch weitere Tricks zum Einsatz kommen. Ob die nun alle streaming-freundlich sind, oder eher nicht, müsste mir jemand sagen der sich damit auskennt :usad:
*Ähem*
Screenshots:
http://www.ninjatheory.com/blinkblink/index.php?option=com_content&task=view&id=38&Itemid=61
Footage:
http://media.ps3.ign.com/media/700/700186/vids_1.html
--> Heavenly Sword auf der PS3 in Echtzeit bei 1080p @ 60fps und das ganz ohne den Einbezug der SPEs.
So, hat jetzt tatsächlich noch jemand Zweifel an der Power der CPU kommender Konsolen?
Uebrigens irgendwo im thread hat jemand SEGA erwaehnt und die Spiele-entwicklung. Ich waere mir gar nicht so sicher dass SEGA fuer oder auf eine der beiden Consolen Spiele entwickeln wird.
Ich schon. Sega hat sogar ausdrücklich den Willen bekundet Nummer 1 Entwickler für alle Nextgenkonsolen zu werden und das man bei der letzten Generation einen Nachteil hatte, weil man erst später dazugestoßen ist.
Tyler_Durden
2005-07-03, 16:07:50
--> Heavenly Sword auf der PS3 in Echtzeit bei 1080p @ 60fps und das ganz ohne den Einbezug der SPEs.
So, hat jetzt tatsächlich noch jemand Zweifel an der Power der CPU kommender Konsolen?
womit wir wieder beim thema wären, ob diese quali auch letztendlich erreicht werden wird.
*Ähem*
Screenshots:
http://www.ninjatheory.com/blinkblink/index.php?option=com_content&task=view&id=38&Itemid=61
Footage:
http://media.ps3.ign.com/media/700/700186/vids_1.html
--> Heavenly Sword auf der PS3 in Echtzeit bei 1080p @ 60fps und das ganz ohne den Einbezug der SPEs.
So, hat jetzt tatsächlich noch jemand Zweifel an der Power der CPU kommender Konsolen?Wo steht da, dass die SPEs nicht benützt werden?
Ailuros
2005-07-03, 16:11:48
Ich schon. Sega hat sogar ausdrücklich den Willen bekundet Nummer 1 Entwickler für alle Nextgenkonsolen zu werden und das man bei der letzten Generation einen Nachteil hatte, weil man erst später dazugestoßen ist.
Bei der vorigen Generation hatten sie auch keine besonders fortschrittliche eigene HW zur Verfuegung.
Wo steht da, dass die SPEs nicht benützt werden?
Wenn es nach Anan geht, oder nach einigen "Experten" hier, sind die SPEs doch sowieso nicht nutzbar für Spiele. Was denn nun?
Bei der vorigen Generation hatten sie auch keine besonders fortschrittliche eigene HW zur Verfuegung.
Worauf willst Du hinaus?
womit wir wieder beim thema wären, ob diese quali auch letztendlich erreicht werden wird.
Das ist Echtzeit auf einem Alpha-Entwicklungskit. .... Nein, diese Qualität wird nicht erreicht, denn sie wird nochmal um einiges übertroffen. Ist doch wohl das Mindeste, was man da sieht, auch wenn es im Vergleich zu den crappy PC-Spielen schon äußerst gut aussieht.
Wenn es nach Anan geht, oder nach einigen "Experten" hier, sind die SPEs doch sowieso nicht nutzbar für Spiele. Was denn nun?Nein, so ist das ganz bestimmt nicht.
Nur gibt es nicht mal so wenige Algorithmen, die sich nicht mit den SPEs vertragen und oft auch keine Alternativen dazu.
zeckensack
2005-07-03, 16:26:14
*Ähem*
Screenshots:
http://www.ninjatheory.com/blinkblink/index.php?option=com_content&task=view&id=38&Itemid=61
Footage:
http://media.ps3.ign.com/media/700/700186/vids_1.html
--> Heavenly Sword auf der PS3 in Echtzeit bei 1080p @ 60fps und das ganz ohne den Einbezug der SPEs.Bist du sicher dass das alles Echtzeit ist?
Ich bilde mir ein, da ein paar Übergänge erkennen zu können.
ZB Tante schaut sich um, Tante schießt, Tante hüpft vor den Mond etc halte ich für Render-Videos. Die eigentlichen Kampfszenen halte ich für Echtzeit-Grafik. Beim Rauszoomen am Ende erkenne ich auch einen Wechsel von Echtzeit auf Render-Filmchen. Gesegnet sind diejenigen, die einen SloMo-fähigen Player haben :)
Ailuros
2005-07-03, 16:33:17
Worauf willst Du hinaus?
Ich dachte Du waerst so gut informiert ueber SEGA's Plaene?
Nein, so ist das ganz bestimmt nicht.
Nur gibt es nicht mal so wenige Algorithmen, die sich nicht mit den SPEs vertragen und oft auch keine Alternativen dazu.
Im Anan Artikel wird davon gesprochen, dass die SPEs weder für Grafik, noch für Physik nutzbar sind. KI zu berechnen wird ihr schienbar ohnehin abgesprochen. Was bleibt denn da noch, wenn man diesem Unsinn glauben schenkt?
Und selbst wenn die SPEs "nur" Pyhsik berechnen könnten, wäre das riesig, denn Animation und Physik kann man nie genug haben, um Realismus zu imitieren und so wie es schient, kann die PS3 brutal viel Physik berechnen, wenn ich mir die Videos so angucke. Und mit Sicherheit werden die SPEs (im gegensatz zu Anans Meinung) einen großen Einfluss auf die Grafik haben und den RSX in vielen Belangen unterstützen, was nVidia und Sony mehrfach betont haben. Und was KI angeht, gibt es scheinbar durchaus Konzepte die auf SPEs lauffähig sind. .... Was für Algos fehlen dir denn da noch?
Ich dachte Du waerst so gut informiert ueber SEGA's Plaene?
Ich habe gefragt worauf Du hinaus willst. Was soll diese Gegenfrage?
Ailuros
2005-07-03, 16:53:08
Ich habe gefragt worauf Du hinaus willst. Was soll diese Gegenfrage?
SEGA arbeitet an einem noch nicht veroeffentlichten high end Arcade System. Das weiss wohl jeder der behauptet sich ueber die Internas von SEGA auszukennen.
Was für Algos fehlen dir denn da noch?Es gibt nicht den Grafik, KI, Sound, usw. Algorithmus.
Tyler_Durden
2005-07-03, 17:10:01
SEGA arbeitet an einem noch nicht veroeffentlichten high end Arcade System. Das weiss wohl jeder der behauptet sich ueber die Internas von SEGA auszukennen.
Is das das Teil was auf 360 Hardware basiert?
Siehe hier:
LINK (http://www.consolewars.de/news/newsdisplay.php?idx=8923)
Lost Boy
2005-07-03, 17:35:53
Mal ganz nebenbei. Ich hab mir grade nochmal die technischen daten der PS3 und Xbox angesehen. Mir ist aufgefallen das der CELL nur 512 KB L2 Cache hat. Könnte das nicht probleme geben, also einen Flaschenhals!? 512KB für CPU und 8 SPU´s?? oder sehe ich das falsch?
Bei der Xbox 360 ist das ähnlich. Die hat zwar 1MB L2 Cache, aber das reicht doch nicht für 3 CPU`s??
Korrigiert mich bitte wenn ich da falsch liege.
mfg
Die SPEs haben gar keinen Cache. Streamprozessoren brauchen nur genügend Bandbreite und das ist durch das XDR RAM gegeben.
Allein das sollte einem eigentlich schon zu denken geben. Die Dinger sind einfach nicht general purpose und der general purpose Core (PPU) ist ziemlich lahm :rolleyes:
Ailuros
2005-07-03, 17:37:43
Mal ganz nebenbei. Ich hab mir grade nochmal die technischen daten der PS3 und Xbox angesehen. Mir ist aufgefallen das der CELL nur 512 KB L2 Cache hat. Könnte das nicht probleme geben, also einen Flaschenhals!? 512KB für CPU und 8 SPU´s?? oder sehe ich das falsch?
Bei der Xbox 360 ist das ähnlich. Die hat zwar 1MB L2 Cache, aber das reicht doch nicht für 3 CPU`s??
Korrigiert mich bitte wenn ich da falsch liege.
mfg
Eine dementsprechende Erklaerung steht in den beiden Versionen des Anand-Artikel drin.
SEGA arbeitet an einem noch nicht veroeffentlichten high end Arcade System. Das weiss wohl jeder der behauptet sich ueber die Internas von SEGA auszukennen.
Klar weiß ich das. Habe auch die "geheime" Pressevorführung von der E3 gesehen, wo einige Arcadetitel vorgestellt wurden. Was Du mir jetzt allerdings mitteilen willst, entgeht mir leider gänzlich.
Du schriebst, dass Sega vielleicht garnicht für die Nextgenkonsolen entwickelt, ich schreibe, dass Sega sogar offiziell das Ziel hat der erfolgreichste Entwickler auf den Nextgen Konsolen zu werden, was bei den vorherigen Konsolen nicht geklappt hat, weil sie zu spät eingestiegen sind.
Nun kommst Du mit der achso geheimen Tatsache, dass Sega auch für ihr neues Arcadesystem entwickelt, so wie sie es schon immer getan haben. Und nun?
dildo4u
2005-07-03, 17:44:58
Mal ganz nebenbei. Ich hab mir grade nochmal die technischen daten der PS3 und Xbox angesehen. Mir ist aufgefallen das der CELL nur 512 KB L2 Cache hat. Könnte das nicht probleme geben, also einen Flaschenhals!? 512KB für CPU und 8 SPU´s?? oder sehe ich das falsch?
Bei der Xbox 360 ist das ähnlich. Die hat zwar 1MB L2 Cache, aber das reicht doch nicht für 3 CPU`s??
Korrigiert mich bitte wenn ich da falsch liege.
mfg
Cell hat 2.5MB cache die sich wie folgt aufteilen oder warum denkst ihr sonst braucht die CPU über 200mio Transistoren.
"Es handelt sich um eine kompatible Weiterentwicklung der 64-Bit-PowerPC-Architektur (Apple G5) mit acht Prozessor-Kernen. Insgesamt verfügt der Chip über 2,5 MByte Speicher: 512 KB Level-2-Cache für die Steuer-CPU und achtmal 256 KB in den SPUs"
http://www.gamepro.de/news/2729/
8SPU und jeder hat sein eigenen Cache wie man hier schön sieht
http://www.computerandvideogames.com/screenshots_library/dir_275/vortal_pic_137521.jpg
Cell ist KEINE Weiterentwicklung des G5 und die SPEs haben auch keinen Cache, sondern nur einen 256kiB großen Anweisungs- und Datenspeicher.
Wieso darf man den Speicher nicht Cache nennen?
Weil es kein Cache ist sondern ein Speicher primär für das Program und eventuelle Konstanten.
Ein Cache zeichnet sich dadurch aus, dass er die Latenz bei Speicherzugriffen auf den langsamen Hauptspeicher kaschiert und zwar transparent für die Anwendung. Der SPE Speicher ist für keins von beidem konstruiert, weil bei Streamprocessing Latenzen egal sind.
Weil es kein Cache ist sondern ein Speicher primär für das Program und eventuelle Konstanten.
Es ist ein Pufferspeicher für Daten und somit durchaus als Cache zu bezeichnen.
Weil es kein Cache ist sondern ein Speicher primär für das Program und eventuelle Konstanten.
Was für ein studium hast du bitte hier um einfach alle anderen als Lügner da stehen zu lassen bist du bei AMD Intel oder IBM beschäftigt.
Informatik. Spielt aber keine Rolle, weil das offizielle Informationen sind.
http://en.wikipedia.org/wiki/Cell_processor
Each SPE is composed of a "Synergistic Processing Unit" ("SPU"), and a SMF unit (DMA, MMU, and BUS IF[7] (http://en.wikipedia.org/wiki/Cell_%28microprocessor%29#endnote_scei)). [8] (http://en.wikipedia.org/wiki/Cell_%28microprocessor%29#endnote_ibmresearch) A SPE is a general purpose RISC processor with 128-bit SIMD organization [9] (http://en.wikipedia.org/wiki/Cell_%28microprocessor%29#endnote_seminar) for single and double precision instructions. It has 256 KB of instruction & data in its Load Store, which is also visible to the PPE to be loaded with data and programs as needed [10] (http://en.wikipedia.org/wiki/Cell_%28microprocessor%29#endnote_seminar).
The local high speed memory is called 'Local Store'. It performs load/stores, transactions for DMA, and fetches instructions in a instruction-line buffer. [14]
Außerdem wäre Cache bei einem Streamprozessor absolut unnütz.
Ein Cache zeichnet sich dadurch aus, dass er die Latenz bei Speicherzugriffen auf den langsamen Hauptspeicher kaschiert und zwar transparent für die Anwendung. Der SPE Speicher ist für keins von beidem konstruiert, weil bei Streamprocessing Latenzen egal sind.
Das ist wohl deine eigene Definition. Meiner Meinung nach bist Du schlicht ein Besserwisser.
Cache /kæʃ/ (auch: Schattenspeicher) bezeichnet in der EDV einen schnellen Puffer-Speicher, der bei CPUs heute meist im Prozessor integriert ist, früher aber auch häufig auf der Hauptplatine zu finden war. ...In ihm werden Daten und – beim CPU-Cache – auch Programminstruktionen zwischengespeichert, wodurch diese bei einem Zugriff schneller zur Bearbeitung bereitstehen.
www.wikipedia.de
Es ist ein Cache und bleibt ein Cache, egal was DU dir da zusammenstrickst.
Neomi
2005-07-03, 18:02:28
Wieso darf man den Speicher nicht Cache nennen?
Ein Cache hält berechnete oder kopierte Daten nur zum schnelleren Zugriff bereit. Da die "Originaldaten" nochmal an anderer (meist langsamerer) Stelle verfügbar sind, können die Daten, die sich im Cache befinden, jederzeit reproduziert werden. Cache ist für die Software transparent.
Speicher dagegen wird gezielt adressiert und beinhaltet nicht zwingend eine redundante Fassung anderer Daten. Es ist egal, ob er direkt auf im Chip integriert ist und es ist ebenfalls egal, wie schnell er ist. Speicher wird erst durch eine bestimmte Nutzung zum Cache.
Ich habe es nicht nötig mich weiter rechtzufertigen. Entweder du glaubst es oder du lässt es bleiben.
arcader
2005-07-03, 18:06:06
Is das das Teil was auf 360 Hardware basiert?
Siehe hier:
LINK (http://www.consolewars.de/news/newsdisplay.php?idx=8923)
sega bringt verschiedene Arcadeboards raus das eine soll High end sein
"Lindbergh" der Name,dort soll der neue PowerVR5 zum einsatzt kommen
diese Grafikeinheit soll 500MIo transistoren beinhalten und mit 700MHZ
getaktet sein(laut gerücht).Wie schaffen die ein 500Mio Chip zu fertigen während Sonys und MS Gpu's der neuen Konsolen auf nur 300 kommen??
sega bringt verschiedene Arcadeboards raus das eine soll High end sein
"Lindbergh" der Name,dort soll der neue PowerVR5 zum einsatzt kommen
diese Grafikeinheit soll 500MIo transistoren beinhalten und mit 700MHZ
getaktet sein(laut gerücht).Wie schaffen die ein 500Mio Chip zu fertigen während Sonys und MS Gpu's der neuen Konsolen auf nur 300 kommen??
Erstens sind das nur Gerüchte und außerdem brauch man bei Automaten bei weitem nicht so hohe Stückzahlen und der Automat darf auch merh als 400$ in der herstellung kosten.
Neomi
2005-07-03, 18:17:22
In ihm werden Daten und – beim CPU-Cache – auch Programminstruktionen zwischengespeichert, ...
Na also, zwischengespeichert. Daten ohne Repräsentation an anderer Stelle können höchstens gespeichert werden, aber nicht zwischengespeichert. Da die 256 KB pro SPE gezielt (nicht transparent) angesteuert werden, sind sie kein Cache. Das ist keine Meinung, sondern Fakt.
zeckensack
2005-07-03, 19:10:20
Monsterchips, wie Cell oder Xenon, sollen Geld sparen? :|Ich kann die Frage gerne wiederholen: warum keinen vollwertigen PPC970, sondern stattdessen solche In-Order-Dinger mit maximal 2 Ops/Takt?
Die Frage betrifft MS noch stärker als Sony.
Cell ist ohnehin schon groß, da würden die (geschätzt) 40mm² mehr für einen echten G5 statt einem wie-auch-immer-das-kleine-Ding-heißt auch nicht mehr groß stören.
Die YBox-CPU besteht ohnehin nur aus general purpose-Kernen, hier wäre der Unterschied dann bedeutend größer (IMO dürften 2 G5-Kerne aber auch noch lockerst reichen, um die 3 Mini-Kerne zu plätten).
Da fallen mir neben dem Preis eigentlich nur zweieinhalb andere Gründe ein:
1a)IBM hatte schlicht keinen Bock, ihr (derzeitiges Spitzen-)Produkt zu den gebotenen Preisen zu verschleudern. Bzw
1b)IBM wollte den großen Kern nicht als IP-Version für SoC-Integration rausrücken, sondern nur in Form von fertigen Prozessoren.
Beide dieser Varianten laufen aber wiederum auf Geld hinaus.
2)Stromverbrauch.
Ganon
2005-07-03, 19:18:58
Ich denke mal eher der Stromverbrauch, bzw. die Abwärme.
Ein Dual PowerMac G5 mit 2,7 Ghz braucht schon ne Wasserkühlung (ähnlich) und wird immer noch sehr heiß. Siehe auch den, nahe an der Überhitzung liegenden, iMacG5.
Das passt nicht in so eine kleine Schachtel. Daher musste man halt stark abspecken.
Ich kann die Frage gerne wiederholen: warum keinen vollwertigen PPC970, sondern stattdessen solche In-Order-Dinger mit maximal 2 Ops/Takt?
Die Frage betrifft MS noch stärker als Sony.
Cell ist ohnehin schon groß, da würden die (geschätzt) 40mm² mehr für einen echten G5 statt einem wie-auch-immer-das-kleine-Ding-heißt auch nicht mehr groß stören.
Die YBox-CPU besteht ohnehin nur aus general purpose-Kernen, hier wäre der Unterschied dann bedeutend größer (IMO dürften 2 G5-Kerne aber auch noch lockerst reichen, um die 3 Mini-Kerne zu plätten).
Da fallen mir neben dem Preis eigentlich nur zweieinhalb andere Gründe ein:
1a)IBM hatte schlicht keinen Bock, ihr (derzeitiges Spitzen-)Produkt zu den gebotenen Preisen zu verschleudern. Bzw
1b)IBM wollte den großen Kern nicht als IP-Version für SoC-Integration rausrücken, sondern nur in Form von fertigen Prozessoren.
Beide dieser Varianten laufen aber wiederum auf Geld hinaus.
2)Stromverbrauch.
Gute Argumentation. So oder so ähnlich wirds wohl abgelaufen sein.
Ich denke mal eher der Stromverbrauch, bzw. die Abwärme.
Ein Dual PowerMac G5 mit 2,7 Ghz braucht schon ne Wasserkühlung (ähnlich) und wird immer noch sehr heiß. Siehe auch den, nahe an der Überhitzung liegenden, iMacG5.
Das passt nicht in so eine kleine Schachtel. Daher musste man halt stark abspecken.
Du weißt wie die X360 CPU gekühlt wird?
Ganon
2005-07-03, 19:43:32
Du weißt wie die X360 CPU gekühlt wird?
Ja. Aber beim PowerMac liegen die CPU nicht in einer kleinen Schachtel, sondern in einem großen luftdurchlässigen Gehäuse mit 9 Lüftern.
Ja. Aber beim PowerMac liegen die CPU nicht in einer kleinen Schachtel, sondern in einem großen luftdurchlässigen Gehäuse mit 9 Lüftern.
Was bei einer Wasserkühlung völlig schnuppe ist. Die Wärme wird durch den Radiator abgeführ und nicht über die das Gehäusevolummen oder 30 Gehäuselüfter. Es kommt auf die Radiatorefizienz an.
Also ich glaube auch nicht an ein Kühlungsproblem. Man hätte die G5 ja nichtmal so hoch takten müssen um mitzuhalten.
Ganon
2005-07-03, 21:21:54
Also ich glaube auch nicht an ein Kühlungsproblem. Man hätte die G5 ja nichtmal so hoch takten müssen um mitzuhalten.
@Gast
Ich kann mir nicht vorstellen das beim Aufbau XBOX360 100% der CPU-Hitze nach außen geleitet wird.
@Coda
Dann haben wir aber wieder das Marketing-Problem. Wo steht denn M$ mit ner 1,8 Ghz Konsole?
Wie kann man jetzt so schön sagen: "Intel ist an allem Schuld" Die haben mit dem Ghz-Wahn angefangen. *gg* ;)
Welcher Konsolenspieler interessieren denn schon die Hardwarespecs? Im Notfall hätte man halt mit GFlops um sich geworfen :rolleyes:
@Gast
Ich kann mir nicht vorstellen das beim Aufbau XBOX360 100% der CPU-Hitze nach außen geleitet wird.
Ich auch nicht, weil es unmöglich ist. Hat das denn wer behauptet?
Dann haben wir aber wieder das Marketing-Problem. Wo steht denn M$ mit ner 1,8 Ghz Konsole?
Wie kann man jetzt so schön sagen: "Intel ist an allem Schuld" Die haben mit dem Ghz-Wahn angefangen. *gg* ;)
Ach als ob das alles wäre. Im Endeffekt verkauft sich eine Konsole nicht wegen Specs, sondern durch gute Games. Und gute Games brauchen Hardewarepower. Mit Sicherheit haben M$ und Sony nicht gesagt, lasst uns mal Multicore bauen, damit es sich toll anhört, oder hohe Taktzahlen erreichen, damit alle große Augen bekommen. Die Konsolen stellen eine Multimilliardendollargeschäft dar und die beiden Hersteller haben das bestmögliche entwickelt/lizensiert, was zum derzeitigen Zeitpunkt machbar ist, damit auf den Konsolen die bestmöglichen Games möglich werden.
M$ hat mit der CPU evtl. nicht ganz so das Sahneteil, aber was hätten sie anderes machen sollen? Alternativen gab es scheinbar keine und den PC lassen die X360 Games allemal erstmal alt aussehen.
Es wäre auch schlimm wenn das bei der Vorstellung einer neuen Konsole nicht so wäre. Das hat aber nur begrenzt etwas mit der HW an sich zu tun, sondern einfach damit, dass man sich nicht um Backward-Compatibility kümmern muss.
Ein 7800GTX SLi Kombo ist einem RSX jetzt schon überlegen, das gleiche gilt für Xenon und einem A64 X2 4600+.
Es wäre auch schlimm wenn das bei der Vorstellung einer neuen Konsole nicht so wäre. Das hat aber nur begrenzt etwas mit der HW an sich zu tun, sondern einfach damit, dass man sich nicht um Backward-Compatibility kümmern muss.
Ein 7800GTX SLi Kombo ist einem RSX jetzt schon überlegen, das gleiche gilt für Xenon und einem A64 X2 4600+.
Klar, man braucht keine Fallbacks. Aber die Hardware ist auch nicht ohne, weil einfach alles besser zusammenpasst und die Bussysteme wesentlich besser sind.
Und die RSX Specs kenne ich noch garnicht. Kannst Du mir mal sagen wo ich die finde? Außerdem soll der Cell ordentlich mithelfen bie der Grafikberechnung. Von daher haben solche Vergleiche eher was von einer Milchmädchenrechnung, wenn man eine Konsole nicht im Ganzen sieht und nur immer Komponenten ausschlachten will.
RSX dürfte ein G70 Derivat mit 32 Pipelines@90nm sein.
Außerdem soll der Cell ordentlich mithelfen bie der Grafikberechnung.Das kann er höchstens im Vertexbereich oder bei der berechnung dynamischer Texturen.
Natürlich lässt sich das System als ganzen besser ausnützen, aber bei den ersten Konsolenspielen ist das nicht gegeben und der PC-Markt schreitet z.Z. rasend vorran vor allem im Grafiksektor.
Ganon
2005-07-03, 21:55:35
Die Spiele sehen im ersten Moment eigentlich "nur" gut aus, weil mal effektiv HDR eingesetzt wurde und somit die Beleuchtung realistischer aussieht. Das hat weniger was mit der Leistung der CPUs zu tun. Das macht mein G4 1,25 mit Radeon9800 auch.
Es dauert sicherlich nicht mehr lange und erste PC-Spiele bekommen HDR nicht nur durch einen Patch nachgereicht, sondern wurden dafür entwickelt.
Wenn sich das XNA von M$ durchsetzt ist es sowieso egal wo das Spiel läuft. Es wird einmal entwickelt und dann läuft es quasi überall. (OK, jetzt mal etwas übertrieben)
XNA ist soweit ich weiß keine API sondern nur ein Entwicklerprogram.
Die Spiele sehen im ersten Moment eigentlich "nur" gut aus, weil mal effektiv HDR eingesetzt wurde und somit die Beleuchtung realistischer aussieht. Das hat weniger was mit der Leistung der CPUs zu tun. Das macht mein G4 1,25 mit Radeon9800 auch.
Es dauert sicherlich nicht mehr lange und erste PC-Spiele bekommen HDR nicht nur durch einen Patch nachgereicht, sondern wurden dafür entwickelt.
Wenn sich das XNA von M$ durchsetzt ist es sowieso egal wo das Spiel läuft. Es wird einmal entwickelt und dann läuft es quasi überall. (OK, jetzt mal etwas übertrieben)
HDR hat nichts direkt mit der Beleuchtung zu tun. Gute Beleuchtung ist auf dem PC schon lange möglich, nur nutzen es die wenigsten Spiele. Dafür ist per Pixel Lighting und per Pixel Shading zuständig, nicht HDR. HDR gibt dem gerenderten Bild lediglich ein größeren Dynamikraum, womit realistische Blendeffekte möglich sind.
HDR ist eine tolle Sache, aber HDR alleine ist nur einer von vielen Schritten. Massivster Einsatz von Physik, transulence Shader, HDR, etc. in Kombination machen Nextgen aus.
Du überschätzt XNA völlig und Du überschätzt M$ Willen X360 Games "überall" laufen zu lassen. Bei der Xbox1 hat das nicht geklappt und bei der X360 wird das noch viel weniger klappen. M$ ist auf Exklusivtitel angewiesen, denn nur so verkaufen sie ihre X360! Immer die Urban Legend, dass M$ ihre Konsolen Entwicklungsplattformen so baut, damit man auch ja keiner die eigene Konsole kaufen muss. :rolleyes:
Demirug
2005-07-03, 22:23:00
XNA ist soweit ich weiß keine API sondern nur ein Entwicklerprogram.
Ja, wobei es das auch noch nicht ganz trift.
Zu XNA gehören auch die APIs und Tools die mit der Spieleentwicklung zu tun haben. Es wird eine homogenisierung angestrebt aber man ist sich auch bewusst das es keine 100% gleichheit geben kann.
Das merkt man schon an den unterschiedlichen DX Varianten für die XBox, Windows XP und Windows Mobile.
Ganon
2005-07-03, 22:45:39
HDR gibt dem gerenderten Bild lediglich ein größeren Dynamikraum, womit realistische Blendeffekte möglich sind.
Du überschätzt XNA völlig und Du überschätzt M$ Willen X360 Games "überall" laufen zu lassen. Bei der Xbox1 hat das nicht geklappt und bei der X360 wird das noch viel weniger klappen. M$ ist auf Exklusivtitel angewiesen, denn nur so verkaufen sie ihre X360! Immer die Urban Legend, dass M$ ihre Konsolen Entwicklungsplattformen so baut, damit man auch ja keiner die eigene Konsole kaufen muss. :rolleyes:
Mal ne Frage. Warum meldest du dich nicht einfach mal an? Sorry, nicht gegen dich, aber ich hab ne Abneigung gegen "Gäste". Da weiß man nie mit wem man redet...;)
1. Und Blendeffekte haben nichts mit Licht im Level zu tun, oder was? Wenn mich im Spiel ne Lampe anstrahlt (oder helles Tageslicht) und durch HDR sich damit das Sichtbild näher dem "Realismus" kommt (Überblendung, etc.).... Klar. "Beleuchtung" mag das falsche Wort sein, aber HDR macht nunmal einen Großteil davon möglich. Mir ist schon klar das HDR nicht alles macht.
2. Ähm, die letzten Worte meines Kommentars zu XNA hast du nicht zufällig gelesen, oder?
Zitat: "(OK, jetzt mal etwas übertrieben)"
Mir ist schon klar das XNA nicht Java4Games ist. Oder soll ich hinter jedem "etwas übertriebenen" Kommentar gleich 200 ";)" Smilies machen, anstatt mit Text darauf hinzuweisen?
BlackBirdSR
2005-07-03, 23:03:52
Ich habe es nicht nötig mich weiter rechtzufertigen. Entweder du glaubst es oder du lässt es bleiben.
Stehe da vollkommen hinter dir.
Überhaupt bitte ich den lieben netten Herrn Gast, dass er sich etwas zügelt.
1. Und Blendeffekte haben nichts mit Licht im Level zu tun, oder was? Wenn mich im Spiel ne Lampe anstrahlt (oder helles Tageslicht) und durch HDR sich damit das Sichtbild näher dem "Realismus" kommt (Überblendung, etc.).... Klar. "Beleuchtung" mag das falsche Wort sein, aber HDR macht nunmal einen Großteil davon möglich. Mir ist schon klar das HDR nicht alles macht.
HDR ist ne tolle Sache, obwohl echtes HDR noch von keiner erhältlichen Karte beherrscht wird, aber mit Bleuchtung hat es halt nicht direkt etwas zu tun. Wenn Objekte beleuchtet werden ist das eine Sache, mit welchem Dynamikumfang dann das Bild gerendert wird eine andere. Man kann HDR auch toll in ein Spiel einbauen, welches keine dyn. Beleuchtung hat. Ebenso kannst Du ein Spiel machen mit extrem umfangreicher dyn. Beleuchtung, ohne dass HDR verwendet wird. Das eine hat nicht zwingend was mit dem anderem zu tun, auch wenn es in Kombination um so schöner aussehen kann. ... Sorry, dass ich drauf rumreite, aber HDR != Beleuchtung. Du sagst ja auch nicht, dass Beleuchtung = Texturen ist, nur weil man die Bleuchtung "auf" den Texturen erst sieht. ;-)
2. Ähm, die letzten Worte meines Kommentars zu XNA hast du nicht zufällig gelesen, oder?
Zitat: "(OK, jetzt mal etwas übertrieben)"
Doch, habe ich gelesen und habe ich auch als Übertreibung verstanden. Ich geh aber so weit, dass es M$ schnurzpiepegal ist, ob es gute PC Konvertierungen gibt oder gar Portierungen auf andere Konsolen. Primär gibt es XNA, damit man auf der X360 effizient entwickeln kann und nur dafür. Die Nähe zum PC ist einfach nur nicht zu vermeiden, weil M$ so Synergien nutzen kann und somit Geld spart. Dass Portierungen auf den PC vermeintlich leicht sind, ist für M$ ein zweischneidiges mit dem Trend zum krasses Nachteil.
Ailuros
2005-07-04, 03:07:48
RSX dürfte ein G70 Derivat mit 32 Pipelines@90nm sein.
Ich wuerde eher mit 6 quads (mit der kleinen Moeglichkeit einer kleinen Steigerung dieser Anzahl) rechnen.
Gaaasssssttttt
2005-07-04, 08:26:53
Wieso sollte IBM den CELL jetzt so pushen, wenn er ach so schlecht ist? Die Entwicklungskosten waren auch nicht ohne um das ganze jetzt als billig Power5 abzustempeln. Überhaupt will IBM in ihrem nächsten Power Modell ebenfalls wieder auf in-order setzen, von daher ist CELL nur eine logische weiterentwicklung (Und im übrigen haben die dinger keine lange, sondern eine sehr kurze Pipeline!).
Die Teile werden verdammt schnell sein, wenn man sie nur richtig füttert, schon alleine wegen den Latenzen. Dass darauf uralt x86 Code nur "suboptimal" laufen wird ist auch klar, intressiert aber eigentlich auch niemanden
.
Und die Argumentation dass das alles nur wegen den "Zahlen" gemacht wurde ist auch ziemlich daneben. Mit einem 3.2 Ghz Prozessor kann man doch heutzutage niemanden mehr beeindrucken, ist ja schon lange standard. Und Otto-Normal-Konsolenspieler kann mit 3 oder gar 9 Cores sowieso nichts anfangen.
BlackBirdSR
2005-07-04, 08:40:06
Wieso sollte IBM den CELL jetzt so pushen, wenn er ach so schlecht ist?
Ich glaube nicht, dass jemand meint, Cell wäre schlecht. Das hat wohl niemand in den Mund genommen.
Er ist vielleicht nicht die optimale MPU für eine Konsole.
Warum Sony dann überhaupt soetwas einsetzt und IBM soetwas überhaupt baut? Muss muss eben auch über den Tellerrand blicken können.
Cell wurde nicht speziell entwickelt um in die PS3 eingebaut zu werden.
Die Entwicklungskosten waren auch nicht ohne um das ganze jetzt als billig Power5 abzustempeln. Überhaupt will IBM in ihrem nächsten Power Modell ebenfalls wieder auf in-order setzen, von daher ist CELL nur eine logische weiterentwicklung (Und im übrigen haben die dinger keine lange, sondern eine sehr kurze Pipeline!).
Kannst du mir bitte die Infos zeigen, woe Power 6 als in Order beschrieben wird? Vielleicht ist es so, wäre interessant. Aber dazu habe ich noch nichts gelesen.
21 Stufen im PPE würde ich übrigens nicht als "sehr kurz" bezeichnen.
Die Teile werden verdammt schnell sein, wenn man sie nur richtig füttert, schon alleine wegen den Latenzen. Dass darauf uralt x86 Code nur "suboptimal" laufen wird ist auch klar, intressiert aber eigentlich auch niemanden
Ich fürchte eben wegen der Latenzen wird es Probleme geben, wann immer die Zugriffsmuster zufällig werden und von typischen Streamingegeinschaften abweichen.
x86 Code läuft überhaupt nicht auf Cells, und das hat auch niemand gemeint.
Geo72
2005-07-04, 10:59:47
Und die RSX Specs kenne ich noch garnicht. Kannst Du mir mal sagen wo ich die finde?
Guckst du hier:
http://www.hardspell.com/hard/showcont.asp?news_id=14372&pageid=3105
gruntzmaker
2005-07-04, 11:28:02
Naja. Bei der EE wollte Sony einfach ne CPU die man halbwegs als 128bit-CPU verkaufen kann.
2 64bit Recheneinheiten die man zusammenschalten kann und damit ne 128bit SIMD (4x32bit im CPU-Kern) hat. Anbei dann noch 2 128bit VectorUnits.
Das muss man erst mal mit Daten füttern. Im schlimmsten Fall hat man halt nur eine 64bit CPU mit knapp 300Mhz und wenig Speicher. Im besten Fall Arbeitet man als komplette SIMD + 2xVU.
Sicherlich kann man das so auslasten, aber ich frage mich nur eines:
Will ich eine Konsole die mir gute Grafik sofort bietet, oder will ich ne Konsole wo ich sage "In 5 Jahren wird die Grafik genial sein".
Als Beispiel mal den GameCube. Der wurde von Factor5 innerhalb von 6 Monaten teilweise schon ausgereizt (Rogue Leader). Später kam dann noch ne aufgemotzte Version (Rebel Strike) mit noch besserer Grafik und 2Spieler Modus. Genau dieses Spiel kann man selbst heute noch als "Spiel mit sehr guter Grafik" bezeichnen. Zumindest bin ich von RebelStrike heute noch beeindruckt. Sicherlich ist es nicht perfekt.
Hätte Factor5 mehr Zeit gehabt wäre RebelStrike schon ein Release-Titel gewesen.
Wäre das "schade" gewesen? Wäre es schlimm, wenn das Konsolen-Maximum schon kurz nach Release sieht und später noch ein paar Tweaks folgen?
Ich denke mal nicht, weil dann bräuchten sich Entwickler nicht mit der Hardware rumplagen, sondern könnten mal das machen was sie eigentlich sollen -> gute Spiele entwickeln.
Wenn aber ein Großteil der Zeit an der "optimalen Engine" drauf geht...
Naja. Wird wohl dieses mal wieder nichts.
Das sehe ich zu 100% genauso, in der Richtung war/ist das Gamecube der Ps2 einfach meilenweit überlegen (technisch ja sowieso).
Ich glaube nicht, dass jemand meint, Cell wäre schlecht. Das hat wohl niemand in den Mund genommen.
Naja mal abgesehen davon, dass er langsamer sein soll als ein Athlon X2 mit einer 3,2 Ghz Taktung :rolleyes: .
Nachtrag :
Wenn ich mir so die Specs des RSX angucke, fällt nur auf dass die Taktraten höher sind als bei nem G70, also mal angenommen ne PS3 kostet in Japan gegen Jahresende etwa 300-400€ dann muss ich sagen, ja mehr ist nen G70 auf keinen Fall wert und wir reden ja hier von der höhergetakteten Version ;).
Stimmt also in der Tat man bekommt bei ner Konsole noch genau das, wofür man bezahlt hat, "You get what you pay" stimmt eben hier noch, aber eben nicht mehr für den PC-Markt.
ShadowXX
2005-07-04, 11:42:18
Naja mal abgesehen davon, dass er langsamer sein soll als ein Athlon X2 mit einer 3,2 Ghz Taktung :rolleyes: .
Ausserhalb des Anwendungsgebietes, welches den SPEs des Cell liegt, ist dieses auch so.....
Bei allen Streaminganwendungen, wird der Cell selbst einen A64 X2 mit 4GHz vernaschen....aber in dem Moment wo Code kommt, der nicht mehr Streamingfähig ist (z.B. Logikcode), ist der Cell relativ langsam. Auf solchen Code ist das PPC-Derivat des Cell nicht ausgelegt bzw. nicht wirklich super dafür geeignet.
Das Problem dabei ist nun aber, das gerade Gamecode zu hohen Anteilen (also die Gamemechanik ansich, die weniger mit dem Grafischen bzw. Soundtechnischen Schnickschnack zu tun hat) aus genau solchen, kaum Streamingfähigen, Code besteht.
Ich bin mir auch noch nicht wirklich darüber im klaren, wie mit den SPEs KI-Code abgearbeitet werden soll....es gibt ja welche, die meinen, das sowas gehen soll.
Bild- ,Textur- , Vertex- und Sound(nach)bearbeitung und wohl auch noch Physik sollte der Cell sehr gut wuppen....beim rest siehts dann eher mau aus.
Ich sehe aber auch eher die Gefahr für Sony darin, das nur Exclusivtitel richtig gut auf der PS3 laufen werden, da nur diese den Cell wirklich ausnutzen werden können....bei allen Cross-Plattform-Titeln, sehe ich es wirklich so kommen, das dort, genau wie jetzt schon, die PS3 (meistens) das Schlusslicht bilden wird.
ShadowXX
2005-07-04, 11:50:55
Nachtrag :
Wenn ich mir so die Specs des RSX angucke, fällt nur auf dass die Taktraten höher sind als bei nem G70, also mal angenommen ne PS3 kostet in Japan gegen Jahresende etwa 300-400€ dann muss ich sagen, ja mehr ist nen G70 auf keinen Fall wert und wir reden ja hier von der höhergetakteten Version ;).
Stimmt also in der Tat man bekommt bei ner Konsole noch genau das, wofür man bezahlt hat, "You get what you pay" stimmt eben hier noch, aber eben nicht mehr für den PC-Markt.
Du vergisst hierbei ein paar sachen:
a.) Sony subventioniert die PS3 kräftigst
b.) Sony produziert die Grafikschips in Eigenregie, nur die IP ist von nV lizensiert, dadurch fallen schmal die theoretischen Margen für nV weg.
c.) Der RSX wird schon in 90nm Produziert (billiger als 110nm)
d.) Bei den PC-Preisen sind die Preise für High-End immer etwas überzogen (mit abstand die größten Margen)....und da wollen ja auch viel mehr Leute noch mitverdienen (nV, der Grakahersteller, die Zwischen und Endhändler)
e.) Das Ram auf den PC-Grakas ist auch nicht umsonst
Geo72
2005-07-04, 11:58:47
Wenn ich mir so die Specs des RSX angucke, fällt nur auf dass die Taktraten höher sind als bei nem G70, also mal angenommen ne PS3 kostet in Japan gegen Jahresende etwa 300-400€ dann muss ich sagen, ja mehr ist nen G70 auf keinen Fall wert und wir reden ja hier von der höhergetakteten Version ;).
Stimmt also in der Tat man bekommt bei ner Konsole noch genau das, wofür man bezahlt hat, "You get what you pay" stimmt eben hier noch, aber eben nicht mehr für den PC-Markt.
gegen Jahresende? Sony selbst spricht vom Frühjahr 2006 und bis das Teil in Europa zu haben ist, steht
dann sicher schon der Nachfolger des G70 in den Startlöchern. Bis dahin wird sich der Preis für den G70
auch halbiert haben.
Falls die specs wirklich stimmen, wäre das auch ziemlich enttäuschend angesichts der vollmundigen
Ankündigungen von Sony, hinsichtlich grafischer Möglichkeiten die dem PC weit überlegen sind.
gruntzmaker
2005-07-04, 12:10:59
gegen Jahresende? Sony selbst spricht vom Frühjahr 2006 und bis das Teil in Europa zu haben ist, steht
dann sicher schon der Nachfolger des G70 in den Startlöchern. Bis dahin wird sich der Preis für den G70
auch halbiert haben.
Falls die specs wirklich stimmen wäre das auch ziemlich enttäuschend angesichts der vollmundigen
Ankündigungen von Sony, hinsichtlich grafischer Möglichkeiten die dem PC weit überlegen sind.
Sorry, hatte vergessen Japan hinzuschreiben ;)
Mag ja sein, dass das zumindest für den Eu-Release gilt, aber man kann jetzt schon erwarten, wie das mit der Ausreizung der Karten verlaufen wird, G70 wird noch recht gut ausgereizt, aber ab dann wird sich wieder nix tun, daher wird dann der RSX wesntlich länger im Konsolenbereich up to date bleiben als der G70 auf dem PC-Markt.
reunion
2005-07-04, 12:41:30
Aus dem gleichen Grund aus dem AMD versucht mit X86(-64) alles abzudecken. Synergien. In je mehr Systemen Sony Cell benutzt desto mehr Kapital können sie in diese Platform investieren.
Bei allen Respekt, aber deshalb verschleudert man Millionen von US$?
Als Ausenstehender wirkt das auf mich fast schon dämlich.
Und warum tut sich dann M$ das an?
Die sind ja nicht an ein derartiges "Projekt" gebunden.
reunion
2005-07-04, 12:58:48
Ich kann die Frage gerne wiederholen: warum keinen vollwertigen PPC970, sondern stattdessen solche In-Order-Dinger mit maximal 2 Ops/Takt?
Warum nicht gleich einen - wenn man den Aussagen hier glauben kann - mehr als konkurrenzfähigen, und viel billigeren AMD- oder Intelprozessor?
BlackBirdSR
2005-07-04, 13:15:30
Warum nicht gleich einen - wenn man den Aussagen hier glauben kann - mehr als konkurrenzfähigen, und viel billigeren AMD- oder Intelprozessor?
Das gab es bereits.
Aber nochmal:
AMD und Intel würden wohl kaum Lizenzen ihrer CPUs an Microsoft oder Sony herrausgeben. Auch nicht an IBM.
Gerade Microsoft scheint jedoch sehr darauf bedacht, kritische Komponenten selbst zu fertigen. Das läuft ja bei ATIs R500 nicht anders. Nur das Design kommt von ATI.
Für den Rest ist Microsoft weitgehend alleine verantwortlich.
Nehmen wir trotzdem einmal an, AMD würde Microsoft eine Linzenz für einen DualCore K8 mit 512KB L2 Cache zugestehen.
Microsoft müsste eine Chipschmiede finden, die 90nm SOI fertigen kann. Selbst dann gäbe es wahrscheinlich ordentlich Probleme mit der Fertigung. Immerhin ist AMDs Prozess explizit auf den K8 abgestimmt. Man müsste wohl zu IBM. Und selbst dort maße ich mir an zu behaupten, dass Verlustleistungs und Taktcharakteristika des IBM K8 schlechter wären als bei AMD selbst.
AMD müsste Zeit und Leute in eine Optimierung investieren, und eventuell müsste man die CPU ja auch noch etwas an die neue Konsolenumgebung anpassen. Zeit/Geld und Leute die man nicht hat.
Nehmen wir an, Intel vergibt Microsoft eine Lizenz. Wird es ein P4?
Den will Microsoft sicherlich nicht haben. Also ein DualCore Yonah.
Intel würde sich das eventuell ordentlich kosten lassen, bzw eventuell Microsoft einige Kompromisse andrehen.
Wo fertigen wir nun die DualCore CPU mit wenig Verbrauch, ganz eigenem Fertigungsprozess und all den Intel Tricks?
Bei Intel? Das wollen wir ja nicht. Wer kauft ein Design und fertigt dieses dann beim Verkäufer?
Bei IBM? keine Chance, und Intel hat wohl keine Lust IBM zu helfen, den Prozess auf einen fiktiven IBM Yonah anzupassen?!?
Wo sonst?
Das ist meine Sicht der Sache.
Argumente? Meinungen?
Ich glaube nicht, dass jemand meint, Cell wäre schlecht. Das hat wohl niemand in den Mund genommen.
Er ist vielleicht nicht die optimale MPU für eine Konsole.
Warum Sony dann überhaupt soetwas einsetzt und IBM soetwas überhaupt baut? Muss muss eben auch über den Tellerrand blicken können.
Cell wurde nicht speziell entwickelt um in die PS3 eingebaut zu werden.
Sony als Hauptinvestor zahlt hunderte von Millionen für den Cell als PS3 Prozessor und dann soll er suboptimal für eine Konsole sein?!? Siehst Du, genau dass glaube ich einfach nicht. Ich glaube schlicht die Mehrheit der X86 Freaks blicken schlicht nicht wie das funktionieren soll, weil sie nicht über ihren Tellerrand hinaus blicken wollen.
Sony hat das Cellkonzept primär in Hinsicht auf die PS3 entwickelt als Hauptinvestor und der Cell ist technisch gesehen auch ganz klar ein Nachfolger der EmotionEngine. Nur weil man "Mini"-Versionen des Cell auch in HDTV Geräten verbauen kann, ist es doch Unsinn zu sagen, dass die Milliarden Investition für eine Konsole suboptimal ist. Sony hat ein ein ganz klares Konzept mit Cell für die PS3 verfolgt und die PS2 beweißt (bis auf das schlechte Filtering des GS), dass dieses Konzept sehr leitungsstark ist.
Einige Entwickler mögen meckern, weil ihnen die Umstellung nicht gefällt, bitte sollen sie meckern oder kündigen, wenn ihnen der Job kein Spaß macht. Ob der Cell eine gute CPU für die PS3 ist, werden wir an hochoptimierter Software sehen und was diese leistet. Dass der Cell nicht alles kann und keine eierlegende Wollmilchsau ist, sollte klar sein, dass der Cell nicht optimal für eine Konsole ist, halte ich für falsch.
Ich sehe aber auch eher die Gefahr für Sony darin, das nur Exclusivtitel richtig gut auf der PS3 laufen werden, da nur diese den Cell wirklich ausnutzen werden können....bei allen Cross-Plattform-Titeln, sehe ich es wirklich so kommen, das dort, genau wie jetzt schon, die PS3 (meistens) das Schlusslicht bilden wird.
Wieso das? Denk doch mal nach. Wenn es wirklich billige, nicht angepasste Multiplattformtitel geben wird, dann werden diese schlicht nur nur einen PPU-Core nutzen, ob bei Sony, X360 oder Nintendo Revolution. Und wo wären wir da? Genau, wir hätten ungefähr die gleiche CPU Leistung für alle.
Und dieses Szeneario ist im übrigen sowieso Unsinn, denn M$, Sony und Nintendo bieten scheinbar recht gut Entwicklungsplattformen an, die große Teile des Gamecodes auf die einzelnen Cores verteilen. Das ist und muss ein Anliegen für die Konsolenhersteller sein, damit man sich auch bei der Massenware qualitätiv abheben kann. Das man das von Hand besser machen werden kann, ist klar, aber genau da trennt sich die Spreu vom Weizen - auf jeder Plattform zuvor, ob PS2, PC, Xbox, etc, gab es Entwickler, die wirklich guten Gamecode gezaubert haben und andere, die das nicht konnten und 08/15 Spiele machen.
Sony, M$ und Big N legen
denn M$, Sony und Nintendo bieten scheinbar recht gut Entwicklungsplattformen an, die große Teile des Gamecodes auf die einzelnen Cores verteilen.
Beim Cell muss man momentan sogar noch mit 2 verschiedenen Compiler arbeiten. Nix da mit automatisch verteilen...
Das gab es bereits.
Aber nochmal:
AMD und Intel würden wohl kaum Lizenzen ihrer CPUs an Microsoft oder Sony herrausgeben. Auch nicht an IBM.
Gerade Microsoft scheint jedoch sehr darauf bedacht, kritische Komponenten selbst zu fertigen. Das läuft ja bei ATIs R500 nicht anders. Nur das Design kommt von ATI.
Für den Rest ist Microsoft weitgehend alleine verantwortlich.
Nehmen wir trotzdem einmal an, AMD würde Microsoft eine Linzenz für einen DualCore K8 mit 512KB L2 Cache zugestehen.
Microsoft müsste eine Chipschmiede finden, die 90nm SOI fertigen kann. Selbst dann gäbe es wahrscheinlich ordentlich Probleme mit der Fertigung. Immerhin ist AMDs Prozess explizit auf den K8 abgestimmt. Man müsste wohl zu IBM. Und selbst dort maße ich mir an zu behaupten, dass Verlustleistungs und Taktcharakteristika des IBM K8 schlechter wären als bei AMD selbst.
AMD müsste Zeit und Leute in eine Optimierung investieren, und eventuell müsste man die CPU ja auch noch etwas an die neue Konsolenumgebung anpassen. Zeit/Geld und Leute die man nicht hat.
Nehmen wir an, Intel vergibt Microsoft eine Lizenz. Wird es ein P4?
Den will Microsoft sicherlich nicht haben. Also ein DualCore Yonah.
Intel würde sich das eventuell ordentlich kosten lassen, bzw eventuell Microsoft einige Kompromisse andrehen.
Wo fertigen wir nun die DualCore CPU mit wenig Verbrauch, ganz eigenem Fertigungsprozess und all den Intel Tricks?
Bei Intel? Das wollen wir ja nicht. Wer kauft ein Design und fertigt dieses dann beim Verkäufer?
Bei IBM? keine Chance, und Intel hat wohl keine Lust IBM zu helfen, den Prozess auf einen fiktiven IBM Yonah anzupassen?!?
Wo sonst?
Das ist meine Sicht der Sache.
Argumente? Meinungen?
Wenn die Aussagen von Anan stimmen würden, dann wäre ein Celeron mit 1,4Ghz leistungsfähiger. Und so eine CPU, like Duron 1800+ oder so, hätte M$ sicherlich viel günstiger einkaufen können, als die jetzige Lösung.
ShadowXX
2005-07-04, 14:27:16
Wieso das? Denk doch mal nach. Wenn es wirklich billige, nicht angepasste Multiplattformtitel geben wird, dann werden diese schlicht nur nur einen PPU-Core nutzen, ob bei Sony, X360 oder Nintendo Revolution. Und wo wären wir da? Genau, wir hätten ungefähr die gleiche CPU Leistung für alle.
Ok...ist durchaus ein Argument.
Und dieses Szeneario ist im übrigen sowieso Unsinn, denn M$, Sony und Nintendo bieten scheinbar recht gut Entwicklungsplattformen an, die große Teile des Gamecodes auf die einzelnen Cores verteilen. Das ist und muss ein Anliegen für die Konsolenhersteller sein, damit man sich auch bei der Massenware qualitätiv abheben kann. Das man das von Hand besser machen werden kann, ist klar, aber genau da trennt sich die Spreu vom Weizen - auf jeder Plattform zuvor, ob PS2, PC, Xbox, etc, gab es Entwickler, die wirklich guten Gamecode gezaubert haben und andere, die das nicht konnten und 08/15 Spiele machen.
Man wird sehen was die Entwickler und die Compiler denn im Endeffekt daraus machen.....wobei ich glaube, das es erst in 1-2 Jahren nach dem Launch der jeweiligen Konsole Titel geben wird die diese wirklich ausnutzen.
Ein weiteres Problem wird allerdings sein, das immer weniger Progger lust haben Hardwarenah auf den Konsolen zu Programmieren (gerade durch die enorme Komplexität der Konsolen)....so eine Ausnutzung der HW wie jetzt bei der PS2 werden wir wohl erst sehr viel später zu sehen bekommen als bei den jetzigen Konsolen.
Ich persönlich halte den Cell für eine interesannte CPU, aber auch ich glaube nicht, das er das NonPlusUltra für eine Konsole darstellt. Da wurden IMHO viele Kompromisse eingegangen und ich glaube auch, das als die Entwicklung des Cell gestartet wurde, sich Sony den aufbau der PS3 entwas anders vorgestellt hat.
(AFAIK hies es zum Beispiel mal, das eigentlich 3 Cell in einer PS3 stecken sollten....ich glaube, das Sony zuerst davon ausging, die Grafikausgabe nur über den Cell laufen lassen zu können und dafür nicht extra noch eine GPU brauchen....)
Und das Sony sich auch hinsichtlich der PS2 "missverstanden" fühlt, sollte bekannt sein.....vielleicht hat Sony ja wirklich irgendwie ein anderes Konzept, wie man die PS3 Programmieren soll. Nur bringt das nichts, wenn es keiner so macht, weil die Devs eben anderer Meinung sind.....
ShadowXX
2005-07-04, 14:30:43
Wenn die Aussagen von Anan stimmen würden, dann wäre ein Celeron mit 1,4Ghz leistungsfähiger. Und so eine CPU, like Duron 1800+ oder so, hätte M$ sicherlich viel günstiger einkaufen können, als die jetzige Lösung.
MS will aber selbst produzieren.....und weder Intel noch AMD würde ihre Designs freiwillig für sowas rausrücken.
MS ist einmal mit solchen "Kaufdeals" auf die Nase gefallen, Sie wollen nicht, das ihnen sowas noch mal passiert.
Ich glaube bei nV lachen Sie sich immer noch darüber schlapp, das MS damals den Vertrag zu diesen Konditionen unterschrieben hat.
Und auch Intel konnte so sehr gut "wertlosen" Schrott loswerden....
Beim Cell muss man momentan sogar noch mit 2 verschiedenen Compiler arbeiten. Nix da mit automatisch verteilen...
Woher?
Aber angenommen der Maincode läuft auf der PPU und Middelware, z.B. in Form von Havoks Physikengine für Cell, läuft auf den SPEs und einige SPEs werkeln noch an der Grafik und Sound mit, dann hätte man schonmal alle Einheiten des Cells ausgelastet. Und ich möchte nicht wissen wie schon so eine einfache Methode reinhauen wird.
Wer mehr haben will muss halt auf weiterentwickelte Dev.-Tools warten, oder aber in die Entwicklung investieren. Konami, Capcom, Squaresoft und viele andere mehr zeigen, dass auch 3rd Party Entwickler hochoptimierte Spiele produzieren können. Auf dem PC sind doch sauber gecodete Spiele (trotz einfachst zu programmierender Hardware) noch viel seltender, weil es einfach kaum vernünftige Entwickler gibt.
BlackBirdSR
2005-07-04, 14:47:35
Sony als Hauptinvestor zahlt hunderte von Millionen für den Cell als PS3 Prozessor und dann soll er suboptimal für eine Konsole sein?!? Siehst Du, genau dass glaube ich einfach nicht. Ich glaube schlicht die Mehrheit der X86 Freaks blicken schlicht nicht wie das funktionieren soll, weil sie nicht über ihren Tellerrand hinaus blicken wollen.
Und damit haben sie sich disqualifiziert.
Dieses "Argument" hast du schon x-mal gebracht, ohne damit irgendwas Genaues zu sagen.
Und die Sache mit den x86 Freaks bringt dich dann endgültig ans Ende der DIskussion mit mir. Viel Spass noch im Forum.
Woher?
Power.org Konferenz in Barcelona
IBM arbeitet zwar an einem gemeinsamen Compiler für PPU und SPE, aber da scheinen sie erst in einem Anfangsstadium zu sein....
Momentan ähnelt die Programmierung mehr der eines Clusters, bei dem es noch verschiedene Prozessorarchitekturen gibt. Dafür gibts dann ne schöne API zu Kommunikation.
Aber angenommen der Maincode läuft auf der PPU und Middelware, z.B. in Form von Havoks Physikengine für Cell, läuft auf den SPEs und einige SPEs werkeln noch an der Grafik und Sound mit, dann hätte man schonmal alle Einheiten des Cells ausgelastet. Und ich möchte nicht wissen wie schon so eine einfache Methode reinhauen wird.
Das ist wohl die einzige praktikable Lösung.
Ändert aber nichts daran, dass bestimmte Teile des Codes nicht aufgeteilt werden können und auch weder PPU noch SPE schmecken.
-> Bottleneck
Imo wäre es dem Cell für die PS3 besser bekommen, einen besseren Kern als PPU zu verbauen und dafür die Hälfte der SPEs zu opfern.
Allerdings liegt da wohl ein Interessenskonflikt zwischen den beteiligten Firmen und den Anwendungszwecken vor.
Klar kann man verschiedene Versionen bauen, aber scheinbar will man die erste Version schonmal für viele verschiedene Zwecke verwenden. Wird ja dank Massenfertigung für PS3 auch schön günstig...
Man wird sehen was die Entwickler und die Compiler denn im Endeffekt daraus machen.....wobei ich glaube, das es erst in 1-2 Jahren nach dem Launch der jeweiligen Konsole Titel geben wird die diese wirklich ausnutzen.
Das hoffe ich doch, denn Gamecode und passende Contentideen zu entwickeln, ist ein kreativer Prozess und der kostet immer Zeit. :)
Ein weiteres Problem wird allerdings sein, das immer weniger Progger lust haben Hardwarenah auf den Konsolen zu Programmieren (gerade durch die enorme Komplexität der Konsolen)....so eine Ausnutzung der HW wie jetzt bei der PS2 werden wir wohl erst sehr viel später zu sehen bekommen als bei den jetzigen Konsolen.
Mag sein, dass einige darauf keine Lust haben. Aber das kratzt mich ehrlich gesagt nicht. Schau dir mal die Qualität bei PC Spielen an, bis auf ganz wenige Ausnahmen, die ich an einer Hand abzählen kann, erscheint nur schlampig entwickeltes Zeug, obwohl der PC sooo leicht zu proggen sein soll.
Woran liegt das? Einmal an Unfähigkeit, an Faulheit und zum anderem daran, dass der PC wohl die am schwersten zu programmierende Plattform darstellt durch die vielen möglichen Hardwarekombinationen auf die man achten muss. Und echte Innivation, wie z.B. die UE3, kommt ohnehin nur alle paar Jahre mal.
Da ist es auf einer Konsole doch viel leichter. Man entwickelt Code und kann dann auf Jahre auf diesen Code aufbauen, weil die Hardware stabil bleibt. Hinzu kommen die großen Einnahmen bei Konsolen, die höhere Entwicklungskosten ohnehin wett machen würden. Da wundert es mich immer, dass gerade PC Liebhaber über die PS2 und PS3 ablästern, weil die Entwicklung so schwer sein soll, obwohl ihre Plattform, der PC, die für Entwickler unattraktivste und konfuste Plattform darstellt, weil sie sich ständig verändert und es viel Spevialcases gibt, bis hin zu Fallb acks für alte Hardware.
Jetzt ratet doch mal wieso die Masse der besten Entwickler für Konsolen entwickeln? ;)
Ich persönlich halte den Cell für eine interesannte CPU, aber auch ich glaube nicht, das er das NonPlusUltra für eine Konsole darstellt. Da wurden IMHO viele Kompromisse eingegangen und ich glaube auch, das als die Entwicklung des Cell gestartet wurde, sich Sony den aufbau der PS3 entwas anders vorgestellt hat.
(AFAIK hies es zum Beispiel mal, das eigentlich 3 Cell in einer PS3 stecken sollten....ich glaube, das Sony zuerst davon ausging, die Grafikausgabe nur über den Cell laufen lassen zu können und dafür nicht extra noch eine GPU brauchen....)
Sony hatte vor einen Cell als CPU zu benutzen und einen Cell in modifzierter Form als GPU. Als GPU wäre der Schritt zu früh gewesen und nun hat man eine klassische GPU drin, die mit dem Cell sehr intelligent und mit 33GB/s zusammenarbeiten kann und direkt auf die SPEs zugreifen kann. Wo ist das Problem? Der Aufbau sicherlich nicht, nur weil man Cell (noch) nicht alleine als GPu verwendet, wobei Cells Architektur sicherlich eine GPU der Zukunft ist, wenn die Leistung für Nurbs und Co. als Standard reicht.
Und das Sony sich auch hinsichtlich der PS2 "missverstanden" fühlt, sollte bekannt sein.....vielleicht hat Sony ja wirklich irgendwie ein anderes Konzept, wie man die PS3 Programmieren soll. Nur bringt das nichts, wenn es keiner so macht, weil die Devs eben anderer Meinung sind.....
Wir werden sehen. Du spekulierst auf etwas, was ich anders sehe. Imho werden alle wichtigen Devs von Sony die richtige Unterstützung erfahren entsprechende Games zu entwickeln. Wie Du daruf kommst, dass keiner der Devs, die die Unterstützung Sonys genießen, Sonys Empfehlungen folgen, musst Du mir aber noch erklären.
Was wir momentan lesen, von irgendwelchen Mr.X Devs, ist doch sowieso eine Schlammschlacht des Marketings. Ich möchte nicht wissen wieviel M$ und Sony zahlen, damit diverse Leute der Szene über die Hardware des anderen herziehen oder die eigene Hardware loben, was gerade passiert. Auf sowas sollte man zur Zeit garnichts geben.
MS will aber selbst produzieren.....und weder Intel noch AMD würde ihre Designs freiwillig für sowas rausrücken.
MS ist einmal mit solchen "Kaufdeals" auf die Nase gefallen, Sie wollen nicht, das ihnen sowas noch mal passiert.
Ich glaube bei nV lachen Sie sich immer noch darüber schlapp, das MS damals den Vertrag zu diesen Konditionen unterschrieben hat.
Und auch Intel konnte so sehr gut "wertlosen" Schrott loswerden....
Ja, da hast Du natürlich Recht. Aber mienst DU nicht, die hätten wenigstens für einen Duron 1800+ eine Lizenz bekommen können? Immerhin ist das Ding Abfall für AMD. Ich würde eher darauf tippen, dass die X360 CPU erheblich schneller ist, als ein Celeron mit 1400Mhz.
Und damit haben sie sich disqualifiziert.
Dieses "Argument" hast du schon x-mal gebracht, ohne damit irgendwas Genaues zu sagen.
Und die Sache mit den x86 Freaks bringt dich dann endgültig ans Ende der DIskussion mit mir. Viel Spass noch im Forum.
Entschuldige falls Du dich angesprochen fühlst. Ich habe dich garnicht gemeint, aber scheinbar hast Du dich darin wiedererkannt oder wieso die Aufregung.
Power.org Konferenz in Barcelona
IBM arbeitet zwar an einem gemeinsamen Compiler für PPU und SPE, aber da scheinen sie erst in einem Anfangsstadium zu sein....
Momentan ähnelt die Programmierung mehr der eines Clusters, bei dem es noch verschiedene Prozessorarchitekturen gibt. Dafür gibts dann ne schöne API zu Kommunikation.
Interessant. Werde ich gleich mal rumstöbern.
Das ist wohl die einzige praktikable Lösung.
Ändert aber nichts daran, dass bestimmte Teile des Codes nicht aufgeteilt werden können und auch weder PPU noch SPE schmecken.
-> Bottleneck
Klar gibt es Code, den man ATM nicht paralellisieren kann. Mal gucken was da in der Zukunft möglich ist - Ansätze gibts da ja schon.
Und welche Codes könnten denn bitte weder PPU noch SPE schmecken?
Imo wäre es dem Cell für die PS3 besser bekommen, einen besseren Kern als PPU zu verbauen und dafür die Hälfte der SPEs zu opfern.
Allerdings liegt da wohl ein Interessenskonflikt zwischen den beteiligten Firmen und den Anwendungszwecken vor.
Klar kann man verschiedene Versionen bauen, aber scheinbar will man die erste Version schonmal für viele verschiedene Zwecke verwenden. Wird ja dank Massenfertigung für PS3 auch schön günstig...
Eigentlich waren ja zwei PPU Kerne geplant, von denen man jetzt einen weglassen musste. Einen Interessenkonflikt bei den PPUs sehe ich nicht, weil es ja ohnehin viel verschiedene Spezifikationen für den Cell gibt. Der PS3 Cell ist ja auf Sony Mist gewachsen, die eigentliche Cooperation belief sich ja nicht auf die PS3 CPU, sondern auf das Cell Konzept als solches. Wieviel SPEs oder PPUs man dann auf Silizium ätzt ist ja nicht fix.
ShadowXX
2005-07-04, 15:26:19
Ja, da hast Du natürlich Recht. Aber mienst DU nicht, die hätten wenigstens für einen Duron 1800+ eine Lizenz bekommen können? Immerhin ist das Ding Abfall für AMD. Ich würde eher darauf tippen, dass die X360 CPU erheblich schneller ist, als ein Celeron mit 1400Mhz.
Wir sollten uns nicht zusehr auf das mit dem "...wie ein Celeron mit 1400MHz..." versteifen.
Ich glaube das das eher als Umschreibung des Problems, welches die/der Dev(s) sehen, angesehen werden sollte.
Man sollte auch den Preisfaktor nicht unterschätzen....ich glaube das diese 3 Core Cpus relativ klein und sehr billig zu Produzieren sind. Und IBM wird Sie ausserdem wohl auch sehr billig angeboten haben, da Sie sehr wahrscheinlich ein Abfallprodukt der Cell-Entwicklung sind.
Und das AMD ungern das K7 Design rausgibt kann ich durchaus verstehen....(Design ist Design...unabhängig von den Taktfrquenzen).
Power.org Konferenz in Barcelona
IBM arbeitet zwar an einem gemeinsamen Compiler für PPU und SPE, aber da scheinen sie erst in einem Anfangsstadium zu sein....
Momentan ähnelt die Programmierung mehr der eines Clusters, bei dem es noch verschiedene Prozessorarchitekturen gibt. Dafür gibts dann ne schöne API zu Kommunikation.
Ok, habe ich jetzt mal geguckt. Interessant ist das ganze schon, aber hat nicht zwingend was mit den Sony Compilern und Dev.Tools für die PS3 zu tun.
Klar gibt es Code, den man ATM nicht paralellisieren kann. Mal gucken was da in der Zukunft möglich ist - Ansätze gibts da ja schon.
Und welche Codes könnten denn bitte weder PPU noch SPE schmecken?
Alles was einem In-Order oder Streamingprozessor nicht gut bekommt.
Dadrüber wurde ja schon genug beschrieben.
Eigentlich waren ja zwei PPU Kerne geplant, von denen man jetzt einen weglassen musste. Einen Interessenkonflikt bei den PPUs sehe ich nicht, weil es ja ohnehin viel verschiedene Spezifikationen für den Cell gibt. Der PS3 Cell ist ja auf Sony Mist gewachsen, die eigentliche Cooperation belief sich ja nicht auf die PS3 CPU, sondern auf das Cell Konzept als solches. Wieviel SPEs oder PPUs man dann auf Silizium ätzt ist ja nicht fix.
Es ist aber wahrscheinlich billiger einen Chip von PS3 Halde zu nehmen, als jetzt einen etwas kleineren mit weniger SPEs (oder sonstigen Änderungen) in niedrigen Stückzahlen zu produzieren. Deswegen machts imo bei einem solchen Massenprodukt Sinn alle angrenzenden Bereiche mit abzudecken.
Interessant ist das ganze schon, aber hat nicht zwingend was mit den Sony Compilern und Dev.Tools für die PS3 zu tun.
Du glaubst doch nicht ernsthaft, dass Sony noch zusätzlich einen eigenen Compiler schreibt, anstatt das den Experten von IBM zu überlassen?
reunion
2005-07-04, 15:29:17
Das gab es bereits.
Aber nochmal:
AMD und Intel würden wohl kaum Lizenzen ihrer CPUs an Microsoft oder Sony herrausgeben. Auch nicht an IBM.
Gerade Microsoft scheint jedoch sehr darauf bedacht, kritische Komponenten selbst zu fertigen. Das läuft ja bei ATIs R500 nicht anders. Nur das Design kommt von ATI.
Für den Rest ist Microsoft weitgehend alleine verantwortlich.
Nehmen wir trotzdem einmal an, AMD würde Microsoft eine Linzenz für einen DualCore K8 mit 512KB L2 Cache zugestehen.
Microsoft müsste eine Chipschmiede finden, die 90nm SOI fertigen kann. Selbst dann gäbe es wahrscheinlich ordentlich Probleme mit der Fertigung. Immerhin ist AMDs Prozess explizit auf den K8 abgestimmt. Man müsste wohl zu IBM. Und selbst dort maße ich mir an zu behaupten, dass Verlustleistungs und Taktcharakteristika des IBM K8 schlechter wären als bei AMD selbst.
AMD müsste Zeit und Leute in eine Optimierung investieren, und eventuell müsste man die CPU ja auch noch etwas an die neue Konsolenumgebung anpassen. Zeit/Geld und Leute die man nicht hat.
Nehmen wir an, Intel vergibt Microsoft eine Lizenz. Wird es ein P4?
Den will Microsoft sicherlich nicht haben. Also ein DualCore Yonah.
Intel würde sich das eventuell ordentlich kosten lassen, bzw eventuell Microsoft einige Kompromisse andrehen.
Wo fertigen wir nun die DualCore CPU mit wenig Verbrauch, ganz eigenem Fertigungsprozess und all den Intel Tricks?
Bei Intel? Das wollen wir ja nicht. Wer kauft ein Design und fertigt dieses dann beim Verkäufer?
Bei IBM? keine Chance, und Intel hat wohl keine Lust IBM zu helfen, den Prozess auf einen fiktiven IBM Yonah anzupassen?!?
Wo sonst?
Das ist meine Sicht der Sache.
Argumente? Meinungen?
Du magst damit nicht ganz unrecht haben, wäre ein mögliches Szenario - ich kann dir allerdings trotzdem nicht ganz zustimmen. Nenn es meinetwegen Sturheit, aber ich glaube nicht, dass sich AMD oder Intel einen derart lukrativen Deal entgehen lassen würden, einen Prozessor für eine Next-Gen-Konsole zu liefern. Deshalb halte ich es für ziemlich unwarscheindlich, dass sich z.B. AMD querstellen würde, wenn man einen K8 bei IBM fertigen müsste. Es muss sich dabei ja nichtmal um einen relativ komplexen Dual-Core-K8 handeln, selbst ein Venice wäre offensichtlich deutlich schneller und billiger als das, was Sony und M$ da zusammengemurkst haben. Ist natürlich alles IMHO.
Wir sollten uns nicht zusehr auf das mit dem "...wie ein Celeron mit 1400MHz..." versteifen.
Ich glaube das das eher als Umschreibung des Problems, welches die/der Dev(s) sehen, angesehen werden sollte.
Man sollte auch den Preisfaktor nicht unterschätzen....ich glaube das diese 3 Core Cpus relativ klein und sehr billig zu Produzieren sind. Und IBM wird Sie ausserdem wohl auch sehr billig angeboten haben, da Sie sehr wahrscheinlich ein Abfallprodukt der Cell-Entwicklung sind.
Und das AMD ungern das K7 Design rausgibt kann ich durchaus verstehen....(Design ist Design...unabhängig von den Taktfrquenzen).
Da könne wir uns drauf einigen. Im Endeffekt muss es wohl tatsächlich so in der Art gewesen sein.
Weder AMDs noch Intels Prozessoren könnte man auf anderen Fertigungsstraßen bauen lassen und etwas anderes kommt für MS nicht mehr in Frage, nach den Erfahrungen mit der XBox.
Es gibt spezielle Anforderungen für einen bestimmten Prozess - weder TSMC noch IBM hat die ganzen speziellen Tricks von AMD und Intel zur Verfügung.
reunion
2005-07-04, 15:37:38
Weder AMDs noch Intels Prozessoren könnte man auf anderen Fertigungsstraßen bauen lassen und etwas anderes kommt für MS nicht mehr in Frage, nach den Erfahrungen mit der XBox.
Es gibt spezielle Anforderungen für einen bestimmten Prozess - weder TSMC noch IBM hat die ganzen speziellen Tricks von AMD und Intel zur Verfügung.
Dann hätte ein bei IBM gefertiger K8 meinetwegen etwas mehr Verlustleistung, aber was macht das schon?
Die jetztigen Prozessoren glänzen ja auch nicht gerade mit geringem Stromverbrauch.
Alles was einem In-Order oder Streamingprozessor nicht gut bekommt.
Dadrüber wurde ja schon genug beschrieben.
Naja, ob In-Order für Konsolen wirklich so schlecht ist, steht weiterhin zur Frage. Ich sehe In-Order bei einer Konsole bei weitem nciht so Problematisch an, wie auf einem PC, wo es so viel verschiedene Prozessortypen gibt.
Es ist aber wahrscheinlich billiger einen Chip von PS3 Halde zu nehmen, als jetzt einen etwas kleineren mit weniger SPEs (oder sonstigen Änderungen) in niedrigen Stückzahlen zu produzieren. Deswegen machts imo bei einem solchen Massenprodukt Sinn alle angrenzenden Bereiche mit abzudecken.
Wer soll eine Chip von der PS3 Halde nehmen? Toshiba, IBM oder SOny. Ich denke der PS3 Cell ist Sonys Sache. Und wenn Toshiba gerne für ihre HDTVs einen Cell will, dann werden sie nicht den PS3 Cell produzieren. Ebenso wird IBM für ihre Cell Server keinen PS3 Cell nehmen, bzw. tun sie das schon jetzt nicht.
Du glaubst doch nicht ernsthaft, dass Sony noch zusätzlich einen eigenen Compiler schreibt, anstatt das den Experten von IBM zu überlassen?
Ich glaube, dass Sony fortschrittlichere und spezialisierte Compiler hat.
Dann hätte ein bei IBM gefertiger K8 meinetwegen etwas mehr Verlustleistung, aber was macht das schon?
Die jetztigen Prozessoren glänzen ja auch nicht gerade mit geringem Stromverbrauch.Es geht nicht um mehr Verlustleistung, sondern darum dass sie es gar nicht fertigen können. AMD gibt sicher nicht IBM ihre APM-Libaries in die Hand.
Naja, ob In-Order für Konsolen wirklich so schlecht ist, steht weiterhin zur Frage. Ich sehe In-Order bei einer Konsole bei weitem nciht so Problematisch an, wie auf einem PC, wo es so viel verschiedene Prozessortypen gibt.Das ist ja auch nur ein Tropfen auf den heißen Stein. Die PPU hat noch viel mehr Defizite.
Dann hätte ein bei IBM gefertiger K8 meinetwegen etwas mehr Verlustleistung, aber was macht das schon?
Die jetztigen Prozessoren glänzen ja auch nicht gerade mit geringem Stromverbrauch.
Und wenn es nach nach Anan geht, und der Artikel ist nun mal Topic des Threads, dann würde schon locker eine K7 Lizenz reichen, die für AMD schon ausgemustert ist.
Wer soll eine Chip von der PS3 Halde nehmen? Toshiba, IBM oder SOny. Ich denke der PS3 Cell ist Sonys Sache. Und wenn Toshiba gerne für ihre HDTVs einen Cell will, dann werden sie nicht den PS3 Cell produzieren. Ebenso wird IBM für ihre Cell Server keinen PS3 Cell nehmen, bzw. tun sie das schon jetzt nicht.
Da wäre ich mich nicht so sicher, obs da nicht irgendwelche Abkommen gibt..
Ich glaube, dass Sony fortschrittlichere und spezialisierte Compiler hat.
Naja Glaube versetzt ja manchmal Berge. ;D
Auch der K7 ist von IBM nicht so ohne weiteres fertigbar. Man braucht dazu immer noch die Libraries die AMD wie gesagt nicht rausrücken wird.
reunion
2005-07-04, 15:43:22
Es geht nicht um mehr Verlustleistung, sondern darum dass sie es gar nicht fertigen können. AMD gibt sicher nicht IBM ihre APM-Libaries in die Hand.
Und warum nicht?
Immerhin würde es sich hierbei wohl um einen Milliardenauftrag handeln.
Im übrigen kooperieren AMD und IBM bereits seit längerem bei der Entwicklung neuer Fertigungsprozesse.
Weil AMD einige Dinge hat die sicherlich nur sehr wenige Eingeweihte wissen. Glaubst du wirklich die würden sie einem indirekten Konkurenten aushändigen, wo sie die Sicherheit nicht garantieren können?
Außerdem würde der K8 mit dem eingebauten Speichercontroller überhaupt nicht ins unified-memory Konzept (und noch dazu GDDR3) passen.
Und bei Intel kannst du's noch mehr knicken. Die rücken mit Sicherheit keine Pentium M Lizenz raus. Da wären ja die ganzen Stromspartechniken (Sleeptransistoren) etc. dabei.
Da wäre ich mich nicht so sicher, obs da nicht irgendwelche Abkommen gibt..
Kann natürlich sein, aber ich denke Schrott aus der PS3 Produktion wird sich Sony für ihre HDTV Geräte bunkern. Und Toshiba hat ja schon vor Monaten davon gesprochen kleine Versionen mit zwei SPEs für ihre HDTV Hardware produzieren zu lassen.
Ebenso lässt Sony ab nächstes Jahr eine große Version des Cell fertigen für professionelle Schnittcomputer und digitale Kinokameras.
Nur weil Sony jetzt den Cell mit 8(7) SPEs fertigen lässt, lässt man doch nicht die günstige Produktion von 2SPE Cells fallen. Sony hat schon eine SPE zur Sicherheit. So viel Abfall wird da auf Dauer sicher nicht produziert werden
Naja Glaube versetzt ja manchmal Berge. ;D
Ok, da haste Recht. Ist nur so eine Vermutung, dass die nicht alles an Know-How für Opensource frei geben. :)
Auch der K7 ist von IBM nicht so ohne weiteres fertigbar. Man braucht dazu immer noch die Libraries die AMD wie gesagt nicht rausrücken wird.
Aber nen K7 mit 1,5Ghz hätte M$ von AMD sicherlich sehr günstig produzieren lassen können und vertraglich kann man sowas sicherlich auch wasserdichter machen, als damal mit nVidia. M$ hat da doch vertraglich einfach Mist gebaut.
AMD hat im Moment gar nicht die Fertigungskapazitäten um genügend K7 zu fertigen - das würde nur in FAB30 möglich sein, die nur 200mm Wafer verarbeitet.
Ok, dann hatte M$ wahrschenlich wirklich keine anderen Möglichkeiten.
HellHorse
2005-07-04, 16:52:14
Ich glaube, dass Sony fortschrittlichere und spezialisierte Compiler hat.
Hat man schon bei der PS2 gesehen.
Ein Experte schreibt eine guten Compiler mit entsprecheden Optimierungen innerhalb eines Wochenendes. Darum setzt Sony auch nicht auf das Flickwerk von ein paar Arbeitslosen und Studenten.
Ja nee, is klar :rolleyes:
Ganon
2005-07-04, 17:17:00
Ja nee, is klar :rolleyes:
Ja. Zumal Sony auch nur IBM ärgern will. Während IBM sich noch mit 2 Compilern abmüht und versucht beides unter einen Hut zu kriegen hat Sony schon lange einen Compiler der jeden Quelltext und jede Schleife auf die SPUs aufteilt...
Schon klar.
Sorry "Gast" aber langsam wird es albern. Entweder du setzt mal langsam die Sony-Brille ab und guckst dir Tatsachen an, oder du schraubst deinen "Ich habe immer Recht"-Ton runter.
Alles was andere zu dir sagen sind laut dir doch nur "Vermutungen" und "Sony macht sowieso alles besser". Aber wenn du nur am Vermuten bist (die ganze Zeit) dann sind das für dich unwiderlegbare Tatsachen. Ein bisschen komisch, oder?
Im Gegensatz zu dir bringen alle anderen Belege und Berichte zu ihren Aussagen. Das einzige was du machst sind irgendwelche Sachen in den Raum zu schmeißen, wie "das ist so und so" und "die machen das und das". Quellen dafür kamen da noch nicht von dir.
Ja. Zumal Sony auch nur IBM ärgern will. Während IBM sich noch mit 2 Compilern abmüht und versucht beides unter einen Hut zu kriegen hat Sony schon lange einen Compiler der jeden Quelltext und jede Schleife auf die SPUs aufteilt...
Schon klar.
Sorry "Gast" aber langsam wird es albern. Entweder du setzt mal langsam die Sony-Brille ab und guckst dir Tatsachen an, oder du schraubst deinen "Ich habe immer Recht"-Ton runter.
Alles was andere zu dir sagen sind laut dir doch nur "Vermutungen" und "Sony macht sowieso alles besser". Aber wenn du nur am Vermuten bist (die ganze Zeit) dann sind das für dich unwiderlegbare Tatsachen. Ein bisschen komisch, oder?
Im Gegensatz zu dir bringen alle anderen Belege und Berichte zu ihren Aussagen. Das einzige was du machst sind irgendwelche Sachen in den Raum zu schmeißen, wie "das ist so und so" und "die machen das und das". Quellen dafür kamen da noch nicht von dir.
Locker bleiben. Ich habe in dem Fall Compiler schlichtweg vermutet, dass IBM und/oder Sony speziell für die PS3 schon fortschritllicher Compiler haben. Darf man solche Vermutungen (Spekulationen) hier nicht ausprechen, ohne blöd angemacht zu werden? Zumal ich in keinster Weise einen Richtigkeitsanspruch auf so eine Vermutung erhebe.
Oder bist Du jetzt einfach nur sauer, dass ich dir den Unterschied zwischen Beleuchtung und HDR erklären musste?
Ganon
2005-07-04, 18:03:20
Locker bleiben. Ich habe in dem Fall Compiler schlichtweg vermutet, dass IBM und/oder Sony speziell für die PS3 schon fortschritllicher Compiler haben. Darf man solche Vermutungen (Spekulationen) hier nicht ausprechen, ohne blöd angemacht zu werden? Zumal ich in keinster Weise einen Richtigkeitsanspruch auf so eine Vermutung erhebe.
Dann akzeptiere auch gegen"vermutungen" bzw. klare Fakten und stemple sie nicht mit "Sony ist doch nicht blöd" ab.
Oder bist Du jetzt einfach nur sauer, dass ich dir den Unterschied zwischen Beleuchtung und HDR erklären musste?
Sorry, aber da du nicht angemeldet bist, kann ich nicht annehmen das du der selbe "Gast" wie vorhin bist. Ist ja schön das du da was erklärt hast. Das war mir auch davor schon klar. Ich habe ja auch zugegeben mich unklar ausgedrückt zu haben. Ohne das alte aufzuwühlen, aber ich meinte die Blendeffekte. Sorry, eure Durchlaucht, das ich es mit in den allgemeinen Begriff "Beleuchtung" mit reingesteckt habe.
Sorry, aber man kann ich auch an was anderem aufgeilen...
Dann akzeptiere auch gegen"vermutungen" bzw. klare Fakten und stemple sie nicht mit "Sony ist doch nicht blöd" ab.
In dem Anantechartikel werden keine seichten Annahmen ausgesprochen, sondern klar die Leistung der CPUs der neuen Konsolen mit einem Celeron 1400Mhz verglichen. Und was einige der Experten hier schon so alles negatives von sich gelassen haben bzgl. Cell und Co. ist auch nicht feierlich, besonders da sie in den letzten Wochen schon so einiges, was sie vorher als Fakt hingestellt haben, zurück nehmen mussten. Fakt ist doch, dass hier scheinbar fast jeder mit ein bischen Wissen über CPUs Sony und M$ als Volltrottel hinstellen will. Wenn hier soviele Supergehirne rumlaufen, die alles besser können als die Profis bei Sony, IBM, Toshiba und M$, dann sind meine Hinweise alá "Sony ist doch nicht blöd" nur gut gemeint, um Peinlichkeiten zu vermeiden. Manchen Leuten scheint ihr studentisches Wissen etwas zu Kopf zu steigen, wenn solche Leute ernsthaft meinen die besten Ingenieure als Volltrottel abzustempel. Man sollte doch die Bewertung solcher Systeme den echten Profis überlassen oder zumindest die eigenen Meinung nicht so großkotzig hinstellen, nur weil man ein paar Seminare/Kurse auf der Uni über CPU Architekturen besucht hat, oder weil man auf dem PC irgendwelche Sachen macht, die rein garnichts mit kommerzieller Spieleentwicklung zu tun haben.
Die einzig zur Zeit aktive wirklich kompetente Person hier im Forum (Demirug) macht komischer Weise bei diesem Bashing gegen die Konsolen CPUs nicht mit und deutet immer wieder darauf hin, dass es durchaus Anwendungsmöglichkeiten gibt für Cell und Co., und dass man mit der Zeit ne Menge Zeug paralellisieren kann. Dafür sprechen auch hunderte von Millionen Entwicklung für die PS3 CPU, wobei ich das scheinbar nicht oft genug schreiben kann.
Sorry, aber da du nicht angemeldet bist, kann ich nicht annehmen das du der selbe "Gast" wie vorhin bist. Ist ja schön das du da was erklärt hast. Das war mir auch davor schon klar. Ich habe ja auch zugegeben mich unklar ausgedrückt zu haben. Ohne das alte aufzuwühlen, aber ich meinte die Blendeffekte. Sorry, eure Durchlaucht, das ich es mit in den allgemeinen Begriff "Beleuchtung" mit reingesteckt habe.
Aber komischer Weise weißt Du, dass ich der Gast bin, der immer schreibt: "Sony ist doch nicht blöd". Seltsam, seltsam. Und wie gesagt war das nicht ein Verschreiber, sondern schlichtweg falsch. Aber wenn es für dich lediglich "unklar" ausgedrückt war, wenn man Dynamikumfang mit Beleuchtung gleich setzt, dann scheinst Du technisch sowieso nicht sehr informiert zu sein. Wieso unterscheidet man eigentlich Texturen, Polygone, Pixe, Texell und den ganzen Kram, ist doch scheinbar soweiso alles das selbe weil was auf dem Monitor leuchtet.
Sorry, aber man kann ich auch an was anderem aufgeilen...
So wie Du an meiner Vermutung, dass IBM auf der Linuxveranstaltung nicht die aktuellen Entwicklungstools inkl. Compiler für die PS3 Preis gibt, in die Sony eine ganze Menge Geld und Manpower investiert?
Ganon
2005-07-04, 18:54:33
Die einzig zur Zeit aktive wirklich kompetente Person hier im Forum (Demirug) macht komischer Weise bei diesem Bashing gegen die Konsolen CPUs nicht mit und deutet immer wieder darauf hin, dass es durchaus Anwendungsmöglichkeiten gibt für Cell und Co., und dass man mit der Zeit ne Menge Zeug paralellisieren kann. Dafür sprechen auch hunderte von Millionen Entwicklung für die PS3 CPU, wobei ich das scheinbar nicht oft genug schreiben kann.
Klar, bei der PS2 konnte man theoretisch auch viel machen. Und? Was ist darauf geworden? Kein Titel für die PS2 haut mich wirklich um. Ich finde es nur komisch das du quasi alle Leute, die nicht gegen dich Argumentieren gleich als deine "Verbündeten" ansiehst und auch nur diese als Kompetent ansiehst.
Aber komischer Weise weißt Du, dass ich der Gast bin, der immer schreibt: "Sony ist doch nicht blöd". Seltsam, seltsam. Und wie gesagt war das nicht ein Verschreiber, sondern schlichtweg falsch. Aber wenn es für dich lediglich "unklar" ausgedrückt war, wenn man Dynamikumfang mit Beleuchtung gleich setzt, dann scheinst Du technisch sowieso nicht sehr informiert zu sein. Wieso unterscheidet man eigentlich Texturen, Polygone, Pixe, Texell und den ganzen Kram, ist doch scheinbar soweiso alles das selbe weil was auf dem Monitor leuchtet.
Ja, da gibst du dich ja supi als den zu erkennen.
Mir ist es in erster Hinsicht vollkommen egal was du denkst. Ich habe erklärt was ich meinte. Wenn das nicht deiner Vorstellung entspricht, bitte... Wenn du weiter auf solchen Kleinigkeiten rumreiten willst. Bitte. Wenn es dich Glücklich macht und du es als Bestätigung brauchst.
Aber hier alle als "Idioten" hinzustellen, würde ich mal lieber sein lassen, zumal du nicht mal den Mut hast dich hier anzumelden, um deine Meinung zu verteidigen. Alle anderen stehen wenigstens zu dem was sie sagen. Du anscheinend nicht.
So wie Du an meiner Vermutung, dass IBM auf der Linuxveranstaltung nicht die aktuellen Entwicklungstools inkl. Compiler für die PS3 Preis gibt, in die Sony eine ganze Menge Geld und Manpower investiert?
Jaja, schon klar. Und ich vermute CELL war nur ne Attrappe und Sony baut eh was viel größeres in die PS3.... ich bitte dich...
Jesus
2005-07-04, 19:29:25
... Manchen Leuten scheint ihr studentisches Wissen etwas zu Kopf zu steigen, wenn solche Leute ernsthaft meinen die besten Ingenieure als Volltrottel abzustempel. Man sollte doch die Bewertung solcher Systeme den echten Profis überlassen oder zumindest die eigenen Meinung nicht so großkotzig hinstellen, nur weil man ein paar Seminare/Kurse auf der Uni über CPU Architekturen besucht hat, oder weil man auf dem PC irgendwelche Sachen macht, die rein garnichts mit kommerzieller Spieleentwicklung zu tun haben.
Mega-ACK :rolleyes:
Was ändert das was man an der Uni lernt an Fakten?
Streamprozessor bleibt Streamprozessor, daran gibt's nichts zu rütteln.
Ganon
2005-07-04, 20:40:47
Streamprozessor bleibt Streamprozessor, daran gibt's nichts zu rütteln.
Auch Quatsch. Wir sind doch alle blöd und sehen nicht die Genialität von Sony, die sie auch schon bei der PS2 gezeigt haben. Das war doch ne absolut entwicklerfreundliche Konsole, mit welcher man mit Leichtigkeit Leistung holen konnte.
Sorry, aber da krieg ich ja schon beim tippen einen Lachkrampf.
Mal ne andere Überlegung:
Warum soll ein Entwickler das letzte aus einer CPU quetschen und Spezial-Code verwenden, wenn er die selbe Leistung mit einer "normalen" CPU und 08/15-Code auch hinbekommt?
Klar, hier wurden schon Gründe genannt, warum kein Athlon64 X2 oder ein echter G5 zum Einsatz kam.
Aber warum großen Aufwand betreiben, wenn es leichter geht? Das ist sicherlich die Frage der Entwickler.
Ich denke mal das kotzt die Entwickler auch an. Immerhin wollen die auch Spiele entwickeln und sich nicht mit Hardware rumprügeln um ne Next-Gen-Grafik hinzubekommen...
Denn der Vorteil einer Konsole ist doch nicht die spezielle Hardware, sondern die einheitliche Hardware. Oder warum waren gerade Konsolen wie XBOX und GameCube (beide nahe an Standard-Hardware) gerade die Konsolen die a) der PS2 überlegen waren und b) auch noch zig mal entwicklerfreundlicher waren?
Und Spezial-Hardware-Konsolen wie Saturn, N64 und PS2 sind ein graus für die Entwickler? Warum bei jeder neuen Generation den Entwicklern noch mal ans Bein pinkeln?
Auch Quatsch. Wir sind doch alle blöd und sehen nicht die Genialität von Sony, die sie auch schon bei der PS2 gezeigt haben. Das war doch ne absolut entwicklerfreundliche Konsole, mit welcher man mit Leichtigkeit Leistung holen konnte.
*hust* Sahen daher die ersten PS2-Spiele so "genial" aus? ;-)
[QUOTE=Ganon]
Denn der Vorteil einer Konsole ist doch nicht die spezielle Hardware, sondern die einheitliche Hardware. Oder warum waren gerade Konsolen wie XBOX und GameCube (beide nahe an Standard-Hardware) gerade die Konsolen die a) der PS2 überlegen waren und b) auch noch zig mal entwicklerfreundlicher waren?
QUOTE]
1. Wann ist die PS2 erschienen?
2. Wann sind Xbox und GameCube erschienen?
Ich glaube mehr muss man dazu nicht sagen....
Lost Boy
2005-07-04, 21:15:18
das da oben war mein entry! hab mich vergessen anzumelden
Demirug
2005-07-04, 21:24:48
1. Wann ist die PS2 erschienen?
2. Wann sind Xbox und GameCube erschienen?
Ich glaube mehr muss man dazu nicht sagen....
Sony hätte auch für die PS2 ein entwicklerfreundlicheres Design wählen können wenn sie gewohlt hätten.
HellHorse
2005-07-04, 21:29:39
1. Wann ist die PS2 erschienen?
2. Wann sind Xbox und GameCube erschienen?
Korrigier mich, wenn ich falsch liege, aber kam die XBox nicht ungefähr 18 Mte nach der PS2?
Man kann Micro$~1 ja viel vorwerfen, aber unter einem SDK verstehen die mehr als einen RISC Assembler.
Demirug
2005-07-04, 21:34:30
Korrigier mich, wenn ich falsch liege, aber kam die XBox nicht ungefähr 18 Mte nach der PS2?
Man kann Micro$~1 ja viel vorwerfen, aber unter einem SDK verstehen die mehr als einen RISC Assembler.
naja Sony hat auch einen Compiler mit ausgeliefert. Das war aber IIRC nur ein sehr schlechter gcc. Die meisten Entwickler meinten damals auf jeden Fall das sie iheren kritischen Code in Assembler schreiben mussten weil der Compiler nichts taugte und kritisch war fast alles.
Lost Boy
2005-07-04, 21:41:35
[QUOTE=Ganon]Klar, bei der PS2 konnte man theoretisch auch viel machen. Und? Was ist darauf geworden? Kein Titel für die PS2 haut mich wirklich um.
QUOTE]
KEIN Titel?? Lass mich raten:
1)Warscheinlich hast du garkeine eigene Playstation 2.
2)Warscheinlich hast du dich auch niemals ernsthaft mit der Konsole bzw. den Spielen beschäftigt.
Und falls doch, kann ich deine Aussage absolut nicht nachvolziehen. Denn was die (kompetenten) Programmierer teilweise aus der (mitlerweile uralten) Hardware rausgeholt haben, ist schlicht und ergreifend atemberaubend. Letztes Beispiel ist God of War, ich gehe mal davon aus das du es nicht kennst. Lasse mich aber gerne korrigieren. ich habe hier schon einmal geschrieben, das die Entwickler teilweise Sachen mit der Hardware gemacht haben, die theoretisch garnicht machbar sind. Wenn dich das nicht umhaut, was dann :confused:
Lost Boy
2005-07-04, 21:46:05
[QUOTE=HellHorse]Korrigier mich, wenn ich falsch liege, aber kam die XBox nicht ungefähr 18 Mte nach der PS2?
QUOTE]
Demensprechend aktuelere Technik = technisch imposantere Spiele. Obwohl man den technischen vorsprung den Xboxspielen lange zeit nicht ansehen konnte...
Demirug
2005-07-04, 22:01:25
KEIN Titel?? Lass mich raten:
1)Warscheinlich hast du garkeine eigene Playstation 2.
2)Warscheinlich hast du dich auch niemals ernsthaft mit der Konsole bzw. den Spielen beschäftigt.
Und falls doch, kann ich deine Aussage absolut nicht nachvolziehen. Denn was die (kompetenten) Programmierer teilweise aus der (mitlerweile uralten) Hardware rausgeholt haben, ist schlicht und ergreifend atemberaubend. Letztes Beispiel ist God of War, ich gehe mal davon aus das du es nicht kennst. Lasse mich aber gerne korrigieren. ich habe hier schon einmal geschrieben, das die Entwickler teilweise Sachen mit der Hardware gemacht haben, die theoretisch garnicht machbar sind. Wenn dich das nicht umhaut, was dann :confused:
Laut dem Chefdesigner der PS2 hat es allerdings kein Entwickler bis heute geschaft die PS2 richtig auszunutzen. Also muss alles was bisher gemacht wurde wohl auch irgendwie vorgesehen gewesen sein.
Zudem ist es völlig normal das eine statischen Hardware im Laufe der Zeit immer besser ausgenutzt werden kann. Eines der besten Beispiele dafür ist der C64.
Ganon
2005-07-04, 22:04:48
1. Wann ist die PS2 erschienen?
2. Wann sind Xbox und GameCube erschienen?
Und? Der Abstand war nicht so gravierend, den die grafische Qualität zeigte (zumal der GameCube mit (ich glaub) knapp einem Jahr Verspätung auf dem Markt kam, da die Spiele noch nicht fertig waren). Sorry, aber erste PS2-Titel sahen so aus wie vom N64 in High-Res. Danach kamen Titel gerade mal an der/die/das Dreamcast ran und gegen Ende (quasi jetzt) haben die Titel etwa die Qualität die man schon vor Jahren von der PS2 erwartet hat.
@TheVoice
Mir ist es eigentlich egal was die Programmierer aus alter Hardware raus holen. Das kann man auch mit Hardware machen, die Entwicklerfreundlich ist. Ich persönlich habe keine PS2, aber Freunde die eine haben. Klar kenne ich nicht alle Titel, aber die "hochgepriesenen" habe ich mir entsprechend angeguckt. Klar, mag akzeptabel aussehen für so ne Entwicklerbremse, aber nicht das ist nicht umwerfend.
Meinst du dieses "God Of War":
http://playstation2.gaming-universe.de/screenshots/597-1.html
?
Sorry, aber ich sehe da keine grafische Revolution. Was soll einen da umhauen? Ich rede nicht von der Spielqualität, sondern jetzt nur von der Grafik! Absolute Matsch-Texturen und fast nichts im Bild. Was ist daran "wow"?
Ganon
2005-07-04, 22:09:38
Laut dem Chefdesigner der PS2 hat es allerdings kein Entwickler bis heute geschaft die PS2 richtig auszunutzen.
Da frage ich mich doch wozu man eine Hardware baut die keiner ausnutzen kann? Oder glaubt der Mensch immer noch daran das Texturen von der CPU in Echtzeit generiert werden?
Das habe ich mich bei der PS2 schon immer gefragt. Und bei der PS3 stell ich mir jetzt fast genau die gleichen Fragen :rolleyes:
Lost Boy
2005-07-04, 22:48:48
Und? Der Abstand war nicht so gravierend, den die grafische Qualität zeigte (zumal der GameCube mit (ich glaub) knapp einem Jahr Verspätung auf dem Markt kam, da die Spiele noch nicht fertig waren). Sorry, aber erste PS2-Titel sahen so aus wie vom N64 in High-Res. Danach kamen Titel gerade mal an der/die/das Dreamcast ran und gegen Ende (quasi jetzt) haben die Titel etwa die Qualität die man schon vor Jahren von der PS2 erwartet hat.
@TheVoice
Mir ist es eigentlich egal was die Programmierer aus alter Hardware raus holen. Das kann man auch mit Hardware machen, die Entwicklerfreundlich ist. Ich persönlich habe keine PS2, aber Freunde die eine haben. Klar kenne ich nicht alle Titel, aber die "hochgepriesenen" habe ich mir entsprechend angeguckt. Klar, mag akzeptabel aussehen für so ne Entwicklerbremse, aber nicht das ist nicht umwerfend.
Meinst du dieses "God Of War":
http://playstation2.gaming-universe.de/screenshots/597-1.html
?
Sorry, aber ich sehe da keine grafische Revolution. Was soll einen da umhauen? Ich rede nicht von der Spielqualität, sondern jetzt nur von der Grafik! Absolute Matsch-Texturen und fast nichts im Bild. Was ist daran "wow"?
Die Xbox erschien ca 18 Monate nach der PS2, das ist in der heutigen Technik-Welt ne menge, oder sehe ich das falsch? Zum Cube sage ich nur, dass Resident Evil (das meiner meinung nach zu den grafisch beeindruckendsten Konsolentiteln gehört, wenn nicht sogar DAS beeindruckendste, immerhin fast 4 Jahre Entwicklungszeit...) demnächst auch für die PS2 erscheint. Laut Capcom wird die Engine fast 1:1 übernommen.
Hab mir schon gedacht das du God of War nicht gespielt hast bzw. nicht in Bewegung gesehen hast. Du willst doch wohl nicht anhand ein paar Screenshots die Grafik beurteilen, oder? Außerdem kannst du PS2 Titel nicht mit High-End PC Grafik vergleichen. Zu den "Matschtexturen" sag ich nur : 4MB V-RAM. Ich glaube du weist besser als ich wieviel das ist :wink:
ch persönlich beeindruckt es mehr, was Entwickler aus alter Hardware rausholen, als tolle PC Spiele, die auf absoluten HIGH-END Rechnern laufen. Ich glaube programmierer die ganz tolle PC Spiele machen (die werden schon umjubelt wenn sie ein paar Shader Model 3.0 Effekte in ihre Engine einbauen...) sind absolute flaschen im direkten Vergleich zu Leuten die für Konsolen proggen. Ist nicht nur meine persönliche Ansichtsache, sowas habe ich auch in diversen Gesprächen mit erfahrenen Leuten gehört.
Demirug
2005-07-04, 22:51:20
ch persönlich beeindruckt es mehr, was Entwickler aus alter Hardware rausholen, als tolle PC Spiele, die auf absoluten HIGH-END Rechnern laufen. Ich glaube programmierer die ganz tolle PC Spiele machen (die werden schon umjubelt wenn sie ein paar Shader Model 3.0 Effekte in ihre Engine einbauen...) sind absolute flaschen im direkten Vergleich zu Leuten die für Konsolen proggen. Ist nicht nur meine persönliche Ansichtsache, sowas habe ich auch in diversen Gesprächen mit erfahrenen Leuten gehört.
Setzt mal einen Konsolen Entwickler an ein PC-Spiel. Das wird lustig.
Ich glaube programmierer die ganz tolle PC Spiele machen (die werden schon umjubelt wenn sie ein paar Shader Model 3.0 Effekte in ihre Engine einbauen...) sind absolute flaschen im direkten Vergleich zu Leuten die für Konsolen proggen.Sicher nicht. Wenn man sich länger mit einer HW beschäftigt und mehr Informationen zur Verfügung stehen ist es logisch das sich mehr rausholen lässt als durch eine generische API eines PCs.
Setzt mal einen Konsolen Entwickler an ein PC-Spiel. Das wird lustig.... :)
Lost Boy
2005-07-04, 22:55:28
Laut dem Chefdesigner der PS2 hat es allerdings kein Entwickler bis heute geschaft die PS2 richtig auszunutzen. Also muss alles was bisher gemacht wurde wohl auch irgendwie vorgesehen gewesen sein.
Zudem ist es völlig normal das eine statischen Hardware im Laufe der Zeit immer besser ausgenutzt werden kann. Eines der besten Beispiele dafür ist der C64.
Tatsächlich? Inwiefern denn "ausnutzen" ? Kennst du eine Konsole die 100% ausgenutzt wurde? Oder andersrum: kennst du ein Spiel das eine Konsole zu 100% ausnutz? Zuerst werden die Leute von M$ und vorallem von Sony als Komplette vollidioten hingestellt, und auf einmal stützt man sich auf aussagen gewisser "PS2 Chefdesigner" (wie heist denn der nochmal????).
Lost Boy
2005-07-04, 23:03:08
Setzt mal einen Konsolen Entwickler an ein PC-Spiel. Das wird lustig.
Warum? Ok, kein argument ist auch ein argument....
mfg
StefanV
2005-07-04, 23:21:11
Setzt mal einen Konsolen Entwickler an ein PC-Spiel. Das wird lustig.
Nee, lass mal...
Was passiert, sieht man gut bei alten EA Games, das muss nun wirklich nicht (mehr) sein...
StefanV
2005-07-04, 23:22:34
Warum? Ok, kein argument ist auch ein argument....
mfg
Weil das Spiel dann ein paar, öhm, nunja, 'interessante' 'Funktionen' hätte und, öhm, äueßerst 'creativ' geschrieben wär...
Du weißt ja, das die Konsolenfuzzies davon ausgehen, das sich die HW nich ändert.
Ganon
2005-07-04, 23:25:54
Die Xbox erschien ca 18 Monate nach der PS2, das ist in der heutigen Technik-Welt ne menge, oder sehe ich das falsch? Zum Cube sage ich nur, dass Resident Evil (das meiner meinung nach zu den grafisch beeindruckendsten Konsolentiteln gehört, wenn nicht sogar DAS beeindruckendste, immerhin fast 4 Jahre Entwicklungszeit...) demnächst auch für die PS2 erscheint. Laut Capcom wird die Engine fast 1:1 übernommen.
Hab mir schon gedacht das du God of War nicht gespielt hast bzw. nicht in Bewegung gesehen hast. Du willst doch wohl nicht anhand ein paar Screenshots die Grafik beurteilen, oder? Außerdem kannst du PS2 Titel nicht mit High-End PC Grafik vergleichen. Zu den "Matschtexturen" sag ich nur : 4MB V-RAM. Ich glaube du weist besser als ich wieviel das ist :wink:
ch persönlich beeindruckt es mehr, was Entwickler aus alter Hardware rausholen, als tolle PC Spiele, die auf absoluten HIGH-END Rechnern laufen. Ich glaube programmierer die ganz tolle PC Spiele machen (die werden schon umjubelt wenn sie ein paar Shader Model 3.0 Effekte in ihre Engine einbauen...) sind absolute flaschen im direkten Vergleich zu Leuten die für Konsolen proggen. Ist nicht nur meine persönliche Ansichtsache, sowas habe ich auch in diversen Gesprächen mit erfahrenen Leuten gehört.
In der PC-Technik ja, aber Konsolen sind meist 4-6 Jahre auf dem Markt. Da sind 18 Monate nichts. Du meinst Resi4? Du siehst aber schon das Resi4 auf der PS2 bei weitem schlechter aussieht, als auf dem Cube, oder?
Ähm, zu "God of War". Was soll ich denn nehmen? Ein Video macht die Texturen im Spiel nicht besser und packt auch nicht mehr Objekte auf den Schirm. Ich vergleiche auch nicht mit High-End PC-Hardware sondern mit GameCube-Titeln. Und die Texturen haben, wie man auf den Screens sieht, maximal ein Niveau was zwischen N64 und Dreamcast liegt (mehr in Richtung Dreamcast). Klar liegt das an den 4MB-VRAM. Aber warum kam man erst auf die Idee? 4MB-VRAM, keine direkte Verbindung zum Hauptspeicher...
Ja ich finde es auch schön, wenn Hardware ausgelastet wird. Aber ich mag es eher wenn das letzte aus der Hardware rausgeholt wird um noch bessere Grafik zu liefern und nicht um überhaupt was aus der Konsole raus zu holen.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.