Archiv verlassen und diese Seite im Standarddesign anzeigen : Microsofts Xbox 360, Sonys PS3 – was bringts?
Scheinbar scheint CELL doch nicht soooo schwer zu programmieren zu sein...
Als ein Highlight der diesjährigen Siggraph zeigt das Team der Saarbrücker Informatik den ersten Prototypen von Echtzeit-Ray-Tracing auf dem neuen Cell-Prozessor. In der extrem kurzen Entwicklungszeit von nur zwei Wochen wurden die Ray-Tracing-Algorithmen für diesen neuen Hochleitungsprozessor in Zusammenarbeit mit IBM Deutschland völlig überarbeitet. Schon mit einem einzelnen Cell-Prozessor werden Echtzeit-Bildraten bei voller Bildschirmauflösung erreicht
Hellfire-Torrod
2005-07-28, 09:30:47
Scheinbar scheint CELL doch nicht soooo schwer zu programmieren zu sein...
Algorithmen für Ray Tracing sind was anderes als komplette Spiele :wink:
Lilebror
2005-07-28, 09:40:13
Ich kann mir persönlich auch nicht vorstellen das der Cell Prozzi so derbe aufwendig programmiert werden muss, eine Firma wie IBM die ahnung hat und Sony werden sich bestimmt nicht ins eigene Fleich schneiden und einen Prozessor entwickeln der eigentlich viel zu schwer und aufwendig programmiert werden muss.
So viel Geld wie die investiert haben, werden die bestimmt auch softwarte haben mit der man wiederum andere Software viel leichter programieren kann oder ?
VooDoo7mx
2005-07-28, 09:42:05
Scheinbar scheint CELL doch nicht soooo schwer zu programmieren zu sein...
es geht nicht ums schwer zu programmieren.
Sondern um das extrem schwere ausnutzen der Hardware.
Mit für heute denkbaren Mitteln und Programmierweisen ist es selbst unwarscheinlich auch nur 50% des Cells auszunutzen.
Ich würde mich nicht wundern wenn selbst bis zum PS4 Launch der Cell nicht komplett ausgnutzt wurde.
Hellfire-Torrod
2005-07-28, 09:45:53
Ich kann mir persönlich auch nicht vorstellen das der Cell Prozzi so derbe aufwendig programmiert werden muss, eine Firma wie IBM die ahnung hat und Sony werden sich bestimmt nicht ins eigene Fleich schneiden und einen Prozessor entwickeln der eigentlich viel zu schwer und aufwendig programmiert werden muss.
So viel Geld wie die investiert haben, werden die bestimmt auch softwarte haben mit der man wiederum andere Software viel leichter programieren kann oder ?
Da kann ich dir voll zustimmen. Sony (hinsichtlich des PS3 Cells*) wird sich bestimmt nicht hingesetzt haben und überlegt haben, wie sie das Leben ihrer Entwickler nun am besten zur hölle machen können. Gerade der Cell sollte als Multicore cpu sehr einfach zu progge sein da ehr die aufteilng in die threads fast selbstständig ausführt**
* der cell für die PS3 unterscheidet sich vom Normalen Cell in der anzahl der SPU`s
** Basierend auf einem artikel den ich rigendwan mal aufgeschnapt habe ;)
Hellfire-Torrod
2005-07-28, 09:47:12
Ich würde mich nicht wundern wenn selbst bis zum PS4 Launch der Cell nicht komplett ausgnutzt wurde.
So eng würde ich das nicht sehen. Letztenendes haben einige entwickler die ach so schwer zu programierende Emotion Engine auch in den griff bekommen.
Der rest besteht einfach aus Marketing-geblubber.
ShadowXX
2005-07-28, 10:02:03
Da kann ich dir voll zustimmen. Sony (hinsichtlich des PS3 Cells*) wird sich bestimmt nicht hingesetzt haben und überlegt haben, wie sie das Leben ihrer Entwickler nun am besten zur hölle machen können. Gerade der Cell sollte als Multicore cpu sehr einfach zu progge sein da ehr die aufteilng in die threads fast selbstständig ausführt**
* der cell für die PS3 unterscheidet sich vom Normalen Cell in der anzahl der SPU`s
** Basierend auf einem artikel den ich rigendwan mal aufgeschnapt habe ;)
So wie ich das gehört/gelsen habe, ist eher das Gegenteil der Fall.
Momentan braucht man für die Programmierung der SPEs und des PPC-Core noch 2 verschiedene Compiler, wobei zumindest der für die SPEs noch nicht das gelbe vom Ei sein soll.
Davon abgesehen setzen IBM/Sony scheinbar voll auf den GCC und das einzige was Sie machen, ist das Sie die GCC-Entwickler unterstützen. (Anders gesagt: Sie entwicklen nicht direkt selbst den Compiler.)
Hellfire-Torrod
2005-07-28, 10:04:57
So wie ich das gehört/gelsen habe, ist eher das Gegenteil der Fall.
Momentan braucht man für die Programmierung der SPEs und des PPC-Core noch 2 verschiedene Compiler, wobei zumindest der für die SPEs noch nicht das gelbe vom Ei sein soll.
Davon abgesehen setzen IBM/Sony scheinbar voll auf den GCC und das einzige was Sie machen, ist das Sie die GCC-Entwickler unterstützen. (Anders gesagt: Sie entwicklen nicht direkt selbst den Compiler.)
Sony wird schon seine gründe haben ;)
Ich denke schon bei der 2. Generation der Spiele sollten die entwickler recht gut mit der ganzen architektur umgehen können. Is ja bisher immer so gewesen. Und bisher scheint es ja noch niemanden verschreckt zu haben.
betasilie
2005-07-28, 11:23:40
es geht nicht ums schwer zu programmieren.
Sondern um das extrem schwere ausnutzen der Hardware.
Mit für heute denkbaren Mitteln und Programmierweisen ist es selbst unwarscheinlich auch nur 50% des Cells auszunutzen.
Ich würde mich nicht wundern wenn selbst bis zum PS4 Launch der Cell nicht komplett ausgnutzt wurde.
Wie kommst Du denn bitte zu so einer Aussage?
HellHorse
2005-07-28, 11:35:47
Sony wird sich bestimmt nicht hingesetzt haben und überlegt haben, wie sie das Leben ihrer Entwickler nun am besten zur hölle machen können.
Doch, ziemlich genau das hat man gemacht.
Gerade der Cell sollte als Multicore cpu sehr einfach zu progge sein da ehr die aufteilng in die threads fast selbstständig ausführt
:ulol5:
betasilie
2005-07-28, 11:38:32
Doch, ziemlich genau das hat man gemacht.
Schon klar. :crazy2:
Hellfire-Torrod
2005-07-28, 11:39:59
:ulol5:
Das ist mein Lieblingssmily :tongue:
btw hab ich "er" wirklich mit "h" geschrieben :confused:
ShadowXX
2005-07-28, 11:45:24
Doch, ziemlich genau das hat man gemacht.
:ulol5:
Das ist jetzt etwas übertrieben....sagen wir es mal so: Sie machen es den Devs nicht gerade einfach.
Aber Sie werden sich bestimmt nicht hingesetzt haben und dann gesagt haben: "Lasst uns ein System konzipieren, das so kompliziert zu Programmieren ist, das die Dvs mindestens 5 Jahre brauchen um überhaupt halbwegs durchzusteigen!".
Sony Systeme waren noch nie einfach zu Programmieren, aber dafür meistens auch noch nach 3-4 Jahren Steigerungsfähig.
(Wobei man durchaus darüber streiten kann, ob ein andere Weg (also die HW von anfang an leicht ausnutzbar zu machen) nicht auch eine überlegenswerte Alternative wäre...)
reunion
2005-07-28, 11:50:46
Sony Systeme waren noch nie einfach zu Programmieren, aber dafür meistens auch noch nach 3-4 Jahren Steigerungsfähig.
Tolles Argument.
So kann man aus jedem Nachteil irgendwie doch einen Vorteil machen.
Amun-Re
2005-07-28, 12:00:33
Also das selbstbewusste Auftreten von Sony hinsichtlich des Preises mutet fast schon arrogant an man rechtfertigt den hohen Preis mit einer ebenso hohen Lebenszeit und beziffert diese mit 10 Jahren.
Eine Dekade Playstation 3?
Schwer vorstellbar aber wie dem auch sei man scheint sich seiner Sache ziemlich sicher zu sein anonsten würde man nicht so selbtsicher einen hohen Preis lancieren.
betasilie
2005-07-28, 12:09:14
Tolles Argument.
So kann man aus jedem Nachteil irgendwie doch einen Vorteil machen.
Ob die Architektur der PS3 auf längere Sicht nachteilig ist, bleibt erstmal abzuwarten. Eine Konsolen muss 6 Jahre oder länger auf dem Markt sein und da ist es wichtiger eine leistungsstarke Konsole zu bringen, deren Leistung vielleicht erst nach einiger Zeit vollends genutzt werden kann, als eine Konsole mit wenig Potenzial, deren schwächere Leistung aber einfacher direkt zum Anfang genutzt werden kann. ... Eine Konsole ist kein PC und darf/sollte auch druchaus eigene Wege gehen. Wichtig ist wie sich eine Konsole nach 5 Jahre schlägt, denn der lange Atem zählt, nicht der schnelle und kurze.
reunion
2005-07-28, 12:23:18
Ob die Architektur der PS3 auf längere Sicht nachteilig ist, bleibt erstmal abzuwarten. Eine Konsolen muss 6 Jahre oder länger auf dem Markt sein und da ist es wichtiger eine leistungsstarke Konsole zu bringen, deren Leistung vielleicht erst nach einiger Zeit vollends genutzt werden kann, als eine Konsole mit wenig Potenzial, deren schwächere Leistung aber einfacher direkt zum Anfang genutzt werden kann. ... Eine Konsole ist kein PC und darf/sollte auch druchaus eigene Wege gehen. Wichtig ist wie sich eine Konsole nach 5 Jahre schlägt, denn der lange Atem zählt, nicht der schnelle und kurze.
Das eine schließt das andere nicht aus.
Warum keine leistungsstarke Konsole, welche sich einfach programmieren lässt?
Letztendlich wird sich zeigen müssen, welches Konzept den Käufer bzw. den Programmierer mehr anspricht.
Amun-Re
2005-07-28, 12:44:18
den Programmierer mehr anspricht.
Ich glaube nicht das über Erfolg und Misserfolg einer Konsole entschieden wird in dem ein Programmierer das Handling für ansprechend oder eben nicht befindet vielmehr werden die Programmierer sich damit abfinden müssen schließlich sind auch diese Leute meistens nur Knechte irgendwelcher großen Spieleschmieden und ausgehend davon das die PS3 sich flächendeckend etablieren wird wovon ich ausgehe wird man sich wohl oder übel mit einer (vermeintlichen?) schlecht zu programmierenden PS3 arrangeiren müssen.
betasilie
2005-07-28, 13:06:04
Full Ack @Amun-Re
Erstmal müssen sich die Studios an die Hardware gewöhnen und dann muss man in 2 Jahren mal ein vorläufige Bilanz ziehen. Die vermeintlichen branchenfremden Fachmänner, die sich ein Urteil über die neuen Konsolen erlauben, sollten mal die Füße still halten. Sowas können nur die Leute einschätzen, die selber ein paar Jahre mit der Hardware gearbeitet haben. Die PS3 ist jedenfalls erheblich leichter zu programmieren, als die PS2, das sagen alle Fachleute schon jetzt und wie gut die Developer in 2 Jahren mit der PS3 zurechtkommen, kann jetzt noch keiner sagen.
Ganon
2005-07-28, 13:52:52
Die PS3 ist jedenfalls erheblich leichter zu programmieren, als die PS2, das sagen alle Fachleute schon jetzt
Naja. Die PS3 hat ja nun auch endlich einen anständigen Grafikchip. Die PS2 konnte ja vorher fast gar nichts "inHardware".
Klar das da die PS3 leichter zu proggen ist, als die PS2.
betasilie
2005-07-28, 14:36:06
Naja. Die PS3 hat ja nun auch endlich einen anständigen Grafikchip. Die PS2 konnte ja vorher fast gar nichts "inHardware".
Klar das da die PS3 leichter zu proggen ist, als die PS2.
Was konnte die PS2 nicht in Hardware? Es wäre nett, wenn Du mir das genauer erklären würdest. Und um den Cell ordentlich zu nutzen braucht man auch kein Assembler mehr, was bei der PS2 CPU erforderlich wäre. Außerdem hat Sony ordentlich Verstärkung im Compiler Bereich bekommen.
VooDoo7mx
2005-07-28, 14:58:54
Wie kommst Du denn bitte zu so einer Aussage?
Lies dir doch einfach mal den gesamten Thread durch.
Anfangs war ich auch euphorisch was den Cell anging. Bin eben auf dem Hype reingefallen.
Wenn man sich aber mal genauer mit der Materie beschäftigt und Kritiken von Devs durchliest die nicht gekauft wurden, wird einen schnell klar, dass die Euphorie total unbegündet war.
Nehmen wir mal den Cell.
Wir haben hier einen ziemlich abgespeckten G5 ähnlichen PPC mit 7 weiteren Streamingprozessoren als Anhängsel. Bisher mit 2,4 Ghz getaktet mit der Zielsetzung 3,2GHz.
Das Problem ist, dass Streamingprozessoren nur ein sehr beschrenktes Aufgabenfeld bewältigen können.
Hinzu kommt das Problem mit der Parallelisierung.
Es gibt selbst heutzutage sehr wenig im Spielcode was man auf mehrere Cores parallelisieren.
Die Entwickler haben heute schon Probleme Spiel-Code sinnvoll auf 2 Threads (2 CPU Cores) aufzuteilen.
Und grob genommen muss man den Code um den Cell optimal auszunutzen auf mindestens 8 Threads parallelisieren.
Mit heutiger Denk- und Programmmierweise einfach unmöglich. Und das auch auf die nächsten 5 Jahre gesehen.
Aber frag doch einfach mal die Entwickler selber unter uns oder lies dir einfach mal den gesamten Thread durch.
Neomi
2005-07-28, 15:00:04
Was konnte die PS2 nicht in Hardware?
Beispielsweise Clipping und Backfaceculling, aber auch noch viele andere elementare Dinge.
Und um den Cell ordentlich zu nutzen braucht man auch kein Assembler mehr, was bei der PS2 CPU erforderlich wäre.
Assembler ist nicht deshalb nötig, weil es die PS2 ist, sondern weil der Compiler mindergünstige Arbeit leistet. Das eine hat mit dem anderen nichts zu tun.
betasilie
2005-07-28, 15:00:50
Lies dir doch einfach mal den gesamten Thread durch.
Anfangs war ich auch euphorisch was den Cell anging. Bin eben auf dem Hype reingefallen.
Wenn man sich aber mal genauer mit der Materie beschäftigt und Kritiken von Devs durchliest die nicht gekauft wurden, wird einen schnell klar, dass die Euphorie total unbegündet war.
Nehmen wir mal den Cell.
Wir haben hier einen ziemlich abgespeckten G5 ähnlichen PPC mit 7 weiteren Streamingprozessoren als Anhängsel. Bisher mit 2,4 Ghz getaktet mit der Zielsetzung 3,2GHz.
Das Problem ist, dass Streamingprozessoren nur ein sehr beschrenktes Aufgabenfeld bewältigen können.
Hinzu kommt das Problem mit der Parallelisierung.
Es gibt selbst heutzutage sehr wenig im Spielcode was man auf mehrere Cores parallelisieren.
Die Entwickler haben heute schon Probleme Spiel-Code sinnvoll auf 2 Threads (2 CPU Cores) aufzuteilen.
Und grob genommen muss man den Code um den Cell optimal auszunutzen auf mindestens 8 Threads parallelisieren.
Mit heutiger Denk- und Programmmierweise einfach unmöglich. Und das auch auf die nächsten 5 Jahre gesehen.
Aber frag doch einfach mal die Entwickler selber unter uns oder lies dir einfach mal den gesamten Thread durch.
Was der Cell ist, ist mir bekannt. Ich frage mich nur, wie Du zu deinen Schlussfolgerungen kommst. Was machst Du denn beruflich?
betasilie
2005-07-28, 15:02:35
Beispielsweise Clipping und Backfaceculling, aber auch noch viele andere elementare Dinge.
Das ist ja mal krass. Da kann man echt froh sein, dass Nvidia nun an Board ist.
Assembler ist nicht deshalb nötig, weil es die PS2 ist, sondern weil der Compiler mindergünstige Arbeit leistet. Das eine hat mit dem anderen nichts zu tun.
Habe ich was anderes gesagt?
Demirug
2005-07-28, 15:09:53
Lies dir doch einfach mal den gesamten Thread durch.
Anfangs war ich auch euphorisch was den Cell anging. Bin eben auf dem Hype reingefallen.
Wenn man sich aber mal genauer mit der Materie beschäftigt und Kritiken von Devs durchliest die nicht gekauft wurden, wird einen schnell klar, dass die Euphorie total unbegündet war.
Nehmen wir mal den Cell.
Wir haben hier einen ziemlich abgespeckten G5 ähnlichen PPC mit 7 weiteren Streamingprozessoren als Anhängsel. Bisher mit 2,4 Ghz getaktet mit der Zielsetzung 3,2GHz.
Das Problem ist, dass Streamingprozessoren nur ein sehr beschrenktes Aufgabenfeld bewältigen können.
Hinzu kommt das Problem mit der Parallelisierung.
Es gibt selbst heutzutage sehr wenig im Spielcode was man auf mehrere Cores parallelisieren.
Die Entwickler haben heute schon Probleme Spiel-Code sinnvoll auf 2 Threads (2 CPU Cores) aufzuteilen.
Und grob genommen muss man den Code um den Cell optimal auszunutzen auf mindestens 8 Threads parallelisieren.
Mit heutiger Denk- und Programmmierweise einfach unmöglich. Und das auch auf die nächsten 5 Jahre gesehen.
Aber frag doch einfach mal die Entwickler selber unter uns oder lies dir einfach mal den gesamten Thread durch.
Die SPUs sind keine richtigen Streamingprozessoren es sind noch nicht mal Vektor CPUs im eigentlichen Sinn dieses Begriffs.
Ich gebe dir aber recht das der größte Teil der Entwickler derzeit nicht in der Lage ist parallel zu denken und deswegen massive Probleme mit einer parallel arbeitenden Systemumgebung haben werden.
Das nächste Problem ist das mit "uralten" Engines gearbeitet wird die einfach nie dafür vorgesehen waren.
Neomi
2005-07-28, 15:10:37
Habe ich was anderes gesagt?
"Und um den Cell ordentlich zu nutzen braucht man auch kein Assembler mehr, was bei der PS2 CPU erforderlich wäre."
Das klang zumindest sehr danach, als hättest du es an der CPU festgemacht.
betasilie
2005-07-28, 15:14:13
"Und um den Cell ordentlich zu nutzen braucht man auch kein Assembler mehr, was bei der PS2 CPU erforderlich wäre."
Das klang zumindest sehr danach, als hättest du es an der CPU festgemacht.
Man sollte die Sachen nicht auseinander Quoten.
Und um den Cell ordentlich zu nutzen braucht man auch kein Assembler mehr, was bei der PS2 CPU erforderlich wäre. Außerdem hat Sony ordentlich Verstärkung im Compiler Bereich bekommen.
Gruß :)
xL|Sonic
2005-07-28, 15:27:04
kann gelöscht werden
ShadowXX
2005-07-28, 17:37:38
Was konnte die PS2 nicht in Hardware? Es wäre nett, wenn Du mir das genauer erklären würdest. Und um den Cell ordentlich zu nutzen braucht man auch kein Assembler mehr, was bei der PS2 CPU erforderlich wäre. Außerdem hat Sony ordentlich Verstärkung im Compiler Bereich bekommen.
Welche Verstärkung haben Sie denn im Compilerbereich dazugewonnen??
IBM, die sich von OpenSource-Programmierern den GCC aufbohren lassen??
Soweit ich das mitbekommen haben, sieht das in hinsicht auf vernünftige Compiler momentan für die PS3 noch ziemlich mau aus....
Amun-Re
2005-07-28, 18:08:42
Meint ihr nicht das man erstmal abwarten sollte bevor man den Cell als suboptimale Fehlkonstruktion" aburteilt?
Es liegt doch immerhin im Bereich des möglichen das Sony das KnowHow in Form von angepassten DevKits oder Whitepapers an große Spieleschmieden übermittelt um ein möglichst gutes Resultat zu gewährleisten.
Das der Cell alleine schon aufgrund seiner In-Order Architektur schwieriger zu programmieren sein wird ist sicherlichalles richtig aber das heißt doch nicht zwangsläufig das es unmöglich ist es erfordert doch einfach nur entsprechend versierte Programmierer die sich mit dem Cell auskennen.
Demirug
2005-07-28, 18:20:56
Meint ihr nicht das man erstmal abwarten sollte bevor man den Cell als suboptimale Fehlkonstruktion" aburteilt?
Es liegt doch immerhin im Bereich des möglichen das Sony das KnowHow in Form von angepassten DevKits oder Whitepapers an große Spieleschmieden übermittelt um ein möglichst gutes Resultat zu gewährleisten.
Das der Cell alleine schon aufgrund seiner In-Order Architektur schwieriger zu programmieren sein wird ist sicherlichalles richtig aber das heißt doch nicht zwangsläufig das es unmöglich ist es erfordert doch einfach nur entsprechend versierte Programmierer die sich mit dem Cell auskennen.
Das In Order Design ist das kleinste Problem weil man das durch den Compiler in den Griff bekommt. In dieser Beziehung ist Cell nicht viel anders als der original Pentium.
Die Herausforderung liegt darin das wir es hier mit einer CPU zu tun haben die massive darauf angewiessen ist das die Probleme zerlegt werden. Aufgrund der besonderen Speichersituation der SPUs kann man hier aber auch nicht die Erkenntnisse aus der bekannten Multithreading Programmierung direkt anwenden. Jetzt gibt es schon wenige Programmierer die mit Multithreading klar kommen also kann man sich vorstellen wie viele davon mit dieser verschärften Situation klar kommen werden.
Ich habe ja bereits aufgeführt das der geradezu blinde Glauben der Entwickler an C/C++ als die richtige Sprache zur Spieleentwicklung die Situation noch schlimmer macht. Den C/C++ wurde einfach nicht entworfen um dieses Problem zu lösen. Das erkennt man schon daran das weder die Sprache selbst noch die Standard Bibliotheken Funktionen für Multithreading enthalten.
Amun-Re
2005-07-28, 18:36:53
@demirug
Ich hab jetzt nicht das technische und theoretische Hintergrundwissen wie du als das ich die Situation wirklich detailiert bwerten kann allerdings seh ich das ganze eher unter einem logischen Gesichtspunkt und würdest du nicht auch unterschreiben das es kaum vorstellbar ist das Sony sich mit dem Cell solch einen fatalen Fauxpass leistet?
Oder ein anderer Ansatzpunkt wäre der das Cell primär für ein ganz anderes Einsatzfeld konzipiert wurde (HighDef TV) und sich Sony quasi nicht über eine suboptimale PS3 CPU ärgern braucht wo man sich doch sicher sein kann das Cell aufgrund seiner universellen Eignung für verschiedene Gebiete ohnehin eine lukrative CPU wird.
Demirug
2005-07-28, 18:54:10
@demirug
Ich hab jetzt nicht das technische und theoretische Hintergrundwissen wie du als das ich die Situation wirklich detailiert bwerten kann allerdings seh ich das ganze eher unter einem logischen Gesichtspunkt und würdest du nicht auch unterschreiben das es kaum vorstellbar ist das Sony sich mit dem Cell solch einen fatalen Fauxpass leistet?
Nein das würde ich nicht unterschreiben weil beim Systemdesign eben nicht nur die Logik eine Rolle spielt. Im Moment kauft Sony ja fleisig Software Lösungen ein.
Oder ein anderer Ansatzpunkt wäre der das Cell primär für ein ganz anderes Einsatzfeld konzipiert wurde (HighDef TV) und sich Sony quasi nicht über eine suboptimale PS3 CPU ärgern braucht wo man sich doch sicher sein kann das Cell aufgrund seiner universellen Eignung für verschiedene Gebiete ohnehin eine lukrative CPU wird.
Sony hat sich auch nicht über das PS2 Design geärgert die Entwickler dafür um so mehr.
Sony kann einfach seine Marktmacht nutzen die müssen nicht mit einer perfekten Lösung überzeugen.
Amun-Re
2005-07-28, 19:10:23
@Demirug
Aber dürfte nicht Sony auch dem Zwang unterliegen zumindest konkurrenzfähig zu sein was ja offensichtlich nicht der Fall zu sein scheint angesichts der bisherigen Informationen zum Cell und der Tatsache das man bewusst einen PremiumPreis lanciert hat dafür aber auch behauptet einen adäquaten Gegenwert liefern zu können.
Wenn Cell nun allerdings wirklich eine unterlegene CPU sein sollte auch unter Preis/Leistungs Gesichtspunkten gegenüber der XBox360 beispielsweise könnte man sich hier doch wohlmöglich ziemlich schnell ins eigene Bein schiessen.
Demirug
2005-07-28, 19:24:28
@Demirug
Aber dürfte nicht Sony auch dem Zwang unterliegen zumindest konkurrenzfähig zu sein was ja offensichtlich nicht der Fall zu sein scheint angesichts der bisherigen Informationen zum Cell und der Tatsache das man bewusst einen PremiumPreis lanciert hat dafür aber auch behauptet einen adäquaten Gegenwert liefern zu können.
Wenn Cell nun allerdings wirklich eine unterlegene CPU sein sollte auch unter Preis/Leistungs Gesichtspunkten gegenüber der XBox360 beispielsweise könnte man sich hier doch wohlmöglich ziemlich schnell ins eigene Bein schiessen.
Beim Verkaufen von Konsolen spielt die Psychologie eine große Rolle. "Teuer gleich gut" funktioniert da noch ausgezeichnet. Genauso ist die Markentreue dort viel stärker ausgeprägt. Die fehlenden wirklich objektive Vergleichsmöglichkeit trägt auch noch dazu bei.
Die XBox360 CPU hat ja auch ähnliche Probleme. Es wird also stark davon abhängen wer die Teams bekommt die damit umgehen können.
xL|Sonic
2005-07-28, 19:28:44
Nunja, vielleicht haben andere ja einfach ihre Hausaufgaben besser gemacht. Nicht alles was man entwickelt und was von Sony kommt muss perfekt sein und allem anderen überlegen sein. Im Grafikkartenmarkt ist es ja auch nicht viel anders, bei der einen Generation ist ATI vorne, bei der anderen Nvidia. Schließlich weiß keiner so genau, was der Konkurrent im Endeffekt bieten wird und wenn man überrascht wird, dann bleibt einem nur noch der Weg übers Marketing.
betasilie
2005-07-28, 19:57:34
Nunja, vielleicht haben andere ja einfach ihre Hausaufgaben besser gemacht. Nicht alles was man entwickelt und was von Sony kommt muss perfekt sein und allem anderen überlegen sein. Im Grafikkartenmarkt ist es ja auch nicht viel anders, bei der einen Generation ist ATI vorne, bei der anderen Nvidia. Schließlich weiß keiner so genau, was der Konkurrent im Endeffekt bieten wird und wenn man überrascht wird, dann bleibt einem nur noch der Weg übers Marketing.
Wenn Du auf die Xbox2 anspielt, bei der ist es ja noch schlimmer. Bei klassischen Singelethread-Engines ist die CPU nochmal langsamer, weil sie niedriger taktet, als der Cell.
Um Cell zu berwerten, müsste man an den Sony Developer Calls teilnehmen und die Papers sehen, um zu wissen wie Sony Cell verstanden sehen will. Wieviel Leistung der SPEs soll in die Grafik eingebracht werden, wieviel in Physik, usw.
Die speziell angepasste Version der Physikengine AGEIA soll als Middleware ohne Problem die SPEs ausnutzen. Eine SPE ist ohnehin für den Sound reserviert. Dann noch welche für die Unterstützung von Grafikroutinen und der Rest für Physik. Eine Aufteilung könnte wie folgt aussehen:
PPU - Maincode
SPE0 - Sound
SPE1/2/3 - Grafikroutinen
SPE4/5/6 - Physik
Somit könnte der Cell sehr viel Leistung für Spiele freisetzen. Was wäre denn an so einer Aufteilung falsch? Wer sagt, dass Sony das nicht genau so geplant hat und den Cell primär als Physik-CPU und Grafik-Co-Prozessor versteht? Was erwartet ihr denn für Wunder vom Cell?
Wenn Du auf die Xbox2 anspielt, bei der ist es ja noch schlimmer. Bei klassischen Singelethread-Engines ist die CPU noch mal langsamer, weil sie niedriger, als der Cell.
Wieso das denn? Laut Infos aus anderen Foren soll der TriCore für seine angepeilten Sekundär-Aufgaben sogar recht gut geeignet sein. Die Grafik-Berechnung macht der R500, Dinge wie KI, Sound und Physik die CPU. Also ist die eigentliche Leistungsfähigkeit des ganzen Systems weniger von ihr abhängig, ganz anders zum Cell, der auf Teufel komm raus funktionieren muss.
ShadowXX
2005-07-28, 20:15:21
Wenn Du auf die Xbox2 anspielt, bei der ist es ja noch schlimmer. Bei klassischen Singelethread-Engines ist die CPU nochmal langsamer, weil sie niedriger taktet, als der Cell.
Ich glaube aber, das es die Devs auf der Xbox360 etwas leichter haben, da Sie eben mit 3 "normalen" CPUs agieren (die auch alle 3 gleich Leistungsfähig sind und den gleichen Befehlssatz haben) und nicht wie beim Cell gleich mit 8, wobei es noch 2 verschieden Befehlssätze und momentan keine so ideale Sprache gibt.
3 "normale" Core sollten auch per C/C++ nicht sooooo extrem kompliziert ansprechbar sein, speziell da in den neuen MS-Compilern OpenMP-Support mit drinne ist.
Insgesamt gibt es IMHO einen Vorteil bei MS, was die Entwicklungs-SW-Seite und das OS angeht.....MS hat damit schon richtig viel Erfahrung.
(Damit will ich jetzt aber nicht sagen, das IBM und Sony nur mist bauen...)
Um Cell zu berwerten, müsste man an den Sony Developer Calls teilnehmen und die Papers sehen, um zu wissen wie Sony Cell verstanden sehen will. Wieviel Leistung der SPEs soll in die Grafik eingebracht werden, wieviel in Physik, usw.
Die speziell angepasste Version der Physikengine AGEIA soll als Middleware ohne Problem die SPEs ausnutzen. Eine SPE ist ohnehin für den Sound reserviert. Dann noch welche für die Unterstützung von Grafikroutinen und der Rest für Physik. Eine Aufteilung könnte wie folgt aussehen:
PPU - Maincode
SPE0 - Sound
SPE1/2/3 - Grafikroutinen
SPE4/5/6 - Physik
Somit könnte der Cell sehr viel Leistung für Spiele freisetzen. Was wäre denn an so einer Aufteilung falsch? Wer sagt, dass Sony das nicht genau so geplant hat und den Cell primär als Physik-CPU und Grafik-Co-Prozessor versteht? Was erwartet ihr denn für Wunder vom Cell?
Das löst das Problem der Programmierung aber auch nicht wirklich.....auf Whitepapers sieht alles toll, durchdacht und einfach aus.
reunion
2005-07-28, 20:20:08
Ich glaube aber, das es die Devs auf der Xbox360 etwas leichter haben, da Sie eben mit 3 "normalen" CPUs agieren (die auch alle 3 gleich Leistungsfähig sind und den gleichen Befehlssatz haben) und nicht wie beim Cell gleich mit 8, wobei es noch 2 verschieden Befehlssätze und momentan keine so ideale Sprache gibt.
3 "normale" Core sollten auch per C/C++ nicht sooooo extrem kompliziert ansprechbar sein, speziell da in den neuen MS-Compilern OpenMP-Support mit drinne ist.
ACK, du bringst die Sache auf den Punkt IMHO.
betasilie
2005-07-28, 20:21:20
Wieso das denn? Laut Infos aus anderen Foren soll der TriCore für seine angepeilten Sekundär-Aufgaben sogar recht gut geeignet sein. Die Grafik-Berechnung macht der R500, Dinge wie KI, Sound und Physik die CPU. Also ist die eigentliche Leistungsfähigkeit des ganzen Systems weniger von ihr abhängig, ganz anders zum Cell, der auf Teufel komm raus funktionieren muss.
Weil auch die Xbox360 CPU das gleiche Problem hat. Richtig Multithreadengines gibt es keine auf dem Markt und wenn man davon ausgeht, dass der Gamecode ohnehin als Singelthread läuft bei den kommenden Spielen, dann läuft dieser noch langsamer, nämlich nur mit ... ok, auch mit 3,2Ghz. :D ... Dann lüft der Singlethreadgamecode läuft auf beiden Systemen gleichschnell.
Nun zu den anderen Threads/Cores. Da ist Sony doch im Vorteil. Physik, Sound, Videostreaming in die Spielewelt und Grafikroutinen laufen auf den SPEs erheblich schneller, als auf den PPUs, oder sind dort erst richtig möglich. Genau deshalb hat Sony ja auch auf die SPEs gesetzt und genau deswegen hat Microsoft auch nur die PPEs bekommen. Die PPEs sind für den Gamecode gut, aber für Streamingaufgaben sind die SPEs besser geeeignet.
betasilie
2005-07-28, 20:27:20
Ich glaube aber, das es die Devs auf der Xbox360 etwas leichter haben, da Sie eben mit 3 "normalen" CPUs agieren (die auch alle 3 gleich Leistungsfähig sind und den gleichen Befehlssatz haben) und nicht wie beim Cell gleich mit 8, wobei es noch 2 verschieden Befehlssätze und momentan keine so ideale Sprache gibt.
3 "normale" Core sollten auch per C/C++ nicht sooooo extrem kompliziert ansprechbar sein, speziell da in den neuen MS-Compilern OpenMP-Support mit drinne ist.
Insgesamt gibt es IMHO einen Vorteil bei MS, was die Entwicklungs-SW-Seite und das OS angeht.....MS hat damit schon richtig viel Erfahrung.
(Damit will ich jetzt aber nicht sagen, das IBM und Sony nur mist bauen...)
OpenMP-Support gibts so weit ich weiß auch für die PS3. Aber mal abgesehen davon - es geht mir darum, dass man sich fragen muss, was für Spiele wichtiger ist. Sind 6 Hardwaretheads (Xbox360) in Form von PPEs notwendig und sinnvoll für Spiele? Oder aber sind 2 PPU-Hardwarethreads und 7 SPEs Threads für Physik, Grafik, etc. sinvoller? Ich sehe den Cell mehr an die Anforderungen von Spielen angepasst, denn ich will z.B. extrem viel Physik in den NextGen Spielen sehen und für sowas zum Beispiel ist der Cell optimal.
Demirug
2005-07-28, 20:39:24
ShadowXX, OpenMP so gut es mir auch gefällt ist letzende Endes auch nur Flickwerk.
betareverse, die SPUs sind in sich geschlossen schöne kompakte Prozessoren. Allerdings darf man eines nicht vergessen. Neben der PPE und den SPUs muss man auch noch den DMA Controller programmieren. Das sind 3 Baustellen und wenn das Timeing dabei nicht stimmt verliert man Leistung ohne Ende weil eine Einheit ständig auf die andere warten muss. Vorallem die Querkommnikation kann einen dabei umbringen.
In der Theorie hört sich Cell schön einfach an aber wer schon einmal verteilte System programmiert hat weiß wie kompliziert das ist. Letzen Endes ist Cell nämlich nichts anderes wie 8 Rechner die über ein schnelles Netzwerk verbunden sind. Erschwerden kommt dann noch hinzu das 7 der 8 Rechner nur wenig Speicher haben und einen anderen Befehlssatz. Eigentlich braucht man für die Programmierung von Cell Entwickler die im Programmieren von Clustersystemen fit sind und dabei auch schon einmal eine Anwendung programmiert haben bei der auf den einzelnen Nodes unterschiedliche Berechnungen durchgeführt werden. Das es davon nicht viele gibt und die zudem nicht gerade in der Spiele Entwicklung zuhausen sind dürfte klar sein.
Defakto haben wir es hier mit einem völlig neuen Forschunggebiet der Informatik zu tun. Am Ende kann dabei dann eigentlich nur eine neue Variante einer Sprache und eine völlig neue Runtime herauskommen.
betasilie
2005-07-28, 20:45:27
Da bin ich mal gespannt wie schnell wie effizient der Cell arbeitet. Der Kauf von SNsys ist jedenfalls mal ein Schritt in die richtige Richtung.
Demi, wie siehts denn aus mit den 6 Hardwarethreads in der Xbox360? Leichter und schneller ist die Sache dort doch auch nicht, oder?
Demirug
2005-07-28, 20:54:36
Demi, wie siehts denn aus mit den 6 Hardwarethreads in der Xbox360? Leichter und schneller ist die Sache dort doch auch nicht, oder?
Beo der XBox 360 kann man zumindestens die Erkenntnisse aus der Multithread programmierung auf dem PC anwenden. Zudem funktioniert dort als Notnagel OpenMP. Das OpenMP Konzept verträgt sich ja nicht sonderlich gut mit dem Cell Konzept weil OpenMP davon ausgeht das alle Threads auf den gleichen Speicher zugreifen können. Aus programmieresicht ist die XBox CPU daher leichter zu handeln. Wer allerdings von Multithreading keine Ahnung hat ist dort genauso verloren.
betasilie
2005-07-28, 21:01:50
Dank dir für deine Einschätzung. Ich bin sehr auf die nächsten 12 Monate gespannt und wie sich die Konsolenaplicationen tatsächlich entwickeln.
Erstmal vielen Dank für deine Informationen.
Weil auch die Xbox360 CPU das gleiche Problem hat. Richtig Multithreadengines gibt es keine auf dem Markt und wenn man davon ausgeht, dass der Gamecode ohnehin als Singelthread läuft bei den kommenden Spielen, dann läuft dieser noch langsamer, nämlich nur mit ... ok, auch mit 3,2Ghz. :D ... Dann lüft der Singlethreadgamecode läuft auf beiden Systemen gleichschnell.Wenn ich mich nicht irre, sind aber die drei XBox360-Cores schneller als die eine PPU der PS3, oder? Das der Cell ein Problem hat die SPE's richtig zu nutzen, dafür kann ich auch nix.
Nun zu den anderen Threads/Cores. Da ist Sony doch im Vorteil. Physik, Sound, Videostreaming in die Spielewelt und Grafikroutinen laufen auf den SPEs erheblich schneller, als auf den PPUs, oder sind dort erst richtig möglich. Genau deshalb hat Sony ja auch auf die SPEs gesetzt und genau deswegen hat Microsoft auch nur die PPEs bekommen. Die PPEs sind für den Gamecode gut, aber für Streamingaufgaben sind die SPEs besser geeeignet.Da die SPE aber nicht wirklich effektiv genutzt werden können, bleibt nicht mehr so extrem viel von diesem Vorteil. Versteh mich bitte nicht falsch, der Cell ist in meinen Augen besser als der TriCore, nur finde ich das Gesamtsystem TriCore-R500 besser als das System Cell-RSX. Es ist näher an der Realität.
Demirug
2005-07-28, 22:06:18
Da die SPE aber nicht wirklich effektiv genutzt werden können, bleibt nicht mehr so extrem viel von diesem Vorteil. Versteh mich bitte nicht falsch, der Cell ist in meinen Augen besser als der TriCore, nur finde ich das Gesamtsystem TriCore-R500 besser als das System Cell-RSX. Es ist näher an der Realität.
IMHO könnte Cell sehr mächtig sein wenn man einen enstprechenden Compiler und die passenden Runtime dazu hat. Dann sollte auch eine sehr effektive Nutzung der SPUs möglich sein.
betasilie
2005-07-28, 22:08:45
Erstmal vielen Dank für deine Informationen.
Wenn ich mich nicht irre, sind aber die drei XBox360-Cores schneller als die eine PPU der PS3, oder?
Ich sprach aber von den klassichen Engines, wo nur ein Core für den Gamecode genutzt wird. Speziell angepasste Engines sind wieder eine ganzn andere Sache.
IMHO könnte Cell sehr mächtig sein wenn man einen enstprechenden Compiler und die passenden Runtime dazu hat. Dann sollte auch eine sehr effektive Nutzung der SPUs möglich sein.Aber auch nur dann und es sieht derzeit nicht so aus, als ob das zuschnell passieren wird.
Ich denke aber, dass MS nicht unbedingt einen PowerPC-Prozzi haben wollte. Sie mussten nehmen was sie bekommen. Ein Intel- oder sogar AMD-Prozessor ist unrealistisch, da dies Kapazitäten bei einem Fremdhersteller verschlingt und man wegen Lizenzbedingungen ja lieber selbst die Herrschaft über die Produktion haben wollte. Außerdem, ein SingleCore P4 oder Athlon64 sieht dann doch etwas popelig aus und ein Multicore Pentium D oder Athlon 64 X2 ist wirklich verdammt schwer zu bekommen. Wie will man damit am Anfang noch im Zeitplan bleiben? Andere Hersteller haben überhaupt nicht die nötige Größe, geschweige denn den Anspruch High-Performance-Prozzis bauen zu wollen, VIA, oder sie sind bereits mit der Konkurrenz verbandelt. Einem Zugriff von MS zum Cell hätte Sony nie zugestimmt und somit bleibt eigentlich nur noch IBM. Bei IBM bekommt man aber "nur" PowerPC-Prozessoren. Da war es dann fast schon ein Glücksfall, dass die einen TriCore liefern können. Im Notfall, und das bahnt sich ja auch bei Nintendo an, hätte man auf einen Doppel-G5 zurückgreifen müssen, ähnlich wie Apple. Man muss halt nehmen was man bekommt.
Aber auch nur dann und es sieht derzeit nicht so aus, als ob das zuschnell passieren wird.
Ich denke aber, dass MS nicht unbedingt einen PowerPC-Prozzi haben wollte. Sie mussten nehmen was sie bekommen. Ein Intel- oder sogar AMD-Prozessor ist unrealistisch, da dies Kapazitäten bei einem Fremdhersteller verschlingt und man wegen Lizenzbedingungen ja lieber selbst die Herrschaft über die Produktion haben wollte. Außerdem, ein SingleCore P4 oder Athlon64 sieht dann doch etwas popelig aus und ein Multicore Pentium D oder Athlon 64 X2 ist wirklich verdammt schwer zu bekommen. Wie will man damit am Anfang noch im Zeitplan bleiben? Andere Hersteller haben überhaupt nicht die nötige Größe, geschweige denn den Anspruch High-Performance-Prozzis bauen zu wollen, VIA, oder sie sind bereits mit der Konkurrenz verbandelt. Einem Zugriff von MS zum Cell hätte Sony nie zugestimmt und somit bleibt eigentlich nur noch IBM. Bei IBM bekommt man aber "nur" PowerPC-Prozessoren. Da war es dann fast schon ein Glücksfall, dass die einen TriCore liefern können. Im Notfall, und das bahnt sich ja auch bei Nintendo an, hätte man auf einen Doppel-G5 zurückgreifen müssen, ähnlich wie Apple. Man muss halt nehmen was man bekommt.
Ja und deswegen Entwickelt man jahrelang mit einem Riesenaufwand einen Prozessor der wesentlich teurer ist als die vorhandenen? Schwachsinn.
HellHorse
2005-07-29, 16:14:32
Ja und deswegen Entwickelt man jahrelang mit einem Riesenaufwand einen Prozessor der wesentlich teurer ist als die vorhandenen? Schwachsinn.
Siehe Itanic
ShadowXX
2005-07-29, 16:27:30
Ja und deswegen Entwickelt man jahrelang mit einem Riesenaufwand einen Prozessor der wesentlich teurer ist als die vorhandenen? Schwachsinn.
Die Cores der tripple-Core-CPU der XBox 360 sind zu sehr hoher wahrscheinlichkeit ein Abfallprodukt des Cell PPC-Core.
(IBM soll sich vertraglich zugesichert haben, diese Teile des Cell auch andersweitig benutzen zu dürfen.)
Und die ähnlichkeiten (eher "identsichheiten") in den TecSpecs sind auch nicht zu übersehen.
Zudem ist dieser tripple-Core, obwohl es ein tripple-Core ist, wesentlich kleiner , einfacher und (sehr wichtig) billiger Herzustellen als ein P4 oder A64.
Für IBM ist das ein nettes Zubrot, für das Sie sich nicht wirklich ein Bein ausreissen mussten.
betasilie
2005-07-29, 16:27:56
Siehe Itanic
Was haben Itanmium und Cell gemeinsam? - Rein garnichts. Weder das Grundkonzept, noch den Entwickler, noch das Einsatzgebiet. Solche Postings sind schlichtweg Spam.
betasilie
2005-07-29, 16:34:33
Die Cores der tripple-Core-CPU der XBox 360 sind zu sehr hoher wahrscheinlichkeit ein Abfallprodukt des Cell PPC-Core.
(IBM soll sich vertraglich zugesichert haben, diese Teile des Cell auch andersweitig benutzen zu dürfen.)
Und die ähnlichkeiten (eher "identsichheiten") in den TecSpecs sind auch nicht zu übersehen.
Die PPU gehört IBM. Die dürfen mit diesen Teil des Cells alles machen was sie wollen. Den Cell macht nicht die PPU aus, sondern die SPEs und deren Verbundarchitektur.
Zudem ist dieser tripple-Core, obwohl es ein tripple-Core ist, wesentlich kleiner , einfacher und (sehr wichtig) billiger Herzustellen als ein P4 oder A64.
Für IBM ist das ein nettes Zubrot, für das Sie sich nicht wirklich ein Bein ausreissen mussten.
Der Chip ist wirklich ein Winzling im Gegensatz zu aktuellen PC-CPUs, obwohl sich 3-Core ideal für´s Marketing missbrauchen lässt.
Der Chip ist wirklich ein Winzling im Gegensatz zu aktuellen PC-CPUs, obwohl sich 3-Core ideal für´s Marketing missbrauchen lässt.
Yep. Und CELL ist eben kein winzling, sonder etwa doppelt so gross wie aktuelle A64 und P4s!
ShadowXX
2005-07-29, 17:46:46
Die PPU gehört IBM. Die dürfen mit diesen Teil des Cells alles machen was sie wollen. Den Cell macht nicht die PPU aus, sondern die SPEs und deren Verbundarchitektur.
Also sogar noch etwas deutlicher, als ich es in Erinnerung hatte.
Das der "Cell" eigentlich die SPEs sind, ist klar (bzw. das der relevante Teil die SPEs sind).
Interessant wäre meiner Meinung nach ein Cell, mit einer richtigen G5-CPU und so 4 SPEs.....
(Das könnte IMHO eine wirklich interessante CPU für den Desktop sein.)
betasilie
2005-07-29, 17:52:44
Also sogar noch etwas deutlicher, als ich es in Erinnerung hatte.
Das der "Cell" eigentlich die SPEs sind, ist klar (bzw. das der relevante Teil die SPEs sind).
Interessant wäre meiner Meinung nach ein Cell, mit einer richtigen G5-CPU und so 4 SPEs.....
(Das könnte IMHO eine wirklich interessante CPU für den Desktop sein.)
Das wäre ein schönes Spielzeug, aber viel zu teuer. Wir können froh sein, wenn wir auf dem PC irgendwann mal diese Physik Karte sehen. Das würde dann ja in Richtung Cell als Co-Prozessor gehen. ;)
Demirug
2005-07-29, 18:08:35
Cell als CoPro auf einer Steckkarte gibt es wohl bald zu kaufen. Nur der Preis dürfte heftig sein.
betasilie
2005-07-29, 18:24:48
Cell als CoPro auf einer Steckkarte gibt es wohl bald zu kaufen. Nur der Preis dürfte heftig sein.
Mit welcher Marktausrichtung?
Demirug
2005-07-29, 18:31:45
Mit welcher Marktausrichtung?
Das wollte mir die Dame von der Pressestelle und der zuständige Vice President nicht verraten.
betasilie
2005-07-29, 18:32:45
Das wollte mir die Dame von der Pressestelle und der zuständige Vice President nicht verraten.
Sehr nett. Vielleicht wissen sie es ja selbst noch nicht. :biggrin:
Lost Boy
2005-07-29, 19:27:06
'Collada' als offener Standard anerkannt
29.07.05 - Sony gibt bekannt, dass 'Collada' (COLLAborative Design Activity) von dem Software-Konsortium Khronos Group als offener Standard für die interaktive Unterhaltungsindustrie genehmigt wurde.
Collada ist ein mit XML verwandtes Tool, das auch für die PlayStation3 eingesetzt wird. Das Standardformat soll dafür sorgen, dass Entwickler nicht immer dieselben visuellen Elemente für verschiedene Spiele neu anlegen müssen, sondern ein bereits entworfenes Element (z.B. einen Baum) auch in anderen Development Tools und Spielesystemen darstellen können.
www.gamefront.de
Das wäre ein schönes Spielzeug, aber viel zu teuer.Kann du mir mal bitte erklären wo jetzt der riesige Unterschied zwischen der PPU des Cells und einem G5-MainCore sein soll?
betasilie
2005-07-29, 20:22:34
Kann du mir mal bitte erklären wo jetzt der riesige Unterschied zwischen der PPU des Cells und einem G5-MainCore sein soll?
Die PPU des Cell ist eine abgespeckte Version des G5 Core. Da wurde wohl einiges weggelassen, weil IBM viele Techniken aus dem G5 nicht teilen wollte mit den Cell-Partnern und weil ein G5 Core viel zu groß und überladen wäre für die Zielanwendung des Cell. Der Cell wäre mit der PPU kein idealer Desktopprozessor, insbesondere weil er ein konsequenter in-order Prozessor ist. Als Desktop-CPU wäre das zwar nicht so toll, aber in einer Konsole stellt das zum Beispiel kein Problem dar, weil die Compiler den passenden Code ausspucken. Aber was im Detail alles geändert und weggelassen wurde bleibt mangels Informationen erstmal im dunkeln oder ich weiß es schlicht nicht.
Die Idee einfach einen G5 Core in einen Cell zu flanschen würde meiner Meinung nach auch nicht so einfach gehen, weil die PPU speziell für Cell bzw. Multicore entwickelt wurde, und weil ein G5 Core viel zu groß wäre. Die Leistung des Cells soll ja primär aus den SPEs kommen und nicht aus der PPU. Daher ist der Wunsch nach einem G5 Core etwas abwegig, weil das einfach nicht der konzeptionellen Ausrichtung von Cell entspricht.
ShadowXX
2005-07-29, 21:20:44
Die Idee einfach einen G5 Core in einen Cell zu flanschen würde meiner Meinung nach auch nicht so einfach gehen, weil die PPU speziell für Cell bzw. Multicore entwickelt wurde, und weil ein G5 Core viel zu groß wäre. Die Leistung des Cells soll ja primär aus den SPEs kommen und nicht aus der PPU. Daher ist der Wunsch nach einem G5 Core etwas abwegig, weil das einfach nicht der konzeptionellen Ausrichtung von Cell entspricht.
Es mag nicht der Grundidee von Cell entsprechen, aber unmöglich wäre es bestimmt nicht und wenn man die Cell Idee noch mal für den Desktop aufarbeiten möchte wäre es IMHO eine nette Lösung.
Du hättest einen schnellen General-Purpose Teil und dazu noch durch die SPEs die möglichkeit für schnelles Streaming, Raytracing &co.
Das man dafür natürlich nicht einfach den G5 nehmen kann und ein paar SPEs auf den Die pflanzt ist klar.
Mal sehen was die Zukunft bringt....wobei ich auch glaube, das sowas in näherer Zukunft eher über Steckkarten gelöst wird.
Ich glaube auch nicht, das die von Demi angesprochenen Cell-Karte, für den Homebereich gedacht ist (leider) ;)
Dazu wird Sie wohl auch ein Monatsnettogehalt (oder eher 2 bis 3) kosten.
Je länger ich darüber nachdenke, desto mehr frage ich mich, warum Apple nicht auf sowas umgestiegen ist (es hätte aber natürlich nicht das iBook-Problem gelöst...)
@betareverse: Danke!
@ShadowXX: Cell als Add-On-Karte? Das hättet ihr PCler natürlich gerne. Damit könntet ihr wieder behaupten, es gäbe alles auch für den PC und Konsolen wären nutzlos. ;) Allerdings, welches Anbindung einer Steckkarte hast du den im Auge die den Cell nicht ausbremst? PCI-E 64x?
Demirug
2005-07-30, 09:20:34
@ShadowXX: Cell als Add-On-Karte? Das hättet ihr PCler natürlich gerne. Damit könntet ihr wieder behaupten, es gäbe alles auch für den PC und Konsolen wären nutzlos. ;) Allerdings, welches Anbindung einer Steckkarte hast du den im Auge die den Cell nicht ausbremst? PCI-E 64x?
Du weisst aber schon das eine Firma von IBM eine Lizenz dafür hat solche Erweiterungskarten zu bauen?
Das Interface muß sich natürlich am Fan-In/Fan-Out ausrichten. Aber wenn das was der Cell dann rechnen muss wenig Datenaustausch mit der CPU des Hosts betreiben muß reicht sogar PCI völlig aus. Das ist letzten Endes nicht anders als bei Cluster Systemen oder anderen Co Prozessor Karten.
Du weisst aber schon das eine Firma von IBM eine Lizenz dafür hat solche Erweiterungskarten zu bauen?
Das Interface muß sich natürlich am Fan-In/Fan-Out ausrichten. Aber wenn das was der Cell dann rechnen muss wenig Datenaustausch mit der CPU des Hosts betreiben muß reicht sogar PCI völlig aus. Das ist letzten Endes nicht anders als bei Cluster Systemen oder anderen Co Prozessor Karten.Wie du meinst.
PS3
The integrated Cell processor will be able to support a variety of operating systems (such as Linux or Apple's Tiger).
http://www.sony.co.uk/view/ShowArticle.action?article=1121156666920
Ich würde gerne mal eine Art "Umfrage" zu XBox360 und PS3 starten. Könnten einige von euch schreiben wie sie die Komponenten der beiden Konsolen finden? Dazu sollt ihr mit Wertungen von 1-10 und kurzer Begründung argumentieren.
Der Sinn ist ganz einfach: Jeder soll nicht nur kritisieren, sondern auch Vorteile aufzeigen. Ein Vergleich mit dem PC ist nicht Sinn der Sache.
Folgende Komponenten würde ich bewerten wollen:
1. CPU (TriCore vs Cell)
2. GPU (R500 vs RSX)
3. RAM (512 MB unified vs 256 MB RAM + 256 MB GRAM)
4. Speichermedium (20 GB Festplatte + DVD-DL vs BlueRay)
5. Online-Features
Meine Meinung zum Anfang: (XBox360 / PS3)
1. 7 / 8 (Cell theoretisch wesentlich stärker)
2. 10 / 8 (R500 cleverer desgined)
3. 8 / 7 (Texturen größer 256 MB RAM bei PS3 ungünstig)
4. 8 / 8
5. 10 / 5 (engagierte Lösung gegen "Tut doch was ihr wollt...")
Rampage
2005-08-07, 09:37:16
1. 7 / 8 (halte den Cell für deutlich stärker, allerdings auch schwerer zu programmieren)
2. 8.5 / 9 (RSX ist tehoretisch stärker, weiß aber zu wenig)
3. 7 / 10 (der Systemspeicher der PS3 soll auf 512 MB XDR Ram gesteigert werden, daher ganz klarer Vorteil)
4. 8 / 9 (tja, mal sehen was kommt. evtl. kommt für die PS3 doch ne Festplatte. Halte den Vorteil einer HDD aber nicht für sonderlich groß)
5. 9 / ?? (Mal sehen was kommt. Die Lösung von MS klingt momentan recht gut)
Die PPU des Cell ist eine abgespeckte Version des G5 Core.Nein. Das Ding hat bis auf den Befehlssatz nichts mit G5 zu tun.
Lost Boy
2005-08-08, 00:29:21
Xbox360 vs. Playstation 3
1. 7/9- (TriCore der Xbox wird gute ergebnisse liefern. Cell ist flexibler und leistungsfähiger, wird aber auch schwer zu programmieren sein.)
2. 8/8- (R500 interessantes design = Unified Shader Architecture + 10 MB embedded DRAM, RSX warscheinlich stärker = Taktung + Shader Operations/s (theoretisch))
3. 7/10- XDR-Ram der PS3 deutlich schneller, falls der Systemspeicher tatsächlich noch auf 512 MB XDR-Ram (+ 256 MB-VRAM) erhöht wird es ein mehr als deutlicher Vorteil für Sony.
4. 6/10- (Festplatte finde ich persönlich nicht so wichtig. Deutlicher Pluspunkt für Sony und BlueRay)
5. 9/6- (Sehr gutes Online Konzept von Microsoft. Sony hat für NexGen nichts neues präsentiert, aktuell ist ok aber XboxLive ist deutlich besser.)
@demirug
Ich hab jetzt nicht das technische und theoretische Hintergrundwissen wie du als das ich die Situation wirklich detailiert bwerten kann allerdings seh ich das ganze eher unter einem logischen Gesichtspunkt und würdest du nicht auch unterschreiben das es kaum vorstellbar ist das Sony sich mit dem Cell solch einen fatalen Fauxpass leistet?
Oder ein anderer Ansatzpunkt wäre der das Cell primär für ein ganz anderes Einsatzfeld konzipiert wurde (HighDef TV) und sich Sony quasi nicht über eine suboptimale PS3 CPU ärgern braucht wo man sich doch sicher sein kann das Cell aufgrund seiner universellen Eignung für verschiedene Gebiete ohnehin eine lukrative CPU wird.
Naja was heißt fatalen Fauxpass? Sieh dir deren Marketing an und welche wirkung es um die EEE2005 verursacht hat, dann lies dir die posts von betaverse durch und du wirst merken das SONY jeden Dreck an den mann bringen kann. Vor lauter theorethischen Daten haben hier viele vergessen worauf es ankommt, die Praxis! Ich bin nicht bereit 700€ für eine konsole zu berappen von der versprochen wird Sie wäre das non plus ultra in ihrem bereich, dann bekomme ich einen abgespeckten Cell, "Dual 7800GTX" (wobei das noch der bessere part ist) und sonstigen schmarrn wie 2 hdmi ausgänge (die niemals genutzt werden, totaler realitätsverlust seitens sony) zig usb ports. Falls jemandem was zur transistorzahl einfällt, ja betaverse ist gemeint, 300Mill Transistoren sagen noch lange nichts, die 7800Gtx hat mehr.
Es ist mir auch egal ob die PS3 2 eth anschlüsse hat oder nur einen, blueray ist nicht auschlaggebend, denn bis sich der standart etabliert hat dauert es noch eine ganze weile, HD-DVD liegt da wesentlich näher!
Hydrogen Snake
OpenMP-Support gibts so weit ich weiß auch für die PS3. Aber mal abgesehen davon - es geht mir darum, dass man sich fragen muss, was für Spiele wichtiger ist. Sind 6 Hardwaretheads (Xbox360) in Form von PPEs notwendig und sinnvoll für Spiele? Oder aber sind 2 PPU-Hardwarethreads und 7 SPEs Threads für Physik, Grafik, etc. sinvoller? Ich sehe den Cell mehr an die Anforderungen von Spielen angepasst, denn ich will z.B. extrem viel Physik in den NextGen Spielen sehen und für sowas zum Beispiel ist der Cell optimal.
Der Cell ist ein Multimedia Chip der auch in neuen Haushaltgeräten eingesetzt werden soll z.B. HDTV Geräte usw... somit ist diese aussage für den A....
Du hast aber gar keine Ahnung oder!? Schonmal versucht in cpp mehrere threads auszuführen!? und damit meine ich nicht mit managed extensions ala .net framework!?
Egal, 2007 hab ich dann nen Aldi-PC, der 256 Playstation3 gleichzeitig emulieren kann. :-)
Genau SO kommt mir das augenblicklich vor, nur umgekehrt. Okay, lassen wir das: Eine Frage, die mich dabei wirklich beschäftigt ist: angenommen, Killzone protzt tatsächlich mit sagenhafter Optik: Wo zum Geiser werden all die Daten hierfür verstaut? 256MB ist doch ein schlechter Witz in Anbetracht der aufkommenden Datenmenge oder habe ich irgendwas verpasst?! Selbst 512MB sind für gängige heutige PC-Spiele so das unterste Limit, die anstehende Generation der Grafikkarten wird 512MB Speicher allein für sich haben, während der Systemhauptspeicher die 2GB-Latte erklimmen wird.
Wo viel Optik, da viel DATEN ... und die Konsolen werden diese sicher nicht on-the-fly von der DVD/BD lesen. Insofern glaube ich sehr, sehr wenig von dem, was einem glauben gemacht werden soll. Prinzipiell können für Konsolen die Spiele zwar besser aussehen, weil die Entwickler sich nicht mit einem albtraumhaften Hardware-/Software-Pool auseinandersetzen müssen, das setzt viel Potential frei, ABER den Quatsch glaube ich erst, wenn ich beim lokalen Händler den Kids über die Schulter schauen kann. Bis dahin hab ich das übermächtige Gefühl, das hier Augenwischerei im größeren Maßstab betrieben wird, faktisch Rendervideos und Spielgrafik munter durcheinandergeworfen und mit vollmundigen Versprechungen garniert werden.
ShadowXX, OpenMP so gut es mir auch gefällt ist letzende Endes auch nur Flickwerk.
betareverse, die SPUs sind in sich geschlossen schöne kompakte Prozessoren. Allerdings darf man eines nicht vergessen. Neben der PPE und den SPUs muss man auch noch den DMA Controller programmieren. Das sind 3 Baustellen und wenn das Timeing dabei nicht stimmt verliert man Leistung ohne Ende weil eine Einheit ständig auf die andere warten muss. Vorallem die Querkommnikation kann einen dabei umbringen.
In der Theorie hört sich Cell schön einfach an aber wer schon einmal verteilte System programmiert hat weiß wie kompliziert das ist. Letzen Endes ist Cell nämlich nichts anderes wie 8 Rechner die über ein schnelles Netzwerk verbunden sind. Erschwerden kommt dann noch hinzu das 7 der 8 Rechner nur wenig Speicher haben und einen anderen Befehlssatz. Eigentlich braucht man für die Programmierung von Cell Entwickler die im Programmieren von Clustersystemen fit sind und dabei auch schon einmal eine Anwendung programmiert haben bei der auf den einzelnen Nodes unterschiedliche Berechnungen durchgeführt werden. Das es davon nicht viele gibt und die zudem nicht gerade in der Spiele Entwicklung zuhausen sind dürfte klar sein.
Defakto haben wir es hier mit einem völlig neuen Forschunggebiet der Informatik zu tun. Am Ende kann dabei dann eigentlich nur eine neue Variante einer Sprache und eine völlig neue Runtime herauskommen.
Sony sagt von sich aus das der Cell ein neues Paradigma sei! Was deiner aussage definitv entspricht!
Hydrogen Snake
Sony sagt von sich aus das der Cell ein neues Paradigma sei! Was deiner aussage definitv entspricht!
Hydrogen Snake
Gib mal die Quelle an. Du flamest hier ständig gegen Sony und hypest die X360 ohne auch nur mal im Ansatz Quellen für deine Aussagen zu bringen.
Gib mal die Quelle an. Du flamest hier ständig gegen Sony und hypest die X360 ohne auch nur mal im Ansatz Quellen für deine Aussagen zu bringen.
Es ist wohl eher umgekehrt ich flame nicht gegen Sony, die xbox 360 wird hier geflamed und als abfallprodukt dargestellt!
Quelle ist eine Zeitschrift gewesen. (Spielezeitschrift) Kannst mir glauben, außerdem solltest du google benutzen bevor du irgendwas verlangst!
Hydrogen Snake
Lost Boy
2005-08-08, 21:26:21
Genau SO kommt mir das augenblicklich vor, nur umgekehrt. Okay, lassen wir das: Eine Frage, die mich dabei wirklich beschäftigt ist: angenommen, Killzone protzt tatsächlich mit sagenhafter Optik: Wo zum Geiser werden all die Daten hierfür verstaut? 256MB ist doch ein schlechter Witz in Anbetracht der aufkommenden Datenmenge oder habe ich irgendwas verpasst?! Selbst 512MB sind für gängige heutige PC-Spiele so das unterste Limit, die anstehende Generation der Grafikkarten wird 512MB Speicher allein für sich haben, während der Systemhauptspeicher die 2GB-Latte erklimmen wird.
256 MB XDR-RAM Hauptspeicher + 256 MB GDDR3- VRAM sollten für eine Konsole mehr als ausreichen. Schau dir einfach die aktuellen Konsolen an, was z.B auf der Xbox ( Celeron 733MHz, 64MB Hauptspeicher, GF 3 ähnliche Grafikkarte !!!) machbar ist. Doom3 ist schon erschienen, Half Life 2 und Far Cry ( welches spielerisch sehr viel anspruchsvoller sein wird als die PC Version...) kommen noch.
Es ist einfach lächerlich wie hier PC-Hardware mit Konsolenhardware verglichen wird ...
>>Es ist einfach lächerlich wie hier PC-Hardware mit Konsolenhardware verglichen wird ...<<
Blablub es ist lächerlich und peinlich anzunehmen, dass das enorme Datenvolumen mittels "Hokuspokus" mal eben zusammengequetscht wird, zumal bei HD-Auflösung(!). Bei der alten XBOX sieht man unschwer, wo gespart wird.
Irgendwo muss der Kram untergebracht werden und kein Hokuspokus irgendeiner "Wunderhardware", an die du offenbar glaubst, stauchen Gigabytes an Daten mal eben auf 256MB/256MB zusammen. Kompression wird beim PC ebenfalls angewandt und bevor du weiter rumsabberst, erklär mir dann mal, warum der PC so viel Speicher (Windows abgezogen) mehr braucht - für eine Grafik, die ja bald "um Lichtjahre" überholt sein soll ... Ne, ne, Freundchen. Substanz bitte statt kindisches Geplärre.
Genau SO kommt mir das augenblicklich vor, nur umgekehrt. Okay, lassen wir das: Eine Frage, die mich dabei wirklich beschäftigt ist: angenommen, Killzone protzt tatsächlich mit sagenhafter Optik: Wo zum Geiser werden all die Daten hierfür verstaut? 256MB ist doch ein schlechter Witz in Anbetracht der aufkommenden Datenmenge oder habe ich irgendwas verpasst?! Selbst 512MB sind für gängige heutige PC-Spiele so das unterste Limit, die anstehende Generation der Grafikkarten wird 512MB Speicher allein für sich haben, während der Systemhauptspeicher die 2GB-Latte erklimmen wird.
PC-Systeme haben ja aber auch noch ein Betriebssystem, was ordentlich abzwackt. Bei 1 GB RAM bleibt bei mir noch etwa 700 MB, inclusive aller möglichen Programme, die man so mit hochläd. Wenn ich dann ein Speicher-intensives Spiel lade, HL2 mit allen Details, und mir dann anschaue was das braucht (ca. 350 MB), dann sind 512 MB, und das ohne OS, eigentlich nicht zu wenig.
Wie bei jeder Konsole geht der XBox360 oder PS3 aber auch irgendwann der Saft aus, im Vergleich zum PC. Das ist leider so. Nur fragt sich wann es wirklich so kritisch wird, dass die Textur-Qualität durch Komprimierungen drunter leidet. Besonders bei der PS2 war das schlimm, die konnte nicht wirklich gut mit komprimierten Texturen. Da haben aber die Hersteller dazu gelernt, beide, Sony und MS, die das ja auch schon bei der XBox machten, wissen mittlerweile wie das geht.
PS: Vielen Dank für die Leute die an der "Umfrage" teilgenommen haben und noch hoffentlich werden...
skoRn
2005-08-08, 22:59:56
256 MB XDR-RAM Hauptspeicher + 256 MB GDDR3- VRAM sollten für eine Konsole mehr als ausreichen. Schau dir einfach die aktuellen Konsolen an, was z.B auf der Xbox ( Celeron 733MHz, 64MB Hauptspeicher, GF 3 ähnliche Grafikkarte !!!) machbar ist. Doom3 ist schon erschienen, Half Life 2 und Far Cry ( welches spielerisch sehr viel anspruchsvoller sein wird als die PC Version...) kommen noch.
Es ist einfach lächerlich wie hier PC-Hardware mit Konsolenhardware verglichen wird ...
Die PS2 und Die Xbox werden auch keine HDTV Auflösungen rendern müssen.
Bei Fable und Deus Ex wurde der Speicher auch bei der NTSC Auflösung so knapp, daß die Levels richtig mikrig waren.
Wenn Texturen schärfer, abwechslungsreicher und größer sein werden. Und die ersten bewegten Bilder deuten es ja schin an, dann "könnten" 512mb auch wie auf der Xbox so knapp werden, daß man wie bei fable und DX2 auf Tricks zurückgreifen muss.
Lost Boy
2005-08-08, 23:18:44
Die Levels von DEUS EX 2 waren auf dem PC genauso mikrig wie auf der xbox wenn ich mich recht erinnere :confused:
skoRn
2005-08-08, 23:20:45
Richtig. Aber nur weil das Spiel von der XBox auf den PC portiert wurde. Deswegen kritisieren ja auch soviele PC Gamer halbherzige konvertierungen. Zumindest die Technik, hätte man anpassen können, aber der Aufwand wäre sicherlich zu hoch gewesen.
Lost Boy
2005-08-08, 23:42:30
>>Es ist einfach lächerlich wie hier PC-Hardware mit Konsolenhardware verglichen wird ...<<
Blablub es ist lächerlich und peinlich anzunehmen, dass das enorme Datenvolumen mittels "Hokuspokus" mal eben zusammengequetscht wird, zumal bei HD-Auflösung(!). Bei der alten XBOX sieht man unschwer, wo gespart wird.
Irgendwo muss der Kram untergebracht werden und kein Hokuspokus irgendeiner "Wunderhardware", an die du offenbar glaubst, stauchen Gigabytes an Daten mal eben auf 256MB/256MB zusammen. Kompression wird beim PC ebenfalls angewandt und bevor du weiter rumsabberst, erklär mir dann mal, warum der PC so viel Speicher (Windows abgezogen) mehr braucht - für eine Grafik, die ja bald "um Lichtjahre" überholt sein soll ... Ne, ne, Freundchen. Substanz bitte statt kindisches Geplärre.
Das Wort "Wunderhardware" hab ich nie in den Mund genommen. Tja, warum PC-Spiele mehr Speicher brauchen kann ich dir nicht sagen. Kannst du es mir denn erklären? Vieleicht weil es ne Handvoll (positiv geschätzt...) kompetente Entwicklerteams gibt die ne vernünftige Engine schreiben und ein Spiel vernünftig optimieren können?ich weiss es nicht... Wenn ich sehe was mit 64 MB Hauptspeicher (XBOX) oder mit 4MB VRAM (PS2) machbar ist, dann ist es für mich eine logische konsequenz, dass mit 256MB+256MB VRAM sehr beeindruckende ergebnisse erreicht werden.
Und ich glaube auch nicht das aktuelle PC-Grafik um Lichtjahre überholt wird. Wo du das gehört hast, weiss ich nicht. Was war denn deiner Meinung nach an der Killzone-Demo so beeindruckend? Die Grafik? Finde ich nicht unbedingt. OK, nette Texturen,hoher Polygoncount und nette effekte gabs zu sehen. Sowas sollte man schon erwarten dürfen, nicht unbedingt zum launch, aber mit sicherheit zur 2 oder 3 Spielegeneration. Das beeindruckende an der Demo waren, die fantastischen animationen der figuren, die Physik, die KI und die unglaubliche Kriegsatmosphäre... Und in genau diesen Punkten (AI,Physik,Animationen) werden die neuen Konsolen auftrumpfen, oder sehe ich das falsch?
skoRn
2005-08-08, 23:50:38
Ich kenne bisher kein Konsolenspiel, was wirklich in sachen Komplexität wegweisend war. Die neuen Konsolen werden daran auch kaum etwas ändern. Konsolenspieler können mit Rome:Total War nichts anfangen, wo sich PC Spieler mehr möglichkeiten mehr komplexität wünschen. Ein Civilisation auf Konsole ist genauso zum scheitern verurteilt, wie ein Adventure ohne Aktionelemente. Meiner Meinung nach schade, aber das Spielerprofil ist nunmal anders.
Was sich weiterentwickeln wird ist die Grafik und deren sekundäre Merkmale, wie größere Level und Physik. Wer komplexere Spiele erwartet setzt sicher aufs falsche Pferd.
Allerdings kenne ich mich mit Konsolen auch nicht wirklich aus und lasse mich gerne mit Beispielen umstimmen.
Lost Boy
2005-08-09, 00:26:40
Also wegweisende PC-Spiele waren für mich DEUS EX, Half Life1+2 und Unreal. Nicht sehr viel für die letzten paar jahre. Die Dntwicklung der PC-Spiele geht irgendwie nicht weiter, außer natürlich bei der Grafik. Was natürlich am mitlerweiler ausartenden Hardwarkrieg liegt. HL2 war eigentlich das einzigste Spiel der letzten 2-3 Jahre was mich wircklich gefesselt und beeindruckt hat.
Auf den Konsolen sieht das Ganze etwas anders aus. Paradebeispiel ist die GTA Serie. GTA3 hat damals eingeschlagen wie eine Bombe. Oder z.B die Metal Gear Solid Spiele auf der PS2. mir fällt kein spiel auf dem PC ein, außer HL2, welches vom Gamplay, Präsentation, Story und Atmospäre da mithalten kann. Genau diese punkte werden bei PC Spielen irgendwie vernachlässigt, so kommt es MIR zumindest vor. Und an Rennspielen gibt es am PC sowieso kaum was brauchbares... Da war Gran Turismo z.B, auch was komplexität angeht, mehr als wegweisend. Aber das ist hier ja eigentlich garnicht das Thema.
betasilie
2005-08-09, 00:33:44
Ich kenne bisher kein Konsolenspiel, was wirklich in sachen Komplexität wegweisend war. Die neuen Konsolen werden daran auch kaum etwas ändern. Konsolenspieler können mit Rome:Total War nichts anfangen, wo sich PC Spieler mehr möglichkeiten mehr komplexität wünschen. Ein Civilisation auf Konsole ist genauso zum scheitern verurteilt, wie ein Adventure ohne Aktionelemente. Meiner Meinung nach schade, aber das Spielerprofil ist nunmal anders.
Was sich weiterentwickeln wird ist die Grafik und deren sekundäre Merkmale, wie größere Level und Physik. Wer komplexere Spiele erwartet setzt sicher aufs falsche Pferd.
Allerdings kenne ich mich mit Konsolen auch nicht wirklich aus und lasse mich gerne mit Beispielen umstimmen.
Ja toll. Gibt es überhaupt Strategiespiel auf Konsolen? ... Wieso also dieser hinrissige Vergleich zwichen PC Strategiespielen und nicht vorhandenen Konsolen-Strategiespielen? :uban:
Ansonsten sind eigentlich in jedem Genre, abseits von Strategie, Sim und Egoshooter, die Konsolenspiele um Welten besser, komplexer, ausgereifter, etc. als PC Spiele. Und das wird auch so bleiben, weil sich teurer, komplexe, durchdachte, aufwendige Produktionen auf dem PC nur in wenigen Fällen lohnen.
skoRn
2005-08-09, 00:40:33
Ja aber wo ist denn die komplexität?
Final Fantasy zB ist für viele das Vorzeigerollenspiel.
Wer aber jemals Baldurs Gate, Ultima, Ice Wind Dale 2, Morrowind gespielt hat, kann ja nur zustimmen das Final Fantasy ein Action Adventure mit Rollenspiel Elementen und fantastischer Presentation ist. Komplex ist da garnichts. Weder von der Spielmechanik, noch von der Technik.
Wenn ich Kumpels (nur Konsolenspieler) die meinten Rollenspieler zu sein Morrowind oder Baldurs Gate aufgetischt habe waren die Spiele für die viel zu Komplex um spaß zu machen.
Und was an Rennspielen, Shootern, Ballergames komplexer auf der Konsole sein soll kann mich gerne auch jemand aufklären. Vorgerenderte Räume mit minimal Inventar ala Resident Evil Clone Games wirst du ja nicht als komplex bezeichnen oder?
Wie gesagt ich kenne mich nicht wirklich aus und habe daher einige Wissenslücken und lasse mich gerne belehren.
Petter
2005-08-09, 00:44:24
...Ich habe mich jetzt nicht durch alle Seiten gekämpft...
Aber ich will euch mal erklären warum die 360 ein verdammt Leistungsfähiges System ist.(besser als PS3 oder jetzige Rechner)
Erstmal zum Cell, also bzw. die PS3.
Der Cell ist absolut schlecht in Branch-Prediction und seine SPEs noch viel schlimmer. Wie willst du denn ein Spiel bildhaft gesprochen so auftstellen wie SETI? Versuch mir mal zu erkläre wie die Routine aussehen soll die die Ergebnisse der einzelnen Arbeitsstationen (SETI-Clients) wieder zusammenbastelt damit man es im Code verwenden kann. Very Long Instruction Words (VLIW) haben mit den SPEs und wie Games diese verwenden bzw. Verwendung finden können nichts zu tun. Das ist technischer Humbug. Wie ich schon früher schrieb: Ein Programm/Optimierer kann die Komplexität einer Spieleengine nicht auf die Streamobjekte wie SPEs abbilden. a) hat das eine nichts mit dem anderen zu tun und b) wenn es so wäre würde der Branchpredictioncode so groß sein das mehr Rechnenzeit dafür draufginge die Ergebnisse zu sortieren/verwalten das von der Generalpurposeleistung noch weniger übrig bleiben würde als sowieso schon zur Verfügung steht.
Darauf schrieb man mir folgenden Text:wurde da nicht ganz auf branch-prediction verzichtet, weil es befehle gibt, die aus bis zu 3 quellen entsprechende hinweisbits errechnen können?
und was spricht dagegen die komplexität auf streamobjekte abzubilden?
entsprechend viele code-verzweigungen und parallelität vorausgesetzt, könnte man doch leicht 8 befehle für die SPEs finden
und programmierer müssen doch so etwas garnicht beherrschen, weil das ganze vom compiler übernommen wird
oder lieg ich da falsch?
edit:
mir is da grad noch n beispiel eingefallen:
eine schleife, die 8x durchlaufen werden muß
diese enthält eine SPE-Operation und ist von den anderen schleifendurchläufen unabhängig
dann könnten alle 8 operationen in einem schritt berechnet werden, was insgesamt 8 zyklen für den core spart
Dann kan ich euch sagen:
Das ist gerade der Knackpunkt am ganzen. Banal gesagt ist die Synchronisation der Ergebnisse und das gesamte Codemanagment wesentlich komplexer dadurck und verschluckt mehr Zeit als was man daraus gewinnt. Die Ergebnisse die man auf die SPEs verteilt, mpssen später wieder ins Gesamtergebnis zurückgeführt werden. Solange es sich um Streams handelt ist das Ziel endeutig determiniert. Wenn man 8 parallele tasks hat bruacht man einen Codefetzen der das ganze wieder zusammenführt und der ist aufwendiger als das was man gewinnt. In Schleifen wird immer etwas berechnet und das muss ruückgeführt werden, deswegen ein solcher Mechansimus. Braucht man ihn in bestimmen fällen nicht, handelt es sich um einen Stream. Und zu 99& braucht man solches nicht in Spielen.
Grafikkarten von beiden System:
(360)
http://beyond3d.com/articles/xenos/
Es wäre zu aufwendig den ganzen Text von beyond zu interpretieren, lest einfach den Artikel. Ihr werdet sehen das es eine solche GPU noch nie gab. Die GPU XENOS ist den heutigen Karten sehr viel überlegen und wird auch stärker als der RSX sein. Insbesonders sollte man da die Prozeduralen Techniken erwähnen. Das ist was völlig neues per Hardware ebenso die MEMEXPORT Funktion die im Zusammenhang mit den 48 Unified Shadern Sachen erlauben die selbst ich mir noch nicht so ganz ausmalen kann. AA 4 free und 720 p ohne irgendwelche Preformence Verluste. Fakt ist: Xenos ist auch stärker als RSX. Was man aber sofort sehen dürfte ist, dass R500 4xFSAA ohne relevanten Performance hit ermöglicht. RSX ist davon meilenweit enfernt (und das speziell bei 128bit HDR) Etc.
Da kommt bestimmt noch mehr von mir.:D
betasilie
2005-08-09, 00:46:05
Ja aber wo ist denn die komplexität?
Final Fantasy zB ist für viele das Vorzeigerollenspiel.
Wer aber jemals Baldurs Gate, Ultima, Ice Wind Dale 2, Morrowind gespielt hat, kann ja nur zustimmen das Final Fantasy ein Action Adventure mit Rollenspiel Elementen und fantastischer Presentation ist. Komplex ist da garnichts. Weder von der Spielmechanik, noch von der Technik.
Und was an Rennspielen, Shootern, Ballergames komplexer auf der Konsole sein soll kann mich gerne auch jemand aufklären.
Wie gesagt ich kenne mich nicht wirklich aus und habe daher einige Wissenslücken und lasse mich gerne belehren.
Ne, Du magst da schon recht haben. Ich habe fand dein Vergleich mit den Strategiespielen halt nicht so toll. Wer gerne richtig komplexe SPiele mag, der ist mit dem PC besser bedient. Nur wäre der Umkehrschluss, nämlich dass KOnsolenspiele genrell flach sind und wenig tiefgang in der Spielmechanik haben, auch falsch.
Aber wer gerne hochkomplexe Simulatoren, Strategiespiele usw. spielt, der ist mit dem PC besser bedient. Für mich ist es ohnehin ein muss KOnsole und PC parallel zu betreiben, weil beide Systeme ihre Vorzüge haben. Was jedenfalls mit den neuen Konsolen in Sachen HighEnd-Grafik und perfekter Präsentation auf uns zukommt, möchte ich nicht missen.
Petter
2005-08-09, 00:49:43
Noch was: Man sollte auch sagen das die 360 fast keien Flachenhälse mehr hat. Das ganze System hilft sich gegensetig. Es ist diesmal kein Rechner, es ist eine richtige Konsole. Leider habe ich mit den Flachenhälsen bei der PS3 bedenken.:( (da werden ganz schlne proleme kommen)
ACHTUNG: Ich bashe nicht!
betasilie
2005-08-09, 00:55:36
...Ich habe mich jetzt nicht durch alle Seiten gekämpft...
Aber ich will euch mal erklären warum die 360 ein verdammt Leistungsfähiges System ist.(besser als PS3 oder jetzige Rechner)
Erstmal zum Cell, also bzw. die PS3.
Der Cell ist absolut schlecht in Branch-Prediction und seine SPEs noch viel schlimmer. Wie willst du denn ein Spiel bildhaft gesprochen so auftstellen wie SETI? Versuch mir mal zu erkläre wie die Routine aussehen soll die die Ergebnisse der einzelnen Arbeitsstationen (SETI-Clients) wieder zusammenbastelt damit man es im Code verwenden kann. Very Long Instruction Words (VLIW) haben mit den SPEs und wie Games diese verwenden bzw. Verwendung finden können nichts zu tun. Das ist technischer Humbug. Wie ich schon früher schrieb: Ein Programm/Optimierer kann die Komplexität einer Spieleengine nicht auf die Streamobjekte wie SPEs abbilden. a) hat das eine nichts mit dem anderen zu tun und b) wenn es so wäre würde der Branchpredictioncode so groß sein das mehr Rechnenzeit dafür draufginge die Ergebnisse zu sortieren/verwalten das von der Generalpurposeleistung noch weniger übrig bleiben würde als sowieso schon zur Verfügung steht.
Darauf schrieb man mir folgenden Text:wurde da nicht ganz auf branch-prediction verzichtet, weil es befehle gibt, die aus bis zu 3 quellen entsprechende hinweisbits errechnen können?
und was spricht dagegen die komplexität auf streamobjekte abzubilden?
entsprechend viele code-verzweigungen und parallelität vorausgesetzt, könnte man doch leicht 8 befehle für die SPEs finden
und programmierer müssen doch so etwas garnicht beherrschen, weil das ganze vom compiler übernommen wird
oder lieg ich da falsch?
edit:
mir is da grad noch n beispiel eingefallen:
eine schleife, die 8x durchlaufen werden muß
diese enthält eine SPE-Operation und ist von den anderen schleifendurchläufen unabhängig
dann könnten alle 8 operationen in einem schritt berechnet werden, was insgesamt 8 zyklen für den core spart
Dann kan ich euch sagen:
Das ist gerade der Knackpunkt am ganzen. Banal gesagt ist die Synchronisation der Ergebnisse und das gesamte Codemanagment wesentlich komplexer dadurck und verschluckt mehr Zeit als was man daraus gewinnt. Die Ergebnisse die man auf die SPEs verteilt, mpssen später wieder ins Gesamtergebnis zurückgeführt werden. Solange es sich um Streams handelt ist das Ziel endeutig determiniert. Wenn man 8 parallele tasks hat bruacht man einen Codefetzen der das ganze wieder zusammenführt und der ist aufwendiger als das was man gewinnt. In Schleifen wird immer etwas berechnet und das muss ruückgeführt werden, deswegen ein solcher Mechansimus. Braucht man ihn in bestimmen fällen nicht, handelt es sich um einen Stream. Und zu 99& braucht man solches nicht in Spielen.
Grafikkarten von beiden System:
(360)
http://beyond3d.com/articles/xenos/
Es wäre zu aufwendig den ganzen Text von beyond zu interpretieren, lest einfach den Artikel. Ihr werdet sehen das es eine solche GPU noch nie gab. Die GPU XENOS ist den heutigen Karten sehr viel überlegen und wird auch stärker als der RSX sein. Insbesonders sollte man da die Prozeduralen Techniken erwähnen. Das ist was völlig neues per Hardware ebenso die MEMEXPORT Funktion die im Zusammenhang mit den 48 Unified Shadern Sachen erlauben die selbst ich mir noch nicht so ganz ausmalen kann. AA 4 free und 720 p ohne irgendwelche Preformence Verluste. Fakt ist: Xenos ist auch stärker als RSX. Was man aber sofort sehen dürfte ist, dass R500 4xFSAA ohne relevanten Performance hit ermöglicht. RSX ist davon meilenweit enfernt (und das speziell bei 128bit HDR) Etc.
Da kommt bestimmt noch mehr von mir.:D
Dein Vorhaben in allen Ehren, aber meinst Du ernsthaft eine kompetente Bewertung von PS3 und Xbox abgeben zu können, wenn es selbst die Entwickler aus den welbesten Studios noch nicht können?
Zum Thema Branches:
Fehlerhafte Branches sind eigentlich nicht viel schlimmer als beim P4. Die SPUs aber keine richtige Predikationseinheit haben ist hier mal wieder der Compiler gefragt die richtigen Hints im Code zu hinterlassen.
Und zum R500 kann ich nur sagen, dass er weit weg ist von der Leistung eines RSX. Und 4*AA in 720p passt garnicht in die 10MB eDRAM und selbst 2*AA in 720p kann man nicht als "for-free" bezeichnen. Außerdem bietet der RSX kein FP128bit HDR, sondern 64bit, wie auch alle anderen Nvidia GPUs. UNd Füllratentechnisch ist der RSX meilenweit weg vom R500 und auch die arithmetische Leistung ist erheblich höher beim RSX.
Der R500 ist ein schönes Teil - günstig und performant, aber man sollte doch mal auf dem Teppich bleiben, denn auch so ein neues Konzept kann die Rohdaten nicht verleugnen.
Der Cell ist ein offenes Buch! Und glaube mir, die Studios könnten.
Hast du den Artikel auf beyound überhaupt gelesen? Ich glaube nicht, unmöglich in solch einer Zeit. Die GPU in der 360 ist kein R500 sondern XENOS C1. Wie gesagt, lies den Artikel. 720 p und AA4free ist Standart. Man meinte aber der RSX würde 128 Bit HDR schaffen.
Demirug
2005-08-09, 01:02:36
Bezüglich der Programmierung von Cell habe ich noch das aufgetrieben:
One approach to programming Cell
Single Source Compiler
– Auto parallelization ( treat target Cell as an SMP )
– Auto SIMD-ization ( SIMD-vectorization )
– Compiler management of Local Store as 2nd level register file / SW
managed cache (I&D)
• Most Cell unique piece
Optimization
– OpenMP pragmas
– Vector.org SIMD intrinsics
– Data/Code partitioning
– Streaming / pre-specifying code/data use
Prototype Single Source Compiler Developed in IBM Research
Ist zwar wie schon aufgeführt IMHO noch nicht die Ideallösung sollte aber Cell von der Entwikclung Complexität auf den gleichen Level wie andere Multi Core Systeme heben.
Da es sich aber noch um einen Prototype handelt werden die Launch Titel davon wohl noch nicht profitieren können.
Demirug
2005-08-09, 01:04:22
Der Cell ist ein offenes Buch! Und glaube mir, die Studios könnten.
Hast du den Artikel auf beyound überhaupt gelesen? Ich glaube nicht, unmöglich in solch einer Zeit. Die GPU in der 360 ist kein R500 sondern XENOS C1. Wie gesagt, lies den Artikel. 720 p und AA4free ist Standart. Man meinte aber der RSX würde 128 Bit HDR schaffen.
Der Codename des XENOS C1 war einmal R500. Das wurde dann aber geändert weil es zu viele Verwechselungen mit dem R520 gab.
Petter
2005-08-09, 01:07:03
Man kann damit gut Videos darstellen, codieren oder Dreiecke berechnen.. aber für alles andere Dinge sind die SPEs ungeeignet. Also viel wird man in Spielen nicht von SPEs mitbekommen.:)
Der Codename des XENOS C1 war einmal R500. Das wurde dann aber geändert weil es zu viele Verwechselungen mit dem R520 gab.
Das wusste ich nicht! Aber ich sage nur Artikel auf beyound, da steht alles. Lest den und wir können dann über die Tech. reden.
betasilie
2005-08-09, 01:12:27
Der Cell ist ein offenes Buch! Und glaube mir, die Studios könnten.
Unsinn. Über Cell ist eigentlich sehr wenig bekannt, besonders der Befehlssatz und die Developingtools seitens Sony.
Hast du den Artikel auf beyound überhaupt gelesen? Ich glaube nicht, unmöglich in solch einer Zeit.
Den überaus schlecht verfassten Artikel habe ich vor ca. 7 Wochen gelesen. :rolleyes:
Die GPU in der 360 ist kein R500 sondern XENOS C1.
R500 ist das Äquivalent zu Xenos C1. Das eine ist die Bezeichnung von MS, das andere die von ATI. *gähn*
Wie gesagt, lies den Artikel.
Oh Gott, nicht nochmal bitte.
720 p und AA4free ist Standart.
2*AA ist Standard und das nicht ohne Grund. Der Frambuffer von 10MB ist zu klein für 128ß*720 mit 4*AA.
Man meinte aber der RSX würde 128 Bit HDR schaffen.
Tja, man meint viel. Besonder der Author deines tollen Artikels meint sehr, sehr viel. :biggrin:
TheGoD
2005-08-09, 01:16:05
Also wegweisende PC-Spiele waren für mich DEUS EX, Half Life1+2 und Unreal. Nicht sehr viel für die letzten paar jahre. Die Dntwicklung der PC-Spiele geht irgendwie nicht weiter, außer natürlich bei der Grafik. Was natürlich am mitlerweiler ausartenden Hardwarkrieg liegt. HL2 war eigentlich das einzigste Spiel der letzten 2-3 Jahre was mich wircklich gefesselt und beeindruckt hat.
Auf den Konsolen sieht das Ganze etwas anders aus. Paradebeispiel ist die GTA Serie. GTA3 hat damals eingeschlagen wie eine Bombe. Oder z.B die Metal Gear Solid Spiele auf der PS2. mir fällt kein spiel auf dem PC ein, außer HL2, welches vom Gamplay, Präsentation, Story und Atmospäre da mithalten kann. Genau diese punkte werden bei PC Spielen irgendwie vernachlässigt, so kommt es MIR zumindest vor. Und an Rennspielen gibt es am PC sowieso kaum was brauchbares... Da war Gran Turismo z.B, auch was komplexität angeht, mehr als wegweisend. Aber das ist hier ja eigentlich garnicht das Thema.
Ich glaube du verwechselst Innovation mit Komplexität. Natürlich gibt es viele (wenn nicht sogar dank Nintendo und z. B. auch Sony's Eyetoy mehr) innovative Spiele auf Konsolen, doch nur wenige erreichen die Komplexität der gängigen PC-Spiele. Hab mir z. B. gerade Battlefield 2 zugelegt und spiele nicht wie sonst meist mit die Pfeil Tasten, sondern den Nummernblock (1,2,3,5), dar ich sonst mit den gut ereichbaren Tasten nicht auskomme (trotz vier extra Tasten auf der Maus). Trotzdem finde ich keine Funktion unnötig, oder einfach für die Konsole über ein Menü umsetzbar.
Ich finde übrigens auch Metal Gear Solid (ca vier Stunden) und GTA 3/Vice City (Teil 3 ca vier Stunden, VC fast durchgespielt) relativ innovativ und durchdacht, jedoch (vor allem MGS) recht simpel.
2*AA ist Standard und das nicht ohne Grund. Der Frambuffer von 10MB ist zu klein für 128ß*720 mit 4*AA.
Der Framebuffer ist auch bereits für 720p mit 2x AA zu klein, macht aber nichts da das Frame dann in zwei Tiles zerlegt wird die im Systemspeicher zusammengesetzt und über diesen ausgegeben werden. Der Großteil der Framebufferzugriffe profitiert trotzdem von der Edram-Bandbreite.
TheCounter
2005-08-09, 03:36:21
Der Framebuffer ist auch bereits für 720p mit 2x AA zu klein, macht aber nichts da das Frame dann in zwei Tiles zerlegt wird die im Systemspeicher zusammengesetzt und über diesen ausgegeben werden. Der Großteil der Framebufferzugriffe profitiert trotzdem von der Edram-Bandbreite.
Richtig, das ganze sieht dann so aus:
640x480:
noAA - 1 Tile
2xAA - 1 Tile
4xAA - 1 Tile
1280x720:
noAA - 1 Tile
2xAA - 2 Tiles
4xAA - 3 Tiles
1920x540:
noAA - 1 Tile
2xAA - 2 Tiles
4xAA - 4 Tiles
Zum Schluss müssen also nurnoch die Tiles zusammengesetzt werden wenn ich das richtig verstanden habe.
EDIT:
Laut ATi soll das 4xAA nur 5% mehr Performance kosten als das 2xAA (bei 720p).
Ailuros
2005-08-09, 04:51:47
Laut ATi soll das 4xAA nur 5% mehr Performance kosten als das 2xAA (bei 720p).
Ich will hoffen dass dieses auf das "worst case" und nicht auf ein "best case scenario" bezogen ist.
Aber es wird wohl am Ende an den Entwicklern liegen; da kann es durchaus sein dass man sogar mehr als 3 "viewports" benutzt, falls es die Leistung dann auch erlaubt.
Petter
2005-08-09, 16:12:58
Er ist unerheblich welcher Befehlssatz zum Einsatz kommt, sicherlich der normale RISC Befehlssatz.
Eure Aussagen zum eDRAM sind falsch. Es passt kein ganzes Frame in den Speicher. Der sogenannte MSAA wird verwendet, damit es trotzdem funktioniert. Es wird immer nur ein kleiner Teil, der Tilesamples im Framebuffer bearbeitet und wieder zurückgeschrieben. Der Framebuffer ist mit 256GB/s an den eDRAM(umgedreht also wo edram steht sollte framebuffer stehen) angebunden. Die GPU hat damit nichts mehr zu tun, die rendert ihr Bild in den Framebuffer und der eDram bearbeitet mit FSAA nach.
ATI-Patent:
Method and apparatus for video graphics antialiasing using a single sample frame buffer and associated sample memory
http://patft.uspto.gov/netacgi/nph-Parser?patentnumber=6614449
Hier wird erklärt wie sowas funzt
http://www.beyond3d.com/articles/tilebasedrendering/index1.php
Hier wird erklärt wie die Xbox360 das macht
http://www.beyond3d.com/articles/xenos/index.php?p=04
http://www.beyond3d.com/articles/xenos/
http://techreport.com/etc/2005q2/xbox360-gpu/index.x?pg=1
http://www.beyond3d.com/previews/nvidia/g70/
http://arstechnica.com/articles/paedia/cpu/xbox360-1.ars
http://arstechnica.com/articles/paedia/cpu/xbox360-2.ars
http://arstechnica.com/news.ars/post/20050629-5054.html
http://www.firingsquad.com/features/xbox_360_interview/default.asp
http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=2377&p=3
http://www.extremetech.com/article2/0,1558,1818127,00.asp
http://www.hardocp.com/article.html?art=NzcxLDE=
http://appft1.uspto.gov/netacgi/nph-Parser?Sect1=PTO2&Sect2=HITOFF&p=1&u=%2Fnetahtml%2FPTO%Fsearch-bool.html&r=1&f=G&l=50&co1=AND&d=PG01&s1=20050099417&OS=20050099417&RS=20050099417
http://www.research.ibm.com/cell/
http://www.realworldtech.com/page.cfm?ArticleID=RWT022805234129
http://editorials.teamxbox.com/xbox/1136/Sony-and-The-Hype-Machine/p1/
http://archives.cnn.com/2000/TECH/computing/02/01/emotion.engine.idg/
http://features.teamxbox.com/xbox/1145/The-Xbox-360-Dissected/p1
Hausaufgaben machen!:)
Der RSX ist kein Gegner für den R500, im den Sinne das der RSX keine Chance hat. Der RSX ist ein G70 mit 50 MGhz höheren Takt. R500 kann durch US(Unified Shader) fast immer 100% seiner Leistung benutzen. Latenzen und Waitstates lassen den RSX seine Leistung wie eine PC-GPU zwischen 30-50% hängen. Der R500 hat zusätzlich wesentlich mehr Shader. Und ich meinte NVidia die meinten das der RSX 128 BIT Pixelgenauigkeit ausführen kann. Global Illumination/Radiosity Lighting ist der Nachfolger von HDR, falls ihr den Namen kennt, darauf setzt die 360. Dieses ermöglicht im Gegensatz zu HDR absoluten Photorealismus und keine scheinenden Kränze die HDR einem rorgaukelt. Es gab bisher keine Hardware die Illumination/Radiosity Lighting in Echtzeit beherrscht. R500 schafft dies bei voller Auflösung. Deswegen sind die PGR3 Fassadenbilder auch so extrem realistisch, das liegt an dem Global Illumination. HDR erkennt man sofort, GI absolut nicht man wundert sich nur ist es ein Foto oder nicht. Weiter kann man auch den Speed der GPU erkennen, 35 Millionen Transistoren mehr auf dem DYE. Wie bereits gesagt: Am wichtigsten ist aber die völlig Latenzfreie Archietektur und das US konzept. Die Werte des RSX erscheien zwar höher, aber die Shader stehen im ständigen Wartestatus, Xenso nicht. Man geht davon aus das der Xenos etwa 70% schneller ist als der RSX ohne das man irgendwelche Shader Optimierungen vornimmt und es die GPU per default selber machen lässt. Selbst ATI sagt das der R500 mehr bietet als sie in 2-3 Generationen auf dem PC realisieren werden können. Einige Sachen wird es nie geben auf PC.
zum Cell nochmal:
Der Speed würde nicht erhalten bleiben, es gibt kein Tool das die Komplexität der parralelen Prozesse, SPEs so vereinfacht. Gameengines können auch nicht auf den SPEs abgebildet werden, solche Übertools gibt es nicht. Microsoft hatte im Grunde recht, es sind DSPs. Man kann zwar andere Sachen damit machen aber tech. sind es DSPs.
One approach to programming Cell
Single Source Compiler
– Auto parallelization ( treat target Cell as an SMP )
– Auto SIMD-ization ( SIMD-vectorization )
– Compiler management of Local Store as 2nd level register file / SW
managed cache (I&D)
• Most Cell unique piece
Optimization
– OpenMP pragmas
– Vector.org SIMD intrinsics
– Data/Code partitioning
– Streaming / pre-specifying code/data use
Prototype Single Source Compiler Developed in IBM Research
Das sind Optimierungstools, die Laufzeitproblematik optimieren, die geben keinen Code oder Lösung vor. Das gleiche damals mit der EE bei der PS2(und nichts anderes ist der Cell heute ebenfalls intern, nur da um Prozesse zu optimieren. Das bringt aber nicht mehr Leistung sondern hilft die Komplexität im Laufzeitverhalten auf ein normales Niveau zu bringen. Power bringt es nicht, der ist durch die General Purpose Leistung begrenzt, denn FLOPs braucht man fast nicht.
Danke an Erzengel für seine Hilfe.
Demirug
2005-08-09, 16:35:30
Petter, RSX hat einen 120 MHZ höheren Takt als der G70.
Der C1 ist auch nicht Blockade frei. Wenn die Fillrate ausgeht und die Threadslots belegt sind blockiert er genauso.
SPEs und DSPs zu Vergleichen wird beiden nicht gerecht.
Sicherlich ist CELL nicht der Traum eines Spieleentwickler aber die 3 Core 6 Thread CPU der XBox360 ist ebenfalls weit davon entfernt.
Man sollte bei beiden Systemen die Vor und Nachteile sehen. Es ist nicht alles Schwarz Weiß.
Global Illumination/Radiosity Lighting ist der Nachfolger von HDRAllein dieser Satz macht deine komplette Ausführung völlig belanglos :wave2:
Du sabbelst irgendwelches Marketinggeblubber nach ohne zu wissen was es überhaupt bedeutet.
Tipp: Schon Quake 2 hat Radiosity benützt
Petter
2005-08-09, 17:05:50
Allein dieser Satz macht deine komplette Ausführung völlig belanglos :wave2:
Du sabbelst irgendwelches Marketinggeblubber nach ohne zu wissen was es überhaupt bedeutet.
Tipp: Schon Quake 2 hat Radiosity benützt
Ich glaube dir fehlt das Praxis-Wissen. :wave2:
Sag den leuten doch mal sie sollen ihre Berechungen am RSX durchführen und beschreiben wie das alles über den Schmalbandbus ohne Latenzen funzen soll um dem Xenos das Wasser zureichen. Die Probleme der nämlich nicht.
"
Du sabbelst irgendwelches Marketinggeblubber nach ohne zu wissen was es überhaupt bedeutet."
Du stellst mich doch als Idioten da und kannst sonst auch nix wiederlegen, hast du zummindest nicht.
DanMan
2005-08-09, 17:12:19
Ich glaube dir fehlt das Praxis-Wissen. :wave2:
"Ich glaube nicht, Tim": http://www.rendertown.de/forum/viewtopic.php?t=598
Radiosity ist ein alter Hut...
Petter
2005-08-09, 17:14:52
"
Allein dieser Satz macht deine komplette Ausführung völlig belanglos
Du sabbelst irgendwelches Marketinggeblubber nach ohne zu wissen was es überhaupt bedeutet.
Tipp: Schon Quake 2 hat Radiosity benützt"
Aber nicht per Hardware, jedenfalls nicht Global Illumination .
TheGoD
2005-08-09, 17:16:22
"Ich glaube nicht, Tim": http://www.rendertown.de/forum/viewtopic.php?t=598
Radiosity ist ein alter Hut...
...und hat nichts mit HDR zutun.
Und selbst wenn es Real-Time Radiosity ist. Der C1 kann nichts was RSX nicht auch könnte, beide sind general-purpose sowohl im Vertex- als auch im Pixelbereich.
Überhaupt haben HDR und Global Illumination überhaupt nichts direkt miteinander zu tun sondern ergänzen sich gegenseitig. Hier von einem "Nachfolger" zu reden zeugt schlicht von Unwissen.
War unglücklich ausgedrückt natürlich bezieht sich das nur auf Global
Illumination deswegen steht da das Wort "Ist". Radiosity ist natürlich alt
aber auch das war vorher nur per Software möglich soviel ich weiss. Bin mal gespannt ob der RSX das auch kann, ich kanns mir net
vorstellen.
Auch C1 kann sicher keine vollständige Radiosity-Lösung in Realtime berechnen.
reunion
2005-08-09, 17:29:55
Den überaus schlecht verfassten Artikel habe ich vor ca. 7 Wochen gelesen. :rolleyes:
[..]
Besonder der Author deines tollen Artikels meint sehr, sehr viel. :biggrin:
Ziemlich erbärmlich, was du hier betreibst.
Dave Baumann hat mit Sicherheit mehr Ahnung, als du.
Demirug
2005-08-09, 17:33:38
Ziemlich erbärmlich, was du hier betreibst.
Dave Baumann hat mit Sicherheit mehr Ahnung, als du.
Er kann in dem Fall aber auch nur das schreiben was er erzählt bekommt. Nachprüfen kann man da ja nichts.
Unsinn. Über Cell ist eigentlich sehr wenig bekannt, besonders der Befehlssatz und die Developingtools seitens Sony.
Den überaus schlecht verfassten Artikel habe ich vor ca. 7 Wochen gelesen. :rolleyes:
R500 ist das Äquivalent zu Xenos C1. Das eine ist die Bezeichnung von MS, das andere die von ATI. *gähn*
Oh Gott, nicht nochmal bitte.
2*AA ist Standard und das nicht ohne Grund. Der Frambuffer von 10MB ist zu klein für 128ß*720 mit 4*AA.
Tja, man meint viel. Besonder der Author deines tollen Artikels meint sehr, sehr viel. :biggrin:
Übrigens bist du einer derer die das ebenfalls behauptet haben! Mit den 128 Bit HDR! also mal nicht den wichtigen markieren bitte!
Petter
2005-08-09, 17:45:17
Der C1 kann auf jeden Fall mehr als der RSX.
Prozeduralen Techniken auf Hardware Ebene zbs..
US(Unifid Shader)
10 mb eDRAM
MEMEXPORT Funktion in Zusammenhang mit den 48 unfied Shadern
WGF 2.0
Man sollte noch sagen das der C1 720 p und 4xAA ohne Leistungseinbusen zaubert, davon ist der RSX weit entfernt.
"Auch C1 kann sicher keine vollständige Radiosity-Lösung in Realtime berechnen."
Bei PGR 3 hat man es schon angewendet.;)
WGF 2.0Err. Nein, ganz bestimmt nicht.
Man sollte noch sagen das der C1 720 p und 4xAA ohne Leistungseinbusen zaubert, davon ist der RSX weit entfernt.Das hat genau was mit den Features zu tun?
"Auch C1 kann sicher keine vollständige Radiosity-Lösung in Realtime berechnen."
Bei PGR 3 hat man es schon angewendet.;)Das ist sicher keine vollständige Radiosity Lösung. Ob die "Screenshots" überhaupt authentisch sind wurde hier auch schon bezweifelt.
Demirug
2005-08-09, 18:00:12
-Für vollständiges Radiosity reicht die Leistung nicht. Da wird mit Tricks gearbeitet wie zum Beispeil PRT. Das können aber auch schon aktuelle PC Chips.
-Der C1 hat nur einen 16xSIMD Unified Shader. Und das muss nicht zwingend ein Vorteil sein. US als Konzept hat wie alles seine Vor und Nachteile.
-MEMEXPORT ist einfach eine Variante für den Outstream. RSX hat entsprechenden Alternativen.
-Prozeduralen Techniken? Jeder Shader stellt schon eine Prozeduralen Technik da.
-10 mb eDRAM: Das ist so falsch. Das ist kein eDRAM sondern sogenannter 3D-RAM oder Logic extended RAM. Gab es auch mal für den PC hat sich aber nie durchgesetzt.
-WGF 2.0: Schön nur ist das noch nicht mal entgültig genormt.
-Jeder der von AA ohne Leistungsverlust spricht ist per se unglaubwürdig weil das eine technische Unmöglichkeit ist.
Hört doch bitte mal damit auf einfach die Werbeversprechen abzuschreiben. Es ist nicht alles Gold was glänzt.
Das einzige was du für mich die ganze Zeit sagst ist "wenn" und "aber".
Kennst du überhaupt die Tragweite von MEMEXPORTs? Damit sind Schweinereien möglich die man sich nicht ertäumt hatte.(du weiß was ich meine hoffentlich)
Ebenfalls ist der Xenos nicht in seiner Leistung
als Einzelchip zu betrachten, wichtig ist das Zusammenspiel mit dem Xenon,
in dem Fall MEMEXPORT, prozedurale techniken usw. da stinkt die PS3 sowas
von ab.
. Ebenfalls solltest du
dir mal die Latenzzeiten des RSX und des übrigen Systems anschaun, das wird
schlicht und ergreifend ignoriert. Das Xenos/Xenon Gespann besitzt fast
keien untereinander und fast keine in der GPU. Deswegen sind die ganzen
Zahlenbeispiele der größte Humbug den diese Leute immer verzapfen für mehr
langts halt nicht. Aber ich glaube es hat keinen Sinn mit dir zu reden 100% Radiosity und 100% Global Illumination sage ich nur.
Demirug
2005-08-09, 18:23:58
für 100% Global Illumination in Echtzeit wird die Rechenleistung noch sehr lange nicht reichen.
Latenzen können in Streamingsystem wie es GPUs darstellen ignoriert werden wenn die FIFO ausreichend dimensioniert sind um Stalls and Bubbels zu vermeiden. Zudem haben RSX und CELL einen sehr gute Querkommunikationsverbindung.
Ich weiß was mit Memexport geht. Nur warum sollte mich das jetzt vom Hocker hauen?
Was den Sinn einer Diskussion abgeht so habe ich auch Zweifel das dies hier noch etwas bringt. Den ständig gegen das kontinuirliche Wiederholung von geschönte Werbematerial anzuschreiben ist irgendwie nutzloss.
Ist das eigentlich ein Gast Account von Diskutator? Also zumindest kommt das gleiche Gesabbel dabei raus :|
Petter
2005-08-09, 18:45:05
Nee, war sonst nie hier.
Aber ich habe schon viel positives über diese Seite gehört. Ich hätte auch in den Foren mehr erwartet. Ich glaube ihr vergleicht auch Dinge die auf den PC völlig anderst sind. Ich rede hier auch nicht vom geschönten Werbematerial, es gibt auf das ganze Zeugs auch Patente. Und die Links auf der voherigen Seite zeigen wie was geht. Bis jetzt höre ich immer nur wie es aus eurer Sicht ist, aber Quellen oder Bsp. wo gezeigt wird warum es nicht so sein sollte oder wie es sein sollte bekomme ich nicht. Ich kann sagen ich bin durch und durch beeidruckt von der 360, mit diesen System muss programmieren Spaß machen und es ist das Leistungsgähigste System.
Ist das eigentlich ein Gast Account von Diskutator? Also zumindest kommt das gleiche Gesabbel dabei raus :|
Es gab einen der die gleichen Sachen wie ich sagte.? Cool, ein Beweis mehr... Wenn man mal so in die Foren schaut, es sind immer vereinzelte Personen die diese Dinge behaupten, dumm das wir uns irren sollen.-_-
Ach dann zeig mal "Patente" zu deinem "100% Radiosity" System.
Dazu würde es schon lange irgendwelche wissenschaftlichen Papers geben und das hätte ich mitbekommen.
Petter
2005-08-09, 19:02:46
http://www.uspto.gov/patft/index.html
Kannst ja suchen.
Ja ganz bestimmt :crazy2:
Ich steig jetzt hier aus, die anderen mögen bitte den Troll nicht füttern.
Du bist lustig. Von mir verlangst du jetzt ein Patent vorzuzeigen. Glaubst du ich sauge die mir aus den Fingern? Nein, genau wie du auch nicht. Naja, Bsp. oder Quellen habe ich immer noch nicht bekommen. Aber schön das du mich als "Troll" bezeichnest, dich kann ich momentan nur in die Gruppe "möchte gerne kann aber nicht" einstecken. Aber darüber soll der Beitrag hier nicht leiden.
-Jeder der von AA ohne Leistungsverlust spricht ist per se unglaubwürdig weil das eine technische Unmöglichkeit ist.Es heißt ja auch "fast kein Leistungsverlust". Es geht eigentlich auch nicht darum möglichst viel Leistung aus der Konsole zu kitzeln, sondern sich von der Konkurrenz abzuheben und die zu zwingen ähnliches mit ganz anderen Mitteln bewältigen zu wollen. Der R500 ist kein Wunderchip in Sachen Performance, er ist ein Wunderchip in Sachen Geeignetheit. Ganz klar wird man im Vergleich NoAA-2xAA-4xAA jeweils Performance verlieren, es fragt sich halt nur wieviel einem das wert ist. Der R500 wurde genau für diesen Zweck entwickelt. Er soll viel Bildqualität für wenig Leistungsverlust bringen, aber wenn man sich zB mal ein 800*600 oder 1024*768 Bild zu hause mit AA und ohne anschaut, dann wird man AA auf einmal nicht mehr abschalten wollen und in der Auflösung-Spanne werden sich sicherlich die meisten Konsolenbesitzer bewegen. Selbst heutige PC-Komponenten ala 6800 oder X8x0 können sowas mit wenig Performance-Verlust und wenn man sich vor Augen führt dass der R500 für sowas prädestiniert ist, dann ist doch etwas am sicherlich "offensiven" Marketing-Gerücht etwas dran.
Der Hauptnutzen liegt aber eher daran, dass Sony keinen Daughter-Die hat und für AA wesentlich mehr, der aber immerhin größeren, Raw-Power benötigt, was den Vorteil reduziert oder verschwinden lässt. Und ich kann mir kaum vorstellen wie Sony erklären will wieso die "schnellere" PS3 ohne AA auskommen muss nur damit die Raw-Power-Vorteile erhalten bleiben.
Genau das ist der Hauptaugenmerk von MS, mit billigerer Konsole eine möglichst gut Konkurrenz zu sein um den schwachbrüstigeren Sony-Konzern ins Unglück zu stürzen. Das macht man nebenbei schon seit vielen Jahren so.
Was mich allerdings wirklich stört, ist dieses ewige "Das gab es doch alles schon auf dem PC" oder "Der PC ist eh viel besser" - Argumentation.
Ich hasse diesen ewigen Krieg. Lasst doch jedem was ihm lieb ist. Ich für meinen Teil spiele PC-Spiele am nicht ganz taufrischen PC und hol mir für die Action-Sachen eine XBox360...
Noch ein Nachtrag:
Weder Demirug noch ich wollen hier irgendwas als besser oder schlechter darstellen sondern wiederlegen nur offensichtlich falsche Dinge die hier als Fakt dargestellt werden.
Welche Konsole letztenendes schneller ist, ist mir herzlich egal.
Das Konsolenpublikum ist anscheinend deutlich zu jung um irgendwelche sinnvollen Diskussionen zu führen wie man schon mehrmals in diesem Thread bemerkt hat.
Petter
2005-08-09, 19:50:40
Noch ein Nachtrag:
Weder Demirug noch ich wollen hier irgendwas als besser oder schlechter darstellen sondern wiederlegen nur offensichtlich falsche Dinge die hier als Fakt dargestellt werden.
Welche Konsole letztenendes schneller ist, ist mir herzlich egal.
Das Konsolenpublikum ist anscheinend deutlich zu jung um irgendwelche sinnvollen Diskussionen zu führen wie man schon mehrmals in diesem Thread bemerkt hat.
Falsche Dinge? Bsp, Beweise, Quellen! Die kommen ja nicht von euch, aber große Reden schwingen. Hast du eigentlich je programmiert?
Klar ist, wenn beide Systeme da sind wird man alles ganz genau wissen. Mal sehen was dann noch gesagt wird...
Und du hast Recht: Das konsolenpublikum ist echt oft sehr jung, genau wie bei den Rechnern.
Welche Konsole letztenendes schneller ist, ist mir herzlich egal.Ja, weil du Konsolen hasst und lieber am PC zockst. Das ist auch in Ordnung, nur macht es dich subjektiv.
Das Konsolenpublikum ist anscheinend deutlich zu jung um irgendwelche sinnvollen Diskussionen zu führen wie man schon mehrmals in diesem Thread bemerkt hat.Ich bin nebenbei gesagt 22 und ich glaube kaum, dass man seine Diskussionspartner als "Publikum" bezeichnen sollte. Das hinterlässt den Eindruck als wären die Konsoleros passiv, was wiederum impliziert dass ihr die eigene Meinung über die des "Publikums" stellt...
Mir ist es auch völlig egal ob die Konsolen oder der PC schneller ist, hätte ich vielleicht auch noch schreiben sollen. Ich hasse auch keine Konsolen, warum auch? Ich überlege mir eine oder beide der Next-Gen Konsolen zu kaufen, aber ich erwarte keine Wunder. Dazu habe ich schon zu viele Konsole-Launches miterlebt und habe zuviel Erfahrung mit sowas ;)
Es geht hier nur um Dinge die einfach nicht stimmen. Z.B. das Realtime-Radiosity auf C1 auf einmal magisch möglich sein wird (der Algorithmus hat eine exponentielle Laufzeit mit der Levelgröße!) oder das der Chip WGF 2.0 unterstützt was noch nichtmal spezifiziert ist.
Petter
2005-08-09, 20:33:16
Ich glaube weitere Streitereinen sind unnötig.
ich weiss jedenfalls was ich haben werde, eine Xbox360 die selbst auf der vor Kurzem zuende gegagenen Siggraph2005 für sehr viele Ah's und Oh's sorgte. Den RSX hat niemand interessiert da er ein reiner G70 ist.
betasilie
2005-08-09, 20:46:12
Falsche Dinge? Bsp, Beweise, Quellen! Die kommen ja nicht von euch, aber große Reden schwingen. Hast du eigentlich je programmiert?
Hast Du jemals an einer Spielentwicklung mitgearbeitet?
Klar ist, wenn beide Systeme da sind wird man alles ganz genau wissen. Mal sehen was dann noch gesagt wird...
Melde dich doch erstmal an, damit man auch sehen kann, was Du dann noch zu dem Thema zu sagen hast, wenn die Konsolen in der PRaxis vergleichbar sind, und ob Du dann weiter auf die Werbesprüche von MS und Sony reinfällst.
Hast Du jemals an einer Spielentwicklung mitgearbeitet?
Melde dich doch erstmal an, damit man auch sehen kann, was Du dann noch zu dem Thema zu sagen hast, wenn die Konsolen in der PRaxis vergleichbar sind, und ob Du dann weiter auf die Werbesprüche von MS und Sony reinfällst.
Keien Sorge ich melde mich noch. Bis dahin werde ich erstmal andere Forums unsicher machen.:D
harrypitt
2005-08-09, 20:59:20
Von den unhaltbaren Ausagen mancher Gäste wieder zurück zu den halbwegs "realistischen" Spekulationen...
Und zwar hätt ich an unsere 3DCenter Experten ein paar Fragen bzw. Spekulationen bezüglich der Speicherbandbreite bzw. wie man sie bei den neuen Konsolen aufteilt:
PS3:
Der RSX ist also mit 22GB/s Bandbreite an 256 MB VRAM angebunden. Jetzt denk ich mir mal, dass ein G70 (24 Pipes!) mit 550 MHz damit ein bisschen von der Speicherbandbreite limitiert sein könnte. Ich meine, eine 7800 GTX hat ja schon fast die doppelte Speicherbandbreite zur Verfügung.
Jetzt hab ich aber gelesen das RSX direkt an die SPUs angebunden sein soll zwecks Postprocessing. Kann es sein, dass RSX die fertigen Pixel gleich direkt an die SPUs "weiterreicht" und diese den Framebuffer nach dem Postprocessing gleich in den XDR-Speicher schreiben, oder kann der RSX direkt auf den XDR-Speicher zugreifen? Sollte letzteres zutreffen, warum hat man sich nicht gleich auf einen Typ von Speicher mit 512 MB geeinigt, der sowohl von RSX als auch Cell verwendet werden kann?
Ich persönlich finde nämlich dieses "Zwei Speicher System" bei der PS3 etwas "unelegant", weil ich nicht glaube das Cell die ganze Bandbreite des XDR Speichers braucht und RSX an dem 128bit Interface "verhungert"... Oder denke ich da einfach ein bisserl zu sehr in PC-Maßstäben?
Demirug
2005-08-09, 21:12:26
RSX kann genau wie die CELL CPU selbst auf den gesamten Speicher zugreifen. Das schliesst den Localen Speicher der SPUs mit ein. Allerdings sind die dabei mit etwas Vorsicht zu geniessen.
Dieses 2 Speicher System kommt daher das sowohl CELL wie auch RSX als Komponenenten mit eigenen Speicher Kontroller entwickelt wurden. Da die Bandbreite zwischen den beiden Chips allerdings sehr groß ist ergibt sich daraus kein größeres Problem. Man muss sich das so ähnlich vorstellen wie zwei Opteron Prozesssoren die auch jeweils eigenen Speicher haben aber jede CPU über die HT Verbindung auf den Speicher des Partners zugreifen kann.
TheCounter
2005-08-09, 21:43:05
Sollte letzteres zutreffen, warum hat man sich nicht gleich auf einen Typ von Speicher mit 512 MB geeinigt, der sowohl von RSX als auch Cell verwendet werden kann?
Weil sich dann CELL und der RSX 25,6GB/s an Bandbreite teilen müssten. Und so hat der RSX direkt Zugriff auf seinen eigenen mit 22,4GB/s angebundenen GDDR3 Speicher.
Bei der X-Box 360 ist dies der Fall das sich alle Komponenten (CPU, GPU & Southbridge) die 22,4GB/s zum GDDR3 Speicher (512MB) teilen müssen. Dabei hat der GDDR3 Speicher wie bei der PS3 ein 128-Bit Interface.
Jesus
2005-08-09, 22:00:25
Also mit verlaub, aber was dieser Gast hier ablässt übertrifft selbst den übelsten Bullshit hier im Forum. :rolleyes:
Naja,
Jetzt hab ich aber gelesen das RSX direkt an die SPUs angebunden sein soll zwecks Postprocessing. Kann es sein, dass RSX die fertigen Pixel gleich direkt an die SPUs "weiterreicht" und diese den Framebuffer nach dem Postprocessing gleich in den XDR-Speicher schreiben, oder kann der RSX direkt auf den XDR-Speicher zugreifen?
Afaik können die SPEs auch direkt ohne Umwege den Framebuffer bearbeiten.
Petter
2005-08-09, 23:28:10
Ich schreibe Bullshit? Alle Leute in diesen Beitrag sagen ich schreibe Müll. Warum sagt man mir aber nicht warum ich falsch liegen soll? Weil ihr nicht könnt? Radiosity sehe ich nun ein, 100% sind vielleicht übertrieben, ich habe nochmal geschaut. Den Fehler gebe ich auch zu. Aber zu den Rest stehe ich und ich nenne niemanden "Troll" bezeichne seine Beiträge als Bullshit oder stelle ihn als Idioten dar. Weiter gebe ich euch Quellen und Bsp. und ihr sagt mir, "das ist so und so" ohne Bsp. und Quellen. Ich weiß ja nicht ob sich ein paar User auf Heise.de berufen, aber dann würde ich schnell abspringen.
Method and apparatus for video graphics antialiasing using a single sample frame buffer and associated sample memory
http://patft.uspto.gov/netacgi/nph-...tnumber=6614449
Hier wird erklärt wie sowas funzt
http://www.beyond3d.com/articles/ti...ring/index1.php
Hier wird erklärt wie die Xbox360 das macht
http://www.beyond3d.com/articles/xenos/index.php?p=04
http://www.beyond3d.com/articles/xenos/
http://techreport.com/etc/2005q2/xb...pu/index.x?pg=1
http://www.beyond3d.com/previews/nvidia/g70/
http://arstechnica.com/articles/pae...u/xbox360-1.ars
http://arstechnica.com/articles/pae...u/xbox360-2.ars
http://arstechnica.com/news.ars/post/20050629-5054.html
http://www.firingsquad.com/features...iew/default.asp
http://www.anandtech.com/cpuchipset...aspx?i=2377&p=3
http://www.extremetech.com/article2...,1818127,00.asp
http://www.hardocp.com/article.html?art=NzcxLDE=
http://appft1.uspto.gov/netacgi/nph...&RS=20050099417
http://www.research.ibm.com/cell/
http://www.realworldtech.com/page.c...RWT022805234129
http://editorials.teamxbox.com/xbox...ype-Machine/p1/
http://archives.cnn.com/2000/TECH/c...ion.engine.idg/
http://features.teamxbox.com/xbox/1...60-Dissected/p1
Alles neutrale Quellen, darauf beziehe ich meine Aussagen, wüsste nicht warum die unprofessionel sein sollen oder warum die nicht die richtigen Fakten schreiben. Spaß machts auch nicht gerade wenn man die ganze Zeit indirekt beleidigt wird. Erstmal lesen und dann können wir wieder reden. Und die die Streit wollen, sollen diesen Beitrag bitte verlassen.
FutureBadBoy
2005-08-09, 23:34:17
Ich denke erst wenn beide Konsolen auf den Markt sind werden wir sehen welche das rennen macht. Aber ich glaube nicht das die Konsolen besser werden als ein Computer :)
Demirug
2005-08-09, 23:37:53
Also mit verlaub, aber was dieser Gast hier ablässt übertrifft selbst den übelsten Bullshit hier im Forum. :rolleyes:
Naja,
Afaik können die SPEs auch direkt ohne Umwege den Framebuffer bearbeiten.
Das funktioniert nur dann wenn du direkt in den LS der SPEs renderst. Davon würde ich aber dringend abraten. Wenn man den Frambuffer nur in Blöcken braucht ist es aber kein Problem den via DMA in die LS der SPEs umkopieren zu lassen. Wie schon mal gesagt um den Bandbreitehunger der SPEs zu befreidigen können diese nur auf den jeweiligen LS zurück greifen. Der läuft dafür aber auch mit vollem Chiptakt.
Demirug
2005-08-09, 23:58:31
Petter, all diese "neutralen" Quellen bauen auf dem gleichen Material auf das sie von MS und ATI erhalten haben. Die "alten" Jungs hier wissen was sie von solchem Material zu halten haben. Die Kunst dabei ist zwischen den Zeilen zu lesen das Konzept zu verstehen und die Nachteile welche dort nicht erwähnt werden selbst heraus zu finden. Ich darf mal allgemein an das Pressematerial zum NV30 erinnern. Defakto wurden für alle Konsolen Chips nur ein Paperlaunch hingelegt. Und das noch nicht mal mit vergleichbaren Benchmarkswerten direkt vom Hersteller. Es gibt halt keinen 3DMark für Konsolen mit dem man ein bischen rumprollen kann.
Die Patentschriften sind auch sehr schön aber man darf nicht den Fehler machen diese 1 zu 1 zu übertragen den dort fehlen oft Details.
Wenn wir hier ständig nur die Nachteile herunterschreiben dann hat das nichts damit zu tun das wir hier etwas zwanghaft schlecht machen wollen. Aber warum sollen wir das was in den Lobpreisungen der durch Herstellerangaben durchsetzten Artikeln steht hier nochmal wiederholen? Jeder der sich ernsthaft damit auseinader setzt hat die sowieso gelesen.
Als hier der Cell hype durchs Forum gelaufen ist habe ich genauso gehandelt. Und ich schreibe ja auch weiterhin das der Chip ohne ordentliche Tools nichts wert ist. Und Sony da bei der PS2 völlig versagt hat. Nur scheinen sie wenn man sich die letzten Pressemeldungen anschaut aus dem Debakel etwas gelernt zu haben und auf der Tool Seite entsprechend aufzustocken. Trotzdem ist Cell ein kompliziertert Chip bei dem sich die Spreu vom Weizen trennen wird wenn es um die Programmierung geht.
Aber auch die 6 Threads der X360 CPU sind kein Zuckerschlecken und schon mehr als ein Entwickler hat deswegen Kopfschmerzen bekommen. Ich erwarte das eine Menge der Launchtitel böse Deadlocks and Raceconditions haben werden. Aber es gibt ja XBox Live und damit kann man patchen. MS wird gut daran tun eine Festplatte in das Teil einzubauen.
Petter, all diese "neutralen" Quellen bauen auf dem gleichen Material auf das sie von MS und ATI erhalten haben. Die "alten" Jungs hier wissen was sie von solchem Material zu halten haben. Die Kunst dabei ist zwischen den Zeilen zu lesen das Konzept zu verstehen und die Nachteile welche dort nicht erwähnt werden selbst heraus zu finden. Ich darf mal allgemein an das Pressematerial zum NV30 erinnern. Defakto wurden für alle Konsolen Chips nur ein Paperlaunch hingelegt. Und das noch nicht mal mit vergleichbaren Benchmarkswerten direkt vom Hersteller. Es gibt halt keinen 3DMark für Konsolen mit dem man ein bischen rumprollen kann.
Die Patentschriften sind auch sehr schön aber man darf nicht den Fehler machen diese 1 zu 1 zu übertragen den dort fehlen oft Details.
Wenn wir hier ständig nur die Nachteile herunterschreiben dann hat das nichts damit zu tun das wir hier etwas zwanghaft schlecht machen wollen. Aber warum sollen wir das was in den Lobpreisungen der durch Herstellerangaben durchsetzten Artikeln steht hier nochmal wiederholen? Jeder der sich ernsthaft damit auseinader setzt hat die sowieso gelesen.
Als hier der Cell hype durchs Forum gelaufen ist habe ich genauso gehandelt. Und ich schreibe ja auch weiterhin das der Chip ohne ordentliche Tools nichts wert ist. Und Sony da bei der PS2 völlig versagt hat. Nur scheinen sie wenn man sich die letzten Pressemeldungen anschaut aus dem Debakel etwas gelernt zu haben und auf der Tool Seite entsprechend aufzustocken. Trotzdem ist Cell ein kompliziertert Chip bei dem sich die Spreu vom Weizen trennen wird wenn es um die Programmierung geht.
Aber auch die 6 Threads der X360 CPU sind kein Zuckerschlecken und schon mehr als ein Entwickler hat deswegen Kopfschmerzen bekommen. Ich erwarte das eine Menge der Launchtitel böse Deadlocks and Raceconditions haben werden. Aber es gibt ja XBox Live und damit kann man patchen. MS wird gut daran tun eine Festplatte in das Teil einzubauen.
Sicher bauen die Quellen auf ATI UND MS Informationen auf, allerdings mit den Unterschied das auch erklärt wird wie was gemacht und wenn man sich die Seiten ein paar mal(zummindest ich) durchliest macht das ganze auch Sinn. Sicher hat alles Vor. und Nachteile aber die Nachteile sind nicht immer groß. Und diesmal sieht es so aus. Und sicher ist Multicore keine leichte Angelegenheit.:=)
...Da kann ich nicht viel ergänzen... Ich verstehe sowieso nicht warum man den Cell als Prozessor in die PS3 eingesetzt hat.
Der Cell ist absolut schlecht in Branch-Prediction und seine SPEs noch viel schlimmer. Wie willst du denn ein Spiel bildhaft gesprochen so auftstellen wie SETI? Versuch mir mal zu erkläre wie die Routine aussehen soll die die Ergebnisse der einzelnen Arbeitsstationen (SETI-Clients) wieder zusammenbastelt damit man es im Code verwenden kann. Very Long Instruction Words (VLIW) haben mit den SPEs und wie Games diese verwenden bzw. Verwendung finden können nichts zu tun. Das ist technischer Humbug. Wie ich schon früher schrieb: Ein Programm/Optimierer kann die Komplexität einer Spieleengine nicht auf die Streamobjekte wie SPEs abbilden. a) hat das eine nichts mit dem anderen zu tun und b) wenn es so wäre würde der Branchpredictioncode so groß sein das mehr Rechnenzeit dafür draufginge die Ergebnisse zu sortieren/verwalten das von der Generalpurposeleistung noch weniger übrig bleiben würde als sowieso schon zur Verfügung steht.
Bsp:
mir is da grad noch n beispiel eingefallen:
eine schleife, die 8x durchlaufen werden muß
diese enthält eine SPE-Operation und ist von den anderen schleifendurchläufen unabhängig
dann könnten alle 8 operationen in einem schritt berechnet werden, was insgesamt 8 zyklen für den core spart
Das ist gerade der Knackpunkt am ganzen. Banal gesagt ist die Synchronisation der Ergebnisse und das gesamte Codemanagment wesentlich komplexer dadurck und verschluckt mehr Zeit als was man daraus gewinnt. Die Ergebnisse die man auf die SPEs verteilt, mpssen später wieder ins Gesamtergebnis zurückgeführt werden. Solange es sich um Streams handelt ist das Ziel endeutig determiniert. Wenn man 8 parallele tasks hat bruacht man einen Codefetzen der das ganze wieder zusammenführt und der ist aufwendiger als das was man gewinnt. In Schleifen wird immer etwas berechnet und das muss ruückgeführt werden, deswegen ein solcher Mechansimus. Braucht man ihn in bestimmen fällen nicht, handelt es sich um einen Stream. Und zu 99& braucht man solches nicht in Spielen.
Demirug
2005-08-10, 01:05:02
Die SPU haben gar keine Branchprediction sondern Branchhints im Code. Stimm der Hint nicht hat man einen Miss der etwa so teuer ist wie beim P4. Damit kann man leben. Bei kurzen Zweigen lässt man sowieso besser beide ausführen und selektiert am Ende. Ist btw auch beim P4 eine durchaus angebrachte Strategie.
Wer hat eigentlich den Blödsinn aufgebracht das die SPUs einen VLIW Befehlssatz haben? Aber selbst wenn dem so wäre spielt das gar keine Rolle weil die Cell Software nur auf Cell laufen muss. Der Befehlssatz ist aber sowieso eher AltiVec ähnlich.
Der Vorwurf das die SPUs Streamprozessoren bzw Vektorcpus wären hat da schon eher Auswirkungen. Aufgrund der ersten inzwischen uralten Informationen zu Cell bin ich auch diesem Fehlschluss aufgessen. Nachdem ich mir aber noch ein bischen was von der technischen Abteilung von IBM besorgt habe kann ich das nicht mehr aufrecht erhalten. Die SPUs sind keine Streamprozessoren und Vectorcpus schon mal gar nicht. In diesem Zusammenhang bitte nicht die Vektoreinheit einer GP CPU mit einer Vektor CPU verwechseln. Das sind zwei völlig unterschiedliche Konzepte.
Du sprichst hier das Verteilen der Arbeit innerhalb einer Schleife an. Den Vorgang nennt man forken und das ist das von MS derzeit bevorzugte Model für die XBox360. Dank OpenMP können das sogar die armen Entwickler nutzen die Multithreading nicht auf die Rheie bekommen. Allerdings hat man damit genau den angesprochenen Syncronisationsaufwand.
Das funktioniert im Prinzip auch mit einer CELL CPU. Die Einschränkung das die SPUs nur auf iheren loken Speicher zugreifen können macht die Sache allerdings etwas komplexer. OpenMP passt da nicht ganz zu geht weil es eher für MultiCPU systeme mit gemeinsamen Speicher im Hinterkopf entwickelt wurde. Für Cell muss man sich da eher bei den Lösungansätzen für Großrechner bedienen. Wie ich bereits mehrfach schrieb benötigt Cell deswegen auf einen entsprechenden Compiler und im Idealfall auch ein zusätzliches Runtimesystem welches vom Compiler eingepflegten Metadaten ausnutzen kann. Cell ist stärker als alles was wir bisher in der CPUtechnik hatten auf gute Tools angewiesen. Und genau das wird die Meßlate sein an der sich Sony wird beweisen müssen.
In jedem Fall ist davon auszugehen das sowohl bei der XBox360 wie auch bei der PS3 für die Launchtitel eine Menge der CPU Leistung auf der Strecke bleiben wird. Vorallem wenn die Quickports der alten für Single CPU programmierten Engines zum Einsatz kommen. Der größte Teil der Entwickler beherscht Multithreading einfach nicht und die Zeit ist zu kurz um sich da vollständig einzuarbeiten.
Es gibt zwar heute bessere Unterlagen zu dem Thema als zu meiner Zeit (PPro Dual Systeme) aber auch die helfen nicht das man es von heute auf morgen sofort richtig macht.
Der Cell ist absolut schlecht in Branch-Prediction und seine SPEs noch viel schlimmer. Wie willst du denn ein Spiel bildhaft gesprochen so auftstellen wie SETI? Versuch mir mal blablablabla...
Hast du das jetzt nochmal geschrieben oder was?
Das es nicht so ist hat Demirug schon mehrfach geschrieben, und im übrigen hat die Xbox CPU genau das gleiche Problem, schliesslich ist sie ein "Abfallprodukt" aus dem CELL Deal von IBM und hat ebenso ein In-Order Design.
ShadowXX
2005-08-10, 11:25:40
Der Vorwurf das die SPUs Streamprozessoren bzw Vektorcpus wären hat da schon eher Auswirkungen. Aufgrund der ersten inzwischen uralten Informationen zu Cell bin ich auch diesem Fehlschluss aufgessen. Nachdem ich mir aber noch ein bischen was von der technischen Abteilung von IBM besorgt habe kann ich das nicht mehr aufrecht erhalten. Die SPUs sind keine Streamprozessoren und Vectorcpus schon mal gar nicht. In diesem Zusammenhang bitte nicht die Vektoreinheit einer GP CPU mit einer Vektor CPU verwechseln. Das sind zwei völlig unterschiedliche Konzepte.
Könntest du bitte mal genauer beschreiben/erklären, was die SPEs des Cell den jetzt genau sind?
Bzw. wie Sie arbeiten oder mit was man diese am ehesten vergeleichen könnte?
Wäre wirklich nett.
Hast Du jemals an einer Spielentwicklung mitgearbeitet?
Melde dich doch erstmal an, damit man auch sehen kann, was Du dann noch zu dem Thema zu sagen hast, wenn die Konsolen in der PRaxis vergleichbar sind, und ob Du dann weiter auf die Werbesprüche von MS und Sony reinfällst.
Wow was hat anmelden hier mit wissen zu tun, er hat größtenteils seinen GAST nick mit Namen versehen, mach dich nicht wichtig. Außerdem solltest gelegentlich mal nachdenken was du schreist das gilt auch für den Sammelthread der PS3, in dem du ziemilch großspurig auftritst.
Außerdem gilt, solange selber keine quellen gepostet, auch von anderen dies nicht verlangen.
Nun erstens arbeitet man nicht an einer Spieleentwicklung sondern ist bei einer dabei, ich bin mir sicher das du bei einer dabei warst. Wahrscheinlich in der Quality Assurance. Naja und da bekommst du nicht viel mit von der eigentlich entwicklung. Außerdem liegen oftmals welten zwischen Theorie und haben wollen sowie der praxis, dem realisierbaren.
Melde dich doch erstmal an, damit man auch sehen kann, was Du dann noch zu dem Thema zu sagen hast, wenn die Konsolen in der PRaxis vergleichbar sind, und ob Du dann weiter auf die Werbesprüche von MS und Sony reinfällst.Da hast dir aber eine schöne neue Welt aufgebaut... Man muss wohl richtig angemeldet sein um Recht zu haben? Schade, von einem mit 13000 Beiträgen hätte ich mir 13000mal mehr Niveau versprochen...
Demirug
2005-08-10, 12:53:07
Könntest du bitte mal genauer beschreiben/erklären, was die SPEs des Cell den jetzt genau sind?
Bzw. wie Sie arbeiten oder mit was man diese am ehesten vergeleichen könnte?
Wäre wirklich nett.
Nehmen wir mal ein Pentium I System mit 256 KB Speicher als Basis. Pentium I weil dieser ebenso ein zwei Pipe System mit In Order Design ist. Die SPUs haben ebenso eine Odd und eine Even Pipe und die Befehle dafür müssen entsprechend ausgerichtet sein wenn man beide nutzen möchte. Im Gegensatz zum Pentium haben wir aber keine normale FPU sondern eher etwas wie eine SSE Einheit. Das mit damit auch normale Aufgaben übernehmen kann zeigt und ja die 64 Bit Version von Windows.
Da 256 KB Speicher auch wenn sie mit vollem Systemtakt laufen nicht viel sind verpassen wir unserem System jetzt noch einen Erweiterungspeicher. Allerdings kann auf diesen nicht direkt zugegriffen werden sondern man kann immer nur Blockweise in den Lokalen Speicher umkopieren. Das ist das XMS Prinzip das es noch bei DOS gab. Im Gegensatz zu XMS erfolgt dieses Kopieren aber im Hintergrund ohne das die eigentliche "CPU" einer SPU dafür benötigt wird.
Eine SPU ist also durchaus als GP Prozessor einsetztbar. Das einzige Problem ist der begrenzte Speicher. Hier muss man dann wieder auf die alten Erfahrungen mit zum Beispiel DOS zurückgreifen.
Schaut man sich die alten Cell Unterlagen an findent man dort auch den Begriff Apulet. Diese Zusammenfassung von Daten und Code macht bei dieser Systemarchitektur absoluten Sinn.
Wie schon geschrieben ist das aber auch gleichzeitig das Problem. Compieler sind derzeit einfach nicht darauf ausgelegt eine Programm in nebenläufige Apulets zu zerlegen. Das ist aber erforderlich um Cell ohne das sich die Entwickler dabei die Finger brechen müssen ideal auszunutzen.
Petter
2005-08-10, 15:56:12
Petter, all diese "neutralen" Quellen bauen auf dem gleichen Material auf das sie von MS und ATI erhalten haben. Die "alten" Jungs hier wissen was sie von solchem Material zu halten haben. Die Kunst dabei ist zwischen den Zeilen zu lesen das Konzept zu verstehen und die Nachteile welche dort nicht erwähnt werden selbst heraus zu finden. Ich darf mal allgemein an das Pressematerial zum NV30 erinnern. Defakto wurden für alle Konsolen Chips nur ein Paperlaunch hingelegt. Und das noch nicht mal mit vergleichbaren Benchmarkswerten direkt vom Hersteller. Es gibt halt keinen 3DMark für Konsolen mit dem man ein bischen rumprollen kann.
Die Patentschriften sind auch sehr schön aber man darf nicht den Fehler machen diese 1 zu 1 zu übertragen den dort fehlen oft Details.
Wenn wir hier ständig nur die Nachteile herunterschreiben dann hat das nichts damit zu tun das wir hier etwas zwanghaft schlecht machen wollen. Aber warum sollen wir das was in den Lobpreisungen der durch Herstellerangaben durchsetzten Artikeln steht hier nochmal wiederholen? Jeder der sich ernsthaft damit auseinader setzt hat die sowieso gelesen.
Als hier der Cell hype durchs Forum gelaufen ist habe ich genauso gehandelt. Und ich schreibe ja auch weiterhin das der Chip ohne ordentliche Tools nichts wert ist. Und Sony da bei der PS2 völlig versagt hat. Nur scheinen sie wenn man sich die letzten Pressemeldungen anschaut aus dem Debakel etwas gelernt zu haben und auf der Tool Seite entsprechend aufzustocken. Trotzdem ist Cell ein kompliziertert Chip bei dem sich die Spreu vom Weizen trennen wird wenn es um die Programmierung geht.
Aber auch die 6 Threads der X360 CPU sind kein Zuckerschlecken und schon mehr als ein Entwickler hat deswegen Kopfschmerzen bekommen. Ich erwarte das eine Menge der Launchtitel böse Deadlocks and Raceconditions haben werden. Aber es gibt ja XBox Live und damit kann man patchen. MS wird gut daran tun eine Festplatte in das Teil einzubauen.
Das sind aber neue Infos, die kannte ich nich nicht.
Niemand behauptet das die SPUs reine Streamobjekte sind, ich persönlich
bezeichne die immer nur so da man mit Ihnen nicht mehr anfangen kann ohne
eine gewisse Komplexität zu erzeugen die einfach die Grundlage ist mir der
man arbeitet. Du sieht das wohl nicht so tragisch, ich nenne es
Killerargument.
Und Tools optimieren zwar, bieten aber keine Lösungen für die komplexen Zusammenhänge im Code. Solche Tools wird es nicht in 50 Jahren geben. 95% der SPUs
sind nur für Datenverarbeitung sinnvoll, nicht für Berechnungen im normalen Gamecode.
a) Wäre der Aufwand für jeden spezielllen Fall ein Framework zu bauen das
die Daten berechnet zu groß und würde zu lange dauern
b) Würde es an anderer Stelle wieder Performance ziehen da man dort wiederum
das Problem der Synchronisation und der Rückführung im Code hätte.
Das viel Leistung nicht genutzt wird stimmt. Aber das obere Limit der 360 kann man nutzen, Cell in Sachen Spielen aber nicht.
Desweiteren spielt sich der größte Teil der Perfomance ncht gerade mehr in
den CPUs ab sondern eher in den GPUs, diese werden alles bestimmen und da
sehe ich den mit der CPU verbundenen R500 weit weit vor dem RSX der
eigentlich nur normale PC Technik darstellt und den man hätte (übertreib)
auch ebenso per Einsteckkarte gleich in die PS3 hätte einbauen.
Demirug
2005-08-10, 16:15:26
Nochmal, die SPUs sind ganz normale GP Prozessoren die lediglich beim Speicherzugriff auf einen "kleinen" lokalen Speicher begrenzt sind.
Streamprozessoren sind so gebaut das sie auf eine große datenmenge immer wieder die gleichen Operationen ausführen. Deswegen nennt man sie auch Vector oder massive SIMD Prozessoren. Die SPUs von Cell sind aber für solche Operationen gar nicht optimiert.
Das grundsätzliche Problem nebenläufige Operationen zu finden hat man sowohl bei der PS3 wie auch bei der XBox360. Aber so schlimm wie das gerne dargstellt wird ist das gar nicht. Lediglich aktuelle Engines sind dafür eben einfach nicht ausgelegt.
Frameworks stellen btw eine allgemeine Lösung für eine Vielzahl von ähnlichen Problemen dar. Es müsste also nur ein Framework programmiert werden.
Nur weil eine GPU anders gebaut ist muss sie nicht zwangsläufig besser sein. Ich will jetzt keine Zahlenspielereien anfangen. Lediglich einen Denkanstoss geben. Warum wohl hat ATI die Einführung der dem C1 zugrunde liegenden Technologie für den PC zweimal verschoben?
TheCounter
2005-08-10, 16:56:53
Nochmal, die SPUs sind ganz normale GP Prozessoren die lediglich beim Speicherzugriff auf einen "kleinen" lokalen Speicher begrenzt sind.
Das heisst das Streamingaufgaben garnicht so schnell auf dem CELL sind wie gedacht (Als wären es reine Streamingprozessoren)?
Warum wohl hat ATI die Einführung der dem C1 zugrunde liegenden Technologie für den PC zweimal verschoben?
Weil Featureoverkill und damals zu langsam?
Demirug
2005-08-10, 17:00:33
Das heisst das Streamingaufgaben garnicht so schnell auf dem CELL sind wie gedacht (Als wären es reine Streamingprozessoren)?
Er ist nicht dafür optimiert. Aber die Brachiale Rechenleistung lässt sich da gut nutzen. Ist beim P4 ja ähnlich.
Weil Featureoverkill und damals zu langsam?
Damals? Ich kann noch keinen R520 kaufen.
ShadowXX
2005-08-10, 17:02:40
Nehmen wir mal ein Pentium I System mit 256 KB Speicher als Basis. Pentium I weil dieser ebenso ein zwei Pipe System mit In Order Design ist. Die SPUs haben ebenso eine Odd und eine Even Pipe und die Befehle dafür müssen entsprechend ausgerichtet sein wenn man beide nutzen möchte. Im Gegensatz zum Pentium haben wir aber keine normale FPU sondern eher etwas wie eine SSE Einheit. Das mit damit auch normale Aufgaben übernehmen kann zeigt und ja die 64 Bit Version von Windows.
Da 256 KB Speicher auch wenn sie mit vollem Systemtakt laufen nicht viel sind verpassen wir unserem System jetzt noch einen Erweiterungspeicher. Allerdings kann auf diesen nicht direkt zugegriffen werden sondern man kann immer nur Blockweise in den Lokalen Speicher umkopieren. Das ist das XMS Prinzip das es noch bei DOS gab. Im Gegensatz zu XMS erfolgt dieses Kopieren aber im Hintergrund ohne das die eigentliche "CPU" einer SPU dafür benötigt wird.
Eine SPU ist also durchaus als GP Prozessor einsetztbar. Das einzige Problem ist der begrenzte Speicher. Hier muss man dann wieder auf die alten Erfahrungen mit zum Beispiel DOS zurückgreifen.
Schaut man sich die alten Cell Unterlagen an findent man dort auch den Begriff Apulet. Diese Zusammenfassung von Daten und Code macht bei dieser Systemarchitektur absoluten Sinn.
Wie schon geschrieben ist das aber auch gleichzeitig das Problem. Compieler sind derzeit einfach nicht darauf ausgelegt eine Programm in nebenläufige Apulets zu zerlegen. Das ist aber erforderlich um Cell ohne das sich die Entwickler dabei die Finger brechen müssen ideal auszunutzen.
Danke....auch dafür das du es so geschrieben hast, das es normalsterbliche verstehen.
Dann ist die Cell-Konzeption doch besser als ich anfangs gedacht hatte (ich war auch auf der Streaming-Schiene gewesen).
Aber das Ding zu Programmieren (speziell dazu noch ohne gute Tools) wird sicher kein Zuckerschlecken...speziell wenn man den Cell ausnutzen will.
Mal sehen was Sony und/oder IBM da noch bringen werden.
TheCounter
2005-08-10, 17:03:20
Er ist nicht dafür optimiert. Aber die Brachiale Rechenleistung lässt sich da gut nutzen. Ist beim P4 ja ähnlich.
Also ist das ganze langsamer als ein reiner Streamingprozessor aber trotzdem noch ziemlich flott.
Damals? Ich kann noch keinen R520 kaufen.
Ups, ich dachte du meinst den R400 :D
Demirug
2005-08-10, 17:12:34
Dann ist die Cell-Konzeption doch besser als ich anfangs gedacht hatte (ich war auch auf der Streaming-Schiene gewesen).
Das war eigentlich jeder weil das ganze auch irgendwie so rübergekommen ist.
Aber das Ding zu Programmieren (speziell dazu noch ohne gute Tools) wird sicher kein Zuckerschlecken...speziell wenn man den Cell ausnutzen will.
Mal sehen was Sony und/oder IBM da noch bringen werden.
Genau das ist ja der Punkt den ich immer wieder anspreche. Díe Tools werden entscheident sein. Und da hat MS natürlich viel Erfahrung und Sony bisher eher eine schlechte Vergangenheit.
Die MS Lösung wird XNA Studio heisen und sieht schon verdammt gut aus.
Demirug
2005-08-10, 17:13:35
Ups, ich dachte du meinst den R400 :D
Das war beim ersten mal.
Zahlenspielereien wären im Grunde auch falsch. Der RSX basiert auf PC Technik und der C1 hat eine völlig neue Architektur, völlig neue Features etc... Man sollte Berechungen am RSX durchführen und beschreiben wie das alles über den Schmalbandbus ohne Latenzen funzen soll um dem Xenos das Wasser zureichen. Die Probleme hat der C1 nicht. Also ich bin mir relativ sicher das der C1 das Rennen macht. Schon 4xAA und 720 p FAST(ist ja wichtig das wort lol) ohne Leistungsverlust sind einfach richtig geil. Prozeduralen Techniken per Hadware ist auch mal richtig geil.
C1 hat eine völlig neue ArchitekturDie von ATi nun schon 2x nicht für den Desktop verwendet wurde. :rolleyes:
völlig neue Features etc...Wüsste ich gerne mal welche? Sowohl die Vertex- als auch die Pixelpipeline sind beim C1 SM3.0 und mehr nicht.
Man sollte Berechungen am RSX durchführen und beschreiben wie das alles über den Schmalbandbus ohne Latenzen funzen soll um dem Xenos das Wasser zureichenOhne Latenzen wäre doch wunderbar. Weißt du von was du redest?
Ja das AA ist bei der XBox360 "for free", aber dank der Framebuffer-Kompression braucht man auch beim RSX nicht mit starken Einbußen rechnen wenn man Single-Pass rendert.
Prozeduralen Techniken per Hadware ist auch mal richtig geil.Das kann jede Grafikarte mit SM 2.0 auch schon. Ich glaube trotzdem nicht dass das bei XBox Spielen viel Verwendung findet, weil sowas immer sehr künstlich aussieht.
Demirug
2005-08-10, 17:21:24
Das kann jede Grafikarte mit SM 2.0 auch schon. Ich glaube trotzdem nicht dass das bei XBox Spielen viel Verwendung findet, weil sowas immer sehr künstlich aussieht.
Das hat mir das nVidia Marketing schon bei der GeForce3 erzählt. Als "Beweiß" gibt es diese schöne "Game Of Life" Demo.
Ich wollte nicht zu stark auftragen ;)
Die von ATi nun schon 2x nicht für den Desktop verwendet wurde. :rolleyes:
Wüsste ich gerne mal welche? Sowohl die Vertex- als auch die Pixelpipeline sind beim C1 SM3.0 und mehr nicht.
Ohne Latenzen wäre doch wunderbar. Weißt du von was du redest?
Ja das AA ist bei der XBox360 "for free", aber dank der Framebuffer-Kompression braucht man auch beim RSX nicht mit starken Einbußen rechnen wenn man Single-Pass rendert.
Das kann jede Grafikarte mit SM 2.0 auch schon. Ich glaube trotzdem nicht dass das bei XBox Spielen viel Verwendung findet, weil sowas immer sehr künstlich aussieht.
Entweder lebe ich in der Steinzeit oder du schreibst einfach nur falsche Dinge...
Die von ATi nun schon 2x nicht für den Desktop verwendet wurde. :rolleyes:
Wüsste ich gerne mal welche? Sowohl die Vertex- als auch die Pixelpipeline sind beim C1 SM3.0 und mehr nicht.
Ohne Latenzen wäre doch wunderbar. Weißt du von was du redest?
Ja das AA ist bei der XBox360 "for free", aber dank der Framebuffer-Kompression braucht man auch beim RSX nicht mit starken Einbußen rechnen wenn man Single-Pass rendert.
Das kann jede Grafikarte mit SM 2.0 auch schon. Ich glaube trotzdem nicht dass das bei XBox Spielen viel Verwendung findet, weil sowas immer sehr künstlich aussieht.
Da diese Architektur aber nicht auf den PC ist und relativ unbekannt ist für den Großteil der Menschen(die menschen die sich nicht so auskennen), ist diese Architektur neu.
Mit den Features meinte ich mehr Prozeduralen Techniken per Hardware.
Ich weiß was ich rede. Je weniger Latenzen desto besser und genau von diesen hat der RSX eine Menge.
Prozeduralen Techniken per Hadware, ich wüsste nicht das diese schon seinen Einsatz hatte. Und selbst wenn, für die Konsolen-Welt ist es ein gutes Ding.
Mit den Features meinte ich mehr Prozeduralen Techniken per Hardware.
Die es wie gesagt in einfacher Form schon bei der GeForce 3 gab.
Ich weiß was ich rede. Je weniger Latenzen desto besser und genau von diesen hat der RSX eine Menge.Latenzen sind bei einem Streamprozessor wie einer GPU ziemlich irrelevant. Das ganze kann durch große Buffer und FIFOs weitgehend abgefangen werden.
Was wirklich gebraucht wird ist Bandbreite und da hat die XBox 360 solang man sich auf den eDRAM beschränkt wirklich deutlich mehr. Trotzdem kann man anhand der veröffentlichen Daten noch überhaupt nicht abschätzen ob RSX oder C1 schneller ist.
Prozeduralen Techniken per Hadware, ich wüsste nicht das diese schon seinen Einsatz hatte. Und selbst wenn, für die Konsolen-Welt ist es ein gutes Ding.Es gab im ATi SDK für den R300 damals schon einige Beispiele. Und so toll ist das gar nicht weil es zu künstlich aussieht oder Texturen nur in den seltensten Fällen ersetzen kann.
Die es wie gesagt in einfacher Form schon bei der GeForce 3 gab.
Latenzen sind bei einem Streamprozessor wie einer GPU ziemlich irrelevant. Das ganze kann durch große Buffer und FIFOs weitgehend abgefangen werden.
Was wirklich gebraucht wird ist Bandbreite und da hat die XBox 360 solang man sich auf den eDRAM beschränkt wirklich deutlich mehr. Trotzdem kann man anhand der veröffentlichen Daten noch überhaupt nicht abschätzen ob RSX oder C1 schneller ist.
Es gab im ATi SDK für den R300 damals schon einige Beispiele. Und so toll ist das gar nicht weil es zu künstlich aussieht oder Texturen nur in den seltensten Fällen ersetzen kann.
Ich bin noch nicht lange bei der Tech. an Bord, also müsst ihr es ein Stück besser wissen.
Ich habe nochmal was zu global illumination effects:
The Xbox 360 modeling engine is frankly something that is really not explainable in layman’s terms. At least I am not smart enough to explain most of it. That said, I can share with you some of the things it does while being able to endlessly loop and manipulate shader data.
Some of the global illumination effects you might have seen in years past at SIGGRAPH have been put into motion on the Xbox 360 GPU in real time. For the most part, global illumination is necessary to render a real world picture quality 3D scene. The Xbox 360 also makes using curved surfaces possible in-game, meaning that it can calculate the polygons from the proper curved surface math in order to draw it on your screen “correctly.” Much in line with this is the ability to do high order surface deformation. Moreover, if you are familiar with high order surfaces, you are likely familiar with what gamers and hardware enthusiasts commonly refer to as “LOD” or Level of Detail. Mr. Feldstein shared with us that the Xbox 360 GPU has some “really novel LOD schemes.” Therefore, it appears as if the days of pentagonal shaped wheels on the cars in the distance in new Grand Theft Auto titles is a thing of the past.
Quelle:
http://www.hardocp.com
@Mods: Ich habe mich im Forum angemeldet, nur eine E-Mail für die Aktivierung kommt nicht.(warte schon 1 tag) Kann einer Eclipse1990 freischalten? Danke.
Jesus
2005-08-10, 18:11:37
The Xbox 360 also makes using curved surfaces possible in-game, meaning that it can calculate the polygons from the proper curved surface math in order to draw it on your screen “correctly.” Much in line with this is the ability to do high order surface deformation. Moreover, if you are familiar with high order surfaces, you are likely familiar with what gamers and hardware enthusiasts commonly refer to as “LOD” or Level of Detail. Mr. Feldstein shared with us that the Xbox 360 GPU has some “really novel LOD schemes.” Therefore, it appears as if the days of pentagonal shaped wheels on the cars in the distance in new Grand Theft Auto titles is a thing of the past.
Quelle:
http://www.hardocp.com
Ahja. Naja Curved Surfaces gibts bereits im Ur-Quake 3 oder auf der PS2 (Nurbs), macht aber nix :rolleyes:
Zahlenspielereien wären im Grunde auch falsch. Der RSX basiert auf PC Technik und der C1 hat eine völlig neue Architektur, völlig neue Features etc... Man sollte Berechungen am RSX durchführen und beschreiben wie das alles über den Schmalbandbus ohne Latenzen funzen soll um dem Xenos das Wasser zureichen.
Der Schmalbandbus hat mehr als die doppelte Bandbreite des R500. Schonmal überlegt wieso M$ diese 10MB "schnelles" RAM eingebaut hat? Richtig, weil CPU und GPU sich gegenseitig ausbremsen weil sie am selben langsamen Bus hängen.
betasilie
2005-08-10, 19:10:48
Ich bin noch nicht lange bei der Tech. an Bord, also müsst ihr es ein Stück besser wissen.
Ich habe nochmal was zu global illumination effects:
The Xbox 360 modeling engine is frankly something that is really not explainable in layman’s terms. At least I am not smart enough to explain most of it. That said, I can share with you some of the things it does while being able to endlessly loop and manipulate shader data.
Some of the global illumination effects you might have seen in years past at SIGGRAPH have been put into motion on the Xbox 360 GPU in real time. For the most part, global illumination is necessary to render a real world picture quality 3D scene. The Xbox 360 also makes using curved surfaces possible in-game, meaning that it can calculate the polygons from the proper curved surface math in order to draw it on your screen “correctly.” Much in line with this is the ability to do high order surface deformation. Moreover, if you are familiar with high order surfaces, you are likely familiar with what gamers and hardware enthusiasts commonly refer to as “LOD” or Level of Detail. Mr. Feldstein shared with us that the Xbox 360 GPU has some “really novel LOD schemes.” Therefore, it appears as if the days of pentagonal shaped wheels on the cars in the distance in new Grand Theft Auto titles is a thing of the past.
Quelle:
http://www.hardocp.com
Schonmal Quake3 oder SS1 gespielt? Wenn die schon curved surfaces so anpreisen, sollte wohl klar sein was von solchen Aussagen zu halten ist. ;)
Der Schmalbandbus hat mehr als die doppelte Bandbreite des R500. Schonmal überlegt wieso M$ diese 10MB "schnelles" RAM eingebaut hat? Richtig, weil CPU und GPU sich gegenseitig ausbremsen weil sie am selben langsamen Bus hängen.
Die Xbox360 würde ohne den 10MB Speicher, der auf den Chipträger gepappt ist, garnicht funktionieren mit ihrer mickrigen Bandbreite von ~22GB/s. Der schnelle 10MB Speicher, ist also weniger das Sahnehäubchen bei der Architektur, als vielmehr zwingend notwendig, um das System nicht völlig einstürzen zu lassen in Bezug auf die Performance.
Lost Boy
2005-08-10, 19:26:44
[QUOTE=Jesus]Ahja. Naja Curved Surfaces gibts bereits im Ur-Quake 3 oder auf der PS2 (Nurbs), macht aber nix :rolleyes:
QUOTE]
Nurbs wurden schon beim ersten VirtuaFighter auf ner Sega Konsole (glaube Saturn) eingesetzt. Allerdings hat sich die technik komischerweise nie so richtig in videospielen durchgesetzt, warum auch immer. Beispiele auf der PS2 fallen mir grade nicht ein.
Lost Boy
2005-08-10, 19:27:19
Ahja. Naja Curved Surfaces gibts bereits im Ur-Quake 3 oder auf der PS2 (Nurbs), macht aber nix :rolleyes:
Nurbs wurden schon beim ersten VirtuaFighter auf ner Sega Konsole (glaube Saturn) eingesetzt. Allerdings hat sich die technik komischerweise nie so richtig in videospielen durchgesetzt, warum auch immer. Beispiele auf der PS2 fallen mir grade nicht ein.
global illumination effects werden bei pgr3 zbs. in Echtzeit eingesetzt. Also muss da ein Unterschied sein... global illumination effects zbs. für die sehr ralistischen häuser eingesetzt sieht besser aus als hdr
betasilie
2005-08-10, 20:10:53
HDR kann man nicht durch global illimination effects ersetzen, weil es zwei paar Schuhe sind.
Jesus
2005-08-10, 20:24:50
[QUOTE=Jesus]Beispiele auf der PS2 fallen mir grade nicht ein.
WRC 1-4 benutzt für die Umgebungsgrafik Splines statt Polygonen.
Die Splines werden am Ende auch mit Polygonen gerendert, der GS kann nix anderes.
Die Xbox360 würde ohne den 10MB Speicher, der auf den Chipträger gepappt ist, garnicht funktionieren mit ihrer mickrigen Bandbreite von ~22GB/s. Der schnelle 10MB Speicher, ist also weniger das Sahnehäubchen bei der Architektur, als vielmehr zwingend notwendig, um das System nicht völlig einstürzen zu lassen in Bezug auf die Performance.Tolle Begründung! Die PS3 hat mit 25,6 GB/s respektive 22,4 GB/s auch nicht gerade überirdisch viel mehr und da sehe ich nirgendwo embeddedRAM... :rolleyes:
Jesus
2005-08-10, 20:49:28
Die Splines werden am Ende auch mit Polygonen gerendert, der GS kann nix anderes.
Ist zwar jetzt PSP, sollte aber das gleiche sein (Auszug aus den technischen Daten, Wiki):
The independent 166 MHz 90 nm graphics chip sports 2MB embedded memory and through its 512 bit interface it provides hardware polygon and NURBS rendering, hardware directional lighting, clipping, environment projection and texture mapping, texture compression and tessellation, fogging, alpha blending, depth and stencil tests, vertex blending for morphing effects, and dithering, all in 16 or 32 bit colour, along with handling image output. Specifications state that the PSP is capable of rendering 33 million flat-shaded polygons per second, with a 664 million pixel per second fill rate. [5]
:rolleyes:
Tolle Begründung! Die PS3 hat mit 25,6 GB/s respektive 22,4 GB/s auch nicht gerade überirdisch viel mehr und da sehe ich nirgendwo embeddedRAM... :rolleyes:
Nur mit dem Unterschied dass sich CPU und GPU diese beiden Interfaces nicht teilen müssen, im Gegensatz zur Xbox360. Wenn diese nämlich Texturen aus dem VRAM holt, dann hat die CPU erstmal Sendepause, oder umgekehrt. Im Grunde ist die Xbox360 nichts anderes als eine Grafikkarte mit angebauter CPU.
Es ist mir völlig egal was in den Marketing-Specs mal wieder für ein Unsinn drin steht, aber es ist sicher dass der GS nur Dreiecke rendern kann.
Damit ist sicher gemeint dass die VU1 dem GS Dreiecke aus NURBS zuwerfen kann - mehr nicht.
Jesus
2005-08-10, 20:53:35
Es ist mir völlig egal was in den Marketing-Specs mal wieder für ein Unsinn drin steht, aber es ist sicher dass der GS nur Dreiecke rendern kann.
Aha. Sicher ist ohne Quelle oder Gegenbeweis erstmal garnichts. Du hast schon des öfteren Sachen als sicher hingestellt die sich dann als völlig falsch herausgestellt haben. :rolleyes:
Jesus. Das Ding hat 16 Pipelines und kann fast nichts. DX 6 Level. Kapische? Nur schnell rasterizen.
Warum sollte man da einen rießigen HW-Aufwand betreiben um NURBS in HW Rasterizen zu können dass dann in 1-2 Spielen verwendet wird?
Es gibt einen guten Grund warum das Konzept nach NV1 damals von nVIDIA verworfen wurde. So doof ist nicht mal Sony.
Du träumst dir immer Sachen zusammen die einfach jenseits jeglicher Realität liegen.
Jesus
2005-08-10, 20:57:42
Oh ja und du weiss grundsätzlich alles?:) Ich hab auch nie behauptet dass das in HW gemacht wird/wurde...
Sony definiert viel Zeugs rein weil die Trennung von GPU und CPU fliessend ist. Sie haben z.B. mal einen Wert von 13 Millionen Beziers/s für die PS2 angegeben (mit den VUs kann man auch bischen was machen, Dreickeszerlegung und sowas :rolleyes: ).
Es gibt einen großen Unterschied zwischen "NURBS-Rendering" und "Polygone aus NURBS generiert rendern". Letzteres kann auch meine verstaubte Voodoo 1 im Schrank schon.
TheCounter
2005-08-10, 21:02:26
Nur mit dem Unterschied dass sich CPU und GPU diese beiden Interfaces nicht teilen müssen, im Gegensatz zur Xbox360. Wenn diese nämlich Texturen aus dem VRAM holt, dann hat die CPU erstmal Sendepause, oder umgekehrt.
Das wär mir jetzt neu das die CPU & GPU nicht gleichzeitig auf den Systemspeicher zugreifen kann. Die Bandbreite teilt sich doch lediglich auf, aber Zugriff auf den Systemspeicher haben doch trotzdem alle 3 Komponenten (CPU, GPU & Southbridge) gleichzeitig wenn ich mich nicht irre.
Jesus
2005-08-10, 21:03:04
Das wär mir jetzt neu das die CPU & GPU nicht gleichzeitig auf den Systemspeicher zugreifen kann. Die Bandbreite teilt sich doch lediglich auf, aber Zugriff auf den Systemspeicher haben doch trotzdem alle 3 Komponenten (CPU, GPU & Southbridge) gleichzeitig wenn ich mich nicht irre.
Ehm ja, war etwas überspitzt ausgedrückt :)
Nur mit dem Unterschied dass sich CPU und GPU diese beiden Interfaces nicht teilen müssen, im Gegensatz zur Xbox360. Wenn diese nämlich Texturen aus dem VRAM holt, dann hat die CPU erstmal Sendepause, oder umgekehrt. Im Grunde ist die Xbox360 nichts anderes als eine Grafikkarte mit angebauter CPU.Dazu kommt noch das Problem, was die PS3 bei Speicherbedarf über 256 MB (und die werden kommen) machen will. Dann passt das ganze weder in den VRAM noch in den normalen RAM und muss daher in beide. Dann teilen sie es sich im Endeffekt doch wieder und die ganze Aktion bringt gar nichts.
betasilie
2005-08-10, 21:21:39
Dazu kommt noch das Problem, was die PS3 bei Speicherbedarf über 256 MB (und die werden kommen) machen will. Dann passt das ganze weder in den VRAM noch in den normalen RAM und muss daher in beide. Dann teilen sie es sich im Endeffekt doch wieder und die ganze Aktion bringt gar nichts.
Nur das es dann keine Bandbreitenprobleme gibt. ;)
TheCounter
2005-08-10, 21:27:28
Nur das es dann keine Bandbreitenprobleme gibt. ;)
Solang der RSX nicht über den XDR Memory Controller (RSX -> CELL Bus -> XDR Memory Controller) auf den Systemspeicher zugreift nicht. Ansonsten teilt sich der RSX und der CELL die 25,6GB/s wie eben bei der X-Box 360 immer der Fall ist.
betasilie
2005-08-10, 21:39:33
Solang der RSX nicht über den XDR Memory Controller (RSX -> CELL Bus -> XDR Memory Controller) auf den Systemspeicher zugreift nicht. Ansonsten teilt sich der RSX und der CELL die 25,6GB/s wie eben bei der X-Box 360 immer der Fall ist.
Ja, nur das der RSX sich die 25,6GB/s additional zu den 22,4GB/s des 256MB großen GDDR3 teilt.
TheCounter
2005-08-10, 21:53:04
Ja, nur das der RSX sich die 25,6GB/s additional zu den 22,4GB/s des 256MB großen GDDR3 teilt.
Ja, aber darum gings nicht. Es ging jetzt darum das wenn die 256MB nicht reichen auf den XDR Speicher zugegriffen werden muss und dadurch dann die Bandbreite geteilt wird. Solang die 256MB reichen dürfte es aber keine Probleme geben.
Ja, aber darum gings nicht. Es ging jetzt darum das wenn die 256MB nicht reichen auf den XDR Speicher zugegriffen werden muss und dadurch dann die Bandbreite geteilt wird. Solang die 256MB reichen dürfte es aber keine Probleme geben.Genau. Letztendlich ist das ganze nur solange von Vorteil wie die Speichermengen unter 256MB bleiben. Sobald dieser Wert überschritten ist, verliert die PS3 ihren Vorteil und da ist der Bandbreitenvorteil der 10 MB nicht mal eingerechnet. ;)
Öh und was soll über 256MiB Framebuffer brauchen? :|
Öh und was soll über 256MiB Framebuffer brauchen? :|Die Konsole soll ja 5 Jahre halten. Lass dir doch was einfallen, ihr PCler seit doch die Hardware-hungrigen Freaks. In 2 Jahren kommt vielleicht Doom4 und braucht wesentlich mehr. KleinKenny will aber bestimmt auch dieses Spiel für seine "Überkonsole". Man muss halt zukunftsorientiert denken...
betasilie
2005-08-10, 22:06:33
MEGAROFL :ulol5:
*scnr*
MEGAROFL :ulol5:
*scnr*Wieso? Kannst du die Wahrheit nicht vertragen? ;)
Der "Ultra High Quality" Modus in D3 ist z.B. eh Quatsch. Texturen gehören komprimiert, vor allem bei Konsolen wird man das auch immer machen.
Eine 1024x1024 DXT1 Textur braucht gerade mal 1MiB. Da hast du jede Menge Platz in 256MiB Framebuffer dafür.
Der "Ultra High Quality" Modus in D3 ist z.B. eh Quatsch. Texturen gehören komprimiert, vor allem bei Konsolen wird man das auch immer machen.
Eine 1024x1024 DXT1 Textur braucht gerade mal 1MiB. Da hast du jede Menge Platz in 256MiB Framebuffer dafür.Gut, akzeptiert. Doch, kannst du dir sicher sein, dass 256 MB wirklich 5 Jahre reichen, bei der Entwicklung? Jede Konsole hat bisher nach einer gewissen Zeit ihre Grenzen erreicht, wieso sollte es bei der PS3 anders sein?
betasilie
2005-08-10, 22:25:22
Gut, akzeptiert. Doch, kannst du dir sicher sein, dass 256 MB wirklich 5 Jahre reichen, bei der Entwicklung? Jede Konsole hat bisher nach einer gewissen Zeit ihre Grenzen erreicht, wieso sollte es bei der PS3 anders sein?
Weil da immer noch 256MB mit einern Bandbreite von 25,6GB/s zur Verfügung stehen?! Wieso sollte man bei der PS3 davon kein Gebrauch machen, wenn man es bei der Xbox360 ohnehin zwingend machen muss?
Weil da immer noch 256MB mit einern Bandbreite von 25,6GB/s zur Verfügung stehen?! Wieso sollte man bei der PS3 davon kein Gebrauch machen, wenn man es bei der Xbox360 ohnehin zwingend machen muss?Es geht darum, dass es Entwickler immer schaffen die Grenzen eines Systems auszuloten. Der eine nimmt vielleicht extrem viele übertriebene Texturen, der nächste übertreibt es dann nochmehr und so weiter. Bei 256 MB muss ja nicht schluss sein, die nächsten 256 MB wollen ja auch gefüllt werden. So ist halt. Kleines Beispiel: Die Entwickler von Jet Set Radio Future (XBox-Launchtitel) waren auch begeistert wieviele Polygone die Kiste so hinbekommt. Damals hieß es auch, dass es nie Polygon-Probleme geben wird und 4 Jahre später ärgert man sich, dass die XBox im Vergleich zum PC soviele Polys sparen muss. Man darf nie den Ergeiz der Entwickler und den "Übertreffungszwang" vergessen...
Am Anfang dieses Threads (wenn der noch nicht wegen Thread-Überlänge gelöcht wurde) hieß es ja ganz einvernehmlich, dass Konsolen immer irgendwann veralten und dem PC hinterherhinken und dass dies auch bei der neuen Generation so sein wird. Dem stimme ich ja auch vollkommen zu. Also, wenn du meinst, dass der Speicher "ewig reicht", dann wiedersprichst du ja implizit diesen Meinungen.
Es ist schon komisch, dass ein ein so erfahrener Computer-Spezi wie du so einer blauäugigen Vorstellung unterliegt.
Wie dem auch sei, es war eine sehr schöne Diskussion mit euch. Schöne Nacht noch!
(PS: Und nicht gleich bei jeder "provozierenden" Antwort so in die Luft gehen, da sollte ein 13000-Posts-Member mehr Erfahrung haben...)
Neon3D
2005-08-10, 23:31:34
Genau. Letztendlich ist das ganze nur solange von Vorteil wie die Speichermengen unter 256MB bleiben. Sobald dieser Wert überschritten ist, verliert die PS3 ihren Vorteil und da ist der Bandbreitenvorteil der 10 MB nicht mal eingerechnet. ;)
hehe. der wert sollte auf alle fälle für die nächsten 6 jahre reichen. wer mehr braucht, kann sich auch mehr nehmen, aber dann hat der programmierer nichts drauf.
Es geht darum, dass es Entwickler immer schaffen die Grenzen eines Systems auszuloten. Der eine nimmt vielleicht extrem viele übertriebene Texturen, der nächste übertreibt es dann nochmehr und so weiter. Bei 256 MB muss ja nicht schluss sein, die nächsten 256 MB wollen ja auch gefüllt werden. So ist halt. Kleines Beispiel: Die Entwickler von Jet Set Radio Future (XBox-Launchtitel) waren auch begeistert wieviele Polygone die Kiste so hinbekommt. Damals hieß es auch, dass es nie Polygon-Probleme geben wird und 4 Jahre später ärgert man sich, dass die XBox im Vergleich zum PC soviele Polys sparen muss. Man darf nie den Ergeiz der Entwickler und den "Übertreffungszwang" vergessen...
Am Anfang dieses Threads (wenn der noch nicht wegen Thread-Überlänge gelöcht wurde) hieß es ja ganz einvernehmlich, dass Konsolen immer irgendwann veralten und dem PC hinterherhinken und dass dies auch bei der neuen Generation so sein wird. Dem stimme ich ja auch vollkommen zu. Also, wenn du meinst, dass der Speicher "ewig reicht", dann wiedersprichst du ja implizit diesen Meinungen.
Es ist schon komisch, dass ein ein so erfahrener Computer-Spezi wie du so einer blauäugigen Vorstellung unterliegt.
Wie dem auch sei, es war eine sehr schöne Diskussion mit euch. Schöne Nacht noch!
(PS: Und nicht gleich bei jeder "provozierenden" Antwort so in die Luft gehen, da sollte ein 13000-Posts-Member mehr Erfahrung haben...)
Was soll denn dann gemacht werden, 512MB an Texturen ins RAM, aber ohne Spiel? :)
Die 10MB dürften bei jedem Spiel auf der Xbox ein Problem darstellen, denn sie reichen überhaupt nicht für Texture Caching in Zusammenhang mit HDTV Auflösung und AA, das heisst es wird ständig auf den Hauptspeicherzugegriffen und das System ausgebremst.
TheCounter
2005-08-11, 11:39:30
Die 10MB dürften bei jedem Spiel auf der Xbox ein Problem darstellen, denn sie reichen überhaupt nicht für Texture Caching in Zusammenhang mit HDTV Auflösung und AA, das heisst es wird ständig auf den Hauptspeicherzugegriffen und das System ausgebremst.
Nur wird vergessen das genau darauf das komplette System der X-Box 360 ausgelegt ist. Das alles hat schon seinen Grund so wie es ist. Also lieber mal abwarten ;)
Rampage
2005-08-11, 12:25:31
Nur wird vergessen das genau darauf das komplette System der X-Box 360 ausgelegt ist. Das alles hat schon seinen Grund so wie es ist. Also lieber mal abwarten ;)
Verstehe nicht worauf du hinauswillst, was soll das bringen?
TheCounter
2005-08-11, 12:52:39
Verstehe nicht worauf du hinauswillst, was soll das bringen?
Naja das System ist auf die UMA ausgelegt wodurch das ganze wohl an Effizienz gewinnt. Das ganze System wurde so designt damit alle Komponenten mit der UMA zurecht kommen und sich die Bandbreite teilen müssen (Es ist fest eingeplant das sich die Komponenten die Bandbreite teilen müssen). Ich denke schon das dies viel effizienter ist als wenn das System nur auf getrennten Speicher ausgelegt wäre und dann untereinander auf die verschiedenen Speicher zugreifen müsste. Die UMA muss ja auch einen Grund haben. Die X-Box hatte doch auch eine UMA afaik.
Kann sein das ich falsch liege aber normalerweise ist es doch so das wenn ein System auf etwas optimiert ist das ganze schneller läuft als normal (wenn nicht optimiert).
Ihr habt keine ahnung!
Die PS3 pwnd die X-Box2 sodass sie mit 360° aus dem Markt fliegt *punkt*
hehe. der wert sollte auf alle fälle für die nächsten 6 jahre reichen. wer mehr braucht, kann sich auch mehr nehmen, aber dann hat der programmierer nichts drauf.Das hat man vor 5 Jahren von 64 MB VRAM auch gesagt... ;)
Es gibt heute schon Spiele die 256 MB benötigen um richtig gut zu laufen. Gibt es da einen rationalen Grund zu glauben, dass jetzt aufeinmal Schluss ist? Die ersten 512 MB-Grakas sind im Gespräch und wenn die sich in 1-2 Jahren durchgesetzt haben wird es auch Spiele dafür geben. Ich glaube sogar, dass am Ende der Laufzeit von XBox360 und PS3 1024 MB-Grakas Standard sein könnten und Entwickler dafür auch optimieren. Ein solches Spiel kann, wie heutzutage auch, durchaus auch seinen Weg auf die Konsole finden und da haben wir dann das Problem.
Petter
2005-08-11, 14:01:17
Ihr habt keine ahnung!
Die PS3 pwnd die X-Box2 sodass sie mit 360° aus dem Markt fliegt *punkt*
Kleiner Basher! Soll ich lachen?
Rampage
2005-08-11, 14:12:25
Kleiner Basher! Soll ich lachen?
Ignorier ihn einfach, solche Leute machen immer die ganzen Threads kaputt
Kelron
2005-08-11, 14:37:30
Ihr habt keine ahnung!
Die PS3 pwnd die X-Box2 sodass sie mit 360° aus dem Markt fliegt *punkt*
Offtopic:
Nur eine Frage: Was heisst den bitte "pwnd" bin irgendwie aus diesem Styler Alter raus... :tongue:
betasilie
2005-08-11, 14:43:37
Nur wird vergessen das genau darauf das komplette System der X-Box 360 ausgelegt ist.
Ja natürlich ist das System so ausgelegt, denn es wird ja so gebaut. :| Nur ist dieses System dadurch noch lange nicht schneller als das der PS3. :rolleyes: ... und das System der PS3 ist ja auch genau darauf ausgelegt. So wie alle Systeme irgendwie so ausgelegt sind, wie sie ausgelegt sind. :uclap:
betasilie
2005-08-11, 14:47:47
@256-Kritiker
Habt ihr immer noch nicht verstanden, dass der RSX nicht auf die 256MB GDDR3 beschränkt ist? Genau aus diesem Grund ist die Bandbreite des XDR-Speicher so hoch. Der Cell alleine bräuchte keinen 25GB/s schnellen Speicher, keine 256MB und nicht ohne Grund kann der XDR Speicher als Framebufferspilt mitgenutzt werden vom RSX.
TheCounter
2005-08-11, 14:51:00
@256-Kritiker
Habt ihr immer noch nicht verstanden, dass der RSX nicht auf die 256MB GDDR3 beschränkt ist? Genau aus diesem Grund ist die Bandbreite des XDR-Speicher so hoch. Der Cell alleine bräuchte keinen 25GB/s schnellen Speicher, keine 256MB und nicht ohne Grund kann der XDR Speicher als Framebufferspilt mitgenutzt werden vom RSX.
Dann versteh ich nicht wie man die 22,4GB/s der X-Box 360 so kritisieren kann. Wenn nichtmal CELL die 25,6GB/s braucht dann braucht die Xenon CPU die 22,4GB/s schon gleich garnicht alleine und wird auch nicht ausgebremst wenn die GPU auf den GDDR3 Speicher zugreift.
Versteh das ganze rumgetue wegen der Bandbreite also garned :|
betasilie
2005-08-11, 15:02:19
Dann versteh ich nicht wie man die 22,4GB/s der X-Box 360 so kritisieren kann. Wenn nichtmal CELL die 25,6GB/s braucht dann braucht die Xenon CPU die 22,4GB/s schon gleich garnicht alleine und wird auch nicht ausgebremst wenn die GPU auf den GDDR3 Speicher zugreift.
Versteh das ganze rumgetue wegen der Bandbreite also garned :|
Es kritisiert niemand die Minimalbandbreite der 512MB der Xbox, da sie diese mit den schnellen 10MB zum Teil kompensieren kann. Es ist halt ein anderes Konzept.
Die Lösung der PS3 ist aber dennoch besser mit schnellen 512MB Speicher, der über eine Komplettbandbreite von 48MB/s verfügt. Wenn die CPUs der beiden Konsolen im Durchschnitt so 10MB/s an Bandbreite benötigen und 150MB, dann bleiben der Xbox360 nur 362MB für Texturen und Co. mit 12,4GB/s, der PS3 bleiben dann aber 362MB für Texturen und Co. mit einer Bandbreite von 38GB/s . Das ist erheblich mehr.
Petter
2005-08-11, 16:06:45
Es kritisiert niemand die Minimalbandbreite der 512MB der Xbox, da sie diese mit den schnellen 10MB zum Teil kompensieren kann. Es ist halt ein anderes Konzept.
Die Lösung der PS3 ist aber dennoch besser mit schnellen 512MB Speicher, der über eine Komplettbandbreite von 48MB/s verfügt. Wenn die CPUs der beiden Konsolen im Durchschnitt so 10MB/s an Bandbreite benötigen und 150MB, dann bleiben der Xbox360 nur 362MB für Texturen und Co. mit 12,4GB/s, der PS3 bleiben dann aber 362MB für Texturen und Co. mit einer Bandbreite von 38GB/s . Das ist erheblich mehr.
Was rechnest du da bitte? Du vergisst das FSAA(durch edram) nicht
über diesen us abgewickelt werden müssen, ebenfalls die ganze
Stenciloperationen und Framebuffer-Moves. Du kannst nicht aus Datenblättern sachen rauslesen und Chips und Grakas vergleichen. Warum haben denn alle reinen PC GPUs immer wieder kurze Ruckler und Stocker? Richtig, Waitstates des Buses, diese gibt es auf der 360 nicht. Etliches wird über den Bus der 360 gar nicht mehr gemacht, daher ist er komplett frei für Texturen. Dazu ist er noch zu groß, so groß das die GPU etwas mit ihn anfangen kann.
Warum haben denn alle reinen PC GPUs immer wieder kurze Ruckler und Stocker? Richtig, Waitstates des Buses, diese gibt es auf der 360 nicht.Äh nein. Kurze Ruckler im ms-Bereich sind garantiert auf irgendwelche Programme im Hintergrund zurückzuführen und nicht auf Bus-Waitstaites. Das wäre ja eine halbe Ewigkeit.
Du bist viel zu sehr auf deine Latenzen fixiert. PC Spiele lagern >90% aller Daten im VRAM, nur dynamische Sachen wie Animationen kommen über den Bus.
TheCounter
2005-08-11, 16:32:02
Es kritisiert niemand die Minimalbandbreite der 512MB der Xbox, da sie diese mit den schnellen 10MB zum Teil kompensieren kann. Es ist halt ein anderes Konzept.
Die Lösung der PS3 ist aber dennoch besser mit schnellen 512MB Speicher, der über eine Komplettbandbreite von 48MB/s verfügt. Wenn die CPUs der beiden Konsolen im Durchschnitt so 10MB/s an Bandbreite benötigen und 150MB, dann bleiben der Xbox360 nur 362MB für Texturen und Co. mit 12,4GB/s, der PS3 bleiben dann aber 362MB für Texturen und Co. mit einer Bandbreite von 38GB/s . Das ist erheblich mehr.
XDR Memory <-- 25,6GB/s --> CELL <-- 20GB/s <-- RSX <-- 22,4GB/s -> GDDR3 Memory
CELL --> 15GB/s --> RSX
CELL --> 2,5GB/s --> Southbridge
CELL <-- 2,5GB/s <-- Southbridge
Müsste deine Rechnung eigentlich stimmen. Nur müsste man bei der PS3 wohl mehr Bandbreite benötigen für MSAA und dergleichen da dies bei der X-Box 360 ja über den eDRAM läuft.
Um es nochmal bildlich darzustellen (Für diejenigen die es noch nicht kennen/wissen), bei der X-Box 360 siehts so aus:
Xenon CPU --> 10,8GB/s --> R500/C1 --> 500MB/s --> Southbridge
Xenon CPU <-- 10,8GB/s <-- R500/C1 <-- 500MB/s <-- Southbridge
R500/C1 <-- 32GB/s --> Daughter DIE (FB, MSAA, Z/Stencil etc.) <-- 256GB/s --> 10MB eDRAM
|
22,4GB/s
|
GDDR3 Memory
betasilie
2005-08-11, 16:57:43
Was rechnest du da bitte? Du vergisst das FSAA(durch edram) nicht
über diesen us abgewickelt werden müssen, ebenfalls die ganze
Stenciloperationen und Framebuffer-Moves. Du kannst nicht aus Datenblättern sachen rauslesen und Chips und Grakas vergleichen. Warum haben denn alle reinen PC GPUs immer wieder kurze Ruckler und Stocker? Richtig, Waitstates des Buses, diese gibt es auf der 360 nicht. Etliches wird über den Bus der 360 gar nicht mehr gemacht, daher ist er komplett frei für Texturen. Dazu ist er noch zu groß, so groß das die GPU etwas mit ihn anfangen kann.
Wie Coda schon sagte sind diese Ruckler auf dem PC mit absoluter Sicherheit nicht auf Waitstates zurückzuführen. :rolleyes: Komisch auch, dass es sonst auf den bisher erschienen Konsolen keine Ruckler gibt, wo Du doch meinst, dass die Xbox360 die ruckelfreien Spiele erfinden wird. :rolleyes:
Neon3D
2005-08-11, 17:02:13
Es kritisiert niemand die Minimalbandbreite der 512MB der Xbox, da sie diese mit den schnellen 10MB zum Teil kompensieren kann. Es ist halt ein anderes Konzept.
Die Lösung der PS3 ist aber dennoch besser mit schnellen 512MB Speicher, der über eine Komplettbandbreite von 48MB/s verfügt. Wenn die CPUs der beiden Konsolen im Durchschnitt so 10MB/s an Bandbreite benötigen und 150MB, dann bleiben der Xbox360 nur 362MB für Texturen und Co. mit 12,4GB/s, der PS3 bleiben dann aber 362MB für Texturen und Co. mit einer Bandbreite von 38GB/s . Das ist erheblich mehr.
super auf den punkt gebracht !
jetzt sollte es jedem xbox fanboy deutlich werden.
Ihr macht so als ob Latenzen überhaupt keine Rolle spielen.
Zbs. schrieb einer von den User hier." Latenzen können in Streamingsystem wie es GPUs darstellen ignoriert werden
wenn die FIFO ausreichend dimensioniert sind um Stalls and Bubbels zu
vermeiden. Zudem haben RSX und CELL einen sehr gute
Querkommunikationsverbindung."
Was hat das mit dem Thema am Hut? Stalls und Bubbles treten
in der Pipe auf, wir reden von der ganzen Arithmetik die das verwaltet.
Latenzen können nicht ignoriert werden. Ist für dich eine GPU nur ein Ventil wo Wasser durchfliesst? Da ist Müll und entstammt Datenblättervergleicher. Arstechnica und Beyond3D
haben ganz genau erklärt warum die Latenz zwiscen Bus, und den einzelnen
Komponenten bis hin zur CPU so extrem wichtig ist zu eliminieren. Je schon was in den Bereich programmiert? Latenzen durch immer größere Fifa Puffern, Lachhaft.
"Querkommunikationsverbindung" und die wäre? Ich will bitte die Specs sehen!
Petter
2005-08-11, 17:31:38
Ich habe den Beitrag eben als Gast geschrieben, syr.
Noch 2 Links:
http://arstechnica.com/articles/paedia/cpu/xbox360-2.ars/6
http://arstechnica.com/articles/paedia/cpu/pipelining-1.ars/1
Ist für dich eine GPU nur ein Ventil wo Wasser durchfliesst?Genau so sollte es sein, wenn die Applikation gut programmiert ist. Solange keine CPU-GPU Dependencies auftreten ist das auch kein Problem.
Warum du jetzt mit der P4-Pipeline um die schmeißt weiß ich auch nicht. Die Grafik-Pipeline kennt keine Branches und hat solche Probleme nicht.
Mir ist aber immer noch nicht ganz klar welche Latenzen so schrecklich sein sollen bei einer PC-GPU. Die vom Bus ganz sicher nicht, weil der eh nur sehr selten gebraucht wird.
Demirug
2005-08-11, 17:52:05
Ihr macht so als ob Latenzen überhaupt keine Rolle spielen.
Zbs. schrieb einer von den User hier." Latenzen können in Streamingsystem wie es GPUs darstellen ignoriert werden
wenn die FIFO ausreichend dimensioniert sind um Stalls and Bubbels zu
vermeiden. Zudem haben RSX und CELL einen sehr gute
Querkommunikationsverbindung."
Was hat das mit dem Thema am Hut? Stalls und Bubbles treten
in der Pipe auf, wir reden von der ganzen Arithmetik die das verwaltet.
Latenzen können nicht ignoriert werden. Ist für dich eine GPU nur ein Ventil wo Wasser durchfliesst? Da ist Müll und entstammt Datenblättervergleicher. Arstechnica und Beyond3D
haben ganz genau erklärt warum die Latenz zwiscen Bus, und den einzelnen
Komponenten bis hin zur CPU so extrem wichtig ist zu eliminieren. Je schon was in den Bereich programmiert? Latenzen durch immer größere Fifa Puffern, Lachhaft.
"Querkommunikationsverbindung" und die wäre? Ich will bitte die Specs sehen!
Stalls und Bubbles aufgrund von Latenzen in Streamingsystemen.
Ein Ventil ist eigentlich der falsche Vergleich ein Rohr passt hier besser. Nicht umsonst spricht man von Pipelines in der CPU/GPU Technik.
TheCounter war ja schon so nett und hat die Daten der Querverbindungen gepostet.
Und ja ich halte mich für qualifiziert dieses Thema richtig einzuschätzen. Als Systemarchitekt für ein Leitwarten-Technik kommunikationssystem kenne ich mich mit Latenzen gut aus. Und dabei reden wir von Latenzen die auch gerne mal in den Sekundenbreich gehen. Da kann man es sich auch nicht leisten einfach mal alles anzuhalten bis die Antwort da ist. Was denkst du wie viele FIFOs in das System deswegen eingebaut wurden?
Die Lösung der PS3 ist aber dennoch besser mit schnellen 512MB Speicher, der über eine Komplettbandbreite von 48MB/s verfügt. Wenn die CPUs der beiden Konsolen im Durchschnitt so 10MB/s an Bandbreite benötigen und 150MB, dann bleiben der Xbox360 nur 362MB für Texturen und Co. mit 12,4GB/s, der PS3 bleiben dann aber 362MB für Texturen und Co. mit einer Bandbreite von 38GB/s . Das ist erheblich mehr.Frage: Wie kommst du auf 38 GB/s? Der Cell braucht ja schließlich auch Bandbreite und das FSAA ist auch nicht umsonst. Bitte um Aufklärung...
XDR Memory <-- 25,6GB/s --> CELL <-- 20GB/s <-- RSX <-- 22,4GB/s -> GDDR3 Memory
CELL --> 15GB/s --> RSX
CELL --> 2,5GB/s --> Southbridge
CELL <-- 2,5GB/s <-- Southbridge
SB < 2,5GB/s (Write) + 2,5GB/s (Read) wären die Korrekten Daten gewesen.
Aber egal.
SB < 2,5GB/s (Write) + 2,5GB/s (Read) wären die Korrekten Daten gewesen.
Aber egal.
Wo soll da jetzt die tolle Verbindung sein? Ich sehe nur das Schmalband von
15/20 GB über das alles mehrmals geschoben wird. Bei der Xbox360 nur 1x,
hinzu kommt noch das prozedurale Synthese ebenfalls den Bus entlastet und
ganz neue Möglichkeiten bietet.Seht es halt ein, es ist ein PC mehr nicht. Mit all sienen Vor und Nachteilen. Hier haben wir aber eine Konsole(360)
und die soll nur Games und Grafik proudzieren. Es kommt auf Latenzfreien
Throughput an und nicht um zugestopfte Busse die sich alles mit jedem
teilen.
@Demiru und Coda: Siehe die beiden Links.;)
Petter
2005-08-11, 19:38:23
Der Beirtag vor diesen ist von mir. Ich kann mich leider nicht anmelden, E-Mail kommt ja nicht.
Demirug
2005-08-11, 23:28:57
@Demiru und Coda: Siehe die beiden Links.;)
GPU Design ungleich CPU Design. Ansonsten hätten wir nämlich nie GPUs gebraucht und lieber 2 CPUs in die Rechner gebaut.
Na gut, fassen wir mal kurz zusammen: Die PS3 hat mehr Bandbreite als die XBox360. Was ich mich jetzt frage, ist wieviel dieses Vorteils durch den eDRAM wieder aufgeholt werden könnte. Weiß jemand von euch wieviel Banbreite es die PS3 kosten würde unter HDTV-Bedingungen 4fach AA ausführen zu müssen?
Petter
2005-08-11, 23:42:27
GPU Design ungleich CPU Design. Ansonsten hätten wir nämlich nie GPUs gebraucht und lieber 2 CPUs in die Rechner gebaut.
Zu den Kommentar sage ich mal lieber nix.
XDR Memory <-- 25,6GB/s --> CELL <-- 20GB/s <-- RSX <-- 22,4GB/s -> GDDR3 Memory
CELL --> 15GB/s --> RSX
CELL --> 2,5GB/s --> Southbridge
CELL <-- 2,5GB/s <-- Southbridge
SB < 2,5GB/s (Write) + 2,5GB/s (Read) wären die Korrekten Daten gewesen.
Aber egal.
SB < 2,5GB/s (Write) + 2,5GB/s (Read) wären die Korrekten Daten gewesen.
Aber egal.
Wo soll da jetzt die tolle Verbindung sein? Ich sehe nur das Schmalband von
15/20 GB über das alles mehrmals geschoben wird. Bei der Xbox360 nur 1x,
hinzu kommt noch das prozedurale Synthese ebenfalls den Bus entlastet und
ganz neue Möglichkeiten bietet.Seht es halt ein, es ist ein PC mehr nicht. Mit all sienen Vor und Nachteilen. Hier haben wir aber eine Konsole(360)
und die soll nur Games und Grafik proudzieren. Es kommt auf Latenzfreien
Throughput an und nicht um zugestopfte Busse die sich alles mit jedem
teilen.
Die Links waren nicht auf dies hier bezogen.
Petter
2005-08-11, 23:46:44
Na gut, fassen wir mal kurz zusammen: Die PS3 hat mehr Bandbreite als die XBox360. Was ich mich jetzt frage, ist wieviel dieses Vorteils durch den eDRAM wieder aufgeholt werden könnte. Weiß jemand von euch wieviel Banbreite es die PS3 kosten würde unter HDTV-Bedingungen 4fach AA ausführen zu müssen?
Wen ich genug Pyramiden vermesse komm ich auch irgendwan
wie Dänicken aufdie Zahl PI. Irgendwie raffen die Leute nicht das der Bus
von ir aus 1TB/s schnell sein kann, wenn der Flaschenhals am Ende und am
Anfang sitzt. Jedenfalls ist es genau die beschissene Lösung an der auch PCs
sich die Zähne ausbeissen und die früher oder später irgendwie veraschwinden
soll. Die Xbox360 hat keine Latenzen und läuft am maximal machbaren. Ich hoffe du vertehst das im Bezug auf die Bandbreite.
Ist schon komisch, dass bisher in allen Dev-Dokumenten immer nur von Bandbreite die Rede ist.
Du hast immer noch keine sinnvolle Erklärung dafür gebracht was die GPU Speicherlatenzen interessieren.
Der Memory Controller schreibt immer in Bursts und kann immer prefetchen, weil er genau weiß was als nächstes gelesen oder geschrieben werden muss. Der Rest wird von den FIFOs abgefangen, da entstehen auch keine Stalls.
Ist schon komisch, dass bisher in allen Dev-Dokumenten immer nur von Bandbreite die Rede ist.
Du hast immer noch keine sinnvolle Erklärung dafür gebracht was die GPU Speicherlatenzen interessieren.
Der Memory Controller schreibt immer in Bursts und kann immer prefetchen, weil er genau weiß was als nächstes gelesen oder geschrieben werden muss. Der Rest wird von den FIFOs abgefangen, da entstehen auch keine Stalls.
Lass mir ein bisschen Zeit, danke. Ich bin noch nicht sooo erfahren, ich muss mich erstmal informieren.
Und wieso glaubst du einem alten Hasen wie Demirug dann nicht mal was?
Er hat nämlich definitiv Ahnung von dem was er so erzählt ;)
Und wieso glaubst du einem alten Hasen wie Demirug dann nicht mal was?
Er hat nämlich definitiv Ahnung von dem was er so erzählt ;)
denkst du ja
betasilie
2005-08-12, 00:17:44
Lass mir ein bisschen Zeit, danke. Ich bin noch nicht sooo erfahren, ich muss mich erstmal informieren.
Und wieso glaubst du einem alten Hasen wie Demirug dann nicht mal was?
Er hat nämlich definitiv Ahnung von dem was er so erzählt ;)denkst du ja
Du glaubst ernthaft dich innerhalb von Stunden oder Tagen auf Demirugs Wissenstand transportieren zu können? ... Du begibst dich immer mehr auf den Weg die Allgemeinheit hier zu erheitern. X-D
Und wieso glaubst du einem alten Hasen wie Demirug dann nicht mal was?
Er hat nämlich definitiv Ahnung von dem was er so erzählt ;)
Das ist so eine Sache, irgendwie bin ich immer sehr vorsichtig. Im Endeffekt kann man nämlich auch wenn man Ahnung hat Fehler machen, gerade in diesen Bereich. Auf der Serraph zbs. gab es viele Ahs und Ohs über die 360, bzw. über seine GPU. Den RSX hat niemanden interresiert weil man ja schon alles kennt. Also neue Wege sind dem Anschein nach mit dem C1 sicher möglich, Wege mit denen man sehr viel Preformence spart und viele neue kleine Dinge sehen wird(vielleicht große?). Für mich wäre das Thema 360 und PS3 gar nicht so relevant wenn man nicht gesagt hätte die PS3 würde 10x mal stärker sein etc. Für mich steht fest: Entweder liege ich mit einigen Dingen in Unrecht, was aber immer noch bedeuten würde die 360 würde sich mit der PS3 nix nehmen oder ich bin richtig und die 360 hebt sich deutlich von der PS3 ab. MEMEXPORT in Zusammenhang mit 48 Unfitid Shadern ist doch einfach Traumhaft oder nicht? Wird 3D Center eigentlich die System wenn die beiden da sind dann nochmal unter die Lupe nehmen?
Petter
2005-08-12, 00:29:09
VERDAMMT, schickt mir die E-Mail damit ich meinen ACC. verwenden kann. Der Post vor diesen ist von mir, dem Petter. Der andere aber nicht.
Was ist darna verwunderlich dass die Devs die erste praktische implementierung eines Unified Shaders interessiert? Dass das automatisch besser ist lässt sich nicht daraus schließen.
MEMEXPORT in Zusammenhang mit 48 Unfitid Shadern ist doch einfach Traumhaft oder nicht?Das ist im Endeffekt auch nicht mehr Leistung als RSX wenn man jetzt mal den Speicher völlig außer acht lässt.
Und bitte vergleiche nicht "48" mit irgendeiner Pipeline-Angabe bei traditonellen GPUs. Das ist Unsinn. Denn auch G70 hat schon 48 Pixel-ALUs. RSX dürfte deren 64 haben. Dazu kommen noch die 8 Vertex-ALUs.
nVIDIA hat MEMEXPORT ähnliche Sachen unter OpenGL schon seit NV30 im Program. Render-To-Vertexbuffer ist dort möglich.
Demirug
2005-08-12, 00:36:04
VERDAMMT, schickt mir die E-Mail damit ich meinen ACC. verwenden kann. Der Post vor diesen ist von mir, dem Petter. Der andere aber nicht.
Also wenn die Email immer noch nicht angekommen ist hast du dich da möglicherweise vertippt oder ein Filter hat sie gefresse. Was passsiert den wenn du versuchst dich nochmal anzumelden?
Was ist darna verwunderlich dass die Devs die erste praktische implementierung eines Unified Shaders interessiert? Dass das automatisch besser ist lässt sich nicht daraus schließen.
Das ist im Endeffekt auch nicht mehr Leistung als RSX wenn man jetzt mal den Speicher völlig außer acht lässt.
nVIDIA hat MEMEXPORT ähnliche Sachen unter OpenGL schon seit NV30 im Program. Render-To-Vertexbuffer ist dort möglich.
Ich will jetzt einfach mal keine Wiederrede aussprechen.:) Was denkst du denn, welche Konsole wird besser?
Also wenn die Email immer noch nicht angekommen ist hast du dich da möglicherweise vertippt oder ein Filter hat sie gefresse. Was passsiert den wenn du versuchst dich nochmal anzumelden?
Eclipse1990, Sie haben keine Rechte, um auf diese Seite zuzugreifen. Folgende Gründe könnten z.B. dafür verantwortlich sein:
Sie versuchen, den Beitrag eines anderen Benutzers zu ändern oder auf administrative Funktionen zuzugreifen. Überprüfen Sie bitte in den Forenregeln, ob Sie diese Aktion ausführen dürfen.
Wenn Sie versucht haben, einen Beitrag zu schreiben, kann es sein, dass Ihr Benutzerkonto deaktiviert wurde oder noch aktiviert werden muss.
Ich will mich doch nur anmelden. Aber diese mail kam halt nie.:( Aber du hast ja meinen Nicknamen und meine E-Mail Adresse ist Lolmann@aol.com, kannst du was per Hand machen? Ach und welche Konsole findest du derzeit im Vorteil?
Ich weiß es nicht. Anhand bloser (oberflächlicher!) technischer Details kann das kein Mensch beurteilen.
Es gab schon genügend HW die trotz supertoller Specs im Endeffekt die erwartete Performance trotzdem nicht erreichte. Bei Konsolen kommt noch dazu dass man überhaupt nicht objektiv vergleichen kann weil es keine Benchmark-Möglichkeit gibt.
Aber eines ist sicher: C1 wird RSX sicher nicht in den Boden stampfen und vice-versa.
Demirug
2005-08-12, 00:46:44
Ich kann da nichts machen da ich da nur Leserechte haben. Aber ich werde einen der Admins auf das Problem aufmerksam machen. Die Email Adresse stimmt jedenfalls und laut Status ist sie auch rausgegangen.
Die bessere Konsole ist die mit den besseren Entwicklungstools und da gibt es ja derzeit nur Vorabversionen.
Ich weiß es nicht. Anhand bloser (oberflächlicher!) technischer Details kann das kein Mensch beurteilen.
Es gab schon genügend HW die trotz supertoller Specs im Endeffekt die erwartete Performance trotzdem nicht erreichte.
Bei Konsolen kommt noch dazu dass man überhaupt nicht objektiv vergleichen kann weil es keine Benchmark-Möglichkeit gibt
Habt ihr eigentlich auch diesen Hype im Forum gehabt?(ps3 etc.) Das war heftig Nervenauftreibend. Oder geht mal in die PS Forums, heftig, richtig heftig.
Ich kann da nichts machen da ich da nur Leserechte haben. Aber ich werde einen der Admins auf das Problem aufmerksam machen. Die Email Adresse stimmt jedenfalls und laut Status ist sie auch rausgegangen.
Die bessere Konsole ist die mit den besseren Entwicklungstools und da gibt es ja derzeit nur Vorabversionen.
Ok, danke!
Habt ihr eigentlich auch diesen Hype im Forum gehabt?(ps3 etc.) Das war heftig Nervenauftreibend. Oder geht mal in die PS Forums, heftig, richtig heftig.Jo. Manche Leute meinen ja immer noch der Cell wäre der heilige CPU-Gral :rolleyes:
betasilie
2005-08-12, 00:53:59
Aber eines ist sicher: C1 wird RSX sicher nicht in den Boden stampfen und vice-versa.
Dem schließe ich mich an. Der R500 mag u.U. ein sehr gutes P-/L-Verhältnis haben und für seinen Transistorencount viel leisten, aber der RSX ist ihm über und das auch ohne die SPEs, die ja bei der Grafikberechnung ebenfalls mit einbezogen werden.
betasilie
2005-08-12, 00:58:29
Jo. Manche Leute meinen ja immer noch der Cell wäre der heilige CPU-Gral :rolleyes:
Demirug, den Du ja vorhin noch viel Kompetenz zugesprochen hast, hält den Cell für sehr mächtig, die richtigen Entwicklertools vorrausgesetzt. Und was den Dev-Support angeht, scheint sich Sony, nicht zuletzt durch IBM, ordentlich zu steigern. Also wird der Cell im Idealfall eine brachiale Leistung liefern.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.