Archiv verlassen und diese Seite im Standarddesign anzeigen : ATI Xenos/C1 vs Nvidia RSX
thade
2006-02-09, 03:53:48
So da ich keine Lust habe die ganzen Sammelthreads durchzuforsten, wollte ich hier mal nen Thread aufmachen, wo es speziell um die NexGen Konsolen GPUs geht.
Nintendo R lass ich jetzt mal außen vor, der benutzt ja fast die selbe GPU wie die 360, soweit ich weiß.
Man hört immer PS3 wird doppelt so stark, die Spiele werden viel besser aussehen als die der XBox360. Aber ist das wirklich so? Mir kommt es so vor, als sei der RSX die einzige "Schwachstelle" der PS3. Es war auch zu lesen, er sei nur ein halbherzig portierter GeForce7, das wäre nicht wirklich NexGen, würde für Spiele wie KillZone2 niemals reichen. Wogegen der Xenos ein richtiger "Konsolen Chip" sein soll.
Was denkt ihr über die beiden GPUs, welche haltet ihr für die Bessere? Gründe?
Hier mal die groben Daten der Chips:
ATI XENOS
* ATI-Design
* 337 Millionen Transistoren
* 500 MHz Coretakt
* 10 Megabyte embedded DRAM
* Unified Shader-Architektur
* Unterstützt werden die HDTV-Formate 480p, 720p (1280 x 720 progressive) oder 1080i (1920 x 1080 interlaced), alle Spiele müssen
mindestens für das Format 720p und 16:9 ausgelegt sein
NVs RSX
*Nvidia RSX ("Reality Synthesizer") @ 550MHz ( Basierend auf Nvidias Geforce 7 Reihe )
*1.8 TFLOPS Leistung ( damit Leistungsfähiger als eine Nvidia Geforce 7800 GTX 512MB die 'nur' ca 1.3 TFLOPS bietet)
*Vielseitig programmierbare Parallel-Floating-Point-Shader-Pipelines( über 100 Milliarden Shader Operation pro Sekunde)
*28bit Pixel Precision
*über 300 Millionen Transistoren ( in 90 nm gefertigt)
*2-Kanal-HD-Stream (Full HD 1080p auf 2 Kanälen(TVs) gleichzeitig)
Und bitte keine ATI vs Nvidia Flames, beide GPUs sind klasse, beide haben Potential, aber eine von beiden muss die Bessere sein.
Ich persöhnlich halte die PS3 leistungsfähiger wie die XBox360. Der Cell soll doch schon deutlich besser sein, als der 360 Trilling. Nur bei der GPU bin ich mir nicht so sicher. Meine Tendenz geht zu ATI.
nagus
2006-02-09, 07:39:34
was ich so gehört und gelesen habe sollen ja die entwickler die xbox360 vorziehn, weil leistungsfähiger, flexibler und einfacher zu programmieren als PS3.
ShadowXX
2006-02-09, 09:07:13
was ich so gehört und gelesen habe sollen ja die entwickler die xbox360 vorziehn, weil leistungsfähiger, flexibler und einfacher zu programmieren als PS3.
Na siehst du....und ich hab das ganze genau anderersherum gehört....
Mal was halbwegs produktives:
Es soll hier nur darum gehen, welches wohl der Leistunsgfähigere der beiden GPUs ist und nicht was irgendwelche Devs plappern, die widerum von irgendwelchen anderen Leuten direkt oder indirekt bezahlt wurden das ganze zu sagen.
Ich persönlich schätze den RSX etwas leistungsfähiger als den C1 ein, wobei das ganze dann natürlich wohl auch darauf ankommt was man so Programmiert.
Es wird immer etwas geben, was der eine lieber als der andere mag und andersherum.
Der C1 ist im Prinzip noch DX9 und den einzigen Vorteil den er hat durch seine US, ist das er etwas flexibler darauf reagieren kann, was für eine art Shader gerade gebraucht wird.
Da die Vertexshader des RSX aber sehr wahrscheinlich sowieso nie überlastet sein werden, ist das ganez mehr ein Vorteil auf dem Papier.
Was der RSX definitiv hat, ist mehr Füllrate.....was gerade für die Benutzung von AF was bringen könnte.
Dafür hat der C1 seinen Tochter-Die, auf dem in der Theorie 4xMSAA (und andere "kleinigkeiten") "for free" ablaufen.....nur konnte diese Theorie bisher noch nicht so ganz bewiesen werden und es sieht momentan (da muss man aber auch mal abwarten) eher so aus, als wenn das ganze doch nicht so einfach und auch nicht "for free" ist.
Nur mal so als Tipp...ATI selbst sieht den x1800xt als Leistungsfähiger als den C1 an.
robbitop@work
2006-02-09, 10:04:54
Der C1 schafft 48 MAD4 Instruktionen pro Takt. Davon geht allerdings etwas für die Geometrieberechnungen drauf. Die ALUs im C1 sollen im Gegensatz zu den R3xx/4xx/5xx ALUs keine ADD4 MiniALU mehr haben, was ihnen natürlich etwas an Biss nimmt.
Der RSX schafft 48 MAD4 Instruktionen pro Takt. Davon geht nichts an den VS verloren. Weiterhin ist NRM_PP kostenlos (24 davon pro Takt) ... das bringt bei Dot Product Mapping intensiven Spielen sicher noch mal ein Plus. Weiterhin ist der RSX 10% höher getaktet. Also sollte der RSX arithmetisch etwas im Vorteil sein. In Sachen Füllrate zieht der RSX dem C1 natürlich weg. Und IMO wird Füllrate so schnell nicht komplett die Wichtigkeit verlieren.
Das mit dem eDRAM bringt einige Vorteile, problematisch ist aber (vor Allem mit MSAA), dass ständig vom eDRAM in den Unified GDDR3 geswapped werden muss ... und hinzu kommt, dass ATI angeblich vom C1 zum eDRAM keine Z Compression verwendet. Der Bandbreitenvorteil ist eher theoretischer Natur. Es ist einfach viel zu wenig eDRAM da.
Was die CPU angeht, da sehe ich die XBOX360 vorn. Die Haupt CPU von CELL ist einfach zu schwach für eine brauchbare Spielekonsole. In-Order Design sei dank. Davon hat die XBOX wenigstens 3.
Die Vector Prozessoren von CELL sind ein nettes Beiwerk für Physikberechnungen aber dennoch fehlt eine schlagkräftige out of order CPU. CELL hätte ich lieber als PPU eingesetzt. Und einfach programmiertechnisch umzusetzen ist das Ganze sowieso nicht.
Winter[Raven]
2006-02-09, 10:15:29
was ich so gehört und gelesen habe sollen ja die entwickler die xbox360 vorziehn, weil leistungsfähiger, flexibler und einfacher zu programmieren als PS3.
Zum Teil recht, wenn es um einfachere Programmierung angeht, aber der rest ... BS.
Die PS Programmierung ist etwas schwieriger, aber die Spielefirmen werden es schon auf die Reihe bekommen, und wenn dann erwarte ich mehr von der PS 3 als von dem X-Box Kasten.
ShadowXX
2006-02-09, 10:37:36
Der C1 schafft 48 MAD4 Instruktionen pro Takt. Davon geht allerdings etwas für die Geometrieberechnungen drauf. Die ALUs im C1 sollen im Gegensatz zu den R3xx/4xx/5xx ALUs keine ADD4 MiniALU mehr haben, was ihnen natürlich etwas an Biss nimmt.
Der RSX schafft 48 MAD4 Instruktionen pro Takt. Davon geht nichts an den VS verloren. Weiterhin ist NRM_PP kostenlos (24 davon pro Takt) ... das bringt bei Dot Product Mapping intensiven Spielen sicher noch mal ein Plus. Weiterhin ist der RSX 10% höher getaktet. Also sollte der RSX arithmetisch etwas im Vorteil sein. In Sachen Füllrate zieht der RSX dem C1 natürlich weg. Und IMO wird Füllrate so schnell nicht komplett die Wichtigkeit verlieren.
Das mit dem eDRAM bringt einige Vorteile, problematisch ist aber (vor Allem mit MSAA), dass ständig vom eDRAM in den Unified GDDR3 geswapped werden muss ... und hinzu kommt, dass ATI angeblich vom C1 zum eDRAM keine Z Compression verwendet. Der Bandbreitenvorteil ist eher theoretischer Natur. Es ist einfach viel zu wenig eDRAM da.
Dem kann man zustimmen....
Was die CPU angeht, da sehe ich die XBOX360 vorn. Die Haupt CPU von CELL ist einfach zu schwach für eine brauchbare Spielekonsole. In-Order Design sei dank. Davon hat die XBOX wenigstens 3.
Die Vector Prozessoren von CELL sind ein nettes Beiwerk für Physikberechnungen aber dennoch fehlt eine schlagkräftige out of order CPU. CELL hätte ich lieber als PPU eingesetzt. Und einfach programmiertechnisch umzusetzen ist das Ganze sowieso nicht.
Sehe ich inzwischen nicht mehr unbedingt so.
Die SPEs des Cell sind keine "reinen" VectorProzessoren, sondern schlucken auch "normalen" General Purpose-Code sind aber eben zusätzlich noch sehr fix was Vectorrechnug angeht.
Trotzdem gebe ich dir Recht, das ich als "HauptCPU" auch was anderes genommen hätte, als das, was im Cell verbaut ist (zumindest für ein Konsolendesign).
reunion
2006-02-09, 10:45:06
Die SPEs des Cell sind keine "reinen" VectorProzessoren, sondern schlucken auch "normalen" General Purpose-Code sind aber eben zusätzlich noch sehr fix was Vectorrechnug angeht.
Schau dir mal die Takte an, welche die SPEs benötigen, um normalen Code ausführen zu können. Die Teile sind im Grunde nur als Vectorprozessoren sinnvoll einzusetzten.
ShadowXX
2006-02-09, 11:08:11
Schau dir mal die Takte an, welche die SPEs benötigen, um normalen Code ausführen zu können. Die Teile sind im Grunde nur als Vectorprozessoren sinnvoll einzusetzten.
Darüber scheint es sehr verschiedene Meinungen zu geben....da weder ich, noch du bisher auf einem Cell programmieren konnten, kann keiner von uns beiden sagen, ob man GP-Code darauf sinnvoll oder nicht sinnvoll ausführen kann.
Unter obigen Gesichtpunkten, kannst du theoretisch auch die CPUs der XBox360 und die HauptCPU des Cells in die Tonne treten und sagen: Alles was branchlastigen GP-Code langsamer als ein A64 ausführt ist crap....
tokugawa
2006-02-09, 11:10:31
']Zum Teil recht, wenn es um einfachere Programmierung angeht, aber der rest ... BS.
Die PS Programmierung ist etwas schwieriger, aber die Spielefirmen werden es schon auf die Reihe bekommen, und wenn dann erwarte ich mehr von der PS 3 als von dem X-Box Kasten.
Die armen Devs. Schon die PS2 war eine mittlere Katastrophe (von den Hardware-Bugs, um die man herumprogrammieren muß, ganz zu schweigen).
Vielleicht sollte man auch mal daran denken dass einfacher zu programmierende und besser dokumentierte Hardware die Devs auch leichter die Konsole ausreizen lassen.
Die gelbe Eule
2006-02-09, 11:20:36
Dafür hat man doch versierte Programmierer und halt eben welche die es nicht drauf haben. Wer es einmal raus hat, kann Qualität liefern. Den Kunden interessiert nur das Produkt und der Entwickler muss alles geben, damit es auch gekauft wird, sonst machen es andere.
Ich erwarte mehr von dem RSX. Der G70 ist ja schon ne ganze Ecke mehr auf dem Markt, also sollte man damit auch schon länger umgehen können. Letztendlich wird auch der Monitor/TV entscheiden, was an BQ herauskommt und genau da wird die PS3 Ihren Vorteil haben, nicht unbedingt einen HDTV nachzukaufen.
fizzo
2006-02-09, 11:25:25
Unter obigen Gesichtpunkten, kannst du theoretisch auch die CPUs der XBox360 und die HauptCPU des Cells in die Tonne treten und sagen: Alles was branchlastigen GP-Code langsamer als ein A64 ausführt ist crap....
hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=265828&highlight=xbox) details zur xbox cpu. den kompletten durchblick habe ich jedoch nicht....
tokugawa
2006-02-09, 11:40:51
Dafür hat man doch versierte Programmierer und halt eben welche die es nicht drauf haben. Wer es einmal raus hat, kann Qualität liefern. Den Kunden interessiert nur das Produkt und der Entwickler muss alles geben, damit es auch gekauft wird, sonst machen es andere.
Trotzdem ist es technisch nicht effizient, wenn die Entwicklung erschwert wird. Vom Software Engineering Standpunkt aus absolut nicht zu vertreten.
Außerdem sollte man auch wirklich mal an die Entwickler denken. Das hat nichts zu tun mit "drauf haben oder nicht". Ich kenne Leute die die PS2 programmieren, und die es wirklich draufhaben, und die schimpfen trotzdem über die PS2 (kranke Konstrukte wie keine "load value" Instruktion, sondern man behilft sich mittels der Addition zum Nullregister). Sowas muß ganz einfach nicht sein.
Solche Threads sind ganz einfach sinnlos, weil man weder genügend Informationen hat noch vergleichende Benchmarks fahren kann.
Im Endeffekt läuft es doch nur auf ein geflame unter Fanboys raus.
ShadowXX
2006-02-09, 11:46:36
hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=265828&highlight=xbox) details zur xbox cpu. den kompletten durchblick habe ich jedoch nicht....
Ich kenne die Details & den Thread & andere Thread...genau deshalb ja auch meine Aussage.
Wenn man den SPEs des Cell jegliche GP-Code ausführung aus Performancesicht abspricht, kann man auch gleich sagen das die HauptCPU des Cell und die CPUs der XBox360 (die sich sowieso sehr ähneln) sich eigentlich nicht besondern für GP-Code (speziell Branchlastigen) eigenen und für Spielekonsolen deshalb sowieso nicht gerade geeignet sind.
Anders gesagt könnte man dann auch sagen, das die XBox360-CPU deshalb 3 Cores benötigt, das überhaupt halbwegs was drauf läuft.....
(Alles etwas überspitzt formuliert....)
Im Prinzip hat Coda recht....die Diskussion darüber, spezell was den vergleich PS3 vs. XBox360 betrifft, sind nonsense.
Man kann sich geziehlt über einzelen Teil-Aspekte bzw. stärken und schwächen der jeweiligen Architektur unterhalten....aber vergleiche werden immer hinken.
DrFreaK666
2006-02-09, 12:01:29
Dann hoffe ich wenigstens, dass sich das Flamen von den Konsolen-Sammelthreads hierherverlagert...
Am Besten mal betareverse bescheidsagen
Wenn man den SPEs des Cell jegliche GP-Code ausführung aus Performancesicht abspricht, kann man auch gleich sagen das die HauptCPU des Cell und die CPUs der XBox360 (die sich sowieso sehr ähneln) sich eigentlich nicht besondern für GP-Code (speziell Branchlastigen) eigenen und für Spielekonsolen deshalb sowieso nicht gerade geeignet sind.Weißt du denn wie die SPEs überhaupt funktionieren? Die Dinger arbeiten immer nur mit einem lokalen Speicher von 512KiB in den Code und Daten passen müssen. Die PPU muss sich per DMA darum kümmern dass diese ausgetauscht werden.
Man kann sich leicht denken wie schwierig es ist beliebige Algorithmen auf solch eine Struktur anzuwenden. Es ist als hätte man mehrere kleine DOS-Rechner mit nur 512KiB RAM (ohne Festplatte) aber brachialer Rechenleistung denen man per Netzwerk Tasks zuweißen kann.
Die SPEs sind also nicht mit der PPU zu vergleichen - es ist noch viel schlimmer...
ShadowXX
2006-02-09, 12:10:52
Weißt du denn wie die SPEs überhaupt funktionieren? Die Dinger arbeiten immer nur mit einem lokalen Speicher von 512KiB in den Code und Daten passen müssen. Die PPU muss sich per DMA darum kümmern dass diese ausgetauscht werden.
Man kann sich leicht denken wie schwierig es ist beliebige Algorithmen auf solch eine Struktur anzuwenden. Es ist als hätte man mehrere kleine DOS-Rechner mit nur 512KiB RAM aber brachialer Rechenleistung denen man per Netzwerk Tasks zuweißen kann.
Ja natürlich weiß ich das.....keiner hat auch jemals behauptet, das das einfach ist.
Aber es ist schlicht schwachsinn zu sagen das das überhaupt nicht geht.
Davon abgesehen sind 512KiB nun auch wieder nicht so wenig, wie sich das im ersten Moment anhört.
Es kommt ja auch immer darauf an, was man mit den SPEs machen will.
Eine KI würde ich auch nicht unbedingt da reinlegen wollen....andererseits habe ich schon gehört, das das schon welche machen.
Im allgemeien würde ich die SPEs nur mit Code befeueren, der Ihnen zu 100% liegt.....was aber trozdem nicht ausschliesst, das ich "normalen" Code mit diesen ausführen kann/könnte.
Ob das dann sinnvoll ist, steht auf einem anderen Blatt.
Ich selbst hätte sowieso keinen der beiden Prozessoren für eine Gaming-Konsole genommen...den Cell als CoPro, das wäre eine gute Sache. Den Cell alleine zu benutzen schiebe ich fast nur auf Geldtechnische gründe zurück.
Das ist doch Wunschdenken mit dem "optimalen Code". Die meisten Spiele werden für mindestens PS3 und Xbox 360 entwickelt werden und ich denke nicht dass da aus einer gemeinsamen Codebasis eine vernünftige Cell-Auslastung rauskommt.
Vor allem sind die meisten Devs auch einfach faul, weil die Komplexität moderner Spiele schon ziemlich heftig ist. Da will man sich nicht auch noch mit solchem Ranz rumschlagen. Andererseits ist Cell ohne SPEs ein ziemliches Würstchen. Ca. 1Ghz Athlon würde ich mal vermuten.
Ach so, ich finde die Xbox 360-CPU genauso beschissen ;)
Die GPUs taugen eigentlich beide recht gut, wobei C1 imho zu wenig Rohfüllrate hat, dafür aber auch ordentlich ALU-Leistung.
Ich denke so schnell wie bei der letzten Generation kann der PC nicht davonziehen, featuremäßig meine ich Kann er. Mitte 2006 gibts die ersten D3D10-Karten die weitaus mehr können als C1 und RSX.
ShadowXX
2006-02-09, 12:24:44
Das ist doch Wunschdenken mit dem "optimalen Code". Die meisten Spiele werden für mindestens PS3 und Xbox 360 entwickelt werden und ich denke nicht dass da aus einer gemeinsamen Codebasis eine vernünftige Cell-Auslastung rauskommt.
Vor allem sind die meisten Devs auch einfach faul, weil die Komplexität moderner Spiele schon ziemlich heftig ist. Da will man sich nicht auch noch mit solchem Ranz rumschlagen.
Hab ich irgendwo geschrieben das ich die PS3 oder die XBox360 besonders toll finde oder eine der beiden Konsolen bzw. deren Ansatz preferiere?
Natürlich ist das mit dem "optimalen Code" Wunschdenken (zumindest bis auf wenige Ausnahmetitel).
Ich schrieb ja auch, das ich, wenn ich je in die Verlegenheit kommen würde den Cell zu Programmieren, es so machen würde (zumindest würde ich es versuchen, allerdings reisse ich mich auch nicht gerade darum das Ding zu programmieren).
Das das in 95% der Fälle nicht passieren wird, ist klar.
Ich erwähnte auch bereits, das ich beide Ansätze (sowohl den von MS (wobei ich sowieso glaube, das die Idee der TrippleCPU eher auf dem Mist von IBM gewachesen ist -> hmmm MS will ne CPU die mindest XYZ GFlops hat...mal sehen...nehmen wir doch so einen "SteuerCore" den wir auch beim Cell verwenden...coole Idee, spart auch Entwicklungskosten, ist aber ein bisserl langsam....ach, dann nehmen wir eben 2, 3 oder 4 Cores davon und pappen die zusammen, bis die GFlop-Zahl irgendwie passt) als auch den von Sony) nicht als der Weißheit letzten Schluss sehe.
Das Problem ist meiner Meinung nach bei den CPUs viel eher dass sowohl MS als auch Sony das Ding selber fertigen wollten um Kosten zu sparen. Und werden AMD, noch Intel noch IBM würden IP für ihre "richtigen" Cores (K8, Dothan/Yonah oder PowerPC 970) hergeben ;)
Ich denke nämlich mit einem Dualcore PowerPC 970 oder Yonah wäre die Xbox sicher besser dagestanden.
StefanV
2006-02-09, 12:37:15
Solche Threads sind ganz einfach sinnlos, weil man weder genügend Informationen hat noch vergleichende Benchmarks fahren kann.
Im Endeffekt läuft es doch nur auf ein geflame unter Fanboys raus.
Dem stimme ich mal zu.
Die XBox360 dürfte auch die leistungsfähigere Hardware als die Paystation 3 sein, siehe die Kommentare von tokugawa, die Zell Teile sind einfach nur grütze und ob der RSX so toll ist, wie er hier geredet ist, darf auch bezweifelt werden, zumal der C1 auch noch ein wenig eDRAM zur Seite hat.
Die XBox360 dürfte auch die leistungsfähigere Hardware als die Paystation 3 sein, siehe die Kommentare von tokugawa, die Zell Teile sind einfach nur grütze und ob der RSX so toll ist, wie er hier geredet ist, darf auch bezweifelt werden, zumal der C1 auch noch ein wenig eDRAM zur Seite hat.Öh. Das glaube ich nicht Tim. Aber wie gesagt, die Diskussion ist reichlich sinnbefreit.
ShadowXX
2006-02-09, 12:53:50
Das Problem ist meiner Meinung nach bei den CPUs viel eher dass sowohl MS als auch Sony das Ding selber fertigen wollten um Kosten zu sparen. Und werden AMD, noch Intel noch IBM würden IP für ihre "richtigen" Cores (K8, Dothan/Yonah oder PowerPC 970) hergeben ;)
Ja....ich glaube auch das das mit einer der Hauptprobleme ist.
Ich denke nämlich mit einem Dualcore PowerPC 970 oder Yonah wäre die Xbox sicher besser dagestanden.
Das sowieso....eine ein Yonah wäre eine nette sache gewesen. Und wenn die Preise die Apple so pro CPU zahlen muss wirklich stimmen (gab da so ein paar gerüchte), wäre so eine CPU IMHO auch für die XBox360 preislich drinne gewesen.
Speziell da MS wohl auch noch mehr Yonah abgenommen hätte als Apple jetzt.
Dem stimme ich mal zu.
Die XBox360 dürfte auch die leistungsfähigere Hardware als die Paystation 3 sein, siehe die Kommentare von tokugawa, die Zell Teile sind einfach nur grütze und ob der RSX so toll ist, wie er hier geredet ist, darf auch bezweifelt werden, zumal der C1 auch noch ein wenig eDRAM zur Seite hat.
Grütze sind die Cells bestimmt nicht....ob Sie die Idealbesetzung für eine Spielkonsole sind, darüber kann man reden.
Aber wie schon erwähnt...auch die XBox360 CPU halte ich nicht gerade für die Idelabesetzung.
Die gelbe Eule
2006-02-09, 13:02:40
Trotzdem ist es technisch nicht effizient, wenn die Entwicklung erschwert wird. Vom Software Engineering Standpunkt aus absolut nicht zu vertreten.
Außerdem sollte man auch wirklich mal an die Entwickler denken. Das hat nichts zu tun mit "drauf haben oder nicht". Ich kenne Leute die die PS2 programmieren, und die es wirklich draufhaben, und die schimpfen trotzdem über die PS2 (kranke Konstrukte wie keine "load value" Instruktion, sondern man behilft sich mittels der Addition zum Nullregister). Sowas muß ganz einfach nicht sein.
Wie gesagt, die Spreu trennt sich vom Weizen. Es sind Hammer Games auf PS2 erschienen, es werden Hammer Games auf PS3 erscheinen und auf PC wird ständig alles wiederholt, siehe EA.
Man muss bedenken das vieles neue und interessante aus Japan kommt, wo die Leute Ihre Arbeit lieben und keine Zeit zum schimpfen haben. Allein durch BlueRay kann man doch viel mehr Daten nutzen, die durch den BUS gejagt werden können.
Wie gesagt, die Spreu trennt sich vom Weizen. Es sind Hammer Games auf PS2 erschienen, es werden Hammer Games auf PS3 erscheinen und auf PC wird ständig alles wiederholt, siehe EA.Soll ich lachen? Als ob bei den Konsolen nicht auch schon Remakes an der Tagesordnung sind...
Die gelbe Eule
2006-02-09, 13:13:57
Es geht eher darum, das dort auf Qualität geachtet wird, man kann kein Spiel herausbringen, das erst noch spielbar gepatched werden muss. Das würde den Tod bedeuten und sich nicht verkaufen.
ShadowXX
2006-02-09, 13:32:41
Es geht eher darum, das dort auf Qualität geachtet wird, man kann kein Spiel herausbringen, das erst noch spielbar gepatched werden muss. Das würde den Tod bedeuten und sich nicht verkaufen.
Du kennst die Xbox360?
MS hat die Tür für nachträgliche Patches auf Konsolen inzwischen ziemlich weit geöffnet....
So schlimm wie bei manchen PC-Game wird es wohl nicht werden, aber ich würde mich schon mal innerlich daraufeinstellen, das es in nächster Zeit auch für Konsolengames öfter mal patches geben wird.
Die gelbe Eule
2006-02-09, 14:09:14
Patches nein, Erweiterungen ja.
Wenn ich z.B. and MMORPGs denke, ist es einfacher sich etwas auf HD zu ziehen, anstatt es erst kaufen zu müssen.
Trotz allem, die Architektur kann toll sein, aber wie sie nutzbar sit, wird sich zeigen. Man kann kaum alles mögliche reinkloppen und dann ruckelt es hier und da. Das einige gute Spiele 3 Jahre Entwicklungzeit brauchen, sollte bekannt sein.
StefanV
2006-02-09, 15:17:21
Grütze sind die Cells bestimmt nicht....ob Sie die Idealbesetzung für eine Spielkonsole sind, darüber kann man reden.
Aber wie schon erwähnt...auch die XBox360 CPU halte ich nicht gerade für die Idelabesetzung.
Was braucht man wohl eher?!
20 Streaming Prozessoren oder 1-2 'Universalcpus'?
Eben, ein K8 wäre die sinnigere Wahl gewesen, die Cell Teile sind einfach Grütze, weil sie eben keine 'Universalrecheneinheiten' sondern spezialisierte sind, die nur bestimmte Dinge (gut) können.
Öh. Das glaube ich nicht Tim. Aber wie gesagt, die Diskussion ist reichlich sinnbefreit.
Komm, lass es uns auswürfeln, hab 'ne 6 fürn RSX gewürfelt und 'ne 8 für den ATi Chip :devil:
ShadowXX
2006-02-09, 15:27:52
Patches nein, Erweiterungen ja.
Wenn ich z.B. and MMORPGs denke, ist es einfacher sich etwas auf HD zu ziehen, anstatt es erst kaufen zu müssen.
Trotz allem, die Architektur kann toll sein, aber wie sie nutzbar sit, wird sich zeigen. Man kann kaum alles mögliche reinkloppen und dann ruckelt es hier und da. Das einige gute Spiele 3 Jahre Entwicklungzeit brauchen, sollte bekannt sein.
Es gibt schon die ersten Patches für die Xbox360.....COD2 bekommt z.B. nächstens einen ab.
Was braucht man wohl eher?!
20 Streaming Prozessoren oder 1-2 'Universalcpus'?
Kommt drauf an, was man machen will......aber darüber zu streiten bringt nix, da ich ja auch schon erwähnte, das ich auch den Cell nicht unbedingt für eine Idealbesetzung in der PS3 halte.
Eben, ein K8 wäre die sinnigere Wahl gewesen, die Cell Teile sind einfach Grütze, weil sie eben keine 'Universalrecheneinheiten' sondern spezialisierte sind, die nur bestimmte Dinge (gut) können.
Natürlich wäre ein K8, ein Yonah/P-M oder auch ein G5 die sinnigere Wahl gewesen....
Aber trotzdem ist der Cell keine Grütze....vielleicht nicht das idealste für eine Konsole, aber als CPU für bestimmte Anwendungsgebiete ziemlich gut.
Davon abgesehen hat natürlich auch der Cell "Universalrecheneinheiten" und auch die SPEs könne als "Universalrecheneinheiten" benutzt werden....Ob das dann sinnvoll ist, steht auf einem anderen Blatt.
Mir geht es hierbei nicht darum, ob der Cell für eine Konsole vielleicht "Grütze" ist, sondern einfach nur darum, das auch der Cell seine Daseinsberechtigung hat und in gewissen Bereichen jede andere CPU ziemlich alt aussehen lässt.
BlackBirdSR
2006-02-09, 15:29:42
Eben, ein K8 wäre die sinnigere Wahl gewesen, die Cell Teile sind einfach Grütze, weil sie eben keine 'Universalrecheneinheiten' sondern spezialisierte sind, die nur bestimmte Dinge (gut) können.
Ich möchte dich herzlichst bitten, deine Diskussionskultur etwas zu ändern, und von solchen ständigen Aktionen abzulassen.
Es ist nicht immer nötig, etwas mit Wörtern absichtlich in den Dreck zu ziehen, nur weil es dir nicht passt.
Vielen Dank
[QUOTE=Natürlich wäre ein K8, ein Yonah/P-M oder auch ein G5 die sinnigere Wahl gewesen....QUOTE]
Du meinst also wirklich die konsolen entwickler haben keine ahnung und haben eintfach irgendeine cpu eingebaut und hoffen dass es irgendwie laufen wird???
Aber vielleicht ist es so üblich, dass man zig millionen dollar in die entwicklung eine konsole steckt um am ende eine cpu einzubauen die total ungeeignet ist.
Die dummen entwickler, hätten sie lieber hier im forum nachgefragt dann wäre alles im butter.
(man-o-man)
thade
2006-02-09, 16:40:34
Du meinst also wirklich die konsolen entwickler haben keine ahnung und haben eintfach irgendeine cpu eingebaut und hoffen dass es irgendwie laufen wird???
Aber vielleicht ist es so üblich, dass man zig millionen dollar in die entwicklung eine konsole steckt um am ende eine cpu einzubauen die total ungeeignet ist.
Die dummen entwickler, hätten sie lieber hier im forum nachgefragt dann wäre alles im butter.
Da muss ich mal zustimmen. Hier gings ja eigentlich um RSX und Xenos, aber was manche hier über die Konsolen CPUs sagen, meint ihr doch nicht ernst?
Wieso arbeitet ihr dann nicht bei Sony und Microsoft und erklärt ihnen wie man richtige CPUs baut. Meint ihr Sony und Co haben keine Ahnung? Entwickeln den CELL und der soll Schrott sein @ Payne :rolleyes:
Bewerb dich bei IBM, Sony oder Toschiba und erklärs Ihnen. Die Konsolen Entwickler wissen schon was sie tun.
Da muss ich mal zustimmen. Hier gings ja eigentlich um RSX und Xenon, aber was manche hier über die Konsolen CPUs sagen, meint ihr doch nicht ernst?Doch, klar. Die Xbox360-CPU ist selbst mit drei Kernen nicht sonderlich leistungsfähig, dafür aber auch billig in der Herstellung. Klar hätte MS eine bessere CPU einbauen können, aber dann hätten sie ja noch mehr draufgezahlt, als sie ohnehin schon machen.
ShadowXX
2006-02-09, 16:58:21
[QUOTE=Natürlich wäre ein K8, ein Yonah/P-M oder auch ein G5 die sinnigere Wahl gewesen....QUOTE]
Du meinst also wirklich die konsolen entwickler haben keine ahnung und haben eintfach irgendeine cpu eingebaut und hoffen dass es irgendwie laufen wird???
Aber vielleicht ist es so üblich, dass man zig millionen dollar in die entwicklung eine konsole steckt um am ende eine cpu einzubauen die total ungeeignet ist.
Die dummen entwickler, hätten sie lieber hier im forum nachgefragt dann wäre alles im butter.
(man-o-man)
Ein K8, Yonah & Co. wäre für die Konsole viel zu teuer geworden.....und viel wichtiger: Die hätte MS nicht in Lizenz selber herstellen können/dürfen.
MS wollte etwas was relativ Leistungsstark, billig und in Lizenz Produzierbar ist.
Die hätte auch lieber ein Yonah oder DC-A64 genommen.
Liess dir mal ein paar Statements von Devs über die CPU durch....du wirst verwundert sein.
Die meisten finden den C1 toll....die CPU aber eher Zweckmäßig.
Und ja...wenn du so eine TriCoreCPU der XBox360 in einen PC stecken könntest, währest du überrascht, von was allem an "normalen x86" CPUs das Ding überholt werden würde.
Hier gibts auch ein paar nette Threads zur XBox306-CPU...liess Sie dir doch einfach mal durch.
Viel Entwicklungsgeld wird die CPU IBM auch nicht gekostet haben, da diese quasi ein derivat der "Haupt"-CPU des Cell ist....nur eben 3 Stück davon, etwas modifiziert.
Da muss ich mal zustimmen. Hier gings ja eigentlich um RSX und Xenon, aber was manche hier über die Konsolen CPUs sagen, meint ihr doch nicht ernst?Doch. Voll und ganz. Und nichts anderes sagen auch die Dokumente von IBM darüber.
Die PPU ist ein in-order, nicht-superskalares Design ohne branch-prediction. Das ist Stand der Technik eines 486. Das einzige an ILP was man machen kann ist nur über SMT zu erreichen.
Wieso arbeitet ihr dann nicht bei Sony und Microsoft und erklärt ihnen wie man richtige CPUs baut.Die Gründe hierfür wurden hier schon genannt. MS und Sony wollen in Eigenregie fertigen und IBM wird sicher nicht seine Highend IP einfach in fremde Hände geben.
Bewerb dich bei IBM, Sony oder Toschiba und erklärs Ihnen. Die Konsolen Entwickler wissen schon was sie tun.Ja tun sie: Gewinnmaximierung. Lieber viele Billigcores und die Arbeit den Entwicklern überlassen als ein gescheiter Prozessor den sie nicht selber fertigen dürfen.
Es gab schon soviel Müll bei Konsolenhardware, das kannst du dir gar nicht vorstellen ;)
Du kennst die Xbox360?
MS hat die Tür für nachträgliche Patches auf Konsolen inzwischen ziemlich weit geöffnet....
So schlimm wie bei manchen PC-Game wird es wohl nicht werden, aber ich würde mich schon mal innerlich daraufeinstellen, das es in nächster Zeit auch für Konsolengames öfter mal patches geben wird.
DOA4 muß gepatcht werden. was macht man dann bei der Core?
Und nichts anderes sagen auch die Dokumente von IBM darüber.
Naja zumindest ungefähr...
SPEs haben immernoch nur 256KiB und können auch ohne PPE auf den Speicher zugreifen.
Zum Verständnis hilft dir vielleicht dieses Diagramm:
http://www-128.ibm.com/developerworks/power/library/pa-celldmas/figure1.gif
Dedicated DMA engines of each of the SPEs can move streaming data in and out of the local stores in parallel with the program execution. Each MFC contains the DMA control unit and the Memory Management Unit (MMU) for that SPE. The DMA control unit processes queues of DMA commands. It consists of two DMA queues, one each for PPE-initiated DMA and SPE-initiated DMA. The MFC also contains an atomic unit (ATO), which performs atomic DMA updates for synchronization between software running on various SPEs and the PPE. Atomic DMA commands are similar to PowerPC locking primitives (lwarx/stwcx).
Ich weiß wie Cell aufgebaut ist. Deshalb kenne ich ja die Schwächen. Es sind aber sogar nur 256KiB lokaler SPE-RAM, da habe ich mich falsch erinnert.
SPEs haben immernoch nur 256KiB und können auch ohne PPE auf den Speicher zugreifen.Ein DMA-Transfer ist etwas anderes als ein direkter Speicherzugriff. Aber du hast recht, ich dachte das kann nur die PPU.
Ich weiß wie Cell aufgebaut ist.
Warum behauptest du dann penetrant, dass die PPE die SPEs mit Daten versorgen muss?
Schon im ersten Vortrag von IBM über die Programmierung vom Cell (FFT auf SPEs) wurde dies ausführlichst erklärt.
Ist ja nicht das erste Mal, wo ich dich in dem Punkt verbessere.
Edit:
Da war ich mit dem Schreiben mal wieder zu langsam. X-D
Sorry aber wer nicht mal das grundlegende DMA-Design des Cells verstanden hat, womit du dich ja zb. offensichtlich kaum beschäftigst hat, spreche ich die Fähigkeit ab, über die gesamte Leistungsfähigkeit des Chips zu urteilen.
Mir geht es nicht um die Leistungsfähigkeit sondern vielmehr um die Programmierbarkeit. Und daran ändert das kaum was...
Dass die PPU nicht sehr leistungsstark ist ist sicherlich klar.
Wenn man nur auf eine Leistungssteigerung per OpenMP aus ist, wie viele Entwickler bei der XBox360 auch, dann brauch man auch beim Cell nicht mehr zu tun. Der XL Compiler macht das dann. Wieviel Leistung man da vorallem im Vergleich erhält wissen wir beide nicht.
Ansonsten hat IBM möglichst viel automatisiert um eine möglichst einfache Programmierung sicherzustellen. Optimieren kann man danach je nach Bedarf...
Es gibt Plattformen, die imo wesentlich schwieriger zu programmieren sind.
Naja ich wünsch allen mal weiter viel Spass beim Bashing X-D
Das verteilen auf die SPEs per OpenMP ist da soweit ich weiß noch nicht implementiert. Überhaupt ist OpenMP so ne Sache, so optimal ist das oftmals auch nicht.
-Miles_Prower-
2006-02-09, 23:04:51
Hier gings ja eigentlich um RSX und Xenon
Dann ändere mal den Threadtitel der ATI-Chip heißt Xenos bzw. C1 nicht Xenon das wäre dann der Tricore PowerPC-Prozesser der 360.
thade
2006-02-10, 00:39:20
Dann ändere mal den Threadtitel der ATI-Chip heißt Xenos bzw. C1 nicht Xenon das wäre dann der Tricore PowerPC-Prozesser der 360.
oh hast recht :)
Das verteilen auf die SPEs per OpenMP ist da soweit ich weiß noch nicht implementiert.
Ende letzten Jahres hieß es "zu großen Teilen fertig und Evaluationversion verfügbar". Langsam müssten sie sich also doch der vollen Unterstützung nähern.
Überhaupt ist OpenMP so ne Sache, so optimal ist das oftmals auch nicht.
Man kriegt aber schonmal eine Codebasis. Die kritischen Codeabschnitte muss man halt von Hand optimieren.
Da viele Spiele inzwischen nur noch aus einem Flickwerk von lizenzierten Paketen bestehen, ist der Otto-Normal-Entwickler ja auch nicht mehr wirklich davon betroffen.
tokugawa
2006-02-10, 17:38:41
Wie gesagt, die Spreu trennt sich vom Weizen. Es sind Hammer Games auf PS2 erschienen, es werden Hammer Games auf PS3 erscheinen und auf PC wird ständig alles wiederholt, siehe EA.
So pauschal, generalisiert und undifferenziert wie du das sagst wird das zur falschen Aussage.
Und im Übrigen bin ich NICHT der Meinung dass schwere Programmierbarkeit "die Spreu vom Weizen" trennt. Auch bei einfacher Programmierbarkeit braucht man fähige Leute - nur da können die fähigen Leute dann ihr Potential ausspielen anstatt sich dauernd über die Hardware ärgern zu müssen.
Man muss bedenken das vieles neue und interessante aus Japan kommt, wo die Leute Ihre Arbeit lieben und keine Zeit zum schimpfen haben. Allein durch BlueRay kann man doch viel mehr Daten nutzen, die durch den BUS gejagt werden können.
Was haben jetzt mehr Daten mit der Diskussion genau zu tun?
Außerdem finde ich das reichlich undifferenziert "wo die Leute ihre Arbeit lieben". Vielleicht spielst du auf die Leute an die Katamari Damacy gemacht haben, da stimmt's. Aber so generell wie du es formulierst stimmt es einfach nicht.
Es hat schon recht wenig mit Liebe sondern eher mit Druck zu tun, wenn man 80-Stunden-Wochen-Crunchtimes und ähnliches hat.
Wenn man dir zuhört könnte man meinen, es wär am besten wenn man die Spieleentwickler alle sklavenartig hält, so richtig hart rannimmt, denn das trennt die "Spreu vom Weizen"?
PS: Zum Patchen: Fehlerhafte Spiele hat's schon immer gegeben, nur wurden die halt dann nicht ausgewechselt sondern "stillschweigend" korrigierte Spiele in den Handel gebracht (bereits gekaufte waren egal). Insofern ist das Patchen schon gut. Natürlich verringert das eventuell die Hemmschwelle, ein "unfertiges" Spiel zu publishen. Allerdings zieht eine Konsole ihren Hauptvorteil aus der unifizierten Hardware, das hilft schon einiges dafür dass die Spiele zumindest bugfreier wirken (wer bisserl Entwickler kennt und mit ihnen redet wird wissen dass es in Wirklichkeit nicht so rosig ist - bugfreie Konsolenspielewelt ist Illusorium).
Ende letzten Jahres hieß es "zu großen Teilen fertig und Evaluationversion verfügbar". Langsam müssten sie sich also doch der vollen Unterstützung nähern.Das Problem ist ziemlich komplex, ich bin da eher pesimistisch ;) (Das bin ich immer wenn es um gehypte Hardware geht...)
Man kriegt aber schonmal eine Codebasis. Die kritischen Codeabschnitte muss man halt von Hand optimieren.OpenMP und manuelles Threading zusammen hört sich aber irgendwie unschön bis unmöglich an.
Demirug
2006-02-10, 20:15:44
OpenMP und manuelles Threading zusammen hört sich aber irgendwie unschön bis unmöglich an.
Das ist kein Problem. Allerdings wäre es bei sowas von Vorteil wenn sich alle bei einem Threadpool bedienen.
RSX hat wohl kein Hardware AA,mies.
RSX hat wohl kein Hardware AA,mies.Wie kommst du denn auf so einen Müll?
thade
2006-02-11, 15:50:37
hey @ Mods ändert mal das Thema von Xenon in Xenos, ich bin zu dumm dafür ;(
Hat mit zu dumm nichts zu tun. Nach einer gewissen Zeit geht das nicht mehr, dann muss ein Mod das machen.
MarcWessels
2006-02-11, 19:34:17
Nur mal so als Tipp...ATI selbst sieht den x1800xt als Leistungsfähiger als den C1 an.Stimmt nicht!
ATI sagt, dass der C1 in 720P schneller sei als der x1800xt! In 1600x1200 kehr sich das ganze um, ist aber nur theoretisch, da ja auf der xBox360 alles in 720P läuft.
Aber wenn dann auch nur wegen dem eDRAM, weil die Füllrate ist geringer.
StefanV2
2006-02-11, 21:55:39
Da muss ich mal zustimmen. Hier gings ja eigentlich um RSX und Xenon, aber was manche hier über die Konsolen CPUs sagen, meint ihr doch nicht ernst?
Wieso arbeitet ihr dann nicht bei Sony und Microsoft und erklärt ihnen wie man richtige CPUs baut. Meint ihr Sony und Co haben keine Ahnung? Entwickeln den CELL und der soll Schrott sein @ Payne :rolleyes:
Bewerb dich bei IBM, Sony oder Toschiba und erklärs Ihnen. Die Konsolen Entwickler wissen schon was sie tun.
Nur weils von Sony oder wem auch immer kommt, muss das ganze nicht gut und/oder durchdacht sein.
Frag mal die Entwickler zur Playstation2, aber da kann ich dir jetzt schon sagen, das die dabei Kopfschmerzen bekommen werden...
tokugawa
2006-02-12, 03:09:11
Nur weils von Sony oder wem auch immer kommt, muss das ganze nicht gut und/oder durchdacht sein.
Frag mal die Entwickler zur Playstation2, aber da kann ich dir jetzt schon sagen, das die dabei Kopfschmerzen bekommen werden...
Ich kenn jemanden der bei einem Spieleentwickler arbeitet, wo sie auch für PS2 entwickeln -> der kann wirklich herrlich ranten darüber, wie besch**en die PS2 teilweise zu programmieren ist (von den Hardware-Bugs die's auch gibt ganz zu schweigen).
@Lucian: die Konsolen-Entwickler hören sehr sehr oft überhaupt nicht auf die Entwickler, die dann für diese Undingern programmieren sollen.
Eine Kolumne dazu, wenn auch schon älter, gibt's hier: http://www.gamasutra.com/features/20031022/adams_01.shtml
mapel110
2006-02-12, 05:19:08
Eine Kolumne dazu, wenn auch schon älter, gibt's hier: http://www.gamasutra.com/features/20031022/adams_01.shtml
Ich registrier mich durchaus, um was brauchbares zu lesen, aber die wollen einfach zuviele Infos von mir. :(
tokugawa
2006-02-12, 05:52:36
Ich registrier mich durchaus, um was brauchbares zu lesen, aber die wollen einfach zuviele Infos von mir. :(
Also es zahlt sich wirklich aus. Die Webseite gehört immerhin zur Gruppe die die GameDevelopers Conference veranstaltet und die GameDeveloper Magazine herrausbringt.
Die Kolumne stammt aus der Feder von Ernest Adams, einem ziemlich bekannten Game Design Typen (und Gründer der IGDA).
zeckensack
2006-02-12, 08:16:17
Eine Kolumne dazu, wenn auch schon älter, gibt's hier: http://www.gamasutra.com/features/20031022/adams_01.shtmlIst das die berühmte Sache mit der 5 Cent-Interrupt-Leitung für's CD-Laufwerk?
Bin auch nicht bei Gamasutra registriert, habe dort aber früher als es noch frei war viel gelesen ;(
reunion
2006-02-12, 09:49:29
Aber wenn dann auch nur wegen dem eDRAM, weil die Füllrate ist geringer.
Die Shaderfüllrate ist dafür deutlich höher.
Oblivion
2006-02-12, 11:05:13
ATI XENOS
* ATI-Design
Wie ist das zu verstehen? ;)
Aquaschaf
2006-02-12, 12:38:33
Ist das die berühmte Sache mit der 5 Cent-Interrupt-Leitung für's CD-Laufwerk?
Ja, genau das. Zwar Off Topic, aber ist es nicht etwas paranoid auf den wunderbaren Inhalt von gamasutra.com zu verzichten weil man Daten für die Registrierung angeben muss? Abgesehen davon, es hält doch niemand davon ab einfach erfundene Daten einzutragen.
Die Shaderfüllrate ist dafür deutlich höher.
Rechen doch mal bitte vor. :)
Q
reunion
2006-02-12, 14:20:10
Rechen doch mal bitte vor. :)
Q
Xenos hat 48ALUs, wovon jede eine MADD pro Takt berechnen kann.
R520 hat 16ALUs, wovon jede eine MADD plus eine ADD pro Takt berechen kann.
Klar geht bei Xenos noch ein Teil davon für die Geometriedaten drauf, allerdings sollte im Endeffekt trotzdem ein deutlicher Vorteil für diesen übrig bleiben IMO. :)
//Edit: Okay, die höhere Taktfrequenz von R520 sollte die Leistung wieder etwas angleichen.
Xenos hat 48ALUs, wovon jede eine MADD pro Takt berechnen kann.
R520 hat 16ALUs, wovon jede eine MADD plus eine ADD pro Takt berechen kann.
Klar geht bei Xenos noch ein Teil davon für die Geometriedaten drauf, allerdings sollte im Endeffekt trotzdem ein deutlicher Vorteil für diesen übrig bleiben IMO. :)
//Edit: Okay, die höhere Taktfrequenz von R520 sollte die Leistung wieder etwas angleichen.
C1: 48 Vec4+1-MADD-ALUs mit 500 MHz.
-> 48*(4+1)*(4+4)*500= 960.000
R520: 16*Vec4-MADD+16*Vec4-ADD+8*Vec4+1-MADD*625 MHz.
-> (16*4*(4+4))+(16*4*4)+(8*(4+1)*(4+4))*625= 680.000
Hui, hätte ich nicht gedacht. :) Allerdings habe ich irgendwie übersehen, dass es um die X1800 XT geht. Wollen wir ROPs und TMUs auch mit reinnehmen? ;)
Q
reunion
2006-02-12, 15:29:22
C1: 48 Vec4+1-MADD-ALUs mit 500 MHz.
-> 48*(4+1)*(4+4)*500= 960.000
R520: 16*Vec4-MADD+16*Vec4-ADD+8*Vec4+1-MADD*625 MHz.
-> (16*4*(4+4))+(16*4*4)+(8*(4+1)*(4+4))*625= 680.000
Wow, darf man fragen, für was dieses Zahlenwirrwarr jeweils steht? =)
Man sollte dabei im übrigen auch nicht vergessen, dass C1 durch die US-Architektur eine bessere Auslastung erreicht.
Wollen wir ROPs und TMUs auch mit reinnehmen? ;)
Q
Naja, die ROPs sollten bei keinem der beiden Chips limitieren, wobei Xenos durch den eDRAM hier einen gänzlich anderen Weg geht. Bei der Fülrate hat er durch die geringere Taktfrequenz natürlich keine Chance.
Wenn man allerdings mal die Transistorenanzahl gegenüberstellt, so wird es eigentlich immer unverständlicher, warum diese Architektur nicht auch im Desktopsegment Verwendung fand.
w0mbat
2006-02-12, 15:56:11
Gibt es von der ATI-GPU eigentlich eine vergleichbare Desktopgraka?
MarcWessels
2006-02-12, 16:13:52
Wenn man allerdings mal die Transistorenanzahl gegenüberstellt, so wird es eigentlich immer unverständlicher, warum diese Architektur nicht auch im Desktopsegment Verwendung fand.Wahrscheinlich, weil man sonst auf eine - für PC-Freaks - zu "niedrigen" Auflösung gelandet wär, die flüssig nutzbar ist.
Kann man also (anhand der obigen Zahlen und unter Berücksichtigung des eDrams) sagen, dass der C1 im Endeffekt bei moderenen, shaderintensiven Spielen in 720P eine Speed hat, die etwa in der Mitte zwischen 1800xt und 1900xtx liegt?
thade
2006-02-12, 16:19:48
würde einer der Mods mal bitte den Threadtitel ändern? XENON in XENOS, Thx.
thade
2006-02-14, 16:10:51
würde einer der Mods mal bitte den Threadtitel ändern? XENON in XENOS, Thx.
:mad:
thade
2006-02-17, 20:49:37
würde einer der Mods mal bitte den Threadtitel ändern? XENON in XENOS, Thx.
:whisper:
:uconf:
:uattack4:
das_Apo
2006-02-18, 01:53:23
Offtopic:
Ist es wirklich so wichtig, daß im Threadtitel "XENOS" statt "XENON" steht, daß du gleich zwei mal selbst zitierst?
Ontopic:
Damit mir keine Spammerei vorgeworfen wird und weil es mich sowieso interessiert .. die Tage war auf einigen Newsseiten zu lesen, daß in einem Entwicklerinterview (http://www.ps3network.de/news.php?id=268) erwähnt wurde, daß der RSX zwei mal so leistungsstark ist, wie eine 6800 Ultra.
Da ich keinerlei Ahnung von dieser Thematik habe, würd mich mal interessieren, was die besser informierten hier von dieser Aussage halten.
Sollte da nicht etwas mehr drin sein als "nur" die doppelte Leistung?
Die Shaderleistung ist zwar je nach Anwendungsfall meist zwei- bis dreimal so hoch, insgesamt ist es aber eher weniger weil die Bandbreite fehlt.
Jo, 700Mhz GDDR3 an einem 128bit-Interface sind nicht gerade so toll. Inwiefern kann der RSX denn auf den XDR-Ram zugreifen?
Demirug
2006-02-18, 03:32:03
Jo, 700Mhz GDDR3 an einem 128bit-Interface sind nicht gerade so toll. Inwiefern kann der RSX denn auf den XDR-Ram zugreifen?
Voll. Ist im Prinzip die gleiche Technik welche die PC Chips einsetzten um in den normalen System Speicher zu rendern.
Spasstiger
2006-02-24, 02:36:18
Der RSX wird über keinen eDRAM verfügen, oder?
Hier stehen nämlich einige merkwürdige Angaben:
http://hardware.editme.com/ps3-playstation-3-sony-review
(32 MB eDRAM, 750 MHz Chiptakt, 24 Gigapixel/s)
Wie wären denn eigentlich 24 GPixel/s Füllrate zu verstehen, ist das bezogen auf die Zahl der ALUs, der TMUs oder auf die Zahl der ROPs? Wohl TMUs, oder?
Mit den Angaben käme man dann jedenfalls auf 32 TMUs, was an den G71 erinnert.
Telema
2006-02-24, 02:59:20
Der RSX wird über keinen eDRAM verfügen, oder?
Hier stehen nämlich einige merkwürdige Angaben:
http://hardware.editme.com/ps3-playstation-3-sony-review
(32 MB eDRAM, 750 MHz Chiptakt, 24 Gigapixel/s)
Wie wären denn eigentlich 24 GPixel/s Füllrate zu verstehen, ist das bezogen auf die Zahl der ALUs, der TMUs oder auf die Zahl der ROPs? Wohl TMUs, oder?
Mit den Angaben käme man dann jedenfalls auf 32 TMUs, was an den G71 erinnert.
Das ist woll ne sehr alte News. Schau mal unten wann die vermuten wann die PS3 rauskommen soll. Japan 4Q04 *lol*. Is woll eher ne mutmassung gewesen
Spasstiger
2006-02-24, 03:00:30
Hast recht, ist keine sehr zeitgemäße Info. :redface:
Wobei 32 TMUs wohl gar nicht so abwegig sind.
deekey777
2006-05-20, 22:19:15
Ich oller Pusher, dafür habe ich den Threadtitel geändert. :biggrin:
Demirug[/POST]']Voll. Ist im Prinzip die gleiche Technik welche die PC Chips einsetzten um in den normalen System Speicher zu rendern.
http://www.beyond3d.com/forum/showthread.php?t=29579
Insbesondere der Mintmaster postet interessante Sachen:
http://www.beyond3d.com/forum/showpost.php?p=735282&postcount=80
Titanio, believe what you want, but 3D graphics is 3D graphics. The parallel is very strong with a PC GPU. The sequence of tasks is the same. Pixels are pixels, and vertices are vertices. The workloads can only change a bit.
If you don't have a solid understanding of how the hardware works (not just its capabilities), you don't know the bandwidth needs. Some devs do, some don't. I have gathered hard data from graphics chips running real workloads at ATI. I'm not spreading BS here. It does not "simply make sense" as you say.
The colour buffer needs to directly access memory. The z-buffer needs to directly access memory. Neither of these can be put in XDR without a severe performance degradation, I guarantee you that. Texturing needs direct access to memory, so the link speed is meaningless. You have >200MB left in the GDDR3 beyond the framebuffer, and no developer will waste that. Most textures will go here.
The only part of the 3D software pipeline that Cell can generate dynamic data for and feed directly to RSX via FlexIO is vertex data, which is far and away the smallest bandwidth consumer for a GPU. FlexIO just will not have sustained traffic at 35GB/s throughout the rendering of a frame. I'd be shocked if it averaged even one tenth of that.
ich sehe das ganze eigentlich sehr pragmatisch. Trotzdem hier ein kleines Zahlenspiel:
C1: 500MHz x ( 48xALU + 16xTMU ) = 32 x 10^6
RSX: 550MHz x ( 24xALU + 24x(ALU+TMU) ) = 26,4 x 10^6
Also beim Pixelshading alleine sollte der C1 schneller sein, schließlich benutzt man dafür nicht nur die ALUs sondern auch die TMUs, was anscheinend immer wieder vergessen wird. :)
Wenn man aber die Vertex-Leistung des RSX mit einrechnet, dann herrscht fast Gleichstand. Beim RSX kommen ja nochmal 8x550MHz dazu, macht in Summe also 30,8 x 10^6.
Natürlich habe ich hier viel weggelassen, auf Seiten des C1 die 16 pointsampling TMUs für das Vertex-shading die man ja auch als 1D-Sampler für das PS benutzen kann und auch das eDRAM und auf der RSX-Seite natürlich die Sonderfunktionen die der G70 nebenbei noch hat. Außerdem 1 C1-ALU =/ 1 RSX-ALU. Wobei ja nicht klar ist ob man hier ein > oder ein < Zeichen dazwischen setzen müsste (die C1-PS sind ja nicht wirklich 100%ig bekannt).
Ich sehe deshalb im großen und ganzen einen Gleichstand wenn es nur um die Shader geht. Wenn MSAA noch dazu kommt kann es aber schon wieder anders aussehen.
grüsse
Manfred
deekey777
2006-11-11, 22:57:10
Exclusive: PlayStation 3's RSX is 240mm² and bigger than the PC equivalent (http://www.beyond3d.com/forum/showthread.php?p=871373#post871373)
Wie groß wäre ein G70@90nm?
Wie ich darauf komme? Da gab es doch die Geschichte (http://www.beyond3d.com/forum/showthread.php?t=21148) mit dem deaktivierten Quad beim G70, um die Ausbeute zu verbessern.
AnarchX
2006-11-11, 23:05:37
Laut B3D hat der G70 eine Die-Size von 334mm² (http://www.beyond3d.com/misc/chipcomp/?view=chipdetails&id=106), wenn man da nun etwas rechnet(*0,66 für 110nm auf 90nm) kommt man da auf ~220mm².
btw.
http://www.pcinlife.com/article_photo/g80/arts/specs_compare.png
habt ihr euch schon in letzter Zeit ingame Screen zu PS3 Spielen angeguckt?;)Von der Grafik kann die Ps 3 leider nicht mit der Xbox 360 mithalten.Bei jeden Spiel gabs auf der Ps3 bei Screens bis jetzt kein AF und AA schwach.Ok man mus dazu natürlich sagen das in der PS3 *nur*eine 7800 GTx Arbeitet.
Android
2006-11-11, 23:54:44
habt ihr euch schon in letzter Zeit ingame Screen zu PS3 Spielen angeguckt?;)Von der Grafik kann die Ps 3 leider nicht mit der Xbox 360 mithalten.Bei jeden Spiel gabs auf der Ps3 bei Screens bis jetzt kein AF und AA schwach.Ok man mus dazu natürlich sagen das in der PS3 *nur*eine 7800 GTx Arbeitet.
Hehe, lies mal hier:
http://xbox360.ign.com/articles/617/617951p1.html
Mfg
Android
Jou hehe. Hehehe. Das Fachgespräch ist schon auf der Seite 3 zuende gewesen. Laßt die Unfähigen die Bashspiele beginnen :crazy:
(del)
2006-11-12, 03:05:31
Die Frage die sich mir heute gestellt hat, war eher ob die Konsolen genug Power für 'den Rest des Spiels' haben, wenn sie die Grafikchips am Anschalg fahren. Das momentane Musterstück GearsOfWars sagt mir jedenfalls absolut nicht zu. Ich hab mich darüber aber wohl im falschen Forum ausgelassen. Was der Sache aber kein Abbruch tut :) Ist zwar auch hier leicht OT, aber imho nur leicht. Welcher Grakachip läßt dem System mehr Luft 'für den Rest'? Die maximalmögliche Leistung ist für mich nur eine Seite der Medalie.
Vielleicht bin ich aber einfach nicht mehr in dem Alter mich alleine für den Schein begeistern zu können.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4977988&postcount=243
OMG dazu fällt mir echt nix mehr ein :(
(del)
2006-11-12, 03:48:24
Das kann ich mir gut vorstellen ;) Nur mach mir nicht gleich die Hölle, nur weil ich einer von Deinen heiligen Kühen in den Hintern trette. Mit den verpickelten aus 'Konsolen' erübrigt sich eine Diskussion. Wollte nur die Reaktionen sehen. Ob einer 20min ingame Video guckt oder selbst spielt ändert an den Bewegugnsabläufen und allen anderen angesprochenen Sachen garnichts. Im Gegenteil. Wenn man nur zuguckt, sieht man mehr.
Bis dann mal.
Hehe, lies mal hier:
http://xbox360.ign.com/articles/617/617951p1.html
Mfg
Android
Was willst du mir damit zeigen das die PS 3 auf denn papier besser ist?Hast du schon ingame screens von Ps3 Spielen gesehen=?Guck dir mall welche an dann weisst wer in der Praxis besser ist.Auf der Ps3 gibts bei denn meissten Spielen noch nichtmall Af.
Auf der Ps3 gibts bei denn meissten Spielen noch nichtmall Af.Bei der Xbox2 ist das aber auch nicht anders. ;)
Bei der Xbox2 ist das aber auch nicht anders. ;)
Ach ok.Und wie siehts dann allgemein Grafisch aus?Die Spiele sehen auf der 360 besser aus,die Effekte Texturen usw.Die ganzen ingame Screens von Ps3 Spielen haben bis jetzt sehr enttäuscht das kannst du nicht leugnen.;)
Ach ok.Und wie siehts dann allgemein Grafisch aus?Die Spiele sehen auf der 360 besser aus,die Effekte Texturen usw.Die ganzen ingame Screens von Ps3 Spielen haben bis jetzt sehr enttäuscht das kannst du nicht leugnen.;)
Also ich war von dem GOW HDTV Video sehr begeistert.
http://media.xboxyde.com/torrent/10min_gearsofwarv2_720p.wmv.torrent
Sollte man sich auf jeden Fall mal reinziehen. Ist das jetzt die neue Unreal-Engine? IMHO würde sich ein heutiger High-End-PC ganz schön strecken müssen um das so "slowdown-frei" darstellen zu können.
IMHO würde sich ein heutiger High-End-PC ganz schön strecken müssen um das so "slowdown-frei" darstellen zu können.
Warum sollte er damit Probleme haben?
Mehr CPU-Leistung, mehr Speicher, mehr GPU-Leistung, mehr GPU-Speicher und mehr GPU-Bandbreite. Grade bei Deferred-Shading liegt das Bottleneck bei letzterem.
Warum sollte er damit Probleme haben?
Mehr CPU-Leistung, mehr Speicher, mehr GPU-Leistung, mehr GPU-Speicher und mehr GPU-Bandbreite. Grade bei Deferred-Shading liegt das Bottleneck bei letzterem.
Man wird sehen. Die Erfahrung lehrt dass von der theoretischen Peakleistung auf der PC-Plattform nicht allzu viel übrig bleibt.
Schonmal versucht Halo auf nen P3 mit Embedded-Grafik zu zocken? Wo soll den da das Problem sein;)
Ach ok.Und wie siehts dann allgemein Grafisch aus?Das werden wir wissen, wenn die PS3 wirklich draußen ist und wir zwei vergleichbare Spiele dafür nehmen können. Bis dahin brauchst du das Konsolenniveau bitte hier in die Threads nicht reinpflanzen. Danke.
Anarchy-HWLUXX
2006-11-13, 10:33:50
Scho mal nen RSX live gesehen ?
Da isser :uup:
http://img155.imageshack.us/img155/5869/ps338hz5.jpg
mehr pics gibbet - HIER : http://pc.watch.impress.co.jp/docs/2006/1111/ps3.htm
PS : Ich hoffe des is net alt :|
robbitop@work
2006-11-13, 10:39:13
ich sehe das ganze eigentlich sehr pragmatisch. Trotzdem hier ein kleines Zahlenspiel:
C1: 500MHz x ( 48xALU + 16xTMU ) = 32 x 10^6
RSX: 550MHz x ( 24xALU + 24x(ALU+TMU) ) = 26,4 x 10^6
Also beim Pixelshading alleine sollte der C1 schneller sein, schließlich benutzt man dafür nicht nur die ALUs sondern auch die TMUs, was anscheinend immer wieder vergessen wird. :)
Wenn man aber die Vertex-Leistung des RSX mit einrechnet, dann herrscht fast Gleichstand. Beim RSX kommen ja nochmal 8x550MHz dazu, macht in Summe also 30,8 x 10^6.
Natürlich habe ich hier viel weggelassen, auf Seiten des C1 die 16 pointsampling TMUs für das Vertex-shading die man ja auch als 1D-Sampler für das PS benutzen kann und auch das eDRAM und auf der RSX-Seite natürlich die Sonderfunktionen die der G70 nebenbei noch hat. Außerdem 1 C1-ALU =/ 1 RSX-ALU. Wobei ja nicht klar ist ob man hier ein > oder ein < Zeichen dazwischen setzen müsste (die C1-PS sind ja nicht wirklich 100%ig bekannt).
Ich sehe deshalb im großen und ganzen einen Gleichstand wenn es nur um die Shader geht. Wenn MSAA noch dazu kommt kann es aber schon wieder anders aussehen.
grüsse
Manfred
Wenn man die RSX dual-issue ALUs als 2x ALUs ansieht (da sie je 2 MADDs pro Takt schaffen), sollte RSX in Punkto Shaderleistung vorn liegen.
RSX: 48xMADD + 24 NRM_PP pro Takt (für's Dot3 BM ist letzteres nötig) und hier wird nichts vom VS abgezogen
C1: 48xMADD minus Geometrielast
Füllrate ist deutlich mehr vorhanden, dafür weniger Bandbreite.
Inzwischen ist RSX m.W. von Sony auf 500/650 "heruntergetaktet" worden.
Ich sehe einen ungefähren Gleichstand. Ich glaube nicht, dass ein paar Prozent hier oder da sich großartig auswirken.
robbitop@work
2006-11-13, 10:45:21
Hehe, lies mal hier:
http://xbox360.ign.com/articles/617/617951p1.html
Mfg
Android
Ein IMO undifferenzierter Artikel. Cell besitzt IIRC 2x von diesen IBM general Purpose CPUs. Diese schaffen pro Kern aber mehr als der XBOX360 Kern (2 statt 1 Instruktion oder sowas). Das dürfte die General Purposeleistung mindestens ausgleichen (3 vs 2). Zumal es sowieso nicht gerade einfach ist, effizient auf mehrere Kerne zu optimieren. Wenn man die HW irgendwann wirklich bis ins Letzte auslasten will (so wie man es jetzt mit der PS2 tut), so sehe ich die PS3 CPU im Vorteil. Denn hier wird man die SPEs nicht unangetastet lassen. Bis dahin ist es aber sicher noch ein weiter weg.
Die Bandbreite spricht der Autor als überlegen an. Sieht aber nicht, dass der eDRAM nur 10 MiB groß ist und ständig in den langsamen GDDR3 geswapt werden muss.
Cell besitzt IIRC 2x von diesen IBM general Purpose CPUs.Wenn mich meine Erinnerung jetzt nicht völlig täuscht, war es nur einer.
Anarchy-HWLUXX
2006-11-13, 11:26:12
In der PS3 ist "nur" ein Cell verbaut - für ein Bild der Platine meinen Link besuchen ...
In der PS3 ist "nur" ein Cell verbautDas ist schon klar. Es geht Robbitop und mir um den General-Purpose-Kern, der im Cell zusätzlich zu den SPEs vorhanden ist. Das ist nur einer und nicht zwei, wie Robbitop meinte.
Ein Zitat aus den offiziellen PS3-Specs:
CPU
Cell Processor
PowerPC-base Core @3.2GHz
1 VMX vector unit per core
512KB L2 cache
7 x SPE @3.2GHz
7 x 128b 128 SIMD GPRs
7 x 256KB SRAM for SPE
* 1 of 8 SPEs reserved for redundancy
total floating point performance: 218 GFLOPS
http://www.ps3land.com/ps3specs.php
Wenn es 2 Cores wären, würde es da wohl stehen.
Schonmal versucht Halo auf nen P3 mit Embedded-Grafik zu zocken? Wo soll den da das Problem sein;)
Bitte nicht immer diesen Schwachsinnsvergleich. Der PC-Port von Halo is abartig scheiße.
Anarchy-HWLUXX
2006-11-13, 11:38:37
Halo für PC ist ein auf konsole geportetes PC-Game das dann wieder zurückgeportet wurde ... applaus - ich hasse M$ für diese aktion !
@Gast - ja ne, ist scho klar, ich weiss wie nen Cell aufgebaut ist ;)
S3NS3
2006-11-13, 12:17:28
Ich kann dazu nur sagen das ich XBOX360 Games kenne. Und die auf einem sehr guten Plasma genau betrachtet habe. Und dann im gegenzug dazu die HD Ingame-Videos von PS3 Spielen.
Finde die PS3 Games vom "inhalt" der Grafik nicht besser. Unwesentlich vielleicht? Und die Bildquali ist nur geringfügig besser. Also von dem was ich bisher gesehen habe tun sich beide Konsolen nichts. Denke die Hardware ist also von der Leistung relativ ähnlich.
Was mir aber allgemein negativ aufgefallen ist ist das zwar die Grafik vom inhalt sehr genial ist... Details + Shadereffekte... geil ! Aber die Bildqualität relativ schlecht ist. Wie komplett ohne AA+AF. Warum nicht? Finde ich etwas enttäuschend. Dennoch überlege ich derzeit mir eine 360 zu kaufen weils schon echt nicht schlecht ist!
Halo für PC ist ein auf konsole geportetes PC-Game das dann wieder zurückgeportet wurde ... applaus - ich hasse M$ für diese aktion !
Halo gehört auf die Xbox, am PC zu spielen ist scheiße! Auf der Box macht es 1000 mal mehr Spaß :)
Anarchy-HWLUXX
2006-11-13, 13:17:08
Halo gehört auf die Xbox, am PC zu spielen ist scheiße! Auf der Box macht es 1000 mal mehr Spaß :)
Klar spielt sich Halo scheisse, weil es für die krüppelige Konsolensteuerung versaut wurde und die PC umsetzung ein schlechter witz ist ...
Klar spielt sich Halo scheisse, weil es für die krüppelige Konsolensteuerung versaut wurde und die PC umsetzung ein schlechter witz ist ...
Nur weil du nicht in der Lage bist, typischer PC Dau, mit einem Controller einen Shooter zu spielen, wobei Halo kein klassischer Shooter ist.
Halo gehört auf die Xbox, imho macht es auch nur dort Spaß. Aber das können ja die Pcler sowieso nicht verstehen, so stur und arrogant wie alle sind!
MarcWessels
2006-11-13, 13:27:04
Ich Was mir aber allgemein negativ aufgefallen ist ist das zwar die Grafik vom inhalt sehr genial ist... Details + Shadereffekte... geil ! Aber die Bildqualität relativ schlecht ist. Wie komplett ohne AA+AF.Das stimmt so nicht. AA bekommt mittlerweile fast jede Neuerscheinung spendiert und AF gibt es zumindest bei einer Hand voll Titel.
Zudem hatte ich während meiner PC-Spiele-Zeit bei aktuellen Krachern praktisch nie AA aktiviert, weil die Framerate schon ohne Antialiasing schon knapp (wenn überhaupt) im flüssigen Bereich war.
Von daher vermisse ich da selbst bei den Titeln ohne AA nichts.
Das neueste Gears of War Video hat kein AA aktiviert und das sieht man deutlich.
Das neueste Gears of War Video hat kein AA aktiviert und das sieht man deutlich.
Tja was aber nicht an der Xbox liegt, sondern an der Engine.
w0mbat
2006-11-13, 16:07:53
Die UE3 sollte aber doch AA können, oder?
S3NS3
2006-11-13, 16:50:18
Also die die ich gesehen hatte hatten kein AA und wenn nur minimal AF. Geht ja auch ohne, sagte ja finds auch super aber es könnte einiges besser sein. Denke mal die Performance reicht wohl einfach nicht aus. Die Box ist wohl meist am Limit. Dann noch AA und es würd ruckelig werden.
Und klar kann UE3 AA ;) Wärs ja noch wenn die Engine das verhindern würde was der Chip macht.
Also die die ich gesehen hatte hatten kein AA und wenn nur minimal AF. Geht ja auch ohne, sagte ja finds auch super aber es könnte einiges besser sein. Denke mal die Performance reicht wohl einfach nicht aus. Die Box ist wohl meist am Limit. Dann noch AA und es würd ruckelig werden.
Und klar kann UE3 AA ;) Wärs ja noch wenn die Engine das verhindern würde was der Chip macht.
Die Box ist eben nicht am Limit. Es liegt an der schlechten Programmierung, bei GoW liegt es an der Engine. Informiert euch besser, Pc Spieler...
AnarchX
2006-11-13, 16:58:36
Die UE3 sollte aber doch AA können, oder?
Ist nicht so einfach machbar beim MRT, welches die UE3 für Deferred Shading benötigt.
Für Xenos wird es wohl nicht möglich sein, da wohl hier der VRAM nicht ausreichen dürfte.
Hvoralek
2006-11-13, 21:57:55
Diese schaffen pro Kern aber mehr als der XBOX360 Kern (2 statt 1 Instruktion oder sowas).MW beide zwei Threads und zwei Instruktionen/ Takt.
Die Bandbreite spricht der Autor als überlegen an. Sieht aber nicht, dass der eDRAM nur 10 MiB groß ist und ständig in den langsamen GDDR3 geswapt werden muss.Ohne AA kann man den kompletten Backbuffer in den eDRAM legen, was die Bandbreite zum Hauptspeicher schon entlasten dürfte. Mit AA muss man entweder tilen oder mit der Auflösung unter 720p gehen (wobei letzteres wohl nicht so unüblich ist).
Man wird sehen. Die Erfahrung lehrt dass von der theoretischen Peakleistung auf der PC-Plattform nicht allzu viel übrig bleibt.
Schonmal versucht Halo auf nen P3 mit Embedded-Grafik zu zocken? Wo soll den da das Problem sein;)Läuft das Teil mit einer Geforce 3 (Ich hoffe mal, dass die Angabe "mit Embedded-Grafik" irreführend sein sollte) in der selben Auflösung nicht flüssig?
Also ich war von dem GOW HDTV Video sehr begeistert.
http://media.xboxyde.com/torrent/10min_gearsofwarv2_720p.wmv.torrent
Sollte man sich auf jeden Fall mal reinziehen. Ist das jetzt die neue Unreal-Engine? IMHO würde sich ein heutiger High-End-PC ganz schön strecken müssen um das so "slowdown-frei" darstellen zu können.Marc Rein hat sich mal zu dem System geäußert, auf dem diese UE3- Techdemo von der E3 (oder GC?) 2005 lief. Iirc war das ein A64 3200+ mit einer 6800 GT.
Ich bin recht zuversichtlich, was die Systemanforderungen von UE3- Spielen angeht. Die Vorgängerengine war für das Gebotene zumindest sehr genügsam.
Laut B3D hat der G70 eine Die-Size von 334mm² (http://www.beyond3d.com/misc/chipcomp/?view=chipdetails&id=106), wenn man da nun etwas rechnet(*0,66 für 110nm auf 90nm) kommt man da auf ~220mm².Es sollte noch knapp darüber liegen. Das könnte mit der von Uttar angenommenen Redundanz hinkommen. Und sollte RSX nicht FP32 beherrschen? So sinnlos das auch bei der Bandbreite sein mag, kostet es natürlich auch noch Transistoren.
Ailuros
2006-11-14, 04:46:18
Ohne AA kann man den kompletten Backbuffer in den eDRAM legen, was die Bandbreite zum Hauptspeicher schon entlasten dürfte. Mit AA muss man entweder tilen oder mit der Auflösung unter 720p gehen (wobei letzteres wohl nicht so unüblich ist).
Ausserhalb der eDRAM Bandbreite, teilt Xenos seine restliche Bandbreite mit der CPU. Man kann tatsaechlich Daten entweder in eDRAM oder in den System Speicher legen (angenommen kein AA im ersten Fall), aber RSX hat trotz allem seinen eigenen video memory bus der nicht mit der CPU geteilt ist und wenn es wirklich noch zusaetzliche Bandbreite braucht kann er jegliche freie Bandbreite der CPU noch dazu benutzen.
Man kann nicht so leicht sagen dass etwas mehr Bandbreite hat, bevor man definiert ob es "bessere" Bandbreite ist. Xenos und RSX liegen sowieso IMHO ca. auf gleichem Niveau mehr oder weniger; den eigentliche Vorteil der XBox360 duerfte eher sein dass es um einiges leichter ist auf dem Ding zu entwickeln.
robbitop@work
2006-11-14, 09:58:29
Ausserhalb der eDRAM Bandbreite, teilt Xenos seine restliche Bandbreite mit der CPU. Man kann tatsaechlich Daten entweder in eDRAM oder in den System Speicher legen (angenommen kein AA im ersten Fall), aber RSX hat trotz allem seinen eigenen video memory bus der nicht mit der CPU geteilt ist und wenn es wirklich noch zusaetzliche Bandbreite braucht kann er jegliche freie Bandbreite der CPU noch dazu benutzen.
Man kann nicht so leicht sagen dass etwas mehr Bandbreite hat, bevor man definiert ob es "bessere" Bandbreite ist. Xenos und RSX liegen sowieso IMHO ca. auf gleichem Niveau mehr oder weniger;
Die Bandbreite muss er sich so oder so mit der CPU teilen:
-der fertige Framebuffer wird in den GDDR3-Backbuffer geswapt um vom RAMDAC/TDMS ausgelesen zu werden
-Texturen werden vom GDDR3 gelesen
Die Latenzen dürften nicht so toll beim GDDR3 sein, da die CPU auch dran nuckelt (was neben den schlechten Grundlatenzen von GDDR3 echt eklig für die CPU sein muss)
noch ein Gast
2006-11-14, 10:26:27
Läuft das Teil mit einer Geforce 3 (Ich hoffe mal, dass die Angabe "mit Embedded-Grafik" irreführend sein sollte) in der selben Auflösung nicht flüssig?Die GF3 hat damit kein Problem, auch nicht mit etwas höherer Auflösung. Ist aber auch kein Wunder, die muss sich ja nicht mit der CPU ums RAM prügeln. CPU-Power braucht die PC-Version aber deutlich mehr. Erschwerend kommt hinzu, daß die PC-Version erheblich schneller läuft, was höhere FPS nötig macht als im Xbox-Originaltempo. IMHO der Hauptgrund, weshalb sich auf dem PC nicht das gleiche geniale Halofeeling einstellt wie auf der Konsole, ist einfach viel hektischer.
Palpatin
2006-11-14, 10:55:17
GHZ Athlon + Geforce 3 reichte vollkommen um Halo in Xbox Auflösung zu zocken.
Hvoralek
2006-11-14, 13:17:39
Ausserhalb der eDRAM Bandbreite, teilt Xenos seine restliche Bandbreite mit der CPU. Man kann tatsaechlich Daten entweder in eDRAM oder in den System Speicher legen (angenommen kein AA im ersten Fall), aber RSX hat trotz allem seinen eigenen video memory bus der nicht mit der CPU geteilt ist und wenn es wirklich noch zusaetzliche Bandbreite braucht kann er jegliche freie Bandbreite der CPU noch dazu benutzen.Für Xenos allein bleiben <22,4 GiB/s. Aber ist der Bandbreitenbedarf der CPU so groß, dass das die komplette Backbufferbandbreite ohne AA aufwiegen kann?
Das mit RSX und dem Hauptspeicher sehe ich eher skeptisch. Was möchtets Du denn dorthin auslagern? Der Framebuffer muss mW im VRAM liegen. Texturen müssten zwar gehen, aber wenn Du nennenswert Bandbreite sparen möchtest, wäre das eine erhebliche Datenmenge. Wie würde dann die ohnehin knappen 256 MiB zumüllen, während der VRAM zur Hälfte brachliegt.
Mir ist noch nicht ganz klar, was Sony mit dieser Bandbreite zwischen Cell und RSX anfangen möchte. Aus Marketingsicht werden ihnen diese 35 GiB/S (?) auch nicht viel helfen. Da kann MS eindeutig die dickeren Zahlen vorweisen.
Ailuros
2006-11-14, 13:44:23
Für Xenos allein bleiben <22,4 GiB/s. Aber ist der Bandbreitenbedarf der CPU so groß, dass das die komplette Backbufferbandbreite ohne AA aufwiegen kann?
Kommt eher auf den Fall an; ein paar off-screen surfaces kombiniert mit einem gesunden Prozentual an shadow maps und das Zeug ist natuerlich besser im lokalem Speicher aufgehoben als es in das eDRAM Modul oder in den Hauptspeicher zu schleusen.
Das mit RSX und dem Hauptspeicher sehe ich eher skeptisch. Was möchtets Du denn dorthin auslagern? Der Framebuffer muss mW im VRAM liegen. Texturen müssten zwar gehen, aber wenn Du nennenswert Bandbreite sparen möchtest, wäre das eine erhebliche Datenmenge. Wie würde dann die ohnehin knappen 256 MiB zumüllen, während der VRAM zur Hälfte brachliegt.
Ich sagte nur dass wenn dem Ding die Bandbreite ausgehen sollte, man noch die freien Resourcen der CPU-Bandbreite zusaetzlich benutzen koennte.
Mir ist noch nicht ganz klar, was Sony mit dieser Bandbreite zwischen Cell und RSX anfangen möchte. Aus Marketingsicht werden ihnen diese 35 GiB/S (?) auch nicht viel helfen. Da kann MS eindeutig die dickeren Zahlen vorweisen.
Beider Seiten dicke Zahlen sind ebenso fuer die Tonne, denn eigentlich sehen mir beide Designs eher nach Gleichstand aus, wobei ich aber trotzdem der Meinung bin dass die PS3 komplizierter zum programmieren ist. Von dem abgesehen wenn es wirklich um bloedsinnig Marketing-zahlen gehen wuerde, wuerde es mich nicht wundern wenn jemand die 192 GB/s L1 cache des RSX dazuzaehlen wuerde und um es noch verrueckter zu machen auch noch die 7 caches des Cell. Das eDRAM ist auch nur cache-Bandbreite wenn man kein AA benutzt im sehr freien Sinn.
Hvoralek
2006-11-14, 20:50:21
Ich sagte nur dass wenn dem Ding die Bandbreite ausgehen sollte, man noch die freien Resourcen der CPU-Bandbreite zusaetzlich benutzen koennte.Wofür denn in nennenswertem Umfang?
Ist nicht so einfach machbar beim MRT, welches die UE3 für Deferred Shading benötigt.
Für Xenos wird es wohl nicht möglich sein, da wohl hier der VRAM nicht ausreichen dürfte.
Eigentlich ist das kein Problem. Der G80 kanns jedenfalls und ich sehe auch keinen Grund, warum X1K das nicht können sollte.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.