Archiv verlassen und diese Seite im Standarddesign anzeigen : Cell der Raytracing-Chip
betasilie
2005-07-28, 11:12:34
Es war ja abzusehen, dass der Cell für solche Berechnungen sehr gut geeigenet ist. Ich denke ohnehin, dass Sony sowas im Auge hatte, als sie den Cell als GPU geplant hatten. Ich frage mich nun, was der Cell alles an Grafikaufgaben in der Playstation 3 übernehmen kann, mal abgesehen von der Möglichkeit Fullscreen Effekte zu generieren.
http://www.uni-saarland.de/de/medien/2005/07/1122474975
Das dürfte für IBM in den nächsten Jahren sicher einen guten Absatzmarkt bringen für den Cell. Gerade im wissenschaftlichen Bereich oder sogar im Consumermarket dürfte mit etwas größeren Versionen des Cells einiges machbar sein.
Stone2001
2005-07-28, 16:13:45
Darauf habe ich echt gewartet, das die Saarbrückener sich über den Cell hermachen. ;)
Mich würde mal interessieren, welche Leistung sie unter dem Strich aus dem Cell herausbekommen. Mein Prof. hat sich den Prozessor in den USA von IBM auch mal vorfürhen lassen, war aber nicht wirklich davon überzeugt. Er meint, das es fast unmöglich sein wird alle Pipes ständig auszulasten. Aber selbst IBM hat sich zu diesem Thema ausgeschwiegen... .
Es war ja abzusehen, dass der Cell für solche Berechnungen sehr gut geeigenet ist. Ich denke ohnehin, dass Sony sowas im Auge hatte, als sie den Cell als GPU geplant hatten. Ich frage mich nun, was der Cell alles an Grafikaufgaben in der Playstation 3 übernehmen kann, mal abgesehen von der Möglichkeit Fullscreen Effekte zu generieren.
Aus einer Pressemeldung würde ich nicht mehr rauslesen als dort steht. :)
Falls Sony damit geplant hatte (was meines Wissens nach nicht taten), dann haben sich aber noch arg verschätzt.
Abgesehen davon darf man Cell nicht gleich Sony setzen.
Das dürfte für IBM in den nächsten Jahren sicher einen guten Absatzmarkt bringen für den Cell. Gerade im wissenschaftlichen Bereich oder sogar im Consumermarket dürfte mit etwas größeren Versionen des Cells einiges machbar sein.
Abwarten und Tee trinken.
Denk auch dran, dass an diesem Lehrstuhl auch noch in anderer Richtung geforscht wird. *klick* (http://graphics.cs.uni-sb.de/~woop/rpu/rpu.html)
Ganon
2005-07-28, 21:40:45
Aber welcher Darstellungs-Geschwindigkeit spricht man eigentlich von "Echtzeitraytracing"?
Oder ist der Begriff anders zu verstehen?
RaumKraehe
2005-07-28, 21:52:47
Es gab da mal son Projekt Quake oder Quake II in echtzeit Raytracingmäßig darzustellen. Weiß aber nicht mehr ob dazu nicht ne Renderfarm gebraucht wurde. Gibt auch irgend wo nen Thread im Forum.
Allerdings nutzen ja viele 3d-Engines eh Techniken die aus der Visualisierungs-Forschung kommen. Die "krieger"-Demo ist da auch so ein Grenzfall. (96KB-Demo) Immerhin werden alle Texturen bei starten des Spiels errechnet.
Edit: Achso um beim Thema zu bleiben. Cell ist doch auch nicht mehr als Multicore? Oder? Klar das wenn auch schon eine Dual-Core CPU vernünftig genutzt werden kann das ganze sicher einen guten Performance Schub ergibt.
Schön zu sehen bei Renderen die Netzwerke oder mehrere CPUs unterstützten. Da verdoppelt sich doch die Performance glatt. ;)
Und wenn ich nen Rechner habe der bei 1024x768 Pixeln für 4 Pixel einen ganzen Prozessor rechnen lassen würde also sozusagen ne CPU mit ca. 201216 Cores geht das bestimmt gut ab. :)
betasilie
2005-07-28, 21:58:51
Allerdings nutzen ja viele 3d-Engines eh Techniken die aus der Visualisierungs-Forschung kommen. Die "krieger"-Demo ist da auch so ein Grenzfall. (96KB-Demo) Immerhin werden alle Texturen bei starten des Spiels errechnet.
Mit Raytracing hat das aber nichts zu tun. Dort werden Normalmaps und Basistexturen per Algo generiert beim Spielstart. Gerendert wird das Spiel mit einer normalen 3D API.
RaumKraehe
2005-07-28, 22:07:03
Mit Raytracing hat das aber nichts zu tun. Dort werden Normalmaps und Basistexturen per Algo generiert beim Spielstart. Gerendert wird das Spiel mit einer normalen 3D API.
Ja das ist mir klar. Doch an diesem Beispiel kann mann eben sehr gut sehen das es vieleicht in nacher zukunft auch Möglich sein könnte "On the Fly" Texturen zu generieren. Auf z.b. einem Amiga 500 würde das nicht klappen. Also die Krieger-Demo. Dort könnte es passieren das man halt 24h warten müsste bis die Texturen da sind. Und auch nen 3d APi muss ja sowas wie ne "Strahlenverfolgung" machen, oder wie bekommt eine 3D-Engine raus was der Betrachter sieht oder nicht? Ich hab allerdings nicht viel Ahnung von der technologie von 3d-Engines. Hab mal ne Würfel sich drehen lassen und das wars. Da gabs aber Direkt X nocht nicht. War nen Spektrum 48+. :| Und ich glaub das kann man nicht vergleichen. ;)
Aber welcher Darstellungs-Geschwindigkeit spricht man eigentlich von "Echtzeitraytracing"?
Oder ist der Begriff anders zu verstehen?
Die Grenze ist wohl nicht genau festzulegen und sehr subjektiv. Für manche Anwendung wird wohl ein halbes Frame pro Sekunde schon als Echtzeit bezeichnet, bei Spielen hingegen nicht.
Es ist eher so zu verstehen, dass ein Ergebnis unmittelbar nach der Eingabe vorliegt und man navigieren kann.
Ansonsten kommt es zu solchen Fällen, dass es in 800x600 Echtzeitraytracing ist und in 1024x786 nicht mehr. (seht ihr zufällig eine Auflösung in der Pressemeldung? ;) ).
looking glass
2005-07-28, 23:00:16
Das Quake 2 Raytracingprojekt hatte ne Rechnerfarm von gut 25 1 Ghz Rechnern im Nacken, soweit ich mich daran noch erinnere - die Effekte waren recht schon, sah aber doch eigenartig aus dann daneben die Quake 2 Texturen zu sehen.
Ich würd meinen in dem Zusammenhang ist von minimum 25 Frames die Rede, also das man sich z.B. in einer Umgebung umsehen und darin bewegen kann.
Aber soweit ich mich an die Diskussion erinnere, als es um den Nvidia Forschungspreisgewinner Sven Woop ging (der ja zum gleichen Club gehört, wie der eingangslink bestätigt), war das endergebnis das es kein echtes Raytracing war, was er benutzte, ein paar Abkürzungen und nicht in voller länge ausgerechnet, wenn mich nicht alles täuscht.
MfG
Look
Stone2001
2005-07-28, 23:12:39
Im Normalfall spricht man hier von Echtzeit, wenn man min. 25 Frames pro Sekunde erreicht. Die Auflösung spielt hierbei eine untergeordnete Rolle, sollte aber immer mit angegeben werden.
Das Quake 2 Raytracingprojekt hatte ne Rechnerfarm von gut 25 1 Ghz Rechnern im Nacken, soweit ich mich daran noch erinnere - die Effekte waren recht schon, sah aber doch eigenartig aus dann daneben die Quake 2 Texturen zu sehen.
Das Cluster besteht aus 24 Dual Athlon XP, wobei bei der Vorführung vom Q3RT immer nur ein CPU pro Node genutzt wurde.
Aber soweit ich mich an die Diskussion erinnere, als es um den Nvidia Forschungspreisgewinner Sven Woop ging (der ja zum gleichen Club gehört, wie der eingangslink bestätigt), war das endergebnis das es kein echtes Raytracing war, was er benutzte, ein paar Abkürzungen und nicht in voller länge ausgerechnet, wenn mich nicht alles täuscht.
Schwachsinn...
Sowas hat Sven bestimmt nie gesagt, weil es auch garnicht der Fall ist.
Im Normalfall spricht man hier von Echtzeit, wenn man min. 25 Frames pro Sekunde erreicht. Die Auflösung spielt hierbei eine untergeordnete Rolle, sollte aber immer mit angegeben werden.
Im Normalfall unter welchem Kontext?
Wo steht die Definition?
Selbstdefinierte Dinge hab ich schon zu genüge gehört und es gibt da recht abenteuerliche Meinungen, die die Leute als Fakt ansehen...
looking glass
2005-07-28, 23:34:57
@ RLZ,
das hat Sven auch nicht gesagt, sondern kam aus dem Kontext der Technikbeschreibung und Zerflückung zustande - selbst openRT ist nicht voll RT.
Wobei ich eh bezweifle ob es jemals Voll RT geben wird, den dazu müssten ja alle Lichtbrechungen, Glanzsachen usw. mit reinkommen - sieht man eigentlich immer noch recht gut am Schattenwurf, der zumeist immer noch zu, wie drücks aus, zu linear ist, die harten Ränder zeigens meist ganz gut.
An sowas kann man ganz gut rankommen, aber noch lange nicht in Echtzeit, je dichter an die Realität gerechnet werden soll, um so mehr "Sekundärverfolgungen" muss es geben und genau da hat Sven mit der Implementierung abgekürzt (was auch nicht anders geht mit der heutigen Technik).
MfG
Look
Jetzt fangen wieder die Selbstdefinitionen an...
Glob Illum hat er aktuell nicht implementiert, wäre aber auch kein Problem mit dem Chip, da vollprogrammierbar.
Lichtbrechungen,
Lichtbrechung ist Shadersache und kein Problem
Glanzsachen
was sind Glanzsachen?
usw. mit reinkommen - sieht man eigentlich immer noch recht gut am Schattenwurf, der zumeist immer noch zu, wie drücks aus, zu linear ist, die harten Ränder zeigens meist ganz gut.
Wo ist das Problem mit weichen Schatten? Nur weil auf den Bildern keine benutzt werden?
Du meinst wahrscheinlich Radiosity...
Bevor jetzt wieder gross rumspekuliert wird, was Sven gesagt hat, wäre ich mal über einen Link mit seinem Wortlaut dankbar.
Alternativ langt es mir auch zu wissen, wo es gesagt haben soll. Dann kann ich ihn auch selber fragen...
looking glass
2005-07-29, 01:04:37
Wie gesagt, das hat Sven nicht gesagt, es ergab sich aus einer Diskussion (war, glaub ich, auch nicht hier) zur Technik damals heraus, welches eine, nenne es mal Sezierung der RT Technik, zur Folge hatte, Endresultat war halt eben, das es Ecken gab, die "komisch" erschienen und nicht auf die volle Bandbreite von RT hinwiesen.
Btw. GlobIllum liesse sich realisieren? Und das ohne soweit die Rechenkapazität auszureizen, das Echtzeit nicht darunter leidet? Bist Du dir in dem Punkt sicher, ich halte das doch für ein wenig gewagt in der Aussage.
Wobei ich zugegebener Maßen auch bezweifle, ob das überhaupt nötig wäre in der Bereich, es soll ja nur so aussehen, nicht alles muss unbedingt auch in der Technik relaisiert werden, oder sehe ich das falsch, die Illusion reicht im Grunde, mit welchen Techniken das erreicht wird, ist eigentlich nebensächlich - gesehen auf die Möglichkeit der PS3 im Unterhaltungssektor.
Wie gesagt, das hat Sven nicht gesagt, es ergab sich aus einer Diskussion (war, glaub ich, auch nicht hier) zur Technik damals heraus, welches eine, nenne es mal Sezierung der RT Technik, zur Folge hatte, Endresultat war halt eben, das es Ecken gab, die "komisch" erschienen und nicht auf die volle Bandbreite von RT hinwiesen.
Das hört sich schon anders an ;)
Ein richtiges Raytracing gibt es nicht.
Der einfache Raytacingalgo wird nur um immer mehr Effekte erweitert.
Und klar ists bei RTRT nie möglich alle Effekte und die Qualität des Offlinerenderings zu erreichen. Dafür fehlt schlicht die Leistung.
Dann kommt noch allgemein das Problem dazu, dass von der Geschwindigkeit her mit Serienchips für Spiele verglichen wird und von der Bildqualität mit Offlinerendering.
Zb allein der Speichermangel beim RTU lässt schon keine vernünftige Texturen oder extrem komplexe Modelle zu. Klar das die Bilder dann nicht soo toll aussehen. Die meisten Leute sind dann direkt enttäuscht.
Vom Prinzip her kann aber trotzdem alles dargestellt werden. Da man den Intersector beim RTU umprogrammieren kann wären sogar Freiformflächen möglich etc..
Btw. GlobIllum liesse sich realisieren? Und das ohne soweit die Rechenkapazität auszureizen, das Echtzeit nicht darunter leidet? Bist Du dir in dem Punkt sicher, ich halte das doch für ein wenig gewagt in der Aussage.
GlobIllum kostet natürlich viel Leistung, aber es gibt inzwischen genug OpenRT Demos davon. Mit genügend Rechenleistung könnte/kann man für manche Einsatzzwecke (keine Spiele) ausreichende Frameraten zur Verfügung stellen.
Solange Geld für die Hardware eine untergeordnete Rolle spielt kein Problem. :)
Wie sich Spezialchips in Zukunft schlagen muss man abwarten.
Man kann aber noch vieles verbessern und keiner weiss, was die Forschung in den nächsten Jahren noch alles so bringt.
Ich persönlich halte inzwischen die ganze Diskussion Raytracing vs Rasterisierung für unnötig. Es wird sich wohl eher eine Mischform durchsetzen, die es schafft Vorteile beider Welten zu verbinden. Wie dies allerdings genau aussehen wird, wird sich noch zeigen. Den momentanen Ansätzen zum Hybridrendering stehe ich noch relativ skeptisch gegenüber.
Die Entwicklung ist aber langfristig und wird mit der PS3 wohl nichts mehr zu tun haben. Für ein Raytracingspiel wird die Leistung auch nicht ausreichen.
Wobei ich zugegebener Maßen auch bezweifle, ob das überhaupt nötig wäre in der Bereich, es soll ja nur so aussehen, nicht alles muss unbedingt auch in der Technik relaisiert werden, oder sehe ich das falsch, die Illusion reicht im Grunde, mit welchen Techniken das erreicht wird, ist eigentlich nebensächlich - gesehen auf die Möglichkeit der PS3 im Unterhaltungssektor.
Ack
Man darf nicht vergessen, dass immer mehr der Content und nicht mehr die Technik die Bildqualität bei Spielen bestimmt. Wenn es gut aussieht ists ok. Wie genau das Bild entstanden ist und obs realistisch ausgeleuchtet ist, interessiert und sieht ein Spieler auch nicht.
Ganon
2005-07-29, 07:59:51
Die Grenze ist wohl nicht genau festzulegen und sehr subjektiv. Für manche Anwendung wird wohl ein halbes Frame pro Sekunde schon als Echtzeit bezeichnet, bei Spielen hingegen nicht.
Naja. Dann hat sich das doch eh erledigt, oder? Wenn "Echtzeitraytracing auf CELL" auch bedeuten kann: 10fps bei 640x480 und nicht unbedingt 60fps bei 1920x1080.
Zumal man ja nicht 100% der CPU für Raytracing benutzen kann, in einem Spiel. Da geht ja noch massiv Leistung an GameCode für weg.
Diese komische Lampe bei einer OpenRT-Demo lief ja auch "nur" mit 2fps. Wurde ja auch schon als "Echtzeit" bezeichnet.
Es gab mal vor nicht allzu langer Zeit ein Patent von Sony auf einen Realtime Raytracer, der irgendwie auch in der PS3 verbaut werden sollte. Allerdings ka ob HW oder SW. Mglw. ist die Kombination aus CELL und RSX genau das? (Wieso kriegt er eigentlich den Nvidia Forschungspreis dafür?)
Ganon
2005-07-29, 08:18:28
Es gab mal vor nicht allzu langer Zeit ein Patent von Sony auf einen Realtime Raytracer, der irgendwie auch in der PS3 verbaut werden sollte. Allerdings ka ob HW oder SW. Mglw. ist die Kombination aus CELL und RSX genau das? (Wieso kriegt er eigentlich den Nvidia Forschungspreis dafür?)
In der Pressemeldung geht es weder um Sony, noch um die PS3.
Shink
2005-07-29, 08:26:40
Naja. Dann hat sich das doch eh erledigt, oder? Wenn "Echtzeitraytracing auf CELL" auch bedeuten kann: 10fps bei 640x480 und nicht unbedingt 60fps bei 1920x1080.
Zumal man ja nicht 100% der CPU für Raytracing benutzen kann, in einem Spiel. Da geht ja noch massiv Leistung an GameCode für weg.
Diese komische Lampe bei einer OpenRT-Demo lief ja auch "nur" mit 2fps. Wurde ja auch schon als "Echtzeit" bezeichnet.
Naja, man darf halt nicht vergessen, dass man normalerweise Stunden bis Tage auf eine Raytracing-Szene wartet. Man denke an die Special Effects in Filmen oder an Animationsfilme. So gesehen ist 2 fps eben eine ganz andere Welt. Davon abgesehen: Einen Rechner aufzutreiben, der statt 2 fps 25 fps schafft ist nur eine Frage der Zeit oder des Geldes (zumal sich Raytracing ja perfekt parallelisieren läßt).
Ganon
2005-07-29, 09:09:53
Naja, man darf halt nicht vergessen, dass man normalerweise Stunden bis Tage auf eine Raytracing-Szene wartet. Man denke an die Special Effects in Filmen oder an Animationsfilme. So gesehen ist 2 fps eben eine ganz andere Welt. Davon abgesehen: Einen Rechner aufzutreiben, der statt 2 fps 25 fps schafft ist nur eine Frage der Zeit oder des Geldes (zumal sich Raytracing ja perfekt parallelisieren läßt).
Ja sicher. Aber hier im Thema geht es ja eher darum, ob man jetzt RayTracing jetzt bei PS3-Spielen einsetzt "nur" weil einer einen "Echtzeit"-Raytracer für CELL geschrieben hat.
Ja sicher. Aber hier im Thema geht es ja eher darum, ob man jetzt RayTracing jetzt bei PS3-Spielen einsetzt "nur" weil einer einen "Echtzeit"-Raytracer für CELL geschrieben hat.
+
In der Pressemeldung geht es weder um Sony, noch um die PS3.
Irgendwie widersprichst du dir total. Aber denk mal nach wofür CELL in erster Linie Entwickelt wurde :)
Ganon
2005-07-29, 11:51:20
Irgendwie widersprichst du dir total.
Nein.
Beim "in der Pressemitteilung...." hab ich mich auf das "Patent von Sony für RealTimeRaytracing" bezogen. Wenn das Sonys Patent wäre, würde da zumindest "Sony" drinnen stehen.
Das jetzt eben, war einfach nur das der Thread-Starter fragt was die PS3 damit in Spielen anfangen kann.
Naja. Dann hat sich das doch eh erledigt, oder? Wenn "Echtzeitraytracing auf CELL" auch bedeuten kann: 10fps bei 640x480 und nicht unbedingt 60fps bei 1920x1080.
Das man nicht unbedingt Faktor 100 gegenüber einer normalen CPU erreichen kann dürfte eigentlich klar sein. Da hat selbst IBM nur erreicht, indem sie eine voll optimierte FFT auf Cell gegen eine relativ unoptimierte Version auf einem normalen CPU verglichen hat.
Wobei ich zugeben muss, dass die erreichte Framerate ein gutes Stück über meinen Schätzungen liegt. :)
Für eine CPU schon ist die Leistung schon beeindruckend.
Für Spiele aber noch wesentlich zu langsam.
betasilie
2005-07-29, 13:37:53
Das jetzt eben, war einfach nur das der Thread-Starter fragt was die PS3 damit in Spielen anfangen kann.
Kollege, leg mir bloß nichts in den Mund, was ich nicht gesagt habe. Du kannst auch gerne woanders posten, denn dein äußerst seltsame Art zu diskutieren, ist ohnehin nicht lesenswert.
Ganon
2005-07-29, 14:36:26
Kollege, leg mir bloß nichts in den Mund, was ich nicht gesagt habe. Du kannst auch gerne woanders posten, denn dein äußerst seltsame Art zu diskutieren, ist ohnehin nicht lesenswert.
Öhm, kannst du mir jetzt erklären was ich falsches gesagt habe, oder hast du mich missverstanden?
Ich finde in meinen Postings in diesem Thread nichts, wo ich dich, die PS3 oder sonst was runter gemacht habe. Und deine Frage ist doch eindeutig, oder nicht:
Zitat:
---
ich frage mich nun, was der Cell alles an Grafikaufgaben in der Playstation 3 übernehmen kann
---
DanMan
2005-07-29, 14:41:14
Nun, es wurde auf der E3 ja schon eine Raytracing Demo auf dem Cell gezeigt. Das 1. Technology Demonstration Video: http://www.gamespot.com/ps3/action/playstation3hardware/media.html
betasilie
2005-07-29, 15:00:55
Öhm, kannst du mir jetzt erklären was ich falsches gesagt habe, oder hast du mich missverstanden?
Ich finde in meinen Postings in diesem Thread nichts, wo ich dich, die PS3 oder sonst was runter gemacht habe. Und deine Frage ist doch eindeutig, oder nicht:
Zitat:
---
ich frage mich nun, was der Cell alles an Grafikaufgaben in der Playstation 3 übernehmen kann
---
Ich habe nicht behauptet, dass Du mich, die PS3 oder sonst wen runtergemacht hast. Du legst mir aber Worte in den Mund, die ich so nicht gesagt habe:
Ja sicher. Aber hier im Thema geht es ja eher darum, ob man jetzt RayTracing jetzt bei PS3-Spielen einsetzt "nur" weil einer einen "Echtzeit"-Raytracer für CELL geschrieben hat.
Das jetzt eben, war einfach nur das der Thread-Starter fragt was die PS3 damit in Spielen anfangen kann.
Ich habe nie behauptet und auch nicht gefragt, ob Spiele auf der Playstation per RT realisiert werden. Mein Frage war, inwiefern die Fähigkeit RT Algos schnell zu berechnen auf das grafische Co-Prozessing des Cell in der PS3 einfluss haben wird.
Edit:
Und das war auch nur eine Frage am Rande. Primär geht es im Topic um den Cell als RT CPU, die in der Industrie, Medizin, usw eingesetzt werden kann. IBM braucht Absatzmärkte für die Cell Architektur und eine davon scheint RT-RT zu sein.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.