Archiv verlassen und diese Seite im Standarddesign anzeigen : Schattenberechnung mittels Raytracing sinnvoll?
Habt ihr schonmal in Crysis (oder in der Demo) eine Kiste oder Faß aufgehoben
und geschaut ob die Schatten wirft?
Nein? Dann sag ich euch, das tut sie nicht, deren Schatten wird nicht dargestellt.
Und habt ihr schonmal den Tarnmodus eingeschalten und geschaut ob ihr
noch einen Schatten werft?
Ja, das tut ihr.
Und warum ist das so?
Weil heutige 3d Rendertechniken den Schatten nur mit viel Aufwand billig faken können, aber realistische Schatten sind nur mit Raytracing möglich.
Denn dann wird die Kiste oder das Fass wirklich einen Schatten
und der Tarnanzug bricht das Licht und läßt es durch, so daß im Tarnmodus der Spieler keinen Schatten mehr wirft.
Fazit:
Nur mit Raytracing wird alles besser.
AnarchX
2007-12-27, 09:47:43
Naja, Schatten und Reflexionen würde vielleicht durch RT in Crysis besser aussehen, aber der Rest wohl kaum.
Und wenn du dir ein Triple-SLI kaufst und noch viele andere Tausend überzeugst, dann wird Crytek sicherlich auch ein hochrealistisches Schattenmodell implementieren. ;)
Da fragt man sich wirklich ob es schon FUD-Präsentationen von Intel gibt, die solche Rosinenpickereien wie du betreiben um die Probleme von speziellen Rasterising-Implementationen an den Pranger zu stellen.:D
Exxtreme
2007-12-27, 10:00:05
Und habt ihr schonmal den Tarnmodus eingeschalten und geschaut ob ihr
noch einen Schatten werft?
Ja, das tut ihr.
Da man nicht weiss nach welchem Prinzip die Crysis-Tarnung funktioniert, kann man auch nicht sagen ob der Schatten richtig oder falsch ist. :D
Sir Integral Wingate Hellsing
2007-12-27, 13:30:54
Da man nicht weiss nach welchem Prinzip die Crysis-Tarnung funktioniert, kann man auch nicht sagen ob der Schatten richtig oder falsch ist. :D
You made my day ;D
Tesseract
2007-12-27, 13:48:59
Fazit:
Nur mit Raytracing wird alles besser.
abgesehen von der framerate. die kannst du dann in "stunden pro bild" angeben.
raytracing im echtzeit-rendering ist das sprichwörtliche schießen mit kanonen auf mücken. der aufwand rechtfertigt in keinem fall das ergebnis.
Hardcoregamer
2007-12-27, 14:09:14
Ich weiß zwar nicht wo deine Schatten bei Crysis sind, aber ich habe sehr wohl Schatten bei Kisten und Fässern...
Ich finde irgendwie driftet die Meinung heute stark in Richtung Fotorealismus ab. Aber warum? Ist ein Schatten nur dann gut, wenn er realistisch ist? Ist ein Spiel nur gut wenn es alles realistisch darstellt. Eindeutig nein.
Ein Spiel wird nicht programmiert um alles realistisch darzustellen, auch wenn es immer besser wird mittlerweile...
Bei Lemmigs früher hat auch niemand der Schatten interessiert ;)
Und mich interessiert es ehrlich gesagt nicht die Bohne ob der Schatten realistisch ist oder nicht. Irgendwann wird es schon soweit sein (in der Spieleindustrie) und gut ist.
Crysis ist auch so der Hammer. Aber anstatt sich über das Gebotene zu freuen, habe ich das Gefühl, das viele nur die "Fehler" suchen um bloss meckern zu können ...
Gruß
Hardcoregamer
reunion
2007-12-27, 20:38:35
abgesehen von der framerate. die kannst du dann in "stunden pro bild" angeben.
raytracing im echtzeit-rendering ist das sprichwörtliche schießen mit kanonen auf mücken. der aufwand rechtfertigt in keinem fall das ergebnis.
Noch nicht. Aber irgendwann sollte der Punkt erreicht sein, wo Raytracing das effizientere Instrument ist um die IQ weiter zu steigern. (wenn ich das richtig verstanden habe :D)
Demirug
2007-12-27, 20:42:18
Noch nicht. Aber irgendwann sollte der Punkt erreicht sein, wo Raytracing das effizientere Instrument ist um die IQ weiter zu steigern. (wenn ich das richtig verstanden habe :D)
Das ist das Credo von Intel. Der Beweis in der Praxis steht da allerdings noch aus. Intel unterschlägt da nämlich immer gerne ein paar Tatsachen.
Das ist das Credo von Intel. Der Beweis in der Praxis steht da allerdings noch aus. Intel unterschlägt da nämlich immer gerne ein paar Tatsachen.
Da Intel einen Großteil der Saarbrücker Leute geholt hat, sollte das doch nicht verwunderlich sein. ;)
Crop Circle
2007-12-27, 20:49:42
Könnte eine Physikkarte nicht den Schatten berechnen?
reunion
2007-12-27, 20:50:56
Das ist das Credo von Intel. Der Beweis in der Praxis steht da allerdings noch aus. Intel unterschlägt da nämlich immer gerne ein paar Tatsachen.
Also ist das aus deiner Sicht nicht der Fall? Oder kann man das heute noch nicht sagen?
Demirug
2007-12-27, 21:00:46
Also ist das aus deiner Sicht nicht der Fall? Oder kann man das heute noch nicht sagen?
Nicht nur meiner Sicht.
DIe Berechnungen von Intel gehen von einer perfekt vorsortierten Dreiecksmenge aus die von einem Rasterizer und einem Raytracer komplett dargestellt werden müssen.
Das ist bei Spielen nun aber völlig realitätsfern. Je mehr sich in dem Spiel bewegt desto weniger kannst du vorsortieren. Auf der anderen Seite wirft kein Spiel alle Dreiecke die in einem Spiel vorkommen einfach auf die GPU. Da wird auf Objektebene schon fleißig verworfen. Das machen zwar derzeit noch die CPUs es ist aber denkbar das diese Stufe der Rasterpipeline irgendwann auch noch in die GPUs wandert, Mit der D3D10 predication haben wir ja schon erste Anzeichen dafür.
Tesseract
2007-12-27, 22:07:16
Noch nicht. Aber irgendwann sollte der Punkt erreicht sein, wo Raytracing das effizientere Instrument ist um die IQ weiter zu steigern. (wenn ich das richtig verstanden habe :D)
das problem am raytracing ist, dass der aufwand pro pixel mit jedem einzelnen detail in der szene enorm ansteigt.
wenn du ein polygon hast, schneidest du den primärstrahl mit diesem polygon und hast sofort ein ergebis ob dieser das polygon trifft oder nicht.
bei 10x10 pixel macht das 100 schnitte und das bild ist fertig.
wenn du allerdings 50 polygone in der szene hast, kannst du jeden einzelnen primärstrahl mit jedem dieser polygone schneiden und hast schon 50*10*10=5000 schnitte. wenn jetzt jeder dieser primärstrahlen 5 sekundärstrahlen für die beleuchtung benötigt bist du schon bei 50*10*10*5=25000 schnitten. 25000 schnitte für ein 10x10 pixel großes bild mit 50 polygonen und einer sekundärstrahl-tiefe die garantiert noch immer mehr artefakte erzeugt als das billigste "konventionelle" beleuchtungsmodell.
die resourcen, die du für raytracing rausschmeißt wird man im echtzeit-rendering wohl immer sinnvoller nutzen können.
MadMax@
2007-12-28, 03:05:06
das problem am raytracing ist, dass der aufwand pro pixel mit jedem einzelnen detail in der szene enorm ansteigt.
wenn du ein polygon hast, schneidest du den primärstrahl mit diesem polygon und hast sofort ein ergebis ob dieser das polygon trifft oder nicht.
bei 10x10 pixel macht das 100 schnitte und das bild ist fertig.
wenn du allerdings 50 polygone in der szene hast, kannst du jeden einzelnen primärstrahl mit jedem dieser polygone schneiden und hast schon 50*10*10=5000 schnitte. wenn jetzt jeder dieser primärstrahlen 5 sekundärstrahlen für die beleuchtung benötigt bist du schon bei 50*10*10*5=25000 schnitten. 25000 schnitte für ein 10x10 pixel großes bild mit 50 polygonen und einer sekundärstrahl-tiefe die garantiert noch immer mehr artefakte erzeugt als das billigste "konventionelle" beleuchtungsmodell.
die resourcen, die du für raytracing rausschmeißt wird man im echtzeit-rendering wohl immer sinnvoller nutzen können.
Unsinn Raytracing Performenz ist nicht von den Geometrie Details abhängig sonder nur von der Auflösung und der Raytracing tiefe. Kein vernünftiger Mensch würde Raytracing ohne Raumaufteilung Programmieren.
Achja raytracing kann genau sogut ein echtzeit-rendering sein warum schmeisen manche User hier dauernd Begriffe durcheinander die nichts miteinander zu tun haben.
Das machen zwar derzeit noch die CPUs es ist aber denkbar das diese Stufe der Rasterpipeline irgendwann auch noch in die GPUs wandert, Mit der D3D10 predication haben wir ja schon erste Anzeichen dafür.
UT3 macht das mit einem Frame Verzögerung per Occlussion Culling. Schön sichtbar wenn man schnell um Ecken geht bei niedrigen Frameraten. Ich dachte ich seh nich richtig.
Ailuros
2007-12-28, 11:50:14
Fuer diejenigen die es noch nicht gelesen haben:
http://www.beyond3d.com/content/articles/94/
Fragman
2007-12-28, 13:17:25
Unsinn Raytracing Performenz ist nicht von den Geometrie Details abhängig sonder nur von der Auflösung und der Raytracing tiefe. Kein vernünftiger Mensch würde Raytracing ohne Raumaufteilung Programmieren.
lol, bei diesem satz muss ich immer lachen, der kommt ja immer wieder auf wenns um echtzeit RT geht, nur leider ist der falsch. man kann das mit hilfe eines 3d progs auch sehr leicht nachtesten und dort kommt man sehr schnell zum ergebnis das es doch einiges ausmacht. ;) render mal eine kugel mit 24 polys und eine mit 5000, beleuchtet durch ein simples area light, die schattenkanten sollen sauber sein. die kugel sollte hierzu natuerlich ueber einer ebene stehen damit darauf der schatten fallen kann. die renderzeit ist bei der hig res kuegel deutlisch hoeher. wenn man natuerlich den schatten weglaesst, dann machen die polys nicht viel aus, das stimmt dann. ;) RT ist viel zu aufwaendig und was intel bisher immer gezeigt hat war graphisch doch ein witz. intel soll mal crysis qualy, sagen wir auf mittlerer qualy stufe mit 4 fach aa und 4 fach ano filter in echtzeit rendern mit RT, das wuerd schon mehr her machen.
Bietchiebatchie
2007-12-28, 14:12:20
lol, bei diesem satz muss ich immer lachen, der kommt ja immer wieder auf wenns um echtzeit RT geht, nur leider ist der falsch. man kann das mit hilfe eines 3d progs auch sehr leicht nachtesten und dort kommt man sehr schnell zum ergebnis das es doch einiges ausmacht. ;) render mal eine kugel mit 24 polys und eine mit 5000, beleuchtet durch ein simples area light, die schattenkanten sollen sauber sein. die kugel sollte hierzu natuerlich ueber einer ebene stehen damit darauf der schatten fallen kann. die renderzeit ist bei der hig res kuegel deutlisch hoeher. wenn man natuerlich den schatten weglaesst, dann machen die polys nicht viel aus, das stimmt dann. ;)
Sorry, aber das stimmt so nicht was du schreibst:
Wenn man zum Rendern ohne Schatten der Kugel A (mit 5000 Dreiecken) x-mal solange braucht wie zum Rendern der Kugel B (mit 24 Dreiecken), dann brauch man auch mit Schatten (egal, ob weich oder hart) x-mal solange für A wie für B.
Grund ist einfach folgender: Die Schattenstrahlen profitieren genauso wie alle anderen Strahlen von der (in der Theorie) logarithmischen Laufzeit des kd-Baums (oder welche andere Beschleunigungsstruktur)
Vor allem verwenden viele 3D-Programme auch Rasterizer...
Tesseract
2007-12-28, 14:52:02
Unsinn Raytracing Performenz ist nicht von den Geometrie Details abhängig sonder nur von der Auflösung und der Raytracing tiefe. Kein vernünftiger Mensch würde Raytracing ohne Raumaufteilung Programmieren.
stimmt, damit kommt man wohl auf einen radiziellen einfluss (das ist noch lange nicht "keiner"). du musst aber bedenken, dass du auch immer die boundingspheres, polygone usw. den teilräumen zuweisen musst und zwar jeden frame neu wenn es kein statisches bild ist.
aus dem ärmel zaubern kannst du diese werte nicht.
ist halt trotzdem etwas vollkommen anderes als einfach jedes primitiv nacheinander (und vollkommen unabhängig voneinander) durch den z-buffer zu jagen bis alles gezeichnet ist.
Fragman
2007-12-29, 01:26:55
Sorry, aber das stimmt so nicht was du schreibst:
Wenn man zum Rendern ohne Schatten der Kugel A (mit 5000 Dreiecken) x-mal solange braucht wie zum Rendern der Kugel B (mit 24 Dreiecken), dann brauch man auch mit Schatten (egal, ob weich oder hart) x-mal solange für A wie für B.
Grund ist einfach folgender: Die Schattenstrahlen profitieren genauso wie alle anderen Strahlen von der (in der Theorie) logarithmischen Laufzeit des kd-Baums (oder welche andere Beschleunigungsstruktur)
ich hab ja auch nichts anderes gesagt. nur brauch man eben fuerne kugel mit 5000 polys mehr zeit als fuerne kugel mit 24. was ich nicht immer verstehen kann wenn gesagt wird das es egal ist ob man viele oder wenige polys hat beim raytracing. es mag ja sein das die benoetige rechenzeit nicht so sprunghaft ansteigt wie beim rastern, nur kostet es eben doch enorm leistung viele geo details auf den schirm zu bringen. heut kann man gi faken ueber env lookups, ambient occlusion, sss, alles gefakt, nur eben es geht. bis man das alles in echtzeit in RT machen kann... .
Was für ein Programm denn?
Ich weiß zwar nicht wo deine Schatten bei Crysis sind, aber ich habe sehr wohl Schatten bei Kisten und Fässern...
Du hast keinen Schatten bei Kisten und Fässern!
Ich sagte, nimm die Kiste in die HAND!
Wenn man nicht lesen kann, dann sollte man an einer Diskusion auch nicht teilnehmen!
intel soll mal crysis qualy, sagen wir auf mittlerer qualy stufe mit 4 fach aa und 4 fach ano filter in echtzeit rendern mit RT, das wuerd schon mehr her machen.
Die Typen aus Saarbrücken haben schon GTA Vice City in echtzeit mit RT gerendert und gezeigt und das war schon vor 2 Jahren.
Die Typen aus Saarbrücken haben schon GTA Vice City in echtzeit mit RT gerendert und gezeigt und das war schon vor 2 Jahren.
Die Typen aus Saarbrücken sind Weltmeister im Faken ... der kommerzielle Part, die Firma inTrace macht gerade ihre Pforten dicht. Spricht meiner Meinung nach nicht unbedingt für echte Innovation ...
Fragman
2007-12-29, 14:18:36
Die Typen aus Saarbrücken haben schon GTA Vice City in echtzeit mit RT gerendert und gezeigt und das war schon vor 2 Jahren.
gibts dazu bilder oder videos, interesse daran hab ich auf jeden fall.
Es war nicht "GTA Vice City", sondern eine eigene kleine Stadt.
Gast wie Gäste
2007-12-29, 14:55:10
Nochmal eine Frage bzgl. der Renderzeit:
Beispiel sollen hier mal 2 Spiegel sein, die sich fast genau parallel gegenüber stehen.
Den Effekt kennt wohl jeder, es bildet sich eine Art unendlicher Tunnel in den Spiegeln. Bei einer solchen Anordnung müsste der Rechenaufwand doch theoretisch gegen unendlich gehen, wenn man eine Strahlberechnung nicht irgendwann abbricht.
Wie soll so die Rechenzeit unabhängig von der Anzahl der Objekte sein, wenn man davon ausgeht, das für jedes Objekt die Möglichkeit besteht, das es einen Strahl reflektiert, bricht etc. und so jedes Mal die Berechnung fortgesetzt werden muß ?
bdlio
2007-12-29, 14:57:16
das mit den schatten in crysis ist mir auch aufgefallen... gleich am anfang die schildkröte hochgehoben und meinen eigenen schatten angeschaut, der da so schön auf den strand/steine fällt... die hand ist oben, so als ob man etwas trägt, aber das was man trägt wirft keinen schatten mehr... wobei ich glaube fast eher, dass das ein "bug" ist und nicht aus performance gründen passiert.
aber darüber "ärgere" ich mich vielleicht mal, wenn ich ne grafikkarte drinnen hab, mit der crysis auch spass macht - trotzdem fällt sowas auf, weil es einfach inkonsequent ist ;)
Das bei Crysis ist übrigens nicht vom Rasterizing limitiert. Die Shadowmap könnte auch ohne weiteres mit den aufgehobenen Objekten gerendert werden. Entweder war das eine Designentscheidung oder es ist einfach ein Bug bzw. ein fehlendes Feature.
Es war nicht "GTA Vice City", sondern eine eigene kleine Stadt.
Nein, es war definitv GTA Vice City, steht auch dran.
Leider wurde deren Webseite aktualisiert und die Bilder sind nicht mehr sichtbar.
Aber man sieht sie noch in diesem PDF Dokument auf Seite 38.
http://www.zgdv.de/GameDays2007/Pages/Talks/Slusallek.pdf
Ich habe mir damals sogar noch 2 Videos downgeladen, die die GTA Vice City Szene mit deren Realtime Raytracing Technik zeigen.
Das ganze sah schon sehr eindrucksvoll aus, am besten Fand ich die Glasfassaden der Hochhäuser, in der sich alle anderen Häuser gespiegelt haben.
Das war wirklich beeindruckend.
Ok, ich habe es noch auf einer anderen Seite gefunden:
Hier Screenshots von GTA Vice City mit Realtime Raytracing:
http://graphics.cs.uni-sb.de/~siraplet/screen/4.JPG
http://graphics.cs.uni-sb.de/~siraplet/screen/6.JPG
Man achte auf die Glasfassade in der sich alles realistisch Spiegelt!
http://graphics.cs.uni-sb.de/~siraplet/screen/2.JPG
http://graphics.cs.uni-sb.de/~siraplet/
Und hier das Video:
GTA Vice City mit Realtime Raytracing:
http://graphics.cs.uni-sb.de/~siraplet/movies/ubersicht.avi
Es war nicht "GTA Vice City", sondern eine eigene kleine Stadt.
An den Screenshots ist ganz klar erkennbar, daß das GTA Vice City ist.
Und hier das Video:
GTA Vice City mit Realtime Raytracing:
http://graphics.cs.uni-sb.de/~siraplet/movies/ubersicht.avi
In diesem Video ist übrigens besonders beeindruckend, wieviele Objekte gleichzeitig ohne ruckeln auf einmal sichtbar sind, wenn die Kamera die Stadt als ganzes zeigt.
Es ist also schon etwas an der Aussage dran, daß die Anzahl der Polygone nicht so einen gravierenden Framerateneinbruch haben, wie es bei
der normalen Rendertechnik der Fall ist.
Das Problem ist nur dass es ohne LOD dann kräftig zu flimmern anfängt. Es ist äußerst kontraproduktiv mehr Polygone zu rendern als der Schirm überhaupt darstellen kann.
Die Typen aus Saarbrücken sind Weltmeister im Faken ... der kommerzielle Part, die Firma inTrace macht gerade ihre Pforten dicht. Spricht meiner Meinung nach nicht unbedingt für echte Innovation ...
Das waren eh noch nichtmal eine Handvoll Leute... die nun bei Intel sitzen. ;)
Die Typen aus Saarbrücken haben schon GTA Vice City in echtzeit mit RT gerendert und gezeigt und das war schon vor 2 Jahren.
Das waren kein Saarbrücker Student. Das war nur eine Kooperation mit mit dem CGUDS. Zumal dort ausschliesslich statische Geometrie gerendert wird.
Das Problem ist nur dass es ohne LOD dann kräftig zu flimmern anfängt. Es ist äußerst kontraproduktiv mehr Polygone zu rendern als der Schirm überhaupt darstellen kann.
Genau.
Im Endeffekt läuft es auf ein log(n) gegen log(log(n)) hinaus.
Eigentlich ist die Diskussion komplett überflüssig, weil bei den kommenden Problemen keiner der beiden Vorteile hat...
Genau.
Im Endeffekt läuft es auf ein log(n) gegen log(log(n)) hinaus.
Eigentlich ist die Diskussion komplett überflüssig, weil bei den kommenden Problemen keiner der beiden Vorteile hat...
Doch, Raytracing kann echte Schatten und mehrfachspiegelungen von Objekten in einer Spiegeligen Oberfläche.
Ailuros
2007-12-29, 18:24:35
Was soll an der angeblichen "realistischen" Spiegelung auf der Glassfassade besonders sein?
Was soll an der angeblichen "realistischen" Spiegelung auf der Glassfassade besonders sein?
Man kann sich selber und die Gegner darin spiegeln.
Das kann die normale Rendertechnik nicht.
Die spiegelt maximal die statische Welt, aber nicht den Gegner, der sich darin bewegt. Bei Doom 3 ist dieses Verhalten übrigens durch einen 2. Raum hinter dem Spiegel gefakted, d.h. man muß es erst ins Level künstlich einbauen, und Gratis bekommt man dieses Feature auch nicht.
D.h. Gameplaytechnisch hat man hier einen Nachteil.
Man stelle sich einen Egoshooter vor, in dem man den Gegner dank der spiegelnden Oberfläche eines Objekts frühzeitig erkennen könnte.
Ailuros
2007-12-29, 19:20:03
Wieso jetzt ploetzlich ein Steinzeit-Exemplar an engine wie die von Doom3 relevant ist, ist mir ein weiteres Raetsel.
Wie dem auch sei, in der weniger absehbaren Zukunft koennte ich durchaus eine Kombination von ray-tracing und rasterizing sehen, wo man eben nur die Vorteile der beiden Methoden benutzt; aber dann auch nur wenn es der gesamte Aufwand fuer's Resultat auch wirklich wert ist. Mir die Frisur zurechtzubiegen im Spiegel oder den Gegner vorzeitig zu sehen in einem Spiel ueberredet mich jetzt gerade nicht, ueberhaupt unter dem Licht der Vorbehaltungen die erfahrene Profis (wie der Herr der den B3D Artikel schrieb) haben. Mit ein paar klugen Tricks und fortschrittlicheren Shader als heute vorhanden, kann ich mir schwer vorstellen dass das Zeug nicht realisierbar waere; hier gilt es aber auch wieder ob es den Aufwand wert ist.
Die 2 Vorteile die Du hier vortrommelst sind bei weitem keine Antwort oder Beachtung der Nachteile die reines ray-tracing mit sich fuehrt.
Komplett spiegelnde Oberflächen sind so selten, dass das kaum den Aufwand für Raytracing rechtfertig. Viel wichtiger sind halbspiegelnde Oberflächen die das Licht trotzdem ein wenig streuen (Metal).
So und jetzt render das mal mit Raytracing. Da kommst sofort auf hunderte Sekundärstrahlen pro Pixel weil du Monte-Carlo machen musst. Mit einer billigen gefakten Cubemap pro Objekt und danach einem Gauss-Blur drauf ist das um ein Vielfaches schneller und den unterschied bemerkt keine Sau. Den Grad der Streuung kann man damit sogar pro Pixel steuern indem man die Mips entsprechend damit adressiert.
Axiom #1 der Spielegrafik: Man darf so viel faken wie man will solang man den Unterschied nicht sieht.
Eine höher aufgelöste Cubemap auf die Glasfasade und das Auge wird die Spiegelung akzeptieren, weil sie eh mit dem Restbild (Hintergrund) usw. verschmilzt.
Wieso jetzt ploetzlich ein Steinzeit-Exemplar an engine wie die von Doom3 relevant ist, ist mir ein weiteres Raetsel.
Weil mir momentan kein anderes Spiel bekannt ist, das Spiegel faked.
Die meisten Spiele machen darum nämlich einen großen Bogen, weil es
von Seitens des Leveldesigners Arbeit kostet und nicht gratis durch die bloße Verfügbarkeit der Engine zu haben ist.
Gratis = der Leveldesigner muß nichts machen, außer sagen, daß diese Oberfläche ein Spiegel ist.
Mit Gratis ist nicht die Perfomance gemeint.
Mir die Frisur zurechtzubiegen im Spiegel oder den Gegner vorzeitig zu sehen in einem Spiel ueberredet mich jetzt gerade nicht, ueberhaupt unter dem Licht der Vorbehaltungen die erfahrene Profis (wie der Herr der den B3D Artikel schrieb) haben. Mit ein paar klugen Tricks und fortschrittlicheren Shader als heute vorhanden, kann ich mir schwer vorstellen dass das Zeug nicht realisierbar waere; hier gilt es aber auch wieder ob es den Aufwand wert ist.
Wenn in dem Spiel Laserwaffen eingesetzt werden, dann hat das schon enorme Vorteile, wenn man den Gegener durch beschießen des Spiegels fraggen kann.
Komplett spiegelnde Oberflächen sind so selten, dass das kaum den Aufwand für Raytracing rechtfertig.
Spiegel gibt es in der Realen Welt genug.
Man denke z.b. an ein Kaufhaus oder an eine Toilette.
In der Spielewelt umgeht man sie nur weil sie mit der bisherigen Technik
eines Fakes wie in Doom 3 bedürfen, was ein Mehraufwand bedeutet.
Viel wichtiger sind halbspiegelnde Oberflächen die das Licht trotzdem ein wenig streuen (Metal).
Auch in einem silbernen Tanklaster könnte man den Gegner sehen, wenn
es die 3d Engines nur könnten.
Aber auch hier umgeht man das ganze, in dem man den Tankaster einfach mit einer nicht spiegelnden Farbe versieht.
So und jetzt render das mal mit Raytracing. Da kommst sofort auf hunderte Sekundärstrahlen pro Pixel weil du Monte-Carlo machen musst. Mit einer billigen gefakten Cubemap pro Objekt und danach einem Gauss-Blur drauf ist das um ein Vielfaches schneller und den unterschied bemerkt keine Sau.
Bei der Cube Map Lösung siehst du nicht den Gegner.
Für das Gameplay hast du also keinen Mehrwert.
Nvidia5
2007-12-29, 19:43:17
Also ich finde die Raytracing Spiegelung ganz schön, besser als bei aktuellen Games.
Nur die Frage is, wie viel diese Verbraucht. Wenn sich dadurch die Anforderungen nicht extrem steigern sollte man sie sofort in die nächsten Games einbauen.
Bei der Cube Map Lösung siehst du nicht den Gegner.
Man kann Cubemaps sehr wohl dynamisch rendern, was glaubst du wie Autoreflexionen in Rennspielen gemacht werden?
Mit Direct3D 10 sogar alle 6 Seiten in einem Pass.
Man kann Cubemaps sehr wohl dynamisch rendern, was glaubst du wie Autoreflexionen in Rennspielen gemacht werden?
Mit Direct3D 10 sogar alle 6 Seiten in einem Pass.
Dann nenne mir ein Spiel aus der Praxis, das das macht.
Und Rennspiele beschränken sich darauf, daß es immer die gleiche Cube Map ist.
Eine echte Veränderung, z.b. neue Spielfigur im Blickfeld, gibt es also dort nicht.
Du hast keinen Schatten bei Kisten und Fässern!
Ich sagte, nimm die Kiste in die HAND!
Wenn man nicht lesen kann, dann sollte man an einer Diskusion auch nicht teilnehmen!
Ich kann lesen ... Ich habs getestet und bei mir haben sie Schatten.
Also vorsicht mit deinem dummen Unterstellungen...
Hardcoregamer
2007-12-29, 21:01:57
ups war nicht angemeldet. Der Beitrag war von mir.
Ich kann lesen ... Ich habs getestet und bei mir haben sie Schatten.
Also vorsicht mit deinem dummen Unterstellungen...
Mit welcher DirectX Version hast du das getestet?
DirectX 9 oder DirectX 10?
Hardcoregamer
2007-12-29, 21:10:05
Weiß ich nicht mehr. Ich hab auf jeden Fall Vista drauf. d.h. Es kann auch unter DX10 gewesen sein. Ich habs aber zuletzt nur auf DX9 wegen der Performance gespielt.
Also dann schau bitte nochmal nach.
Ich kann dir jedenfalls schon jetzt sagen, daß unter DirectX 9 die Schatten der aufgehobenen Fässer nicht angezeigt werden.
Aquaschaf
2007-12-29, 21:33:47
Und Rennspiele beschränken sich darauf, daß es immer die gleiche Cube Map ist. Eine echte Veränderung, z.b. neue Spielfigur im Blickfeld, gibt es also dort nicht.
Nein, das stimmt nicht. Schau bei Rennspielen einfach mal genauer hin.
Dann nenne mir ein Spiel aus der Praxis, das das macht.
Jedes Need for Speed seit NFS6 (weil es nicht so billig ist die Cubemaps immer wieder zu berechnen kann man dort z.B. die Update-Rate in den Grafikoptionen beeinflussen und sieht schön den Effekt etwas "ruckeliger" Reflektionen). GT5, PGR3 oder was auch immer du dir für ein neueres Rennspiel aussuchst.
EDIT: korrekt sind die Reflektionen mit Cubemaps natürlich nicht. Aber bei Objekten mit vielen abgerundeten Flächen wie z.B. Autos funktioniert es ziemlich gut.
Dann nenne mir ein Spiel aus der Praxis, das das macht.
Jedes moderne Rennspiel macht das.
Argumentier hier nicht mit Dingen von denen du nichts verstehst.
Und Rennspiele beschränken sich darauf, daß es immer die gleiche Cube Map ist.
Eine echte Veränderung, z.b. neue Spielfigur im Blickfeld, gibt es also dort nicht.
natürlich gibt es das auch dort, zwar nicht eine neue spielfigur, aber je nach ort verschiedene autos die sich im lack spiegeln.
achja, weil du nach spielen mit gefakten spiegeln gefragt hast, die gibt es haufenweise, sowohl vor als auch nach doom3, schon max payne2 hatte gefakte spiegel, ebenso jedes spiel der splinter cell-reihe und wenn ich noch ein wenig nachdenke fallen mir bestimmt noch mehr ein.
in prey kann man auch durch die portale durchschießen, also warum sollte das prinzipiell bei spiegeln nicht funktionieren?
tokugawa
2007-12-30, 02:14:20
Also, ich wollte den Troll nicht füttern, jetzt muß ich's aber doch mal.
Gefakte Spiegelungen sind absolut ok, denn die einzige Stelle an denen man den Fake erkennt sind Objekte, die NAH AM SPIEGEL selbst sitzen. Und selbst dann nur wenn sie sehr distinkte Muster (Schachbrettmuster z.B.) besitzen.
Das ist in Spielen so dermaßen selten der Fall dass ein Aufregen über das Faken nur als absolut dumm bezeichnet werden kann.
Jeder Artist eines Entwicklerteams, der etwas auf sich hält, kann hier mit intellgenter Platzierung und gutem Grafikdesign den Fake so verstecken, dass es nicht auffällt.
Solche Fakes sind also oft nur unter "Laborbedingungen" sichtbar. Gerade bei Spiegelungen und Brechungen (Reflexion und Refraktion).
Bei Schatten stimmt die ganze Sache des Threaderstellers sowieso nicht: Echtzeitschatten bei Rasterisierern sind kein Fake, sondern einfach nur eine Methode mit manchmal nicht ausreichender Präzision oder Artefakten. Das macht eine Methode noch lange nicht "fake".
Raytracing als Allheilmittel - und das noch dazu im Spielezusammenhang (im wissenschaftlichen Zusammenhang, etwa für Visualisierungszwecke, ließe ich's mir ja noch einreden) - nervt mich langsam. Wieso erkennt keiner dass für "gute Grafik" eher der künstlerische Input wichtig ist, und dass "gute Grafik" meistens einen einzigartigen Look bedeutet, der mal realistisch, mal weniger realistisch sein kann?
Wenn dank Raytracing mal jedes Spiel fad wie Einheitsbrei ausschaut, aber "boa realistisch!", dann werden die Leute wohl erst erkennen dass das keine "bessere Grafik" ist.
Rasterisierung ist in jeder Hinsicht die flexiblere Rendering-Variante, Raytracing würde die Möglichkeiten viel zu sehr einschränken. Als Ergänzung (etwa per Raytracing im Shader, wo es ja heutzutage schon viele Techniken dazu gibt), lass ich's mir ja einreden.
Tigerchen
2007-12-30, 08:18:57
Nicht nur meiner Sicht.
DIe Berechnungen von Intel gehen von einer perfekt vorsortierten Dreiecksmenge aus die von einem Rasterizer und einem Raytracer komplett dargestellt werden müssen.
Das ist bei Spielen nun aber völlig realitätsfern. Je mehr sich in dem Spiel bewegt desto weniger kannst du vorsortieren. Auf der anderen Seite wirft kein Spiel alle Dreiecke die in einem Spiel vorkommen einfach auf die GPU. Da wird auf Objektebene schon fleißig verworfen. Das machen zwar derzeit noch die CPUs es ist aber denkbar das diese Stufe der Rasterpipeline irgendwann auch noch in die GPUs wandert, Mit der D3D10 predication haben wir ja schon erste Anzeichen dafür.
Es geht ja auch um etwas völlig anderes was nichts mit 3D Technik zu tun hat. Es geht um den Absatz von hochpreisigen Prozessoren. Schließlich haben wir einen Punkt erreicht an dem der Masse der Anwender ein Modell in mittlerer, ja sogar unterer Preislage reicht. Mit Raytrcing soll sicher gestellt werden daß die teuer entwickelten X-Kern CPU`s auch im Spiele PC der Zukunft gebraucht wird.
Ein Paradigmenwechsel aus einer höchst fragwürdigen Motivation heraus.
@Tigerchen
Warum schreibst du deine Beiträge eigentlich alle in blauer Schrift?
_DrillSarge]I[
2007-12-30, 10:53:54
Das bei Crysis ist übrigens nicht vom Rasterizing limitiert. Die Shadowmap könnte auch ohne weiteres mit den aufgehobenen Objekten gerendert werden. Entweder war das eine Designentscheidung oder es ist einfach ein Bug bzw. ein fehlendes Feature.
man hat es einfach vergessen. genauso wie man vergessen hat, den charakteren mehr als einen schatten zu verpassen. zudem richtet sich der schatten entweder nach der nächsten lichtquelle oder (meistens) nach der stärksten (zB sonne/ festgelegtes globales), sowas sieht auch ziemlich nach "fehlendem feature" aus. wirkt zB gleich am anfang ziemlich befremdlich, wo diese rote signalfackel am strand liegt und der schatten genau zur fackel hin zeigt.
@ts: kauf dir doom3 + addon. da kannste mit dem grabber kisten und steine sowie gegner hochheben und rumwerfen und alle haben schatten ;)
Aquaschaf
2007-12-30, 11:06:21
Nur ein Schatten pro Charakter dürfte eine Designentscheidung sein. Weitere Shadowmaps wären nicht umsonst zu haben und bei dem relativ aufwändigem Verfahren das Crysis für Soft Shadows gebraucht ist es gut möglich dass das Spiel damit endgültig zu langsam auf jeder erhältlichen Hardware laufen würde.
Vielleicht sollte es mal einen Grundlagenartikel über Schatten bei Echtzeitgrafik geben. IMHO ein recht interessantes Thema und es ließe sich so aufarbeiten dass man auch ohne großartige Fachkentnisse etwas mehr darüber lernen kann wieso Schatten so aussehen wie sie aussehen und woher die typischen Artefakte stammen.
nomadhunter
2007-12-30, 11:30:24
Irgendeine Berechtigung hat Raytracing schon, und je mehr man sich dem Fotorealismus näher, desto mehr glaube ich, dass Raytracing verwendet werden wird. Wenn auch anfänglich nur als Ergänzung einer ansonsten Rasterization-basierten Engine. Irgendwann wird es einfach zu kompliziert, alle Arten von Schatten, Spiegelungen, Reflexionen u.s.w. zu faken und es ist einfacher, gleich auf Raytracing zu setzen. Davon sind wir aber vermutlich noch viele Jahre entfernt. Momentan ist es wesentlich sinnvoller, Rasterization zu verwenden und mit genügend (fake oder nicht ist eigentlich egal) Effekten zu erweitern, so dass man ein Raytracing-ebenbürtiges Ergebnis mit weniger Performanceverbrauch erzielt.
Beim Software-Rendering von statischen Szenen sind dagegen Raytracing-Verfahren heute schon Standard (alternativ zu oder kombiniert mit Radiosity). Bei den dortigen Bildern/Szenen, die teilweise tatsächlich fotorealistisch sind, kommt man mit Rasterization nicht mehr weiter. Da solche Bilder auf aktuellen CPUs aber noch Stunden zum Rendern brauchen, wird noch einige Zeit vergehen, bis derartige Bilder in Echtzeit möglich sind.
I[;6149537']man hat es einfach vergessen. genauso wie man vergessen hat, den charakteren mehr als einen schatten zu verpassen. zudem richtet sich der schatten entweder nach der nächsten lichtquelle oder (meistens) nach der stärksten (zB sonne/ festgelegtes globales), sowas sieht auch ziemlich nach "fehlendem feature" aus. wirkt zB gleich am anfang ziemlich befremdlich, wo diese rote signalfackel am strand liegt und der schatten genau zur fackel hin zeigt.
Und genau solche Sachen können bei Raytracing gar nicht passieren.
Man kann weder etwas vergessen, noch werden andere Lichtquellen einfach ignoriert.
Vielleicht sollte es mal einen Grundlagenartikel über Schatten bei Echtzeitgrafik geben. IMHO ein recht interessantes Thema und es ließe sich so aufarbeiten dass man auch ohne großartige Fachkentnisse etwas mehr darüber lernen kann wieso Schatten so aussehen wie sie aussehen und woher die typischen Artefakte stammen.
Das ist ne gute Idee, wer erklärt sich bereit so einen Artikel für 3dcenter zu schreiben?
Ich kann es leider nicht.
Tigerchen
2007-12-30, 12:30:36
@Tigerchen
Warum schreibst du deine Beiträge eigentlich alle in blauer Schrift?
Aus dem selben Grund ich ein blaues Auto fahre und einen vorwiegend blaue Teppiche habe.
ScottManDeath
2007-12-30, 12:53:41
Irgendeine Berechtigung hat Raytracing schon, und je mehr man sich dem Fotorealismus näher, desto mehr glaube ich, dass Raytracing verwendet werden wird. Wenn auch anfänglich nur als Ergänzung einer ansonsten Rasterization-basierten Engine. Irgendwann wird es einfach zu kompliziert, alle Arten von Schatten, Spiegelungen, Reflexionen u.s.w. zu faken und es ist einfacher, gleich auf Raytracing zu setzen. Davon sind wir aber vermutlich noch viele Jahre entfernt. Momentan ist es wesentlich sinnvoller, Rasterization zu verwenden und mit genügend (fake oder nicht ist eigentlich egal) Effekten zu erweitern, so dass man ein Raytracing-ebenbürtiges Ergebnis mit weniger Performanceverbrauch erzielt.
Beim Software-Rendering von statischen Szenen sind dagegen Raytracing-Verfahren heute schon Standard (alternativ zu oder kombiniert mit Radiosity). Bei den dortigen Bildern/Szenen, die teilweise tatsächlich fotorealistisch sind, kommt man mit Rasterization nicht mehr weiter. Da solche Bilder auf aktuellen CPUs aber noch Stunden zum Rendern brauchen, wird noch einige Zeit vergehen, bis derartige Bilder in Echtzeit möglich sind.
Und warum sind Pixar z.B. nach der Ausnahme Cars wieder davon abgekommen Raytracing für ihre Autos zu nutzen, und nutzen wie eh und je einen Rasterierer nach Reyes?
Und warum sind Pixar z.B. nach der Ausnahme Cars wieder davon abgekommen Raytracing für ihre Autos zu nutzen, und nutzen wie eh und je einen Rasterierer nach Reyes?
Die wollen Geldsparen.
Die Serverfarmen kosten mit Raytracing mehr Geld.
Aquaschaf
2007-12-30, 13:50:58
Was wieder zu einem Punkt führt der schon in anderen Threads mehrfach gebracht wurde: es gibt keinen Grund warum Echtzeitgrafik nicht eine sehr ähnliche Entwicklung durchmachen sollte wie solche die offline berechnet wird. Und auch mit den viel komplexeren Effekten und Beleuchtungsmodellen die dort verwendet werden lohnt es sich nicht Raytracing außerhalb von ein paar Spezialfällen Rasterization vorzuziehen.
nomadhunter
2007-12-30, 14:59:12
Und warum sind Pixar z.B. nach der Ausnahme Cars wieder davon abgekommen Raytracing für ihre Autos zu nutzen, und nutzen wie eh und je einen Rasterierer nach Reyes?
Ich hab von statischen Szenen gesprochen, bei denen Fotorealismus je nach dargestelltem Objekt schon möglich ist. Pixars Comicgrafik ist (natürlich nicht ungewollt) noch Dimensionen vom Fotorealismus entfernt.
Mayhem
2007-12-30, 15:51:14
um fair zu bleiben sollte man schon softwarerasterization mit raytracing gegenüberstellen. da sieht's dann schon nicht mehr so dolle für's rastern aus. und man kann mit raytracing natürlich all das an fakes machen, was man beim rastern macht.
mischverfahren lohnen sich IMHO nicht.
reduziert man die "genauigkeit" des KD-tree durch wählen einer schnelleren heuristik kann man seinen aufbau enorm beschleunigen um raytracing für dynamische szenen tauglich zu machen ohne dabei allzu viele kompromisse beim renderspeed zu machen.
Raytracing als Allheilmittel - und das noch dazu im Spielezusammenhang (im wissenschaftlichen Zusammenhang, etwa für Visualisierungszwecke, ließe ich's mir ja noch einreden) - nervt mich langsam. Wieso erkennt keiner dass für "gute Grafik" eher der künstlerische Input wichtig ist, und dass "gute Grafik" meistens einen einzigartigen Look bedeutet, der mal realistisch, mal weniger realistisch sein kann?
Wenn dank Raytracing mal jedes Spiel fad wie Einheitsbrei ausschaut, aber "boa realistisch!", dann werden die Leute wohl erst erkennen dass das keine "bessere Grafik" ist.
wieso sollte das nicht alles auch mit raytracing möglich sein? es ist halt nur mal so, dass die meisten sachen, die mit raytracern gemacht sind halt von irgendwelchen informatikstudenten gemacht sind. das die nicht alle hochbegabte designer sind, dürfte klar sein.
meistens nimmt man den content von irgendwelchen games die 4 jahre alt sind und raytraced diesen.
Aquaschaf
2007-12-30, 16:52:29
um fair zu bleiben sollte man schon softwarerasterization mit raytracing gegenüberstellen. da sieht's dann schon nicht mehr so dolle für's rastern aus.
Siehe Offline-Rendering, siehe computeranimierte Filme. Rasterization ohne spezialisierte Hardware ist trotzdem um Welten effizienter als würde man für alles Raytracing zu verwenden.
Die wollen Geldsparen.
Die Serverfarmen kosten mit Raytracing mehr Geld.
Was ist denn das für nen Blödsinn? CPU ist CPU.
tokugawa
2007-12-30, 17:22:12
wieso sollte das nicht alles auch mit raytracing möglich sein? es ist halt nur mal so, dass die meisten sachen, die mit raytracern gemacht sind halt von irgendwelchen informatikstudenten gemacht sind. das die nicht alle hochbegabte designer sind, dürfte klar sein.
meistens nimmt man den content von irgendwelchen games die 4 jahre alt sind und raytraced diesen.
Du verstehst nicht. Ich meine den Renderstil an sich, also etwa Non-Photorealistic Rendering und viele Variationen davon. Da schießt man sich mit Raytracing ins Knie.
Rooter
2007-12-30, 17:29:26
Man kann sich selber und die Gegner darin spiegeln.
Das kann die normale Rendertechnik nicht.
Die spiegelt maximal die statische Welt, aber nicht den Gegner, der sich darin bewegt. Bei Doom 3 ist dieses Verhalten übrigens durch einen 2. Raum hinter dem Spiegel gefakted, d.h. man muß es erst ins Level künstlich einbauen, und Gratis bekommt man dieses Feature auch nicht.
Gefaket oder nicht, das konnte doch schon Duke Nukem 3D... :ulol:
Am besten wäre natürlich die Vorteile beider Welten zu verbinden, wie auch im Fazit des Artikels von Beyond3D steht. Ansonsten: Ich will Real-Time Global Illumination... :tongue:
Was ist denn das für nen Blödsinn? CPU ist CPU.Ich vermute er meint das der Rechnenaufwand pro Bild höher ist und das kostet natürlich Geld.
MfG
Rooter
Fragman
2007-12-30, 17:32:16
das man raytracing irgendwann mal verwendet mag moeglich sein, nur eben nicht in naher oder mittlerer zukunft. beim offline rendering wird immernoch so oft es geht mit raster gerendert. das AO bei pirates 2 und 3 hat man zb ueber eine aus dem nvidia gems book entliehene raster technik realisiert, einfach weil es 3 mal schneller war und das hat man bis dahin auch nur ueber RT gemacht. was man auch nicht vergessen darf, RT kostet mehr speicher, deutlich mehr speicher als raster. man ist bei den spielen mittlerweile sehr weit was man an qualitaet liefern kann, in RT kann man das einfach so nicht machen in echtzeit.
koennte man eigentlich einen kombi chip bauen der raster und RT beschleunigt ohne 2 chips auf einer karte zu haben, was ja wieder mehr geld kosten wuerde?
ollix
2007-12-30, 18:15:37
Ich vermute er meint das der Rechnenaufwand pro Bild höher ist und das kostet natürlich Geld.Warum sollte man denn den Mehrpreis pro Bild Daheim ausgeben wollen?
Mayhem
2007-12-30, 20:07:14
Du verstehst nicht. Ich meine den Renderstil an sich, also etwa Non-Photorealistic Rendering und viele Variationen davon. Da schießt man sich mit Raytracing ins Knie.
in deiner kernaussage ging es darum, dass raytracing-look immer gleich aussehen MUSS. das habe ich kritisiert, sonst nichts. über die effizienz ein bestimmtes aussehen zu erreichen könnte man jetzt wohl ewig diskutieren. mich nervt es halt, wenn die leute immer raytracing verteufeln nur weil es -angeblich- langsamer als ein rasterizer ist.
dabei kommt es eigentlich auf das anwendungsgebiet (renderauflösung vs. geometriedetails) an. und die geometrie steigt halt momentan schneller als die auflösung...
P.S. der gast war ich.
Mayhem
2007-12-30, 20:13:31
Siehe Offline-Rendering, siehe computeranimierte Filme. Rasterization ohne spezialisierte Hardware ist trotzdem um Welten effizienter als würde man für alles Raytracing zu verwenden.
jain. kommt wie gesagt drauf an, was man erreichen will. filme müssen AFAIK in auflösungen von etwa 16000x10000 pixel gerendert werden. das ist natürlich ziemlich hart für'n raytracer. da muss es sich auch von den polygonen her lohnen.
stell dir mal vor man würde 2x2 pixel rendern bei 100 million polygone, was wäre da wohl um welten schneller?
ich bin mir auch nicht sicher, ob die allerneusten erkenntnisse des KD-tree-rebuild schon in bisheriger kommerzieller software eingeflossen sind. das könnte natürlich auch ein grund für das ablehnen von raytracing bei pixar sein. schliesslich macht dies ja den mamutanteil an zeit bei dynamischen szenen aus.
Was ist denn das für nen Blödsinn? CPU ist CPU.
Wenn man keine Ahnung hat, einfach mal die...
10mal mehr CPU-Zeit kostet entsprechend mehr.
Fragman
2007-12-30, 20:56:26
naja, filme werden in 2k gerendert, fuer imax vermute ich mal 4k, weiss da aber nichts genaues. 16k rendern waer viel zu hoch, der aufwand enorm und er stuende in keinem verhaeltnis zum ergebnis. beim digitalen kino hat man sich ja auf 4k geeinigt, diese aufloesung ist schon sehr viel, die contenterstellung allein dafuer wird schon mehr arbeit erfordern. ;)
Ah, deswegen hat die Umstellung auf digitales Kino seit ca 1999 angedauert.
Die Menge an gerenderten Filmen ist aber verschwindend gering, sodass das nicht der Grund war. Es sind eher die enormen Kosten für die Projektoren die weder für die Kinobetreiber noch für die Zuschauer merklich was bringt.
Raytracing ist so teuer weil es nunmal viel mehr Zeitaufwand bedeutet. Die Filme werden übrigens mit mindestens 64x FSAA gerendert (nicht so sehr wegen Kanten, als mehr wegen des Aliasings das durch die Materialien entstehen kann), beim Rasterisieren ist die Auflösung nicht das große Problem... anders beim Raytracing. Die Objekte werden dabei bei Pixar auf mindestens 2 Poly/Pixel tesseliert (mit curved surfaces pipapo), das ist echt nicht das wahre für Raytracing.
Warum sollte man denn den Mehrpreis pro Bild Daheim ausgeben wollen?
Warum sollte man ihn überhaupt ausgeben wollen?
beim Rasterisieren ist die Auflösung nicht das große Problem... anders beim Raytracing.
Blödsinn. Fließt bei beiden Algorithmen linear in die Rechenzeit ein.
Die Objekte werden dabei bei Pixar auf mindestens 2 Poly/Pixel tesseliert (mit curved surfaces pipapo), das ist echt nicht das wahre für Raytracing.
Große Polygonzahlen sind eigentlich gerade was für Raytracing. Trotzdem ist Reyes schneller als Raytracing.
Warum sollte man ihn überhaupt ausgeben wollen?
Qualität <-> Preis
Blödsinn. Fließt bei beiden Algorithmen linear in die Rechenzeit ein.
Sozialdefizit!
btw. Informier dich weshalb Raytracer mit der Auflösung skalieren und rasterizer nicht.
Große Polygonzahlen sind eigentlich gerade was für Raytracing. Trotzdem ist Reyes schneller als Raytracing.
Informier dich wie schlecht adaptiv tesselierte Surface (was durch 2Poly/Pixel impliziert wird) mit Raytracing skalieren.
Qualität <-> Preis
Auch Blödsinn. Das bisschen an minimal besseren Reflexionen rechtfertigt noch nicht den szenenweiten Einsatz von Raytracing. Und dort wo's wirklich was bringt wird's nur teilweise eingesetzt (Autoreflexionen bei Cars).
Mit der Rechenzeit die für das Raytracing draufgeht mit praktisch keinem Bildqualitätsgewinn für 99% des Films kann man definitiv besseres anfangen.
Und genau so sieht's auch beim Online-Rendering aus, egal was Intel uns weismachen will.
btw. Informier dich weshalb Raytracer mit der Auflösung skalieren und rasterizer nicht.
Ich bin sehr informiert. Und es stimmt einfach nicht. Es ist beides mal ein linearer Einfluss, was auch total trivial ersichtlich ist.
Informier dich wie schlecht adaptiv tesselierte Surface (was durch 2Poly/Pixel impliziert wird) mit Raytracing skalieren.
Das stimmt auch nicht. Raytracing skaliert logarithmisch mit der Polygonanzahl bei einer statischen Szene, Rasterisierung linear.
Ich glaube du solltest dich mal besser informieren.
Fragman
2007-12-30, 21:36:40
der umstieg auf digitales kino haelt ja immernoch an. ich mein damit nicht das zeigen der digitalen version, sondern einen standard der bei 4k liegt. die aktuellen digitalen projektionen sind eh nur 2k soweit ich weiss, wie gesagt, cgi wird in 2k produziert aktuell. dieser 4k digital cinema standard, ich weiss gar nicht wie weit die jetzt eigentlich sind, ob der standard nun schon steht oder noch nicht. die umruestkosten sind da natuerlich ein enorme bremse, mal eben 150.000 euro oder mehr pro kinosaal ausgeben geht nicht mal so nebenbei. das mal eben OT. ;)
mal zu den realistischen reflektionen die ja immer angefuehrt werden. man benutzt auch beim RT tricks wos nur geht. sehr weiche reflections kann man sehr einfach faken ohne das man es sieht. diese bilder aus der gta RT demo sind mitnichten realistisch. auch bei glas hat man weiche reflections, mach sowas mal in echtzeit, glaub nicht das es geht ohne tricks. mal davon abgesehen das auch hier fresnel reflections zu rendern waeren, was man vielleicht noch hinbekommen koennte.
Mayhem
2007-12-30, 21:44:27
Die Filme werden übrigens mit mindestens 64x FSAA gerendert ...
ok, das könnte es dann halt auch sein. hab das mit den 16k glaub ich irgendwo bei virtueller auflösung von 35mm analogfilm aufgeschnappt. 2K verwundert mich jetzt aber doch. das ist ja grade mal homestandard
Auch Blödsinn.Wieder das Sozialdefizit.
Das bisschen an minimal besseren Reflexionen rechtfertigt noch nicht den szenenweiten Einsatz von Raytracing....deswegen wird es wohl auch nur an den Stellen eingesetzt wo es benötigt wird.
Und dort wo's wirklich was bringt wird's nur teilweise eingesetzt (Autoreflexionen bei Cars).Du bist sicherlich nicht derjenige bei Pixar der Kosten vs Nutzen zu entscheiden hat, somit ist das eine "Blödsinnige" Aussage, weil du es nicht weisst wann der Aufpreis es "bringt".
Ich bin sehr informiert. Und es stimmt einfach nicht. Es ist beides mal ein linearer Einfluss, was auch total trivial ersichtlich ist.
Das stimmt auch nicht. Raytracing skaliert logarithmisch mit der Polygonanzahl bei einer statischen Szene, Rasterisierung linear.
statische Szene vs adaptiv tesselierte polys. Impliziert, dass du mal wieder "Blödsinn" einmischt. Rede zum Thema.
Ich glaube du solltest dich mal besser informieren.
Wie der Rest deines Redens, 50% Glauben und 50% Halbwissen, und das jubelst du den Leuten hier unter.
Informier dich erst.
Rede dann zur Sache.
Unterlass deine diffarmierenden Ausrufe.
dann reden wir weiter.
...deswegen wird es wohl auch nur an den Stellen eingesetzt wo es benötigt wird.
So what? Raytracing ist eben nicht das Allzweckallheilmittel als das es hier dargestellt wird. Was anderes sage ich doch gar nicht.
Du bist sicherlich nicht derjenige bei Pixar der Kosten vs Nutzen zu entscheiden hat, somit ist das eine "Blödsinnige" Aussage, weil du es nicht weisst wann der Aufpreis es "bringt".
Ich weiß nur, dass es sich in so gut wie allen Fällen bisher nicht gelohnt hat. Und über die Renderqualität von Pixar-Filmen kann man ja wohl kaum mecker.
statische Szene vs adaptiv tesselierte polys. Impliziert, dass du mal wieder "Blödsinn" einmischt. Rede zum Thema.
In dem Punkt hast du wohl recht habe ich überlesen.
Die Auflösung spielt trotzdem immer noch bei beiden Renderalgorithmen linear rein.
Wie der Rest deines Redens, 50% Glauben und 50% Halbwissen, und das jubelst du den Leuten hier unter.
Nö tu ich nicht. Ich habe Praxiserfahrung mit beiden Renderalgorithmen. Wenn auch weniger mit Raytracing. Aber soviel dass ich dort mal einen KD-Tree-Tracer implementiert habe.
Informier dich erst.
Ich bin informiert.
Unterlass deine diffarmierenden Ausrufe.
Komm du mal von deinem hohen Ross runter. Wenn du vernünftig reden willst melde dich an.
der umstieg auf digitales kino haelt ja immernoch an. ich mein damit nicht das zeigen der digitalen version, sondern einen standard der bei 4k liegt. die aktuellen digitalen projektionen sind eh nur 2k soweit ich weiss, wie gesagt, cgi wird in 2k produziert aktuell. dieser 4k digital cinema standard, ich weiss gar nicht wie weit die jetzt eigentlich sind, ob der standard nun schon steht oder noch nicht. die umruestkosten sind da natuerlich ein enorme bremse, mal eben 150.000 euro oder mehr pro kinosaal ausgeben geht nicht mal so nebenbei. das mal eben OT. ;)
Ich weiss, OT, aber ich wollte den Grund von Digikino und Renderingfilmen nicht so stehen lassen ;)
Wenn ich mich recht Entsinne werden die Filme intern bei Pixar usw. wohl noch ein wenig besser Aufgelöst gerendert, weil danach bei der umrechnung auf kleinere Formate die Qualität zu sehr leiden würde.
mal zu den realistischen reflektionen die ja immer angefuehrt werden. man benutzt auch beim RT tricks wos nur geht. sehr weiche reflections kann man sehr einfach faken ohne das man es sieht. diese bilder aus der gta RT demo sind mitnichten realistisch. auch bei glas hat man weiche reflections, mach sowas mal in echtzeit, glaub nicht das es geht ohne tricks. mal davon abgesehen das auch hier fresnel reflections zu rendern waeren, was man vielleicht noch hinbekommen koennte.
Ich glaube mit weichen reflektionen meinst du sowas wie "Diffuse Reflections" wie z.B. wenn man sehr flach auf eine Lederoberfläche schaut und dann die reflektionen der Umgebung verschwommen sieht. Falls ja, dann ist es in der Tat mit das Aufwendigste was es beim Raytracen gibt, weit aufwendiger als z.B. Radiosity und es gibt kaum eine möglichkeit das zu Cachen weil es Blickwinkelabhängig ist. Tricks sind dann verschwommene Cubemaps, die nutzt man dann ebenfalls für "weiche" refraktionen wie z.B. bei Milchglas.
ok, das könnte es dann halt auch sein. hab das mit den 16k glaub ich irgendwo bei virtueller auflösung von 35mm analogfilm aufgeschnappt. 2K verwundert mich jetzt aber doch. das ist ja grade mal homestandard
Du musst bei Filmen aber auch davon ausgehen, dass sie mit extrem hohen FSAA sind ;D. Ab einer gewissen Entfernung sieht du einfach keine Pixel. Ob du dann von einem Projektor 2 oder nur einen Pixel hast erkennst du nicht und Aliasing hast du wegen dem FSAA eben garnicht. 4k Braucht man also eigentlich nicht und deswegen war es so schwierig das durchzusetzen. 4k wirst du nur brauchen wenn du mal das Kino mit der größten Leinwalt der Welt machen willst als Marketingblabla... dafür müssen alle Film auch 4k sein.
So what? Raytracing ist eben nicht das Allzweckallheilmittel als das es hier dargestellt wird. Was anderes sage ich doch gar nicht.Du hast allererst nur gesagt.
Was ist denn das für nen Blödsinn? CPU ist CPU.Nur weil DU es nicht verstanden hast.
Ich weiß nur, dass es sich in so gut wie allen Fällen bisher nicht gelohnt hat. Und über die Renderqualität von Pixar-Filmen kann man ja wohl kaum mecker.Scheinbar hat es sich für "Cars" gelohnt.
Die Auflösung spielt trotzdem immer noch bei beiden Renderalgorithmen linear rein.Das ist weiterhin eine Milchmänchenrechnung. Bei Raytracern (und besonders bei statischen Szenen, also dem gebiet wo alle vorteile Liegen) liegt 99.99% der rechenleistung in abhängigkeit zur Auflösung. Beim rasterisieren sind es weit weniger, besonders bei sehr kleinen Polygonen, denn die Setup-Kosten hauen hier ordentlich in die Rechenzeit.
Hast du nun wie Pixar 2Poly/pixel (die du erst durch aufwendiges tesselieren erhalten hast, nich linear!) sind die Kosten maginal zu prüfen, welche der 64subpixel von welchem poly verdeckt werden. Auch das anschliessende Shading ist nicht so Aufwendig, dass es die Rechenzeit linear steigern würde.
Nö tu ich nicht. Ich habe Praxiserfahrung mit beiden Renderalgorithmen. Wenn auch weniger mit Raytracing. Aber soviel dass ich dort mal einen KD-Tree-Tracer implementiert habe.
Das klingt nach nicht gerade viel, eher wie nach einem Semester Raytracing an einer Uni.
Ich bin informiert.Nicht ausreichend um gleich bei jedem anderen Blödsinn zu schreien. Manche machen das viel ausgiebiger und professioneller als einen KD-tree zu implementieren und wenn man dann liest wie du denen das Wort "Blödsinn" um die Ohren haust, kann man die eigene Fresse nicht halten!
Komm du mal von deinem hohen Ross runter.Indem ich nicht mehr bei jedem Quote mindestens einmal "Blödsinn" schreie, und schon garnicht ohne jegliche Begründung einfach nur um zu Diffarmieren... ach ne, warte, das war ja dein Ross.
Ich glaube wir reden aneinander vorbei.
Du redest primär von Offline-Rendering und ich primär von Realtime-Rendering. Bei Micropolygonen hast du sicher recht, dass die Setupkosten bei Rasterisieriung viel kosten und deshalb die Auflösung nicht mehr so viel kostet relativ dazu.
Und nein, es ist nicht nur "ein Semester Raytracing an einer Uni". Nur interessiert mich primär Realtime-Rendering und da sehe ich die Vorteile von Raytracing einfach nicht.
Und ja du hast recht, ich sollte meinen Ton manchmal mäßigen vor allem ggü Gästen. Das liegt aber daran, dass diese hier zu 90% als Trolle auftreten. Entschuldige bitte.
Deshalb bin ich auch immer dafür, dass man als Gast sich wenigstens einen Namen gibt.
Bietchiebatchie
2007-12-31, 00:56:57
statische Szene vs adaptiv tesselierte polys.
Kannst du mal bitte erklären, was an der "adaptiv tesselierten Polys" so schwer für Raytracing sein soll?
Ganz im Gegenteil sollte es eigentlich bei Raytracing deutlich leichter fallen, den benötigten Detailgrad für das aktuelle Objekt zu bestimmen, da man ja direkt die Entfernung Kamera<->Objekt kennt. Da brauch man keinen (völlig aus der Luft gegriffenen ;) )Ansatz mit zwei Polys pro Pixel.
Das ist weiterhin eine Milchmänchenrechnung. Bei Raytracern (und besonders bei statischen Szenen, also dem gebiet wo alle vorteile Liegen) liegt 99.99% der rechenleistung in abhängigkeit zur Auflösung. Beim rasterisieren sind es weit weniger, besonders bei sehr kleinen Polygonen, denn die Setup-Kosten hauen hier ordentlich in die Rechenzeit.
Hast du nun wie Pixar 2Poly/pixel (die du erst durch aufwendiges tesselieren erhalten hast, nich linear!) sind die Kosten maginal zu prüfen, welche der 64subpixel von welchem poly verdeckt werden. Auch das anschliessende Shading ist nicht so Aufwendig, dass es die Rechenzeit linear steigern würde.
Hmm, ich dachte eigentlich, (das zumindest bei Spielen) das Shading der mittlerweile der deutlich zeitintensivere Schritt beim Rastern sei.
Das klingt nach nicht gerade viel, eher wie nach einem Semester Raytracing an einer Uni.
Was wäre für dich denn viel? Leute, die sich ernsthaft und dauerhaft professionell mit Raytracing auseinandergesetzt haben, wirst du auf diesem Planeten nicht in rauen Massen finden; dafür ist das ganze bisher zusehr Nischentechnologie.
Also ist ein Semester Raytracing durchaus eine ordentliche Grundlage auf der man diskutieren kann.
Desweitern kann ich nur Coda zustimmen: Registrier dich doch bitte; das ganze dauert ungefähr 20s ...
tokugawa
2007-12-31, 02:13:18
Das klingt nach nicht gerade viel, eher wie nach einem Semester Raytracing an einer Uni.
Je nachdem, wie dieses Semester genutzt wird, kann das durchaus in einer Kompetenz in den oberen 5-10% in diesem Forum resultieren.
Meine Güte, kein Wunder dass ich teilweise wochenlang keine Lust hab dieses Forum zu besuchen; meistens nach irgendwelchem himmelschreiendem Blödsinn und unbelehrbaren Leuten (ist jetzt nicht auf dich bezogen, wohl aber auf den Ursprungsposter).
anddill
2007-12-31, 02:18:09
Je nachdem, wie dieses Semester genutzt wird, kann das durchaus in einer Kompetenz in den oberen 5-10% in diesem Forum resultieren.
Meine Güte, kein Wunder dass ich teilweise wochenlang keine Lust hab dieses Forum zu besuchen; meistens nach irgendwelchem himmelschreiendem Blödsinn und unbelehrbaren Leuten (ist jetzt nicht auf dich bezogen, wohl aber auf den Ursprungsposter).
Der Ursprungspost war ja auch nur ein Trollversuch. An dem hab ich einfach mal getestet, ob man mit einem sinnvollen Titel da was draus machen kann. Scheint ja auch zumindest teilweise geklappt zu haben.
Kannst du mal bitte erklären, was an der "adaptiv tesselierten Polys" so schwer für Raytracing sein soll?
Ganz im Gegenteil sollte es eigentlich bei Raytracing deutlich leichter fallen, den benötigten Detailgrad für das aktuelle Objekt zu bestimmen, da man ja direkt die Entfernung Kamera<->Objekt kennt. Da brauch man keinen (völlig aus der Luft gegriffenen ;) )Ansatz mit zwei Polys pro Pixel. IMO kann das ein Raytracer auch nicht besser.
Klar kannst du die Tesselierung ohne Polygone und mehr 'mathematisch' angehen. Aber auch dabei wirst du absolut keine der sonstigen Vorteile von Raytracern haben, wie z.B. eine log n Komplexität aufgrund der Unterteilung des Raumes. Schau dir dazu einfach mal an wie z.B. Metaballs geraytraced werden.
Hmm, ich dachte eigentlich, (das zumindest bei Spielen) das Shading der mittlerweile der deutlich zeitintensivere Schritt beim Rastern sei.Ja, weil man bei Spielen das Shading benutzt um Polygone zu sparen. Filme gehen oft den Weg, dass alles bis in den Warnsinn tesseliert wird, dafür sind die Shader dann nicht viel Komplexer als in Spielen.
Was wäre für dich denn viel? Leute, die sich ernsthaft und dauerhaft professionell mit Raytracing auseinandergesetzt haben, wirst du auf diesem Planeten nicht in rauen Massen finden; dafür ist das ganze bisher zusehr Nischentechnologie.
Also ist ein Semester Raytracing durchaus eine ordentliche Grundlage auf der man diskutieren kann.Es geht nicht darum, ob er ein Guru ist, denn selbst dann würde ich es scheisse finden, wenn er sich wie ne Diva aufspielt und erstmal "Blödsinn" ruft. Das ist doch keine Art eine soziale Diskusion zu führen. Die Leute antworten dann doch nichtmal mehr wenn er sie so anfährt, weil er meint das Recht dazu zu haben wegen dem Grundkurs Raytracing.
Desweitern kann ich nur Coda zustimmen: Registrier dich doch bitte; das ganze dauert ungefähr 20s ...
Ich bin angemeldet, mir geht's nur wie
Meine Güte, kein Wunder dass ich teilweise wochenlang keine Lust hab dieses Forum zu besuchen...
Denn wenn du dich normal unterhälst und es gibt jemanden der dich immer so von der Seite mit Zwischenrufen ohne Eklärung (und vielleicht nur weil er es nicht/falsch verstanden hat) provoziert, bist du seltener hier. Es gibt genug Foren wo man sich ohne ihn normal unterhalten kann. Und ohne, dass man beweisen muss den längeren zu haben, nur damit man in ruhe gelassen wird. (Natürlich sag ich auch mal was falsches, aber niemand muss mir deswegen gleich so kommen).
Bietchiebatchie
2008-01-03, 16:41:04
IMO kann das ein Raytracer auch nicht besser.
Klar kannst du die Tesselierung ohne Polygone und mehr 'mathematisch' angehen. Aber auch dabei wirst du absolut keine der sonstigen Vorteile von Raytracern haben, wie z.B. eine log n Komplexität aufgrund der Unterteilung des Raumes.
Also um mal kurz etwas konkreter zu werden:
Sagen wir mal wir haben ein Objekt o in n Tesselationsinstanzen vorliegen. Dann haben alle diese Tesselationsinstanzen eine gemeinsame Bounding-Umbebung b (ein Quader, eine Kugel, (...) in dem/der alle n Instanzen liegen). Logischerweise liegt nun b in unserem kd-Tree(o.ä). Wenn ein Strahl nun auf b trifft, wählt man abhängig von der bisherigen Länge des Strahls (~ Abstand Kamera-Objekt) die benötigte Instanz des Objekts gewählt. Da für jede Instanz nochmal ein kd-Tree vorliegt, bleibt man logischerweise immer noch in log n Laufzeit... Wo ist das Problem?
Schau dir dazu einfach mal an wie z.B. Metaballs geraytraced werden.
Ich hatte bis vor ein paar Minuten keine Ahnung was Metaballs sind, hab allerdings grad über zwei Artikel drübergeflogen; so rein spontan würde ich ja behaupten, dass man das in den meisten Fällen schon irgendwie in log n prügeln kann :)
Ja, weil man bei Spielen das Shading benutzt um Polygone zu sparen. Filme gehen oft den Weg, dass alles bis in den Warnsinn tesseliert wird, dafür sind die Shader dann nicht viel Komplexer als in Spielen.
Aso, wusste ich nicht; klingt aber vernünftig.
Es geht nicht darum (...) gleich so kommen).
Hmm, ok ist nachvollziehbar, aber denk doch mal an die armen Leser, die immer x Gäste voneinander unterscheiden müssen ;)
Jules
2008-01-06, 07:31:49
Du verstehst nicht. Ich meine den Renderstil an sich, also etwa Non-Photorealistic Rendering und viele Variationen davon. Da schießt man sich mit Raytracing ins Knie.Nicht wirklich?
Model ich ein Haus realistisch und gebe dessen Fenstern die Eigenschaft (Refl+Refr.) und sonstigen Oberflächen irgendwwelche Eigenschaften die dies realistischer machen, dann klar.
Jedoch bleibt es immer noch dem Designer überlassen, ob er den Fenstern Refl.+Refr. verpasst, anstatt eine bllaue Oberfläche mit 20% Opazität dahinzu platzieren.
Er brauch das Haus nicht wegen dem Renderer realistisch zu modeln und wird diesem daher einfach einen Comiclook geben. Figuren größere Köpfe verpassen usw.
Ich bin mir zugegeben nicht sicher inwieweit das ein und ausschalten von Schatten/Reflektion/Refraktion in Spielen dann möglich wäre, jedoch denke ich mal, das man entscheiden kann, ob und welche Objekte/Flächen die obengenannten "Features" wirklich nutzen. Somit kann ich dann doch auch feststellen, was für eine Belichtung in einer Szene wirken soll.
Und falls sowas wie Radiosity mal tatsächhlich einzug erhält, bleibt der Comiclook weiterhin enthalten, nur viel weicher und schöner;)
Trotzdem wird es noch einige Zeit dauern bis Teilbereiche per RT abgedeckt werden. Ich bin mir heute schon sicher, das RT sich auch wenn die Mehrleistung vorhanden ist, nicht ausschließlich genutzt wird.
Wie schon von einigen hier erwähnt, nur Teolbereiche wo es Sinnvoll zum Einsatz komen kann.
Ich persönlich sehe da keine großen Vorteile für die Zukunft, ich bin so zufrieden mit den optischen Leckerbissen die es gibt und wenn man sich SPiele wie Crysis, Uncharted, Mass Effect, Alan Wake (tolles volumtrisches Licht/Schatten) oder auch Ratched and Clank anschaut, sollte man froh sein so weit zu sein, anstatt Dinge zu missen, die man gar nicht vermissen will;) Is schon spät;)
Peace
tokugawa
2008-01-06, 07:51:45
Nicht wirklich?
Model ich ein Haus realistisch und gebe dessen Fenstern die Eigenschaft (Refl+Refr.) und sonstigen Oberflächen irgendwwelche Eigenschaften die dies realistischer machen, dann klar.
Jedoch bleibt es immer noch dem Designer überlassen, ob er den Fenstern Refl.+Refr. verpasst, anstatt eine bllaue Oberfläche mit 20% Opazität dahinzu platzieren.
Er brauch das Haus nicht wegen dem Renderer realistisch zu modeln und wird diesem daher einfach einen Comiclook geben. Figuren größere Köpfe verpassen usw.
Ich bin mir zugegeben nicht sicher inwieweit das ein und ausschalten von Schatten/Reflektion/Refraktion in Spielen dann möglich wäre, jedoch denke ich mal, das man entscheiden kann, ob und welche Objekte/Flächen die obengenannten "Features" wirklich nutzen. Somit kann ich dann doch auch feststellen, was für eine Belichtung in einer Szene wirken soll.
Und falls sowas wie Radiosity mal tatsächhlich einzug erhält, bleibt der Comiclook weiterhin enthalten, nur viel weicher und schöner;)
Trotzdem wird es noch einige Zeit dauern bis Teilbereiche per RT abgedeckt werden. Ich bin mir heute schon sicher, das RT sich auch wenn die Mehrleistung vorhanden ist, nicht ausschließlich genutzt wird.
Wie schon von einigen hier erwähnt, nur Teolbereiche wo es Sinnvoll zum Einsatz komen kann.
Ich persönlich sehe da keine großen Vorteile für die Zukunft, ich bin so zufrieden mit den optischen Leckerbissen die es gibt und wenn man sich SPiele wie Crysis, Uncharted, Mass Effect, Alan Wake (tolles volumtrisches Licht/Schatten) oder auch Ratched and Clank anschaut, sollte man froh sein so weit zu sein, anstatt Dinge zu missen, die man gar nicht vermissen will;) Is schon spät;)
Peace
Klar geht's "irgendwie", aber es bleibt dabei: bei NPR schießt man sich mit Raytracing ins Knie, bzw mit Kanonen auf Spatzen.
NPR ist nicht nur Comiclook, sondern auch Dinge wie Hatching/Sketching und Dinge wie "Attention-Based Focus". Also Dinge wo es absolut egal ist, wie ein Lichtstrahl in einer Szene sich ausbreitet.
Denk außerdem an Dinge wie diverse Fullscreen und/oder Postprocess-Effekte (viele NPR-Algorithmen sind letztendlich Fullscreen-Effekte) - das sind klassische Rasterization-Algorithmen. Die müsste es auf jeden Fall weiterhin geben, insofern wird Raytracing niemals Rasterization ersetzen, sondern höchstens ergänzen.
Jules
2008-01-06, 23:00:31
Klar geht's "irgendwie", aber es bleibt dabei: bei NPR schießt man sich mit Raytracing ins Knie, bzw mit Kanonen auf Spatzen.
NPR ist nicht nur Comiclook, sondern auch Dinge wie Hatching/Sketching und Dinge wie "Attention-Based Focus". Also Dinge wo es absolut egal ist, wie ein Lichtstrahl in einer Szene sich ausbreitet.
Denk außerdem an Dinge wie diverse Fullscreen und/oder Postprocess-Effekte (viele NPR-Algorithmen sind letztendlich Fullscreen-Effekte) - das sind klassische Rasterization-Algorithmen. Die müsste es auf jeden Fall weiterhin geben, insofern wird Raytracing niemals Rasterization ersetzen, sondern höchstens ergänzen.
Seh ich ja genauso;)
Wollt nur erwähnen, das mittel zum Realismus, nicht gleich realistisch sind, sondern es immer noch am Designer liegt was er draus macht.
Fullscreen Effekte sind natürlich für einen GameDesigner ein ähnliches Werkzeug wie der insel für einen Küstler am Brett.
Illusionen sind nunmal am besten zu erzielen mit Illusionen:D
tokugawa
2008-01-06, 23:16:29
Seh ich ja genauso;)
Wollt nur erwähnen, das mittel zum Realismus, nicht gleich realistisch sind, sondern es immer noch am Designer liegt was er draus macht.
Fullscreen Effekte sind natürlich für einen GameDesigner ein ähnliches Werkzeug wie der insel für einen Küstler am Brett.
Illusionen sind nunmal am besten zu erzielen mit Illusionen:D
Ganz genau!
Für mich ist das "realistischste" Spiel z.B. immer noch Deus Ex, trotz der technisch grauenhaften Grafik. Aber irgendwie hat das Art Design doch was, und das Gameplay ist sowieso über jeden Zweifel erhaben. Ich kann in Deus Ex mehr eintauchen als in jedem Gears of War dieser Welt.
Vielleicht sollte man "Realismus" nicht zum Ideal machen sondern den Begriff "Authentizismus". Etwas muß authentisch wirken, damit man sich hineinversetzen kann. Realismus ist für die Immersion relativ wurscht - ich mein, realistischere "Grafik" als in diversen Hollywood-Blockbustern geht ja wohl kaum, trotzdem kann einen so ein Film unglaublich fadisieren. Wenn man sich in etwas hineinversetzen kann, ist das Authentizität, nicht Realismus.
Ich finde halt dass Rasterisierung ganz einfach den Designern und Programmierern viel mehr Freiheit liefert als das realtiv eng gestrickte Raytracing. Und genau deswegen haben Designer (ob Grafik oder Game Designer) viel mehr Möglichkeiten hier an der Authentizität zu drehen.
Aber als Ergänzung hab ich nichts gegen Raytracing (das gibt's ja sowieso heut schon selektiv - es gibt ja Raytracing/Raycasting-Shader), auch wenn ich der Meinung bin dass es einige eher technisch nicht so versierte Leute hier im Forum als das Allheilmittel sehen das es aber niemals sein kann.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.