ollix
2006-01-24, 12:15:15
Hi,
Mich würde interessieren, was aktuell die größten Unterschiede zwischen Online und Offline Rendering sind. Seit der Einführung von programmierbaren Shadern in die Grafikkarte hat das Onlinerendering in der Hinsicht "aufgeholt" verglichen mit z.B. Renderman-Shadern. Mich würde aber interessieren, wo heute noch die Hauptunterschiede liegen. Wie ich das verstanden habe, kann man beim Online-Rendering nicht so ohne weiteres mit einem Pixel/Fragment, die Farbe eines anderen an anderer Stelle beeinflussen. D.h. ich sehe nur mein aktuelles Element - wenn ich das umgehen will, muß ich eben Hilfsmittel wie RenderToTexture einsetzen, ist das beim offline Rendering anders? Habe ich theoretisch Zugriff auf die gesamte Szene? Dazu eben noch Einschränkungen in der Rendergenauigkeit, während ich beim Offline Rendering mit genügend Resourcen theoretisch mit beliebiger Genauigkeit rendern könnte? Was fehlt denn jetzt z.B. dem Online Rendering (neben Sachen wie Füllrate/Bandbreite) um so schöne Sachen zu implementieren, wie man sie vom Offline-Rendering kennt (Global Illumination, Photon Mapping, echtes Subsurface Scattering, etc.). Ich weiß zwar, daß es auch Echtzeit Raytracing auf Grafikkarten gibt, wobei dies ja auch mehr "getrickst" ist, oder; bzw. die Grafikkarten eigentlich nicht für diese Rendermodelle 'gebaut' sind? Aber was fehlt dafür konkret?
Mich würde interessieren, was aktuell die größten Unterschiede zwischen Online und Offline Rendering sind. Seit der Einführung von programmierbaren Shadern in die Grafikkarte hat das Onlinerendering in der Hinsicht "aufgeholt" verglichen mit z.B. Renderman-Shadern. Mich würde aber interessieren, wo heute noch die Hauptunterschiede liegen. Wie ich das verstanden habe, kann man beim Online-Rendering nicht so ohne weiteres mit einem Pixel/Fragment, die Farbe eines anderen an anderer Stelle beeinflussen. D.h. ich sehe nur mein aktuelles Element - wenn ich das umgehen will, muß ich eben Hilfsmittel wie RenderToTexture einsetzen, ist das beim offline Rendering anders? Habe ich theoretisch Zugriff auf die gesamte Szene? Dazu eben noch Einschränkungen in der Rendergenauigkeit, während ich beim Offline Rendering mit genügend Resourcen theoretisch mit beliebiger Genauigkeit rendern könnte? Was fehlt denn jetzt z.B. dem Online Rendering (neben Sachen wie Füllrate/Bandbreite) um so schöne Sachen zu implementieren, wie man sie vom Offline-Rendering kennt (Global Illumination, Photon Mapping, echtes Subsurface Scattering, etc.). Ich weiß zwar, daß es auch Echtzeit Raytracing auf Grafikkarten gibt, wobei dies ja auch mehr "getrickst" ist, oder; bzw. die Grafikkarten eigentlich nicht für diese Rendermodelle 'gebaut' sind? Aber was fehlt dafür konkret?