Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia demonstriert Ray-Tracing auf der GPU
dildo4u
2008-08-14, 19:19:29
Nvidia demonstriert Ray-Tracing auf der GPU
http://s5.directupload.net/images/080814/p9x2grfr.jpg
http://s8.directupload.net/images/080814/yxtucqoa.jpg
Wie Nvidia mitteilte, zeige man auf der aktuell stattfindenden Siggraph den "ersten rein auf GPUs basierenden" Ray-Tracer.
Gezeigt wird eine Techdemo mit einem Sportwagen, die laut Nvidia bis zu zwei Millionen Polygone beinhalte. Die Renderleistung würde dabei linear skalieren. Die Auflösung der Szene würde 1.920 x 1.080 betragen, die Demo zeige Ray-Tracing-Schatten, Reflektionen und Refraktionen sowie ein kantengeglättetes Bild. Berechnet wird die Demo von einem Quadro Plex 2100 D4 mit vier GPUs
http://www.pcgameshardware.de/aid,655878/News/Nvidia_demonstriert_Ray-Tracing_auf_der_GPU/
AnarchX
2008-08-14, 19:26:08
Sicherlich keine schlechte Präsentation, aber mit dem was AMD auf Basis der OTOY Engine zeigen konnte (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=421676), die auch auf Raytracing basiert, kann das eher nicht mithalten bzw. ist bei weitem nicht so beeindruckend.
Aber bei dem hohen Anteil an Raster-HW in aktuellen NV-GPUs ist man wohl auch besser beraten Raytracing nicht ganz so stark zu unterstützen.
Spasstiger
2008-08-14, 19:28:23
Aktuelle Rennspiele sehen subjektiv nicht schlechter aus und rendern diese gefühlte Qualität per Rasterisierung auch auf einer einzelnen Performance-GPU.
Die Lackeffekte in Need for Speed Pro Street finde ich z.B. nicht schlechter und da spiegelt sich auch die Umgebung.
Nvidia demonstriert Ray-Tracing auf der GPU
http://s5.directupload.net/images/080814/p9x2grfr.jpg
http://s8.directupload.net/images/080814/yxtucqoa.jpg
http://www.pcgameshardware.de/aid,655878/News/Nvidia_demonstriert_Ray-Tracing_auf_der_GPU/
sieht sehr gut aus! ich freue mich schon auf spiele mit ray tracing! :biggrin:
nutel
2008-08-14, 19:30:55
nvidia braucht unbedingt bessere artists für ihre demos :wink:
dildo4u
2008-08-14, 19:31:36
Die Lackeffekte in Need for Speed Pro Street finde ich z.B. nicht schlechter .
Sind sie aber sher wahrscheinlich zumindest lange nicht so genau.Da wird noch verdammt viel gefaktet.Sofern man davon bei einem Grafikeffekt sprechen kann. ;) Interersanter ist die Lineare Skalierung mit Multichip Lösungen.Und wahrscheinlich gibts keine der heutigen Multichip Probleme wie Heute mit SLI und Crossfire mit dieser Rendertechnik.
Spasstiger
2008-08-14, 19:35:50
Sind sie aber sher wahrscheinlich zumindest lange nicht so genau.Da wird noch verdammt viel gefaktet.Sofern man davon bei einem Grafikeffekt sprechen kann. ;)
Ja, wenn man bei Pro Street mit der Lupe rangeht, sieht man, dass manche Bereiche der Spiegelung unschärfer sind als andere, während man beim Raytracing natürlich überall eine gestochen scharfe Spiegelung hat.
Aber im Spielbetrieb sieht beides gut genug aus.
/EDIT: Für Spiele ist Raytracing bislang keine Alternative, weil man mit Rasterisierung weniger Hardwareaufwand betreiben muss und dennoch ein ähnlich gut wirkendes Bild erhält. 100% exakte Spiegelungen braucht ein Spieler einfach nicht.
Aber im professionellen Bereich, z.B. in Designabteilungen, könnte sich GPU-beschleunigtes Raytracing durchaus etablieren. Dort spielt es nämlich schon eine Rolle, wo sich was im Lack wie stark spiegelt. ;)
dildo4u
2008-08-14, 19:37:52
Ja naja das gilt ja Heute für fast jede Verbesserung im Bereich Grafik.Ein echten Optiksprung wirds nicht mher geben egal mit welcher Rendertechnik.
Spasstiger
2008-08-14, 19:45:30
Interessant wäre es zu sehen, wie ein menschlicher Kopf samt Haut und Haaren heute mit Echtzeit-Raytracing aussieht. Human Head Raytraced sozusagen. Das ist imo viel spannender als irgendwelche lackierten Metall- und Plastikobjekte, die man ja schon sehr gut hinbekommt.
AnarchX
2008-08-14, 19:50:25
Interessant wäre es zu sehen, wie ein menschlicher Kopf samt Haut und Haaren heute mit Echtzeit-Raytracing aussieht. Human Head Raytraced sozusagen. Das ist imo viel spannender als irgendwelche lackierten Metall- und Plastikobjekte, die man ja schon sehr gut hinbekommt.
Schau mal hier, aber vorher Kinnlade abpolstern... ;)
http://www.youtube.com/watch?v=Bz7AukqqaDQ (HQ auswählbar)
bzw. Artikel dazu:
http://www.techcrunch.com/2008/07/09/otoy-developing-server-side-3d-rendering-technology/
bzw. Thread wo darüber diskutiert wird:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6718168#post6718168
deekey777
2008-08-14, 19:52:51
Schön und gut, aber wieviele Stahlen sind es pro Pixel?
also wenn das nur auf vier G92 (mit ca. 1,5TFlopp) in 1900x1200 Echtzeit läuft, ist das doch mal sehr positiv wie ich finde.
Anarchy-HWLUXX
2008-08-15, 02:38:56
Die 2100er Quadroplex müsste die neue sein mit GT200 Chips und es sind 1920*1080 wie im text erwähnt ...
@Racing Sims - Bei welcher spiegelt sich das Auto auch in den Fensterscheiben der Häuser ?
wusste gar nicht das es schon eine G200 GX2 gibt...
Ja, wenn man bei Pro Street mit der Lupe rangeht, sieht man, dass manche Bereiche der Spiegelung unschärfer sind als andere, während man beim Raytracing natürlich überall eine gestochen scharfe Spiegelung hat.
Aber im Spielbetrieb sieht beides gut genug aus.verwendest du die lupe anstatt brillen im alltag?
/EDIT: Für Spiele ist Raytracing bislang keine Alternative, weil man mit Rasterisierung weniger Hardwareaufwand betreiben muss und dennoch ein ähnlich gut wirkendes Bild erhält. 100% exakte Spiegelungen braucht ein Spieler einfach nicht.
Aber im professionellen Bereich, z.B. in Designabteilungen, könnte sich GPU-beschleunigtes Raytracing durchaus etablieren. Dort spielt es nämlich schon eine Rolle, wo sich was im Lack wie stark spiegelt. ;) dann verstehe ich die aussage, wer eine lupe braucht um etwas zu sehen sieht natürlich keinen unterschied, sorry wenn du optisch so stark behindert bist.
http://www.pcgameshardware.de/screenshots/original/2008/08/Veyron_2560_2x2.jpg
R1dcully
2008-08-15, 08:58:14
verwendest du die lupe anstatt brillen im alltag?
dann verstehe ich die aussage, wer eine lupe braucht um etwas zu sehen sieht natürlich keinen unterschied, sorry wenn du optisch so stark behindert bist.
Ich weiß jetzt nicht warum du ihn so anmachst.:eek:
Fakt ist einfach das es nicht wirklich beeindruckend ist, wenn man im Vergleich die Veruche von anderen Mitbewerbern in den letzten wochen gesehen hat.:cool:
Eher sogar Mies! Auf Krampf spiegelnde Flächen einzubauen und das dann als Toll zu Vermarkten ist keine Kunst.Schau dir den Rest an des Bildes an...
Nimmst du das schicke Auto und die Tollen reflexionen Weg bleibt nix über.
BTW: Schön das sich das auto in den Fensterscheiben spiegelt aber die Scheiben sehen einfach mal Kagge aus!:P
mfg r1dcully
PS: Und das ist nur meine Persönliche Meinung, wenn das für dich die Vollendung ist, dann bitte.
Jeder bevorzugt so seinen Grafikstill. *g*
es ging bei seiner aussage generell um rastern vs. raytracing und was spieler zu brauchen haben und was nicht...
roidal
2008-08-15, 11:58:38
Lässt sich Raytracing jetzt effizienter auf einer GPU oder auf einer CPU berechnen?
AnarchX
2008-08-15, 12:22:14
Lässt sich Raytracing jetzt effizienter auf einer GPU oder auf einer CPU berechnen?
GPU bzw. Streamprozessor generell, denn Raytracing AFAIK braucht bzw. bezieht keinen großen Vorteil aus den heutigen Optimierungen aktueller CPUs, da die Aufgaben eben recht vorhersehbar sind, welchen Vorteil eine CPU eben nicht hat.
Deshalb setzt eben auch Larrabee auf vereinfachte x86-Kerne.
roidal
2008-08-15, 12:33:42
Ist aber nicht so dass Raytracing ziemlich viele conditional branches braucht welche auf der CPU effizienter sind?
AnarchX
2008-08-15, 12:52:20
Ist aber nicht so dass Raytracing ziemlich viele conditional branches braucht welche auf der CPU effizienter sind?
Genaueres dazu werden vielleicht die Experten sagen können.
Aber jedenfalls wenn man sich diverse Vergleiche CPU vs Streamprozessoren @ RT anschaut, dann zeichnet sich doch ab, dass ein SP pro Chipfläche und Verbrauch deutlich mehr Leistung liefert, eine CPU mag vielleicht effizienter mit ihrer Leistung umgehen, aber das ist doch nicht wirklich interessant, wenn sie dafür deutlich mehr Die-Size und Strom benötigt.
In den Dokumenten zu Larrabee (http://softwarecommunity.intel.com/articles/eng/3803.htm) gibt es auch einen aktuellen Vergleich (Seite 12):
4 Core Larrabee @ 1GHz (128GFLOPs SP) = 11,5 FPS
2x Quad Xeon 2.66GHz (85,12GFLOPs) = 12,4 FPS
Und ich muss ja nicht sagen, dass so eine Variante von Larrabee eher in einem IGP zu finden sein wird und entsprechend klein und wenig verbraucht.
roidal
2008-08-15, 13:24:45
Was eine wahrscheinlich noch viel interessantere Frage ist: Warum machen plötzlich alle so einen hype rund um RT? Überall lest man doch das Rasterisierung (abgesehen von ein paar ausnahmen wie eben mehrfachspiegelung) fast die selben Ergebnise liefert wie RT aber dabei weit aus weniger Rechenleistung braucht. Selbst das Argument der weitaus mehr möglichen Polygone zählt da ja fast nicht, da laut Umfrage an Entwickler mehr Polygone erst an vorletzter Stelle der Wunschliste steht. Und selbst wenn man die genauesten Spiegelungen hat, im Spiel selbst beobachtet man die eh nur selten wenn man bei einem Shooter zb. mal eine Pause einlegt um nur die Grafik zu beobachen, im Feuergefecht hat man sowieso nicht die Zeit um Pixelgenaue Spiegelungen zu betrachten, bzw. bei Autorennen die Spiegelungen im Lack zu begutachten, dennoch scheint es plötzlich überall nur noch mehr um RT zu gehen.
IceKillFX57
2008-08-15, 13:32:58
Ich als nVidia liebhaber muss leider zugeben das die ATIs deutlich oder gar überragend ist im gegensatz zur nVidia.
Leider....
Aquaschaf
2008-08-15, 13:43:00
Ist aber nicht so dass Raytracing ziemlich viele conditional branches braucht welche auf der CPU effizienter sind?
CPUs sind bei conditional branches auf ihre branch prediction angewiesen, und die dürfte bei ray tracing eine relativ schlechte Trefferquote haben.
Was eine wahrscheinlich noch viel interessantere Frage ist: Warum machen plötzlich alle so einen hype rund um RT?
Einen latenten Hype um RT gibt es schon seit Ewigkeiten, weil sich irgendwann mal das Missverständnis in einigen Köpfen festgesetzt hat; RT = Realismus.
Ist aber nicht so dass Raytracing ziemlich viele conditional branches braucht welche auf der CPU effizienter sind?
Da Raytracing auf hoher Ebene parallelisieren lässt, kann man die Branches sehr gut durch SMT u.ä. besser in den Griff kriegen als mit OoO.
deekey777
2008-08-15, 14:10:19
Den Hype gibt es seit über zwanzig Jahren, und von diesem Hype will Intel und die Mitläufer profitieren.
Für Spiele-Entwickler ist der Schwerpunkt die realistische Darstellung von Oberflächen, die Beleuchtung liegt an zweiter Stelle. Und egal ob Rasterizing oder Ray-Tracing: Beide stehen vor den gleichen Herausforderungen, was die Materialshader angeht, und nutzen auch die gleichen Algorithmen zur Darstellung dieser.
Die c't hat anhand von Intels Aussagen eine Schätzung gemacht: Wenn man eine Szene mit 1280x720 und 45 FPS "ray-tracen" und dabei 24 Strahlen pro Pixel haben will, so wird die benötigte Rechenleistung mit 1200 GFLOPS geschätzt. 1200 GLOPS allein fürs Raytracing-Effekte (Spiegelungen, Beleuchtung, Schatten und Lichtbrechungen). Und was ist mit dem Rest? Darüber machen sich nur wenige Gedanken.
IceKillFX57
2008-08-15, 14:27:43
Den Hype gibt es seit über zwanzig Jahren, und von diesem Hype will Intel und die Mitläufer profitieren.
Für Spiele-Entwickler ist der Schwerpunkt die realistische Darstellung von Oberflächen, die Beleuchtung liegt an zweiter Stelle. Und egal ob Rasterizing oder Ray-Tracing: Beide stehen vor den gleichen Herausforderungen, was die Materialshader angeht, und nutzen auch die gleichen Algorithmen zur Darstellung dieser.
Die c't hat anhand von Intels Aussagen eine Schätzung gemacht: Wenn man eine Szene mit 1280x720 und 45 FPS "ray-tracen" und dabei 24 Strahlen pro Pixel haben will, so wird die benötigte Rechenleistung mit 1200 GFLOPS geschätzt. 1200 GLOPS allein fürs Raytracing-Effekte (Spiegelungen, Beleuchtung, Schatten und Lichtbrechungen). Und was ist mit dem Rest? Darüber machen sich nur wenige Gedanken.
naja Quads und RAM kostet sowieso ja fast nix mehr im vergleich zu früher und sinkt ja immer noch vom Preis her...sehe da kein Problem von der Hardware her.
Sogut wie jeder PC Gamer hat ein recht aktuelles System.
deekey777
2008-08-15, 14:38:14
naja Quads und RAM kostet sowieso ja fast nix mehr im vergleich zu früher und sinkt ja immer noch vom Preis her...sehe da kein Problem von der Hardware her.
Sogut wie jeder PC Gamer hat ein recht aktuelles System.
Mein Posting hast du aber nicht gelesen, sondern bloß zitiert?
Um auf 1200 GFLOPS zu kommen, brauchst du sechs Achtkern-Sandies mit 4 GHz.
octra
2008-08-15, 14:50:01
Die Demo sieht schrecklich aus!
RT hin oder her. Solange sie nicht an den aktuellen Standard anschließen können, brauchen sie der Weltöffentlichkeit gar nichts zu zeigen.
deekey777
2008-08-15, 15:08:31
Die Demo sieht schrecklich aus!
RT hin oder her. Solange sie nicht an den aktuellen Standard anschließen können, brauchen sie der Weltöffentlichkeit gar nichts zu zeigen.
Es geht in erster Linie darum, Intel eins auszuwischen.
Dann geht es darum, dass Raytracing auch auf einem reinen Rasterizer möglich ist (in Form von zwei Quadro FX 4700 X2).
Es sieht nicht beeindruckend aus, aber:
Gezeigt wird eine Techdemo mit einem Sportwagen, die laut Nvidia bis zu zwei Millionen Polygone beinhalte. Die Renderleistung würde dabei linear skalieren. Die Auflösung der Szene würde 1.920 x 1.080 betragen, die Demo zeige Ray-Tracing-Schatten, Reflektionen und Refraktionen sowie ein kantengeglättetes Bild. Berechnet wird die Demo von einem Quadro Plex 2100 D4 mit vier GPUs
Dahinter steckt so viel Rechenleistung, was das Aussehen relativiert.
octra
2008-08-15, 15:46:27
Es geht in erster Linie darum, Intel eins auszuwischen.
Was hab ich als Kunde davon? Ich kaufe ihre Hardware, nicht Intel.
In meinen Augen ist es Kindergarten, wenn sie die Demo in erster Linie für Intel "gebastelt" haben.
Ich hab schon einige News Seiten abgeklappert und größtenteils waren die Kommentare enttäuschend. Otto Normalspieler will nicht unbedingt wissen wie lang die Featureliste ist. Ihm geht es um die Optik bei so wenig HW Anforderung wie möglich. Das ist der Clou.
Um NV jetzt nicht ganz dumm stehen zu lassen, sage ich mal, dass es sicherlich interessant ist was sie da zeigen. Aber leider viel zu früh gezeigt. Ich hätte an ihrer Stelle dem Ganzen noch ein paar Monate Reifungsprozess gegeben.
florymonth
2008-08-15, 17:02:04
Was hab ich als Kunde davon? Ich kaufe ihre Hardware, nicht Intel.
In meinen Augen ist es Kindergarten, wenn sie die Demo in erster Linie für Intel "gebastelt" haben.
Sie haben es auch die für die potenziellen Kunden gebastelt.Denen soll mit solchen Demos gezeigt werden,daß Intel keinesfalls über fortschrittlichere/vorteilhaftere Technik verfügt als die Hersteller der jetzigen Grafikkarten.Diesen Eindruck konnte man aber in diversen Foren gewinnen,wo fast alle das geglaubt haben,was Daniel Pohl verzapft hat.
=Floi=
2008-08-15, 17:43:42
die 1200Gflop bringt aber auch eine ATI 4870
Ich denke das ganze ist doch garnichtmehr unrealistisch.
shaderleistung
3870 x 2,5 = 4870
4870 x 2,5 = 5870
5870 x 2,5 = 6870 mit theoretischen 5000 shadereinheiten @ 1ghz würde das 10gflop entsprechen
Ich denke da ist genug leistung vorhanden für ki, physik, shader und zig andere berechnungen
san.salvador
2008-08-15, 17:46:04
Und was passiert mit den Texturen?
AnarchX
2008-08-15, 17:50:38
Und was passiert mit den Texturen?
Die werden unter Raytracing doch auch von den ALUs "bearbeitet".
Naja, Raytracing im Bezug auf Spielegrafik ist imo eher gewagt, denn die hohe Genauigkeit braucht man nicht wirklich, solang es noch an anderen Stellen happert und das weiß auch Intel, weswegen Larrabee trotzdem noch TMUs besitzt.
RaumKraehe
2008-08-15, 17:55:51
Was eine wahrscheinlich noch viel interessantere Frage ist: Warum machen plötzlich alle so einen hype rund um RT? Überall lest man doch das Rasterisierung (abgesehen von ein paar ausnahmen wie eben mehrfachspiegelung) fast die selben Ergebnise liefert wie RT aber dabei weit aus weniger Rechenleistung braucht. Selbst das Argument der weitaus mehr möglichen Polygone zählt da ja fast nicht, da laut Umfrage an Entwickler mehr Polygone erst an vorletzter Stelle der Wunschliste steht. Und selbst wenn man die genauesten Spiegelungen hat, im Spiel selbst beobachtet man die eh nur selten wenn man bei einem Shooter zb. mal eine Pause einlegt um nur die Grafik zu beobachen, im Feuergefecht hat man sowieso nicht die Zeit um Pixelgenaue Spiegelungen zu betrachten, bzw. bei Autorennen die Spiegelungen im Lack zu begutachten, dennoch scheint es plötzlich überall nur noch mehr um RT zu gehen.
Weil Intel mehr Prozessoren verkaufen will. Da kommt Raytracing gerade richtig. ;)
=Floi=
2008-08-15, 18:13:55
da reicht aber die rechenleistung nicht so wirklich. Zumindest bei den aktuellen architekturen.
RaumKraehe
2008-08-15, 20:34:31
da reicht aber die rechenleistung nicht so wirklich. Zumindest bei den aktuellen architekturen.
Das ist dabei vollkommen egal. Intel hat das Problem das Rechenleistung für 0815-Anwendungen ausreichend vorhanden ist. Zumindest für die nächsten 5 Jahre bis das neue Mircosoft-BS raus gekommen ist. Dann brauchen wir sicher wieder alle neue Rechner. ;)
Mit Raytracing kann man da sehr gut weitermachen. Auch wenn es angepasste CPUs (GPUs) sind, skaliert Raytracing mit der Anzahl der verbauten Prozessoren (Logikeinheiten) und das heißt eine GraKa mit 16 Prozessoren ist besser als eine mit 8 und die 32 CPU GraKa schlägt sowieso alles.
Mehr verkaufte Prozessoren bedeutet aber auch mehr Gewinn. ;)
Deshalb glaube ich, persönlich nicht daran das Raytracing in Games wirklich eine Zukunft hat. Wird die Szene unendlich Komplex müsste auch die Anzahl der Prozessoren ins unendliche steigen um noch alles berechnen zu können. Rasterizing ist wie Hollywood. Uns wird halt eine Welt vorgegaukelt und wir sind zufrieden damit. Für mich muss ein Spiel nur Zeigemäß aussehen aber nicht photorealistisch funktionieren.
=Floi=
2008-08-15, 20:44:18
intel sollte aber eher mal die software supporten, dann wird es auch mit den prozessoren. Wenn mehr normale software multicore fähig wäre, dann wäre auch die verbreitung von quadcore noch höher. Sozusagen ein "TWIMTBP" programm von intel für normale software.
Nichteinmal browser unterstützen multicore und die liste lässt sich ewig fortsetzen. Genau hier könnte intel ansetzen und mal richtig viel geld in den support von software stecken! (das wäre eigentlich einen eigenen thread wert) Intel hätte das geld und es muß eben erst einmal die basis für multicore geschaffen werden.
solange die user nicht nach software verlangen die multithreaded ist warum sollten die hersteller sie programmieren?
bisher hat man einfach den takt gesteigert und damit die software beschleunigt. die programmierer haben sich nicht mehr um geschwindigkeit gekümmert weil die hardware eh immer schneller wurde.
jetzt erhöhen die hardware hersteller den takt nicht mehr und es liegt wieder an den software herstellern intelligenter zu programmieren und dinge parallel zu erledigen.
das browser multicore nicht unterstützen ist ein typisches beispiel warum es höchste zeit ist der software industrie in den hintern zu treten. zumindest für jeden tab sollte es zumindest einen eigenen thread geben. es liegt also nicht an intel und amd...
browser multithreaded? was soll das bringen?
deekey777
2008-08-15, 22:00:50
http://s08.idav.ucdavis.edu/luebke-nvidia-case-studies.pdf
CUDA ray tracer (ab Seite 15):
Auf der Seite 16 wird erklärt, wie die Pipeline funktioniert: OpenGL für Texturen und Vertex-Zeug, CUDA für Raytracing und wieder OpenGL fürs Postprocessing.
browser multithreaded? was soll das bringen?
ein tab kann nicht mehr den ganzen browser zum stehen bringen! :mad::hammer:
multithreading bringt da absolut gar nichts... wird nur langsamer ;)
da hilft nur code optimieren :)
multithreading bringt da absolut gar nichts... wird nur langsamer ;)
da hilft nur code optimieren :)
Dann sieh Multithreading als Code Optimierung an.
AnarchX
2008-08-15, 22:33:41
http://s08.idav.ucdavis.edu/luebke-nvidia-case-studies.pdf
CUDA ray tracer (ab Seite 15):
Auf der Seite 16 wird erklärt, wie die Pipeline funktioniert: OpenGL für Texturen und Vertex-Zeug, CUDA für Raytracing und wieder OpenGL fürs Postprocessing.
Also doch ein hybrider Ansatz, welcher der NV-HW wohl um einiges besser schmeckt bzw. schmecken würde, wenn die Devs doch entsprechend hohe Genauigkeit für bestimmte Objekte benötigen würden.
Und deshalb reichen auch wohl auch die "nur" 1.4TFLOPs der 2*4700X2 für die 30FPS bei 1080p.
Also ich finde es nicht schlimm, dass die Demo im Vergleich zu heutigen Spielen eher altbacken aussieht, denn man weiß ja, dass die Rechenleistung woanders verbraten wird. Außerdem geht es ja nicht um grafische Effekthascherei, sondern um Genauigkeit. Ebenso ist es eher ein "Proof of Concept", so nach dem Motto: "Guckt mal, wir können das auch".
Mal ne allgemeine Frage zu Raytracing:
Kann man die Szenen nicht einfach mit "weniger Genauigkeit" berechnen, damit mehr Leistung für andere Aufgaben übrig bleibt?
RaumKraehe
2008-08-15, 23:23:25
Mal ne allgemeine Frage zu Raytracing:
Kann man die Szenen nicht einfach mit "weniger Genauigkeit" berechnen, damit mehr Leistung für andere Aufgaben übrig bleibt?
Natürlich kann man das. Das Bild im Eingangsposting würde sonst auch nicht so künstlich aussehen, da auch hier schon Genauigkeit in Form von Features eingespart wurde. Ich möchte mal behaupten das jeder bessere 3D-Artist das Bild photorealistisch hin bekommt wenn er denn genug Rechenzeit hätte.
Ansonsten steigt natürlich die "Genauigkeit" mit der Auflösung, der Art und Weise wie die Streuung von Licht simuliert wird, wie genau die Schatten berechnet werden und wie hoch und tief der Grad der möglichen Reflektionen ist enorm an frisst aber auch entsprechend Leistung.
tombman
2008-08-15, 23:29:10
Dahinter steckt so viel Rechenleistung, was das Aussehen relativiert.
4x "G92" chip ist aber nicht gerade sooviel Rechenleistung....
Und deshalb reichen auch wohl auch die "nur" 1.4TFLOPs der 2*4700X2 für die 30FPS bei 1080p.
Spasstiger
2008-08-15, 23:35:13
4x "G92" chip ist aber nicht gerade sooviel Rechenleistung....
Die Demo lief auf dem neuen Quadro Plex mit 4*GT200, der ab Herbst erhältlich ist.
Auf 4*GT200 kann man jedes aktuelle Rennspiel in 2560x1600 mit 16xS-AA flüssig spielen, wenn man mal über Mikroruckler hinwegsieht.
tombman
2008-08-15, 23:38:06
Die Demo lief auf dem neuen Quadro Plex mit 4*GT200, der ab Herbst erhältlich ist.
Beweislink?
Das würde ja bedeuten, daß es eine G200(b)GX2 geben wird, oder hat der neue Quadro Plex 8 slots? (4x Doppelstock G200)
Spasstiger
2008-08-15, 23:42:44
Beweislink?
Das würde ja bedeuten, daß es eine G200(b)GX2 geben wird, oder hat der neue Quadro Plex 8 slots? (4x Doppelstock G200)
Ok, wir lagen beide falsch:
http://www.nvidia.com/object/io_1218520087945.html
The Quadro Plex D2 will be featured in technology demonstrations of real-time NVIDIA GPU-based raytracing, large scale CAD modeling and 4K HD power walls at SIGGRAPH 2008 in Los Angeles, August 12-14, 2008 (NVIDIA Booth 554).
The new Quadro Plex 2200 D2 VCS houses two Quadro FX 5800 GPUs, providing 480 NVIDIA CUDA Parallel Computing Processor cores and 8GB of graphics memory.
Also 2*GT200.
Dementsprechend kommt man mit 4*G92 von der Rechenleistung her natürlich auch hin.
Spasstiger
2008-08-16, 02:27:53
Ich hab mal ein paar Screenshots in Need for Speed Pro Street angefertigt, um die Lackspiegelungen zu demonstrieren, die heute mit Rasterisierung problemlos in Echtzeit möglich sind.
Die Screenshots sind alle in 1920x1200 mit 4xAA und ingame-AF gemacht, was meine Radeon HD2900 Pro (also eine Mainstream-Grafikkarte) noch flüssig rendern kann. Für die Vorschau hier habe ich die Bilder auf 1280x800 runtergerechnet, weil in dieser Auflösung auch die Raytracing-Bilder im Startposting gepostet wurden.
http://www.abload.de/img/nfs1_smalleyc.jpg
Originalauflösung: http://www.abload.de/img/nfs1bmh.jpg
http://www.abload.de/img/nfs2_smallgl8.jpg
Originalauflösung: http://www.abload.de/img/nfs2nhb.jpg
http://www.abload.de/img/nfs3_smallg2k.jpg
Originalauflösung: http://www.abload.de/img/nfs3wyn.jpg
Zweifellos sieht das Raytracing-Ergebniss besser aus zumal die Raytracing-Demo auch ein detailreicheres Fahrzeugmodell verwendet. Aber die Raytracing-Demo braucht auch ein Vielfaches an Rechenleistung für die gleiche Auflösung und ob sie wirklich flüssig läuft, ist auch noch ungewiss.
Ich begnüge mich derweil mit meiner günstigen Grafikkarte und unrealistischen Spiegelungen.
Fotorealistisch finde ich übrigens weder die Nvidia-Demo noch NfS Pro Street. ;)
AnarchX
2008-08-16, 09:13:35
Ok, wir lagen beide falsch:
http://www.nvidia.com/object/io_1218520087945.html
Also 2*GT200.
Dementsprechend kommt man mit 4*G92 von der Rechenleistung her natürlich auch hin.
Du hast nicht richtig gelesen:
Berechnet wird die Demo von einem Quadro Plex 2100 D4 mit vier GPUs
NVIDIA Quadro GPU Quadro FX 4700 X2
# NVIDIA Quadro GPUs 4
Total Frame Buffer 4 GB (1GB/GPU)
http://www.nvidia.com/object/product_quadroplex_2100_d4_us.html
Takten tut die 4700X2 mit 550MHz (1350MHz SD).
AnarchX
2008-08-16, 09:37:20
Die Zukunft der 3D-Grafik von David Kirk (Chefwissentschaftler @NV) (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kolumne_die_zukunft_3d-grafik/)
Hier geht er speziell nochmal auf Raytracing ein.
Chris Lux
2008-08-16, 10:47:00
das ist so ein ding mit den reflectionen. in der wirklichkeit spiegel wenig so perfekt. selbst wenn es das tut, der mensch ist sehr gut darin zu sehen 'da sind reflektionen' aber weniger gut darin zu sehen 'die sind ja physikalisch korrekt'. beides zusammen ergibt, dass man auch mit guten fakes sehr weit kommt um realismus nachzuahmen. generell ist es mit aktellen rasterizer basierten techniken einfacher diffusere reflektionen zu bekommen. denn mit raytracing hieße das eine riesen menge von strahlen zu generieren und verfolgen. ich glaube carmack hat es auch mal gesagt, wenn man an aktuelle effekte, wie sie in aktuellen spielen benutzt werden rankommen will muss man eine menge von strahlen verfolgen, was dann wieder nicht echtzeitfähige performance nach sich zieht.
ich glaube carmack hat es auch mal gesagt, wenn man an aktuelle effekte, wie sie in aktuellen spielen benutzt werden rankommen will muss man eine menge von strahlen verfolgen, was dann wieder nicht echtzeitfähige performance nach sich zieht.
Da es sich im Prinzip bei beiden Verfahren nur um die Intersectionbestimmung von Strahlen und Geometrie handelt, muss man mit Raytracing im Höchstfall genau so viele Strahlen schießen, wie man mit Rasterisierung Pixel gerendert hat, um exakt das selbe Ergebnis zu erhalten
Problematisch wirds allerdings dann bei AA...
Chris Lux
2008-08-16, 13:33:52
falsch.
rasterisierung funktioniert ganz anders als ray tracing.
bsp. weiche schatten. mittels ray tracing muss man meherer schattenstrahlen verfolgen, was das ganze komplexer macht. selbst die großen offline renderer wie mental ray etc sind rasterizer, die nur strahlen verfolgen, wenn es explizit verlangt wird. schatten werden (soweit ich es weiss) auch dort über shadow maps generiert.
falsch.
rasterisierung funktioniert ganz anders als ray tracing.
Festgefahrene Ansichten...
Wer kann mich dran hindern ne Shadowmap per Raytracing zu erstellen und genauso zu benutzen, wie man es normal mit Rasterisierung macht?
Aquaschaf
2008-08-16, 14:04:30
Für Spiele-Entwickler ist der Schwerpunkt die realistische Darstellung von Oberflächen, die Beleuchtung liegt an zweiter Stelle.
Wie kommst du zu dieser Behauptung? Schattendarstellung ist doch z.B. einer der Punkte an dem sich nach wie vor Entwickler den Kopf zerbrechen.
deekey777
2008-08-16, 14:10:22
Wie kommst du zu dieser Behauptung? Schattendarstellung ist doch z.B. einer der Punkte an dem sich nach wie vor Entwickler den Kopf zerbrechen.
MS hat eine Umfrage unter Spiele-Entwicklern durchgeführt, und auf der ersten Stelle war der Wunsch nach der besseren Darstellung von Materiallen/Oberflächen, dann kommt die Beleuchtung, Animation, Geometrie und Dynamik. Quelle: c't 15/2008, Seite 156 (158)*.
*Es ist ein Artikel über Raytracing, dessen Vor- und Nachteile sowie die Frage, ob Raytracing in Spielen Sinn macht.
Wie will man Oberflächen besser darstellen, ohne die Geometrie und Beleuchtung zu berücksichtigen?
Spasstiger
2008-08-16, 14:53:12
Du hast nicht richtig gelesen:
In welcher der englischen Nvidia-Meldungen steht dieser deutsche Satz? Eine News-Seite kann auch mal falsch liegen und wenn Nvidia auf der Homepage ganz klar den D2 in Verbindung mit der Raytracing-Demo bringt, wird das auch so sein.
AnarchX
2008-08-16, 15:04:08
In welcher der englischen Nvidia-Meldungen steht dieser deutsche Satz? Eine News-Seite kann auch mal falsch liegen und wenn Nvidia auf der Homepage ganz klar den D2 in Verbindung mit der Raytracing-Demo bringt, wird das auch so sein.
At three bounces, performance is demonstrated at up to 30 frames per second (fps) at HD resolutions of 1920x1080 for an image-based lighting paint shader, ray traced shadows, and reflections and refractions running on four next-generation Quadro GPUs in an NVIDIA Quadro Plex 2100 D4 Visual Computing System (VCS).
http://techreport.com/discussions.x/15317
Aber offenbar zeigt man es auch auf dem D2, wie dein Link zu NV es sagt.
Auf den zwei GT200 dürfte es wohl nochmal um einiges besser laufen, da hier die MUL auch für CUDA zur Verfügung steht und nur 2 GPUs untereinader kommunizieren müssen.
http://techreport.com/discussions.x/15317
Aber offenbar zeigt man es auch auf dem D2, wie dein Link zu NV es sagt.
Auf den zwei GT200 dürfte es wohl nochmal um einiges besser laufen, da hier die MUL auch für CUDA zur Verfügung steht und nur 2 GPUs untereinader kommunizieren müssen.
Meinst du nicht dass der Spaß dann auch so präsentiert worden wäre wenn ein Vorteil bestanden hätte...?
Chris Lux
2008-08-16, 16:21:50
Festgefahrene Ansichten...
Wer kann mich dran hindern ne Shadowmap per Raytracing zu erstellen und genauso zu benutzen, wie man es normal mit Rasterisierung macht?
was soll dann noch der so tolle vorteil von RT sein? ;)
was soll dann noch der so tolle vorteil von RT sein? ;)
Reflektionen? ;)
(ich seh den Vorteil von RT bei dreiecksbasierter Geometrie eh nicht)
Da du aber ja zugibst, dass das normale Schattenverfahren effizienter (weniger Strahlen) sein sollte, kann man als Worstcase immer noch den Fall mit den Shadowmaps annehmen, womit man genau einen Strahl pro Pixel benötigt.
Imo müsste es eigentlich auch bei Raytracing gut machbar sein eine Screenspace Shadowmap zu berechnen (hier hat man immer noch die Effizienz des Raytracings) und die benutzt um Softshadows zu berechnen.
Das Ergebnis müsste dann dem der artefaktfreien Shadowmaps entsprechen, wie jetzt in einem Siggraph Paper vorgestellt wurden.
Chris Lux
2008-08-16, 17:11:27
Reflektionen? ;)
wo wir wieder beim thema von vor einer seite sind ;)
wo wir wieder beim thema von vor einer seite sind ;)
Dann machen wir weiter mit geraytracten Cubemaps. X-D
Ein Problem der "Einfachheit" des Raytracers ist, dass die "komplizierten" Multipassalgorithmen doch schon schöne Spielereien erlauben. Aber auch hier könnte man wieder zB. einen Screenspace Reflectionbuffer bauen und hätte nach nem Blur weiche Reflektionen....
Chris Lux
2008-08-16, 19:03:20
Dann machen wir weiter mit geraytracten Cubemaps. X-D
Ein Problem der "Einfachheit" des Raytracers ist, dass die "komplizierten" Multipassalgorithmen doch schon schöne Spielereien erlauben. Aber auch hier könnte man wieder zB. einen Screenspace Reflectionbuffer bauen und hätte nach nem Blur weiche Reflektionen....
sinnbefreit, da man das dann für jeden pixel/strahl machen müsste.
Fragman
2008-08-17, 01:12:21
mental ray ist ein raytracer dem man nach und nach immer mehr rasterizer effekte beibringt damit die dinge schneller gehen und man nicht unnoetig renderzeit verschleudert fuer berechnungen die auch ohne raytracing genauso gut funktionieren. gerade die shadow maps sind standardmaessig deutlich langsamer als raytraced shadows, solange es einfache schatten sind. bei area lights kommt es drauf an wie gross die streuung ist und wieviel sample man fuer die interpolation braucht damit sie sauber rendern. auch dort koennen area light noch schneller rendern als shadow maps. bei shadow maps braucht man zudem oft eine hohe aufloesung, was wieder speicher kostet. hier sieht man eben das man den shadow type benutzt der am besten fuer den jeweiligen shot ist. bei hair zb sollte man shadow maps nutzen. deshalb verstehe ich auch nicht das man raytracing so hyped. grad die demo von nv enttaeuscht doch auf ganzer linie. crysis sollte man mal mit allen effekten raytracen, da ist dann aber schnell essig mit der performance. ;) ambient occlusion, sss, weiche reflektionen, dispersion und all das, raytraced das mal. selbst in mental ray benutzt man die fake sss shader die auf dem rasterizer beruhen, einfach weil raytracing zu aufwendig ist. fuer collusion detection koennte man vielleicht raytracen, ob das sinn macht kann ich allerdings nicht sagen.
roidal
2008-08-17, 09:14:32
...ich seh den Vorteil von RT bei dreiecksbasierter Geometrie eh nicht...
Welche anderen Möglichkeiten gibt es für Geometrie?
Welche anderen Möglichkeiten gibt es für Geometrie?
Volumetric pixel (Voxel) bieten sich da zum Beispiel an;)
roidal
2008-08-17, 11:39:11
Ah, danke!
DanMan
2008-08-17, 11:50:14
Ich finde ihr verliert hier etwas aus den Augen: Raytracing ist für genaues Rendern, während Spiele einfach nur gut aussehen sollen. Die Technik hier zielt also mMn nicht unbedingt nur auf den Spielemarkt ab.
Chris Lux
2008-08-17, 12:13:36
Ich finde ihr verliert hier etwas aus den Augen: Raytracing ist für genaues Rendern, während Spiele einfach nur gut aussehen sollen. Die Technik hier zielt also mMn nicht unbedingt nur auf den Spielemarkt ab.
ja, aber bis auf bestimmte industrien (automobilbranche fällt mir da als erstes ein) braucht derzeit keiner wirklich ray tracing.
Ich finde ihr verliert hier etwas aus den Augen: Raytracing ist für genaues Rendern, während Spiele einfach nur gut aussehen sollen. Die Technik hier zielt also mMn nicht unbedingt nur auf den Spielemarkt ab.
genaues rendern ist teil des guten aussehens...
DanMan
2008-08-17, 13:56:33
genaues rendern ist teil des guten aussehens...
Nur wenn man nach Realismus strebt. Es gibt aber auch Spiele, die nicht in einer realistischen Welt spielen.
@Chris Lux: Wer es braucht weiß ich nicht. Dürfte aber auch ein Heinne-Ei Problem sein. Wenn es (noch) nicht (praktisch) nutzbar ist, dann verwendets auch keiner. Ähnlich wie bei Veröffentlichung neuer Direct3D Versionen z.B.
Nur wenn man nach Realismus strebt. Es gibt aber auch Spiele, die nicht in einer realistischen Welt spielen.
klar die ganzen spiele im comics style...
Chris Lux
2008-08-17, 14:04:11
@Chris Lux: Wer es braucht weiß ich nicht. Dürfte aber auch ein Heinne-Ei Problem sein. Wenn es (noch) nicht (praktisch) nutzbar ist, dann verwendets auch keiner. Ähnlich wie bei Veröffentlichung neuer Direct3D Versionen z.B.
rasterisierung funktioniert halt einfach effizienter*.
*wenn man genauso culling und beschleunigungsstrukturen nutzt**.
**was man ja tut ;)
Nasenbaer
2008-08-18, 21:08:08
klar die ganzen spiele im comics style...
Es geht darum, dass die Reflektionen nicht 100%ig korrekt sein müssen. Wenn sich das Haus am Straßenrand scheinbar korrekt spiegelt, so reicht das aus. Und ne CubeMap erzeugt diesen Schein sehr gut. Wer bitte erkennt den Unterschied? Und vorallem wen interessiert das, wenn man mit 300 Sachen durch die Stadt brettert?
roidal
2008-08-19, 08:51:16
Es geht darum, dass die Reflektionen nicht 100%ig korrekt sein müssen. Wenn sich das Haus am Straßenrand scheinbar korrekt spiegelt, so reicht das aus. Und ne CubeMap erzeugt diesen Schein sehr gut. Wer bitte erkennt den Unterschied? Und vorallem wen interessiert das, wenn man mit 300 Sachen durch die Stadt brettert?
Na klar brauchen wir 100%ig korrekte Spiegelungen, damit wir sie dann mit MotionBlur wieder verwischen können. :D
Fragman
2008-08-19, 09:54:28
wobei man selbst in hollywood filmen motion blur nicht traced. und motion blur ueber rt zu rendern ist sehr kostspielig was die rechnerpower angeht. wieder ein effekt mehr den man nicht benutzen koennte. hybrid rendering koennte was fuer die zukunft sein, wieso passiert da nichts im echtzeitbereich?
...hybrid rendering koennte was fuer die zukunft sein, wieso passiert da nichts im echtzeitbereich?
Entwickeln die 3DMark Leute nicht gerade ein Spiel welches für bestimmte Effekte Raytracing verwendet?
Es geht darum, dass die Reflektionen nicht 100%ig korrekt sein müssen. Wenn sich das Haus am Straßenrand scheinbar korrekt spiegelt, so reicht das aus. Und ne CubeMap erzeugt diesen Schein sehr gut. Wer bitte erkennt den Unterschied? Und vorallem wen interessiert das, wenn man mit 300 Sachen durch die Stadt brettert?
bei einem quietschbunten arcaderacer mag das zutreffen, bei einer simulation reicht es nicht.
leider werden viele entwickler mit raytracing lauter spiegelkabinette machen anstatt die möglichkeiten für mehr realität einzusetzen.
deekey777
2008-08-19, 16:58:48
bei einem quietschbunten arcaderacer mag das zutreffen, bei einer simulation reicht es nicht.
leider werden viele entwickler mit raytracing lauter spiegelkabinette machen anstatt die möglichkeiten für mehr realität einzusetzen.
Für welche Effekte lohnt sich deiner Meinung nach Raytracing, die nicht mit Rasterizing gelöst werden können.
Exxtreme
2008-08-19, 17:02:34
Für welche Effekte lohnt sich deiner Meinung nach Raytracing, die nicht mit Rasterizing gelöst werden können.
Ich glaube, realistische Nebeleffekte gehen auch mit RT besser. Bei Rasterizing gibt es so hässliche Abstufungen im Nebel.
Chris Lux
2008-08-19, 17:08:45
Ich glaube, realistische Nebeleffekte gehen auch mit RT besser. Bei Rasterizing gibt es so hässliche Abstufungen im Nebel.
BS!
auch mit ray tracing oder ray casting tastest du 'nebel' diskret ab, mehr sample weniger abstufungen oder fortgeschrittene techniken nutzen (bsp. preintegrated volume rendering), was aber auch mit polygonen geht.
Für welche Effekte lohnt sich deiner Meinung nach Raytracing, die nicht mit Rasterizing gelöst werden können.
für alles wenn man es realistisch will.
Spasstiger
2008-08-19, 17:14:02
für alles wenn man es realistisch will.
Bekommt man mit Rasterisierung genauso hin. Die Kunst ist es, die richtige Grenze zu sehen, wo das eine Verfahren effizienter ist als das andere.
Raytracing hat bisher eigentlich nur einen Implementierungsvorteil, weil es ein ganzheitlicher Ansatz ist und nicht so ein Flickenteppich wie die Rasterisierung.
Chris Lux
2008-08-19, 17:14:54
nochmal BS!
realistisch was physikalisch korrekte reflektionen angeht, aber was kann RT bei der beleuchtung usw. anders machen?
für alles wenn man es realistisch will.
Raytracing ist ohne Photon Mapping auf mindestens 3 Wellenlängen mindestens genauso grober Pfusch wie Rasterisierung.
das Argument zieht einfach nicht.
simpler vergleich, schau dich in deiner umgebung um und vergleich es mit einem spiel in dem es um realismus geht.
http://www.abload.de/img/nfs2nhb.jpg
der mast hinterlässt keinen schatten am auto, es sieht komisch aus.
Das geht mit Rasterisierung auch anders. Raytracing ist nicht per-se realistischer. Das ist einfach Unsinn.
Chris Lux
2008-08-19, 17:31:44
simpler vergleich, schau dich in deiner umgebung um und vergleich es mit einem spiel in dem es um realismus geht.
http://www.abload.de/img/nfs2nhb.jpg
der mast hinterlässt keinen schatten am auto, es sieht komisch aus.
simples beispiel:
ich will rechenzeit sparen um echtzeitfähig zu bleiben, verschieße also nur reflektionsstrahlen. und so fehlt auf dem auto der schatten... MIT ray tracing.
nun du...
deekey777
2008-08-19, 17:34:31
für alles wenn man es realistisch will.
Um eine Pelzmütze realistisch darzustellen, brauche ich Raytracing?
rastern ist eine hilfskonstruktion weil die hardware noch nicht schnell genug ist. raytracing gibt es seit 20 jahren, klar mit verbesserungen, damals hat ein amiga für ein bild ein ganzes wochenende gebraucht.
jetzt mit der schnelleren hardware ist es thema für spiele geworden, ich rechne in den nächsten paar jahren mit raytracing in spielen.
rastern ist eine hilfskonstruktion weil die hardware noch nicht schnell genug ist.
Aha. Und warum? Du hast immer noch nichts schlüssiges in die Richtung gebracht.
Raytracing hat auch nicht mehr oder weniger mit der Realtiät zu tun als Rasterisierung, sondern ist einfach nur viel langsamer in fast allen Anwendungsfällen.
Aha. Und warum? Du hast immer noch nichts schlüssiges in die Richtung gebracht.
Raytracing hat auch nicht mehr oder weniger mit der Realtiät zu tun als Rasterisierung, sondern ist einfach nur viel langsamer in fast allen Anwendungsfällen.
es ist einfach schneller etwas fertiges zu laden als es zu berechnen.
Nasenbaer
2008-08-19, 18:17:50
für alles wenn man es realistisch will.
Du weißt schon, dass der Raytracing Algorithmus nicht keinesfalls ie Rendering Gleichung erfüllt und deshalb per Definition nicht realistisch ist? Raytracing (ich meine Whitted Raytracing (http://de.wikipedia.org/wiki/Raytracing#Rekursives_Raytracing) von dem wir hier wohl alle sprechen) ist einzig und allein für ideale Speigelungen und Lichtbrechnungen sehr gut geeignet.
Indirekte Beleuchtung ist mit diesem Verfahren aber nicht möglich aber macht aus meiner Sicht den größten Anteil an einer realtischen Umgebung aus in der keine idealen Spiegelungen zu sehen sind. Und dies ist dermaßen aufwändig zu berechnen, dass korrekte Verfahren (Radiosity, MLT, etc.) mal ebend einige Stunden für ein Frame benötigen. Radiosity kann man für statische Szenen vorberechnen (wie zum Beispiel bei HL2 getan) und dann per LightMaps einfügen - dynamische Lichter/Schatten berechnet man dann mit anderen Verfahren. Dadurch weicht man aber wieder vom Realismus-Pfad ab, zugunsten vernünftiger Performance.
Und davon mal abgesehen. Für Spiele ist seit eh und je nur wichtig, dass es realistisch aussieht aber nicht zwangsläufig realistisch ist. Auch für keine Formel1 Simulation oder nen Flug Simulator. Für diese Programme wäre ein nachgebautes Cockpit mit hydraulischer Bewegungssimulation erstmal wesentlich mehr dem Realismus zuträglich, genau wie ein 360° Rundumblick als eine nahezu korrekte Simulation der Spiegelungen im Lack, den man vom Cockpit aus eh nicht sehen kann.
roidal
2008-08-19, 18:38:07
es ist einfach schneller etwas fertiges zu laden als es zu berechnen.
Was hat das jetzt damit zu tun?
es ist einfach schneller etwas fertiges zu laden als es zu berechnen.
Was wird bei Rasterisierung "fertig geladen"? Was redest du da?
Wenn du auf Lightmaps etc. anspielst - die kann man genauso bei Raytracing einsetzen. Das ist völlig orthogonal.
Du weißt schon, dass der Raytracing Algorithmus nicht keinesfalls ie Rendering Gleichung erfüllt und deshalb per Definition nicht realistisch ist? Raytracing (ich meine Whitted Raytracing (http://de.wikipedia.org/wiki/Raytracing#Rekursives_Raytracing) von dem wir hier wohl alle sprechen) ist einzig und allein für ideale Speigelungen und Lichtbrechnungen sehr gut geeignet.
Indirekte Beleuchtung ist mit diesem Verfahren aber nicht möglich aber macht aus meiner Sicht den größten Anteil an einer realtischen Umgebung aus in der keine idealen Spiegelungen zu sehen sind. Und dies ist dermaßen aufwändig zu berechnen, dass korrekte Verfahren (Radiosity, MLT, etc.) mal ebend einige Stunden für ein Frame benötigen. Radiosity kann man für statische Szenen vorberechnen (wie zum Beispiel bei HL2 getan) und dann per LightMaps einfügen - dynamische Lichter/Schatten berechnet man dann mit anderen Verfahren. Dadurch weicht man aber wieder vom Realismus-Pfad ab, zugunsten vernünftiger Performance.
wir reden hier von path tracing, photon tracing usw. die dazupassende hardware kommt schon noch, mit opengl und opencl http://www.khronos.org/news/press/releases/khronos_releases_opengl_30_specifications_to_support_latest_generations_of/ hat man zumindest eine mögliche basis um raytracing derzeit auf der gpu auszuführen.
Und davon mal abgesehen. Für Spiele ist seit eh und je nur wichtig, dass es realistisch aussieht aber nicht zwangsläufig realistisch ist. Auch für keine Formel1 Simulation oder nen Flug Simulator. Für diese Programme wäre ein nachgebautes Cockpit mit hydraulischer Bewegungssimulation erstmal wesentlich mehr dem Realismus zuträglich, genau wie ein 360° Rundumblick als eine nahezu korrekte Simulation der Spiegelungen im Lack, den man vom Cockpit aus eh nicht sehen kann.
ansichtssache, ich mag keine spiele in der dritten person perspektive, andere stehen drauf. ich will ein realistisches aussehen anderen reicht die pseudo version.
hydraulische cockpits gibt es schon für ein paar tausend euro zu kaufen. die hmd sind leider ein stiefkind, zu geringe auflösung und zu teuer. warum niemand hergeht und zb. eine hdtv auflösung auf kleine displays produziert frage ich mich. ah, dann könnte man vielleicht weniger der grossen um viel geld verkaufen.
wir reden hier von path tracing, photon tracing usw. die dazupassende hardware kommt schon noch, mit opengl und opencl http://www.khronos.org/news/press/releases/khronos_releases_opengl_30_specifications_to_support_latest_generations_of/ hat man zumindest eine mögliche basis um raytracing derzeit auf der gpu auszuführen.
Von Photon Mapping in Echtzeit sind wir noch weiter entfernt wie von Radiosity in Echtzeit - was mit Rasterisierung ziemlich effizient gehen würde. Das ist in naher Zukunft völlig ausgeschlossen.
Und was jetzt gerade mit OpenGL 3.0 dazukam was speziell Raytracing ermöglichen würde weiß ich auch nicht. Da ist D3D10 weiter.
Nasenbaer
2008-08-19, 19:43:29
wir reden hier von path tracing, photon tracing usw. die dazupassende hardware kommt schon noch, mit opengl und opencl http://www.khronos.org/news/press/releases/khronos_releases_opengl_30_specifications_to_support_latest_generations_of/ hat man zumindest eine mögliche basis um raytracing derzeit auf der gpu auszuführen.
Die von dir genannten Verfahren brauchen für ordentliche Szenen schon mit geringen PolyCount (der da auch gar nicht so entscheidend ist) und wenigen Lichtquellen bereits mehrere Stunden pro Bild.
Nehmen wir an mit derzeitigen Mainstream CPUs benötigt man 1 Stunde/Frame, dann sind das 3600 Sekunden/Frame. Für 30 fps müsste man die 108.000-fache Geschwindigkeit erlangen. Aber noch viel lustiger ist, dass PhotonMapping nicht wirklich für dynamische Szenen geeignet ist. Da dieses Verfahren, wie alle anderen auch, natürlich nur eine Approximation der Rendering Gleichung ist, treten Fehler auf, nämlich Unschöne Artefakte in Form von Flecken, die in Bewegung erst sichtbar werden, da der genannte Algorithmus Zufallszahlen nutzt. Dadurch erhält man in Bewegung schnell mal unansehnliches Rauschen - das so zu verringern, dass man es nicht sieht, benötigt wieder noch höhere Rechenleistung.
Ums kurz zu machen, Verfahren, die keine gröberen Tricks anwenden, wie zum Beispiel Ambient Occlusion, sind wohl noch lange nicht in Echtzeit nutzbar.
ansichtssache, ich mag keine spiele in der dritten person perspektive, andere stehen drauf. ich will ein realistisches aussehen anderen reicht die pseudo version.
Es gibt aber auch einigen wahrnehmbaren Unterschied zwischen Ego- und ThirdPerson-Ansicht. Ein Unterschied zwischen gut gemachten CubeMapping und Raytracing ist im Normalfall nicht sichtbar.
Chris Lux
2008-08-19, 19:48:45
Und was jetzt gerade mit OpenGL 3.0 dazukam was speziell Raytracing ermöglichen würde weiß ich auch nicht. Da ist D3D10 weiter.
mit gl3 ist nichts spezielles für rt dazugekommen. aber was hat d3d10 in die richtung?
Naja SM4 halt. Ja ich weiß gibt's auch mit Extensions unter GL, ich meinte damit dass es das schon länger mit D3D gibt und OpenGL 3.0 da jetzt nichts irgendwie neues hat.
Wobei ich auch sagen würde dass erst D3D11/OpenCL wirklich dafür geeignet sind.
Chris Lux
2008-08-19, 20:04:38
SM4? was speziell daran ist denn für ray tracing außer das man allgemeinere berechnungen machen kann? wenn du das meinst ist gl da auch schon. aber mit sicht auf ray tracing ist das nicht.
Ja das meine ich. Und OpenGL ist über ein Jahr später damit angerückt - und er weißt auf den Press Release hin :ugly:
Von Photon Mapping in Echtzeit sind wir noch weiter entfernt wie von Radiosity in Echtzeit - was mit Rasterisierung ziemlich effizient gehen würde. Das ist in naher Zukunft völlig ausgeschlossen.
Und was jetzt gerade mit OpenGL 3.0 dazukam was speziell Raytracing ermöglichen würde weiß ich auch nicht. Da ist D3D10 weiter.
opencl (caesar) mit opengl
http://www.khronos.org/news/press/releases/khronos_releases_opengl_30_specifications_to_support_latest_generations_of/
Strong industry support for state-of-the-art OpenGL 3.0 API and GLSL 1.30 shading language specifications on all major platforms; OpenGL evolutionary model to accelerate development of standard; Interoperability with OpenCL being defined
...
Finally, the OpenGL working group has announced that it is working closely with the emerging OpenCL standard to create a revolutionary pairing of compute and graphics programming capabilities. The new OpenGL 3.0 specifications are freely available at www.khronos.org/opengl.
...
Finally, the OpenGL working group is working closely with the newly announced OpenCL working group at Khronos to define full interoperability between the two open standards. OpenCL is an emerging royalty-free standard focused on programming the emerging intersection of GPU and multi-core CPU compute through a C-based language forheterogeneous data and task parallel computing. The two APIs together will provide a powerful open standards-based visual computing platform with OpenCL’s general purpose compute capabilities intimately combined with the full power of OpenGL.
“OpenGL 3.0 is a significant evolutionary step that integrates new functionality to ensure that OpenGL is a truly state-of-the-art graphics API while supporting a broad swathe of existing hardware,” said Barthold Lichtenbelt, chair of the OpenGL working group at Khronos. “Just as importantly, OpenGL 3.0 sets the stage for a revolution to come – we now have the roadmap machinery and momentum in place to rapidly and reliably develop OpenGL - and are working closely with OpenCL to ensure that OpenGL plays a pivotal role in the ongoing revolution in programmable visual computing.”
erinnere dich auch an die intel aussage über tausende von cores. mal schauen was larrabee bringen wird und was amd und nvidia machen werden.
Chris Lux
2008-08-19, 20:11:59
ok. das soll nur nicht so klingen als ob D3D und OpenGL jetzt auf rt ausgelegt werden, was sie definitiv nicht sind und in der nächsten zukunft auch nicht sein werden.
ich denke auch, dass ein hybrid rendering verfahren kommen wird. bspw wie in metaSL mit einem trace_ray befehl in der shading sprache, aber die probleme die hinter so einem befehl stehen will ich gar nicht abschätzen gerade.
Die von dir genannten Verfahren brauchen für ordentliche Szenen schon mit geringen PolyCount (der da auch gar nicht so entscheidend ist) und wenigen Lichtquellen bereits mehrere Stunden pro Bild.
Nehmen wir an mit derzeitigen Mainstream CPUs benötigt man 1 Stunde/Frame, dann sind das 3600 Sekunden/Frame. Für 30 fps müsste man die 108.000-fache Geschwindigkeit erlangen. Aber noch viel lustiger ist, dass PhotonMapping nicht wirklich für dynamische Szenen geeignet ist. Da dieses Verfahren, wie alle anderen auch, natürlich nur eine Approximation der Rendering Gleichung ist, treten Fehler auf, nämlich Unschöne Artefakte in Form von Flecken, die in Bewegung erst sichtbar werden, da der genannte Algorithmus Zufallszahlen nutzt. Dadurch erhält man in Bewegung schnell mal unansehnliches Rauschen - das so zu verringern, dass man es nicht sieht, benötigt wieder noch höhere Rechenleistung.
wird sicher nicht mittels cpu gerechnet sondern auf der gpu, deswegen macht intel den larrabee.
Chris Lux
2008-08-19, 20:16:29
erinnere dich auch an die intel aussage über tausende von cores. mal schauen was larrabee bringen wird und was amd und nvidia machen werden.
larabee wird auch ein rasterizer sein, anders wird es sich nicht behaupten können. der hype um rt von intel geht klar dahin, dass man larabee als compute lösung vermarkten will.
OpenCL ist hauptsächlich compute, also nicht denken es sei auf rt ausgelegt. man kann sicher rt damit machen, aber dann hat man wieder unmengen an problemen.
wir selbst haben mit CUDA einen real-time ray tracer gebastelt und als schluss für uns war, dass wenn man graphik macht will man auch eine graphik api nutzen, die einem bspw. sachen wie ordentliches texture filtering, texture objects etc bietet. also da ist noch ein langer weg zu gehen.
ich denke auch, dass ein hybrid rendering verfahren kommen wird. bspw wie in metaSL mit einem trace_ray befehl in der shading sprache, aber die probleme die hinter so einem befehl stehen will ich gar nicht abschätzen gerade.
Wird nicht kommen. Zumindest nicht in Hardware. Weil dann müsste man wieder den Scenegraph usw. in Hardware verwalten.
Es wird eher so laufen, dass man irgendwann wieder das ganze Rendering in Software von Hand programmieren muss. Ich bin mal gespannt ob von Intel der Sourcecode von ihrem Rasterizer für Larrabee zur Verfügung gestellt wird.
ok. das soll nur nicht so klingen als ob D3D und OpenGL jetzt auf rt ausgelegt werden, was sie definitiv nicht sind und in der nächsten zukunft auch nicht sein werden.
ich denke auch, dass ein hybrid rendering verfahren kommen wird. bspw wie in metaSL mit einem trace_ray befehl in der shading sprache, aber die probleme die hinter so einem befehl stehen will ich gar nicht abschätzen gerade.
sehe ich auch so. ich glaube sie werden erweiterungen für opengl machen und über hybridrender zu reinem raytracing migrieren.
Chris Lux
2008-08-19, 21:22:19
sehe ich auch so. ich glaube sie werden erweiterungen für opengl machen und über hybridrender zu reinem raytracing migrieren.
reines ray tracing glaube ich werden wir nicht sehen in absehbarer zeit. man will bilder wie im film, also geht es auch zu techniken, die im film eingesetzt werden und da ist das wenigste ray tracing.
Nasenbaer
2008-08-19, 21:50:46
wird sicher nicht mittels cpu gerechnet sondern auf der gpu, deswegen macht intel den larrabee.
Ist mir klar, dass du darauf hinaus wolltest - deswegen ja auch der Link zur OpenGL 3.0 News.
Aber ich muss dir doch sicher nicht sagen, dass selbst 10 Larabees keinesfalls einen 108.000-fachen SpeedUp bringen werden. Wenn das der zu erwartende SpeedUp wäre, dann würde es schon lange soetwas geben, denn so grobe Fehler werden wohl nicht alle Ingeneure der Welt machen, dass man diese Potential solange übersieht. ;)
Zumal wie gesagt der mögliche Realismus-Gewinn so gering ist, dass es Blödsinn wäre darin die "neue" Rechenleistung zu investieren. Sieh dir Crysis an, dort hast du eine sehr glaubwürdige Ausleuchtung der Szenerie. Und das ist heute mit dem Rasterizer möglich - warum dann noch 5 Jahre warten um dann eine nahezu identisches Ergebnis mit minimal mehr Realismus zu erhalten? Sowas macht doch niemand.
der raytracing zug ist einmal abgefahren, wesentliche hardware und software hersteller haben diverse aussagen und beispiele geliefert. wohin und wie schnell werden wir sehen, einfach gemütlich die reise geniessen und immer bessere bilder an einem vorbeiziehen lassen. in grauer vorzeit war gta in 2d und "3d" war ein laden von gemalten bitmap bildern.
physik und ki profitieren hoffentlich auch... mit einem vorschlaghammer ein loch in eine häuserwand schlagen und die nachbarn rufen die polizei wegen lärmblästigung... :biggrin:
Im Offline-Rendering hat man größtenteils immer noch kein Raytracing. Pixar hat bis Cars keins verwendet.
Und die Bildqualität war damals schon besser als das was wir heute Online haben. Deshalb wird da so schnell auch nichts passieren.
Aquaschaf
2008-08-19, 23:05:11
Pixar hat bis Cars keins verwendet.
Und Ratatuille nutzte es dann wieder nicht. Dort wurde fast nur mit cube maps gearbeitet.
Ich bin mehr auf bessere rasterizationsbasierte global illumination Approximationen gespannt, für die nun so langsam genug Rechenleistung vorhanden ist.
Und Ratatuille nutzte es dann wieder nicht. Dort wurde fast nur mit cube maps gearbeitet.
Hab ich auch gehört. Wie sieht's eigentlich bei Wall-E aus?
Edit: Laut Paper verwendet auch Ratatouille für die Reflexionen Raytracing. Nur mit einem speziellen "Radiance-Cache" weil es sonst zu lange gedauert hätte für die Soft-Reflections. Ist auch nicht ganz korrekt dann.
Raytracing is also being used in Pixar’s latest movie, Ratatouille
—mostly for ambient occlusion, reflections in pots and pans, and reflections and refractions in glasses
:)
Aquaschaf
2008-08-20, 00:44:22
Edit: Laut Paper verwendet auch Ratatouille für die Reflexionen Raytracing. Nur mit einem speziellen "Radiance-Cache" weil es sonst zu lange gedauert hätte für die Soft-Reflections. Ist auch nicht ganz korrekt dann.
Da habe ich etwas durcheinander gebracht. Environment maps sind es bei den Nahrungsmitteln. In einem Artikel zu Wall-E ist wieder die Rede von environment maps anstatt von ray traced reflections. Aber diese Angabe ist dann vermutlich auch vereinfachend.
:)
..was auch noch einmal verdeutlicht dass es Blödsinn ist stur ray tracing als Gegensatz zu rasterization zu sehen. Es ist keine silver bullet die automatisch "Realismus" bedeutet; man geht immer einen Haufen Kompromisse ein.
man darf aber nicht vergessen, dass film eben film ist und nicht realität. es wird sowieso jeglicher film nachbearbeitet, die farben verändert usw. die usa haben das sehr stark geprägt, vergleiche den film selbst mit dem making of und es fällt auf. oder vergleiche die typische deutsche serie mit einem film rein von der farbgebung und ausleuchtung, es wirkt völlig unterschiedlich. ein extremes beispiel für farbgebung als stilistisches mittel ist schindlers liste, er ist in schwarz weiss...
Chris Lux
2008-08-20, 08:55:53
in den heutigen braun/oragnge spielen wird natürlich kein color-grading benutzt, das macht man nur in filmen. ;P
und bitte vergleiche kein deutsches und amerikanisches fernsehen, wir stehen da noch in sowas wie der steinzeit.
Nasenbaer
2008-08-20, 10:02:33
..was auch noch einmal verdeutlicht dass es Blödsinn ist stur ray tracing als Gegensatz zu rasterization zu sehen. Es ist keine silver bullet die automatisch "Realismus" bedeutet; man geht immer einen Haufen Kompromisse ein.
Richtig! Und deswegen find ich die Aussage von Dian Pohl so albern, dass Hybrid-Renderer ja ach so schlecht sind. Komischerweise nutzen sie dann doch so ziemlich alle Offline-Rendering-Werkzeuge.
roidal
2008-08-20, 14:54:57
Aktuelleren Artikeln zufolge denken die Spielehersteller auch über Raytracing nach. Nur wie wollen die das machen? Eine CPU ist dafür zu langsam und die GPU's haben dafür keine einheitliche Schnittstelle. Selbst wenn Intel Larrabee bringt sorgt das nur für zusätzlichen Aufwand weil man dann schon 3 verschiedene Systeme supporten müsste.
Ist wirklich schwierig. Das Problem ist dass die Raster-APIs nichts über die Szene "wissen" und auch die Vertex- und Geometry-Shader nicht zu Raytracing passen.
Deshalb meinte ich ja, dass ich es nicht sehen komme dass da was in Raster-APIs mit Raytracing-Anweisungen in den Shadern passiert wie bei Renderman z.B.
Wenn man Larrabee direkt programmieren würde könnte man so ein System aber wohl mit sehr viel Aufwand entwickeln.
roidal
2008-08-20, 15:26:32
...Wenn man Larrabee direkt programmieren würde könnte man so ein System aber wohl mit sehr viel Aufwand entwickeln.
Nur wer entwickelt darauf dann wieder Spiele? Passiert ja auch erst wenn Intel damit einen gewissen Mindestmarktanteil hat.
Leider wird man jetzt die Frage ob Raytracing für Spiele in Zukunft eingesetzt wird nicht beantworten können. Es gibts zwar duzende Berichte darüber, aber im endeffekt sagt jeder dass es noch offen ist und man ist genau so schlau wie vor dem Bericht. :mad:
AnarchX
2008-08-27, 11:11:35
Auf der Nvision zeigt man wohl nun im Kontrast zur Raytracing Demo, was in Echtzeit mit einer Hybrid-Engine möglich ist, die RT nur dort einsetzt wo es notwendig ist:
http://www.computerbase.de/news/allgemein/forschung/2008/august/nvision_beinahe_auto_echtzeit/
Sieht gut aus, aber es wird auch gesgat, dass es an einigen Stellen geruckelt hat. Aber ohne die Angabe auf was für einem System das Ganze lief, ist die Aussage irgendwie sinnlos.
http://www.rtt.ag/cms/de/
Hier gibts auch das Video. "Quantensprung bei 3d" --> "mehr"
deekey777
2008-08-29, 23:16:42
Nvision 2008: HD-Raytracing in Echtzeit (http://www.pcgameshardware.de/aid,658010/News/Nvision_2008_HD-Raytracing_in_Echtzeit/)
Es wird beschrieben, wie die Demonstration gemacht wurde.
Aber das hier...
Zu den Vorteilen des Raytracing-Verfahrens zählt David Luebke ein vereinheitlichtes Rendern mit weniger Algorithmen und ein leichteres Kombinieren von Spezialeffekten. "Doch selbst in Hollywood-Produktionen setzen die Effektgurus aus Geschwindigkeitsgründen nicht ausschließlich auf Raytracing", erklärte Luebke. "Mein Rat an alle Grafik-Experten: Nutzt beide Systeme, Rendern und Raytracing." Zu den größten Kunden von Grafikfirmen, die sich auf Raytracing spezialisiert haben, gehören nach Luebkes Worten vor allem Automobilunternehmen, die ihre zukünftigen Fahrzeuge so realistisch wie nur möglich simulieren wollen. "Spielentwickler schielen vor allem auf den heiligen Raytracing-Gral: indirekte Beleuchtung", sagte Luebke. Weiche Schatten und Reflektionen sorgen dann für noch realistischere Spielwelten.
:|
starfish
2008-09-11, 10:56:42
Sieht gut aus, aber es wird auch gesgat, dass es an einigen Stellen geruckelt hat. Aber ohne die Angabe auf was für einem System das Ganze lief, ist die Aussage irgendwie sinnlos.
http://www.rtt.ag/cms/de/
Hier gibts auch das Video. "Quantensprung bei 3d" --> "mehr"
Ja, bei uns gillt das Echtzeitraytracing schon als alter Hut ;)
Hab ich meinem Chef letztens gezeigt, meinte er:
"Haben wir doch schon längst, wir arbeiten ja mit Nvidia zusammen..."
starfish
2008-09-17, 08:49:13
Auch um den Threat nochmal zu pushen:
Ich weiß nicht wieviel ich hier erzählen darf, das muss ich erst noch abklären, aber wir haben demnächst hier in der Firma eine Vorführung der neuesten Entwicklungen.
Das ganze läuft, wie bereits erwähnt, in Partnerschaft mit Nvidia (in der Anfangs erwähnten Demo ist so einiges an unserer Technologie drinnen).
Dabei sind ein paar wirklich interessante Dinge dabei, die ich so noch nirgends gesehen habe.
Wenn also Interesse besteht klär ich mal mit meinem Chef ab, inwieweit ich hier Informationen hereintragen darf.
Besteht noch Interesse?
mapel110
2008-09-17, 08:57:40
Na logisch. Wer wehrt sich schon gegen neue Infos?!
roidal
2008-09-23, 15:56:08
Etwas zu Interaktives Ray Tracing von nvidia: http://developer.nvidia.com/object/nvision08-IRT.html
starfish
2008-10-02, 11:57:16
Mein Chef checkt grad ab in wie weit ich mit Infos rausrücken darf.
Ich hätte auch Bilder hier. Ob ich die rausgeben darf wird auch grad nachgefragt.
starfish
2008-10-20, 21:29:25
Da ich bis jetzt leider immer noch keine Infos habe, was geheim ist und was nicht, gebe ich wenigstens mal den Verweis auf unsere Homepage:
http://www.rtt.ag/cms/en/?prm_content=/rtt/en/virtual_prototyping/products_deltagen.xml&gclid=CJaBwKT7zZECFRBTZwoddgHuiA
Und dann auf RealTrace.
Das in Action ist wirklich der Hammer.
dildo4u
2009-08-14, 21:24:30
Chaos Group V-Ray RT GPU Rendering Demo - SIGGRAPH 2009
http://www.cgarchitect.com/news/SIGGRAPH-2009-CHAOS-GROUP-GPU.shtml
Core i7 vs GTX285
Skinner
2009-08-14, 22:24:33
Ich sehs schon kommen. Der nächste Transformers wird auf nvidia Karten gerendert :D
Fragman
2009-08-15, 12:41:26
Chaos Group V-Ray RT GPU Rendering Demo - SIGGRAPH 2009
http://www.cgarchitect.com/news/SIGGRAPH-2009-CHAOS-GROUP-GPU.shtml
Core i7 vs GTX285
wobei man immer sagen muss das das rt progressiv rendering ist, heisst, er verfeinert immer mehr. man sieht das im video ganz gut das er weiter rendert, nur die erste stufe laeuft mit den angegebenen frames. deshalb kann man auch nicht die renderzeiten vergleichen, denn das direkt auf der cpu gerenderte ist final gerendert. fuer previews aber ne tolle sache.
deekey777
2009-08-23, 12:26:13
Da mich diese Hofberichterstattung über Intels Blabla auf dem Gebiet von Raytracing nervt, pushe ich den Nvidia-Thread.
Auf der SIGGRAPH'09 hatte Nvidia auch was zum Thema Raytracing, http://developer.download.nvidia.com/presentations/2009/SIGGRAPH/Alternative_rendering_pipelines.pdf bzw. http://www.slideshare.net/NVIDIA/alternative-rendering-pipelines-on-nvidia-cuda
(keine Ahnung, was da los ist, vorher waren alle Seiten "beschrieben").
http://developer.download.nvidia.com/presentations/2009/SIGGRAPH/Siggraph-OptiX-2009.pdf
http://s09.idav.ucdavis.edu/talks/11-Luebke-NVIDIA-BPS-case-study-siggraph2009.pdf
mboeller
2009-08-23, 12:53:26
Da mich diese Hofberichterstattung über Intels Blabla auf dem Gebiet von Raytracing nervt, pushe ich den Nvidia-Thread.
Auf der SIGGRAPH'09 hatte Nvidia auch was zum Thema Raytracing, http://developer.download.nvidia.com/presentations/2009/SIGGRAPH/Alternative_rendering_pipelines.pdf bzw. http://www.slideshare.net/NVIDIA/alternative-rendering-pipelines-on-nvidia-cuda
(keine Ahnung, was da los ist, vorher waren alle Seiten "beschrieben").
auf Beyond3D haben sich auch schon einige gewundert das jetzt 64(?) Seiten bei dem Dokument fehlen.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.