Archiv verlassen und diese Seite im Standarddesign anzeigen : GPGPU im Offline-Rendering?
The_Silent_One
2007-05-20, 21:41:48
Hallo
Wie im Titel schon zu sehen ist, frage ich mich, ob GPGPU im Offline-Rendering eingesetzt werden kann. Zum Editieren werden ja schon seit längerem spezielle Grafikkarten eingesetzt, beim rendern tun die aber nichts.
Sollte es mit GPGPU nicht möglich sein, die GPU auch beim Rendern einzubinden? NV macht ja bereits einen Anfang mit CUDA, damit C-Code auf den GPUs ausgeführt werden kann. Wenn das möglich ist, müsste doch eigentlich auch die GPU von Otto Normal bei seinen Hobby-CAD Renderings mitarbeiten.
Wird so etwas in naher Zukunft kommen oder ist das eher unwahrscheinlich?
MfG
Nur ein Beispiel von vielen:
http://www.nvidia.de/page/gelato.html
Was gerade noch ein bisschen ein Problem ist, ist dass GPUs nur Single-Precision rechnen können. Das wird sich aber wohl vorraussichtlich mit G90 ändern.
Das wird sich aber wohl vorraussichtlich mit G90 ändern.
schade.
schade.
Warum? Weils dann dem ein oder anderen Hersteller an den Kragen geht? :cool:
Warum? Weils dann dem ein oder anderen Hersteller an den Kragen geht? :cool:
nö, aber mir wären lieber mehr recheneinheiten mit geringerer präzision, da ist die performance besser und FP32 reicht für echtzeitgrafik locker aus.
höhere genauigkeiten kosten nur unnötig performance in form von fehlenden ALUs
ScottManDeath
2007-05-22, 00:17:47
Keiner weis ja wie es implementiert wird.... ;)
Keiner weis ja wie es implementiert wird.... ;)
Vermutlich so wie int, ne langsame emulation mit schon vorhandenen Einheiten.
Keiner weis ja wie es implementiert wird.... ;)
auf jeden fall kostet es unnütze transistoren, selbst ILM rechnet "nur" mit FP32-präzision.
Flitzekatze
2007-05-22, 16:18:11
nö, aber mir wären lieber mehr recheneinheiten mit geringerer präzision, da ist die performance besser und FP32 reicht für echtzeitgrafik locker aus.
höhere genauigkeiten kosten nur unnötig performance in form von fehlenden ALUsIch stimme dir absolut zu!
Mir graut es auch an den Gedanken, dass wertvolle Hardwareresourcen an "GPGPU"-Unsinn verplämpert werden.
ScottManDeath
2007-05-22, 16:38:26
Naja, wenn GPGPU für ernsthaftes wissenschaftliches Numbercrunching interssant sein will, dann muss es double schon irgendwie unterstützen....
Fitzcarraldo
2007-05-22, 17:05:47
Ich programmier und kaufe aber keine Grafikkarten zur Simulation von RNA-Polymerase!
Was wir brauchen ist Füllrate usw. - nicht so ein Firlefanz, der eigentlich nichts mit dem Markt zu tun hat.
ScottManDeath
2007-05-22, 17:37:49
Naja, GPUs decken mehrere Märkte ab, bzw werden das in der Zukunft. Und dies kann man durch relative geringe Änderungen erreichen, indem man double Support einbaut.
Naja, wenn GPGPU für ernsthaftes wissenschaftliches Numbercrunching interssant sein will, dann muss es double schon irgendwie unterstützen....
dann sollen sie doch bitte auch eigene beschleunigerkarten für diesen bereich auflegen. im wissenschaftlichen bereich wird eh jede menge geld investiert, da kann man genug geld verlangen um auch eine kleine auflage rechtfertigen zu können und muss nicht den "normaluser" den balast mitbezahlen lassen.
ScottManDeath
2007-05-22, 23:20:37
Naja, für wirtschaftliche Betrachtungen haben wir nicht genügend Einblick / Hintergrundwissen...
micki
2007-05-23, 01:49:15
naja, bei CPUs sind die ganzen extensions mit SSE1,2,3,4 auch kaum von nutzen fuer graphische anwendungen, aber fuer wissenschaftliche dinge sind diese Extension gut.
NV und ATI werden euch einfach eklaeren weshalb double ein muss bei graphik ist und ihr werdet zufrieden sein und nur noch ueber AF/AA lachen so wie heute 16vs32bit rendering.
double rendering ist ja viel geiler als single rendering ;)
Der Tag fängt ja gut an :D
*auch kein halbes wissenschafltliches Gerät anschaffen will*
NV und ATI werden euch einfach eklaeren weshalb double ein muss bei graphik ist und ihr werdet zufrieden sein und nur noch ueber AF/AA lachen so wie heute 16vs32bit rendering.
double rendering ist ja viel geiler als single rendering ;)
Bei der vorraussichtlichen Performance (Siehe Cell in 64-Bit - so wird's da auch ungefähr aussehen) werden sie das sicher nicht tun.
Der Transistoraufwand dürfte dafür minimal sein, solange sie das mit den 32-Bit-ALUs rechnen.
micki
2007-05-23, 11:17:46
Bei der vorraussichtlichen Performance (Siehe Cell in 64-Bit - so wird's da auch ungefähr aussehen) werden sie das sicher nicht tun.
Der Transistoraufwand dürfte dafür minimal sein, solange sie das mit den 32-Bit-ALUs rechnen.
natuerlich werden sie am anfang nur ne emulation einwerfen, es ist nur dummes feature bashen so wie jetzt mit int, wie ich schon vor ewigkeiten mal sagte waere das alles auch in d3d9 moeglich (nur ne compiler sache).
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.