PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Welcher Technologie räumt ihr mehr Chancen ein? Physik-Karten oder Raytracing-Karten?


Gast
2006-09-10, 20:58:57
Dedizierte Physik karten oder Raytracing Karten?

In beiden Fällen gibt es schon erste Prototypen bzw. im Falle des Physik Chips schon kaufbare Hardware. Aber auch Raytracing Karten sind in Planung.

Wer wird das Rennen machen?

Onkeltom421
2006-09-10, 21:14:24
Mittel- oder Langfristig?

Kurz/Mittelfristig sehe ich doch die PhysikKarten im Vorteil
Aber es läuft doch so ziemlich alles auf Raytracing hinaus.

Gast
2006-09-10, 21:17:59
raytracing ist ja bereits auf SM3-hardware möglich, zwar immer noch ziemlich lahm, aber möglich, dementsprechend sind ein vielen rechnern bereits "raytracing-karten" verbaut.

Monger
2006-09-10, 21:51:36
Das ist ja wie die Wahl zwischen Teufel und Beezlebub...

Ich weiß nicht, ob man es letztendlich Raytracing nennen wird, aber in gewissem Maße adaptieren wir mit dem aktuellen Shadertrend natürlich schon das Konzept. Früher oder später wird jedes einzelne Pixel durch einen Beleuchtungsshader gelaufen sein.

Gast
2006-09-10, 22:43:04
Früher oder später wird jedes einzelne Pixel durch einen Beleuchtungsshader gelaufen sein.

Hm? Das ist in Spielen wie Doom 3 schon lange der Fall.

Gast
2006-09-10, 23:24:16
Da beide Technologien unabhängig voneinander sind und auch beide irgendwo ihre Daseinsberechtigung haben, vermute ich mal, daß beide die gleichen Chancen haben. Es wird so sein wie mit den ersten 3D-Beschleunigerkarten (Matrox,VooDoo, etc...). Zuerst wird man sich die Karten als zusätzliche Karten kaufen müssen - und irgendwann (wenn Windows eine Realtime-Physikengine für die Darstellung des Desktops benötigt ;) ) werden die zusätzlichen Funktionen dann einfach auf die GPU übertragen.

Die ersten reinen 3D-Beschleunigerkarten waren auch sauteuer + man mußte sie sich zusätzlich kaufen. Ich hatte 2: die Miro Highscore² 3D und vorher noch die echte Diamond Monster 3D.

Inzwischen sind die Zusatzfunktionen dieser Karten fester Bestandteil jeder GPU. Ich kenne jedenfalls keinen Hersteller (nvidia/ati) der noch eine reinrassige 2D-Karte im Angebot hat. - Oder täusche ich mich da?

Genauso warte ich darauf, daß es endlich die ersten Doppel-GPU-Lösungen (SLI) auf nur einer Karte gibt. Spart Geld und Schaltzeiten. Die Geschichte wiederholt sich eben doch: Kennt ihr noch den Hickhack mit den VooDoo-Karten, von denen man sich 2 aufs Board stecken konnte?

"Das besondere Merkmal des Voodoo2 war allerdings die Möglichkeit, zwei identisch ausgestattete Voodoo2-Karten mittels eines kleinen Flachbandkabels zu einer Karte zusammenzuschließen (SLI-Modus)."

Wer also denkt, sein SLI-System sei der Technik letzter Schrei, der wird sich wohl irren. SLI ist ein uraltes VooDoo-Rezept aus dem letzten Jahrtausend, das von unseren Vorfahren zur Gewinnverdopplung eingesetzt wurde und nun von nVidia-Archäologen wieder aus der Schublade geholt wurde... moment mal... wurde 3dfx nicht von NVidia aufgekauft? ;) Unsere Vorfahren kannten sich jedenfalls schon bestens aus mit SLI.

Aktuelle Grafikkarten entsprechen jedenfalls dem VooDoo2-Konzept. Ich warte auf die Realisierung des VooDoo3-Konzepts (2 GPUs auf einer Karte). Und irgendwann wird dann das VSA100-Konzept (VooDoo5) kommen....

QuadSLI auf nur einer Karte!
Und so könnte sie aussehen - die zukünftige nVidia Geforce 128000 GTX HD Extreme Quad (tm):

Wahrscheinlich dann bestückt mit 2x 1 Terrabyte-DDR64 Chips pro MultiCore-GPU...

Und der kleine schwarze Kasten auf dem Bild ist nicht etwa ein zukünftiger Trafo - nein: Das ist die miniaturisierte Wasserstoffzelle, die die zum Betrieb benötigte Leistung erzeugt. Der notwendige Kühlkörper wurde bei dem Foto abmontiert, und befindet sich eigentlich im Fundament unter dem Haus, von wo aus er die ganze Arktis mit fließendem Warmwasser versorgt...

:biggrin: :biggrin: :biggrin:

Aber wahrscheinlich wird es nicht dazu kommen, weil nVidia kurz vor der Fertigstellung der schnellsten und coolsten Grafikkarte der Welt von 3DFx aufgekauft werden wird. So geht nunmal das Rad der Geschichte.

Gast
2006-09-10, 23:29:17
Oops link fehlt!

Und so könnte sie aussehen - die zukünftige nVidia Geforce 128000 GTX HD Extreme Quad (tm):

http://www.x86-secret.com/articles/divers/v5-6000/v56kde-6.htm

DerRob
2006-09-11, 00:35:48
Aktuelle Grafikkarten entsprechen jedenfalls dem VooDoo2-Konzept. Ich warte auf die Realisierung des VooDoo3-Konzepts (2 GPUs auf einer Karte). Und irgendwann wird dann das VSA100-Konzept (VooDoo5) kommen....

gibts doch schon längst: geforce 7900/7950 gx2

http://tomshardware.thgweb.de/2006/06/22/nvidia-geforce_7950_gx2-sli-grafikkarte/

na gut, es sind noch 2 platinen übereinander angeordnet, aber es wird als eine grafikkarte verkauft, und man kann sich auch 2 dieser dinger zum quad-sli zusammenschalten ;)

StefanV
2006-09-11, 00:51:14
Weder noch...

Eher klatscht man Streamingprozessoren in die CPU...

tokugawa
2006-09-11, 01:32:01
Das ist ja wie die Wahl zwischen Teufel und Beezlebub...

Ich weiß nicht, ob man es letztendlich Raytracing nennen wird, aber in gewissem Maße adaptieren wir mit dem aktuellen Shadertrend natürlich schon das Konzept. Früher oder später wird jedes einzelne Pixel durch einen Beleuchtungsshader gelaufen sein.

Das ist heute schon der Fall. Per-Pixel-Lighting nennt man das. Entweder meinst du etwas anderes, oder der Satz ist einfach Blödsinn :)


Das ist ja wie die Wahl zwischen Teufel und Beezlebub...

Ich weiß nicht, ob man es letztendlich Raytracing nennen wird, aber in gewissem Maße adaptieren wir mit dem aktuellen Shadertrend natürlich schon das Konzept. Früher oder später wird jedes einzelne Pixel durch einen Beleuchtungsshader gelaufen sein.

Das wird heute schon Raytracing im Shader genannt. Das CG-Institut der Universität von Budapest in Ungarn betreibt Forschung in diese Richtung.

Und auf die Frage des Threaderstellers muß ich StefanV zustimmen: reine "Raytracing-Karten", die darauf spezialisiert geben, wird es meiner Meinung nach aus vielen Gründen nicht geben:
- Realismus ist nicht das einzige Ziel der Computergrafik und schon gar nicht der Spielegrafik, mit "fixed function Raytracing" hat man doch eine eher beschränkte Möglichkeit, besondere "Renderstile" zu beachten
- allgemeinere Prozessoren (wie es die GPUs heute schon immer mehr werden), die auch - aber nicht nur - Raytracing berechnen können, sind einfach flexibler

Ich zahl jedenfalls sicher nicht teures Geld dafür, dass dann die Grafik zwar realistisch, aber nicht besser aussieht. Für gute Grafik zählt noch viel mehr als bloßer Realismus.

Zauberer
2006-09-11, 06:41:04
...
Ich zahl jedenfalls sicher nicht teures Geld dafür, dass dann die Grafik zwar realistisch, aber nicht besser aussieht. Für gute Grafik zählt noch viel mehr als bloßer Realismus.
Hä, das verstehe ich nicht, wie soll realistisch nicht besser sein?
Wenn ich meine Augen auf mache, sehe ich realistische Grafik, weil ich ja die Realität sehe (Realität = realistisch).
Viel besser muss für mich Spielegrafik nicht werden. ;)

ScottManDeath
2006-09-11, 09:01:40
Wenn ich 128 cores habe bau ich mir einen Software Rasterizer. Der ist flexibel und kann auch dynamische Szenen rendern ;)

del_4901
2006-09-11, 09:29:28
Weder noch...

Eher klatscht man Streamingprozessoren in die CPU...
So siehts aus nicht anders. Im Zwischenschritt wird es einen Zusatzsockel geben, wo man seinen "Co-Prozessor" reinsteckt.

Monger
2006-09-11, 09:34:11
Das ist heute schon der Fall. Per-Pixel-Lighting nennt man das. Entweder meinst du etwas anderes, oder der Satz ist einfach Blödsinn :)

Schon klar, wenn auch noch bei weitem nicht in jedem Spiel.

Was ich meinte war: auf die Weise kommt Raytracing quasi durch die Hintertür. Nicht so richtig, aber ein bißchen. Für mich ist das wichtigste Konzept an Raytracing, dass der Farbwert jedes Pixels über Primär- und Sekundärstrahlen berechnet wird. In der Praxis wird man diese Konzept halt nicht bis zur letzten Konsequenz durchziehen, sondern eine Mischform verwenden. So eben wie in aktuellen Spielen schon angedeutet.
Pures Raytracing für Computerspiele wird imho nie kommen.

del_4901
2006-09-11, 09:37:57
Schon klar, wenn auch noch bei weitem nicht in jedem Spiel.

Was ich meinte war: auf die Weise kommt Raytracing quasi durch die Hintertür. Nicht so richtig, aber ein bißchen. Für mich ist das wichtigste Konzept an Raytracing, dass der Farbwert jedes Pixels über Primär- und Sekundärstrahlen berechnet wird. In der Praxis wird man diese Konzept halt nicht bis zur letzten Konsequenz durchziehen, sondern eine Mischform verwenden. So eben wie in aktuellen Spielen schon angedeutet.
Pures Raytracing für Computerspiele wird imho nie kommen.

Das erinnert aber mehr an Raycasting. Für echtes Raytracing fehlen einfach die Bedingungen (z.B ObjectBuffer) auf der GPU, damit es schnell wird.

Gast
2006-09-11, 12:20:11
Wenn ich 128 cores habe bau ich mir einen Software Rasterizer. Der ist flexibel und kann auch dynamische Szenen rendern ;)

und bist trotzdem noch langsamer als heutige GPUs

Gast
2006-09-11, 15:24:11
Für gute Grafik zählt noch viel mehr als bloßer Realismus.
Das ist genau der Punkt, warum so viele FarCry toll finden: Im Gegensatz zu HalfLife 2 werden dem Spieler in FarCry Grafiken geboten, die mit der Realität rein gar nichts mehr zu tun haben: Sauberes Wasser, saubere Strände, gesunde Flora und Fauna und eine Bonbon-Grafik, daß man zuckersüchtig wird.
Ich frage mich, warum aus dieser paradiesischen Engine unbedingt ein Shooter werden mußte. Warum konnte es nicht ein tolles Abenteuer/Schatzfinden/mit Piraten kämpfen/Monkey-Island werden?
Na egal - so wie es ist, ist es schon ok. Man kann eben nicht immer alles haben. Aber was auch klar ist: Ich erwarte vom PC in einem Spiel wie zB. SoulReaver mehr als realistische Grafiken. Umso mehr, als das die meisten Spiele (bis auf die mittlerweile langweiligen C&C-Clones und Militär-Egoshooter) in einer Umgebung spielen, die mit der Realität nicht mehr viel gemein haben. Und gebt es doch zu: Ihr wollt doch selber keine leeren Mülltonnen in Halflife 3 sehen, die physikalisch korrekt der Länge nach aufreißen, wenn man eine Handgranate reinwirft - und das ganze auch noch so schnell, daß man sich jede Grafikanimation sparen kann, weil das menschliche Auge ohnehin zu langsam für die korrekte physikalische Realität ist. Was ihr wirklich wollt: Eine leere Mülltonne die total unrealistisch in tausend Stücken aus dem Screen fetzt. Am besten noch in Slowmo. Nur ob man dazu eine realistische Physikengine braucht....

Gast
2006-09-11, 18:53:25
Weder noch...

Eher klatscht man Streamingprozessoren in die CPU...

Genau, ähnlich dem Cell Prozessor von IBM.
Mit Cell ist dank seiner SPUs Raytraycing in Echtzeit möglich.

EcHo
2006-09-12, 17:32:13
Genau, ähnlich dem Cell Prozessor von IBM.
Mit Cell ist dank seiner SPUs Raytraycing in Echtzeit möglich.

Was für ein Marketing Bla Bla....
Auch mit einem Pentium 1 ist Raytracing in Echtzeit möglich. Frage ist nur in wechler Qualität/Object-Anzahl/ Auflösung/ Effekte....

hmx
2006-09-12, 18:14:08
Da beide Technologien unabhängig voneinander sind und auch beide irgendwo ihre Daseinsberechtigung haben, vermute ich mal, daß beide die gleichen Chancen haben. Es wird so sein wie mit den ersten 3D-Beschleunigerkarten (Matrox,VooDoo, etc...). Zuerst wird man sich die Karten als zusätzliche Karten kaufen müssen - und irgendwann (wenn Windows eine Realtime-Physikengine für die Darstellung des Desktops benötigt ;) ) werden die zusätzlichen Funktionen dann einfach auf die GPU übertragen.

Die ersten reinen 3D-Beschleunigerkarten waren auch sauteuer + man mußte sie sich zusätzlich kaufen. Ich hatte 2: die Miro Highscore² 3D und vorher noch die echte Diamond Monster 3D.

Inzwischen sind die Zusatzfunktionen dieser Karten fester Bestandteil jeder GPU. Ich kenne jedenfalls keinen Hersteller (nvidia/ati) der noch eine reinrassige 2D-Karte im Angebot hat. - Oder täusche ich mich da?

Genauso warte ich darauf, daß es endlich die ersten Doppel-GPU-Lösungen (SLI) auf nur einer Karte gibt. Spart Geld und Schaltzeiten. Die Geschichte wiederholt sich eben doch: Kennt ihr noch den Hickhack mit den VooDoo-Karten, von denen man sich 2 aufs Board stecken konnte?

"Das besondere Merkmal des Voodoo2 war allerdings die Möglichkeit, zwei identisch ausgestattete Voodoo2-Karten mittels eines kleinen Flachbandkabels zu einer Karte zusammenzuschließen (SLI-Modus)."

Wer also denkt, sein SLI-System sei der Technik letzter Schrei, der wird sich wohl irren. SLI ist ein uraltes VooDoo-Rezept aus dem letzten Jahrtausend, das von unseren Vorfahren zur Gewinnverdopplung eingesetzt wurde und nun von nVidia-Archäologen wieder aus der Schublade geholt wurde... moment mal... wurde 3dfx nicht von NVidia aufgekauft? ;) Unsere Vorfahren kannten sich jedenfalls schon bestens aus mit SLI.

Aktuelle Grafikkarten entsprechen jedenfalls dem VooDoo2-Konzept. Ich warte auf die Realisierung des VooDoo3-Konzepts (2 GPUs auf einer Karte). Und irgendwann wird dann das VSA100-Konzept (VooDoo5) kommen....

QuadSLI auf nur einer Karte!
Und so könnte sie aussehen - die zukünftige nVidia Geforce 128000 GTX HD Extreme Quad (tm):

Wahrscheinlich dann bestückt mit 2x 1 Terrabyte-DDR64 Chips pro MultiCore-GPU...

Und der kleine schwarze Kasten auf dem Bild ist nicht etwa ein zukünftiger Trafo - nein: Das ist die miniaturisierte Wasserstoffzelle, die die zum Betrieb benötigte Leistung erzeugt. Der notwendige Kühlkörper wurde bei dem Foto abmontiert, und befindet sich eigentlich im Fundament unter dem Haus, von wo aus er die ganze Arktis mit fließendem Warmwasser versorgt...

:biggrin: :biggrin: :biggrin:

Aber wahrscheinlich wird es nicht dazu kommen, weil nVidia kurz vor der Fertigstellung der schnellsten und coolsten Grafikkarte der Welt von 3DFx aufgekauft werden wird. So geht nunmal das Rad der Geschichte.

Garnichts von Beiden wird sich durchsetzen. Es macht den PC einfach zu teuer. 3D KArten sind da was anderes, weil 1. da die Nachfrage extrem war da die Grafik vorher auf dem PC extrem schlecht war 2. weil man sich damals Geld für sündhaft teure CPUs sparen konnte und 3. weil die 3D Karten ganz schnell die Grafikkarten abgelöst haben und man so keine Zusatzkarte brauchte. Es ist einfach der Markt für sowas nicht da. Keiner gibt mal eben 300+ dafü aus. Denn müsste man an anderer Stelle sparen und damit ist auch keinem geholfen.

MadMax@
2006-09-13, 13:03:27
wie schon in 3 millionen anderen threads gesagt denke ich das Raytracing keinen Sinn macht(zumindest in Spielen in der Industrie mag das anders sein).

tokugawa
2006-09-13, 15:46:52
Hä, das verstehe ich nicht, wie soll realistisch nicht besser sein?
Wenn ich meine Augen auf mache, sehe ich realistische Grafik, weil ich ja die Realität sehe (Realität = realistisch).
Viel besser muss für mich Spielegrafik nicht werden. ;)

Rein technischer Realismus ist auch in Spielen kein Qualitätsfaktor - bloßer Realismus macht keine generell bessere Grafik (vom technischen Standpunkt vielleicht, aber Spielegrafik sollte nicht nur vom technischen sondern auch vom künstlerischen Standpunkt bewertet werden).

Es kommt auf den Inhalt an, also die Stimmigkeit. Und dann reicht auch eine stilisiertere Grafik, die nicht bis zum letzten Pixel realistisch ist. Auch finde ich persönlich Non-photorealistisch-Rendering (Sketching, Hatching, Celshading) sehr interessant.

Realismus ist überbewertet. Vor allem wenn man den künstlerischen Wert von Spielegrafik dadurch vernachlässigt.

Schon klar, wenn auch noch bei weitem nicht in jedem Spiel.

Was ich meinte war: auf die Weise kommt Raytracing quasi durch die Hintertür. Nicht so richtig, aber ein bißchen. Für mich ist das wichtigste Konzept an Raytracing, dass der Farbwert jedes Pixels über Primär- und Sekundärstrahlen berechnet wird. In der Praxis wird man diese Konzept halt nicht bis zur letzten Konsequenz durchziehen, sondern eine Mischform verwenden. So eben wie in aktuellen Spielen schon angedeutet.
Pures Raytracing für Computerspiele wird imho nie kommen.

Per Pixel Lighting hat nicht mal ansatzweise was mit Raytracing zu tun.

Und "pures Raytracing" gibt's in der Echtzeitgrafik schon, was auch immer du unter "pur" verstehst. Für Spiele bisher nicht praktikabel, aber das EU-Gametools-Projekt (www.gametools.org) hat da Technologien für raytraced Refraction/Reflection, die durchaus spieletauglich sind, von der Performance her.

Das ist genau der Punkt, warum so viele FarCry toll finden: Im Gegensatz zu HalfLife 2 werden dem Spieler in FarCry Grafiken geboten, die mit der Realität rein gar nichts mehr zu tun haben: Sauberes Wasser, saubere Strände, gesunde Flora und Fauna und eine Bonbon-Grafik, daß man zuckersüchtig wird.
Ich frage mich, warum aus dieser paradiesischen Engine unbedingt ein Shooter werden mußte. Warum konnte es nicht ein tolles Abenteuer/Schatzfinden/mit Piraten kämpfen/Monkey-Island werden?


Boa, ich dachte, ich wär der einzige der das dachte damals. Das Wasser war so dermaßen schön, dass ich am liebsten reinspringen würd und dort meinen Urlaub verbringen. Und ja, mit einem Adventure könnte man die Grafik auch besser genießen als in einem hektischen Shooter.

Ich fand dagegen auch Half-Life 2 in den meisten Teilen nicht so schlecht, vor allem die Innenstadt-Szenen im Ostblock-Stil.

Es kommt meiner Meinung nach daher vor allem auf die Stimmung an, die erzeugt wird, die Atmosphäre. Realismus ist daher sekundär.

(del)
2006-09-17, 00:50:14
Weder noch. Es entwickelt sich alles im Bereich der Informationstechnologie in Richtung integrierte (embedded) Systems. Es werden sich Zusatzkarten, die über aktuelles Funktionsangebot hinausgehen, nie wirklich etablieren.

Durch weitere Faktoren wie Miniaturisierung, wirtschaftliche Produktion, Geiz-Ist-Geil Mentalität, etc. wird sich solche Spielerei nicht durchsetzen.

Desti
2006-10-04, 18:28:32
Intel wirds entscheiden:
http://techreport.com/etc/2006q4/fall-idf/realtimeraytracing.jpg
http://techreport.com/etc/2006q4/fall-idf/index.x?pg=3

Gast
2006-10-16, 17:26:23
Das ist genau der Punkt, warum so viele FarCry toll finden: Im Gegensatz zu HalfLife 2 werden dem Spieler in FarCry Grafiken geboten, die mit der Realität rein gar nichts mehr zu tun haben: Sauberes Wasser, saubere Strände, gesunde Flora und Fauna und eine Bonbon-Grafik, daß man zuckersüchtig wird.
Ich frage mich, warum aus dieser paradiesischen Engine unbedingt ein Shooter werden mußte. Warum konnte es nicht ein tolles Abenteuer/Schatzfinden/mit Piraten kämpfen/Monkey-Island werden?

hey, psst: aus farcry sollte auch mal was ganz anderes werden ;) so was mit mafia usw. es gab sogar schon nen trailer dazu!
aber dann wurde farcry kurzerhand zu dem, wie wir es alle kennen und mögen... aber psst, nicht weiter sagen! ;)

Nyrad
2006-10-16, 20:59:31
gibts diesen trailer noch irgendwo zu begutachten ? :)

Gast
2006-10-16, 22:35:22
gibts diesen trailer noch irgendwo zu begutachten ? :)

ich glaub das es das nie zu sehn gab und wahrscheinlich auch nie geben wird... das was ich da mit mafia und trailer geschrieben hab, war wohl nie für die öffentlickeit bestimmt... ich hab den trailer selbst auch nicht gesehn aber ein sehr guter kumpel von mir und der hats von nem "insider". also die quelle ist auch verlässlich!!! nur bezweifel ich, das wir das wohl "nie" zu gesicht bekommen werden... leider...
aber immerhin wissen wir (weiß ich), das farcry ursprünglich etwas ganz anderes werden sollte... ;)

Gast
2006-10-16, 22:36:13
gibts diesen trailer noch irgendwo zu begutachten ? :)

ich glaub das es das nie zu sehn gab und wahrscheinlich auch nie geben wird... das was ich da mit mafia und trailer geschrieben hab, war wohl nie für die öffentlickeit bestimmt... ich hab den trailer selbst auch nicht gesehn aber ein sehr guter kumpel von mir und der hats von nem "insider". also die quelle ist auch verlässlich!!! nur bezweifel ich, das wir das wohl "nie" zu gesicht bekommen werden... leider...
aber immerhin wissen wir (weiß ich), das farcry ursprünglich etwas ganz anderes werden sollte... ;)

Gast
2007-02-11, 23:14:32
Intel wirds entscheiden:
http://techreport.com/etc/2006q4/fall-idf/realtimeraytracing.jpg
http://techreport.com/etc/2006q4/fall-idf/index.x?pg=3

http://www.heise.de/newsticker/meldung/85119

Raytracing-Karten wären sicher effizienter, aber ein CPU-Cluster ist zusätzlich noch zu alten Spielen 'abwärtskompatibel', da man damit auch ältere Garfikhardware emulieren kann.
Und Physik-Berechnungen erschlägt das Teil auch noch nebenher, genauso wie KI :)

Für mich würde die Frage eher lauten:

"Welcher Technologie räumt ihr mehr Chancen ein? Physik- und Raytracing-Karten oder Multi-Purpose-CPU-Clustern?"

Gast
2007-02-12, 11:21:45
Gräbt der hier Tote aus...

Die CPUs da drauf sind keine GP-CPUs.
Auch würde es eher als Richtung sehen wohin sich GPUs in Zukunft bewegen werden. Der G80 hat sich ja schonmal auf den Weg dorthin gemacht.

CPUs werden auch in Zukunft OoO bleiben. Es muss immer mehr Code geschrieben werden bei gleicher/weniger Zeit und die Programmiersprachen werden immer abstrakter, so dass der Vorteil immer größer werden wird.
Wenn Intel dann in 5-10 Jahren bei einem Terraflop in Serie ist, wird man bei den GPUs schon ein Vielfaches davon sehen.

Liszca
2007-02-17, 17:27:12
Dedizierte Physik karten oder Raytracing Karten?

In beiden Fällen gibt es schon erste Prototypen bzw. im Falle des Physik Chips schon kaufbare Hardware. Aber auch Raytracing Karten sind in Planung.

Wer wird das Rennen machen?

Mehr chancen räume ich der raytracing karten ein, wobei das auch ein wunschdenken meinerseits wäre.

sth
2007-02-17, 19:29:49
Meine Glaskugel sagt: Weder spezialisierte Physik-Karten, noch spezialisierte Raytracing-Karten werden das Rennen machen. Eine universelle Lösung ist gefragt, die am Ende des Tages auch noch für andere Berechnungen taugt (z.B. Pathfinding oder irgendwann mal Wavetracing). Der Weg, den nVidia mit CUDA eingeschlagen hat lässt die Entwicklungen der nächsten Jahre schon erahnen.

²Thom
2007-02-20, 17:24:02
Ich denke, dass es erst mal in Richtung CoPro geht. Jedenfalls bei AMD. Die haben sich letztes oder vorletztes Jahr eine Coprozessorschmiede einverleibt. Bald schon wird man die Möglichkeit besitzen neben seinen Opteron/Athlon einen zweiten zu setzen oder einen spezialisierten COPRO im AM2+ Sockel mit HTt3 angebunden. Der wird das berechnen, was er schnell kann.

Falls es noch nicht angekommen ist, ich bin für Raytracing, da in absehbarer Zeit diese Technik besser mit der Hardware skaliert.
10 Dreiecke für den Rechenaufwand von 2 ist nicht zu toppen.
Ich könnte mir vorstellen, dass der PS3-Cell-Chip bereits locker genügend Power hätte für ein ruckelfreies 3D-Gaming in PAL-Auflösung.

Und noch was zu "übertriebener Realismus". Die Figuren sind immer nur so realistisch, wie sie geschaffen werden. Hingegen eine gemauerte Wand aus einzelnen Steinen zu erschaffen ist beim näherer Betrachtung viel schöner als Bumpmapping etc.
Warum arbeitet Hollywood wohl überwiegend mit Raytracing? Schading ist eine Krücke , die bisher die Bandbreiten und Rechenleistungen schonen konnte.:smile:

][immy
2007-02-20, 18:02:46
Falls es noch nicht angekommen ist, ich bin für Raytracing, da in absehbarer Zeit diese Technik besser mit der Hardware skaliert.
10 Dreiecke für den Rechenaufwand von 2 ist nicht zu toppen.
Ich könnte mir vorstellen, dass der PS3-Cell-Chip bereits locker genügend Power hätte für ein ruckelfreies 3D-Gaming in PAL-Auflösung.


wenn das auf raytracing bezogen ist, da dürfte die ps3 nicht ansatzweise ein spiel in pal-auflösung darstellen können. irgendwie wird der cell stark überbewertet. immerhin ist das ding keine wunder-"cpu"

eine chance gebe ich so gesehen kurzzeitig den physikkarten, dürfte dann aber schnell wieder durch multi-cpus ersetzt werden. raytracing ist zwar eine nette sache, aber ich glaube nicht das das kommen wird. vor allem mit steigender auflösung steigt die rechenkraft die für raytracing benötigt wird enorm an. zwar können die algorithmen wunderbar paralellisiert werden aber dennoch ist der rechenaufwand gigantisch. ich könnte mir aber vorstellen das man so eine art einfacheres raytracing in hardware durchaus beschleunigen könnte. so das man dann in einer verringerten auflösung zumindest die schatten von einem kleinen chip auf der grafikkarte berechnen lässt, aber mehr ansich auch nicht.

aber über kurz oder lang wird die grafikkarte auch wegfallen, das wird zwar noch eine weile dauern (vor allen dingen da die cpu nicht ansatzweise soviel speicherbandbreite hat wie die grafikkarte) aber irgendwann wird es kommen.

haifisch1896
2007-02-20, 20:18:31
Aktuelle Grafikkarten entsprechen jedenfalls dem VooDoo2-Konzept. Ich warte auf die Realisierung des VooDoo3-Konzepts (2 GPUs auf einer Karte). Und irgendwann wird dann das VSA100-Konzept (VooDoo5) kommen....


2x Rage128Pro= ATI Rage Fury MaXX (http://images.google.de/images?q=rage+fury+maxx&ie=UTF-8&oe=UTF-8&rls=org.mozilla:de:official&client=firefox-a&sa=N&tab=wi&gbv=1&ei=SknbRZPmBKGuyALq5uGLCQ)

²Thom
2007-02-21, 09:51:44
[immy;5268419']wenn das auf raytracing bezogen ist, da dürfte die ps3 nicht ansatzweise ein spiel in pal-auflösung darstellen können. irgendwie wird der cell stark überbewertet. immerhin ist das ding keine wunder-"cpu"

eine chance gebe ich so gesehen kurzzeitig den physikkarten, dürfte dann aber schnell wieder durch multi-cpus ersetzt werden. raytracing ist zwar eine nette sache, aber ich glaube nicht das das kommen wird. vor allem mit steigender auflösung steigt die rechenkraft die für raytracing benötigt wird enorm an. zwar können die algorithmen wunderbar paralellisiert werden aber dennoch ist der rechenaufwand gigantisch. ich könnte mir aber vorstellen das man so eine art einfacheres raytracing in hardware durchaus beschleunigen könnte. so das man dann in einer verringerten auflösung zumindest die schatten von einem kleinen chip auf der grafikkarte berechnen lässt, aber mehr ansich auch nicht.

Die Schatten bekommst Du beim Raytracing geschenkt. An der Uni Saarbrücken hat man mal einen Hardware-Raytracing-Chip "gebastelt", der zwar nur 90MHz Takt hatte aber immerhin bei halber VGA-Auflösung, soweit ich weiß, um die 15 Fps geschafft hat. Das ist aber schon eine Weile her.



aber über kurz oder lang wird die grafikkarte auch wegfallen, das wird zwar noch eine weile dauern (vor allen dingen da die cpu nicht ansatzweise soviel speicherbandbreite hat wie die grafikkarte) aber irgendwann wird es kommen.

In Zukunft brauch man die Cpu nur noch um die Grafikkarte hochzufahren und die Zugriffe auf die Festplatte zu regeln. Eventuell hat die Grafikkarte selbst SATA und USB. Und wenn wir schon dabei sind einen Verbrennungsmotor mit E-Starter zur Kühlung.

Wann wird Deiner Meinung nach der Wahn aufhören? Momentan ist der Zeitpunkt günstig. Die Monitore sowie die Fernseher nähern sich einer gemeinsamen Auflösung von 1920x1080. Das reicht erst mal außer bei CAD da gibt es schon 2500-er und 3600-er. Das ist OK. Aber zum Spielen, nö. Dann lieber Asteroid auf em Amiga.

Gast
2007-02-21, 10:38:01
Die Schatten bekommst Du beim Raytracing geschenkt.
Das ist ein weit verbreiteter Irrtum.
Du muss um Schatten zu bekommen pro Primaryray mindestens ein Shadowray schießen. Damit verdoppeln sich bei einer Punktlichtquelle doch glatt mal die Kosten für das Raycasting. Für jede weitere Punktlichtquelle vervielfachen sich die Kosten halt entsprechend.
Da man dann noch kein Multipass hat, ist es auch nicht günstig möglich günstig mehrere Samples für den Schatten zu bekommen. D.h. für weiche Schatten benötigt man pro Primaryray und pro Punktlichtquelle x Strahlen.

Macht ihm Endeffekt n + (n*l*x) Strahlen (n: Anzahl der Pixel/Primaryrays; l: Anzahl der Lichtquellen; x: Anzahl der Samples für den Schatten pro Pixel und Lichtquelle)
Wie man deutlich sieht ist n < n*l*x, woraus folgt, dass die Schatten wesentlich teurer sind als die einfache Bildberechnung.

²Thom
2007-02-21, 12:37:10
Das ist ein weit verbreiteter Irrtum.
Du muss um Schatten zu bekommen pro Primaryray mindestens ein Shadowray schießen. Damit verdoppeln sich bei einer Punktlichtquelle doch glatt mal die Kosten für das Raycasting. Für jede weitere Punktlichtquelle vervielfachen sich die Kosten halt entsprechend.
Da man dann noch kein Multipass hat, ist es auch nicht günstig möglich günstig mehrere Samples für den Schatten zu bekommen. D.h. für weiche Schatten benötigt man pro Primaryray und pro Punktlichtquelle x Strahlen.

Macht ihm Endeffekt n + (n*l*x) Strahlen (n: Anzahl der Pixel/Primaryrays; l: Anzahl der Lichtquellen; x: Anzahl der Samples für den Schatten pro Pixel und Lichtquelle)
Wie man deutlich sieht ist n < n*l*x, woraus folgt, dass die Schatten wesentlich teurer sind als die einfache Bildberechnung.

Also von Shadowrays habe ich noch nie was gehört. Und wenn genug Reflektionen da sind, sind die Schatten auch hinlänglich unscharf. Nimmt man dann noch die Lichtbeugung an Kanten in die Physik auf, ist es so real, als wenn die Sonne scheint. Dafür muss man mit Schadern ganz böse tricksen.

Ich hatte vor Jahren mal die Idee Raytracing in einem 3D-Eimerkettenspeicher abzubilden, wo man ausgehend von egal wie vielen Lichtquellen, gleichzeitig die Strahlen in alle Richtungen losschickt (Als Beleuchtungswert (RGB in 16-16-16), der jeweils, physikalisch korrekt(Abnahme der Leuchtstärke im Quadrat zur Entfernung, Rauch und Staub in der Luft), zur nächsten Speicherzelle weitergegeben wird).
Ausgelesen werden kann das Ganze aus jedem erdenklichen Blickwinkel.

Rechenleistung: Fast keine außer der Strahlschwächung von Zelle zu Zelle. Die könnte man auch als Zählvariable mitgeben, wie viele Zellen schon passiert wurden. 16 bit sollten da reichen. Damit sind wir bei 64 Bit je Speicherzelle und noch mal 64 Bit für die Eigenschaften der Speicherzelle(Farbe, Reflektion, alpha). Na ja bei Reflektion fällt mir ein, dass ein Richtungsvector auch nicht schaden könnte.
Bei einer Auflösung von 1280x1024 gehe ich von einer Tiefe von nochmal 1024 aus das sind dann 1.342.177.280 Zellen. Wow hätte ich nicht gedacht. Und die Geometrie der Reflektion müßte jede Zelle auch noch berechnen können.

Das werden locker 1000 Transistoren je Zelle und damit sind wir bei 1,3 Billionen Transistoren. Das dauert noch 10 Jahre bis man diese Kompexität abbilden kann.
Vergisst man das analoge 3D-Eimerkettendesign und geht auf die ebene Fläche, werden die Berechnungen, die eine Zelle vornehmen können muß komplizierter. Nehmen wir an je Zelle 2000 Transistoren. Das sind dann 1280x1024x2000 = 2.621.440.000. Das liegt in einem Bereich, der mit heutiger Technik abbildbar ist(Transistorcount INTEL Dual core Itanium: 1.700.000.000).
Übrigens: Eimerketten speichern analog d.h. für die drei Farbään bräuchte man nur einen Eimer. Und wie bei einer richtigen Eimerkette: wenn sie nur lang genug ist kommt am anderen Ende nichts mehr an.

Man hab ich heut' 'nen Schwall am Leib.=)

Gast
2007-02-21, 13:10:42
Also von Shadowrays habe ich noch nie was gehört.

Da hilft es dann, einfach mal Google anzuwerfen, Suchbegriff "shadow ray".

²Thom
2007-02-21, 14:10:03
Da hilft es dann, einfach mal Google anzuwerfen, Suchbegriff "shadow ray".


Ja, werter Gast jetzt weiß ich es genau: Das ist ein Album des Künstlers Omar-S.

Hier:

http://www.siggraph.org/education/materials/HyperGraph/raytrace/rtrace1.htm

ist das schön erklärt. Das ist ein Strahl, der vom Betrachter aus geht. Ein unpassendes (dummes, englisches) Wort (eines von so vielen) für einen simplen Vorgang. Der ist null von Interesse, weil man von der Lichtquelle aus geht und nicht das fertig gerenderte Bild mit "Schadow-Rays" aus rosa Plüsch beschießt. Selbstverständlich hört ein Strahl nicht auf zu laufen, wenn er einen Schatten trifft; er wird weiterreflektiert und hellt den getroffenen Punkt auf, wenn der nicht gerade 100% absorbierend ist(was in der Regel nur schwarzschildsche Singularitäten sind zumindest für sichtbares Licht). Ansonsten funktioniert die Spieglung der Spieglung ja auch nicht.

Warum ist Deutsch die Sprache der Philosophen und Denker? Weil man sich exakt ausdrücken kann. Nicht so ein vieldeutbarer englischer Plumpudding.

Schönen Tag noch.

Mr.Soapdown
2007-02-21, 15:49:53
... viel Text vorher
Und der kleine schwarze Kasten auf dem Bild ist nicht etwa ein zukünftiger Trafo - nein: Das ist die miniaturisierte Wasserstoffzelle, die die zum Betrieb benötigte Leistung erzeugt. Der notwendige Kühlkörper wurde bei dem Foto abmontiert, und befindet sich eigentlich im Fundament unter dem Haus, von wo aus er die ganze Arktis mit fließendem Warmwasser versorgt...

:biggrin: :biggrin: :biggrin:

Aber wahrscheinlich wird es nicht dazu kommen, weil nVidia kurz vor der Fertigstellung der schnellsten und coolsten Grafikkarte der Welt von 3DFx aufgekauft werden wird. So geht nunmal das Rad der Geschichte.

Endlich habe ich mal wieder gelacht. Warum gibts nicht mehr solcher Kommentare (wenn´s passt). Weiterso....@ Gast

Gast
2007-02-21, 23:47:27
http://www.siggraph.org/education/materials/HyperGraph/raytrace/rtrace1.htm

ist das schön erklärt. Das ist ein Strahl, der vom Betrachter aus geht. Ein unpassendes (dummes, englisches) Wort (eines von so vielen) für einen simplen Vorgang.
Ein Shadowray geht von der Kameraposition aus?
Les nochmal deinen Link...
Der ist null von Interesse, weil man von der Lichtquelle aus geht und nicht das fertig gerenderte Bild mit "Schadow-Rays" aus rosa Plüsch beschießt.
Dann wünsch ich dir aber mal viel Spass. Backward Raytracing ist die einzig praktikable Lösung, wenn man Photonmapping absieht. Aber selbst dort wird das endgültige Bild wieder bei Backwardraytracing berechnet.
Selbstverständlich hört ein Strahl nicht auf zu laufen, wenn er einen Schatten trifft; er wird weiterreflektiert und hellt den getroffenen Punkt auf, wenn der nicht gerade 100% absorbierend ist(was in der Regel nur schwarzschildsche Singularitäten sind zumindest für sichtbares Licht). Ansonsten funktioniert die Spieglung der Spieglung ja auch nicht.
Was aber wieder neue andere Strahlen sind. Auch bei Reflektionen geht man normal von der Kamera ausgehend aus.