Archiv verlassen und diese Seite im Standarddesign anzeigen : Caustic: Ray-Tracing-Beschleuniger
pixelguy
2009-03-09, 16:45:39
Konkurrenz zu LRB?
Start-up "Caustic" will Raytracing für Spiele etablieren: http://www.golem.de/0903/65780.html
AnarchX
2009-03-09, 16:55:17
Ein sonderbarer Raytracing-Co-Prozessor soll eine Konkurrenz zu einem x86-Many-Core, mit wohl nicht ganz unerheblichen Know-How auf SW-Ebene, welche nicht nur RT einschliesst, sein?;)
Mit der offenbaren Bindung an OGL(ES) würde ich der Technologie auch keine große Zukunft im PC-Markt geben.
deekey777
2009-03-09, 16:56:42
Wenn der Schwerpunkt der LRB auf Rasterization liegt, warum soll ein "Raytracer" Konkurrenz des LRB sein?
Und auch Intels kommendem Manycore-Beschleuniger für Grafik, Larrabee, wird beachtliche Raytracing-Rechenleistung nachgesagt.
Eine HD4870X2 hat aktuell wohl eine höhere "Raytracing"-Leistung als der LRB. Die 2,4 TFLOPs sollen noch getoppt werden.
Ailuros
2009-03-09, 16:57:59
Konkurrenz zu LRB?
Start-up "Caustic" will Raytracing für Spiele etablieren: http://www.golem.de/0903/65780.html
Wenn ich mich nicht irre klingt das Ganze nach einer Zusteckkarte wie Ageia PPU.
Wenn ich mich nicht irre klingt das Ganze nach einer Zusteckkarte wie Ageia PPU.
Ich fühlte mich auch an Ageia erinnert. Und damit irgendwie auch an ein Startup, dessen mehr oder weniger offen erklärtes Ziel es eben nicht ist, ein fertiges und funktionsfähiges Produkt auf den Markt zu bringen, sondern einfach für viel Geld übernommen zu werden.
deekey777
2009-03-09, 17:41:02
http://www.caustic.com/caustic-rt_caustic-one.php
Real Raytracing.
Some technology vendors claim to have solved the accelerated ray-tracing problem by using traditional algorithms along with GPU hardware.
Ich tippe, sie meinen Nvidias RT-Demo.
If you've ever seen them demo their solutions you'll notice that while results may be fast—the image quality is underwhelming, far the quality that ray-tracing is known for. The reason for this is that the more advanced lighting and shading effects—such as caustics, refraction and global illumination—cannot be accelerated using their methods. Why not? Incoherent rays.
Hä?
Also ein Beschleuniger des Beschleunigers?
Ja, Nvidias RT-Demo ist visuell vielleicht nicht der Oberhammer, aber was stimmt mit deren Raytracing nicht, dass wir jetzt inen RT-Beschleuniger brauchen?
In a true raytracing solution primary rays will bounce and scatter secondary rays throughout complex scenes. These secondary rays may be incoherent (i.e. reflect off in various directions) and it is these incoherent rays that are the key to creating the advanced effects required to achieve photorealism in complex images (numerous objects, refractive and reflective materials, rough surfaces).
Verstehe ich nicht: Was haben Materialshader damit zu tun?
Ailuros
2009-03-09, 17:53:24
Ich fühlte mich auch an Ageia erinnert. Und damit irgendwie auch an ein Startup, dessen mehr oder weniger offen erklärtes Ziel es eben nicht ist, ein fertiges und funktionsfähiges Produkt auf den Markt zu bringen, sondern einfach für viel Geld übernommen zu werden.
LOL duerfte schon stimmen.
looking glass
2009-03-09, 17:55:25
Bin der gleichen Meinung wie der Gast, hört sich für mich nach einem typischen "kauft uns auf" Projekt an.
RT in den Markt zu bringen bedarf eines, nun ja, Big Player, alles andere ist entweder auf der speziellen Schiene der z.B. Pixar Filme usw. zu finden, oder von Anfang an ein totes Pferd.
deekey777
2009-03-09, 22:02:40
Wer soll sie haben wollen? Sie ziehen die aktuellen Präsentationen durch den Dreck und geben nur Blabla von sich.
Für Intel sind sie uninteressant, da sie einerseits selbst forschen, andererseits nur die Hardware anbieten. Ok, wenn sie die Typen aufkaufen, portieren sie deren Zeug schnell auf Ct, damit es nur auf eigenen Prozessoren läuft.
Für Nvidia gilt das noch weniger, sie forschen auch, haben das nötige Know-how durch Aufkäufe.
ATi/AMD haben kein Geld, haben mit OTOY einen guten Partner und sind wohl die Einzigen, die bisher etwas gezeigt haben, dass schön aussah.
Süss.
Der Caustics-Co-Prozessor sieht in der zugegeben schematischen Darstellung wie ein LGA775-Prozessor aus. Ein Chelm, wer Pöses dapei denkt.
Ailuros
2009-03-12, 10:10:28
Wer soll sie haben wollen? Sie ziehen die aktuellen Präsentationen durch den Dreck und geben nur Blabla von sich.
Für Intel sind sie uninteressant, da sie einerseits selbst forschen, andererseits nur die Hardware anbieten. Ok, wenn sie die Typen aufkaufen, portieren sie deren Zeug schnell auf Ct, damit es nur auf eigenen Prozessoren läuft.
Für Nvidia gilt das noch weniger, sie forschen auch, haben das nötige Know-how durch Aufkäufe.
ATi/AMD haben kein Geld, haben mit OTOY einen guten Partner und sind wohl die Einzigen, die bisher etwas gezeigt haben, dass schön aussah.
Ich haette auch nicht gedacht dass NV Ageia aufkauft und so begeistert mit dem heutigen Resultat bin ich nun auch wieder nicht (haengt aber hauptsaechlich daran dass ich von heutigen physics Implementierungen nicht viel halte...).
http://www.fudzilla.com/index.php?option=com_content&task=view&id=12559&Itemid=1
Und hier hat fudzilla womoeglich recht dass es sich um ein teures Nischen Produkt handeln wird.
Nasenbaer
2009-03-15, 14:22:13
Verstehe ich nicht: Was haben Materialshader damit zu tun?
So wie ich das verstehe, bemängeln die, dass bei nVidia, immer nur ein Reflektions-/Refraktions-Ray erzeugt wird.
Um aber unscharfe Reflektionen, wie sie durch nicht ideal spiegelnde Materialien erzeugt werden, darzustellen, müssen richtigerweise mehrere Rays geschickt werden und deren Ergebnis dann gemittelt. Mit anderen Worten meinen sie, dass nur mit ihrer Karte Diffuses Raytracing (http://de.wikipedia.org/wiki/Diffuses_Raytracing) möglich sei. Bin kein CUDA-Experte aber IMO sollte CUDA damit aber keine Probleme haben.
Es ist natürlich auch mit Cuda möglich, aber Grafikkarten arbeiten nur dann optimal, wenn gleichzeitig auf verschiedene Datensätze die gleiche Operationen angewendet werden, ähnlich den Multimediaeinheiten in den CPUs. Das ist dann der Fall, wenn man die Strahlen von der Kamera aus fast parallel aussendet. Strahlen, die nebeneinander starten, werden vielleicht dasselbe Objekt treffen, dabei durch laufen sie diesselben Teile des Beschleunigungsbaums. Genau das kann beschleunigt werden.
Wenn das aber nicht möglich ist, weil Strahlen in gänzlich verschiedene Richtung geschickt werden müssen, wie bei diffusen Reflexionen, dann brauch man Hardware, die einfach viele unabhängige (incoheränte, stand ja im Artikel) Strahlen verfolgen kann.
Aquaschaf
2009-03-15, 17:26:16
Aber das ist ja kein Problem was man mit spezialisierter Hardware lösen kann, sondern eins welches jede Art von Prozessor dabei hat. Bzw. hat eine Architektur die sich weniger stark dadurch von ihrem Peak-Durchsatz entfernt zwangsläufig auch einen niedrigeren Peak-Durchsatz. Ich glaube nicht dass da ein Spezialchip gravierende Verbesserungen bringen würde.
Ailuros
2009-03-15, 18:10:24
Es ist natürlich auch mit Cuda möglich, aber Grafikkarten arbeiten nur dann optimal, wenn gleichzeitig auf verschiedene Datensätze die gleiche Operationen angewendet werden, ähnlich den Multimediaeinheiten in den CPUs. Das ist dann der Fall, wenn man die Strahlen von der Kamera aus fast parallel aussendet. Strahlen, die nebeneinander starten, werden vielleicht dasselbe Objekt treffen, dabei durch laufen sie diesselben Teile des Beschleunigungsbaums. Genau das kann beschleunigt werden.
Wenn das aber nicht möglich ist, weil Strahlen in gänzlich verschiedene Richtung geschickt werden müssen, wie bei diffusen Reflexionen, dann brauch man Hardware, die einfach viele unabhängige (incoheränte, stand ja im Artikel) Strahlen verfolgen kann.
Bevor wir erstmal so weit kommen, schwirrt die genau gleiche Frage in meinem Hinterkopf als damals Ageia mit ihrer PPU erschien: wie der Datenstrom zwischen 3 Prozessoren (CPU+GPU+CO) genau verlaufen soll.
Tesseract
2009-03-15, 18:33:10
woher kommt eigentlich dieser absurde ray-tracing-hype?
raytracing ist hochgradig ineffizient gegenüber rasterizern. wenn ein raytracer gleich schnell wie ein rasterizer sein soll, muss man das immer mit roher gewalt erkaufen. sprich: mehr transistoren, bessere fertigung, höherer takt usw.
Nasenbaer
2009-03-15, 20:09:42
woher kommt eigentlich dieser absurde ray-tracing-hype?
raytracing ist hochgradig ineffizient gegenüber rasterizern. wenn ein raytracer gleich schnell wie ein rasterizer sein soll, muss man das immer mit roher gewalt erkaufen. sprich: mehr transistoren, bessere fertigung, höherer takt usw.
Ich vermute mal entweder der Wunsch nach korrekter Darstellung von Reflektionen usw. oder aber von den ganzen Renderfilmen, die natürlich längst nicht nur simples Raytracing nutzen.
Leonidas
2009-03-15, 20:17:58
Raytracing wird doch in erster Linie seitens Intel gepuscht. Die erhoffen sich damit einen Marketingvorteil bei ihren Grafikchips: Weil wenn man NV/ATI nur auf Rasterizer-Ebene angeht, muß man wirklich Leistung bringen. Bringt man dagegen Raytracing, kann man behaupten, man hätte was, was ATI/NV nicht können - am besten noch, wenn man zusätzlich behauptet, Raytracing wäre optisch überlegen.
Dies sagt nicht, daß Raytracing nicht seine guten Dinge hat. Nur wird Raytracing seitens Intel sicherlich nicht deswegen gepuscht, sondern weil man Argumente gegenüber NV/ATI braucht - egal wie unsinnig diese aussehen mögen bzw. egal wie verfrüht die Technologie gebracht wird.
Tesseract
2009-03-15, 21:17:10
Ich vermute mal entweder der Wunsch nach korrekter Darstellung von Reflektionen usw. oder aber von den ganzen Renderfilmen, die natürlich längst nicht nur simples Raytracing nutzen.
abgesehen davon, dass reflektionen in der praxis fast nie gebraucht werden wird selbst in high-budget-renderfilmen jede menge mit rasterisierung gearbeitet.
Nasenbaer
2009-03-15, 22:16:12
abgesehen davon, dass reflektionen in der praxis fast nie gebraucht werden wird selbst in high-budget-renderfilmen jede menge mit rasterisierung gearbeitet.
Das musst du mir nicht sagen. :)
Raytracing ist zusammen mit einen anderen Techniken sicher ne feine Sache für Offline-Rendering, denn ohne Echtzeit-Anforderung kann Raytracing auch seinen Vorteil als globale Beleuchtungstechnik ausspielen. Aber für Spiele ist das nicht unbedingt nötig, da die Korrektheit des Bildes nicht so entscheident ist wie die Schönheit und darum kann man sicher aber auch beim Rasterizer bleiben.
Wobei traditionelle Raytracing-Renderer auch beim Offline-Rendering nicht mehr Stand der Technik ist. *g*
ScottManDeath
2009-03-15, 23:35:24
Wenn Du allerdings zich GB an Geometrie rendern willst, wie z.B. das Boeing 777 Model, hat ein kd-tree fuer einen Raytracer den Vorteil, das er implizit LOD macht, d.h. Du musst nicht alle Knoten in den RAM laden, sondern nur die, die auch potentiell sichtbar sind. Man kann zwar mit occlusion queries bei einem Rasterizer rumtricksen, aber das wird auch sehr schnell sehr haesslich.
Aber ansonsten, overhyped.
roidal
2009-03-16, 09:02:49
Ich fühlte mich auch an Ageia erinnert. Und damit irgendwie auch an ein Startup, dessen mehr oder weniger offen erklärtes Ziel es eben nicht ist, ein fertiges und funktionsfähiges Produkt auf den Markt zu bringen, sondern einfach für viel Geld übernommen zu werden.
Naja, das Funktionsfähige Produkt soll laut heise.de (http://www.heise.de/newsticker/Caustic-kuendigt-Raytracing-Beschleuniger-an--/meldung/134549) im April da sein. Mal sehen ob das wahr ist. :)
Nasenbaer
2009-03-16, 09:02:50
Wenn Du allerdings zich GB an Geometrie rendern willst, wie z.B. das Boeing 777 Model, hat ein kd-tree fuer einen Raytracer den Vorteil, das er implizit LOD macht, d.h. Du musst nicht alle Knoten in den RAM laden, sondern nur die, die auch potentiell sichtbar sind. Man kann zwar mit occlusion queries bei einem Rasterizer rumtricksen, aber das wird auch sehr schnell sehr haesslich.
Aber ansonsten, overhyped.
Wieso macht ein kd-Tree LOD? Es wird ja nicht eine geringer aufgelöstes Modell genutzt sondern einfach nur nicht benötigte Teile nicht geladen. Unter LOD versteh ich jedenfalls was anderes oder steh ich auf'm Schlauch?
Wenn Du allerdings zich GB an Geometrie rendern willst, wie z.B. das Boeing 777 Model, hat ein kd-tree fuer einen Raytracer den Vorteil, das er implizit LOD macht, d.h. Du musst nicht alle Knoten in den RAM laden, sondern nur die, die auch potentiell sichtbar sind. Man kann zwar mit occlusion queries bei einem Rasterizer rumtricksen, aber das wird auch sehr schnell sehr haesslich.
queries sind nur haesslich wenn man damit nicht umgehen kann oder eine dafuer schlecht designte api hat. auf konsolen und servern gibt es schon lange pipelines die queries abarbeiten ohne dass das feedback von der cpu behandelt werden muss.
boeingmodelle und viele andere CAD anwendungen werden rasterisiert, vor allem weil oft im wireframe geometrie angeschaut wird.
selten dass man gefuellte flaechen hat bei denen ein raytracer was bringen koennte.
Wieso macht ein kd-Tree LOD? Es wird ja nicht eine geringer aufgelöstes Modell genutzt sondern einfach nur nicht benötigte Teile nicht geladen. Unter LOD versteh ich jedenfalls was anderes oder steh ich auf'm Schlauch?
Level Of Detail im Sinne von wieviel 'Detail' also Daten, du handhaben musst. Eigentlich also culling, aber manche (akademischen) Zweige nutzen das als Synonym.
Doc-Offline
2009-03-19, 08:39:42
http://www.caustic.com/
Alles, ehemalige Apple-Mitarbeiter und die machen ne PC-Lösung mit OpenGL ?
Wäre doch Schade, wenn der gute Steve die Teile nicht im nächsten iMac einbaut.
Doc
am 23.04.09 wissen wir mehr!
Die Boards sehen irgendwie stark nach FPGAs aus. Der Preis wird wohl auch recht hoch sein. Ich bin allerdings auf die API gespannt.
Animation as you would expect
The CausticRT platform solves the problems associated with real-time geometry animation in a raytracing system. As such, vertex shaders and object manipulation ”just work” as you would expect with predictable performance characteristics.
Ich muss sagen, ich bin sehr beeindruckt. Ich frage mich wie sie das machen.
Bisher bin ich davon ausgegangen, dass genau das ziemlich unlösbar ist.
Ich muss sagen, ich bin sehr beeindruckt. Ich frage mich wie sie das machen.
Da gibts halt 2 Möglichkeiten:
- Fuzzy KD-Tree/Octree/...
- Beschleunigerstruktur jedes mal neu aufbauen
oder ne Kombination.
Auf jeden Fall ist ihre log(n) hinüber, da sie jedes Dreieck anfassen müssen.
Jo eben. Das Problem am Vertex-Shader ist ja, dass es nichtmal Constraints gibt wo die Endresultate landen können.
Aber vielleicht gibt's das ja bei deren Shading-Sprache doch ;)
Aber vielleicht gibt's das ja bei deren Shading-Sprache doch ;)
Das wäre wohl ganz hilfreich für sie.
Den Faktor 20/200 ist aber eh garantiert ein Vergleich zu anderen kommerziellen Produkten und nicht zu universitären High-Performance Raytracern wie Arauna oder RTFact. Die liegen ja auch in dem Bereich.
Ich finde den Ansatz schwachsinnig Raytracing eine Rasterisierungspipeline aufdrücken zu wollen, da andere Constraints wichtig sind. Nvidia hat ja nicht ohne Grund eine extra API mit eigener Pipeline für Raytracing gebaut.
deekey777
2009-04-20, 14:54:54
Caustic Graphics Ray Tracing Acceleration Technology Review (http://www.pcper.com/article.php?aid=694&type=expert&pid=1)
Bin noch beim Lesen (heißt nicht, dass ich auch verstehe, was ich lese).
DR.ZEISSLER
2009-04-25, 09:20:14
http://www.youtube.com/watch?v=LSwjXDCknpo
http://www.youtube.com/watch?v=Gh7MD4PuxfA&feature=channel_page
Demirug
2009-04-25, 10:19:12
Ich muss sagen, ich bin sehr beeindruckt. Ich frage mich wie sie das machen.
Bisher bin ich davon ausgegangen, dass genau das ziemlich unlösbar ist.
Das Problem das ich damit habe ist das sie in den ganzen Demos die ich finden kann gerade davon nichts zeigen.
DR.ZEISSLER
2009-05-19, 22:38:38
habt ihr nicht immer gesagt dass gerade die "dynamische geometrie" das problem von raytracing ist.
haben die das gelöst ? http://www.youtube.com/watch?v=sUSoopS7MhQ
Doc
habt ihr nicht immer gesagt dass gerade die "dynamische geometrie" das problem von raytracing ist.
haben die das gelöst ? http://www.youtube.com/watch?v=sUSoopS7MhQ
Da wird nur statische Geometrie rumbewegt. Sowas kann man einfach über einen Highlevel BSP lösen.
DR.ZEISSLER
2009-05-19, 22:52:07
ja wie gesagt, habe keine ahnung von sowas, aber dennoch denke ich dass die z.t. andere wege gehen, aber das wird wohl noch jahre dauern.
ja wie gesagt, habe keine ahnung von sowas, aber dennoch denke ich dass die z.t. andere wege gehen,
Warum?
Prinzip Hoffnung?
DR.ZEISSLER
2009-05-20, 08:20:13
Warum?
Prinzip Hoffnung?
nenn es wie du willst, ist nur so ein bauchgefühl.
deekey777
2010-12-14, 19:29:39
Ich fühlte mich auch an Ageia erinnert. Und damit irgendwie auch an ein Startup, dessen mehr oder weniger offen erklärtes Ziel es eben nicht ist, ein fertiges und funktionsfähiges Produkt auf den Markt zu bringen, sondern einfach für viel Geld übernommen zu werden.
Imagination Technologies plc – Acquisition Announcement (http://www.imgtec.com/corporate/newsdetail.asp?NewsID=602)
Imagination Technologies Group plc (LSE: IMG, “Imagination” or “the Group”), a leading multimedia, communications and embedded processor technology company, has signed a definitive agreement to acquire Caustic Graphics Inc. (‘Caustic’), a developer of innovative and state-of-the-art real-time interactive ray tracing graphics technology for a cash consideration of $27 million (c.£17.1 million)
Wenig ist das nicht.
Ailuros
2010-12-16, 01:18:11
Imagination Technologies plc – Acquisition Announcement (http://www.imgtec.com/corporate/newsdetail.asp?NewsID=602)
Wenig ist das nicht.
Verdient haben sie ja nichts. Die 3Mio Schulden muessen ja auch abbezahlt werden.
Fuer die software, Patente und >30 engineers die ins Paket gehoeren sind $27 Mio sogar ziemlich billig (eben weil der Laden verschuldet war).
Ich weiss zwar nicht was IMG vorhat aber es wuerde mich wundern wenn die Caustic hw weiterhin verkauft wird.
Ich denke sie wollten primär die Patente und Engineers. Raytracing hat in Smartphone noch für lange Zeit eher nichts verloren.
Ailuros
2010-12-16, 01:55:29
Ich denke sie wollten primär die Patente und Engineers.
Ray tracing relevante Patente und engineers (hw und sw) die einen guten Durchblick mit RT haben sollten.
Raytracing hat in Smartphone noch für lange Zeit eher nichts verloren.
Koennte man praktisch fuer viele Punkte des Series6 feature-sets sagen.
Koennte man praktisch fuer viele Punkte des Series6 feature-sets sagen.
Soso. Für welche denn?
Ailuros
2010-12-16, 21:32:34
Soso. Für welche denn?
ARM Mali T604 unterstuetzt FP64, hat 64bit pointers und soll sehr effizient sein mit atomic memory operations.
http://blogs.arm.com/8-multimedia/entry-355-arm-mali-t604-gpu-ready-for-post-32-bit-world-and-real-computing/
Braucht man unter vielen anderen das obrige Zeug wirklich in Handys? Ich weiss wie die typische Antwort lautet, aber der Abstand in Faehigkeiten (natuerlich nicht Leistung) zu desktop GPUs ist nicht wirklich besonders gross. Da IMG am meisten in die Richtung treibt, bin ich neugierig ob sie je Intel zu etwas "groesserem" ueberreden koennten, anstatt dass Intel vergebens immer und immer wieder versucht im smart-phone Markt Fuss zu fassen.
Was hat jetzt Mali mit PowerVR zu tun?
Und was haben generelle Compute-Features in einem Chip mit dedizierter Raytracing-Logik zu tun?
Ailuros
2010-12-16, 22:52:18
Was hat jetzt Mali mit PowerVR zu tun?
Direkte Konkurrenz.
Und was haben generelle Compute-Features in einem Chip mit dedizierter Raytracing-Logik zu tun?
Die Frage ist eher ob Series6 (oder jegliche zukuenftige Architektur) etwas mit raytracing zu tun hat oder nicht.
http://www.imgtec.com/corporate/newsdetail.asp?NewsID=602
Acquisition enables Imagination to bring further disruptive technologies, as part of its roadmap, to its mainstream graphics markets across mobile, embedded, console and computing segments.
DR.ZEISSLER
2012-12-22, 11:21:12
http://www.youtube.com/watch?v=OhDNpXx-AlQ&feature=em-subs_digest
Nasenbaer
2012-12-22, 21:03:50
Was isn das fürn Kram - die Caustic R2500 hat 2 Chips drauf und jeder braucht seinen eigenen RAM. Also genau wie bei Multi-GPU Karten. Wenn man schon keine Kompatibilität zu normalen Graphikstandards braucht, dann kann man das Teil doch so designen, dass man shared Memory hat und die 16 GiB tatsächlich auch genutzt werden können. Stattdessen sind's effektiv nur 8 GB.
DR.ZEISSLER
2012-12-22, 21:18:42
Ist doch ein feines Spielzeug für ein Remake von Outcast ;-)
Ailuros
2013-01-23, 18:47:14
Was isn das fürn Kram - die Caustic R2500 hat 2 Chips drauf und jeder braucht seinen eigenen RAM. Also genau wie bei Multi-GPU Karten. Wenn man schon keine Kompatibilität zu normalen Graphikstandards braucht, dann kann man das Teil doch so designen, dass man shared Memory hat und die 16 GiB tatsächlich auch genutzt werden können. Stattdessen sind's effektiv nur 8 GB.
Ich hab mich mit dem Ding nur sehr wenig beschaeftigt, aber hier ein paar interessante Einzelheiten von Arstechnica:
http://arstechnica.com/gadgets/2013/01/shedding-some-realistic-light-on-imaginations-real-time-ray-tracing-card/
the RTUs are manufactured on a 90nm process and use DDR2 memory, both of which were cutting-edge circa 2005 or so. Despite this, the card still requires a relatively small amount of power. While its peak power consumption is rated at 60 watts, we were told that realistically it maxes out at about 40 watts—much less than a modern high-end (or even a low-end) graphics card, and well under the amount that would require the card to have a separate power plug.
Einfacher: als Caustic noch eigenstaendig war haben sie die Dinger wohl entwickelt aber hatten wohl nicht genug Kohle das Zeug in Silizium giessen zu lassen.
We came away impressed by the technology in Caustic's add-in card, but the reality is it's difficult to sell an extra add-in card that isn't a GPU these days—just ask Ageia, whose dedicated physics processing add-in cards went pretty much nowhere before Nvidia snapped them up and integrated PhysX support into its GeForce cards. The Caustic cards will appeal to people in the high-end, high-margin workstation market, but by Imagination's own admission that market is quite small.
The Caustic technology's path to the mass market will be similar: Imagination intends to integrate into future versions of its PowerVR GPUs. This isn't going to happen anytime soon—the Imagination representative gave us a tentative estimate of "four to five years" from now—but it may be that the phones and tablets of tomorrow will be capable of 3D rendering that is only now beginning to hit high-end workstations.
Demirug
2013-01-23, 22:27:05
Vier bis fünf Jahre? Dann ist der Zug wahrscheinlich abgefahren.
Auf Android haben wir ja jetzt schon eine Reihe von Unterschiedlichen GPUs. Kommt dann einer davon mit einer neuen API die nicht kompatible zu den anderen ist wird das auf wenig Begeisterung stoßen.
Bei iOS sind es bisher nur PVR Lösungen. Vielleicht macht Apple ja mal mit der Drohung (gegenüber den Entwicklern) ernst und nimmt eine GPU von einem anderen Hersteller. Aber selbst wenn sie dabei bleiben geht der Trend ja auch bei Mobile inzwischen zu Multiplattform.
Ailuros
2013-01-24, 16:16:53
Vier bis fünf Jahre? Dann ist der Zug wahrscheinlich abgefahren.
Auf Android haben wir ja jetzt schon eine Reihe von Unterschiedlichen GPUs. Kommt dann einer davon mit einer neuen API die nicht kompatible zu den anderen ist wird das auf wenig Begeisterung stoßen.
So lange haelt unter normalen Umstaenden eine mobile Generation. An Serie6/Rogue laesst sich IMHO nichts so fundamentales so leicht mehr aendern.
Bei iOS sind es bisher nur PVR Lösungen. Vielleicht macht Apple ja mal mit der Drohung (gegenüber den Entwicklern) ernst und nimmt eine GPU von einem anderen Hersteller. Aber selbst wenn sie dabei bleiben geht der Trend ja auch bei Mobile inzwischen zu Multiplattform.
Hmmm.... :tongue:
Ailuros
2013-01-30, 17:39:45
https://twitter.com/ID_AA_Carmack
I got disclosed on the Caustic Graphics ray tracing hardware, and I am a lot more impressed than I have been by previous RT HW work.
Sonst ist der Kerl immer verdammt schreibfreudig. Gut er ist beindruckt, aber ein paar mehr Einzelheiten warum er genau beindruckt ist wuerden helfen.
DR.ZEISSLER
2013-01-30, 19:25:37
ich habe schon vor zwei jahren geschrieben, dass ich bei dem teil von einer revolution ala 3dfx anno 1997 ausgehe.
Demirug
2013-01-30, 19:39:57
ich habe schon vor zwei jahren geschrieben, dass ich bei dem teil von einer revolution ala 3dfx anno 1997 ausgehe.
3dfx war nicht wirklich eine Revolution sondern eine Evolution. Es war einfach eine Weiterentwicklung von dem was man vorher auf der CPU gemacht hat. Und genau da liegt auch das Problem bei einer alternativen Lösung zur Erzeugung von 3D Bildern. Was ist der Fallback für all die welche die neue dafür notwendige Hardware nicht haben?
AnarchX
2013-01-30, 19:53:24
Könnte man nicht den Weg über eine Hybrid-Engine gehen, in welcher die GPU (mit niedrigerer Präzision) als Fallback für die Raytracing-Berechnungen dient?
DR.ZEISSLER
2013-01-30, 19:54:09
gut, da bin ich gänzlich anderer Meinung.
mit 3dfx war erstmals ruckelfreies 3d mit gefilterten texturen möglich, das war damals REVOLUTION und genauso bedeutend, und sei es nur in der wahrnehmung und eben nicht technologisch, wird der schritt bei caustic sein.
AnarchX
2013-01-30, 20:05:51
Aber gerade bei der wahrgenommenen Qualität hat man mit Raytracing wohl Probleme gegenüber einer gut optimierten Rastergrafik mit diversen Tricks.
DR.ZEISSLER
2013-01-30, 20:10:02
da bin ich mir nicht so sicher, wenn ich an echtzeit spiegeleffekte denke die dann auch realistisch aussehen.
Demirug
2013-01-30, 20:11:45
Könnte man nicht den Weg über eine Hybrid-Engine gehen, in welcher die GPU (mit niedrigerer Präzision) als Fallback für die Raytracing-Berechnungen dient?
Naja was ich bisher an Raytracing Lösungen auf der GPU gesehen habe scheint mir nicht gerade ausreichend zu sein. Das Problem ist das ein neues Spiel auf der gleichen Hardware nicht schlechter als bisher aussehen darf. Sonst ist ganz schnell Schluss mit lustig.
gut, da bin ich gänzlich anderer Meinung.
mit 3dfx war erstmals rückenfreies 3d mit gefilterten texturen möglich, das war damals REVOLUTION und genauso bedeutend, und sei es nur in der wahrnehmung und eben nicht technologisch, wird der schritt bei caustic sein.
Das Problem ist aber im Gegensatz zu den 3D Beschleunigern jemanden mit genügend Einfluss zu finden der Bereit ist diesen Schritt zu gehen. Bei den 3D Beschleuniger waren es nur wenige Zeilen Code die geändert werden mussten. Zwischen dem Rendering und Raytraceing liegen allerdings Welten.
DR.ZEISSLER
2013-01-30, 20:14:45
das stimmt allerdings.
Skysnake
2013-01-30, 20:54:11
Aber gerade bei der wahrgenommenen Qualität hat man mit Raytracing wohl Probleme gegenüber einer gut optimierten Rastergrafik mit diversen Tricks.
Du meinst wohl mit unzähligen Tricks und rumgefake an allen Ecken und Kanten :tongue:
da bin ich mir nicht so sicher, wenn ich an echtzeit spiegeleffekte denke die dann auch realistisch aussehen.
Dafür kackt man, wenn man die nötige Rechenleistung nicht explodieren lassen will, an unzähligen anderen Stellen unaufhörlich ab.
Was bringen mir die geilsten Reflexionen, wenn der Rest einfach scheise aussieht?
Rastergraphik holt halt echt viel raus, eben WEIL Sie nicht physikalisch korrekt darstellen muss, und auch nicht will. Es reicht, wenn es gut aussieht. Wie das erreicht wird ist scheis egal. Das menschliche Gehirn lässt sich einfach ziemlich leicht austricksen ;)
da bin ich mir nicht so sicher, wenn ich an echtzeit spiegeleffekte denke die dann auch realistisch aussehen.
Realistische Spiegelungen sind, wenn du nicht gerade einen Spiegel darstellen willst, mit Raytracing sehr teuer. Da braucht man schon sowas wie Cone Tracing bei welchem matte Spiegelungen sogar günstiger sind. Nur blöd wenn man dann Raytracing Hardware hat mit der andere Tracingverfahren nicht mehr möglich sind.
del_4901
2013-01-31, 00:34:52
Realistische Spiegelungen sind, wenn du nicht gerade einen Spiegel darstellen willst, mit Raytracing sehr teuer. Da braucht man schon sowas wie Cone Tracing bei welchem matte Spiegelungen sogar günstiger sind. Nur blöd wenn man dann Raytracing Hardware hat mit der andere Tracingverfahren nicht mehr möglich sind.indeed, und den reinen spiegel kann man auch problemlos rastern. Von daher bleibt ausser dem einfacheren Softwaredesign (evtl. Inter-Reflections/-Refractions) nichts mehr uebrig auf der Habenseite eines Raytracers
indeed, und den reinen spiegel kann man auch problemlos rastern. Von daher bleibt ausser dem einfacheren Softwaredesign (evtl. Inter-Reflections/-Refractions) nichts mehr uebrig auf der Habenseite eines Raytracers
Ein weitere Pluspunkt bleibt auch noch:
Raytracing kommt auch sehr gut mit anderen anderen Primitiven zurecht.
Hier im Thread ging noch folgendes unter: Die Beschleunigerstrukturen verbrauchen jede Menge Speicher. Die Caustic Karten haben in ihren Speicher nur Geometrie und Beschleunigerstrukturen. Keine Texturen oder sonstwas.
Ailuros
2013-01-31, 11:19:54
http://www.imgtec.com/News/Release/index.asp?NewsID=722
Lediglich der PR von offizieller Verfuegbarkeit.
Imagination’s Caustic R2500 and R2100 boards are qualified for relevant Dell and HP workstations (full details of qualified systems can be found at www.caustic.com/series2/qualification). Qualification for other systems, including Boxx, and Lenovo is expected in Q1 2013.
Ailuros
2013-02-06, 17:49:49
http://www.cgchannel.com/2013/02/can-raytracing-really-kill-raster-graphics/
Founded in 2009 by three Apple veterans, Caustic Graphics existed as an independent company for less than two years before being acquired by Imagination, where it now forms the firm’s Caustic Professional division.
Nette Einzelheit die mir nicht bewusst war.
DR.ZEISSLER
2013-02-06, 19:18:07
Doch doch, das wusste ich schon lange.
del_4901
2013-02-06, 19:19:42
Doch doch, das wusste ich schon lange.Me2 ;)
DR.ZEISSLER
2013-02-06, 19:22:48
ich warte mal auf das erste beschleunigte spiel(demo) und dann werden wir mal bewerten.
fakt ist jedenfalls das hier mehr musik drin ist, als bei dem australier der alles schaltjahr
irgend eine unspektakuläres video raushaut.
Ailuros
2013-02-07, 09:25:49
Tja man ich lerne auch nur jeden Tag weiter ;) Es muss ja nicht unbedingt einen Zusammenhang mit Apple's zukuenftigen Plaenen haben, obwohl wenn Apple zu IMG "jump" sagt duerfte die Antwort wohl "how high" sein :biggrin:
ich warte mal auf das erste beschleunigte spiel(demo) und dann werden wir mal bewerten.
fakt ist jedenfalls das hier mehr musik drin ist, als bei dem australier der alles schaltjahr
irgend eine unspektakuläres video raushaut.
Ich hab viel zu wenig Durchblick wenn es zu RT kommt und ich lass mich auch meistens schwer von nur Marketing-Weihrauch egal von wo so leicht ueberreden. Die Zeit wird schon zeigen ob die angebliche "Begeisterung" es auch wert ist. Wobei ich natuerlich jegliche These dass RT selbst langfristig rasterizing ersetzen koennte momentan komplett ablehne von dem was ich ueber RT generell links und rechts von Entwicklern lesen kann.
Apropos Australier ich glaub ich hatte damals im relevanten thread schon zu einer oeffentlichen Aussage von Simon Feeney/IMG bei B3D verlinkt. Der Kerl hatte IMG seine Methode zum Verkauf angeboten (und auch anderen IHVs wie sich herausstellte) aber es war einfach keiner daran interessiert.
Caustic ist ja ziemlich "jung" als Firma und sie haben die RT Schleuder wohl schon in 2009 auf 90nm ausgelegt. Fertig war wohl der design schon als IMG sie aufkaufte, nur verdaechtige ich dass Caustic einfach nicht die resourcen hatte die hw selber zu veroeffentlichen.
Damit man jetzt den obrigen Scherz ueber Apple nicht falsch versteht: IMO ist Apple ein so grosser Kunde fuer IMG dass ich keinen Zweifel habe, dass sie bis zu einem Punkt IMG's roadmap beinflussen. Dass Caustic von ex Apple engineers zum start kam muss nicht unbedingt damit verbunden sein. Interessant waere lediglich die Moeglichkeit dass Apple an RT fuer ihre zukuenftige SoCs sein koennte oder einfacher dass tablets generell wohl vielleicht doch nicht langfristig nur fancy e-book readers bleiben werden. Vielleicht sogar eine zusaetzliche tablet device-Kategorie die auch Profis ansprechen koennte, fuer einfache tasks zum herumschleppen.
DR.ZEISSLER
2013-02-07, 13:15:01
Ich sage doch, da steckt durchaus Potential drin, von den "verdächtigen" Verpflechtungen mal ganz abgesehen.
-/\-CruNcher-/\-
2013-02-18, 03:43:25
Hier steckte sicherlich auch Pixar mit drin :D
nur für eine Game verwertung brauch man sich nur den Preis anzuschauen und dann weiss man das es wenn dann noch sehr lange dauern kann ;)
Vor allem Preis/Leistung bei Realtime unmöglich zudem ist es ja auch nur ein Visualizer und scheinbar kein volständiger Render ersatz so wird es jedenfalls beworben auch fehlen noch sehr viele Render features also noch sehr begrenzt das ganze ;)
Nvidia schläft zudem auch nicht wirklich und zumindestens in einem MMORPG haben wir schon Optix im Einsatz um den Avatar Realismus zu erhöhen da macht die Latency noch nicht soviel aus :)
Auch bei Intel geht die Forschung weiter.
Und wenn man sieht was Next Gen Raster Games mit Raytracing und Voxel mix ansetzen bieten zu einem viel günstigeren Preis dann rutscht das alles wieder nach hinten.
Imagination sollte lieber vorsichtig sein das sie nicht von Nvidia, Qualcomm und ARM in ihrem Hauptsegment irgendwann überollt werden, bei dem momentan recht heftigen Wettbewerb im Mobile bereich, der uns wie damals zu PC hochzeiten in extrem kurzen abständen Neuerungen bringt, kann man schnell die Führung verlieren :)
AMD Manager von damals ziehen sich sicherlich die tüte über den Kopf das sie ihren Mobile Radeon an Qualcomm verkauft haben, so eine idiotische Entscheidung mein lieber schwarn ;)
Ailuros
2013-02-18, 10:09:15
Imagination sollte lieber vorsichtig sein das sie nicht von Nvidia, Qualcomm und ARM in ihrem Hauptsegment irgendwann überollt werden, bei dem momentan recht heftigen Wettbewerb im Mobile bereich, der uns wie damals zu PC hochzeiten in extrem kurzen abständen Neuerungen bringt, kann man schnell die Führung verlieren :)
Sowohl Qualcomm als auch NV sind indirekte Konkurrenz fuer IMG und IMG hat den grossen Vorteil gegenueber NV dass sie eben nur IP verkaufen welches verdammt groessere Volumen ansprechen kann und auch in Leistung je nach Bedarf des jeweiligen Partners skalieren kann. NV kann im besten Fall seit T4 nur zwei SoCs anbieten, wobei T4 fuer high end tablets und smartphones und Grey bald fuer mainstream smartphones. Im allerbesten Fall kann NV noch etwas mit den Frequenzen herumspielen bei diesen aber danach ist es aus mit der Flexibilitaet.
Wenn IMG Partner verliert dann aus rein eigenen idiotischen strategischen Entscheidungen und nicht bis jetzt der Konkurrenz. Dass sie Intel tablets verloren haben ist rein ihr eigener Fehler weil sie mir ihren Rotz-loehnen auch keine ernsthaften windows Treiber engineers anlotzen koennten. In dem Bereich ist Qualcomm sogar um zich Male schlimmer bis jetzt, denn ihre compiler sind zum kotzen schlecht und ihr winRT Zeug hat sich sogar um zich Mal mehr verspaetet dank winblows Treiber Zertifizierung im Vergleich zu IMG. Fuer smartphones/Android bleibt Intel noch einige Zeit bei IMG GPU IP und es ist auch der wirkliche Schwerpunkt fuer groessere Volumen als tablets.
Sind sie jetzt noch bloeder und pissen Apple mal wirklich stark an und Apple zeigt ihnen den Mittelfinger, dann sieht es langfristig nicht besonders toll fuer IMG aus. Hat aber auch absolut nichts mit NV oder Qualcomm zu tun. Denn wenn Apple irgendwann mal so weit kommt wette ich eher darauf dass sie so weit gehen und GPUs selber entwickeln in der weiteren Zukunft.
NV ist dann im Bereich sw/Treiber dann schon langfristig eine Drohung aber auch nur wenn sie alles andere wirklich schaffen zeitlich auf die Laufbahn zu bekommen. Immer noch keine GPGPU Faehigkeiten selbst im kommendem Tegra4 wird ihnen auch nicht direkt kostenlos kommen. Die angebliche "Trumpfkarte" fuer T4 war nach Jensen dass es das schnellste tablet bei seinem launch werden soll; mit der moeglichen Verspaetung am Ende wird es wohl nicht mehr dem heutigen iPad4 gegenueberstehen.
Nach JPR Fruehling 2012 war der Integrierungs-level auf GPU/SoC Nivaeu bei 50% fuer IMG, 33% fuer Qualcomm und 3.2% fuer NVIDIA. Auf reinem GPU IP Level dann 80% fuer IMG und wenn ich mich jetzt richtig erinnere war embedded sogar mitberechnet. Bei einem Unterschied von 16x Mal zwischen IMG und NV was die Integrierungsraten betrifft, braucht NV noch einige Jahre um sich einen anstaendigeren Marktanteil einzupruegeln. Nach deren finanziellen Resultaten sind sie gerade bei 1/2 vom Umsatz den sie brauchen wuerden um ihren break even point fuer Tegra zu erreichen.
AMD Manager von damals ziehen sich sicherlich die tüte über den Kopf das sie ihren Mobile Radeon an Qualcomm verkauft haben, so eine idiotische Entscheidung mein lieber schwarn ;)
LOL ich wuerde sagen dass es zich Mal peinlicher ist dass sie vor kurzem ein Talent wie Eric Demers an Qualcomm verloren haben und wenn das wirklich auch nur alles waere.
Nebenbei ist Qualcomm uebrigens ein grosser Lizenznehmer fuer IMG aber eben nicht fuer GPU IP. Qualcomm hat Ensigma communications IP von IMG lizenziert und mit den Integrierungs-raten von Qualcomm koennte der deal mehr Wert sein als ob Qualcomm von IMG temporaer GPU IP lizenziert haette.
-/\-CruNcher-/\-
2013-02-18, 11:20:43
Naja schlimmer wäre es wenn Intel ihre Anteile an IMG aufgeben würde ;)
Persönlich setze ich ja auf ARM selbst die werden alleine vom Volumen sicherlich IMGs PowerVR sehr schnell überholen jetzt wo sie die POP IP zur Lizenz auch bei Mali eingeführt haben werden T628 und co schon interessanter.
DR.ZEISSLER
2013-02-18, 17:42:45
Das ARM dermassen profitiert hätte ich nicht gedacht. Ist jetzt schon deutlich "fetter" als AMD.
Wenn Apple auch am Desktop wieder Spezialchips mit ARM-basierten Lösungen enführt,
dann gute Nacht AMD/ATI.
Doc
Ailuros
2013-02-18, 18:33:24
Naja schlimmer wäre es wenn Intel ihre Anteile an IMG aufgeben würde ;)
Och die hat Intel womoeglich nur eingekauft weil sie Schiss vor Apple hatten zumindest IMHO. Und es ist auch nicht so dass beide dank ihren Aktien-Anteilen irgendwelche sehenswerte "Kontrolle" ueber IMG haben. Die hat Apple auch schon so als so grosser Partner, selbst wenn sie keine IMG Aktien haetten.
Persönlich setze ich ja auf ARM selbst die werden alleine vom Volumen sicherlich IMGs PowerVR sehr schnell überholen jetzt wo sie die POP IP zur Lizenz auch bei Mali eingeführt haben werden T628 und co schon interessanter.
Gehoert fuer mich in die gleiche Marketing-Gewaesch Muelltonne wie das irrelevante Zeug hier: http://www.imgtec.com/News/Release/index.asp?NewsID=684 Es ist ja nichts Neues dass sich beide Firmen fuer GPU IP konstant gegenseitig Marketing-BS gegen den Schaedel schmeissen.
Aber wenn's schon sein muss:
http://www.arm.com/about/newsroom/arm-announces-pop-ip-technology-for-mali-t600-series-gpus.php
Benefits of this POP IP have been proven to deliver up to 27 percent higher frequency, 24 percent lower area, and 19 percent lower power than implementations which do not use POP IP.
So und um wieviel groesser ist genau ein T628 bzw. T678 als ein 4 cluster Rogue und welcher ist schneller?
Das ARM dermassen profitiert hätte ich nicht gedacht. Ist jetzt schon deutlich "fetter" als AMD.
Wenn Apple auch am Desktop wieder Spezialchips mit ARM-basierten Lösungen enführt,
dann gute Nacht AMD/ATI.
Doc
Was bei ARM mehr Angst macht sind ihre brutal grossen Gewinnmargen; ich bezweifle dass irgend eine andere IP Firma (und schon gar nicht IMG) je soweit kommt. ARM hat eben momentan quasi ein Monopol wenn es zu CPU IP im SFF mobilen Markt kommt, wobei IMG's Kerngeschaeft von GPU IP konstant immer feister von allen Richtungen angefochten wird.
Fuer Deine Apple Spekulation oben ein ganz klares nein.
Ailuros
2013-08-31, 10:29:33
Low Power Ray Tracing whitepaper von SIGGRAPH 2013:
https://sites.google.com/site/raytracingcourse/Low%20Power%20Raytracing.pdf?attredirects=1
Falls das pdf entfernt werden sollte lasst es mich wissen und ich lade es hoch.
Hallo
2013-08-31, 17:12:13
Wäre es möglich einen Raytracer mit einem Rasterizer zu vereinen? Best of both sozusagen. Evtl. HWmässig einen RT/GPU SoC.
Sehr interessant z.B. das offensichtlich bei den beiden Karten die komplette Geometrie einer Szene im Ram ist so könnte man doch dahingehend die GPU/CPU davon befreien, sprich Polygoncount wäre keine Thema mehr. In 16 GB :freak: Ram sollten ne Menge Polys reinpassen.
Denn Polygoncount ist immer noch eine stark verbesserungswürdige Baustelle wie ich finde.
Und noch einen Frage: Stimmt es das dynamische Geometrie Raytracer nicht schmecken?
Ailuros
2013-09-01, 15:42:16
Wäre es möglich einen Raytracer mit einem Rasterizer zu vereinen? Best of both sozusagen. Evtl. HWmässig einen RT/GPU SoC.
Haben sie wohl auch im Plan und ich bezweifle dass sie die einigen sind.
Hallo
2013-09-01, 19:56:31
Das wäre interessant, eine GPU und im Huckepack ne RTU auf dem gleiche DIE mit massig Ram. Die RTU ist für die Geometrie/Polygone und evtl. ein paar nette Beleuchtungseffekte zuständig während die GPU Shader/Texturen etc. verrichtet.
Ich stelle mir das im Idealfall so vor das eine Szene wie z.B. die komplette City von GTA5 im Ram ist und somit jede Stelle blitzartig aufrufbar wäre. nebenbei sollte man dann auch Pop Ins von Objekten in der Ferne eliminieren können und ebenfalls den LOD wie bei Schatten z.B. an den Horizont legen wenn nicht gleich komplett darstellen.
Gipsel
2013-09-01, 20:48:51
Low Power Ray Tracing whitepaper von SIGGRAPH 2013:
https://sites.google.com/site/raytracingcourse/Low%20Power%20Raytracing.pdf?attredirects=1
Falls das pdf entfernt werden sollte lasst es mich wissen und ich lade es hoch.Der Spruch auf der Titelfolie ("Ray tracing is the future and always will be") kann man auch bösartig interpretieren. :wink:
@Hallo: Die möglichst einfache Einbindung von ein paar Raytracing-Elementen wird auch in dem pdf angesprochen.
Hallo
2013-09-02, 11:09:53
Puhh, das übersteigt meine Grundkenntnisse ein wenig schon beim Überfliegen.
Sprich es ist möglich in einer sinnvollen Weise? Und wie verhält es sich mit der Geometrie, wird die komplett in der RTU erzeugt? Man hört ja immer wieder das Polygoncount eine eher untergeordnete Rolle spielen soll beim RT. Oder ist es so zu verstehen das dem Raytracer egal ist wieviele Polys er manipulieren muss welche aber durch z.B. die CPU erzeugt werden.
Werde es trotzdem mal in Ruhe mit der pdf versuchen.
Ailuros
2013-09-02, 13:43:18
Der Spruch auf der Titelfolie ("Ray tracing is the future and always will be") kann man auch bösartig interpretieren. :wink:
Es war der Titel der gesamten Vorstellung bei SIGGRAPH 2013. IMG's eigene Vorstellung hatte den Titel "low power ray tracing" wie auch der Name des pdfs.
Nasenbaer
2013-09-02, 21:22:20
Man hört ja immer wieder das Polygoncount eine eher untergeordnete Rolle spielen soll beim RT.
Das gilt meines Wissens weiterhin nur für statische Szenen. Durch Raumunterteilungsverfahren steigt die Zahl der notwendigen Schnitttests langsamer als die Anzahl der Polygone, wenn man den Polycount anhebt. Das Umsortieren ist halt auch nicht umsonst, wenn sich ein Objekt im Raum bewegt.
Hallo
2013-09-04, 04:10:43
Und damit wären wir bei meiner nächsten Frage, wie sieht es mit dynamischen Polys aus? Also Transform und auch dynamische/bewegliche Objekte ( im 2D Gefilde auch Sprites genannt).
RT mag das nicht so arg, oder? Wenn nicht ist RT für Games nicht zu gebrauchen, leider.
Als Noob stelle ich mir sehr hohen Polycount, in Verbindung mit Ambient Oclusion/Global Illumination vor gekoppelt mit all den Rastereffekten:) Denn Beleuchtung ist immer noch sehr verbesserungswuerdig bei Rasterengines. Vor allem HDR mit Tonemapping will wohl keiner mehr. FarCry1 hat sehr davon profitiert.
Ailuros
2013-09-04, 09:01:44
Ich kann Dir leider Deine Fragen nicht beantworten ohne mir hoechstwahrscheinlich selber ins Knie zu schiessen. Im gegebenen Fall hat wohl Imagination vor ray tracing in ihre existierende mobile GPU Architektur zu integrieren fuer die naechste Generation (Series7?).
Es mag zwar uebermaessig vereinfacht klingen aber wenn sowohl rasterizing als auch ray tracing unterstuetzt wird, werden wohl die Entwickler den path dann waehlen der am meisten Sinn macht. Wie IMG's obriges whitepaper selber erwaehnt: wenn ray tracing in einer mobilen Architektur keinen gesunden Stromverbrauchvorteil geben wuerde fuer manche Faelle dann ist die Implementierung von RT offensichtlich auch Bloedsinn.
Uebrigens sehr hohe polycounts wuerde ich fuer SFF mobile selbst im naechsten halben Jahrzehnt gleich vergessen; es muss und wird alles maessig gehalten werden damit der Stromverbrauch auch innerhalb von verstaendlichen Grenzen bleibt.
Hallo
2013-09-04, 10:00:53
Danke für deine Ausführung:)
Nasenbaer
2013-09-04, 22:25:47
Außerdem ist Raytracing nicht der Burner. Wenn man Renderings von 3DS Max, Maya, Blender usw. sieht, dann sind das im allgemeinen keine einfach Raytracer mehr (damit meine ich das von Herrn Whitted), die können sondern diverse Global Illumination-Ansätze, die im Grundprinzip auch Strahlen verfolgen aber weit aufwendiger sind.
Schon einfach Traytracing + diffuse Schatten und diffuse Reflexionen (bleides leicht umsetzbare Erweiterungen) vervielfachen die Berechnungszeit. Dann noch Anti-Aliasing drauf und du hast auch mit OpenCL ne Dia-Schow.
Wenn du mehr über Raytracing lernen willst, dann kann ich den gleichnamigen Artikel in der deutschen Wikipedia empfehlen. Der ist mit Sicherheit aussagekräftiger als der Quark, den der Intel-Heini da auf Computerbase geposted hat. Ich meine ne Multi-Core-Umsetzung von Quake 3 für die Diplomarbeit ist ne coole Sache aber von der Algorithmik her nicht anspruchsvoll. Es gibt Code-Beispiele, die Raytracer in unter 100 Codezeilen unterbringen. Die Kunst steckt in den zahllosen Verbesserungen/Modifikationen, die die Berechnung schöner und schneller machen.
Hallo
2013-09-05, 08:38:42
Ah, verstehe. Genau das war meine Intention einen Rasterizer mit den Goodies von RT zu erweitern sprich Beleuchtung. Aber ja, viel zu teuer und wenn man RT soweit runterscaled siehts nicht mehr gut aus bzw. wie bei UT3. Danke für den Wiki Tipp, werde ich mir in Ruhe durchlesen.
deekey777
2014-05-06, 22:51:46
Imagination showcases 'ray tracing' graphics tech t... (http://appleinsider.com/articles/14/05/06/imagination-showcases-ray-tracing-graphics-tech-that-could-come-in-apples-future-iphones-ipads)
Semiconductor firm Imagination Technologies, whose PowerVR chipsets are at the heart of Apple's A-series processors, on Tuesday previewed the impressive capabilities of its new Wizard series of ray tracing GPUs ...
Originally introduced at this year's Game Developers Conference, Imagination's new Wizard GPUs are designed to lower the power and memory requirements for realtime ray tracing to make it suitable for mobile environments. The GR6500 — the first in the Wizard series — boasts 4 unified shading clusters and 128 ALU cores that can render up to 300 million rays per second.
Das Video scheint aber wirklich neu zu sein: https://www.youtube.com/watch?v=LyH4yBm6Z9g
Offizieller Blog: Implementing hybrid ray tracing in a rasterized game engine (http://blog.imgtec.com/powervr-developers/implementing-hybrid-ray-tracing-rasterized-game-engine)
Ailuros
2014-05-15, 21:28:19
Imagination showcases 'ray tracing' graphics tech t... (http://appleinsider.com/articles/14/05/06/imagination-showcases-ray-tracing-graphics-tech-that-could-come-in-apples-future-iphones-ipads)
Das Video scheint aber wirklich neu zu sein: https://www.youtube.com/watch?v=LyH4yBm6Z9g
Offizieller Blog: Implementing hybrid ray tracing in a rasterized game engine (http://blog.imgtec.com/powervr-developers/implementing-hybrid-ray-tracing-rasterized-game-engine)
Die Dinger sind zwar verdammt effizient fuer das was sie sind aber man sollte auch nicht vergessen dass die rasterizing GPU im 6650 lediglich eine G6430 ist wie im Apple A7. Das Material ist stets auf ULP mobile angepasst.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.