Archiv verlassen und diese Seite im Standarddesign anzeigen : Intia: Accelerator For Artificial Intelligence
> Klick < (http://www.aiseek.com/Intia.html)
Nach dem PhysiX ein weiterer Spezialchip, diesmal für die AI. ( und das trotz steigender Rechenleistung:confused: )
Interessant auch die demo Videos (http://www.aiseek.com/Demos.html)
del_4901
2006-09-06, 02:01:54
Kommt zu spät, das Teil wird genauso in der Versenkung verschwinden wie der PhysX. gegen die anstehenden Dual/Quad/Oct CPUs sieht es ganz schlecht aus für zusätzliche HW, die es für den Entwickler zum einen unheimlich komliziert macht, und zum anderen ihn von einer Middleware abhänig macht.
Spasstiger
2006-09-06, 02:36:44
Naja, wenn ein paar sinnvolle Algorithmen und evtl. auch Bibliotheken speziell für AI bei rausspringen, hat es sich doch schon gelohnt.
Bei Farcry soll die KI ja rund 20% der CPU-Zeit ausmachen, wie sieht es eigentlich bei Strategiespielen aus?
P.S.: Die Demovideos von der Seite sind echt ganz cool. Von dem dort gezeigten sind wir heute noch ein ganzes Stück entfernt.
Dunkeltier
2006-09-06, 06:33:29
Hm, den AI-CoProzessor könnte man dann gleich mitsamt dem Phsyik-Prozessor auf ein Board löten. Vorteil: Diese Erweiterungskarte bräuchten dann wirklich nur Spieler. Einen wirklich Vorteil kann ich aber nicht für diese AI-Karten erkennen, da sich alles rein Softwarebasierend lösen läßt. Denn letztlich stecken immer irgendwelche vereinfachten Algorithmen dahinter. Eine echte künstliche Intelligenz ist noch nicht gefunden. Dazu müßte diese sich selbstständig erweitern können, um mit den sich ständig ändernden Bedingungen und Anforderungen zurechtzukommen.
Das sich eine KI im Pulk bewegt oder den Leuchtkegel eines Hubschraubers ausweicht, kann man auch ins KI-Script schreiben - und dies von der CPU ausführen lassen. Siehe z.B. die Massenangriffe bei Empire Earth, wo die KI gleichzeitig weiß, wie man auf die Insel des menschlichen Mitspielers gelangt und ihn effektiv angreifen kann.
Die Karte soll die KI auf eine Stufe bringen, indem sie die Lowlevel KI beschleunigt?
Alles klar X-D
Fuer Highlevel-KI kommts vorallem auf die Algorithmen an und die laufen meistens auf GP-CPUs am Besten.
elianda
2006-09-08, 10:20:20
Ich finde AI als Bezeichnung fuer solche Dinge wie Wegfindungsroutinen etc. total uebertrieben. Das ist vielmehr ein reines Marketingschlagwort.
StefanV
2006-09-08, 10:24:50
Warum packt man solche Teile nicht in 'nen Soundprozessor? ^^
Dann würds Sinn machen, sonst aber eher weniger...
Wer soll isch den ganzen shit denn alles kaufen?!
Die Karte soll die KI auf eine Stufe bringen, indem sie die Lowlevel KI beschleunigt?
Alles klar X-D
Fuer Highlevel-KI kommts vorallem auf die Algorithmen an und die laufen meistens auf GP-CPUs am Besten.
In der KI wird starke und schwache KI unterschieden. Wenn man überhaupt von KI in den üblichen Spielen in wissenschaftlichem Sinne sprechen kann, dann fällt diese in den Bereich der schwachen KI. Daher wird das Lowlevel kommen. Das ist keine Abwertung, oder ein API Ansatz. Es ist schlicht das Zielgebiet. Eben z.B. Unterhaltungssoftware und nicht Universitäts- Studienprojekte, zur tatsächlich selbstbewussten Maschine.
Aquaschaf
2006-09-08, 11:52:15
Die Karte soll die KI auf eine Stufe bringen, indem sie die Lowlevel KI beschleunigt?
Alles klar X-D
Lowlevel-KI bedeutet hier einfach, dass Lösungen für rechenintensive Probleme (z.B. Wegfindung) die häufig auftreten von der Hardware übernommen werden.
Mastermind
2006-09-08, 13:42:07
Komisch, das ganze ist doch schon ein alter Hut. Und noch nicht hier besprochen worden? :confused:
Ich bin etwas misstrauisch was diesen Chip angeht. Bei Physik kann ich mir noch ziemlich gut vorstellen, wie man das ganze effektiv in Hardware gießt und so eine Lösung schafft, die einem Mädchen-Für-Alles-Prozessor davonrennt.
Aber bei KI gibt es doch gar nicht die KI! :confused: Und selbst bei schwacher KI und häufigen Problemen wie Wegfindung gibt es sicher verschiedene Implementationsmöglichkeiten. Ich weiß nicht, ob da ein Standard Sinn macht. Und wie flexibel er ist. Ein NPC der in einem Wald eine Hütte sucht verhält sich anders, als ein Raumschiff, welches in den dreidimensionalen Weiten des Weltalls eine Station ansteuert!
][immy
2006-09-08, 13:50:37
nun das erste video erinnert mich eher an eine physik-demo mit den ganzen fliegenden steinchen. wobei, würde jetzt die wegfindung der steinchen ebenfalls beschleunigt? denn viel mehr als wegfindung wäre die physikalische berechnung da auch nicht.
aber ich schließlich dem an, das es etwas zu spät kommt. pure physikbeschleunigung kann ich noch verstehen, aber AI beschleunigung.... wozu hat man denn heutzutage 2 cores bzw wenn das ding raus ist sicherlich mehr
Simon Moon
2006-09-08, 17:36:02
Ich frage mich nur, wieso man das nicht ebenso gut mit einem Grafikchip lösen könnte? Mit D3d10 geht die sache ja schon immer weiter zu einem möglichst frei programierbaren Chip. Es wäre daher imo wesentlich sinnvoller, in zukunft zwei Chips im Computer zu haben.
Zum einen die CPU. Sie kann einfach absolut alles, dafür braucht sie je nachdem viele Takte und kann nicht viel in einem Thread(?) parallelisieren.
Die GPU hingegen hat genug Pipelines um im Thread(?) zu parallelisieren und Algorythmen die häufig gebraucht werden, sind fest in Hardware gegossen. (die Soundkarte hat imo ihre Berechtigung auch nur noch wegen der Qualität der Ausgänge bzw. deren Vorhandensein)
Ich denke in Zukunft wird es darauf hinauslaufen, für Physik, Ki und Graphik wird eher eine "GPU" herhalten, für alles weitere bleibt die CPU.
btw. imo sind doch die Ansätze bei KIs doch schon ziemlich extrem. Wie spll man das Gegnerverhalten aus Doom mit einer strategie Engine aus Age of Empires auf einen Nenner bringen?
Anders die Physik, die ist quasi universell in jedem Spiel, das 3D nutzt.
Aber klar, ich kaufe mir für meinen PC eine AI Karte für 300 Euro, eine PhysX für 300 Euro. Dann bin ich bei 600 Euro und hab noch nicht einmal eine Graka. Dafür ist einfach kein Markt da, siehe PhysX und diese schwachsinnige Netzwerkkarte. Braucht keiner.
Monger
2006-09-08, 19:49:38
Der erste Gedanke der mir dabei kam: sind sich denn alle darüber einig, was überhaupt eine KI ist, geschweige denn wie man sie beschleunigt?
Bei Physik ist das relativ klar, obwohl es da auch mindestens drei oder vier Ansätze gibt (die sich wohl aber einigermaßen ähnlich sind). Aber KI?
Allein für die Wegfindung gibt es einen ganzen Haufen Algorithmen, die alle für verschiedene Einsatzzwecke ihre Berechtigung haben. Und auch bei den Bewegungsmustern (z.B. wie laufen Personen in einem Kaufhaus?) kenne ich schonmal zwei völlig grundverschiedene Ansätze, die auch algorithmisch nicht das geringste miteinander zu tun haben.
Worauf spezialisiert sich also dieser Chip?
Mir war ja schon Ageia die ganze Zeit ziemlich suspekt, aber das hier halte ich für absoluten Schmarrn.
Worauf spezialisiert sich also dieser Chip?
Laut den Patenten auf ihren Wegesuchalgorithmus.
Damit kann man die KI nun nicht so extrem verbessern.
Wie man so hört sind sie aber auf der GC schon mit dem Chip rumgelaufen...
Trotzdem: Zu spät, zu wenig.
Das ist so sinnlos. Als ob A* bald auf Quad-Cores noch irgendwie limitieren würde...
Blutmaul
2006-09-08, 21:16:04
Ach, ich könnte jetzt was ketzerisches sagen....
Sind Gamer insgesamt wirklich gewillt gegen "Intelligenz" anzutreten, oder ist nicht vielmehr "Idiotie" der Maßstab des Mainstream?
Ich warte nur noch auf den Tag, wo das erste Game kommt, das man nur noch startet und dann automatisch gewinnt, ohne einen weiteren Mausklick machen zu müssen...der mit dem schnellsten Computer bekommt den höchsten Score - das kurbelt das Geschäft an :tongue:
Avalox
2006-09-08, 21:30:08
Ich warte nur noch auf den Tag, wo das erste Game kommt, das man nur noch startet und dann automatisch gewinnt, ohne einen weiteren Mausklick machen zu müssen...der mit dem schnellsten Computer bekommt den höchsten Score - das kurbelt das Geschäft an :tongue:
Ja, da ist schon eine Menge dran.
Spiele sind tatsächlich heute so ausgelegt, dass der Spiele diese gewinnt.
Früher waren Spiele so ausgelegt, dass der Spieler diese nicht gewinnen konnte. Dieser elementare Unterschied ist eine evolutionärer und sehr interessanter Aspekt in der Computerspiele Geschichte.
Ich denke dahinter steckt auch ein echter Nachteil der Online Spiele. Diese Spiele kann man tatsächlich verlieren. Eine bessere KI könnte den Eindruck der Online Spiele vielleicht auch Offline erreichen, aber den Spieler wieder erlauben definiert zu gewinnen. Auch Spielverderber und Schummler bleiben dann aussen vor. Sicherlich ein grosses Betätigungsfeld in der Entwicklung.
ethrandil
2006-09-09, 03:46:11
Am coolsten wärs doch sowieso, die Grafikengines von den Spielen zu entkoppeln:
- Alle Grafikengines werden abstrahiert und jedes Spiel nutzt zB 'GameEngine 1' [ganz so wie heute DirectX oder OpenGL]
- Dann gibt es dazu Hardware, die die Spielengine komplett realisiert - Culling, dynamische Shadergenerierung, Physik
Wär doch mal was. Dann könnte man die CPU für vernünftige Sachen verwenden.
mfg
- eth
Du kannst die selbe Engine aber nicht für eine Weltraumsimulation, ein Rennspiel und einen Egoshooter benützen. Unmöglich.
Du stellst dir das bei weitem zu einfach vor.
Avalox
2006-09-09, 10:47:36
Du kannst die selbe Engine aber nicht für eine Weltraumsimulation, ein Rennspiel und einen Egoshooter benützen. Unmöglich.
Du stellst dir das bei weitem zu einfach vor.
Ich habe ethrandil anders verstanden.
Das Spiel hat gar keine Grafik Engine mehr. Die Beschreibung des Szene erfolgt in einer abstrakten Form. Wie auch immer zu lösen. (Baum, Haus ; Dach ...)
Diese Beschreibung wird durch eine Einheit dann interpretiert und erst dann gerendert. Die Interpretation erfolgt dann immer den technischen Gegebenheiten angepasst. Hat ein Grafiksystem eine neue Funktion, so wird diese neue Funktion auch benutzt, denn der Interpreter "weiss" was diese Funktion kann und setzt diese im Sinne des Bild Designers ein, obwohl dieser die Funktion gar nicht kennt, oder diese überhaupt existiert haben muss zum Zeitpunkt der Spielerstellung.
Ähnlich wie ein Regisseur sein Drehbuch verfilmt. Nur eben mit einen sehr detailierten Drehbuch.
Ich habe es schon ganz genau richtig verstanden. So einfach ist es aber nunmal nicht.
Vor allem würde das jegliche Freiheit und Performancehacks unmöglich machen. Das wäre als würdest du jedem Entwickler die Unreal-Engine unterschieben ohne dass er was dran ändern kann. Kommt bestimmt ne geile Vielfalt dabei raus.
Der_Donnervogel
2006-09-09, 12:41:57
Ich warte nur noch auf den Tag, wo das erste Game kommt, das man nur noch startet und dann automatisch gewinnt, ohne einen weiteren Mausklick machen zu müssen...der mit dem schnellsten Computer bekommt den höchsten Score - das kurbelt das Geschäft an :tongue:
Sowas gibts doch schon lange, zB 3DMark06. ;D
Mastermind
2006-09-09, 13:45:28
Ja, da ist schon eine Menge dran.
Spiele sind tatsächlich heute so ausgelegt, dass der Spiele diese gewinnt.
Früher waren Spiele so ausgelegt, dass der Spieler diese nicht gewinnen konnte. Dieser elementare Unterschied ist eine evolutionärer und sehr interessanter Aspekt in der Computerspiele Geschichte.
Ich denke dahinter steckt auch ein echter Nachteil der Online Spiele. Diese Spiele kann man tatsächlich verlieren. Eine bessere KI könnte den Eindruck der Online Spiele vielleicht auch Offline erreichen, aber den Spieler wieder erlauben definiert zu gewinnen. Auch Spielverderber und Schummler bleiben dann aussen vor. Sicherlich ein grosses Betätigungsfeld in der Entwicklung.
Was meinst du denn mit "...der Spieler diese nicht gewinnen konnte."? Natürlich konnte man früher auch gewinnen!
:confused:
Avalox
2006-09-09, 14:05:33
Natürlich konnte man früher auch gewinnen!
Nein. Ist ein interessanter Aspekt. Bin durch ein Buch zur Geschichte der Videospiele drauf aufmerksam geworden.
Die ersten Spiele. Pong z.B. hat man gegen einen Menschen gespielt. Um den zweiten Spieler nicht zu benötigen, gab es dann eine Variante wo man Pong gegen eine virtuelle Wand gespielt hat. Man spielte so lange, bis der Ball verloren ging. Aber verloren hat man immer irgend wann.
Das ging noch lange Zeit so. Pac Man z.B. man spielt dort schon einen Level. Nach dem Level wurden das Spiel schwerer und schwerer, eben solange bis man verloren hat. Alle Spiele dieser Zeit waren so aufgebaut. Man spielte das Spiel solange bis man verloren hat. Das macht in der Spielhalle durchaus Sinn, denn schließlich bezahlt der Spieler fürs Spiel und nicht für die Zeit. Zuhause spielte man damals die selbe Art von Spielen. Es gab dann aber schon andere Spiele, Adventure für den Atari 2600 z.B., aber Bedeutung hatten diese damals noch nicht.
Dann ging es dazu über, dass der Spieler gewinnen sollte und konnte. Denn gewinnen bringt mehr Spass, das Spiel wird eher gekauft.
Heute ist es soweit, dass ein Spiel z.B. Prey gar nicht mehr verloren werden kann. Stellt man sich zu dumm an, gibt es einen einfachen Geschicklichkeitstest (wohl um festzustellen ob der Spieler eingeschlafen ist) und man kann da weitermachen, wo man zuvor gescheitert ist nur diesmal unter einfacheren Bedingungen.
Mastermind
2006-09-09, 14:47:53
Nein. Ist ein interessanter Aspekt. Bin durch ein Buch zur Geschichte der Videospiele drauf aufmerksam geworden.
Die ersten Spiele. Pong z.B. hat man gegen einen Menschen gespielt. Um den zweiten Spieler nicht zu benötigen, gab es dann eine Variante wo man Pong gegen eine virtuelle Wand gespielt hat. Man spielte so lange, bis der Ball verloren ging. Aber verloren hat man immer irgend wann.
Das ging noch lange Zeit so. Pac Man z.B. man spielt dort schon einen Level. Nach dem Level wurden das Spiel schwerer und schwerer, eben solange bis man verloren hat. Alle Spiele dieser Zeit waren so aufgebaut. Man spielte das Spiel solange bis man verloren hat. Das macht in der Spielhalle durchaus Sinn, denn schließlich bezahlt der Spieler fürs Spiel und nicht für die Zeit. Zuhause spielte man damals die selbe Art von Spielen. Es gab dann aber schon andere Spiele, Adventure für den Atari 2600 z.B., aber Bedeutung hatten diese damals noch nicht.
Dann ging es dazu über, dass der Spieler gewinnen sollte und konnte. Denn gewinnen bringt mehr Spass, das Spiel wird eher gekauft.
Heute ist es soweit, dass ein Spiel z.B. Prey gar nicht mehr verloren werden kann. Stellt man sich zu dumm an, gibt es einen einfachen Geschicklichkeitstest (wohl um festzustellen ob der Spieler eingeschlafen ist) und man kann da weitermachen, wo man zuvor gescheitert ist nur diesmal unter einfacheren Bedingungen.
Gut, soweit hab ich nicht zurückgedacht. Aber es hat in meinen Augen vor allem mit dem Spielprinzip zu tun. Ein Spiel wie Pong für eine Spielhalle so zu programmieren macht Sinn. Aber kannst du dir ein FPS oder ein RTS vorstellen, bei dem man nicht gewinnen kann?
Das eine ist die Entwicklung hin zu leichteren Spielen um auch Gelegenheitsspielern das Durchspielen zu ermöglichen statt sie zu frustrieren und so eine größere Käuferschicht anzusprechen. Das will ich gar nicht leugnen. Aber parallel dazu sind mit der Zeit durch die technische Entwicklung neue Spielkonzepte möglich geworden und haben sich durchgesetzt. Spiele, bei denen man nur verlieren kann, gibt es heute übrigens auch noch. Wenn auch lange nicht mehr in dem Maße. Aber so ein Spiel kann nun mal nicht komplex sein. Deren Absterben finde ich in Ordnung. Dass heutige Spiele gerne anspruchsvoller sein sollten, womit wir wieder bei der KI wären, da schließe ich mich gerne an. Aber dafür gibts wenigstens normalerweise verschiedene Schwierigkeitsgrade.
Die Karte ist im Grunde nur ein Pathfinding-Beschleuniger.
Meiner Meinung nach müsste die Entwicklung in Richtung einer einheitlichen Lösung gehen, bei der Physik, Pathfinding, Sound und evtl. auch Grafik komplett auf einer Karte sind und die Geometrie-Daten gemeinsam benutzen können. Die Physik berechnet die Objekte, das Pathfinding findet Wege durch die veränderte Geometrie-Situation und ein höher entwickelter Soundchip könnte realistische Berechnungen auf Basis von Wave-Tracing vornehmen.
Insgesamt glaube ich aber, dass die Diskussion um Physik oder Pathfinding-Addin-Karten spätestens mit der Verbreitung von Quad-Core-CPUs gegessen sein wird. Die Technik kam einfach ein paar Jahre zu spät. Die einzige Verbreitungs-Chance für die neuen Chips ist, wenn sie auf Mainboards, Sound- oder Grafikkarten gebundelt werden. Gemessen daran, dass immer mehr Leute auf onboard-Sound zurückgreifen wäre das vielleicht auch die einzige Chance, speziell für Creative, sich im Soundkartenmarkt auf lange Sicht zu halten. Die sogenannten Gaming-Soundkarten würden somit zu "Game Accelerator"-Karten werden.
Slipknot79
2006-09-09, 17:12:34
Wäre nicht uninteressant zu sehen wie das Ding mit nem angepassten Siedler 2 DNG laufen würde.
Aber kannst du dir ein FPS oder ein RTS vorstellen, bei dem man nicht gewinnen kann?
sowas gibt es auch heute noch, beispielsweise den dead-man-walking-modus von MP2.
ist zwar nur ein kleiner teil des spiels, aber immerhin.
Mastermind
2006-09-09, 23:18:42
sowas gibt es auch heute noch, beispielsweise den dead-man-walking-modus von MP2.
ist zwar nur ein kleiner teil des spiels, aber immerhin.
Klar, kenne ich. Aber ich meinte eben als richtiges Hauptspiel. ;)
Monger
2006-09-10, 09:49:54
Ich habe ethrandil anders verstanden.
Das Spiel hat gar keine Grafik Engine mehr. Die Beschreibung des Szene erfolgt in einer abstrakten Form. Wie auch immer zu lösen. (Baum, Haus ; Dach ...)
Diese Beschreibung wird durch eine Einheit dann interpretiert und erst dann gerendert. Die Interpretation erfolgt dann immer den technischen Gegebenheiten angepasst. Hat ein Grafiksystem eine neue Funktion, so wird diese neue Funktion auch benutzt, denn der Interpreter "weiss" was diese Funktion kann und setzt diese im Sinne des Bild Designers ein, obwohl dieser die Funktion gar nicht kennt, oder diese überhaupt existiert haben muss zum Zeitpunkt der Spielerstellung.
Ähnlich wie ein Regisseur sein Drehbuch verfilmt. Nur eben mit einen sehr detailierten Drehbuch.
Im Grunde ist das bereits so. Die Texturformate sind standardisiert, die ganzen Modelle werden ohnehin in externen Tools wie Maya oder 3dsMax erstellt und dann nur noch importiert.
Nur die Leveleditoren sind noch an das jeweilige Spiel angepasst. Da stellt sich die Frage, ob man auch da noch vereinheitlichen könnte, und ich behaupte einfach mal: nein. Spätestens da ist man schon ziemlich eng an die Engine-Features gekoppelt. In der Unreal Engine musste man z.B. im Leveleditor selbst noch die Wegpunkte und einige Performanceoptimierungen von Hand machen. Andere Engines hätten das möglicherweise gar nicht nötig, oder haben ganz andere Probleme.
Nein, was den Levelcontent angeht, sind wir schon auf einem Level wo jeder mit jedem kommunizieren kann. Was im "King Kong" Spiel verwendet wurde, sind genau die Modelle die auch im Film vorkamen - wenn auch natürlich auf Performance getrimmt. Aber spätestens dann muss man sich auf die Besonderheiten jeder Engine einlassen.
Ein KI Beschleuniger >.<!
Es ist momentan unmöglich, denn ein PC kann nicht denken.
Es ist eher eine Wegfindungs-, Aktionautomation ,
die immer nach dem gleichen Schema "wenn daß oder daß dann dann führe xxx aus" abläuft und nicht selber ein neues Schema entwerfen kann.
Der PC kann halt nur 0 oder 1 aber nicht 0 und 1 komplex zu kombinieren.
Daher ist das totaler schwachsinn, denn eine CPU kann das gleiche was dieser "KI" Beschleuniger kann.
*0 und 1 komlex zu verschmelzen meinte ich. :)
Mastermind
2006-09-11, 20:09:50
Unsinn.
Erstens kann ein PC theoretisch alles berechnen. Damit meine ich nicht die gesammte Welt, sondern, dass beim Rechnen keine Grenzen gesetzt sind. (Von der Performance abgesehen)
Zweitens hättest du bezogen auf KI nur den Thread lesen müssen, es gibt schwache KI und das wird schon KI genannt.
TheGoD
2006-09-11, 20:37:17
Welche Ansätze gibt es den für einen KI-Beschleuniger? Kann eine dedizierte Hardware dies wirklich ähnlich stark beschleunigen wie Physik und Grafik oder würde es sich bei einer solchen Karte (wenn sie denn erscheint) nur um eine zusätzliche CPU mit vielleicht etwas angepassten Instruktionen handeln?
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.