Archiv verlassen und diese Seite im Standarddesign anzeigen : AGEIA-Demos in Hülle und Fülle!!!
Android
2005-08-16, 15:31:18
Jetzt gehts aber richtig los: AGEIA hat ne ganze Menge AVI und EXE (Bink Video) Demos veröffentlicht.
Kurz:.............. Meine Fresse ...................... :eek: :eek: :eek:
Das kennt man z.b von Workstations a la E&S und die sind ja bekanntlich eher für den professionellen Bereich ausgelegt und kosten ein bisschen was.
Viel Spass beim Sabbern. Mein Boden kann jetzt auf jeden Fall mal gereinigt werden. ;D
Link: http://www.ageia.com/press/press4.html
by the way, die Karte:
http://www.ageia.com/press/img/physx_devboard_fan_rgb.jpg
Nazar
2005-08-16, 17:55:47
Gibt es zu dem Projekt schon Aussagen wann und mit welcher Hardware (Extrakarte auf PCX-Basis?) das realisiert werden soll?
Ich weiss nur das UT2k7 diese Technik zu hauf benutzen wird.
EDIT: sorry hast ja vorher nicht die Karte eingebunden :wink:
Super Grobi
2005-08-16, 17:59:13
Auf den Foto sehe ich PCI? Oder sieht PCIe auch so aus?
SG
schau doch mal nach rechts oben, so sieht pcie aus ;)
thiron
2005-08-16, 18:04:55
Die kommt aber nur als PCI auf den Markt. Spaeter mit PCIe, aber nicht als 2 fach Loesung.
tombman
2005-08-16, 18:05:07
ja kommt die jetzt sicher AUCH auf pcie 1x raus oder nur auf pci oder wie auf dem Bild hybrid?
Super Grobi
2005-08-16, 18:07:16
ja kommt die jetzt sicher AUCH auf pcie 1x raus oder nur auf pci oder wie auf dem Bild hybrid?
Ich hoffe Hybi, einmal kaufen, zweimal nutzen können.
SG
Spasstiger
2005-08-16, 18:10:53
ja kommt die jetzt sicher AUCH auf pcie 1x raus oder nur auf pci oder wie auf dem Bild hybrid?
Ich nehme mal Hybrid an, weil bisher keine andere Variante gezeigt wurde.
tombman
2005-08-16, 18:11:59
hoffe auch hybi, aber würde mich ned wundern wenn die so feig und dumm sind und nur pci machen.... :rolleyes:
thiron
2005-08-16, 18:13:56
Zunächst soll die Karte über den herkömmlichen 32-Bit PCI-Steckplatz angebunden werden. Erst später möchte man auf PCI Express setzen. Laut den Aussagen von Keane soll die Datenmenge nicht übermäßig hoch sein, so dass ein ausschließlicher Einsatz der in sicher vielen Augen „veralteten“ 32-Bit PCI Schnittstelle momentan noch vertretbar ist.
http://www.computerbase.de/news/hardware/multimedia/2005/august/ageia_physx_herbst/
Was soll das werden, ein neuer LowCost Grafikchip? Von AGEIA hab ich noch nie etwas gehört...
was mir nur angst macht ist der kühler und der stromanschluss...
Super Grobi
2005-08-16, 18:25:58
Leute!
Ich glaub da steht uns was geiles vor der Tür! Die neue Creative Soundkarte soll extra FPS bringen und dann noch diese Karte!
Vieleicht wird dann ein (nur mal so als Beispiel) A64 3000+ mit der Soundkarte und der Ageia so flott wie ein FX-53 ohne das Zeug... das wäre geil!
Irgentwie hab ich da so ein Voodoo2 gefühl im Bauch. Die Karte war damals auch ein hammer und durch nichts zu eresetzen (ausser durch 2 Stück).
Gruss
SG
thiron
2005-08-16, 18:26:31
was mir nur angst macht ist der kühler und der stromanschluss...
Der Stomanschluss waere ja nicht so schlimm. Aber der Aktive Kuehler ist natuerlich Mist. Selbst wenn so ein Ding langsam dreht ist das Lager irgendwann im Eimer, dann rattert es wie ein Trabbi bei 180 auf der Autobahn.
Dann wirds aber wohl bald Artic Silence fuer Physx Karten geben. :udown:
Was soll das werden, ein neuer LowCost Grafikchip? Von AGEIA hab ich noch nie etwas gehört...
Yup!
http://www.google.de/search?client=firefox-a&rls=org.mozilla%3Ade-DE%3Aofficial_s&hl=de&q=how+to+use+google&meta=&btnG=Google-Suche
naja in zeiten wo sc cpus net mal richtig ausgelastet werden irgendwie unnötig, vor allem da dc vor der tür steht
es sei denn die bohren die physik um ein zigfaches auf
hoffe auch hybi, aber würde mich ned wundern wenn die so feig und dumm sind und nur pci machen.... :rolleyes:
und wie genau kommst du zu dieser "weisen" ansicht?
Omnicron
2005-08-16, 18:43:53
Au weia, so ein Thermaltake GF4 Ersatzkühler, der is aber net silent :(
Super Grobi
2005-08-16, 18:44:03
und wie genau kommst du zu dieser "weisen" ansicht?
Na weil man doch so doppelt abkassieren kann! Die PCIe ist ein tick schneller und schon kaufen einige Leute die PCIe und die PCI fliegt in die Schublade oder auf den 3dC Marktplatz.
SG
So ein extra Stecker macht absolut Sinn. Anstatt 2 Stromquellen, Slot und Stecker, zusammenzuschalten wird praktisch nur Strom über den extra Stecker gezogen. Der Slot dürfte eher für die Grundversorgung benutzt werden. So ähnlich wie bei SLI halt.
Der Lüfter ist natürlich nicht so schön kommt aber drauf an, wie schnell er dreht. Bei einem langsam drehenden Lüfter in der aktiven Version könnte ein größerer Kühlkörper mit schon vorhandenen Gehäuselüftern und deren Luftzug eventuell für ein passive Version ausreichen. Das Kärtchen zieht max. so um die 30 Watt wenn ich mich nicht irre.
Marc-
2005-08-16, 18:51:33
Na weil man doch so doppelt abkassieren kann! Die PCIe ist ein tick schneller und schon kaufen einige Leute die PCIe und die PCI fliegt in die Schublade oder auf den 3dC Marktplatz.
SG
Und inwiefern sollte dieselbe karte bei gleichem chipsatz durch den einsatz von PCIe schneller sein? Wie oben scho zitiert wird die bandbreite offensichtlich deutlich ausreichen über den pci bus. Wenn das stimmt (wogegen es erstmal keine beweise gibt) gibts keinen grund ne pci gegen ne pcie karte mit gleichem chip zu tauschen ausser womöglich den wahn das neueste vom neuen haben zu müssen.
Zumal ich den begriff "feigheit" der in diesem zusammenhang gefallen ist mal überhaupt nicht verstehen kann. was hat denn eine solche entscheidung mit "feigheit" zu tun?
Spasstiger
2005-08-16, 18:52:21
Was soll das werden, ein neuer LowCost Grafikchip? Von AGEIA hab ich noch nie etwas gehört...
PhysX ist eine Physikbeschleuniger-Karte, AGEIA ist der Entwickler.
Mit eine Grafikkarte hat das nix zu tun.
Super Grobi
2005-08-16, 19:09:38
Und inwiefern sollte dieselbe karte bei gleichem chipsatz durch den einsatz von PCIe schneller sein? Wie oben scho zitiert wird die bandbreite offensichtlich deutlich ausreichen über den pci bus. Wenn das stimmt (wogegen es erstmal keine beweise gibt) gibts keinen grund ne pci gegen ne pcie karte mit gleichem chip zu tauschen ausser womöglich den wahn das neueste vom neuen haben zu müssen.
Zumal ich den begriff "feigheit" der in diesem zusammenhang gefallen ist mal überhaupt nicht verstehen kann. was hat denn eine solche entscheidung mit "feigheit" zu tun?
Na so dumm werden die auch nicht sein, ein paar Mhz mehr für die PCIe Version... bingo
SG
robbitop
2005-08-16, 21:24:34
Dass da ein Lüfter zum Einsatz kommt, war ja irgendwo klar. Bekannt war ja, dass 125 Mio Transistoren und 130nm Fertigung zum Einsatz kommen. Und ein Kühlkörper, der passiv viel Energie in Form von Wärme ableiten kann, ist immer teuer.
Man versucht nun, den Physikbeschleuniger auf den Markt zu drücken, beziehungsweise einen Markt dafür zu schaffen. Das ist nicht einfach, da ein Henne-Ei Problem bevorsteht. Ohne Verbreitung setzen Softwareentwickler (zumindist nicht ohne monetäre Motivation ;)) kaum auf dieses neue System. Außerdem ist eine brauchbare und einfach zu programmierende API nötig (auch diese muss sich erst einmal durchsetzen).
Außerdem bekommt man mit den Zweikernprozessoren nun einen Konkurenten: Zwar sind diese noch lange nicht so leistungsfähig wie das Produkt, jedoch verbreiten sie sich schneller und sind relativ einfach zu nutzen für die Entwickler.
Da soziemlich jedes Board einen PCI Slot hat aber noch längst nicht alle PCIe haben, ist es nachvollziehbar, dass ersteinmal nur eine PCI Variante auf den Markt kommt. Gleichzeitig 2 Serien zu vertreiben kostet eben Ressourcen, die man anscheinend derzeit nicht hat oder anderwaltig benötigt.
Ich hoffe, dass dieses Projekt ein Erfolg wird und sich mittelfristig durchsetzt. Ich träume seit Jahren von einer aufgebohrten Geo Mod Engine, in dem man einfach viel mehr bewegen und evtl zerstören kann.
Vieleicht springt NV/ATI oder sogar Creative Labs auf den Zug und integrieren dies dann irgendwann auf Grafik- oder Soundkarten. Denn wer will schon so viele Steckkarten im Rechner haben? Ich nicht. (mini und µATX/BTX Besitzer ebenfalls nicht)
naja die videos beeindrucken mich net wirklich
oder hab ich mir einfach nur die falschen 3 rausgepickt?
Kinman
2005-08-16, 21:54:23
Dass da ein Lüfter zum Einsatz kommt, war ja irgendwo klar. Bekannt war ja, dass 125 Mio Transistoren und 130nm Fertigung zum Einsatz kommen. Und ein Kühlkörper, der passiv viel Energie in Form von Wärme ableiten kann, ist immer teuer.
Man versucht nun, den Physikbeschleuniger auf den Markt zu drücken, beziehungsweise einen Markt dafür zu schaffen. Das ist nicht einfach, da ein Henne-Ei Problem bevorsteht. Ohne Verbreitung setzen Softwareentwickler (zumindist nicht ohne monetäre Motivation ;)) kaum auf dieses neue System. Außerdem ist eine brauchbare und einfach zu programmierende API nötig (auch diese muss sich erst einmal durchsetzen).
Außerdem bekommt man mit den Zweikernprozessoren nun einen Konkurenten: Zwar sind diese noch lange nicht so leistungsfähig wie das Produkt, jedoch verbreiten sie sich schneller und sind relativ einfach zu nutzen für die Entwickler.
Da soziemlich jedes Board einen PCI Slot hat aber noch längst nicht alle PCIe haben, ist es nachvollziehbar, dass ersteinmal nur eine PCI Variante auf den Markt kommt. Gleichzeitig 2 Serien zu vertreiben kostet eben Ressourcen, die man anscheinend derzeit nicht hat oder anderwaltig benötigt.
Ich hoffe, dass dieses Projekt ein Erfolg wird und sich mittelfristig durchsetzt. Ich träume seit Jahren von einer aufgebohrten Geo Mod Engine, in dem man einfach viel mehr bewegen und evtl zerstören kann.
Vieleicht springt NV/ATI oder sogar Creative Labs auf den Zug und integrieren dies dann irgendwann auf Grafik- oder Soundkarten. Denn wer will schon so viele Steckkarten im Rechner haben? Ich nicht. (mini und µATX/BTX Besitzer ebenfalls nicht)
Bah net schon wieder weiter integrieren. Mich zipft das Onboard Sound schon an. Wieder Geld für etwas ausgegeben was man nciht braucht. Mir ist eine Extra Karte viel lieber. Gerade diese dürfte langlebig sein. Und hoffentlich wandert das Ding nicht auch noch auf das Mainboard.
Ich bin schön neugierig was mit dieser Karte möglich sein wird!
mfg Kinman
Hamster
2005-08-16, 22:03:58
Bah net schon wieder weiter integrieren. Mich zipft das Onboard Sound schon an. Wieder Geld für etwas ausgegeben was man nciht braucht. Mir ist eine Extra Karte viel lieber. Gerade diese dürfte langlebig sein. Und hoffentlich wandert das Ding nicht auch noch auf das Mainboard.
Ich bin schön neugierig was mit dieser Karte möglich sein wird!
mfg Kinman
zumindest auf einer soundkarte fänd ich das kärtchen super. die hat man eh meist viele jahre.
Super Grobi
2005-08-16, 22:14:13
naja die videos beeindrucken mich net wirklich
oder hab ich mir einfach nur die falschen 3 rausgepickt?
Weil du jetzt eine starke CPU hast und das schon von FarCry und Co. kennst? Was soll auch dort gezeigt werden? Interessant wäre die CPU Auslastung von dem gezeigten mit und ohne diese Karte. Ich denke dann wärst du beeindruckt! Wen sich die Karte durchsetzt, brauchst du in Zukunft nicht "ständig" eine stärkere CPU kaufen und kannst dein System so behalten wie es ist.
Ich hoffe das ich die Karte flux kaufen kann. (und es wenigstens ein Game gibt wo die rockt).
SG
Edit: Sehr kranke Idee: Aber wäre eine SLI-Lösung denkbar? Würde das die Bandbreite erweitern?
Hamster
2005-08-16, 22:19:50
Würde das die Bandbreite erweitern?
nicht auf pci basis.
robbitop
2005-08-16, 22:42:02
Bah net schon wieder weiter integrieren. Mich zipft das Onboard Sound schon an. Wieder Geld für etwas ausgegeben was man nciht braucht. Mir ist eine Extra Karte viel lieber. Gerade diese dürfte langlebig sein. Und hoffentlich wandert das Ding nicht auch noch auf das Mainboard.
Ich bin schön neugierig was mit dieser Karte möglich sein wird!
mfg Kinman
Nein nein. Erst, wenn sich sowas wirklich durchgesetzt hat, so wie es heute mit 3D Beschleunigung ist. Erst gab es doch Add On Karten. Und selbst dort waren dann noch RAMDAC/PIXEL/TEXEL Unit getrennt. Heutzutage ist all das auf einer Grafikunit. Mit fortschreitendem shrinking wäre das mittel- bis langfristig kein Problem.
Marc-
2005-08-16, 23:10:51
SG
Edit: Sehr kranke Idee: Aber wäre eine SLI-Lösung denkbar? Würde das die Bandbreite erweitern?
Aeh hallo? kannst du lesen? WOZU sollte denn die bandbreite erweitert werden? wenn jetzt schon laut allen bekannten aussagen die bandbreite des PCI Bus keinen flaschenhals darstellt und mehr als ausreichend is?
Was soll die karte denn noch berechnen ausser die bisher vorgesehenen das ein bandbreitenproblem auftreten könnte? also deine logik is schwer nachvollziehbar.
Super Grobi
2005-08-16, 23:14:56
Aeh hallo? kannst du lesen? WOZU sollte denn die bandbreite erweitert werden? wenn jetzt schon laut allen bekannten aussagen die bandbreite des PCI Bus keinen flaschenhals darstellt und mehr als ausreichend is?
Was soll die karte denn noch berechnen ausser die bisher vorgesehenen das ein bandbreitenproblem auftreten könnte? also deine logik is schwer nachvollziehbar.
Na kannst dir ja mal eine Voodoo2 einbauen und testen. Dann kannste mal eine 2. im SLI einbauen.
Wenn du dann den Unterschied bemerkst hast, kannnste dir mal überlegen was ich mir mit 2xPCI "gedacht" habe.
SG
Edit: FALLS sich so eine Karte mal verkauft: Dann wird es in dem Breich auch ein Low-Q, M-Q, H-Q und U-HQ geben.
deekey777
2005-08-16, 23:18:33
Im ersten Posting wird der Heilige Name E&S erwähnt, aber im welchen Zusammenhang? :|
Bauer
2005-08-17, 00:17:18
http://www.ageia.com/press/Eye%20on%20Storm/yager_physics_demo_e3_640x480.wmv.avi
:eek: hab ich zuviel geraucht, oder ist das ein neuer "unreal effekt"?
das abtauchen in eine künstliche realität..
bin geflasht :uhippie: :popcorn:
Bauer
2005-08-17, 00:19:09
http://www.ageia.com/press/Eye%20on%20Storm/eots_v1.1_720x480.avi
den mein ich auch vorallem
DaBrain
2005-08-17, 00:26:43
Sehr schön. Physikberechnung zieht ganz schön am Prozessor. Mit so einem Kärtchen werde ich meinen XP noch das nächste Jahr überbehalten können. ;D
Wenn der Preis stimmt bin ich dabei.
Marc-
2005-08-17, 00:39:08
Na kannst dir ja mal eine Voodoo2 einbauen und testen. Dann kannste mal eine 2. im SLI einbauen.
Wenn du dann den Unterschied bemerkst hast, kannnste dir mal überlegen was ich mir mit 2xPCI "gedacht" habe.
SG
Edit: FALLS sich so eine Karte mal verkauft: Dann wird es in dem Breich auch ein Low-Q, M-Q, H-Q und U-HQ geben.
Aeh... liest du mal bitte in dem posting vorher was du geschrieben hattest? Du sprachst von SLI zum zwecke der erweiterung der bandbreite. Was du meinst mit deinem voodoo2 beispiel hat nix mit bandbreite zu tun sondern im prinzip mit der aufteilung der berechnung auf 2 karten- also eine steigerung der rechenleistung... mit bandbreite hat das mal garnix zu tun.
Android
2005-08-17, 11:44:38
@ deeKey777: Ich habe E&S erwähnt, weil sich diese Firma auf "Bildgeneratoren" spezialisiert hat. So ist z.B. in dem EP-1000CT System eine Geometrie-Einheit schon integriert. Deshalb siehst du bei ihren optimierten Anwendungen auch deutlich mehr Geometrie-Berechnung, was aufgrund der Zielgruppe absolute Pflicht ist.
Und diese Technik ist jetzt für Heimanwender verfügbar und bezahlbar.
Zu dem Dual-Core Argument: Der AGEIA-Chip ist auf Geometrieberechnungen optimiert. Natürlich könnte der zweite Core diese Berechnungen ausführen. ABER: Das würde mehr Leistung verschlucken als ein Chip der dafür optimiert wurde. Die Leistungsunterschiede sind teilweise sogar sehr stark. Was hat man auch davon ? Die meisten kaufen sich zur Zeit Dual-Core Prozessoren, weil sie mehrere Anwendungen laufen lassen möchten. Wenn das Spiel durch eine Auslagerung der Physikberechnung auf den zweiten Kern die gesamte CPU beansprucht, wo ist denn dann die zweite wirklich seperate Anwendung ?
Wirklich sinnvoll wird sowas erst ab 3 Kernen. Dann wirds echt egal.
Einfaches Beispiel: Die Playstation 3 hat keine AEGIA Geometrie-Hardware sondern ein SDK mit dem sich Units reservieren lassen. Bei 7 Kernen ist das auch wirklich sch.... egal. Da braucht man dann auch keine zusätzliche Hardware mehr.
Die XBox 360 hat ebenfalls ein SDK. Sie hat im Gegensatz zur Playstation 3 zwar nur erbärmliche 3 Kerne aber selbst das reicht dicke aus um auf zusätzliche Hardware verzichten zu können.
Für beide gilt folgendes: Für die Portierung von PC auf Konsole und andersherum ist der gemeinsame Nenner PhysX eine Hilfe. Weiterhin sind PowerPC-Prozessoren bedingt durch die Architektur von Natur aus schneller in geometrischen Berechnungen (für mehr Infos -> Recherche, oder einfach mal Wikipedia).
Eines ist klar: Sobald in Intel oder AMD Prozessoren 4 Kerne verbaut werden, reicht alleine die softwareseitige Implementierung von PhysX. Bis dahin erfreuen wir uns an dieser Karte.
Cya
Spasstiger
2005-08-17, 11:54:35
http://www.ageia.com/press/Eye%20on%20Storm/yager_physics_demo_e3_640x480.wmv.avi
:eek: hab ich zuviel geraucht, oder ist das ein neuer "unreal effekt"?
das abtauchen in eine künstliche realität..
bin geflasht :uhippie: :popcorn:
Das Video fand ich auch sehr geil und trotzdem kam es noch glaubhaft als echtzeitgerendert rüber. Bin auf das Game sehr gespannt, hoffentlich wurde diese Szene nicht nur für Demozwecke erstellt :).
S3NS3
2005-08-17, 12:12:02
UI, mann, gucken will. Kann hier auffe Arbeit aber nicht...
Aber is 3h bin ich ja zuhause und dann wird geklickert :)
Übrigens zum Preis: Mehrfach gelesen: ca 300€
ShadowXX
2005-08-17, 12:59:20
Dass da ein Lüfter zum Einsatz kommt, war ja irgendwo klar. Bekannt war ja, dass 125 Mio Transistoren und 130nm Fertigung zum Einsatz kommen. Und ein Kühlkörper, der passiv viel Energie in Form von Wärme ableiten kann, ist immer teuer.
Man versucht nun, den Physikbeschleuniger auf den Markt zu drücken, beziehungsweise einen Markt dafür zu schaffen. Das ist nicht einfach, da ein Henne-Ei Problem bevorsteht. Ohne Verbreitung setzen Softwareentwickler (zumindist nicht ohne monetäre Motivation ;)) kaum auf dieses neue System. Außerdem ist eine brauchbare und einfach zu programmierende API nötig (auch diese muss sich erst einmal durchsetzen).
Außerdem bekommt man mit den Zweikernprozessoren nun einen Konkurenten: Zwar sind diese noch lange nicht so leistungsfähig wie das Produkt, jedoch verbreiten sie sich schneller und sind relativ einfach zu nutzen für die Entwickler.
Da soziemlich jedes Board einen PCI Slot hat aber noch längst nicht alle PCIe haben, ist es nachvollziehbar, dass ersteinmal nur eine PCI Variante auf den Markt kommt. Gleichzeitig 2 Serien zu vertreiben kostet eben Ressourcen, die man anscheinend derzeit nicht hat oder anderwaltig benötigt.
Ich hoffe, dass dieses Projekt ein Erfolg wird und sich mittelfristig durchsetzt. Ich träume seit Jahren von einer aufgebohrten Geo Mod Engine, in dem man einfach viel mehr bewegen und evtl zerstören kann.
Vieleicht springt NV/ATI oder sogar Creative Labs auf den Zug und integrieren dies dann irgendwann auf Grafik- oder Soundkarten. Denn wer will schon so viele Steckkarten im Rechner haben? Ich nicht. (mini und µATX/BTX Besitzer ebenfalls nicht)
Das Henne-Ei Problem wird teilweise umgangen, da bei allen Programmen die die AGEIA-Physik-Engine einsetzen (das ist sowas wie die Havok-Engine), die Karte automatsich angesprochen wird.
Die API gibts also schon und wird wohl auch schon von mehreren Devs benutzt...damit hat man bei diesen Games dann automatisch ein Vorteil durch die Karte.
Schön wäre es, wenn es auch ein "Havok-Plugin" geben würde.....aber das werden die Havok-Devs wohl nicht freiwillig Programmieren.
-=CHICKEN=-
2005-08-17, 13:05:55
@android
Eines ist klar: Sobald in Intel oder AMD Prozessoren 4 Kerne verbaut werden, reicht alleine die softwareseitige Implementierung von PhysX. Bis dahin erfreuen wir uns an dieser Karte.
das ist nicht so ganz richtig! der physikprozessor ist 30 mal so schnell wie eine CPU!!!!
also erst wenn wir 30 kerne in unseren rechner hätten, was wohl nie passieren wird, könnte man auf den physikprozessor verzichten.
oder die CPU muß 30x so schnell werden, aber bis dahin (in etlichen jahren) wird der physikprozessor vielleicht 1000x so schnell wie ein jetziger CPU sein, falls der physikprozessor die gleiche entwicklung wie die 3d-beschleuniger durch macht!
kurz gesagt: weil die PPUs optimierte prozessoren sind, wird man sie nie mit x-fach CPU-cores ersetzen können, egal ob wir 2x, 4x, 8x, oder 16x cores im rechner haben!!!!!!!!!!
EDIT/: hier gibts auch nen thread dazu
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=209424&page=1&pp=20
p.s. warum ist dieser thread eigentlich im grafikchips-forum?
TigerAge
2005-08-17, 13:34:40
Ich hoffe das ich die Karte flux kaufen kann. (und es wenigstens ein Game gibt wo die rockt).
Ein Spiel, das gerade Gold geworden ist und die Physx-Karte nutzen kann, ist Bet on Soldier. Das Henne-Ei-Problem ist damit nicht mehr vorhanden. Jedenfalls, wenn man einem Interview in der aktuellen PCGH Glauben schenkt.
Grüße
Nazar
2005-08-17, 14:34:22
UI, mann, gucken will. Kann hier auffe Arbeit aber nicht...
Aber is 3h bin ich ja zuhause und dann wird geklickert :)
Übrigens zum Preis: Mehrfach gelesen: ca 300€
300€ :eek:
Dann wird das ein Reinfall!
Zumindest wird es laaaaaaaaange dauern, bis sich die Karte auf dem Spielsektor breit machen wird.
Ich zocke gerne.. sehr gerne aber 300€ zusätzlich zu einer 500€ teuren Graka und 500€ prozzi... nein Danke :cool:
Spearhead
2005-08-17, 15:19:25
stimmt, der Preis ist schon ziemlich heftig... hoffentlich wird's da noch ne günstigere Variante geben, die dann z.b. niedriger getaktet ist oder so, halt irgendwie reduziert...
also 50 bis 100 € wären wohl gerade noch so vertretbar für den Anfang, aber imho nicht mehr, damit sich das Ding wirklich durchsetzen kann...
Die_Allianz
2005-08-17, 15:31:21
hatte mich eigentlich auch sehr über die entwicklung der karte gefreut, aber:
Noch ein lüfter, nein danke!
Wenn ich bedenke, dass mein absolutes Preislimit bei CPUs und Grafikkarten schon immer bei 200€ lag, sehe ich keine Chance, das diese karte demnächt bei mir Einsatz findet!
ShadowXX
2005-08-17, 15:35:44
Ein Spiel, das gerade Gold geworden ist und die Physx-Karte nutzen kann, ist Bet on Soldier. Das Henne-Ei-Problem ist damit nicht mehr vorhanden. Jedenfalls, wenn man einem Interview in der aktuellen PCGH Glauben schenkt.
Grüße
Wie schon erwähnt: Jedes Game, welches die AGEIA-Physik-Engine als Physik-Engine benutzt, benutzt beim vorhandensein der Physik-Karte diese automatsich mit.
Nur schade, das die meisten die Havok-Engine benutzen......
Die Karte überzeugt mich nicht. Nicht bei diesem Preis. Erschwerend kommt hinzu, was Shadowxxx meinte: Die meisten benutzen die (auch gute) Havok Engine.
Gaestle
2005-08-17, 17:15:02
Die Karte überzeugt mich nicht. Nicht bei diesem Preis. Erschwerend kommt hinzu, was Shadowxxx meinte: Die meisten benutzen die (auch gute) Havok Engine.
Mich auch (noch) nicht, vor allem weil ich meine, bei den einen Video Fehler feststellen zu können, die auch mit Havoc passieren würden, und somit für mich keine Verbesserung zu erkennen ist (oder ich bin blind). Schade.
http://www.ageia.com/press/Eye%20on...640x480.wmv.avi
Grüße
DaBrain
2005-08-17, 17:37:23
:eek: Zu teuer.
Mein absolutes Maximum liegt bei 150€. Mehr ist mir das nicht wert. Wenn der Prozessor nicht genug entlastet wird, lohnt sich die Karte nicht.
Ich dachte Chips, die so extrem spezialisiert sind, sind wenig aufwändig und günstig in der Produktion.
Aber ich will auch eigentlich nicht auf so geniale Physik Effekte verzichten... ;D
Kann man das nicht mit einer anderen Karte kombinieren damit es billiger wird?
Oder vielleicht direkt aufs Mainbaord löten? Muss ja auch nicht unbedingt an meiner PCI Bandbreite nuckeln. ;D ;D ;D
blackbox
2005-08-17, 17:43:41
Ich finde den Airtight schon sehr beeindruckend
Besonders die letzte Szene ist absolut kinoreif.
Ich glaube, wir können zur Zeit noch gar nicht richtig abschätzen, welches Potential in der Karte steckt.
Für Spieledesigner ergeben sich völlig neue Möglichkeiten.
Ich bin auf die weitere Entwicklung sehr gespannt.
Spasstiger
2005-08-17, 17:46:32
Oder vielleicht direkt aufs Mainbaord löten? Muss ja auch nicht unbedingt an meiner PCI Bandbreite nuckeln. ;D ;D ;D
Darüber wurde schon nachgedacht, Anbindung von Onboard-Komponenten über PCIe ist ja auch möglich.
Demirug
2005-08-17, 18:00:27
:eek: Zu teuer.
Mein absolutes Maximum liegt bei 150€. Mehr ist mir das nicht wert. Wenn der Prozessor nicht genug entlastet wird, lohnt sich die Karte nicht.
Ich dachte Chips, die so extrem spezialisiert sind, sind wenig aufwändig und günstig in der Produktion.
Aber ich will auch eigentlich nicht auf so geniale Physik Effekte verzichten... ;D
Kann man das nicht mit einer anderen Karte kombinieren damit es billiger wird?
Oder vielleicht direkt aufs Mainbaord löten? Muss ja auch nicht unbedingt an meiner PCI Bandbreite nuckeln. ;D ;D ;D
So extrem spezialisiert ist der Chip gar nicht. Ist ja inzwischen durchgedrungen.
Bei einer Kombination mit einer anderen karte steht man vor dem gleichen Problem wie bei jeder anderen Multichip karte auch. PCIe ist ja nicht dafür ausgelegt und bei PCI ist das wieder so eine Sache mit der Bandbreite.
DaBrain
2005-08-17, 18:19:51
Man könnte den Chip aber auf das Mainboard setzen, oder?
Dann braucht man ja nicht mal die PCI Bandbreite auszunutzen, kann die Kosten senken und stellt eine gute Verbreitung sicher.
Wenn ein Mainboard mit diesem Chip 100€ mehr kostet ist das eigentlich kein Problem für mich.
Wäre es nicht auch möglich dem Prozessor nur die aufwändigsten Berechnung abzunehmen? Das könnte doch wohl auch ein einfacher Chip.
Vielleicht stelle ich mir das aber auch einfach zu einfach vor...
Mir gefällt die Idee. Es wäre schade wenn sie sich nicht durchsetzt.
Demirug
2005-08-17, 18:32:52
Man könnte den Chip aber auf das Mainboard setzen, oder?
Dann braucht man ja nicht mal die PCI Bandbreite auszunutzen, kann die Kosten senken und stellt eine gute Verbreitung sicher.
Wenn ein Mainboard mit diesem Chip 100€ mehr kostet ist das eigentlich kein Problem für mich.
Klar kann man den aufs Mainboard bauen. Man verliert dann aber trotzdem einen PCIe Kanal. Zudem ist der Spareffekt durch direkte Montage gar nicht so hoch. Mainboards haben heute ja nur so viele Funktionen weil fast alles im Chipsatz verbaut ist.
So richtig durchgesetzt haben sich Mainboards mit hochleistungs Soundlösungen ja auch nicht.
Wäre es nicht auch möglich dem Prozessor nur die aufwändigsten Berechnung abzunehmen? Das könnte doch wohl auch ein einfacher Chip.
Vielleicht stelle ich mir das aber auch einfach zu einfach vor...
Mir gefällt die Idee. Es wäre schade wenn sie sich nicht durchsetzt.
Das Problem beim selektiven Auslagern ist der Kommunikationsoverhead. Man muss sich das ähnlich wie bei den ganz alten mathematischen Coprozessoren vorstellen. Da musste die CPU diesen immer wieder anstossen und dann auf die Ergebnisse warten. Gelohnt hat sich das nur weil das Anstossen und Warten weniger Takte als die Emulation benötigt hat. Bei einem Coprozessor welcher nicht direkt zum Systemdesign gehört ist das aber alles viel schlimmer. Da würde der Overhead den ganzen Gewinn wieder auffressen.
Beim PhysX ist es ja sogar so extrem das man die neuen Daten zum Chip schickt und dann mit den berechneten Ergebnissen des Letzten Frames weiterrechnet. Nur durch diese vollständige parralle Bearbeitung kann der Chip seine Rechenleistung überhaupt ausspielen. Allerdings auf Kosten des Mouselags. Dieser wird nämlich um einen Frame größer.
DaBrain
2005-08-17, 18:43:48
Ok, alles verstanden. Bei einer Integration in die CPU wäre es also sinvoller.
Eine Frage habe ich noch: Wenn das Spiel nicht flüssig läuft, würden die Mouselags doch länger, oder?
Immer noch einen Frame lang, aber wenn man z.B. nur 1 FPS hat, wäre das Mouselag schon eine Sekunde lang. (Wenn ich das richtig verstanden habe.)
Damit macht die Karte ja sowieso nur noch Sinn in High-End Rechnern... :(
@super grobi
naja ich sehe im mom keine schwächen bei den cpu's
mehr als a64 3500+ ist meist über
und selbst mit nem athlon xp kann man jedes game zocken
für gamer sind halt fast nur die grakas interessant, deswegen verstehe ich den sinn einer ppu nicht wenn die physik nicht extremere formen annimmt
denn ansonst reichts auch wenn ich das ganze auf dualcore optimiere
davidzo
2005-08-17, 20:34:18
hey leute glaubt mir, preislich ist auch bei integrierten lösungen nicht viel zu machen. von der herstellung ist das ding einfach.
Ich geh mal nach der grafikkartenrechnung:
der chip hat maximal 150mio transis und ist damit mit 30-50$ das teuerste. dazu kommt ein nicht allzuschnelles ddr rammodul mit hoher kapazität 5-15$.
Das PCB der preversion ist überfüllt mit spannungswandlern (rechts&oben) und komischen testschaltungen+dippschaltern(links) die bei der finalversion wohl ausbleiben. die leitungen um den chip, also von stromversorgung zum chip, von chip zu ram und zum pciinterface sind sehr wenige. insofern können wir erwarten, dass das PCB eher ein kleines schmales 4lagiges wird. 5$ max. Restliche elkos, widerstände spannungsversorgung, etc. 5$max.
Damit landen wir worstcase bei 75$ produktionskosten, was incl. dem gewinn der für die entwicklung rausfällt, dem gewinn den die zwischenhändler machen etc. nen endverkaufspreis von 150$ zulässt. die spanne ist so gering im gegensatz zu anderer ware da es sich um pcteile handelt, da ist das so üblich.
Realistisch würde ich sagen, da das hier ne worstcaserechnung war, könnte AGEIA das Ding für 100? auf den markt schmeißen.
dabei bin ich bei den preisen bisher von dem ausgegangen, was ich so von grafikchips gehört habe. diese werden jedoch womöglich in weitaus höherer Stückzahl gefertigt. AGEIA weiß, dass selbst die hardcore enthusiasten wie ihr so auf die karte reagieren wie ichs hier lese und bleibt deswegen vorsichtig. Aus dem Grunde wird die AGEIA karte vorerst nie die massenfertigungsstückzahlen einer highendgraka erreichen, die ja auch nicht so häufig wie wiederrum mittelklassegrakas verkauft werden.
Kurzum, ich glaube der Grund wieso die karte rund 300? kosten soll ist schlicht und einfach die stückzahl. wenn man mal die rohstoffe und das was wir von der karte wissen betrachten ist das ding weniger kompliziert als ne x600 oder 6200tc grafikkarte. Das, was man für 300? bekommt ist eine Karte der komplexität einer 50? grafikkarte, höchstens der chip mag nen paar mehr transis haben.
robbitop
2005-08-18, 01:49:48
Klar kann man den aufs Mainboard bauen. Man verliert dann aber trotzdem einen PCIe Kanal. Zudem ist der Spareffekt durch direkte Montage gar nicht so hoch. Mainboards haben heute ja nur so viele Funktionen weil fast alles im Chipsatz verbaut ist.
So richtig durchgesetzt haben sich Mainboards mit hochleistungs Soundlösungen ja auch nicht.
Das Problem beim selektiven Auslagern ist der Kommunikationsoverhead. Man muss sich das ähnlich wie bei den ganz alten mathematischen Coprozessoren vorstellen. Da musste die CPU diesen immer wieder anstossen und dann auf die Ergebnisse warten. Gelohnt hat sich das nur weil das Anstossen und Warten weniger Takte als die Emulation benötigt hat. Bei einem Coprozessor welcher nicht direkt zum Systemdesign gehört ist das aber alles viel schlimmer. Da würde der Overhead den ganzen Gewinn wieder auffressen.
Beim PhysX ist es ja sogar so extrem das man die neuen Daten zum Chip schickt und dann mit den berechneten Ergebnissen des Letzten Frames weiterrechnet. Nur durch diese vollständige parralle Bearbeitung kann der Chip seine Rechenleistung überhaupt ausspielen. Allerdings auf Kosten des Mouselags. Dieser wird nämlich um einen Frame größer.
Dann ist ja der Aufbau von Cell genau das Richtige für Physiklastige Spiele. Die SPEs können sicher sehr gut für Physik genutzt werden und sie sind im Core. Nur ist die Haupteinheit vom Cell noch etwas lahm. Ein K8 ähnlicher rechenkräftiger out-of-order Core gefiele mir besser.
hey leute glaubt mir, preislich ist auch bei integrierten lösungen nicht viel zu machen. von der herstellung ist das ding einfach.
Ich geh mal nach der grafikkartenrechnung:
der chip hat maximal 150mio transis und ist damit mit 30-50$ das teuerste. dazu kommt ein nicht allzuschnelles ddr rammodul mit hoher kapazität 5-15$.
Das PCB der preversion ist überfüllt mit spannungswandlern (rechts&oben) und komischen testschaltungen+dippschaltern(links) die bei der finalversion wohl ausbleiben. die leitungen um den chip, also von stromversorgung zum chip, von chip zu ram und zum pciinterface sind sehr wenige. insofern können wir erwarten, dass das PCB eher ein kleines schmales 4lagiges wird. 5$ max. Restliche elkos, widerstände spannungsversorgung, etc. 5$max.
Damit landen wir worstcase bei 75$ produktionskosten, was incl. dem gewinn der für die entwicklung rausfällt, dem gewinn den die zwischenhändler machen etc. nen endverkaufspreis von 150$ zulässt. die spanne ist so gering im gegensatz zu anderer ware da es sich um pcteile handelt, da ist das so üblich.
Realistisch würde ich sagen, da das hier ne worstcaserechnung war, könnte AGEIA das Ding für 100? auf den markt schmeißen.
Milchmädchenrechnung. Patentgebühren, Entwicklung, Test, Zertifizierungen, ,Abnahmen usw. sind der gröte Kostenfaktor bei Hardware aller Art. Erst wenn sich etwas durchgesetzt hat und von verschiedenen Herstellern hergestellt wird darfst Du anfangen die produktkosten zu addieren. Guck doch mal nach was vor 4 Jahren ein Cardreader gekostet hat....
Hm, AGEIA stellt AFAIK keine Graphikchips her, ergo verschiebe ich mal ins Technologieforum.
-huha
betasilie
2005-08-18, 04:31:54
Das setzt sich niemals durch auf dem PC.
Wie schnell sind eigentlich die SPEs des Cell im Vergleich zum dem PhysX Chip?
mapel110
2005-08-18, 05:11:30
Ich sehe auf den Videos auch nichts, was mir 300 € (so teuer wird das Kärtchen doch wohl) wert wäre.
Grafisch könnten die Videos auch mehr her machen. Fühlte mich an alte 3DFX-Games errinnert. ;(
betasilie
2005-08-18, 05:37:15
Man sind die Videos arm. Wer dafür 300€ ausgibt ist selber Schuld. Da lege ich lieber 150€ drauf und habe ne PS3. O_o
Razor
2005-08-18, 06:36:17
Das Ding ist nichts anderes, als 'nen Co-Prozessor für die CPU... oder für die GraKa, wenn man will.
Und für diesen CoPro soll man dann auch noch satte 300 hinlegen, einen zusätzlichen (Billig-)Lüfter ertragen und darauf hoffen, dass sich die Spiele-Hersteller darauf stürzen (warum sollten sie das tun?)... neeee. Ich habe in den Videos nichts gesehen, was es nicht in der einen oder andern Form schon gibt. Und wenn man bedenkt, wie schnell die CPU's schon jetzt sind und dies in naher Zukunft noch werden, hat dieser CoPro absolut keine Zukunft... schon gar nicht bei einer derart schmalen Anbindung.
Sorry, meiner Meinung nach: vollkommen überflüssig das Teil!
Razor
S3NS3
2005-08-18, 09:03:11
Geht ja auch nicht um die Grafik bzw. Optik. Es geht um das Physikdetail/Komplexität/Geschwindigkeit/Genauigkeit.
Und da ist es echt nicht übel. Allerdings finde ich auch nicht das es jetzt ein unfassbarer schritt wäre...
Hrm...
Überzeugt mich jetzt auch nicht wirklich. Physik war für mich in den letzten Monaten eigentlich mit "Gimmick" gleichzusetzen: nett, aber nutzlos.
Der Nutzen für Multiplayerspiele ist sowieso gering, weil man praktisch alle Physikberechnungen clientseitig durchführen muss, weil es sonst laggen würde wie sonstwas. Da man so Physikereignisse nicht synchronisieren kann, verbietet sich jeder spielrelevante Einfluss.
Bei Singleplayerspielen kann man zwar tausende von Steinbrocken durch die Luft wirbeln, aber vieles kann man berechnen, aber nicht darstellen. Iirc sind ja zerstörbare Objekte erst mit dem Geometry Shader unter WGF 2.0 möglich.
Ob die paar physikalischen Effekte 300 Euro und eine sehr begrenzte Spieleunterstützung rechtfertigen, bin ich doch sehr im Zweifel. Wenn ich das Geld in CPU, RAM, Grafikkarte oder Soundkarte stecke, habe ich imho mehr davon.
Marc-
2005-08-18, 09:58:02
Der Nutzen für Multiplayerspiele ist sowieso gering, weil man praktisch alle Physikberechnungen clientseitig durchführen muss, weil es sonst laggen würde wie sonstwas. Da man so Physikereignisse nicht synchronisieren kann, verbietet sich jeder spielrelevante Einfluss.
Ich teile die grundsätzlichen bedenken ob sich eine solche karte ob der tatsächlich gebotenen mehrleistung durchsetzt.
Dein argument in bezug auf MP spiele kann ich allerdings nicht ganz nachvollziehen.
1. Es werden heute schon jede menge dinge clientseitig berechnet die nicht synchronisiert werden (jedenfalls nicht vollständig). Denken wir zum beispiel an die darstellung der rauchschwaden bei rauchgranaten bei counterstrike. Diese werden nicht bei allen clients gleich dargestellt bzw decken nicht immer den gleichen bereich ab. Also sollte das auch weiterhin gehen ohne ein spiel zu arg zu verzerren.
2. Man muesste das mal genau durchrechnen, aber ich glaube eigentlich nicht das die zusätzlich zu übertragenden daten von physikeffekten die serverseitiig berechnet wuerden bei den heute zur verfügung stehenden bandbreiten ein so grosses problem darstellen wuerden bzw die datenmenge so gross ist.
Ein Spiel, das gerade Gold geworden ist und die Physx-Karte nutzen kann, ist Bet on Soldier. Das Henne-Ei-Problem ist damit nicht mehr vorhanden. Jedenfalls, wenn man einem Interview in der aktuellen PCGH Glauben schenkt.
Grüße
ja, hier die PR:
http://www.ageia.com/pr_08162005a.html?id=1120108410928
S3NS3
2005-08-18, 12:15:06
Was ich mir so als sinnvoll bei 300€ PPU vorstelle sind enorme Physikalisch Animierte Szenen in Echtzeit.
Sehr detailliertes Ragdoll bei sehr vielen Modells, einstürzende Mauern aus sehr vielen Steinen, Explosionen die alles wegschleudern können usw. Das in einer sehr hohen genauigkeit. Auch vieleicht Softbody-Körper wie damals die Raptoren bei Trespasser.
Und auch flüssigkeiten in mengen. Z.b. ein Rohr geht innen Shooter kaputt wo man hinballert, dann strömt das Wasser halbwegs realistisch durch den Gang, vor Ecken, Wellen werfend. (Denke DAFÜR reicht die Karte aber bei weitem nicht).
Auch z.B. das ALLE Objekte dynamisch sind. Ich baller einen mit Schrother ab, der fliegt nach hinten übern Tisch, darauf liegen sachen die korrekt berechnet bewegen, vieleicht noch Tischdecke, dann knallt er dahinter auf den Stuhl... wie echt, nicht so möchtegern doll.
Das wäre was was möglich wäre mit so ner Karte, das würde sich dann auch lohnen. Nur wird das leider nicht so schnell passieren das sowas genutzt wird.
Sagen wir also wie HL2 nur noch VIEL mehr und VIEL Imposanter. Und sogar im Singleplayer eingebunden. Wie´n Rätsel mit ner Maschine die mit der Physikengine richtig "funktioniert".
Und zu Physik im MP.. mir würd ein geiles Ragdoll reichen in Q4 z.b. Wäre auch geilo für Movies. Bei Frags der gegner so segel, klatsch :)
ich stell mir grade ein rennspiel wie flatout mit dieser karte vor. zentausend objekte pro karte die man physikalisch korrekt kaputtfahren kann :biggrin:
auch wäre ein komplettes geomodding sehr schön
1. Es werden heute schon jede menge dinge clientseitig berechnet die nicht synchronisiert werden (jedenfalls nicht vollständig). Denken wir zum beispiel an die darstellung der rauchschwaden bei rauchgranaten bei counterstrike. Diese werden nicht bei allen clients gleich dargestellt bzw decken nicht immer den gleichen bereich ab. Also sollte das auch weiterhin gehen ohne ein spiel zu arg zu verzerren.
... was ja bei Counterstrike durchaus als Negativpunkt gesehen wird. Für manche Turnierveranstalter war das Grund genug, den Einsatz von Rauchgranaten zu verbieten, weil einfach die Wirkung auf verschiedenen Systemen nicht nachvollziehbar ist.
Mir geht es eher um physikalische Effekte, die auch auf den Spieler eine Auswirkung haben. Wenn z.B. ein Trümmerstück irgendwo durch die Gegend fliegt und jemanden trifft, macht es einen riesengroßen Unterschied ob das clientseitig oder serverseitig passiert. Deshalb richten ja in allen aktuellen Spielen Decals keinen eigenen Schaden an. Das meine ich damit dass Physik, die sich tatsächlich auf den Spielverlauf auswirkt, derzeit gar nicht im größeren Maße möglich ist.
2. Man muesste das mal genau durchrechnen, aber ich glaube eigentlich nicht das die zusätzlich zu übertragenden daten von physikeffekten die serverseitiig berechnet wuerden bei den heute zur verfügung stehenden bandbreiten ein so grosses problem darstellen wuerden bzw die datenmenge so gross ist.
Ich glaube schon. In Battlefield 2 war das angeblich der entscheidende Grund, weshalb zwingend DSL gefordert wird. Joint Operations, dass auf physikalische Effekte (sogar bei der Fahrzeugsteuerung) völlig verzichtet, kann selbst mit normalem ISDN locker 150 Spieler flüssig über die Leitung schieben.
Ist ja auch irgendwie nachvollziehbar: Normale Netzwerkspiele haben nicht viel Daten zu übertragen. Position und Ausrichtung der Fahrzeuge und Spieler - das wars. Das sind im Normalfall allenfalls ein paar hundert. Wenn man aber jeden Steinschlag, jede Kugel berechnet, gibt es gleich einige hundert bis tausend Objekte, die alle ihre Koordinaten übertragen haben wollen.
Bandbreite ist ja auch gar nicht so entscheidend wie Latenz. Und die dürfte bei größeren oder sogar mehr Paketen auch spürbar ansteigen.
--- Monger
S3NS3
2005-08-18, 13:52:51
... was ja bei Counterstrike durchaus als Negativpunkt gesehen wird. Für manche Turnierveranstalter war das Grund genug, den Einsatz von Rauchgranaten zu verbieten, weil einfach die Wirkung auf verschiedenen Systemen nicht nachvollziehbar ist.
Mir geht es eher um physikalische Effekte, die auch auf den Spieler eine Auswirkung haben. Wenn z.B. ein Trümmerstück irgendwo durch die Gegend fliegt und jemanden trifft, macht es einen riesengroßen Unterschied ob das clientseitig oder serverseitig passiert. Deshalb richten ja in allen aktuellen Spielen Decals keinen eigenen Schaden an. Das meine ich damit dass Physik, die sich tatsächlich auf den Spielverlauf auswirkt, derzeit gar nicht im größeren Maße möglich ist.
Ich glaube schon. In Battlefield 2 war das angeblich der entscheidende Grund, weshalb zwingend DSL gefordert wird. Joint Operations, dass auf physikalische Effekte (sogar bei der Fahrzeugsteuerung) völlig verzichtet, kann selbst mit normalem ISDN locker 150 Spieler flüssig über die Leitung schieben.
Ist ja auch irgendwie nachvollziehbar: Normale Netzwerkspiele haben nicht viel Daten zu übertragen. Position und Ausrichtung der Fahrzeuge und Spieler - das wars. Das sind im Normalfall allenfalls ein paar hundert. Wenn man aber jeden Steinschlag, jede Kugel berechnet, gibt es gleich einige hundert bis tausend Objekte, die alle ihre Koordinaten übertragen haben wollen.
Bandbreite ist ja auch gar nicht so entscheidend wie Latenz. Und die dürfte bei größeren oder sogar mehr Paketen auch spürbar ansteigen.
--- Monger
Jo, stimmt ! Noch nicht so gesehn. Nur gewundert warum die Physik so grob ist da es bei SP Games ja VIEL besser ist.
Milchmädchenrechnung. Patentgebühren, Entwicklung, Test, Zertifizierungen, ,Abnahmen usw. sind der gröte Kostenfaktor bei Hardware aller Art. Erst wenn sich etwas durchgesetzt hat und von verschiedenen Herstellern hergestellt wird darfst Du anfangen die produktkosten zu addieren. Guck doch mal nach was vor 4 Jahren ein Cardreader gekostet hat....Selber Milchmädchenrechnung. Den Grossteil der Entwicklungskosten machen Gehälter und Entwicklungs-/Simulationstools (HW und SW) aus. Die angegebenen Produktionskosten sind recht sauber aufgeführt, der Löwenanteil des Verkaufspreises geht jedoch an Kartenhersteller und Handel, nicht an die Entwickler. Das Ding ist vor allem deshalb so teuer, weil schlicht nicht genug Absatzvolumen zu erwarten ist.
Selber Milchmädchenrechnung. Den Grossteil der Entwicklungskosten machen Gehälter und Entwicklungs-/Simulationstools (HW und SW) aus. Die angegebenen Produktionskosten sind recht sauber aufgeführt, der Löwenanteil des Verkaufspreises geht jedoch an Kartenhersteller und Handel, nicht an die Entwickler. Das Ding ist vor allem deshalb so teuer, weil schlicht nicht genug Absatzvolumen zu erwarten ist.Noch vergessen: Jedes (Test-)Tape-out kostet auch noch jede Menge.
MountWalker
2005-08-18, 14:35:53
Das setzt sich niemals durch auf dem PC.
Wie schnell sind eigentlich die SPEs des Cell im Vergleich zum dem PhysX Chip?Statt 1.000 Objekte wie die normalen CPUs, soll die AGEIA PhysX in der Lage sein, ganze 32.000 Objekte gleichzeitig berechnen zu können. (http://www.computerbase.de/news/hardware/multimedia/2005/august/ageia_physx_herbst/)
Jetzt kannst du selbst überlegen, ob der Cell 32 mal so schnell wie eine x86-Desktop-CPU sein kann. :D
Android
2005-08-18, 15:09:00
@ CHICKEN:
Da hast du was falsch verstanden. Ein Physikprozessor (Geometrieprozessor) ist zwar schneller als eine normale CPU, aber mit den richtigen Befehlssätzen und genügend Reserven wird ein Geometrieprozessor überflüssig.
Und: Du scheinst die Präsentationen von Intel bezüglich mehrerer Kerne in CPU`s noch nicht gesehen zu haben.
Man sollte immer sehr vorsichtig mit Aussagen über zukünftige Technologien sein, wenn man kein Hersteller oder Ingenieur im jeweiligen Fachgebiet ist.
Intel "möchte" bis 2015 10 Kerne wenn nicht sogar 100 Kerne in einer CPU unterbringen. (Die 100 Kerne ergeben sich offensichtlich aus einer neuen Hyperthreading-Variante nach der jeder Kern mehrere Prozesse verwalten kann. Also mehr als zwei, daher mehr logische CPU's).
Link:http://www.intel.com/idf/us/spring2005/systems/
Geschichte (aber wahr): Ich kann mich sehr gut an einen Artikel in der PC-WELT von 1990 erinnern. Ich habe ihn deshalb nicht vergessen, weil er sehr prägend für mich war, bezüglich des Fortschritts. Damals wurde ein Notebook mit 386er Prozessor unter die Lupe genommen. Im Fazit stand ungefähr folgendes: Der Redakteur schrieb das Notebooks aufgrund ihres Gewichts und ihrer Leistung niemals einem Desktop-System Konkurrenz machen könnten. Soweit so, naja, gut ? Seine Vermutung zur Leistung begründete er damals, indem er einen 486er Desktop-Prozessor mit einem 386er verglich. Laut ihm würde eine (fast wörtlich) "....eine derart hochperformante Technik niemals in Notebooks auftauchen...." ....... Soviel zu der Zahl von Prozessorkernen der Zukunft ;)
Weiterhin: Ich habe in meinem vorigen Posting schon geschrieben, dass die XBOX 360 und die Playstation 3 die PhysX Technologie benutzen. Und die haben definitiv keine AGEIA-Hardware.
Also es geht auch ohne sehr gut.
Und ich tippe mal auf folgendes: Die AGEIA-Hardware ist nur en Übergangsding von AGEIA. Ziel wird es sein einen Standard zu schaffen und den dann später in Grafikchips oder in Form von Befehlssätzen in CPU's zu integrieren. Denkt mal nach was die dann lizenztechnisch dabei verdienen würden. Der AEGIA-Prozessor ist zwar was schönes aber nichts besonderes. Die Idee gibt es schon seit knapp 25 Jahren und die Technik seit 15 Jahren. Der AEGIA-Prozessor ist nur leistungsstärker.
Nehmt mal den 386er, der hatte noch ne seperate FPU (Also nen echten Co-Prozessor). Mittlerweile ist die in CPU`s integriert und durch Befehlssätze stark optimiert.
Der AGEIA-Chip ist schneller als eine CPU, weil sie für physikalische Berechnungen optimiert ist. Wenn aber genug Reserven seitens der CPU da sind, dann ist es doch egal, ob ne PPU 30 mal schneller als ne CPU ist (Und das ohne optimierte Befehlssätze für die CPU !!! nicht vergessen !!!).
In diesem Sinne
Cya
Und ich tippe mal auf folgendes: Die AGEIA-Hardware ist nur en Übergangsding von AGEIA. Ziel wird es sein einen Standard zu schaffen und den dann später in Grafikchips oder in Form von Befehlssätzen in CPU's zu integrieren. Denkt mal nach was die dann lizenztechnisch dabei verdienen würden. Der AEGIA-Prozessor ist zwar was schönes aber nichts besonderes. Die Idee gibt es schon seit knapp 25 Jahren und die Technik seit 15 Jahren. Der AEGIA-Prozessor ist nur leistungsstärker.An welche (besonderen) Befehle denkts du? Und wieso glaubst, dass man mit Lizenzen daran dick verdienen kann, wenn die Technik schon 15 Jahre alt ist? Welche Technik meinst du im übrigen?
betasilie
2005-08-18, 15:54:50
Statt 1.000 Objekte wie die normalen CPUs, soll die AGEIA PhysX in der Lage sein, ganze 32.000 Objekte gleichzeitig berechnen zu können. (http://www.computerbase.de/news/hardware/multimedia/2005/august/ageia_physx_herbst/)
Jetzt kannst du selbst überlegen, ob der Cell 32 mal so schnell wie eine x86-Desktop-CPU sein kann. :D
Wieso kann ich das selber überlegen? Die Werbeveranstaltung von PhysX kenne ich. Ich hätte gerne gewusst wieviel SPEs eine äquivalente Leistung zum PhysX Chip bringen bei AGEIA Code. AGEIA ist teil des PS3 Dev.Kits, weil die SPEs durchaus Ähnlichkeiten zum PhysX Chip haben.
Statt 1.000 Objekte wie die normalen CPUs, soll die AGEIA PhysX in der Lage sein, ganze 32.000 Objekte gleichzeitig berechnen zu können. (http://www.computerbase.de/news/hardware/multimedia/2005/august/ageia_physx_herbst/)
Jetzt kannst du selbst überlegen, ob der Cell 32 mal so schnell wie eine x86-Desktop-CPU sein kann. :D
Noch ne Milchmädchenrechnung :)
Sie setzt nämlich voraus, dass die Laufzeit linear ist.
Nun hast du aber n Objekte, die jeweils mit n-1 Objekten kollidieren können.
Man kann zwar die Laufzeit durch Beschleunigerstrukturen vielleicht noch etwas drücken, aber für die 32 fache Menge an Objekten ist weit mehr als die 32 fache Rechenleistung nötig. ;)
Gouvernator
2005-08-18, 17:41:50
Hey Leute , seid ihr durch die Demos geblendet worden ? Erstens zu Demos - diese wurden mit viel Aufwand erstellt und genauso wie bei Ati/Nvidia nicht wirklich repräsentativ .. für Spielerealität.
Nächster Punkt ist der Preis - eine Karte für mehr als ~300€ soll wenigstens überall einsetzbar sein und nicht nur in paar ausgewählten Spielen. Wenn die Entwickler es schaffen jeder Karte ein Toolbox beizulegen mit dem man seine eingene Welten bauen kann.. und zwar in Konsolen gerechter Manier , dann ist diese Karte was Wert, ansonsten ist sie teurerer Müll.
Man kann Ageia aber nicht vorwerfen, nicht alles für eine breite Unterstützung tun.
Mit den Deals mit der UE 3 und dem Deals für XBox 360/PS3 kriegt Novodex schon eine recht hohe Verbreitung.
Dazu gibts für andere Entwickler dann noch ein Geschenk:
If you have a product that makes significant use of the hardware when it becomes available, you can apply for a contract to use Novodex for free even if your game is commerical. If you don't use the PPU, the price of using Novodex per SKU is $50K.
You will need to contact Ageia Developer Relations with regard to what constitutes "significant use".
Wenn man nun die Auswahl hat um das Geld in eine andere Physikengine (Havok) zu stecken oder das Geld in zusätzliche Effekte zu stecken um die Engine dann kostenlos zu bekommen, sollte die Wahl nicht mehr schwer sein.
tombman
2005-08-18, 19:52:56
hehe, genialer Schachzug. damit ist der Anzeiz die PPU zu nutzen verdammt groß ;)
Ich hoffe wirklich, daß das DIng ein Erfolg wird, ähnlich wie voodoo @ 3d damals ;)
Avalox
2005-08-18, 20:00:58
Ich finde die fehlende Interaktivität moderner Shooter schon fast peinlich, alles sehr schön und plastisch gerendert und man kann mit nichts interagieren, ausser dass man aufgehalten wird. Schon fast der Charakter einer Grafikdemo.
Seit dem die Grafik immer mehr Fortschritte gemacht hat, fällt das nur noch mehr auf. Vielleicht wird man auch so langsam Grafikmüde. Man hat sich an die Superlativen gewöhnt und ist nicht mehr so geblendet.
Eine ordentlich Spielephysik die mehr kann, als eine olle Wippe zu kippen und ein paar Kartons umherzuwürfeln wäre schon viel wert.
Am meisten freut es mich, dass Spiele mit einer besseren Physik auch ganz anders konzipiert werden müssen. Das dürfte auch die Spielehersteller mit ihren hoch entwickelten 0815 Shooter Entwicklungskits wohl auch am meisten abschrecken.
Gouvernator
2005-08-18, 20:21:47
Ich würde mich freuen wenn wenigstens ein Spiel, eine Arcade-Simulation ala MTX Mototrax wird . So ein Spiel würde besser als alles andere den Physikchip ausnutzen.
Gouvernator
2005-08-18, 20:23:30
Stellt euch das nur vor ! Kompletter Untergrund ist aus physikalisch berechneten Steinen über die ihr dann brettert.
Android
2005-08-18, 20:29:27
@ Gast: Mit Technik meine ich die Kombination aus einem seperaten Geometrieprozessor und einer CPU. Das gibts schon länger. Damals war die Geometrieeinheit ein halber Kühlschrank heute ist es so klein wie bei der AGEIA-Karte.
Warum Lizenzkosten ? Schau mal rüber zu SSE und wieviel AMD dafür hingeblättert hat. Ausser SSE3, das haben sie im Austausch zu AMD64 bekommen, besser bekannt bei Intel als EM64T. ;)
Cya
blackbox
2005-08-18, 20:49:46
Ich finde die fehlende Interaktivität moderner Shooter schon fast peinlich, alles sehr schön und plastisch gerendert und man kann mit nichts interagieren, ausser dass man aufgehalten wird. Schon fast der Charakter einer Grafikdemo.
Seit dem die Grafik immer mehr Fortschritte gemacht hat, fällt das nur noch mehr auf. Vielleicht wird man auch so langsam Grafikmüde. Man hat sich an die Superlativen gewöhnt und ist nicht mehr so geblendet.
Eine ordentlich Spielephysik die mehr kann, als eine olle Wippe zu kippen und ein paar Kartons umherzuwürfeln wäre schon viel wert.
Am meisten freut es mich, dass Spiele mit einer besseren Physik auch ganz anders konzipiert werden müssen. Das dürfte auch die Spielehersteller mit ihren hoch entwickelten 0815 Shooter Entwicklungskits wohl auch am meisten abschrecken.
Volle Zustimmung!
Die Spiele haben seit den Achtzigern eigentlich sich nur in einem Bereich weiterentwickelt: die Grafik.
Man erinnere sich noch an Doom und vergleiche dazu Doom 3. Was hat sich großartig verändert als die Grafik? Nämlich fast gar nichts.
Spielspass resultiert nur aus einem geringen Anteil von der Grafik. Vielmehr sind Ideen und Kreativität gefragt.
Aber im Grunde genommen gibt es eine ganz simple Lösung: Machen wir doch einfach ein Abbild der realen Physik. Der Spieler wird dann eine selbständige Lösung finden. Er muss nämlich kreativ werden, falls nötig.
Hört sich einfacher an, als es technisch umsetzbar ist.
Die Physikkarte ist ein erster Schritt dorthin.
Ich sehe es auch so, dass es nicht mehr ausreicht, Grafikengines zu benutzen. Vielmehr müssen komplett neue Engines programmiert werden.
Also ich weiß ja nicht, aber die KI von Doom 3 ist dann doch besser als die von Doom ;)
Avalox
2005-08-19, 00:44:55
Die Monster mit guter KI müssen so schlau gewesen sein, sich im Spiel nicht zu zeigen. Ich habe diese nicht gesehen. Ob die Geister in Pac Man ....
Dabei fällt mir ein, dass zu viel geskriptetes mir in aktuellen Spielen auch schon zum Hals raus hängt.
Android
2005-08-19, 14:56:30
Auch ich muss Avalox zustimmen. Ich weiss ja nicht wie alt die Leute hier im Forum so sind, aber ich kann mich noch sehr gut an die alten C64 und AMIGA Zeiten erinnern. Gerade beim C64 war die Grafik ............ naja halt en Brotkasten. Aber die Spielidee war meist genial und gut umgesetzt.
Der Amiga brachte das ganze dann auf ein höheres Level durch bessere Grafik und besseren Sound.
Was viele Leute vergessen: Der Einsatz von CD`s im PC hat anfangs die Spielebranche mit dazu ermutigt endlos viel Müll zu produzieren. Iss ja auch klar. Vor der CD musste man mit 1.44 MB Disketten auskommen; da ist nicht viel mit photorealistischer Grafik. Und wenn doch, dann auf 20 Disketten (und das gabs wirklich :biggrin: ). Das heisst die Entwickler mussten gute Spielideen haben um die teils beschränkte Grafik kompensieren zu können. Danach drehten die Entwickler dann völlig am Rad. Durch das Medium CD wurden anfangs Spiele entwickelt welche aus aneinandergereihten Fotos bestanden. Ja stimmt, das war wirklich ne bessere Grafik aber dafür eine völlig beschissenes Spiel. Dann kam 3Dfx (Gott habe sie selig :D). Sie brachten erstmals echte hardwarebeschleunigte 3D-Grafik auf den Markt. Und was kam danach ? Immer bessere Grafik.
Eigentlich sind wir momentan wieder genau da wo wir am Anfang der CD waren. Nur das das Gameplay noch auf einem akzeptablen Niveau bleibt.
Also ich finde die echte Physikberechnung in Spielen für eine Spitzenidee. Das was wir kennen ist doch en Witz. Momentan gibts hier und da ne Tonne, die man beschiessen kann und die dann in die Luft fliegt. Schiesst man stattdessen auf ne Holzkiste mit ner Pumpgun, passiert so viel, als hätte grade einer in nem offenem Feld einen fahren lassen; Nichts.
Alles vorgefertigter Müll.
Kleines Beispiel: Man ist auf nem Bahngelände und liegt schön unentdeckt als Sniper auf der Lauer. Plötzlich läuft ne Horde der gegnerischen Mannschaft über den Platz mit gaaaaaaanz vielen Kisten. Auf dem Weg durch das Kistenlabyrinth hängt ne RIEEEESENKISTE an nem Kran (das Zugseil sei in diesem Beispiel nicht sehr stabil :biggrin: ) Watt mach ich ? Klar: Ich schiesse
einfach auf die Tapen da unten. Aber was mache ich wenn das Spiel eine physikalische Berechnung von Objekten unterstützt ? Ich baller auf das Seil !!! ..................... KÖSTLICH ;D
Natürlich ist das auch heute schon möglich, auch ohne Chips a la AGEIA oder einer entsprechenden Engine. Denn viele Spieleengines besitzen ja auch eine verkrüppelte Geometrieberechnung. ABER: Erstens ist das ein Heidenaufwand und zweitens kann man nur wenig berechnen lassen, weil es zuviel Performance kostet. Aufwand, weil die Spieleentwickler aufgrund der mangelnden Performance die Geometriesektion ihrer Engine wirklich mies gestalten. Sie konzentrieren sich bei der Entwicklung der Engine lieber auf andere Sachen. Ist ja auch verständlich. Warum sollen die ne Engine auch mit ner Spitzen-Physiksektion ausstatten, wenn es eh keiner benutzen kann ? :confused:. Irgendwie logisch, oder ? Davon ganz abgesehen würde die Geometrieberechnung ohne angepasste Hardware auskommen müssen. Denn es gibt noch keinen Standard dafür. Oder wollt ihr die nächste Unreal Tournament Reihe mit einer zusätzlichen Karte kaufen ? Das gilt dann übrigens für alle Spiele die eine andere Engine benutzen ;D. EIN Standard muss her, auf den dann alle aufbauen. DirectX ist dafür nicht ausgelegt und OpenGL geht von einem seperaten System aus, weil es eher in professioneller Umgebung genutzt wird.
Antwort im Augenblick: PhysX. Und wenn nicht ATI, NVIDIA, AMD oder Intel versucht einen eigenen Standard in den Markt zu drücken dann bleibt das auch erstmal so. Und so wie es ausschaut werden sie es nicht tun. Denn momentan wird PhysX von allen ohne Murren akzeptiert. Wie lange ist das her, dass alle wohlwollend zustimmten, ausser bei Hypertransport (ausser Intel und ATI) ?
Cya
Thomas Gräf
2005-08-19, 20:59:16
Warum sind soviele skeptisch?
Ich stelle mir nur mal ein neues MechWarrior vor.
Wer hat jetzt diese FASA Rechte....Microsoft? ha,
na umso besser für die neue xBox.
Und wie währs mit einer akkuraten Physik im
MS Flightsimulator ? Die Fans dort lächeln
über eine 300euro Karte...alleine ihre Eingabegeräte
sind zigmal teurer.
Das ganze hat einen Markt.
Viele Programmierer sind bestimmt jetzt schon
begeistert.
Einzig die Publisher werden blocken.
Es sei denn ein Großer geht vorraus...wie so oft.
grs
th
was mir nur angst macht ist der kühler und der stromanschluss...
Eben. Ehrlich gesagt lach ich mich jetzt halbkaputt. Für bissl mehr Physik als bei HL2/Havok(*) soll ich mir so ein FETTES VIEH in den Rechner stecken? Hat das soviel mehr Rechenleistung als eine Xi-Fi oder wird das in 500nm Prozess hergestellt? :crazy2:
(*)Weil, die Demos sind ja schön, aber sieht wenigstens schon FEAR wie die alten ATI/NV-Demos aus? ;)
Das Hypen bitte also dem Hersteller selbst überlassen :wink:
Die Monster mit guter KI müssen so schlau gewesen sein, sich im Spiel nicht zu zeigen
Die wollen sich nicht verstecken. Für die bist Du Frühstück. Jedenfalls glauben sie das :) Das ist nicht der Punkt. Die Jungs in FarCry sollten es sein, aber wenn ich deren Zurufe höre, glaub ich ein Hühnerstahl anzugreifen.
Dabei fällt mir ein, dass zu viel geskriptetes mir in aktuellen Spielen auch schon zum Hals raus hängt.
Das kommt auf die Scripte an. Doom3 ist es, HL2 ist es. Bei Doom3 ist man das nach 3/4 bissl leid. Bei HL2 merkt man es ja auch, aber ICH find, es ist sehr gut gemacht.
Also ich finde die echte Physikberechnung in Spielen für eine Spitzenidee
Das findet wohl jeder.
Das was wir kennen ist doch en Witz. Momentan gibts hier und da ne Tonne, die man beschiessen kann und die dann in die Luft fliegt. Schiesst man stattdessen auf ne Holzkiste mit ner Pumpgun, passiert so viel, als hätte grade einer in nem offenem Feld einen fahren lassen; Nichts.
Alles vorgefertigter Müll.
Also ICH kenne Spiele mit Havok (bis jetzt am besten eingesetzt in HL2) und ich kenne Features von Havok2. Du kennst garkeine Spiele mit Havok? Klar ist so ein Chip jeglicher Softwarelösung überlegen, aber bitte nicht SO realisiert als wäre es eine 9800pro...
Die Idee ist super. Der Chip an sich gefährlich. Wenn die Firma von ATI/NV oder AMD/Intel übernommen wird, damit man das mit 90nm oder 65nm Prozess im Die unterbringen kann, dann ist jeweils der andere quasi erledigt. Und der Markt für Grakas bzw. CPUs im Eimer.
Thomas Gräf
2005-08-21, 02:25:50
Hmm, weiß nich so recht.
Ich glaube die führenden GPU und CPU Hersteller haben
andere Probleme als sich mit der Implementierung dieser
PPU zu befassen.
Wieviel Platz haben die denn auf ihren Chips für solche
Spässe?
Hmm, weiß nich so recht.
Ich glaube die führenden GPU und CPU Hersteller haben
andere Probleme als sich mit der Implementierung dieser
PPU zu befassen.
Wieviel Platz haben die denn auf ihren Chips für solche
Spässe?
Wieviel Transistoren benötigt denn die "reine Recheneinheit" des Chips? So ohne Interfaces und Caches und und und? Überleg mal was das für ein Knaller wäre, wenn das ein Teil der FPU von K9 wäre? :D Und so "direkt" angebunden kann man das Dingen mit wesentlich weniger MHz für gleiche Leistung nebenher dümpel lassen. Das gleiche gilt dann für PCIe Grakas. Die obenerwähnten Geier warten doch nur was der Markt dazu sagt.
Welche Probs haben die CPU-Hersteller? Gut, Intel hat den Netburst-Müll jetzt endgültig aufgegeben. Der Markt akzeptiert zum Glück nicht wirklich CPUs mit mehr als 100W Verlustleistung. Andere "Probleme" seh ich nicht. Multicores, Virtualisierung, SSE3, Xi-Fi, G70/R500 usw. usw. Wir ersaufen in Leistung :biggrin:
Hmmm, wenn die neuen Konsolen draussen sind können wir uns auf eine Menge liebloser, schlecht programmierter Konvertierungen freuen. Zum Glück wird dort AGEIA´s Novodex eingesetzt, damit wir die schlampigen, schnell und billig zusammengeschusterten PC Fassungen mit PhysX Chip halbwegs zum laufen kriegen :D
Aber jetzt mal ohne Ironie -das wäre für mich bei entsprechender Leistung echt ein Kaufargument!
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.