Archiv verlassen und diese Seite im Standarddesign anzeigen : NVIDIA to Acquire AGEIA Technologies
BlackBirdSR
2008-02-04, 23:48:37
http://www.nvidia.com/object/io_1202161567170.html
Anscheinend hatte Fuad doch nicht so ganz unrecht. Nur wie geht es nun weiter? Wird es Ageia ähnlich wie Havok ergehen? Oder ist das endlich der lang gesuchte Katalysator für HW-beschleunigte Physik?
Und was macht AMD als einziger der drei großen GPU-Hersteller ohne eigene Physik-Engine...
deekey777
2008-02-04, 23:56:13
http://www.xbitlabs.com/news/multimedia/display/20071119065621_GPU_Physics_Dead_for_Now_Says_AMD_s_Developer_Relations_Chief.htm l
Havok FX wurde gecancelt. Die Übernahme durch Intel war ein Todesstoss für Physikeffekte auf GPUs. Mit der Übernahme von Ageia könnte GPU-Physik wieder auferleben.
Vielleicht wird auch AMD/ATi wach, denn mit deren Physik-Ansatz waren sie weiter als NV. Aber dann hätten wir mindestens zwei "GPU-Physiken", sprich weiterhin keine gemeinsame Schnittstelle.
Kann man eigentlich die für die PhysX gedachten Spielereien auf die GPU verlagern?
€: Wie lange wird es dauern, bis jemand mit so etwas kommt wie "GT200+PhysX onboard"?
http://www.xbitlabs.com/news/multimedia/display/20071119065621_GPU_Physics_Dead_for_Now_Says_AMD_s_Developer_Relations_Chief.htm l
Havok FX wurde gecancelt. Die Übernahme durch Intel war ein Todesstoss für Physikeffekte auf GPUs. Mit der Übernahme von Ageia könnte GPU-Physik wieder auferleben.
Vielleicht wird auch AMD/ATi wach, denn mit deren Physik-Ansatz waren sie weiter als NV. Aber dann hätten wir mindestens zwei "GPU-Physiken", sprich weiterhin keine gemeinsame Schnittstelle.
Kann man eigentlich die für die PhysX gedachten Spielereien auf die GPU verlagern?
€: Wie lange wird es dauern, bis jemand mit so etwas kommt wie "GT200+PhysX onboard"?
AMD / ATI war überhaupt nicht weiter als nvidia mit Ihrer Physics, das war alles NUR Marketing bla bla.
deekey777
2008-02-05, 00:13:19
AMD / ATI war überhaupt nicht weiter als nvidia mit Ihrer Physics, das war alles NUR Marketing bla bla.
Sie haben schon September 2005 lauffähige Demos auf 2 X1800 gezeigt, wo eine X1800 die Wellensimulation berechnet hat. Im Sommer 2006 konnte ATi mit Havok einmal deutlich weiterentwickelte HavokFX-Demos zeigen als NV/Havok Ende März und dann auch eigene weiterentwickelte Demos. Von NV gab es zu diesem Zeitpunkt gar nichts.
laser114
2008-02-05, 00:14:00
Fragt sich ob das noch nutzbar ist bzw. ob AMD da noch Geld reingesteckt hat.
deekey777
2008-02-05, 00:16:03
Fragt sich ob das noch nutzbar ist bzw. ob AMD da noch Geld reingesteckt hat.
Aus DPP wurde CTM und aus CTM wurde CAL.
------------
Ein Blick in diesen Thread lohnt sich: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=252495
Blutmaul
2008-02-05, 02:00:29
Glückwunsch an Ageia, das sie endlich gekauft wurden.
Nvidia hat die Mittel, Physik in den Markt zu drücken - man wird sehn, ob es mehr als ein Software-Gimmick wird.
KinGGoliAth
2008-02-05, 02:49:02
also ich würde mich darüber freuen, wenn das ganze nun mal etwas in bewegung kommt. mehr physik in games ist mir sehr willkommen aber 100 euro für eine zusatzkarte auf den tisch packen wenn nur eine handvoll spiele davon profitieren ist in meinen augen totaler schwachsinn.
wenn die physik "demnächst" natürlich nicht ganz aber fast gratis auf den grafikkarten mitkommt würden die dinge schon ganz anders stehen. und dann würden die entwickler da auch eher mal einen blick drauf werfen als zum jetzigen zeitpunkt. käufer moderner grafikkarten gibt es wie sand am meer und wenn die mit ihrer grafikkarte auch gleich die physikeinheit bekommen wäre das imho schon ein bedeutender durchbruch und ein unheimlicher antrieb für die ganze idee.
eine nicht ganz billige extrakarte für ein paar games war eigentlich von anfang an zum (zumindest wirtschaftlichen) scheitern verurteilt.
Exxtreme
2008-02-05, 09:21:29
Intel schmeckt das bestimmt nicht. Die wollen garantiert Physik in die CPU einbringen genauso wie Raytracing.
HotSalsa
2008-02-05, 09:34:07
also ich würde mich darüber freuen, wenn das ganze nun mal etwas in bewegung kommt. mehr physik in games ist mir sehr willkommen aber 100 euro für eine zusatzkarte auf den tisch packen wenn nur eine handvoll spiele davon profitieren ist in meinen augen totaler schwachsinn.
wenn die physik "demnächst" natürlich nicht ganz aber fast gratis auf den grafikkarten mitkommt würden die dinge schon ganz anders stehen. und dann würden die entwickler da auch eher mal einen blick drauf werfen als zum jetzigen zeitpunkt. käufer moderner grafikkarten gibt es wie sand am meer und wenn die mit ihrer grafikkarte auch gleich die physikeinheit bekommen wäre das imho schon ein bedeutender durchbruch und ein unheimlicher antrieb für die ganze idee.
eine nicht ganz billige extrakarte für ein paar games war eigentlich von anfang an zum (zumindest wirtschaftlichen) scheitern verurteilt.
Dein Wort in Gottes Ohr :tongue:
Ne Ageia Karte kostet jetzt um die 100 Euro. Ich finde das in Ordnung, wenn es den entsprechenden Software support in Form von games geben würde.
Ich denke nvidia will da eher in ne andere Richtung.
Die wollen uns bestimmt allen ihre tollen nfurz Mainboards mit SLI verkaufen. Ich glaube nicht, dass eine Karte Grafik UND Physik machen wird.
Viel eher wollen sie SLI pushen und wir alle sollen gefälligst mind. 2 Grafikkarten kaufen, besser noch triple SLI :P
Ich habe selber ne nvidia im Rechner aber als Board lieber nen solides P965 mit Intelchip. Ich sehe auch nicht ein, mehr als 1 Karte in den Rechner zu stecken - es sei denn - SLI + Physik wird fast Treiberunabhängig, will heissen es läuft fast alles in HW, man braucht nicht mehr zig Profile, Mikroruckler, rumfrickeln, auf neuen Treiber warten etc...
Sowas in der Leistungsklasse einer 8800GT oder 9600GT mit angeflanschtem Physikchip auf EINER Karte, das wäre nett. Ich befürchte aber so wird es das nicht geben. Ist doch noch ein toller Grund mehr, die Leute zu den nFurz Chipsätzen zu zwin.... äähhh zu ermutigen :rolleyes:
MuLuNGuS
2008-02-05, 09:40:52
war an den gerüchten ja doch was dran.
immerhin, wenn der physx support mit in den nvidia treiber übergeht fällt die installation eines sepraten treibers für eine physxkarte weg.
vielleicht hat nVidia auch was ganz anderes vor, wer weiß das schon.
Hydrogen_Snake
2008-02-05, 09:54:35
jo, mein verdacht hat sich bestätigt, imho ein vorhersehbarer schritt.
Sonyfreak
2008-02-05, 10:35:09
Ist eigentlich bekannt, wieviel AGEIA wert ist?
mfg.
Sonyfreak
Sowas in der Leistungsklasse einer 8800GT oder 9600GT mit angeflanschtem Physikchip auf EINER Karte, das wäre nett.
Was wollt ihr eigentlich alle die GPU erweitern? Extra Recheneinheiten für Physik? Totaler Schwachsinn....
Rogue
2008-02-05, 11:00:39
Letztlich gehts doch hier nurnoch um Nutzungsrechte.
PhysX war als Produkt doch ein reiner flop.
Ich erinnere mich an einige Benchmarks in denen die "Physikbeschleunigung" ohne Ageia-Karte schneller lief als mit.
In den Fällen wo es wirklich was brachte hatte man schon den Eindruck das für die Variante ohne PhysX Karte eine künstliche Bremse/Verschlechterung softwareseitig eingebaut war. Irgendwie musste man diese Anschaffung ja rechtfertigen.
Ich bezweifle auch stark das es sich um einen wirklich neu designten Chip für Phsyikberechnung handelte. Das eigentliche Produkt war doch die Software die dahinterstand. Der Chip ansich ist meiner Meinung nach Blendwerk damit man was zu vermarkten hatte. Schätze irgendein alter umgelabelter X86er, unterm Strich aber sicher recht lahm. Sowas kann heute jede Multicore CPU bequem nebenher rechnen.
Nvidia hat sich hier also durch den Kauf nur die Nutzungsrechte des Physik-Codes gesichert. Worauf man diesen laufen lässt ist letztlich doch total egal. Natürlich werden die auch wieder versuchen damit die Werbetrommel zu rühren. Bin mal gespannt was sie sich diesbezüglich für einen Unsinn ausdenken.
Erinnert mich ein wenig an den Kauf von 3dfx. Da gings doch auch nur um Lizenzen. Die Hardware war zu dem Zeitpunkt für Nvidia schon uninteressant, man wollte sich hier nur vor Klagen schützen und das ehemals mitgenutzte KnowHow legal und sicher nutzen dürfen.
Spearhead
2008-02-05, 11:18:58
@Rogue: ich bezweifle das der Vergleich unter gleichen Bedingungen war, bei den Benchmarks an die ich mich erinnere war die Lage so:
- wenige Objekte / Objektteile beim Bench ohne extra Karte
- deutlich mehr Teile beim Bench mit Karte
Bei den wenigen Spielen zu denen ich in der Vergangenheit Vergleichsvideos gesehen habe war es eigentlich immer der Fall das mit der PhysX Karte Effekte aktiv waren die ohne nicht da waren.
Dadurch das im Endeffekt mehr an Objekten da ist, besteht natürlich auch mehr Rechenaufwand, was für die Verlangsamung sorgt, die Graka/CPU rechnen ja durch die extra Karte nicht schneller.
MuLuNGuS
2008-02-05, 11:21:16
yep,
den chip halte ich auch für tod, ist ja auch banane, die physx-API kann ja auch an die GPU angepßt werden und schon rennt der fux.
Ist eigentlich bekannt, wieviel AGEIA wert ist?
mfg.
Sonyfreak
Auf jeden Fall nicht wenig. AMD CEO Hector Ruiz sagte auf die Frage ob man interesse an Ageia hätte das der Preis aus seiner Sicht vollkommen überzogen sein und das deshalb für AMD nicht in Frage komme.
PhysX ist keine API sondern eine Physik-Engine. Deshalb hat es sich auch nicht durchgesetzt. Wäre es eine API, dann könnte man beliebige Physik-Engines damit bauen.
Intel schmeckt das bestimmt nicht. Die wollen garantiert Physik in die CPU einbringen genauso wie Raytracing.
Ich denke, das sie damit erfolg haben werden.
Ich will doch keine NVIDIA kaufen, nur damit ich Physikbeschleunigung nutzen kann. Sowas ist scheiße!
Da müssten sich ATI und NVIDIA schon auf einen "gemeinsamen Nenner" einigen und daran glaube ich nicht wirklich!
Da hat Intel natürlich freie Bahn, denn CPUs werden endlos viele verkauft, aber Standalone Grafikkarten weit aus weniger.
Auf jeden Fall nicht wenig. AMD CEO Hector Ruiz sagte auf die Frage ob man interesse an Ageia hätte das der Preis aus seiner Sicht vollkommen überzogen sein und das deshalb für AMD nicht in Frage komme.
Der AMD CEO labert auch viel Scheisse, wenn der Tag lang ist.
Ageia war sicher sehr günstig, die sind ja nicht einmal börsennotiert und ausserdem sehr klein.
deekey777
2008-02-05, 11:47:33
...
Sowas in der Leistungsklasse einer 8800GT oder 9600GT mit angeflanschtem Physikchip auf EINER Karte, das wäre nett. Ich befürchte aber so wird es das nicht geben. Ist doch noch ein toller Grund mehr, die Leute zu den nFurz Chipsätzen zu zwin.... äähhh zu ermutigen :rolleyes:
...
€: Wie lange wird es dauern, bis jemand mit so etwas kommt wie "GT200+PhysX onboard"?
Hier die heise-Meldung, damit so etwas endlich der Vergangenheit angehört:
http://www.heise.de/newsticker/meldung/102985
Nvidia kündigt an, zukünftig die eigenen GeForce-Grafikchips für die Physikbeschleunigung mit PhysX zu nutzen und verweist in diesem Zusammenhang auch auf CUDA (Compute Unified Device Architecture), mit der sich GPUs als Coprozessor zweckentfremden lassen.
Für einen Grafikchip spielt es keine Rolle, was er berechnet: Pixelfarbe, Proteine oder E=mc². Für ihn sind das bloß Zahlen und Formeln (Stichwort GPGPU). Mit CUDA soll es schon heute möglich sein, Grafik und was anderes auf einer Grafikkarte nebeneinander zu berechnen. Man braucht keine dedizierte "Physik-Einheiten".
Der Gedanke, dass Nvidia die Novodexengine benützten könnte um mehr Grafikkarten für Physik abzusetzen hat was, nur bezweifle ich, dass sie das ohne AMD schaffen. Immerhin wird Intels Lösung auch auf den Prozessoren von AMD laufen bzw auf jedem x86 Prozessor.
HotSalsa
2008-02-05, 12:23:45
Hier die heise-Meldung, damit so etwas endlich der Vergangenheit angehört:
http://www.heise.de/newsticker/meldung/102985
Für einen Grafikchip spielt es keine Rolle, was er berechnet: Pixelfarbe, Proteine oder E=mc². Für ihn sind das bloß Zahlen und Formeln (Stichwort GPGPU). Mit CUDA soll es schon heute möglich sein, Grafik und was anderes auf einer Grafikkarte nebeneinander zu berechnen. Man braucht keine dedizierte "Physik-Einheiten".
Ja das ist mir schon klar. Nur denke ich dass eine nvidia Karte zuwenig für Grafik UND Physik sein wird.
ist natürlich alles Spekulatius aber ich habe das Gefühl NV möchte uns mit sanftem Druck hin zu SLI bewegen und da habe ich keine Bock drauf!
2 Grafikchips auf einer Karte ist schonmal ein guter Ansatz. Allerdings hätte ich dies gerne völlig transparent und in Hardware geregelt und nicht mit zig Treibern, Profilen etc.
Für einen Grafikchip spielt es keine Rolle, was er berechnet: Pixelfarbe, Proteine oder E=mc². Für ihn sind das bloß Zahlen und Formeln (Stichwort GPGPU). Mit CUDA soll es schon heute möglich sein, Grafik und was anderes auf einer Grafikkarte nebeneinander zu berechnen. Man braucht keine dedizierte "Physik-Einheiten".
Diese Behauptung find ich schon ein wenig witzig. Grafikkarten können viel berechnen, aber was nützt mir das, wenn sie noch nicht mal schnell genug sind um nur die Grafik zu berechnen? ;D
Stell dir mal vor, du würdest deinen aktuellen 3D-Beschleuniger nun auch noch die Physik nebenbei berechnen lassen. Ruckelorgie ahoi. :)
Und das wird sich wohl so schnell nicht ändern! Die GPU leistung steigt, aber auch der Bedarf... damit es klappt, müsste die GPU Leistung aber schneller steigen als der Bedarf!
Heelix01
2008-02-05, 12:29:12
Es wird schon einen Sinn haben ... sonst hätte nvidia ja AGEIA nicht gekauft, und teure zusatzkarten wird nvidia bestimmt nicht Herstellen *g .
deekey777
2008-02-05, 12:32:28
Diese Behauptung find ich schon ein wenig witzig. Grafikkarten können viel berechnen, aber was nützt mir das, wenn sie noch nicht mal schnell genug sind um nur die Grafik zu berechnen? ;D
Stell dir mal vor, du würdest deinen aktuellen 3D-Beschleuniger nun auch noch die Physik nebenbei berechnen lassen. Ruckelorgie ahoi. :)
Und das wird sich wohl so schnell nicht ändern! Die GPU leistung steigt, aber auch der Bedarf... damit es klappt, müsste die GPU Leistung aber schneller steigen als der Bedarf!
Die ganz großen Grafikchips haben Einheiten, die nicht voll ausgelastet werden, siehe hier: http://www.digit-life.com/articles2/video/g80_units2-page1.html (je nach Fall). Da wäre noch Platz für einen Physik-Thread.
Aber ich muss dir insoweit Recht geben, dass es nicht passieren wird, dass eine Grafikkarte Grafik und Physik berechnen wird. Davon hat ATi schon 2006 Abstand genommen, obwohl das Monate vorher angekündigt haben.
Irgendwie müssen sie ihre SLI- bzw. CF-Systeme verkaufen. Interessant wären Lösungen, wo IGPs die Effekte-Physik berechnen, eine Grafikkarte dagegen sich weiterhin um das Bild kümmert.
Es wird schon einen Sinn haben ... sonst hätte nvidia ja AGEIA nicht gekauft, und teure zusatzkarten wird nvidia bestimmt nicht Herstellen *g .
http://www.beyond3d.com/content/news/580
Word from inside NVIDIA is that discrete PhysX hardware will continue to be developed after the acquisition, and that we should see at least one more specific PhysX accelerator chip released. More news on that as we get it.
Wir werden wahrscheinlich noch die Nextgen-PhysX sehen, aber dann ist wohl Schluss.
BlackBirdSR
2008-02-05, 12:38:58
DInteressant wären Lösungen, wo IGPs die Effekte-Physik berechnen, eine Grafikkarte dagegen sich weiterhin um das Bild kümmert.
Wenn wir davon ausgehen, dass IGPs mittelfristig sehr hohe Rechenleistungen erreichen könnten, ist dies gar keine so blöde Idee.
Nakai
2008-02-05, 12:44:13
Soll ich lachen oder weinen?
Fudzilla hatte mal wieder Recht und somit bewiesen, dass er gute Quellen hat.
Er mag zwar in manchen Sachen ein Diletant sein, aber das muss man ihn lassen.
Ich sehe der Entwicklung negativ gegenüber. Physik für nur einen Grafikchiphersteller kann nicht gut gehen. Womöglich könnte man Physik über Hybrid SLI gewährleisten.
Die Frage die mich noch interessieren würde, ist, wieviel NV für Ageia gezahlt hat.
mfg Nakai
Exxtreme
2008-02-05, 12:50:13
Interessant wären Lösungen, wo IGPs die Effekte-Physik berechnen, eine Grafikkarte dagegen sich weiterhin um das Bild kümmert.
Und ich glaube, ein Microruckler-Problem gäbe es da auch nicht. :D Wie dem auch sei, mal sehen wie Intel und AMD kontern werden. AMD könnte theoretisch sogar beide Konzepte benutzen da sie sowohl CPUs wie auch Grafikchips herstellen.
Was sollte Nvidia daran hindern, eine PPU-Einheit in die GPU zu integrieren? Oder anders formuliert, man bohrt eine GPU so auf, so daß sie Grafik und Physik optimaler berechnen kann.
deekey777
2008-02-05, 12:53:34
Wenn wir davon ausgehen, dass IGPs mittelfristig sehr hohe Rechenleistungen erreichen könnten, ist dies gar keine so blöde Idee.
Vom 22. März 2006:
sinnvoll wäre es, die IGP die Arbeit übernehmen zu lassen. Die 6100IGP erzeugt vergleichsweise wenig Abwärme, verbraucht keinen zusätzlichen Platz, läuft komplett passiv, ist günstig (ein ASROCK 6100IGP Board kostet ~50EUR) und sollte zum Streaming genug Rechenleistung besitzen (4xMAD4 +1Vec4+1skalar VS @425MHz).
Angebunden ist das ganze per HT und sollte somit von der Bandbreite und den Latenzen auch stimmen. Endlich mal eine gute Verwendung für eine IGP!
TG Daily vom 27. Mai 2006: http://www.tgdaily.com/content/view/26667/128/
When I recently spoke to ATI, they told me that they're also looking at unlocking their onboard graphic chips, which currently sit idle on the motherboard when graphics cards are present, to do the physics work. Everything is gravy, apparently.
ATi hat ja eine lustige Präsentation (http://www.theinquirer.net/en/inquirer/news/2006/06/06/ati-shows-off-gpu-physics) vorgeführt, wo eine PhysX-Karte von einer X1600 geschlagen wird:
In press briefings, you generally expect a best case to be shown by the presenter, not untruths, but selective numbers. In this case, ATI showed off numbers where the a lowly RV530 absolutely spanked a G70 and G71 for physics. When you look at the performance relative to a R520 or R580, it gets even more abusive. The numbers ranged from a worst case where RV530 was 'only' 4x faster than G70 to a best where R580 spanked the G70 by 15x. They also went on to show the X1600XT as 2x faster than Ageia, and the X1900XTX being 9x faster. Whatever the numbers, they can put up a demo with a lot of rocks rolling down a hill
Und wenn ich Demirug richtig verstanden habe, sind diese Angaben nicht ganz abwegig.
Es gibt bestimmte standard Probleme in der Physik und ATI hat einfach die eigenen Marketing Zahlen dafür mit den von Ageia verglichen.
Die Leistung wäre mit aktuellen IGPs vorhanden, aber wer will schon eine IGP als Physikbeschleuniger verkaufen, wenn eine zweite Grafikkarte mehr Geld einbringt?;(
Und ich glaube, ein Microruckler-Problem gäbe es da auch nicht. :D Wie dem auch sei, mal sehen wie Intel und AMD kontern werden. AMD könnte theoretisch sogar beide Konzepte benutzen da sie sowohl CPUs wie auch Grafikchips herstellen.
Du hast Jehova gesagt...
Exxtreme
2008-02-05, 13:01:33
Ich denke, das sie damit erfolg haben werden.
Ich will doch keine NVIDIA kaufen, nur damit ich Physikbeschleunigung nutzen kann. Sowas ist scheiße!
Da müssten sich ATI und NVIDIA schon auf einen "gemeinsamen Nenner" einigen und daran glaube ich nicht wirklich!
Da hat Intel natürlich freie Bahn, denn CPUs werden endlos viele verkauft, aber Standalone Grafikkarten weit aus weniger.
Eigentlich ist es völlig egal wie es realisiert wird solange es ein einheitliches API + Treiber dafür gibt. Da sollte vielleicht Microsoft mal wieder was machen und DirectPhysics oder so rausbringen. :D Denn ansonsten wird's eher auf eine API-Schlacht hinauslaufen so wie es vor Direct3D bei dne Grafikkarten war. Da hatte jeder Vendor sein eigenes API.
Eigentlich ist es völlig egal wie es realisiert wird solange es ein einheitliches API + Treiber dafür gibt.
Daran wird es scheitern. Warum sollte jemand ne einheitliche oder gar offene API erschaffen? Das macht man doch nur, wenn es auch im eigenem Interesse liegt und z.B. Lizenzen (geld) einbringt.
Da sollte vielleicht Microsoft mal wieder was machen und DirectPhysics oder so rausbringen. :D
Bloß nicht! Das wäre der größte Bockmist, denn dann kannst du gleich abschreiben, Physikeffekte auf etwas anderes als aktuelle Windows Systeme nutzen zu können. Und was ist mit Linux oder Mac? oder dem Betriebssystem, was abgelöst wurde? Pech gehabt oder was?
Das bringt doch nix. Ich verwende ne Grafikkarte doch nicht nur für Windows!!
Auch stellt sich die Frage, wie hoch der Absatz "richtiger" Grafikkarten überhaupt ist. Viele Komplett-PCs kommen ja nur mit LowCost (Physik nicht wirklich möglich) oder IGPs anderer Hersteller daher.
Hat Intel nicht einen Marktanteil von über 50 % bei den IGPs?
Da sehe ich nämlich den Vorteil:
CPU = notwendig für den PC.
Standalone grafikkarte = nicht notwendig!
Wenn Intel nun die Grafiklösung integriert und auch noch Physikbeschleunigung dazu liefern kann, so deckt man, keine ahnung, 60-80% vom Weltmarkt ab? Und wieviel NVIDIA?
Nakai
2008-02-05, 13:19:58
Da sollte vielleicht Microsoft mal wieder was machen und DirectPhysics oder so rausbringen.
Nicht unwahrscheinlich, da man dadurch die Konkurrenz richtig eine reinwürgen würde. Linux und Mac kannste dann vergessen...;)
Hat ja Prima mit dem IE geklappt.
mfg Nakai
Exxtreme
2008-02-05, 13:28:51
Daran wird es scheitern. Warum sollte jemand ne einheitliche oder gar offene API erschaffen? Das macht man doch nur, wenn es auch im eigenem Interesse liegt und z.B. Lizenzen (geld) einbringt.
MS hätte wohl durchaus Interesse daran. Denn das kurbelt den Verkauf von Windows an.
Bloß nicht! Das wäre der größte Bockmist, denn dann kannst du gleich abschreiben, Physikeffekte auf etwas anderes als aktuelle Windows Systeme nutzen zu können. Und was ist mit Linux oder Mac? oder dem Betriebssystem, was abgelöst wurde? Pech gehabt oder was?
Das bringt doch nix. Ich verwende ne Grafikkarte doch nicht nur für Windows!!
Die Opensourcler dürfen sich auch gerne daran versuchen. So ist's ja nicht. Bei Microsoft ist halt der Vorteil, daß die recht schnell was Brauchbares liefern können solange sie nichts überstürzen.
Hat Intel nicht einen Marktanteil von über 50 % bei den IGPs?
Da sehe ich nämlich den Vorteil:
CPU = notwendig für den PC.
Standalone grafikkarte = nicht notwendig!
Wenn Intel nun die Grafiklösung integriert und auch noch Physikbeschleunigung dazu liefern kann, so deckt man, keine ahnung, 60-80% vom Weltmarkt ab? Und wieviel NVIDIA?
Intel hat IIRC weniger als 40% Marktanteil. Und das auch nur wegen der intergrierten Grafikchips.
Vielleicht ist ja auch etwas im Busch und im Hintergrund handelt Microsoft mit den Hardwarebastlern über die Integration einer Physik-API in DirectX? Und nVidia will sich durch den Kauf Know-How sichern.
Wenn sie allein irgendwas Richtung Hardwarebeschleunigter Physik machen wolln, wirds nVidia m.M. nach da genauso ergehen wie Ageia.
Das Ageia so billig war kann ich mir auch nicht vorstellen, deren Physikengine wird ja inzwischen doch recht häufig eingesetzt (OK, vielleicht haben sie die auch einfach dumpingmäßig überall verscherbelt, um den PhysX zu pushen).
Intel hat IIRC weniger als 40% Marktanteil. Und das auch nur wegen der intergrierten Grafikchips.
Du redest aber nur von den Grafiklösungen... Intel liefert aber nicht nur Grafik, sondern auch CPUs aus und hat da einen großen Marktanteil!
Es ist doch so:
Grafiklösungen werden oft genutzt (Arbeitsrechner) und CPUs werden noch öfters genutzt (Home + Arbeit). Wie hoch sind die Stückzahlen der ausgelieferten CPUs+IGPs pro Jahr im Vergleich zu NVIDIA? Ich vermute um Welten geringer, da NVIDIA keine Desktopprozessoren verkauft. ;)
Intel kann also nun mehrfaches tun: Die Grafik gleich integrieren und damit Physikbeschleunigung fördern! Die CPU für Physikbeschleunigung auslegen und jedem Käufer ne Plattform schaffen! Ist doch schon ein kleiner Unterschied zu NVIDIA. ;)
nomadhunter
2008-02-05, 13:58:29
Was ist denn so schlimm daran, Physik auf der gleichen Karte wie die Grafik laufen zu lassen? Das kostet halt dann ein paar fps, genauso wie jeder andere Effekt, aber so aufwendig werden die Physikberechnungen schon nicht werden. Immerhin macht das heute die CPU nebenbei, und eine GPU hat um Größenordnungen mehr Rechenleistung.
Da hol ich mir lieber eine 5% schnellere Grafikkarte, als mit irgendwelchen hybrid-SLI-Kram anzufangen.
Exxtreme
2008-02-05, 14:16:05
Du redest aber nur von den Grafiklösungen... Intel liefert aber nicht nur Grafik, sondern auch CPUs aus und hat da einen großen Marktanteil!
Es ist doch so:
Grafiklösungen werden oft genutzt (Arbeitsrechner) und CPUs werden noch öfters genutzt (Home + Arbeit). Wie hoch sind die Stückzahlen der ausgelieferten CPUs+IGPs pro Jahr im Vergleich zu NVIDIA? Ich vermute um Welten geringer, da NVIDIA keine Desktopprozessoren verkauft. ;)
Intel kann also nun mehrfaches tun: Die Grafik gleich integrieren und damit Physikbeschleunigung fördern! Die CPU für Physikbeschleunigung auslegen und jedem Käufer ne Plattform schaffen! Ist doch schon ein kleiner Unterschied zu NVIDIA. ;)
Mhhh, achso. Naja, die Frage ist jetzt ob Intel mit der CPU tatsächlich an eine dedizierte Physiklösung von der Leistung her überhaupt rankommt. CPUs sind Alleskönner und deshalb auch bei speziellen Aufgaben langsamer als spezialisierte Baugruppen.
Und da könnte Nvidia halt schneller sein. Zudem wird schon sehr viel auf die CPU ausgelagert. Sound wird auf den meisten Systemen auch auf der CPU berechnet spätestens seit Windows Vista. Jetzt will man auch noch Physik draufpacken. Sind die Spiele auch noch multithreaded programmiert dann gehen selbst die 4 Kerne irgendwannmal aus.
Von daher wäre ein gescheites API am Liebsten. Denn dann könnte man als Endverbraucher entscheiden ob man lieber alles in Software will oder lieber auf Hardware setzt.
robbitop
2008-02-05, 14:22:43
Kann man eigentlich die für die PhysX gedachten Spielereien auf die GPU verlagern?
Das Problem sind die Laufzeiten. Eine GPU hat traditionell eine sehr tiefe Pipeline, damit sie effizient arbeiten kann. Bis eine Berechnung die GPU durchlaufen hat, vergehen viele Takte. Das ist für 3D-Grafik unkritisch, da sie ja das Ende der Kette darstellt. Für Physik hingegen ist es sehr ungünstig. Denn der berechnete Kram muss zurück zur CPU und die berechnet dann am Ende die Drawcalls und die Polygone.
Sowas kann man derzeit nur für Effektphysik machen, die muss ja nicht zurück zur CPU.
Die PPU von Ageia hingegen ist auf kurze Laufzeiten ausgelegt.
Allerdings kostet zusätzliche Physik dennoch massenhaft CPU-Leistung, da das ganze ja noch koordiniert werden muss.
Wie ist das eigentlich mit den Drawcalls in D310/11 geworden? In D3D9 war das ja ein gewichtiger Flaschenhals für PhysX. Wurden 5000 DCs überschritten gab es enorme Performanceeinbrüche.
Schätze irgendein alter umgelabelter X86er, unterm Strich aber sicher recht lahm. Sowas kann heute jede Multicore CPU bequem nebenher rechnen.
Mitnichten. Darin steckt ein kleiner MIPS zur Koordination und zusätzlich ein relativ spezialisierter Streamprozessor, mit kurzer Laufzeit. MIMD Rechenwerke. Ich weiß gar nicht mehr wieviele MIMD Units das waren, aber jedenfalls nix ganz billiges.
Der Flaschenhals lag eben bei anderen Dingen. Drawcallanzahl, Latenzen, Verbreitung, Kontent. In den letzten Ageia Machwerken brachte das Ganze dann schon was. Da Physik, im Gegensatz zur 3D-Grafik, nicht das Ende der Kette ist, ist das ein nicht so einfaches Feld.
Mhhh, achso. Naja, die Frage ist jetzt ob Intel mit der CPU tatsächlich an eine dedizierte Physiklösung von der Leistung her überhaupt rankommt. CPUs sind Alleskönner und deshalb auch bei speziellen Aufgaben langsamer als spezialisierte Baugruppen.
Soweit ich weiß, plant Intel beides! Erstmal die Grafiklösung zu integrieren und dann auch noch eigene High-End Chips auszuliefern. Das wäre doch perfekt. Die Arbeitsrechner hätten dann Intel-CPUs mit Intel-IGP und die Homeuser hätten Intel-CPUs und vielleicht ne Intel-GPU. ;D
Das nenn ich Marktmacht! Bei Stückzahlen von was weiß ich, 200 Millionen im Jahr, bräuchten die nicht mal nen Standard schaffen, sie würden ihn einfach so durchdrücken und jeder müsste ihn dann übernehmen. Hat ja schon oft geklappt. ;D
Bei NVIDIA seh ich die Chancen eher gering. Wenn die Leute Intel oder ATI kaufen, macht NVIDIA dort keinen Boden gut und es wäre wieder so ne Insellösung, die ab und zu mal von ein paar Programmen unterstützt wird, aber von der Mehrheit nicht (PhysX lässt grüßen).
Da besteht ja noch das Problem der Komplettrechner. Wenn diese immer mit diesen tollen GeForce8300 Turbocache oder sowas daher kommen, kannste die Physikbeschleunigung auch gleich vergessen.
Aquaschaf
2008-02-05, 14:54:18
Wenn PhysX nun weiterentwickelt wird dass es von GPUs Gebrauch macht denke ich nicht das NVidia dabei andere Grafikkartenhersteller ausschließen würde. Denn das würde PhysX recht uninteressant machen. Auf jeden Fall aber ist es so besser als wenn Intel sich AGEIA geschnappt hätte um dann vollends im Keim zu ersticken das Physikengines GPUs zur Beschleunigung benutzen können.
EDIT: unter der Prämisse dass sich ein Weg findet um GPUs tatsächlich sinnvoll zu nutzen für Physik...
deekey777
2008-02-05, 15:00:15
Das Problem sind die Laufzeiten. Eine GPU hat traditionell eine sehr tiefe Pipeline, damit sie effizient arbeiten kann. Bis eine Berechnung die GPU durchlaufen hat, vergehen viele Takte. Das ist für 3D-Grafik unkritisch, da sie ja das Ende der Kette darstellt. Für Physik hingegen ist es sehr ungünstig. Denn der berechnete Kram muss zurück zur CPU und die berechnet dann am Ende die Drawcalls und die Polygone.
Sowas kann man derzeit nur für Effektphysik machen, die muss ja nicht zurück zur CPU.
Die PPU von Ageia hingegen ist auf kurze Laufzeiten ausgelegt.
Allerdings kostet zusätzliche Physik dennoch massenhaft CPU-Leistung, da das ganze ja noch koordiniert werden muss.
.
Nach den vollmundigen Versprechen von ATi im März 2006 kam die Ernüchterung, dass man sich auf Effekte-Physik konzentrieren wird. Wieviel von der auf der PhysiX berechneten Physik war spielbezogene Physik (GRAW und was war da noch?)? Ich tippe mal ins Blaue: Sollte die Physikberechnung auf Grafikkarten wieder auferleben, dann sehen wir eher hübsche Wellen und vernünftigen Rauch als Physikschlachten wie in HL2 Deathmatch.
=Floi=
2008-02-05, 15:00:33
ich sehe da auch eher amd mit im boot
Moralelastix
2008-02-05, 15:20:37
Wie lange müssen wir auf erste Produkte warten?
Gabs da nicht Spekulationen das Microsoft eine Schnittstelle für Physik in DX11 / 12 einbaut? Sowas ist doch dann eine Konkurrenz für NV wenn bis dann jeder eine Oktacore CPU im Rechner hat?
Wenn NV wirklich was damit anfangen will müssten sie doch deutlich vor Microsoft was damit auf die Beine stellen um den Markt besetzen zu können.
Und die Art und Weise wie NV das umsetzen wird dürfte ja klar sein.
Wieso sollten sie versuchen sich auf freie Rechenkraft einer NV GPU zu verlassen wenn sie dafür eine extra Graka an den Mann bringen können? (könnt mit gut vorstellen für sowas z.B. ne 9600 zu nutzen)
Sie könnten dafür ja auch SLI etwas lockern so das NV GPU Physik auf allen Chipsätzen läuft.
Exxtreme
2008-02-05, 15:40:57
Bei spielebezogener Physik muss wohl wieder die CPU ran denn das beeinflusst wiederum andere Dinge wie Kollisionsabfragen etc. Ausser natürlich, die Kärtchen können das auch übernehmen.
HD-Ronny
2008-02-05, 16:28:08
Nach 3dfx nun auch PhysX . Nvidia wird wieder einen grossen Schritt nach vorne machen. Denke mal das bei ATI/AMD bald die Lichter im 3D Bereich ausgehen werden (oder wie bei S3 nur noch leise vor sich herglimmen). Schade,ein weisser Ritter (intel) der dagegen hält ist auch nicht in Sicht.
nomadhunter
2008-02-05, 16:35:09
? Als ob für AMD die Welt untergeht, weil NVIDIA in einen Nieschenmarkt investiert. So viel Marktmacht hat NV auch nicht, dass sie irgendwelche Spieleentwickler dazu bringen können, ihre Spiele NV-only zu machen (das wäre nötig, wenn man nicht nur Effektphysik machen will und nicht AMD mit einbinden will).
HD-Ronny
2008-02-05, 16:46:21
Ich denke das genau das passiert. Nvidia-only Spiele,Nvidia hat genug Kohle um das mit ihrem logo durchzudrücken.Siehe Crysis.... Da wurde auch so programmiert das es erst mit ner 8800GT aufwärts spielbar ist.Das ist erst der Anfang gewesen. Tetris 2009 wird man auch mit ner ATI Karte speielen können,aber die blockbuster ??
Die ganze Entwicklung ist einfach nur Mist. Intel hat Havok(FX), Nvidia PhysX ... und Ati wird gezwungen, ihren Physikunterricht wiederaufzunehmen. Drei Lösungen, dreifacher Programmieraufwand. Physik muss über DirectX ("DirectPhysics") spezifiziert und die Hersteller so auf einen Nenner gebracht werden, sonst haben wir wieder eine Situation wie mit Glide, Direct3D und OpenGL. Gleichzeitig idlen die ganzen schönen Quad- und bald Octacores vor sich hin, weil ihnen niemand Physik zu fressen gibt. Super Plan!
MfG,
Raff
AnarchX
2008-02-05, 16:56:10
AFAIK war doch mal im Bezug auf D3D11 ein Computing-Shader in der Spekulation, der wohl für GPGPU-Apps genutzt werden könnte.
Aber bis dahin ist ja noch etwas Zeit...
robbitop
2008-02-05, 16:58:08
Gleichzeitig idlen die ganzen schönen Quad- und bald Octacores vor sich hin, weil ihnen niemand Physik zu fressen gibt. Super Plan!
MfG,
Raff
x86er Cores sind denkbar schlecht für Physikaufgaben geeignet. Genausowenig wie sie zum Rendern von 3D-Grafik geeignet sind. Es geht zwar, aber nicht besonders fix.
Problem ist bei Physikkarten, dass sie nicht das Ende der Berechnungskette sind. Das wird also nicht, wie damals bei 3dfx, einen Boom auslösen.
PhysX ist technisch gesehen (trotz holpriger Vorstellung) die bisher beste Lösung für Physikbeschleunigung. Aber durchsetzen wird es sich vermutlich nicht.
x86er Cores sind denkbar schlecht für Physikaufgaben geeignet. Genausowenig wie sie zum Rendern von 3D-Grafik geeignet sind. Es geht zwar, aber nicht besonders fix.
Bisher hat's ja auch gereicht. Und jetzt hat man noch einige Kerne mehr, die dran ackern könnten.
Problem ist bei Physikkarten, dass sie nicht das Ende der Berechnungskette sind. Das wird also nicht, wie damals bei 3dfx, einen Boom auslösen.
PhysX ist technisch gesehen (trotz holpriger Vorstellung) die bisher beste Lösung für Physikbeschleunigung. Aber durchsetzen wird es sich vermutlich nicht.
Warum sollte es sich nicht durchsetzen, wenn es einen Standard gäbe, den alle Hersteller anbieten? Eine PPU neben der GPU – oder noch besser: auf das Mutterbrett gelötet – sorgt für Verbreitung und ist vermutlich Nvidias Plan. Aber das hilft uns kaum weiter, weil die anderen beiden auch was vom Kuchen abhaben wollen.
MfG,
Raff
nomadhunter
2008-02-05, 17:19:54
Warum sollte es sich nicht durchsetzen, wenn es einen Standard gäbe, den alle Hersteller anbieten?
Weil ein extra Chip zu viel Aufwand ist. Habe ich schon in einem anderen Thread geschrieben. Du kannst nicht alles in spezialisierte Hardware auslagern, sonst haben wir bald nicht nur CPU, GPU, Soundprozessor und Physikprozessor, sondern vielleicht noch einen KI-Prozessor, eine Drawcall-Erzeugunseinheit und sonst irgendwelchen Unsinn. Dedizierte Physikprozessoren werden sich IMHO nie durchsetzen, genau so wie Soundprozessoren wohl bald aussterben werden (heute bieten ja viele Spiele schon gescheite Software-Soundengines an). Wenn es überhaupt mal derartige Spezialisierungen gibt, dann höchstens in Form mehrerer verschiedener Prozessoreinheiten auf einem Die (Cell), die dann aber wohl nicht nur für Grafik, Physik, Sound oder sowas eingesetzt werden können, sondern auch für wissenschaftliche Berechnungen, Videoen-/dekodierung und sonstige Streamprozessor-Aufgaben.
Moralelastix
2008-02-05, 17:20:37
The real reason for nVidia buying Ageia................
By kilkennycat on 2/4/2008 8:04:15 PM , Rating: 2
In this thread there seems to be a pervasive thought that nVidia needs to have some special-purpose silicon within their GPUs for physics. And hence the speculation that this is the major reason for buying Ageia. Wrong. The next gen nVidia silicon currently in full development is targeted for BOTH GPGPU purposes (read physics == just one specific class of complex algorithm processing ) AND graphics-GPUs. The next-gen (GP)GPU silicon from nVidia will have double-precision data-paths throughout, essential for high-speed complex-math computations.
nVidia is probably acquiring Ageia specifically for their extensive PHYSICS-ALGORITHM know-how and together with the Ageia folk, will figure out how to most efficiently integrate their algorithms into their (GP)GPU silicon, maybe with some minor architectural accommodation to improve computational efficiency when dealing with this class of algorithm. No dedicated physics processor... the next-gen GPGPU with a dedicated library of very efficient physics-processing functions.
No doubt nVidia has big plans to use Ageia's technical expertise to address PC game-physics, (which actually is best handled by a pairing of a CPU-core - for the bulk-physics with the GPU(s) handling the particle-physics)
However, the biggest impact of the acquisition may be on the industrial and professional applications of their GPGPU creations. This is a rapidly-expanding and very highly-profitable area of business for nVidia, thanks in part to the powerful parallel math-processing on their GPUs enabled by nVidia's CUDA toolset. An extended version of the current CUDA toolset, with a powerful physics-processing library would be attractive to many areas of engineering development where any extra time spent can represent many $$ lost in opportunity-cost.
The PhysX chip in its current discrete implementation on an antique-technology PCI board is finally a truly dead-duck. R.I.P.
nomadhunter
2008-02-05, 17:28:21
Also Spielphysik weiterhin auf der CPU und Effektphysik auf der GPU (und zwar der gleichen, nicht irgendeinem Extra-Ding per (h)SLI)? Halte ich durchaus für möglich.
deekey777
2008-02-05, 17:28:38
Bisher hat's ja auch gereicht. Und jetzt hat man noch einige Kerne mehr, die dran ackern könnten.
Warum sollte es sich nicht durchsetzen, wenn es einen Standard gäbe, den alle Hersteller anbieten? Eine PPU neben der GPU – oder noch besser: auf das Mutterbrett gelötet – sorgt für Verbreitung und ist vermutlich Nvidias Plan. Aber das hilft uns kaum weiter, weil die anderen beiden auch was vom Kuchen abhaben wollen.
MfG,
Raff
Die PPU ist tot.
Das, was uns als "Physik" verkauft wird, ist höchstens ein guter Kompromiß aus Interaktivität und Performance.
Moralelastix
2008-02-05, 17:55:51
Nvidia Purchases Developer of Dedicated Physics Processors.
http://www.xbitlabs.com/news/multimedia/display/20080204151409_Nvidia_Purchases_Developer_of_Dedicated_Physics_Processors.html
......
Nevertheless, physics processing on GPUs may get a boost in popularity when Microsoft releases its DirectX 11, which is projected to support additional features that will provide new opportunities for games developers. In fact, Microsoft already promised Direct Physics application programming interface (API) [which was projected to rely on GPU as well] sometime back, but not actual product has yet been released. When and if Microsoft releases its Direct Physics, it will inevitably compete against Nvidia-owned Ageia PhysX technology.
Demirug
2008-02-05, 18:55:34
x86er Cores sind denkbar schlecht für Physikaufgaben geeignet. Genausowenig wie sie zum Rendern von 3D-Grafik geeignet sind. Es geht zwar, aber nicht besonders fix.
Warum sollen sie schlecht für Physik geeignet sein? Oder anders gefragt welche Teilaufgabe bei der Physik willst du per fixed funktion beschleunigen?
Intel schmeckt das bestimmt nicht. Die wollen garantiert Physik in die CPU einbringen genauso wie Raytracing.
Es gibt keine dedizierten Raytracing-Schaltkreise in Larrabee.
robbitop
2008-02-05, 19:30:48
Warum sollen sie schlecht für Physik geeignet sein? Oder anders gefragt welche Teilaufgabe bei der Physik willst du per fixed funktion beschleunigen?
Wieso Fixed Function? Ich dachte eher and Parallelisierung und viele Rechenwerke. Ein großer MIMD oder SIMD Komplex.
Differenzialgleichungen sind schon hammer heftig zum Rechnen. Ebenso Matrizen. Das kostet schon einige Takte. Es geht zwar auch über die SIMD SSE Units in CPUs, aber der Durchsatz ist halt im Gegensatz zur PPU sehr beschränkt. IIRC sind das läppische 2 Instruktionen pro Kern und Takt. (bei heutigen CPUs)
Und falls du jetzt auf die x86er Core in Produkten wie Larrabee hinauswillst: das meinte weder ich noch Raff. Wir meinten damit eher CPUs.
Physik muss über DirectX ("DirectPhysics") spezifiziert und die Hersteller so auf einen Nenner gebracht werden, sonst haben wir wieder eine Situation wie mit Glide, Direct3D und OpenGL.
MfG,
Raff
Vielleicht will Nvidia ja bei der Spezifikation von "DirectPhysics" durch das Ageia-Knowhow seinen Einfluss stärken, denn MS kann ja als nicht-Hardwarehersteller keine solche API alleine entwickeln. Ist ja bei Direct3D genauso.
Liszca
2008-02-05, 21:47:40
Also meine gedanken schielen mehr richtung nforce mit integriertem Physix prozessor.
mit hohem stromverbrauch bei den nforce chipsätzen hat nvidia ja schon erfahrung, da kommt es auf die 40 watt auch nicht mehr an ;D
AnarchX
2008-02-05, 21:50:45
Also meine gedanken schielen mehr richtung nforce mit integriertem Physix prozessor.
Wozu eine extra PPU, wenn man den IGP schon so dafür verwenden kann. Ab nforce700a und nforce800i(?) hat eh jeder NV-Chipsatz eine solche.
Liszca
2008-02-05, 22:49:07
Wozu eine extra PPU, wenn man den IGP schon so dafür verwenden kann. Ab nforce700a und nforce800i(?) hat eh jeder NV-Chipsatz eine solche.
oder so...
_DrillSarge]I[
2008-02-06, 13:30:56
wieso soll eigentlich ageia soviel wert sein? sind die mit ihren produkten/lösungen noch wo anders aktiv als im pc-spiele bereich?
Kinman
2008-02-06, 16:04:44
Ich nehme das mit dem Physik-Grafik SLi System nochmals auf.
Was ist wenn man bei zwei nV Grafikkarten zwischen SLi und Physik + Grafik (CUDA) wählen oder eben eine AMD Grafikarte + nV Grafikkarte (bzw. Physikkarte) ohne die Möglichkeit auf SLi laufen lassen kann?
Wäre in jedenfall sinnvoll für nVidia.
mfg Kinman
I[;6257076']wieso soll eigentlich ageia soviel wert sein? sind die mit ihren produkten/lösungen noch wo anders aktiv als im pc-spiele bereich?
Noch nicht, aber Nvidia hat die sicher nicht nur für den Spiele-Markt gekauft.
nomadhunter
2008-02-07, 00:31:52
Ich nehme das mit dem Physik-Grafik SLi System nochmals auf.
Was ist wenn man bei zwei nV Grafikkarten zwischen SLi und Physik + Grafik (CUDA) wählen oder eben eine AMD Grafikarte + nV Grafikkarte (bzw. Physikkarte) ohne die Möglichkeit auf SLi laufen lassen kann?
Wäre in jedenfall sinnvoll für nVidia.
Eine extra Karte für Physik wird sich IMHO nicht durchsetzen. Egal, ob das jetzt eine reine Physikkarte wie bisher bei Ageia ist, oder ob das eine zweckentfremdete Grafikkarte ist.
robbitop
2008-02-07, 01:26:57
Wozu eine extra PPU, wenn man den IGP schon so dafür verwenden kann. Ab nforce700a und nforce800i(?) hat eh jeder NV-Chipsatz eine solche.
Ne IGP ginge aber auch nur für Effektphysik.
Wieso denn? Wenn du sie als Streamprozessor verwendest mit einem Frame Verzögerung wie PhysX geht da alles.
deekey777
2008-02-07, 08:43:24
Wieso denn? Wenn du sie als Streamprozessor verwendest mit einem Frame Verzögerung wie PhysX geht da alles.
Das ist genau das, was ich in GoW deaktiviert habe.
Ageia Goes Green: The Future of Ageia PhysX Discussed (http://www.xbitlabs.com/articles/editorial/display/ageia-acquisition-interview-2008.html)
=Floi=
2008-02-07, 09:02:04
das meiste ist alles zu speziel und warum soll ich mir ein mb mit integrierter grafikkarte kaufen? Intel wird hier sicherlich nicht mitspielen wollen.
Eine insellösung wie aktuell mit sli will auch nicht jeder und solange nv bei den boards so schwächelt (45nm support, 3 chips, aktive kühlung etc. ) bleibt hier intel die bessere wahl beim chipsatz.
AMD könnte in den nächsten 10 jahren (;) ) auch wieder mal einen besseren prozessor bringen und diesen könnte man dann auch mit einem amd chipsatz und nv karte kombinieren. NV grenzt sich so eher aus und ohne breite basis (Intel AMD NV) kaann sich kein standard bilden.
robbitop
2008-02-07, 09:39:08
Wieso denn? Wenn du sie als Streamprozessor verwendest mit einem Frame Verzögerung wie PhysX geht da alles.
Soweit ich das weiß, geht das bei GPUs aus Latenzgründen nicht. Gamephysik (mit der die CPU also noch arbeiten muss) ist wohl zu zeitkritisch.
Da gabs aber genug Entwickleraussagen im Netz. Ich gehe davon aus, dass das stimmt.
mapel110
2008-02-07, 21:55:37
und es gebe auch genügend Spiele, die von den zusätzlichen Effekten bereits profitierten.
"Genügend" ist hier wohl definitionswürdig. Für mich ist das Produkt tot.
/edit
Computerbase hat das so laut xbitlabs verstanden.
Blutmaul
2008-02-08, 03:08:57
und es gebe auch genügend Spiele, die von den zusätzlichen Effekten bereits profitierten.
"Genügend" ist hier wohl definitionswürdig. Für mich ist das Produkt tot.
/edit
Computerbase hat das so laut xbitlabs verstanden.
Zustimmung - die PPU ist damit gestorben - Es wird viele weitere Jahre brauchen, bis weitreichende Gameplayphysik kommt!
Aber für die FPS-Spieler sind realistisch fallende Bluttropfen in TWIMTBP-Games vielleicht schon ausreichend :wink:
Die ganze Entwicklung ist einfach nur Mist.
Für die Grafikkartenhersteller ja. Sollten sich Nvidia und AMD/ATI nicht sehr sehr bald auf eine GPGPU-Hochsprache einigen, mit der auch die ihre Physikengine(s) läuft/laufen, werden sie von Intel überrollt werden. Eine gemeinsame API für Physik ist imo nicht unbedingt notwendig. Aber eine Hardwarebasis von > 80% muss gesichert sein.
Gleichzeitig idlen die ganzen schönen Quad- und bald Octacores vor sich hin, weil ihnen niemand Physik zu fressen gibt. Super Plan!
Das wäre traumhaft. Die kriegt man auch mit genügend anderen Dingen beschäftigt, die sich in den letzten Jahren nicht mehr weiterentwickeln durften.
_DrillSarge]I[
2008-02-09, 20:07:22
eigentlich war das produkt schon immer tot. es gab schlicht nix. (abgesehen von paar effekten in graw, 2 levels für ut3, dem absolut crappigen warmonger und cellfactor; was vergessen?)
zudem war die performanc meist beschissen. eigentlich kein großer verlust.
Bokill
2008-02-09, 20:38:47
I[;6257076']wieso soll eigentlich ageia soviel wert sein? sind die mit ihren produkten/lösungen noch wo anders aktiv als im pc-spiele bereich? Wie wärs mit den Lizenzeinnahmen für Spiele, die die "NovodeX" und "APEX" API/Entwicklungsumgebung (http://www.orthy.de/index.php?option=com_content&task=view&id=5256&Itemid=86) nutzen?
Immerhin nutzt die PS3 und Xbox 360 auch die Ageia-Middleware für Physikeffekte bei einigen Spielen. Der eigentliche Wert ist das Know How dahinter und mit EASports haben sie Lizenznehmer, die so manch einen Euro locker für Lizenzen zahlen kann und auch schon gezahlt hat.
Möglicherweise geht erst jetzt die Physikbeschleunigungs-Party nun erst richtig los ... aber nun mit Nvidia ... und vermutlich nicht mehr als externes Silizium ... fragt sich nun, wie AMD darauf reagiert ... Intel hat ja mit Larrabee und Havoc vorgelegt. Und wie steht Microsoft dazu?
MFG Bobo(2008 )
_DrillSarge]I[
2008-02-09, 20:41:02
Wie wärs mit den Lizenzeinnahmen für Spiele, die die "NovodeX" und "APEX" API/Entwicklungsumgebung (http://www.orthy.de/index.php?option=com_content&task=view&id=5256&Itemid=86) nutzen?
Immerhin nutzt die PS3 und Xbox 360 auch die Ageia-Middleware für Physikeffekte bei einigen Spielen. Der eigentliche Wert ist das Know How dahinter und mit EASports haben sie Lizenznehmer, die so manch einen Euro locker für Lizenzen zahlen kann und auch schon gezahlt hat.
MFG Bobo(2008 )
stimmt, hab mich gar nicht erinnern können, dass novodex von ageia kommt, meines wissens gabs das doch auch schon vor den physx chips, oder?
Bokill
2008-02-09, 20:46:31
I[;6266844']stimmt, hab mich gar nicht erinnern können, dass novodex von ageia kommt, meines wissens gabs das doch auch schon vor den physx chips, oder? Ja, das hat Ageia damals aufgekauft und integriert.
MFG Bobo(2008 )
_DrillSarge]I[
2008-02-09, 21:08:03
mal sehen was die käufer daraus machen. havok -> "tot", ageia -> tot. was bleibt da noch ausser multicore-nutzung? vielleicht haben die gpu-ihvs mit ihren gp-gpu programmen was auf lager (nv durch den zukauf (bald) bestimmt).
-]Vips[-
2008-02-12, 23:07:24
Ich verstehe echt nicht warum so viele Leute die PPU so schlecht reden. Ich bin Besitzer einer Physx, ich habe sie mir gekauft weil ich dieser Technik eine Chance geben wollte.
Und ich verstehe auch nicht was so schlimm an einer zusätzlichen Karte sein soll. Der Stromverbrauch der Physx ist doch vernachlässigbar! Eine Gforce GTX oder Ultra frisst das 10fache an Leistung als eine Physx Karte und da jammert keiner rum.
Eine GPU Physx Lösung halte ich für totalen Schwachsinn! Die GPU soll für die Grafikberechnung verwendet werden, deshalb nennt man sie ja Graphics Processing Unit.
Was ich so mitbekommen habe kann eine GPU Physik Lösung ja keine Rückmeldung geben sondern die Physik nur grafisch darstellen. Etwas explodiert, Teile fliegen physikalisch durch die Luft und das wars. Die PPU berechnet ja nicht nur die Flugbahn sondern auch welchen Schaden diese Objekte in der Umgebung anrichten.
Wenn ich mir die Crysis Physik so ansehe und das die Zukunft sein soll dann sage ich nur ARM. Die Atomexplosionen sehen beeindruckend aus aber schaden richten sie in der Umgebung so gut wie keinen an. Die Physik in Crysis ist doch nicht recht viel besser als in Half Life 2 oder Far Cry.
Mit einer PPU könnte man so verdammt viele geniale Dinge anstellen. Rennspiele mit noch realistischerem Schadensmodell, Fahrphysik usw.. Taktikshooter mit realistisch zerstörbarer Umgebung, Wettereinflüssen, Rauch der vom Wind korrekt verweht wird usw. Atmosphäre PUR.
Alleine schon die Flüssigkeitsberechnung ist ja schon der reinste Wahnsinn.
Und eine Grafikkarte oder ein CPU sind sicher nicht in der Lage detailierte Physik (viele, viele 1000de Objekte) zu berechnen ohne das die FPS Rate in den Keller sinkt. Im Grunde war die Havok Physik auch totaler mist.
Ich bin mittlerweile auch schon seit 10 Jahren aktiver (2 o. 3 Jahre passiver, PC vom Bruder durfte da nich spielen *g*) PC-Zocker. Ich hatte das Vergnügen jede Hardwareentwicklung mitzuerleben (3d Beschleuniger, Soundkarte, schnellere CPU´s usw). Und es gab auch sehr viele die die 3d Beschleuniger als sinnlos bezeichneten. Was wären PC Spiele heute ohne 3d Beschleuniger oder Soundkarte? NICHTS!
Lieber wäre mir gewesen wenn Microsoft Ageia aufgekauft hätte und die Physx Technik ins d3d integriert hätte. Das würde heißen wenn man detailierte Physik haben möchte braucht man eine PPU, wenn einem das egal ist und sich mit weniger Physik zufrieden gibt der hat halt keine. Aber jetzt wird es so laufen, dass man detaillierte Physik nur mit Nvidia Karten haben kann (wie vor ein paar Jahren eine Voodoo zwingend notwendig war, wenn man eine schönerer Grafik haben wollte).
R.I.P Ageia und PhysX ein Traum von mir ist hiermit gestorben. Spiele werden Grafiktechnisch immer besser aber nun kann man auf realistische Physik in Spielen lange warten. DANKE NVIDIA.
UND SCHANDE ÜBER AGEIA FÜR IHR SCHLECHTES MARKETING!!!
Na das Nvidia nun die technik besitzt finde ich garnicht schlecht, denn mit der extra karte gab es zwar mehr Effekte, doch musste auch die Grafikkarte mehr arbeiten um die zusätzlichen Teile zu berechnen. Da bei Nvidia nun alles in der selben Hand ist, könnte man das ganze sicher noch ziehmlich optimieren.
Außerdem braucht es denk ich eine große Firma die hinter dem Ganzen steht, denn wenn Nvidia die PPU in die GPU integriert, oder auch nur als extra Chip auf der Grafikkarte selbst, dann muss Ati nachziehen und das führt zu einer neuen Lösung, die vielleicht sogar besser ist
Vips[-;6275552']Eine GPU Physx Lösung halte ich für totalen Schwachsinn! Die GPU soll für die Grafikberechnung verwendet werden, deshalb nennt man sie ja Graphics Processing Unit.
Eine GPU ist auch nur ein Streamprozessor. Solange die CPU damit entlastet wird und man mehr FPS bekommt ist das der richtige Weg.
Spearhead
2008-02-12, 23:41:35
Eine GPU ist auch nur ein Streamprozessor. Solange die CPU damit entlastet wird und man mehr FPS bekommt ist das der richtige Weg.
Eben, wäre ja auch nicht das erste mal das ne Graka für etwas anderes als "Graphics Processing" verwendet wird... Folding / CUDA anyone? ^^
Bokill
2008-02-12, 23:47:34
... dann muss Ati nachziehen und das führt zu einer neuen Lösung, die vielleicht sogar besser ist Zu einer besseren Lösung wie Blue-ray-Disk Version 1.0 vs. HD-DVD?
Sorry, das ist so notwendig, wie Heizdecken für Pinguine ... ein künstlich aufgekochter API-Krieg um die "beste" Physik-IPI hält Verbraucher zurück.
Man kann über Microsoft viel begründet lästern, aber eine einheitliche Physik-API als Bestandteil der kommenden Direct-X-1x.x wäre zur Marktdurchdringung sicherlich besser gewesen.
Wenn Nvidia darauf hocken bleibt, dann ist darin auch der Kern des Scheiterns enthalten.
MFG Bobo(2008 )
deekey777
2008-02-13, 15:02:41
Wer denkt, dass ATi in Sachen "Physik" nachziehen muss, ist nur faul, weiterführende Links aus diesem Thread nachzuschauen (oder hat nur Kurzzeitgedächtnis).
Zur Erinnerung: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=252495 (der Thread ist von Anfang Oktober 2005)
Und: ATI R520: Radeon X1800 (http://www.beyond3d.com/content/reviews/27/), Seite 8:
During a demonstration of Crossfire ATI displayed an interesting demo which put the Crossfire cards to an alternative use. As opposed to having the Crossfire boards increasing performance by distributing graphics workloads across the two ATI has a demo with wave simulations that could be fully calculated on the CPU, have the CPU calculating the physics and the graphics rendering the image, or moving the rendering to one board and the physics of the wave simulation to the second graphics board, effectively turning it into a physics co-processor.
Havok FX wurde erst im März 2006 gezeigt, worauf ATi ihre Physik-Spielereien präsentierte.
Ist aber Vergangenheit, was interessiert, ist die Zukunft. NV wäre ziemlich dumm, die PhysX-Sache nur auf eigene Systeme zu beschränken. System ist gleich: SLI-fähiges Mainboard und die passenden Geforces, von denen eine als "Physik-Beschleuniger" arbeitet.
...
Ageia Goes Green: The Future of Ageia PhysX Discussed (http://www.xbitlabs.com/articles/editorial/display/ageia-acquisition-interview-2008.html)
Das Posting ist von Seite vier...
X-bit labs: Will Ageia PhysX SDK will be able to take advantage only of PhysX PPUs and GeForce GPUs? Or it will be able to use x86 CPUs and ATI Radeon GPUs?
Michael Steele: We’ll continue to support the current SDK and will immediately begin the work to accelerate PhysX with our GPUs. We’ll also continue to support CPUs in keeping with the heterogeneous compute model that Nvidia has been extending with its increasingly flexible and powerful GPUs and CUDA programming environment.
Nvidia is committed to creating a development environment that enables the pervasive use of PhysX technology and innovative implementations of physics in gaming on today’s PPU, CPU and in the future, the GPU. Of course, we’ll also continue to provide the best complete platform of both software and hardware to developers and gamers.
X-bit labs: Will “GeForce-accelerated PhysX”require a standalone GeForce board, or physics processing will rely on a single GPU with graphics?
Michael Steele: It’s too early to comment on how this will be rolled out. But we expect it to happen as soon as possible. Consider that Ageia designed its multithreaded PhysX software specifically for hardware acceleration in massively parallel environments. Nvidia’s GPUs are well-suited to take advantage of PhysX software and Ageia’s expertise in that environment. Also, it is clear that Nvidia is committed to enabling pervasive physics through open platform initiatives.
X-bit labs: What do you actually mean by open platform initiatives here? Does it mean that Nvidia will keep developing PhysX SDK and it will support x86 microprocessors, Microsoft Xbox 360, Nintendo Wii and Sony PlayStation 3? Or does it mean that PhysX SDK will be compatible with all of the above as well as DirectX 10 GPUs in general?
Michael Steele: It means that Nvidia wants to be open in its further development of PhysX software in order to enable as many platforms as possible on both PC and console. Nvidia understands better than anyone the need to enable a large and unrestricted market for game developers. I don’t think anyone will question their unique capabilities to support the development community. Enabling a physics eco-system and then delivering the best hardware for that environment is good for gaming.
Weitere Gedanken bei Anandtech:
NVIDIA Acquires AGEIA: Enlightenment and the Death of the PPU (http://www.anandtech.com/video/showdoc.aspx?i=3224&p=1)
NV wird AMD ins Boot holen, besser gesagt: AMD wird zu NV rennen und NV wird AMD mit offenen Armen begrüßen.
http://www.techpowerup.com/52589/Analyst_Believes_NVIDIA_May_Acquire_AMD_Despite_Possible_Loss_of_x86_Licensing.h tml
MuLuNGuS
2008-02-15, 08:33:28
und noch einer...CUDA lässt grüssen.
http://www.techpowerup.com/52561/All_GeForce_8_Cards_to_Gain_PhysX_Engine_Support_Says_NVIDIA.html?52561
und mehr:
http://www.pcper.com/article.php?aid=515
Edit: I received the PR after I had finished the article, but it basically confirms that NVIDIA will be aggressively pursuing GPU physics using the PhysX framework. We can also safely assume that NVIDIA will be VERY interested in leveraging their integrated GPUs for hardware physics work. Again, we will be seeing the upcoming AMD based motherboards all featuring the GeForce 8200 integrated part. By the time the GPU physics portion of PhysX will be rolled out, there will be a significant installed base of nForce products sporting GeForce 8200 IGPs.
GeForce 8 graphics processors to gain PhysX support (http://techreport.com/discussions.x/14147)
malle
2008-02-16, 10:29:07
Aufgekauft um einen Konkurrenten vom Markt zu nehmen, und nichts von dem weiter entwickelt. Sowas bääääää
AnarchX
2008-02-20, 10:37:52
Director 11 also enables content creators to localize applications through Unicode, create new levels of lifelike motion in games and simulations with the Ageia™ PhysX™ physics engine, and deliver more engaging experiences with enhanced text and native 3D rendering.
http://www.finanzen.net/nachricht/Adobe_Launches_Director_11_678340
;)
Bokill
2008-02-20, 13:07:02
http://www.finanzen.net/nachricht/Adobe_Launches_Director_11_678340 aaaaalt ... Das mit Motion Tracking ist auch auf Deutsch zu lesen gewesen
... Für den PC-Bereich baut Ageia vor allem auf Unreal-3 und deren Lizenznehmer. Herr Foster spricht in diesem Zusammenhang von etwa 128 Lizenznehmern. Darüber hinaus hat auch EASports mittelfristiges Interesse angemeldet. Was bislang für Sportspiele "Motion Tracking" zur Simulation von Bewegungsabläufen in Sportspielen war, soll Ageias Technologie in Zukunft ermöglichen. ... Ageia: Kaufgerücht FALSCH (http://www.orthy.de/index.php?option=com_content&task=view&id=5263&Itemid=86) vom 23. Januar 2008.
MFG Bobo(2008)
deekey777
2008-04-14, 12:19:14
Nvidia GPU physics engine up and running, almost (http://www.tgdaily.com/content/view/36915/135/)
While Intel's Nehalem demo had 50,000-60,000 particles and ran at 15-20 fps (without a GPU), the particle demo on a GeForce 9800 card resulted in 300 fps. If the very likely event that Nvidia’s next-gen parts (G100: GT100/200) will double their shader units, this number could top 600 fps, meaning that Nehalem at 2.53 GHz is lagging 20-40x behind 2006/2007/2008 high-end GPU hardware. However, you can’t ignore the fact that Nehalem in fact can run physics.
Ok, über die Verdopplung der Frames kann man sich streiten.
Wenn die Physik über CUDA implementiert wird: Kann eine Grafikkarte parallel CUDA und DX bzw. OGL ausführen?
Und überhaupt: Wen interessieren die 60.000 Partikel, wenn die physikalisch korrekt berechnete Flugbahn einer Kloschüssel aus Spielersicht deutlich interessanter ist? Und dabei hat der Spieler keine Hitbox mit der Form einer Schrankwand (HL2 lässt sich grüßen...).
Edit: Wenn ich den Text so durchlese, so finde ich, es wird nirgendwo erwähnt, dass ein "PhysX-2-CUDA-Port" für diese Tests benutzt benutzt wurde.
Wenn die Physik über CUDA implementiert wird: Kann eine Grafikkarte parallel CUDA und DX bzw. OGL ausführen?
Die Frage ist genauso sinnvoll wie "Kann eine CPU mehr als eine Anwendung gleichzeitg ausführen?" und dürfte damit beantwortet sein.;)
robobimbo
2008-04-14, 14:44:19
Die Frage ist doch, ob Nvidia kurz oder lang die PhysX "Treibersoftware" in ihre DisplayDriver hinzugeben, und somit jeder GeForce Besitzer zum potenzionellen PhysX Anwender wird.
Damit bekommt das ganze Physikbeschleuniger Zeug wenigstens einmal eine krititsche Masse auf die auch dann die Spiele-Entwickler aufspringen können / wollen.
Gehen mit Geforce@PhysX auch alte Demos/Spiele? Ich meine kann man villeicht irgendwann eine Geforce gegen PhysX-Karte_krücke vergleichen?
Demirug
2008-04-14, 15:16:31
Die Frage ist genauso sinnvoll wie "Kann eine CPU mehr als eine Anwendung gleichzeitg ausführen?" und dürfte damit beantwortet sein.;)
Eine CPU und GPU sind in diesem Punkt zwei unterschiedliche Dinge.
Auch wenn eine GPU von der Hardwareseite auf massives multithreading ausgelegt ist dies eine Multitasking Anforderung. In wie weit das aktuelle GPUs unterstützen direkt ist fraglich. Ist liegt also am Treiber die unterschiedlichen Anforderungen in einen command queue einzuarbeiten. Gerade bei sehr tiefen queues kann Physik da zu einem Problem werden weil man dann lange auf seine Ergebnisse warten muss.
Ich kann auf einer GPU aber doch jederzeit mehrere 3D-Anwendungen gleichzeitig starten, z.b. 2 OpenGL Anwendungen und 2 D3D Anwendungen. Ist das dann kein Multitasking (für die GPU)?
erwalten muss das dann trotzdem der Treiber ;)
Simon
2008-04-14, 17:03:49
Ich kann auf einer GPU aber doch jederzeit mehrere 3D-Anwendungen gleichzeitig starten, z.b. 2 OpenGL Anwendungen und 2 D3D Anwendungen. Ist das dann kein Multitasking (für die GPU)?
Bisher muss man einen Context Switch zwischen CUDA und OpenGL/D3D machen. Soll wohl schnell genug sein: Klick mich (http://forums.nvidia.com/index.php?showtopic=29091&mode=linearplus)
MuLuNGuS
2008-04-15, 15:37:27
interessant wird es ja wenn man einfach seine alte gfx-karte quasi als physikkarte im rechner stecken lassen kann.
also einfach z.b. 8800GT für physik im rechner stecken lassen(oder günstig hinzukaufen) und die GT200 kümmert sich um die grafikgeschichte.
das klingt schon gut irgendwie.
einfach mal so zusätzliche 100W "nur" für physik zu verbraten klingt nicht gerade verlockend.
Nightspider
2008-04-15, 21:31:36
einfach mal so zusätzliche 100W "nur" für physik zu verbraten klingt nicht gerade verlockend.
Für manche schon. :D
deekey777
2008-05-11, 12:12:40
Nvidia: Current CPU-GPU balance in PCs is 'obscene' (http://www.techradar.com/news/computing-components/graphics-cards/nvidia-current-cpu-gpu-balance-in-pcs-is-obscene-364646)
NV trollt malwieder in Richtung Intel. :biggrin:
Egal.
Hardware PhysX
What's more, Taylor says plans to support the recently acquired PhysX physics-simulation engine on Nvidia's GPUs are also nearing launch. Before the end of May, a total of eight games with GPU-based PhysX are due to announced. 30 to 40 such titles will be available this time next year
Die Zeit wird zeigen, wer im Unrecht ist.
robbitop
2008-05-11, 12:57:00
Ich bin gespannt, ob dann mehr dabei ist, als nur GPU-beschleunigte Effektphysik.
deekey777
2008-12-12, 02:23:44
AMD says PhysX will die (http://www.bit-tech.net/news/2008/12/11/amd-exec-says-physx-will-die/1)
"There is no plan for closed and proprietary standards like PhysX," said Cheng. "As we have emphasised with our support for OpenCL and DX11, closed and proprietary standards will die."
Irgendwie hat er Recht.
Slipknot79
2008-12-12, 02:35:00
AMD says PhysX will die (http://www.bit-tech.net/news/2008/12/11/amd-exec-says-physx-will-die/1)
Irgendwie hat er Recht.
http://www.mactechnews.de/news/index.html?id=142807 :redface:
Irgendwie hat er Recht.
hat er überhaupt nicht eine programmierbare schnittstelle und eine fertige engine sind 2 komplett verschiedene dinge, das eine ist ein SDK, das andere mehr oder weniger eine fertige software.
BlackBirdSR
2008-12-12, 10:32:49
hat er überhaupt nicht eine programmierbare schnittstelle und eine fertige engine sind 2 komplett verschiedene dinge, das eine ist ein SDK, das andere mehr oder weniger eine fertige software.
Eben.. wenn überhaupt müsste er von CUDA sprechen.
PhysX aka Novodex ist eine sehr potente Physik-Engine, die erstmal jemand nachmachen muss. Sie ist nicht perfekt, aber wer immer ein Konkurrenzprodukt bringen will (mit Blick auf Microsoft), der hat doch einiges an Arbeit zu tun.
Warum sollte man also diese Engine verwerfen? Es gibt eine ganze Menge an Spielen die sie nutzen (auch Konsole). Gerade die Spiele ohne GPU/PhysX-HW Support zeigen meist überraschend gute Game-Physik. Leider haben die Entwickler der PhysX-PPU und nun auch Nvidia viel Wert auf aufgesetzte Effekt-Physik gelegt. Das wirkt meistens sehr unreif und passt oft nicht zum Spielgefühl. Das ist natürlich durch die geringe Verbreitung bedingt.
Aber man muss ja nicht auf Cuda setzen. Wenn sich alle an einen Tisch setzen, dann lassen sich sicher auch über andere Wege die Novodex-Routinen ansprechen. Nur müsste dann jeder ein Nvidia-Produkt nutzen. Allerdings muss man ganz fair sagen: PhysX war lange Zeit da und jeder hatte die Möglichkeit sie zu kaufen. Nvidia hats eben getan.
Es wird sich zeigen müssen, ob die Leute PhysX links liegen lassen, sobald es alternativen gibt. Ich würde nicht darauf wetten, zu unsicher der Markt.
Hängt die Zukunft von 'Physics' nicht hauptsächlich von MS ab?
Was ist eigentlich aus dem Jobangebot geworden? ^^
http://techreport.com/discussions.x/10212
Winter[Raven]
2008-12-12, 12:58:25
Eben.. wenn überhaupt müsste er von CUDA sprechen.
PhysX aka Novodex ist eine sehr potente Physik-Engine, die erstmal jemand nachmachen muss. Sie ist nicht perfekt, aber wer immer ein Konkurrenzprodukt bringen will (mit Blick auf Microsoft), der hat doch einiges an Arbeit zu tun.
Warum sollte man also diese Engine verwerfen? Es gibt eine ganze Menge an Spielen die sie nutzen (auch Konsole). Gerade die Spiele ohne GPU/PhysX-HW Support zeigen meist überraschend gute Game-Physik. Leider haben die Entwickler der PhysX-PPU und nun auch Nvidia viel Wert auf aufgesetzte Effekt-Physik gelegt. Das wirkt meistens sehr unreif und passt oft nicht zum Spielgefühl. Das ist natürlich durch die geringe Verbreitung bedingt.
Aber man muss ja nicht auf Cuda setzen. Wenn sich alle an einen Tisch setzen, dann lassen sich sicher auch über andere Wege die Novodex-Routinen ansprechen. Nur müsste dann jeder ein Nvidia-Produkt nutzen. Allerdings muss man ganz fair sagen: PhysX war lange Zeit da und jeder hatte die Möglichkeit sie zu kaufen. Nvidia hats eben getan.
Es wird sich zeigen müssen, ob die Leute PhysX links liegen lassen, sobald es alternativen gibt. Ich würde nicht darauf wetten, zu unsicher der Markt.
Mit EA und 2K Games hat Nvidia zwei Publisher die PhysX unterstützen werden.
Hängt die Zukunft von 'Physics' nicht hauptsächlich von MS ab?
tut es nicht...
PhysX aka Novodex ist eine sehr potente Physik-Engine, die erstmal jemand nachmachen muss. Sie ist nicht perfekt, aber wer immer ein Konkurrenzprodukt bringen will (mit Blick auf Microsoft), der hat doch einiges an Arbeit zu tun.
open source wird sich durchsetzen (tut es jetzt schon nur klingt physx beim marketing besser....)
;6972231']Mit EA und 2K Games hat Nvidia zwei Publisher die PhysX unterstützen werden.
Das alles nützt uns nur nichts, so lange sich diese auf nvidia Hardware beschränkt. Damit schließen sie schonmal, sagen wir mal 60% des Marktes von anfang an aus.
Wenn es eh die CPU berechnen darf, brauche ich PhysX nicht wirklich, da kann auch eine eigene Physikengine die aufgabe erfüllen.
Sinnvoll ist es für mich als Spieler erst dann, wenn ich irgendeinen Vorteil davon habe. Dazu bedarf aber wesentlich komplexere Berechnungen, die mir bisher kein anderes Spiel bieten kann (GPU only).
Andererseits will ich das auch nicht umbedingt, denn irgendwo muss die geforderte Rechenleistung auch herkommen und ich mag nur ungern die 3D-Grafik herunterschrauben um bessere Physikeffekte zu bekommen.
Das alles steckt noch viel zu sehr in den Kinderschauen, ich rechne durchaus damit, das Microsoft oder OpenCL da ein wenig frischen Wind reinbringen. Als Unternehmer investiere ich natürlich eher in Dinge, die fast jeder nutzen kann und halte mich von Risikoinvestitionen zurück.
Vielleicht stellt sich das Problem was wir heute haben aber auch gar nicht. Erstmal sehen was Intel abliefern wird... und andererseits wäre eine 8-Core CPU jetzt auch nicht mehr so weit weg, da hätten wir im gegensatz schon wieder wesentlich mehr Spielraum. Man stelle sich vor, vier Kerne für das Grundspiel, vier weitere allein für die Physik... und da bis dahin ja auch Takt/Rohleistung gestiegen ist, schafft das erstmal freiräume.
open source wird sich durchsetzen (tut es jetzt schon nur klingt physx beim marketing besser....)
Welche Open-Source-Physik-Engine mit GPU Support kennst du denn? ODE sicher nicht. Überhaupt ist Open Source wohl allermeistens GPL-Code, das kannst du nicht für kommerzielle Spiele einsetzen ohne den kompletten Code offen zu legen.
Viele sollten wirklich mal zwischen Physik-Engine und GPGPU unterscheiden. PhysX wäre wenn es nötig wird sehr schnell von CUDA auf OpenCL portiert.
Das alles nützt uns nur nichts, so lange sich diese auf nvidia Hardware beschränkt.
wie oft denn noch? PhysX ist nicht auf Nvidia-hardware beschränkt sondern läuft auf zig verschiedenen plattformen ua. auch auf x86 und cell.
nvidia-hardware ermöglicht lediglich eine beschleunigung von PhysX, laufen wird es auf anderer hardware auch nur unter umständen eben nicht so schnell.
Hier wird es bald ernst: die reinste PhysXorgie =)
http://www.shatteredhorizon.com/
http://trailers.gametrailers.com/gt_vault/10127/t_shatteredhorizon_gc2k8_debut_h264.wmv
wie oft denn noch? PhysX ist nicht auf Nvidia-hardware beschränkt sondern läuft auf zig verschiedenen plattformen ua. auch auf x86 und cell.
nein Gast, es geht um den Hardware support! Das ist es, worum es den meisten geht.
Du hast dir das doch gerade selbst klar gemacht: PhysX läuft auf mehreren Plattformen,volle leistungsfähigkeit jedoch nur bei GPU Support. Und ohne GPU Support ist es nur eine Physikengine von vielen. Schon vor 10, 20 Jahren hatten wir Physikberechnungen durch die CPU, wo ist also die Neuheit?
Eben das ist es, was uns überhaupt nicht interessiert. Etwas was auf der CPU laufen soll, kann auch nicht die vorteile die eine GPU bietet nutzen.
Simon
2008-12-12, 15:54:33
Welche Open-Source-Physik-Engine mit GPU Support kennst du denn?
Bullet.
Überhaupt ist Open Source wohl allermeistens GPL-Code, das kannst du nicht für kommerzielle Spiele einsetzen ohne den kompletten Code offen zu legen.
Bullet und ODE stehen nich unter GPL. Gibt noch andere.
Etwas was auf der CPU laufen soll, kann auch nicht die vorteile die eine GPU bietet nutzen.
Kannst du das bitte näher ausführen? Ergibt so für mich keinen Sinn, da eine CPU alles berechnen kann.
Bullet.
Quelle? Finde ich nichts dazu.
Bullet und ODE stehen nich unter GPL.
Stimmt. Gar nicht so übel.
Gibt noch andere.
Und die kommen natürlich alle an die Qualität von Havok und PhysX ran? Bullet sieht aber wirklich gut aus.
/trunk/extras/cuda ;)
wird aber eh durch opencl ersetzt...
Kannst du das bitte näher ausführen? Ergibt so für mich keinen Sinn, da eine CPU alles berechnen kann.
Du weißt wie es gemeint ist und es macht den größten Sinn den du dir vorstellen kannst, sonst hätte es die PhysX Hardware nie gegeben.
Der Sinn war nunmal die Physikengine so zu gestalten, das sie gebrauch von der Rechenleistung einer GPU/Standalone Karte machen kann um so komplexere Berechnungen durchführen zu können.
Alles auf die CPU auslagern geht nur dann, wenn die Komplexität der Berechnung nicht zu hoch ist, da diese noch für andere Aufgaben benötigt wird.
Wenn allerdings >immer< die CPU ausreichen würde, welchen Sinn machen dann noch diese Hardwarelösungen? Sie wären in diesem Fall verschwendet.
Wir sehen es ja schon jetzt: Videoencoding kann von der CPU erledigt werden, aber auch von der GPU und diese ist zT deutlich schneller dabei. Hier ergibt sich für mich ein Vorteil, eine geringere Wartezeit.
Nun möchte ich natürlich auch einen Vorteil bei dieser Physikgeschichte sehen. Wenn die Berechnungen nicht komplexer werden und die CPU jederzeit ausreichend ist, brauche ich diese Technologie ganz einfach nicht.
Wenn allerdings >immer< die CPU ausreichen würde, welchen Sinn machen dann noch diese Hardwarelösungen?
mehr fps und/oder mehr details für die hardwarelösung.
mehr fps und/oder mehr details für die hardwarelösung.
Wie kommst du auf "mehr fps"?
Wenn du die GPU zur Berechnung dieser aufgaben nutzt, geht natürlich einiges an Rechenleistung allein für die Physik drauf, das 3D-Bild muss jetzt aber auch noch berechnet+dargestellt werden.
Wenn ich nun 95+% der Rechenleistung der GPU nur für die 3D Grafik aufwende, bleibt wenig-gar nichts für weitere Berechnungen über. Das kann mir in einigen Fällen egal sein (>60 fps), aber in den aktuellen anwendungen nunmal nicht (<30-40fps).
Bei der CPU ist es ja nun leider so, das viele Cores oft noch im Tiefschlaf verweilen, weil die Anwendungen damit nichts anzufangen wissen. Um das gleiche nun auf der GPU zu erledigen, brauche ich entweder mehrere GPU's im Rechner, eine Standalone Lösung oder ich Freunde mich mit Performanceverlusten an. Eigentlich möchte ich davon gar nichts. ;)
wenn die physik aufwändig genug ist, dass sie der GPU nennenswert renderleistung klaut, limitiert ohne hardware-physX garantiert die CPU. dadurch gibt es logischerweise mit hardware-physX eine höhere framerate, da das cpu-limit nicht mehr vorherrscht oder zumindest geringer ist.
=Floi=
2008-12-12, 22:37:03
spätestens mit der nächsten generation an grafikkarten ist das ganze dann wieder schlichtweg egal. NV wird schon genug rechenleistung verbauen...
spätestens mit der nächsten generation an grafikkarte ist das ganze dann wieder schlichtweg egal. NV wird schon genug rechenleistung verbauen...
Das sagst du jetzt so, aber wann hatten wir jemals "zu viel" Leistung über? :)
Selbst als die Performancebomben released wurden, haben einige diese Leistung gleich in mehr Qualität umgemünzt und nicht viel später musste dann schon wieder langsam heruntergeschraubt werden.
Diese aussage basiert dann auch nur auf aktuellem stand. wir müssen da den fortschritt bei den ausgabegeräten auch noch mit berücksichtigen (in 2560 zocke ich immer noch nicht). Und selbst dann kommen noch neue Technologien dazu. Also alles noch sehr unklar bis jetzt.
Ich könnte mir aber vorstellen, das so etwas vielleicht durch einen spezialisierten chip realisiert wird, der braucht ja nicht ganz so leistungsfähig zu sein.
Simon
2008-12-13, 17:24:30
Quelle? Finde ich nichts dazu.
Ist recht neu (http://www.bulletphysics.com/Bullet/wordpress/).
Und die kommen natürlich alle an die Qualität von Havok und PhysX ran?
Eher nicht.
Bullet wurde in etlichen Spielen eingesetzt, u.a. bei Rockstar.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.