Archiv verlassen und diese Seite im Standarddesign anzeigen : Ageias PhysX - Physik-Prozessor
Slipknot79
2006-04-20, 10:29:54
wer hat dir den blödsinn erzählt, die karte kann sicher nicht alles aber fahrzeuge etc. sollte zu den leichtesten übungen gehören.
Stimmt, habe nochmals nachgeschaut. Bilde mir ein gelesen zu haben dass das nicht geht oO
Universal collision detection
Finite element analysis
Soft body dynamics
Fluid dynamics
Hair simulation
Clothing simulation
Nightspider
2006-04-28, 20:11:38
Erste Comment's von PPU-Besitzern:
http://www.gamestar.de/news/hardware/33172/
Aber an sich nix neues...
TheCounter
2006-04-28, 21:43:41
Also die Fluid Physics in Cell Factor sind schon der Hammer. Was aber wirklich übelst genial ist, ist die Clothing Simulation.
Die Karte is echt genial :up:
Ronin2k
2006-04-28, 22:02:02
wo gibt es das zu sehen? :)
TheCounter[/POST]']Also die Fluid Physics in Cell Factor sind schon der Hammer. Was aber wirklich übelst genial ist, ist die Clothing Simulation.
Die Karte is echt genial :up:
dildo4u
2006-04-28, 22:03:42
Ronin2k[/POST]']wo gibt es das zu sehen? :)Auch im Cell Faktor Movie da wird so eine große Fahne durchbort.
Nightspider[/POST]']Erste Comment's von PPU-Besitzern:
http://www.gamestar.de/news/hardware/33172/
Aber an sich nix neues... Auf Grund der Größe des Dies scheint es durchaus möglich sein, den PPU-Adapter zu übertakten.Was zum Teufel hat die Größe des Dies mit der Übertaktbarkeit zu tun? Gibt es da etwas, das ich wissen sollte oder ist das nur übliches Lamestar-Gebrabbel?
Bokill
2006-04-28, 23:35:25
das ist bla bla ... wenn Halbleiterfertigung doch nur so einfach wäre ...
Slipknot79
2006-04-29, 00:03:52
TheCounter[/POST]']Also die Fluid Physics in Cell Factor sind schon der Hammer. Was aber wirklich übelst genial ist, ist die Clothing Simulation.
Die Karte is echt genial :up:
Also die fluids sind eindeutig übertrieben^^, der gegner scheint ja nur aus blut zu bestehen, und eigentlich besteht der sogar aus mehr blut als in ihn eigentlich reinpasst ohne organe knochen usw, und dann sieht das nicht mal "realistisch" aus wenns rausfliessst^^
tombman
2006-04-29, 01:21:38
Also das Cellfaktor Movie = :eek:
Wenn man die PPU ordentlich einsetzt (und da ist Cellfaktor erst der ANFANG), wirds ne kleine Revolution :)
Funktioniert das Ganze auch ohne die Hardware? Ich meine, nur für den Fall, daß Ageia keinen Erfolg mit ihrer Karte haben sollte...
Wäre sehr schade, wenn sie den Kuchen im Physikbereich ganz alleine Havok überlassen, zumal in deren Engine ein gutes Stück Europäisches Know How enthalten ist.
Siehe Meqon (http://www.meqon.com/).
Android
2006-05-02, 13:51:32
Gmax[/POST]']Funktioniert das Ganze auch ohne die Hardware? Ich meine, nur für den Fall, daß Ageia keinen Erfolg mit ihrer Karte haben sollte...
Wäre sehr schade, wenn sie den Kuchen im Physikbereich ganz alleine Havok überlassen, zumal in deren Engine ein gutes Stück Europäisches Know How enthalten ist.
Siehe Meqon (http://www.meqon.com/).
Ja, geht auch ohne. Ist aber weitaus schlechter als die dedizierte Hardware-Variante.
Ich wünsche Ageia nur das Beste und hoffe, das es bald viele Spiele mit einer passenden Unterstützung gibt, wobei mit Unreal Tournament 2007 sicher der wichtigste Partner bisher gewonnen ist.
Natürlich sind die Effekte in den Cell Factor-Movies übertrieben. Aber es soll ja auch JEDEM auffallen, wie gut die Effekte berechnet werden. Und was dort gezeigt wird, is meiner Meinung nach schon ein ziemlicher Knaller.
Bleibt nur zu hoffen dass Ageia-Karten auch recht schnell nach Erscheinen der passenen Spiele billiger werden, weil das ja im Grunde fast nochmal ne gute Mittelklassen-Grafikkarte wäre (vom Preis her)...
Rebell
2006-05-02, 16:51:01
Natürlich sind die Effekte in den Cell Factor-Movies übertrieben. Aber es soll ja auch JEDEM auffallen, wie gut die Effekte berechnet werden. Und was dort gezeigt wird, is meiner Meinung nach schon ein ziemlicher Knaller.
Genau das finde ich nicht. 1000nde Kisten ... langweilig..
Viel interessanter wird es, wenn so ne Karte zur Berechnung von Stoff, Folien, Flüssigkeiten, Metall wird verbogen usw.. eingesetzt wird.
Auf viele gleichzeitige bewegliche Objekte kann ich verzichten
Ich meinte doch auch die anderen Dinge. Die Kisten finde ih von der Anzahl her spannend und vo allem als spielerisches Element (um andere plattzuwalzen ^^), aber ich bezog mich auch eher auf die riesigen Stoffbanner oder den rosa Gelee aus dem Video. Wenn der nicht übertrieben ar, weiß ich auch nicht... aber es sieht halt gu aus :)
tombman
2006-05-03, 18:26:42
in der neuesten C´T ist ein performance Vergleich drinnen. Nichts ist so schnell wie die PPU mit 32000 Objekten. Außerdem kann die PPU gameplay verändern, havoc FX nur Effekte. Eine dual-core allein ist überhaupt zu schwach um nennenswert groß was zu ändern.
Ich wünsche Ageia wirklich, daß sich die Karte durchsetzt, aber BITTE per pci-e und nicht pci.
Tja.. da ich im Moment wie nen Verrückter die Demo von GRAW zogge und die Vollversion hier die Tage eintrudelt hat mein Dealer schon fünf Asus-Kärtchen für seine Lieblingskunden (unter anderem für sich selbst) in Rückstand genommen. Der Größhändler spricht von "noch zwei Wochen" und Asus zeigt die Dinger schon auf Schulungen, sprich mein Dealer hat schon eine in der Hand gehabt....
Ick freu mich drauf :-)
Bokill
2006-05-03, 18:59:53
tombman[/POST]']in der neuesten C´T ist ein performance Vergleich drinnen. Nichts ist so schnell wie die PPU mit 32000 Objekten. Außerdem kann die PPU gameplay verändern, havoc FX nur Effekte. Eine dual-core allein ist überhaupt zu schwach um nennenswert groß was zu ändern.
Ich wünsche Ageia wirklich, daß sich die Karte durchsetzt, aber BITTE per pci-e und nicht pci. Kann ich nur rot und fett unterschreiben :)
MFG Bobo
dilated
2006-05-03, 19:23:42
ich dachte da geht mehr (video von graw)wobei die tester ja meinten
in der "demo" is es besser umgesetzt
finde die idee auch nicht schlecht aber würde das ganze mit auf die graka packen(platz is kein argument ne karte brauch mehr platz)
zur not eben sone aufsteckkarte wie bei älteren tv tuner grakas
gleich mal nen kritikpunkt zum graw(nicht das das jeder so macht, fänd ich schrecklich umgesetzt)
wenn ich keine karte habe brauch ich auch kein treiber
(der mitinstalliert werden muss),
den hol ich mir schon selber wenn ich sone karte hab
Avalox
2006-05-03, 19:57:39
tombman[/POST]']in der neuesten C´T ist ein performance Vergleich drinnen.
Ja der Artikel ist interessant.
"erreichte die Havok FX eine Bildrate von 64,5 fps. Im Demorechner waren zwei von Nvidias schnellsten Grafikkarten (GF7900GTX Anm.) installiert, wobei eine für Grafik und die zweite ausschließlich für die Physikberechnung zuständig war. Überließ man die Physikberechnung der DualCore CPU des Demo Rechners, sank die Bildrate auf 6,5 fps."
Havok auf Grafikkarten ist scheinbar doch ein ganz schöner Aktionismus, um den PPU Herstellern nicht Kampflos das Feld zu überlassen. An die Leistung der Ageia PhysX kommt jedenfalls auch keine Physik only Grafikkarte heran.
Der Vorteil der PhysX vor aktuellen DualCore CPUs wird um den Faktor 1066 bis 320 angegeben und immer noch um viele Faktoren vor einen Physik on GraKa only Lösung.
Um bei einen Zitat des c't Artikels zu bleiben..
"Schon einmal hat eine rund 500DM teure Zusatzkarte eine neue Ära für PC-Spiele ausgelöst"
Slipknot79
2006-05-03, 20:03:44
>erreichte die Havok FX eine Bildrate von 64,5 fps.
? Meinst du nicht eher die Ageia Physx?
Das was du weiter zitierst, ist ja eigentlich erst Havok FX, also Physik@GPU.
€dit: Axo check schon, da gehts ned um den Vgl zu einer Physix^^
Dachte du meinst, dass die Phsix Ageia 65fps erreicht und ein vergleichbares System mit Havok FX 6,5fps erreicht^^
Jetzt frage ich mich, wie der Vgl zu einer Physx Karte aussehen würde^^
Avalox
2006-05-03, 20:18:50
Slipknot79[/POST]] Axo check schon, da gehts ned um den Vgl zu einer Physix^^Jetzt frage ich mich, wie der Vgl zu einer Physx Karte aussehen würde^^
Läuft natürlich nicht. Wäre vermutlich auch nicht besonders aufschlussreich.
Die mögliche Komplexität wird in der c't bei PhysX mit 32000 komplexen Objekte beziffert, bei Havok nVidia und dem Gegenstück ATI DPP-Layer mit einige wenigen 1000 (Bei Verwendung einer Spitzengrafikkarte nur für die Physik wohlgemerkt).
Slipknot79
2006-05-03, 20:35:02
Naja, werd mir mal morgen die ct reinziehen oO
tombman
2006-05-03, 20:35:43
neben der reinen Leistung ist für mich aber PPU vorallem wegen der GAMEPHYSIK Veränderung wichtig- im Gegensatz zu reiner Effekt-Physik von Havok FX...
Beispiel GRAW: ich finde es ziemlich lächerlich, daß ich mich hinter einer 5cm "dicken" Betonwand vor einen Panzerbeschuß decken kann, der Panzerfahrer mich aber sofort entdeckt wenn ich meine Nase 5 Pixel aus der Deckung hervorhebe. In echt sollte mich der praktisch gar ned sehen, falls aber doch mich zum Erdkern bomben ;D
Physik ist DAS große Next-Gen Thema imo, aber nur wenn es gameplay verändert.
In der neuesten PCGames gibts Videos von John Woos "Stranglehold" game (Chao Yun Fat ;D), wo man die ganze Deckung wegballern kann.
"Crysis" wird ebenfalls total viel Zerstörung zulassen, zb mit nem Laster mal eben in ne Hütte reindonnern und die platt machen, oder mal nen Baum fällen und jemanden erschlagen damit ;D
p.s, mein Traum wäre ja mit nem Jet in ein Hochhaus rein und dieses zum fetten Einsturz bringen :naughty: Mit PPU sicher kein Problem ;D
(Zitat Rambo: "Sieg durch Zerstörung" :cool: )
Avalox
2006-05-03, 21:00:35
tombman[/POST]']Physik ist DAS große Next-Gen Thema imo, aber nur wenn es gameplay verändert.
Ich glaube in der vorletzten c't war ein Artikel zu heutigen Game KIs. Dort ist auch ein riesiges Potential vorhanden. Dedizierte Hardware wird dann ebenfalls wieder benötigt. Heute sind die Ansätze doch arg begrenzt.
Endlich mal nicht auf Online Spiele angewiesen zu sein, um mal eine ordentliche Interaktion zu haben, dass wäre doch auch mal was. Die Rückkehr der Story.
hofmetzger
2006-05-03, 21:25:57
A propos C't. Die hat ja auch darauf hingewiesen, dass bei Onlinespielen eigentlich nur der Server eine PPU benötigt. Klar, denn zumindest die Gameplayphysik muss ja bei allen Teilnehmern konsistent sein. Nun müssten aber alle relevanten Daten mit über die Leitung, wenn also 100 Kisten durch die gegend fliegen, müssen position, lage und geschwindigkeit an alle Clients übermittelt werden... Ich frage mich ob das "usable" ist.
Falls die Bandbreite hier kein Problem darstellt, sehe ich aber großes Potential für PPUs, die dann zumindest in den Servern zum Einsatz kommen. Vielleicht reicht es ja bei UT2007, wenn nur ein Rechner im LAN eine PPU besitzt.
tombman
2006-05-03, 21:28:07
Avalox[/POST]']Ich glaube in der vorletzten c't war ein Artikel zu heutigen Game KIs. Dort ist auch ein riesiges Potential vorhanden. Dedizierte Hardware wird dann ebenfalls wieder benötigt. Heute sind die Ansätze doch arg begrenzt.
Endlich mal nicht auf Online Spiele angewiesen zu sein, um mal eine ordentliche Interaktion zu haben, dass wäre doch auch mal was. Die Rückkehr der Story.
Also ich denke der zweite core einer dual core cpu wäre dafür doch ideal. Sollte von der Leistung locker reichen. SLi/CF machen die Grafik und die PPU die Physik -> schöne Arbeitsteilung und abartig gute Ergebnisse :)
Avalox
2006-05-03, 21:52:54
tombman[/POST]']Also ich denke der zweite core einer dual core cpu wäre dafür doch ideal. Sollte von der Leistung locker reichen. SLi/CF machen die Grafik und die PPU die Physik -> schöne Arbeitsteilung und abartig gute Ergebnisse :)
Ich denke nicht, dass ein zweiter Kern reicht. Es ist doch so, dass alles was mit einem Kern nicht funktioniert, auch nicht mit einem Zweiten machbar ist.
Ein zweiter Prozessorkern ist kein Quantensprung. Es führt zu einer praktischen Verbesserung im Detail. Die erreichbaren Leistungsunterschiede sind nicht so gewaltig, dass neue Türen geöffnet werden. Die c't schreibt ja selbst, dass eine bessere KI zu komplex ist um in heutigen Spielen Verwendung zu finden. Es gibt ja auch den Ansatz neuronale Netze auf GPUs rechnen zu lassen, mit einem deutlichen Vorsprung vor heutigen CPUs. Wenn auch mit anderen Hintergrund.
Wir können ja mal (technische) Quantensprünge der Spielesoftware aufschreiben und sehen, welche Unterschiede in der Rechnerausstattung notwendig waren um diese zu ermöglichen. Das dürfte ja eine gewisse Ableitung erlauben.
Physik-Schnittstelle für DirectX in Planung
http://www.gamestar.de/news/software/33227/
tombman
2006-05-03, 22:10:23
Avalox[/POST]']Ich denke nicht, dass ein zweiter Kern reicht. Es ist doch so, dass alles was mit einem Kern nicht funktioniert, auch nicht mit einem Zweiten machbar ist.
Ein zweiter Prozessorkern ist kein Quantensprung. Es führt zu einer praktischen Verbesserung im Detail. Die erreichbaren Leistungsunterschiede sind nicht so gewaltig, dass neue Türen geöffnet werden. Die c't schreibt ja selbst, dass eine bessere KI zu komplex ist um in heutigen Spielen Verwendung zu finden. Es gibt ja auch den Ansatz neuronale Netze auf GPUs rechnen zu lassen, mit einem deutlichen Vorsprung vor heutigen CPUs. Wenn auch mit anderen Hintergrund.
Wir können ja mal (technische) Quantensprünge der Spielesoftware aufschreiben und sehen, welche Unterschiede in der Rechnerausstattung notwendig waren um diese zu ermöglichen. Das dürfte ja eine gewisse Ableitung erlauben.
Aber du hast doch sicher das Diagramm in der C´T gesehen wieviel Prozessorzeit derzeit nur für die KI draufgeht (15%). Und damit sind immerhin so gute Lösungen wie in FEAR möglich. Jetzt stell dir mal vor, wenn die KI plötzlich einen ganzen core für sich alleine hätte (100%) :naughty: -> absolut ausreichend ;)
Für KI geht dedizierte Hardware auch so gut wie nicht, weil die Ansätze in jedem Spiel grundverschieden sind.
tombman[/POST]']Aber du hast doch sicher das Diagramm in der C´T gesehen wieviel Prozessorzeit derzeit nur für die KI draufgeht. Und damit sind immerhin so gute Lösungen wie in FEAR möglich. Jetzt stell dir mal vor, wenn die KI plötzlich einen ganzen core für sich alleine hätte :naughty: -> absolut ausreichend ;)
Mach dir keine Sorgen, dass die KI nicht ausreichend Rechenleistung benötigt. Da gibts noch genügend Möglichkeiten. :comfort:
Es gibt ja auch den Ansatz neuronale Netze auf GPUs rechnen zu lassen, mit einem deutlichen Vorsprung vor heutigen CPUs. Neuronale Netze würde ich nicht überbewerten. Die Dinger lassen sich einfach zu schlecht debuggen. Solange man relativ wenig damit steuern muss (z.B. Rennspiel Gas, Bremse, links, rechts) ists ok. Für komplexere Dinge wirds aber irgendwann leicht "magic".
Avalox
2006-05-03, 22:34:51
tombman[/POST]']Aber du hast doch sicher das Diagramm in der C´T gesehen wieviel Prozessorzeit derzeit nur für die KI draufgeht (15%). Und damit sind immerhin so gute Lösungen wie in FEAR möglich.
Ich denke nicht, dass Fear ein gutes Beispiel ist. Die Taktiken der Gegner sind ja fest. Die Interaktionsmglichkeiten mit der Umgebung ist sehr gering. Suche Deckung, mache was zur Deckung, missachte Befehle und rette dich selbst.
Ein taktisches vorgehen wirst du nicht finden, ist im diesem Spiel mit den engen Räumen vielleicht auch nicht notwendig. zudem ist es illusorisch anzunehmen, dass die Rechenleistung eines Kerns in Zukunft für eine erweiterte KI aufgebracht wird, denn sonstige CPU lastige Ansprüche des Benutzers steigen ja mit und wenn es nur schöne Schatten einer komplexeren Spielewelt oder ähnliche Nichtigkeiten sind.
Wirklich schön sieht man das Defizit der KI in RTS Spielen. Denkst du, dass die jetzige (oder Herbstige) DC Generation ein entsprechendes RTS Spiel auf dem Markt hervorbringen wird, indem der Computer mal annehmbar unter gleichen Grundvoraussetzungen spielt? Vielleicht könnte man in solchen Spielen mal endlich eine vernünftig funktionierende Wegfindung spendieren. Na mal sehen, vielleicht mit Intels prognostizierter 1024 Kern CPU.
Avalox[/POST]']Ich denke nicht, dass Fear ein gutes Beispiel ist.
Fear ist ein gutes Beispiel, da sie (fast) keine State Machines mehr nutzen und alles durch ein Produktionssystem geplant wird. Gerade die Squadkommunikation von Fear ist aber noch stark verbesserungswürdig. Da arbeiten die aber schon dran.
Wirklich schön sieht man das Defizit der KI in RTS Spielen. Denkst du, dass die jetzige (oder Herbstige) DC Generation ein entsprechendes RTS Spiel auf dem Markt hervorbringen wird, indem der Computer mal annehmbar unter gleichen Grundvoraussetzungen spielt?
RTS-Spiele sind für den Massenmarkt mit schlechter Hardware. Da die Netzwerker dort fast immer von KI verlangen, dass sie auf allen Systemen deterministisch ist, kriegt man dort als Richtlinie vielleicht mal 10% Rechenzeit der Minimalanforderung verordnet.
Vielleicht könnte man in solchen Spielen mal endlich eine vernünftig funktionierende Wegfindung spendieren. Na mal sehen, vielleicht mit Intels prognostizierter 1024 Kern CPU. Das ist eher ein algorithmisches Problem als eins mit der Rechenzeit.
tombman
2006-05-03, 23:02:28
Die heutige KI reicht immerhin aus die immersiveness nicht sonderlich zu stören. Btw, in FEAR gibt es sehr wohl Taktik, sie versuchen dich zu umgehen und von hinten anzugreifen(wenn der Platz/Raum groß genug ist). Dh, mit dual core KI reicht die Leistung auch in Zukunft aus die KI in dem Maße zu verbessern wie unsere Ansprüche steigen, und mehr ist ja nicht nötig ;)
Stell dir vor, ein game hätte eine menschenähnliche KI-> gameplay wäre VIEL zu schwer, denn wie solltest du bitte gegen 20 Gegner bestehen wenn diese annähernd so gut denken können wie du? PC Gegner MÜSSEN blöder als du sein, sonst kannst DU kein Held sein ;) (außer du hast eine Laserwaffe und Tarnanzug und die Gegner Pfeil und Bogen ;D;D)
dildo4u
2006-05-03, 23:03:30
Video Vergleich mit Ghost Recon 3
http://www.fileshack.com/file.x?fid=8734
http://www.fileshack.com/file.x?fid=8735
tombman
2006-05-03, 23:18:15
dildo4u[/POST]']Video Vergleich mit Ghost Recon 3
http://www.fileshack.com/file.x?fid=8734
http://www.fileshack.com/file.x?fid=8735
Gibts noch andere server? Weil langsamer als fileshack geht nimmer...(10k)
Slipknot79
2006-05-03, 23:22:02
http://www.fileshack.com/file.x?fid=8746
kA ob das Video was kann? oO Mal runterladen^^
m.sch
2006-05-03, 23:49:48
Was ist denn nun mit AiSeek (http://www.aiseek.com/Demos.html)
Der Intia Processor sollte doch mal für alle Charaktere im Game aufkommen,solche Games würden sehr realistisch wirken.
Oder kann man das Teil abschreiben.
tombman
2006-05-04, 00:02:45
ok, hab das erste GRAW Vergleichsvideo gesehen .-> lol, wegen den paar schlappen "dunklen" Trümmer/Blätter/Pollen/whatever eine PPU? Is ein Witz, oder?
Bringts ja voll nicht...
Da ist das Cellfaktor Movie 1 Million mal besser....
G!ZMo
2006-05-04, 00:23:21
tombman[/POST]']Gibts noch andere server? Weil langsamer als fileshack geht nimmer...(10k)
also bei mir macht der 450k...
vielleicht sollteste dich ja mal reggen ;)
und damit mein post nich zu OT wird: irgendwie is das cell-factor-video geiler ;D
Mehrpack
2006-05-04, 08:01:38
tombman[/POST]']Die heutige KI reicht immerhin aus die immersiveness nicht sonderlich zu stören. Btw, in FEAR gibt es sehr wohl Taktik, sie versuchen dich zu umgehen und von hinten anzugreifen(wenn der Platz/Raum groß genug ist). Dh, mit dual core KI reicht die Leistung auch in Zukunft aus die KI in dem Maße zu verbessern wie unsere Ansprüche steigen, und mehr ist ja nicht nötig ;)
Stell dir vor, ein game hätte eine menschenähnliche KI-> gameplay wäre VIEL zu schwer, denn wie solltest du bitte gegen 20 Gegner bestehen wenn diese annähernd so gut denken können wie du? PC Gegner MÜSSEN blöder als du sein, sonst kannst DU kein Held sein ;) (außer du hast eine Laserwaffe und Tarnanzug und die Gegner Pfeil und Bogen ;D;D)
hi,
nunja ist denn jeder mensch gleich?
bloss weil eine KI lebensechter wäre, würde es ja nicht heissen das jeder gegenspieler nun einen doktoranten inne hat, wie man einen spieler fertig macht.
ausserdem gebe es dann immer noch die möglichkeit dumme masseneinheiten zu verwenden und/oder wenige sehr intelligente schwere gegner.
desweiteren dürfte auch das anpassen an die eigene spieleleistung bei einem guten ki system auch nicht so schwer sein.
und warum soviel masse, wie 20 oder mehr gegner, wird doch vorallen verwendet um eben eine stelle schwierig zumachen, nicht gerade weil man 2 einheiten so vom verhalten und dem aktionismus im spiel hinbekommen würde, das die stelle mit den 2 genauso schwer wäre.
@hofmetzger: gute frage, aber ich denke mal es ist nicht ganz so kritisch für die clients da es ja vorallen der relevant downstream ist, hauptsache der server ist gut angebunden.
aber es wäre auch die frage wieviel upstream man dabei dann noch benötigt, weil es muss ja dann auch zurück gemeldet werden welcher client nun von den kisten getroffen wurde um dann das weitere verhalten dieser zuberechnen.
Mehrpack
tombman
2006-05-04, 09:19:35
G!ZMo[/POST]']also bei mir macht der 450k...
vielleicht sollteste dich ja mal reggen ;)
und damit mein post nich zu OT wird: irgendwie is das cell-factor-video geiler ;D
jo, hab mir dann meine vergessenen (;D) log-in Daten per mail schicken lassen und dann gings eh über 400k ;)
und das mit cellf. hab ich eh auch schon gesagt ;)
tombman
2006-05-04, 09:26:50
Mehrpack[/POST]']hi,
nunja ist denn jeder mensch gleich?
bloss weil eine KI lebensechter wäre, würde es ja nicht heissen das jeder gegenspieler nun einen doktoranten inne hat, wie man einen spieler fertig macht.
Aber schau dir doch mal mp games an. 10 noobs machen einen top gamer in kurzer Zeit auch irgendwie tot, weil der Unterschied in der I. eben doch ned groß ist, schließlich spielt der top gamer immer noch gegen Menschen und ned gegen Affen ;D
Klar bin ich auch für mehr KI in games, aber dann müßten sie die Treffenquote oder andere Sachen verändern, weil gegen super-KI-bots wird man ned viele Chancen haben.
Ich würde mir sowas wie ein emotionales System wünschen, wo KI Gegner auch mal zögern oder menschlich irrational handeln-> das wär lustig ;)
Avalox@Gast
2006-05-04, 10:11:25
Na ja, Action Helden sind schneller, stärker oder haben einfach mehr Glück, aber intelligenter?
Na ja. Der Punkt ist doch, dass FPS Spiele als solches spielerisch sehr anspruchslos sind. Die eigenen Möglichkeiten (außerhalb von starken Skripten) der Einflussnahme sind ja momentan eher sehr gering. Läuft man links herum, oder rechts herum. Schiesst man aus der Waffe 1, oder aus der anderen.
Ich denke dort kann eine Spielablauf ändernde Physik doch eine erhebliche Verbesserung bringen. Auf welche du ja scheinbar auch schielst. Sind aber erstmal die Manipulationsmöglichkeiten da, dann wird der Spieler auch bald erwarten, dass die Gegner KI diese nutzt. Ich bin sicher, eines zieht das andere nach sich.
Erstmal war die Grafikdarstellung ein Problem. Es kamen Grafikunterstützer zur besseren Darstellung. Nun ist die Grafik gut und dem Spieler fällt immer mehr die mangelnde Interaktivität dieser Grafik auf, also kommen Interaktionsunterstützer (Physik). Ich denke, da ist der nächste Schritt nicht mehr weit. Dass nämlich die Interaktivität da ist, aber durch Computergegner nur unzureichend genutzt wird.
Warum wirft der Computergegner nicht einfach das Regal um? Warum schiesst er nicht unter dem Auto durch? Warum rollert ein Computergegner nicht irgend einen Gegenstand zur Ablenkung umher, während er sich durch die Dunkelheit von hinten schleicht. Usw.
Die Menge an möglichen Aktionen, bedingt dass die Aktionsstränge in ihren Variationen einen immer grösseren Baum ergeben, dessen Konsequenzen die KI im Vorfeld abschätzen muss, um die passende Maßnahme auszuführen.
Ein FPS ist dann gut, wenn es nicht mehr um schnellste Mausbewegungen und gezielte Sprünge geht. Dann wenn der FPS ein automatisches Zielsystem hat und Bewegungshinweise oder Unterstützung gibt und dann trotzdem noch herausfordernd ist, dann ist die nächste Generation dieser Spiele da.
Neomi
2006-05-04, 12:06:16
Avalox@Gast[/POST]']Ich denke, da ist der nächste Schritt nicht mehr weit. Dass nämlich die Interaktivität da ist, aber durch Computergegner nur unzureichend genutzt wird.
Grafik profitiert durch spezialisierte Hardware, weil es im Grunde immer wieder die gleichen speziellen Berechnungen sind. Physik ist ebenfalls eher speziell und kann deshalb auch von spezieller Hardware profitieren. Auch sehr abgedrehte Grafik- und Physikspielereien basieren auf den gleiche Regeln und nutzen die gleichen Algorithmen.
Bei KI sieht das ein klein wenig anders aus. Es gibt zwar einzelne KI-Bereiche, die von spezialisierter Hardware profitieren könnten, aber KI kann alles mögliche sein. Eine Hardware, die für jede Art von KI schneller ist als eine CPU, ist für jede Art von Berechnung schneller als eine CPU. Und was ist an dieser Hardware dann noch spezialisiert? Richtig, nichts. Sie ist nicht schneller als eine CPU, sondern eine schnellere CPU.
tombman
2006-05-04, 12:25:46
ich glaub auch nicht daran, daß es jemals KI-hardware geben wird. Die KI wird eher auf multi-cores gerechnet. Jetzt haben wir dual-core, aber schon 2007 quad-core. Und wenns mal 16cores gibt oder 64, könnte jeder NPC seinen eigenen core haben :cool:
dilated
2006-05-04, 17:03:11
tombman[/POST]']ok, hab das erste GRAW Vergleichsvideo gesehen .-> lol, wegen den paar schlappen "dunklen" Trümmer/Blätter/Pollen/whatever eine PPU? Is ein Witz, oder?
Bringts ja voll nicht...
Da ist das Cellfaktor Movie 1 Million mal besser....
sagte ich ja schon....wo gibts denn das cell movie, oder andere "gute":)
Slipknot79
2006-05-04, 17:19:40
dilated[/POST]']sagte ich ja schon....wo gibts denn das cell movie, oder andere "gute":)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4212204&postcount=242
Es haben einige Leute anscheinend schon eine PhysX karte.
Hier kann man sich erste Eindrücke durchlesen (english)
http://forums.overclockers.co.uk/showthread.php?t=17568825
Es scheint so das entweder Ghost Recon Advanced Warrior
die PhysX unterstützung schlecht implementiert hat
oder das hier ein weiterer Hype auf den Boden der Tatsachen zurückgeholt wird.
Denn sobald die PPU aktiv war fiel die Framerate drastisch in den Keller.
Was manchen nicht bedacht haben, fressen die zusätzluch dargestellten Objekte
richtig viel Grafikpower.
P.S. Auf Seite 3 gibt es Vidoaufnahmen mit eingeschlteter PPU und ohne.
Avalox
2006-05-04, 19:48:09
Gast[/POST]']Denn sobald die PPU aktiv war fiel die Framerate drastisch in den Keller.
Ich verstehe immer die Denke nicht. Dachten denn so einige, dass die Framerate explodiert?
Wie sollte dieses zustande kommen? Es gibt ja kaum Physik in heutigen Spielen. Also was soll der Beschleuniger, dann beschleunigen um dass die Framerate massiv steigt? So schnell kann kein Beschleuniger sein, dass dieser die Geschwindigkeit einer sonst nicht vorhandenen Funktion erreicht.
Das ist wie beim Spielesound. Komplexer Sound ist nicht vorhanden, wo soll da die Leistungssteigerung von Audiobeschleunigern herkommen?
Die Ageia PhysX API sollte mal das Umschalten in eine Software Emulation ermöglichen, damit wären dann Vergleiche besser möglich und sicherlich sehr eindrucksvoll.
Ein 3D Grafikbeschleuniger beschleunigt auch keine Textadventures.
Was manchen nicht bedacht haben, fressen die zusätzluch dargestellten Objekte richtig viel Grafikpower.
Ja, dass stimmt. Der Grafikkarte ist es egal ob die Geometrie von der CPU, oder einer extra PPU kommen. Endlich mal eine Anwendung, welche den modernen Grafikkarten gerecht wird.
{quote]Ich verstehe immer die Denke nicht. Dachten denn so einige, dass die Framerate explodiert?
Wie sollte dieses zustande kommen? Es gibt ja kaum Physik in heutigen Spielen. Also was soll der Beschleuniger, dann beschleunigen um dass die Framerate massiv steigt? So schnell kann kein Beschleuniger sein, dass dieser die Geschwindigkeit einer sonst nicht vorhandenen Funktion erreicht.
Das ist wie beim Spielesound. Komplexer Sound ist nicht vorhanden, wo soll da die Leistungssteigerung von Audiobeschleunigern herkommen?
Die Ageia PhysX API sollte mal das Umschalten in eine Software Emulation ermöglichen, damit wären dann Vergleiche besser möglich und sicherlich sehr eindrucksvoll.
Ein 3D Grafikbeschleuniger beschleunigt auch keine Textadventures.[/quote]
Richtig.
Deshalb finde ich ist die PPU im Moment für nichts zu gebrauchen,
höchstens zum angeben ^^.
Ausserdem sind die PhysX Karten viel zu teuer.
][immy
2006-05-04, 21:22:16
nun, wenn die spiele-entwickler den physx chip unterstützen würden denke ich könnte es genauso revolutionierend wie die voodoo-karten bei ihrer einführung werden.
zumindest würde ich das sagen nachdem ich das cell video gesehen habe.
das sich havokFX durchsetzen wird glaube ich an dieser stelle nicht. denn einerseits kostet eine extra 3d-beschleunigerkarte ebenfalls und im high-end sektor (wo es überhaupt sinn macht) mehr als 250€ und zum anderen unterstützt hovokfx nur effekt-physik und ist daher nur sehr begrenzt.
nun ich hoffe das etwas daraus wird und das die karten trotzdem noch ein stückchen im preis sinken, so bei 150-200€ wäre der preis wohl ganz gut angesiedelt. das die preise derzeit so hoch sind dürfte ansich nur daran liegen das es die karten sogut wie noch gar nicht zu kaufen gibt und die händler (z.B. alienware) das sehr genau wissen.
Bokill
2006-05-04, 22:10:21
Die Chancen sehe ich schon. Wenn es Grafikkartennutzer gibt, die 2 bis 4 Grafikkarten in ihre Mainboards reindrücken wollen mit zweifelhaften Zugewinnen bei der Physikleistung und/oder Grafikkartengeschwindigkeit, so ist definitiv ein Markt da.
Was ich aber paradox finde ist das Interface. Da solche Hardcorenutzer eh schon PCI-Express Boards haben ... warum ist Ageia so zaghaft "feige" mit dem PCI Slotinterface? Es sind doch eben jene Hardcoreuser, womit der Markt aufgebrochen werden kann.
So sinnvoll es unter Betrachtung des massenhaft verbreiteten PCI-Slot erscheint, aber ein Oma-Rechner mit Sockel A ist doch jetzt keine High End Kiste mehr. Und 3DFX mit seiner Voodoo begann nun auch einstmals als bezahlbare High End Karte.
Den Preis von ca. 300 € empfinde ich als OK. Immerhin ist es der mögliche Anfang einer völlig neuen Zurüstkartenklasse im Konsumentenbereich
MFG Bobo(2006)
Avalox
2006-05-04, 22:40:31
Bokill[/POST]Was ich aber paradox finde ist das Interface. Da solche Hardcorenutzer eh schon PCI-Express Boards haben ... warum ist Ageia so zaghaft "feige" mit dem PCI Slotinterface? Es sind doch eben jene Hardcoreuser, womit der Markt aufgebrochen werden kann.
Es wird eine PCIe x4 Karte werden (da ist sie wieder die PCIe x4 PCI Ersatz Karte), wenn man den Vorankündigungen glauben darf. Finger hoch, wer solchen oder einen zweiten PCIe x8 Slot auf dem Mainboard hat. Werden nicht so viele sein.
Ich denke schon, dass per PCI doch noch eine Menge mehr potentieller Käufer erreicht werden. Vielleicht steckt im jetzigen Ageia auch noch ein PCI Hostcontroller, wurde ja ziemlich lange dran entwickelt.
][immy
2006-05-04, 22:40:58
Bokill[/POST]']Die Chancen sehe ich schon. Wenn es Grafikkartennutzer gibt, die 2 bis 4 Grafikkarten in ihre Mainboards reindrücken wollen mit zweifelhaften Zugewinnen bei der Physikleistung und/oder Grafikkartengeschwindigkeit, so ist definitiv ein Markt da.
Was ich aber paradox finde ist das Interface. Da solche Hardcorenutzer eh schon PCI-Express Boards haben ... warum ist Ageia so zaghaft "feige" mit dem PCI Slotinterface? Es sind doch eben jene Hardcoreuser, womit der Markt aufgebrochen werden kann.
So sinnvoll es unter Betrachtung des massenhaft verbreiteten PCI-Slot erscheint, aber ein Oma-Rechner mit Sockel A ist doch jetzt keine High End Kiste mehr. Und 3DFX mit seiner Voodoo begann nun auch einstmals als bezahlbare High End Karte.
Den Preis von ca. 300 € empfinde ich als OK. Immerhin ist es der mögliche Anfang einer völlig neuen Zurüstkartenklasse im Konsumentenbereich
MFG Bobo(2006)
ich kenne leider noch kein SLI oder Crossfire mainboard, wo sich die PCIe x1 Slots nutzen lassen würden, wenn man 2 Grafikkarten drin hat. die ports liegen derzeit ziemlich unglücklich auf den Boards drauf
außerdem, für den datentransport reicht das PCI interface locker.
aber recht haste schon, PCIe x1 sollte reichen und ansich günstiger sein. aber gab es da nicht auch ein problem mit den latenzen?
Bokill
2006-05-04, 22:54:20
'][immy'[/POST]']ich kenne leider noch kein SLI oder Crossfire mainboard, wo sich die PCIe x1 Slots nutzen lassen würden, wenn man 2 Grafikkarten drin hat. die ports liegen derzeit ziemlich unglücklich auf den Boards drauf Warum 2 Grafikkarten bei überragender Spielephysik?
außerdem, für den datentransport reicht das PCI interface locker. Das glaube ich nicht, wenn man wirklich viele Objekte haben sollte (eher mehr als 1000 Objekte, als weniger mit 20 Objekten derzeit).
aber recht haste schon, PCIe x1 sollte reichen und ansich günstiger sein. aber gab es da nicht auch ein problem mit den latenzen? Ich denke das Problem mit den Latenzen kommt, wenn sich ein Hersteller ein PCI-Interface nachträglich zu einem PCI-Expressinterface hinfrickelantiert.
MFG Bobo(2006)
Zitat: ich kenne leider noch kein SLI oder Crossfire mainboard, wo sich die PCIe x1 Slots nutzen lassen würden, wenn man 2 Grafikkarten drin hat. die ports liegen derzeit ziemlich unglücklich auf den Boards drauf
Auf meinem DFI SLI DR Mainboard kann ich den oberen PCIe4 Slot nutzen,wenn 2Karten drin sind.Also es geht jetzt schon.
mfg
Mehrpack
2006-05-05, 06:52:33
tombman[/POST]']Aber schau dir doch mal mp games an. 10 noobs machen einen top gamer in kurzer Zeit auch irgendwie tot, weil der Unterschied in der I. eben doch ned groß ist, schließlich spielt der top gamer immer noch gegen Menschen und ned gegen Affen ;D
hi,
klar aber auch nein.
10 anfänger die auf jemanden der das spiel gleichzeitig los gehn, werden ihn wohl platt bekommen.
aber 10 anfänger die unkoordiniert und zielscheiben abgeben haben auch keine grosse chance.
selber schon erlebt, das ich eine kleinere horde klein bekommen habe und dann als cheater beschipft wurde.
Klar bin ich auch für mehr KI in games, aber dann müßten sie die Treffenquote oder andere Sachen verändern, weil gegen super-KI-bots wird man ned viele Chancen haben.
ki heisst doch net super trefferquote oder sonst was, das sind alles variablenen.
mal angenommen 2 menschen hätten die selbe intelligenz, könnten aber eine total unterschiedliche motorik und vorallen herrangehensweisse an eine situation haben.
intelligenz heisst, eigene vorteile erkennen und schwächen des gegners erkennen und ausnutzen, dazu dann situationen auf unterschiedliche art und weissen lösen.
um wieder zum anfänger zu kommen, wenn er sich als zielscheibe hinstellt, was machst du?
du ballerst auf ihn.
ein geübter spieler, vielleicht das selbe niveau wie du, wird es dir nicht so leicht machen.
vielleicht ändert er sogar seine herrangehensweisse, weil ihr euch kennt und er sich denkt das du ihn dort und dort vermutest.
das macht die sache in dem sinne ja spannend.
wer gewinnt hängt dann davon ab wer einen fehler macht oder wer das quäntchen besser ist.
Ich würde mir sowas wie ein emotionales System wünschen, wo KI Gegner auch mal zögern oder menschlich irrational handeln-> das wär lustig ;)
ich denke mal das würde dann bei einem wirklich guten KI system muss das mit drinnen sein.
die künstliche spielfigur analysiert ihre lage.
zbsp ein weltkriegsshooter, beschuss, mitkämpfer fallen, die ki wird "nervös" das zielen wird schlechter.
bis der punkt erreicht ist wo sie abhaut.
aber der punkt hängt dann auch von anderen sachen ab.
wieviel hat sie in dem "sinne" schon erlebt, ist sie ein abgesumfpter kämpfer, der die schrecken des krieges kennt oder ein neuling der als kampfverstärkung an die front geworfen wurde?
ich denke eine gute ki muss nicht übermenschlich treffen, sie muss glaubhaft sein und durch ihre glaubhaftigkeit auch einen würdigen gegner darstellen.
imho dürfte es bei einem gutem ki system sogar leichter sein die gegnerstärke an die stärke des spieler anzupassen aber trotzdem fodern zu bleiben.
Mehrpack
][immy
2006-05-05, 08:11:55
Bokill[/POST]']Warum 2 Grafikkarten bei überragender Spielephysik?
Das glaube ich nicht, wenn man wirklich viele Objekte haben sollte (eher mehr als 1000 Objekte, als weniger mit 20 Objekten derzeit).
2 grafikkarten hat man wohl vorwiegend wegen der auflösung und dem anti-aliasing, weniger wegen der physik. die spiele werden durch physik-beschleuniger ja nicht schneller, sondern die physik wird intensiver berechnet und realistischer. hat man keine muss man halt auf solche effekte verzichten.
wegen der bandbreite des PCI interfaces. das reicht aus dem grund locker da auch bei 1000 objekten nicht viele daten übertragen werden müssen. der größte teil der daten entsteht im physx chip (deshalb wohl auch der recht große speicher) und nur ein winziger teil davon wird zurückgeliefert (z.B. koordinaten).
tombman
2006-05-05, 09:11:13
Gast[/POST]']
Denn sobald die PPU aktiv war fiel die Framerate drastisch in den Keller.
Was manchen nicht bedacht haben, fressen die zusätzluch dargestellten Objekte
richtig viel Grafikpower.
Welche Objekte? Das ist reine Effektphysik mit schattigen "Blättern" oder "Platten" die in der immer gleichen ANimation KURZ durch die Gegend fliegen und sich dann sofort am Boden in Luft auflösen. Wozu man dafür eine PPU braucht ist mir schleierhaft. IMO reine Werbung für Ageia, eine Bereicherung für das Spiel ist es nicht.
Da ist das Cellfaktor Movie schon was anderes - da kannst ganze Lawinen mit DarthVader-Griff auf die Gegner schleudern :D
S3NS3
2006-05-05, 09:11:58
Für mich wäre auch PCI besser. Aber mal deshalb eine Frage:
Habe ja auch eine XFI in PCI. Dann vielleicht mal eine PhysX. Wie lange wird sich denn der PCI auf PCIe Boards halten?
Sehe es schon kommen, kaufe noch die PhysX und nächtes Jahr wenn ich ein neues System kaufe werde ich weder die XFI noch die PhysX benutzen können weil die neusten Boards dann normalo PCI weglassen!?
deekey777
2006-05-05, 11:31:22
http://www.firingsquad.com/news/newsarticle.asp?searchid=10096
Mit etwas Dreck muss man sich schon bewerfen...
Hier ein Artikel, wo die GRAW getestet wurde:
http://www.hexus.net/content/item.php?item=5492&page=1
Insbesondere:
http://www.hexus.net/content/item.php?item=5492&page=4
Die PPU wird für visuelle effekte missbraucht, es ist beinahe eine Lüge, dass GRAW und BoS die PPU nutzen, besser gesagt so nutzen, wie es eigentlich vorgesehen ist. Der Einwand von Havok ist zT berechtigt.
tombman
2006-05-05, 12:11:13
Schön, dann sind die eh derselben Meinung wie ich :)
][immy
2006-05-05, 12:11:51
deekey777[/POST]']http://www.firingsquad.com/news/newsarticle.asp?searchid=10096
Mit etwas Dreck muss man sich schon bewerfen...
Hier ein Artikel, wo die GRAW getestet wurde:
http://www.hexus.net/content/item.php?item=5492&page=1
Insbesondere:
http://www.hexus.net/content/item.php?item=5492&page=4
Die PPU wird für visuelle effekte missbraucht, es ist beinahe eine Lüge, dass GRAW und BoS die PPU nutzen, besser gesagt so nutzen, wie es eigentlich vorgesehen ist. Der Einwand von Havok ist zT berechtigt.
naja, dafür kann man den physik-chip auch nutzen, aber das sollte nicht das einzige sein wofür man ihn benutzt.
eins ist klar, wenn der physik-chip dazu genutzt wird, mehr objekte zu berechnen die ohne physx nicht da sind, dann wird die grafikkarte in die enge getrieben, da sie einfach mehr darstellen muss. der physx chip sollte eher als entlastung der cpu gesehen werden, denn wenn diese die berechnungen durchführen würde, würde so ziemliche jedes spiel cpu-limitiert. theoretisch könnte es dann mal wieder so sein (nach einer ziemlich langen zeit) das die gpus limitieren (zumindest in den meisten fällen) und nicht die cpus ^^.
am besten müsste wirklich eine möglichkeit geschaffen werden, physx-berechnung auf die cpu zu legen (von mir aus auch teilweise auf die gpu) denn nur dann könnte man wirklich vergleichen.
wäre ganz nett wenn naträglich ein patch für Oblivion rauskommen würde, der die PPU unterstützt. gerade Oblivion saugt ja an CPU power bei der physik
(del676)
2006-05-05, 12:55:01
also ich hätt einen PCIe 4x frei trotz 7900 Dualslot SLI und einer X-FI im PCI ;)
(is auch der einzige steckplatz der noch frei is)
insofern macht das durchaus sinn - die hauptgruppe sind speedgeile freaks denen geld egal is - und die haben zu 99,9% ein DFI Lanparty SLI DR :) (und damit einen PCIe 4x auf alle Fälle frei)
BlackBirdSR
2006-05-05, 14:37:42
http://www.anandtech.com/video/showdoc.aspx?i=2751&p=4
die getestete Ageia Application sind diese rot/blauen Boxen aus dem Treiber.
m.sch
2006-05-05, 15:28:04
tombman[/POST]']Aber schau dir doch mal mp games an. 10 noobs machen einen top gamer in kurzer Zeit auch irgendwie tot, weil der Unterschied in der I. eben doch ned groß ist, schließlich spielt der top gamer immer noch gegen Menschen und ned gegen Affen ;D
Ich würde mir sowas wie ein emotionales System wünschen, wo KI Gegner auch mal zögern oder menschlich irrational handeln-> das wär lustig ;)
Das schaffen die Noobs aber auch nur,weil sie für fehler beim kampf nicht wirklich zahlen müssen ( Blut,schmerzen ),wenn das so wäre würden die meisten "Noobs" lieber ihren
Kamaraden vorschicken.
Aber das haste schon angedeutet ( emotionales system )
tombman
2006-05-05, 15:36:49
BlackBirdSR[/POST]']http://www.anandtech.com/video/showdoc.aspx?i=2751&p=4
die getestete Ageia Application sind diese rot/blauen Boxen aus dem Treiber.
Also ich hab da über software mit einem 4ghz presler 120fps ;D
WÄre also deutlich schneller als über die PPU ;D
tombman
2006-05-05, 15:41:30
LOL!
Hopefully this isn't the first "physics decellerator", rather like the first S3 Virge 3D chip was more of a step sideways for 3D than a true enhancement
:up:
Ich finde mehr und mehr Gefallen an der Karte. Was mich allerdings stört, ist der hohe Preis, und dass das Anwendungsgebiet (noch) sehr beschränkt ist. Sprich Physik und damit basta.
Wenn man jedoch damit Audio Effekte in Echzeit (z.B. in
Cubase), Videoanwendungen wie Avid, Photoshop, Aftereffects,Combustion oder 3D berechnen könnte, würde es die Attraktivität doch ungemein steigern. Vorausgesetzt,
die Software-Hersteller spielen mit; und das mit Sicherheit nur, wenn die Marktdurchdringung hoch ist, was wiederum nur funktioniert, wenn die Karte günstig ist.
Verflixter Teufelskreis :tongue:
m.sch
2006-05-05, 16:35:37
tombman[/POST]']LOL!
:up:
Also wird sich die Geschichte wiederholen,genau wie bei den 3D-fähigen Grafikchips :rolleyes:
also sollte das einige Newcomer auf den Plan rufen.
Oder Havok Fx macht das rennen,weils quasi ein Standard ist
The Jackal
2006-05-05, 19:35:46
Wenn man die Karte dann noch ein weinig aufbohren würde, und programierbar machen würde vergleichbar mit den shedern in der GraKa, wehre die karte ein muß für jeden Ingenieur der sich mit FE beschäftigt und Crash symulationen durchführt.
Ich träume schon von einer Crash Symulation eines Auffahrunfalls auf der Autoban mit 12 karambolierten fahrzeugen unterschiedlicher geometrie auf eigenem PC. Momentan braucht man dafür ein Cluster von min 10 Rechnern und die Objekte dürfen nicht all zu komplex sein will man nicht 2 Tage an einer einfachen berechnung sitzen.
kevsti
2006-05-05, 20:05:49
Ich denk mal in nen Jahr wird es die Karte schon für 50€ geben, ich mein was ist da teures dran? 130mm Herstellungstechnik? also eigentlich jetzt schon veraltet, wegen den niedrigen buged von Ageia versteh ich das aber auch... aber die Karte fällt halt sehr spartanisch aus..
was man im moment teuer bezahlt ist die entwicklung und die ankurblung der massenproduktion..
aber es wird wohl in nen Jahr auch ne neue Ageia (auch wenn sie atm. noch verneinen das andauernt ne neue kommt) die dann mal ordenlich die Muskeln spielen lässt.. PCIe.. mehr Speicher.. schnellerer Speicher.. min 90nm... die erfahrungen bei der ersten Karte.. da könnte noch ordenlich mehr leistung drin sein..
da nach glaub ich aber auch das erstmal schluss ist mir nachfolger.. da die Ageia jetzt schon eine enorme Performenc trotz eher schlechten tech. Daten, wenn diese nochmal ordenlich gesteigert wurde.. reicht die wohl für die nächsten paar Jahre Games locker aus..
Bokill
2006-05-05, 20:10:43
The Jackal[/POST]']Wenn man die Karte dann noch ein weinig aufbohren würde, und programierbar machen würde vergleichbar mit den shedern in der GraKa, wehre die karte ein muß für jeden Ingenieur der sich mit FE beschäftigt und Crash symulationen durchführt.
Ich träume schon von einer Crash Symulation eines Auffahrunfalls auf der Autoban mit 12 karambolierten fahrzeugen unterschiedlicher geometrie auf eigenem PC. Momentan braucht man dafür ein Cluster von min 10 Rechnern und die Objekte dürfen nicht all zu komplex sein will man nicht 2 Tage an einer einfachen berechnung sitzen. Schon mal was von FPGAs gehört? Die Chipgattung FPGA kann unglaublich flexibel eben jene angepasste Rechenkraft entfalten. Es muss nicht nicht immer ein Grid sein, hin und wieder reicht ein einzelner Chip.
Und auch der Clearspeed 600 ist etwas feines, der ist noch leistungsfähiger und flexibler als Ageia ... aber eben auch deutlich teurer ... technologisch scheinen der Clearspeed und Ageia recht nah verwandt zu sein.
MFG Bobo(2006)
BlackBirdSR
2006-05-05, 21:25:42
Die Sache mit Ghost Recon soll im nächsten treiberupdate von Ageia behoben werden.
tombman
2006-05-05, 23:22:35
BlackBirdSR[/POST]']Die Sache mit Ghost Recon soll im nächsten treiberupdate von Ageia behoben werden.
Sich mit der alten Novodex techdemo rumspielen macht eh mehr Spaß :D
The Jackal[/POST]']Wenn man die Karte dann noch ein weinig aufbohren würde, und programierbar machen würde vergleichbar mit den shedern in der GraKa, wehre die karte ein muß für jeden Ingenieur der sich mit FE beschäftigt und Crash symulationen durchführt.
Ich träume schon von einer Crash Symulation eines Auffahrunfalls auf der Autoban mit 12 karambolierten fahrzeugen unterschiedlicher geometrie auf eigenem PC. Momentan braucht man dafür ein Cluster von min 10 Rechnern und die Objekte dürfen nicht all zu komplex sein will man nicht 2 Tage an einer einfachen berechnung sitzen.
Oh ja :devil: In etwa sowas:
http://666kb.com/i/11f9aja6kfr41.jpg
Der Crash ist natürlich vorgerendert und somit Zukunftsmusik.
Hier (http://omind.free.fr/stock/thailife_2m.wmv) das Video zum Bild (Werbespot von einer thailändischen Versicherung)
Wer Wie Was ..
2006-05-06, 08:02:06
"Die Sache mit Ghost Recon soll im nächsten treiberupdate von Ageia behoben werden."
Was ist'n da faul?
kevsti
2006-05-06, 12:12:31
Hmm wenn wir soweit sind, das sich solche real. crachs in realtime rendern lassen :D dann freu ich mich schon auf Burnout, Full Auto und andere ähnlichen Spiele.. allgemein könnte ein PPU sehr stark das Gameplay bei einen Autorennen verändern und mehr real. bieten
Mehrpack
2006-05-06, 12:24:07
Wer Wie Was ..[/POST]']"Die Sache mit Ghost Recon soll im nächsten treiberupdate von Ageia behoben werden."
Was ist'n da faul?
hi,
2 möglichkeiten.
entweder im treiber ein bug, das da die performence runtergeht bei den gefoderten sachen die da berechnet werden sollen.
oder der treiber soll mängel des spieles umschiffen damit die performence steigt.
ich denke mal was genau da faul ist, kann wohl nur ageia genau sagen aber ich glaube kaum das man da was hören von wird.
Mehrpack
Bokill
2006-05-06, 13:25:03
Ich denke Manchen ist noch nicht ganz klar, was der Ageia Chip macht ...
Die PPU berechnet die Lage der vielem Objekte, die nach physikalischen Gesetzmässigkeiten interagieren.
Der Witz ist, dass nur wenige Objekte in einem Spiel ziemlich witzlos sind. Bei vielen Objekten muss nun mal auch nicht nur der PhysX Chip von Ageia hart arbeiten, sondern auch die Grafikkartenchips müssen nun viele dynamische Objekte auch noch anpinseln, die vorher in dieser Fülle gar nicht vorhanden waren.
Die Frage ist:
A. Züchten ATI und NVIDIA Grafikchips, die eben diese höheren Detailgrad meistern, oder
B. betrachten sie den PhysX Chip potenziell als Konkurrenz und versuchen es mit eigenen Mitteln auszustechen.
Zur Zeit betrachten sie den PhysX Chip wohl als Konkurrent, denn als eine Bereicheicherung zu einem völlig neuen Gameplay.
MFG Bobo(2006)
predprey
2006-05-06, 13:53:18
naja, würde ja schon helfen, wenn die Software firmen einfach nur das ohnehin dargestellte mit der PPU beschleunigen und nicht noch neue extras hinzufügen, die dann nochmehr in die Performance gehen ...
Sowas könnte man vll als extra anbieten .... aber eigentlich wünsche ich mir eine entlastung der CPU und graka um eine bessere Performance zu bekommen. Danach kann man immernoch die details anheben :)
Bokill[/POST]']Der Witz ist, dass nur wenige Objekte in einem Spiel ziemlich witzlos sind. Bei vielen Objekten muss nun mal auch nicht nur der PhysX Chip von Ageia hart arbeiten, sondern auch die Grafikkartenchips müssen nun viele dynamische Objekte auch noch anpinseln, die vorher in dieser Fülle gar nicht vorhanden waren.
Sehe ich nicht zwangsläusfig so. Nehmen wir mal an, dass ein vorher statisches Level dank Füsicks nun völlig zerstörbar ist: Wo ist der Mehraufwand für die Grafikkarte in Sachen Texturing/Shading?
Klar, wenn man nun statt drei Bäumen gleich einen Wald hinstellt, um den dann zu Ikea-Ware zu verarbeiten, dann gibt's Arbeit.
MfG,
Raff
Rente
2006-05-06, 14:23:20
Falls es im Thread schon mal geklärt wurde Entschuldigung, aber ich wollte jetzt nicht erst mal alles durchlesen:
Gibt es eine Aussage darüber, wie sehr oder ob überhaupt der PCI-Bus bei den aktuell verfügbaren Karten limitiert?
Hat jemand mal GRAW mit unübertaktetem Bus und einmal mit übertaktetem Bus getestet von den Hardware-Seiten?
BlackBirdSR
2006-05-06, 14:33:14
Ob-1[/POST]']Falls es im Thread schon mal geklärt wurde Entschuldigung, aber ich wollte jetzt nicht erst mal alles durchlesen:
Gibt es eine Aussage darüber, wie sehr oder ob überhaupt der PCI-Bus bei den aktuell verfügbaren Karten limitiert?
Hat jemand mal GRAW mit unübertaktetem Bus und einmal mit übertaktetem Bus getestet von den Hardware-Seiten?
Nach Aussagen des Hestellers limitiert der PCI-Bus nicht
Bokill
2006-05-06, 14:34:44
predprey[/POST]']naja, würde ja schon helfen, wenn die Software firmen einfach nur das ohnehin dargestellte mit der PPU beschleunigen und nicht noch neue extras hinzufügen, die dann nochmehr in die Performance gehen ...
Sowas könnte man vll als extra anbieten .... aber eigentlich wünsche ich mir eine entlastung der CPU und graka um eine bessere Performance zu bekommen. Danach kann man immernoch die details anheben :) Laut der letzten C`t ist die derzeitige Spielephysik zu ca. 10% an der Rechenlast der CPUs beteiligt. Eben um jene Spielephysik zu entlasten (die eben wegen der deutlichen Komplexität keine echte Physik ist) ist für ein Ageia PhysX ziemlich sinnbefreit.
Oder in anderen Worten ... es geht darum mit dem PhysX einen ganzen Wald zu ikeatauglichen Splittern zu verarbeiten ...
Slipknot79
2006-05-06, 16:25:41
BlackBirdSR[/POST]']Nach Aussagen des Hestellers limitiert der PCI-Bus nicht
Wenn das so ist, dann ist die Wahl auf PCI die bessere, so kommen weniger Leute in Konflikt mit SLI Karten oO
hofmetzger
2006-05-06, 17:12:48
Bokill[/POST]']Laut der letzten C`t ist die derzeitige Spielephysik zu ca. 10% an der Rechenlast der CPUs beteiligt. Eben um jene Spielephysik zu entlasten (die eben wegen der deutlichen Komplexität keine echte Physik ist) ist für ein Ageia PhysX ziemlich sinnbefreit.
Oder in anderen Worten ... es geht darum mit dem PhysX einen ganzen Wald zu ikeatauglichen Splittern zu verarbeiten ...
ich denke wir brauchen erst die passenden Engines. Ich meine Objekte finden sich in den Games genug, nur sie sind nicht manipulierbar: Tische sind am Boden festgenagelt, und die Dinge darauf sind wohl auch festgeklebt. Die Designer müssen erst lernen mit dieser Power umzugehen.
Slipknot79[/POST]']Wenn das so ist, dann ist die Wahl auf PCI die bessere, so kommen weniger Leute in Konflikt mit SLI Karten oO
PCIe x1 ginge ja auch. Und wäre bereits deutlich schneller als der PCI mit seinen steinzeitlichen 133 MB/s (maximal). Aber gut, letzterer ist ja weiter verbreitet als alles andere.
MfG,
Raff
Slipknot79
2006-05-06, 17:22:56
Raff[/POST]']PCIe x1 ginge ja auch. Und wäre bereits deutlich schneller als der PCI mit seinen steinzeitlichen 133 MB/s (maximal). Aber gut, letzterer ist ja weiter verbreitet als alles andere.
MfG,
Raff
Schneller ja, aber wenn der Output der PPU nicht mehr als 133MB/s beträgt, ist es erst wieder sinnlos oO.
Naja es gibt auch Mobos wo der PCIe-Steckplatz genau zwischen den SLI Slots angelegt ist. Und falls ein weiterer PCIe Steckplatz verfügbar ist, dieser aber schon belegt ist, wirds wohl knapp.
kevsti
2006-05-06, 18:08:53
Slipknot79[/POST]']Schneller ja, aber wenn der Output der PPU nicht mehr als 133MB/s beträgt, ist es erst wieder sinnlos oO.die Karte hat aber auch nen Input.. und bei PCI werden die 133MB/s ja auch noch mit anderen Karten geteilt.. wenn man z.B noch ne X-Fi drin hat, ne Netzwerkkarte, nen Raidcontroller.. das könnte arscheng werden.. und 133MB/s schafft PCI eher auch nur theo., prakt. sinds eher 120MB/s..
Slipknot79
2006-05-06, 18:11:42
kevsti[/POST]']die Karte hat aber auch nen Input.. und bei PCI werden die 133MB/s ja auch noch mit anderen Karten geteilt.. wenn man z.B noch ne X-Fi drin hat, ne Netzwerkkarte, nen Raidcontroller.. das könnte arscheng werden.. und 133MB/s schafft PCI eher auch nur theo., prakt. sinds eher 120MB/s..
Hm. Laut Wiki http://de.wikipedia.org/wiki/Peripheral_Component_Interconnect ist der Durchsatz bei 500MB/s? oO Zunächst werden 133MB/s erwähnt und dann PCI Conventional, erlaubt Busbreiten von 32 oder 64 Bit und Übertragungen mit 33 oder 66 MHz Takt (max. 528 MByte/s) ? oO
Bokill
2006-05-06, 19:13:10
Slipknot79[/POST]']Hm. Laut Wiki http://de.wikipedia.org/wiki/Peripheral_Component_Interconnect ist der Durchsatz bei 500MB/s? oO Zunächst werden 133MB/s erwähnt und dann PCI Conventional, erlaubt Busbreiten von 32 oder 64 Bit und Übertragungen mit 33 oder 66 MHz Takt (max. 528 MByte/s) ? oO Welcher Nutzer hat PCI-X mit 133 MHz Takt statt 33 MHz und 64 Bit Busbreite statt 32 Bit ... ? Eben kein Normalo hat derartige arschteuren PCI-X Karten.
kevsti
2006-05-06, 19:20:04
davon mal ab gibt es keine XFi für PCI-X und auch keine Ageia..
deekey777
2006-05-07, 10:51:11
BlackBirdSR[/POST]']Die Sache mit Ghost Recon soll im nächsten treiberupdate von Ageia behoben werden.
Physics on display in Havok, Ageia catfight (http://www.techreport.com/onearticle.x/9923)
We appreciate feedback from the gamer community and based partly on comments like the one above, we have identified an area in our driver where fine tuning positively impacts frame rate. We made an adjustment quickly and delivered it in a new driver (2.4.3) which is available for download at ageia.com today.
Ist draußen, aber als Beta.
Hannebambel
2006-05-07, 13:14:15
Also aus Spielersicht ist das Ganze eindeutig ein Scherz.
Hauptsächlich wird Havok für die Physikberechungen benutzt und nur für irendwelche zusätzliche Effekte die man erst beim 2 oder 3 mal überhaupt erkennt wird die Ageia Karte genutzt.
Und zu dem kommt noch die schlechtere Pervormance beim Einsatz der Ageia Karte!
Das Ganze ist grade zu unglaublich als das Ageia diese dümmliche Vorstellung auch noch als Markteinführung für Ihre Karte nutzt.
Aber mal abwarten vielleicht kommt ja in ein paar Monaten(Jahren) noch irgendwas brauchbares(Cellfactor/UnrealE.3 .....).
kevsti
2006-05-07, 14:00:36
Hannebambel[/POST]']Also aus Spielersicht ist das Ganze eindeutig ein Scherz.
Hauptsächlich wird Havok für die Physikberechungen benutzt und nur für irendwelche zusätzliche Effekte die man erst beim 2 oder 3 mal überhaupt erkennt wird die Ageia Karte genutzt.
Und zu dem kommt noch die schlechtere Pervormance beim Einsatz der Ageia Karte!Wie bitte? :eek: ich glaub du hast den sinn eines PPUs nicht erfasst, es geht nicht um irgendwelche effekte (die man beim 2 oder 3 mal sieht) sondern um Gameplay physik, das kann z.B sein wie ein Auto fährt bei einen Racinggame, das kann bei einen Egoshotter auch die berechnung sein wie eine Rakenwerfer schiest und wie dannach ein Haus zusammen fällt etc..
das PPU ist dazu da Physik gesetzte in einen Spiel möglichst realitätsnah nach zubilden und nicht um ein paar effete wie z.B das aussehen einer explodierenden Granate nach zuahmen, dazu reicht dicke HavokFX, aber für Gameplaynahe sachen reicht HavokFX einfach nicht..
die schlechtere Performenc.. die Karte ist gerademal marktreif und die treiber wohl eher noch im beta stadium, die Spiele dafür nicht annährned ausgereift, was erwartest du? oder meinst du das die damaligen ersten 3D-Grafikbeschleuniger auch sofort einen riesen Performenc und Grafik schub hatten?.. in einigen Jahren wird nen PPU sicherlich unverzichtbar sein..
Bokill
2006-05-07, 14:33:20
Hannebambel[/POST]']Also aus Spielersicht ist das Ganze eindeutig ein Scherz.
Hauptsächlich wird Havok für die Physikberechungen benutzt Nein, sie gibt vor Eyecandyphysik zu machen.
und nur für irgendwelche zusätzliche Effekte die man erst beim 2 oder 3 mal überhaupt erkennt wird die Ageia Karte genutzt. Das ist das Problem, dass nur Wenige beachten, was denn physikalisch korrekt ist. Oder anders gesagt, wenn sich alle Objekte vollkommen naturrealistisch im Spiel bewegen, könnte ein Laie sagen: "Was ist denn daran spektakulär, das spielt sich genaus ab, wie in der Natur auch" ... ja in der Tat, genau das ist das spektakuläre, weil es so etwas bis dahin so nicht gab.
Und zu dem kommt noch die schlechtere Performance beim Einsatz der Ageia Karte! Viele bewegte Objekte, eifersüchtige Treiber und Marktpolitik von ATI, NVIDIA, Havoc tragen sicher ein Teil dazu bei, zu der derzeitigen Leistung der Ageia PPU.
Lese lieber noch mal diesen Thread durch. Da wird dir klar werden, dass eben die Havoc-Engine auf sensationelles Eyecandy setzt, dass darf mitunter spektakulär, aber ist eben nicht immer physikalisch korrekt (was mit der PhysX Lösung auch nicht "immer", aber häufiger der Fall sein wird).
MFG Bobo(2006)
dildo4u
2006-05-07, 16:34:43
Cellfactor Demo AGEIA PhysX Accelerator (Yes, it is required!)
http://ageia.com/physx_in_action/cellfactor.html
Wers schon zocken kann kann ja mal berichten.Bin ja mal gespannt ob die Full auch nur mit der Physikkarte läuft.
Rente
2006-05-07, 16:37:15
dildo4u[/POST]']Cellfactor Demo AGEIA PhysX Accelerator (Yes, it is required!)
http://ageia.com/physx_in_action/cellfactor.html
Wers schon zocken kann kann ja mal berichten.Bin ja mal gespannt ob die Full auch nur mit der Physikkarte läuft.
Damit macht sich Ageia sicherlich viele neue Freunde. :wink:
Hat hier im Forum schon jemand eine Karte?
DeusExMachina
2006-05-07, 16:49:56
Erinnert Ihr Euch an Trespasser? Da war die Physik ein wichtiges Spielelement. Ich stelle mir gerade Trespasser mit besserer Grafik und höherwertigerer Physik vor,...ein Traum :)
Und ich bin gespannt, wann das erste Programm Optionen der Marke "Force Software Physics Processing" oder "Emulate Ageia PhysX Caps" anbietet. 3DAnalyzer? ;)
MfG,
Raff
AnarchX
2006-05-07, 17:01:11
Raff[/POST]']Und ich bin gespannt, wann das erste Programm Optionen der Marke "Force Software Physics Processing" oder "Emulate Ageia PhysX Caps" anbietet. 3DAnalyzer? ;)
MfG,
Raff
... und der Rechner bleibt stehen, da die CPU von der Rechenlast erdrückt wird. ;)
Für eine sinnvolle Nutzung sollte man da schon eine kleine Rechnerfarm haben.
irgendwie muss ich ganz objektiv sgaen dass die videos mit physX hässlicher sind.
Denn : Man sieht zwar immer ne Menge kleiner Teile durch die Luft fliegen, aber sobald diese auf den Boden treffen verschwinden sie einfach.....das sieht sofort falsch aus, egal wie realistisch die Flugbahnen vorher berechnet wurden.
Gast[/POST]']irgendwie muss ich ganz objektiv sgaen dass die videos mit physX hässlicher sind.
Denn : Man sieht zwar immer ne Menge kleiner Teile durch die Luft fliegen, aber sobald diese auf den Boden treffen verschwinden sie einfach.....das sieht sofort falsch aus, egal wie realistisch die Flugbahnen vorher berechnet wurden.
Was wohl weniger an der PhysX Hardware oder der API liegt, sondern wohl eher an der Umsetzung in diesem konkreten Fall ;)
][immy
2006-05-07, 17:26:25
Gast[/POST]']irgendwie muss ich ganz objektiv sgaen dass die videos mit physX hässlicher sind.
Denn : Man sieht zwar immer ne Menge kleiner Teile durch die Luft fliegen, aber sobald diese auf den Boden treffen verschwinden sie einfach.....das sieht sofort falsch aus, egal wie realistisch die Flugbahnen vorher berechnet wurden.
das hat aber was damit zu tun, das die entwickler bei GRAW "geschlampt" haben und ein feature als PPU beschleunigt verkauft haben wofür man garantiert keine PPU bräuchte.
die demonstration die in dem cell video gezeigt wird, steht schon eher für ein PPU beschleunigtes spiel. und so wird es hoffentlich sein wenn die entwickler anfangen etwas speziell auf PPUs auszurichten.
die effekt-physik kann auch mit havok fx berechnet werden, dafür braucht man echt keine PPU (da hat die ja nicht mal wirklich was zu tun)
Blaze
2006-05-07, 17:43:47
Ob-1[/POST]']
Hat hier im Forum schon jemand eine Karte?
Hat überhaupt schon irgendwer auf diesem Planeten eine Karte? (außer Ageia selbst ;))
Wenn ich die Preise bei Geizhals seh könnt ich k*tzen, 280 € und das ist nur die kleine Version.
Mal ehrlich, wer kauft sich denn für den Preis so ein Teil?
Korrekt, niemand... :rolleyes:
The Jackal
2006-05-07, 17:58:18
@Gmax
Noch ein Frame Gitter Model mit dazugehörigen Kräftevektoren und passend dazu eingefärbt die Kräfte und der Kräfteverlauf.
Das ganze noch in weniger als einer Stunde berechnenbar und in allen Perspektiven anschaubar wie z.B Unterboden deformations Aufnahmen.
Träum :biggrin:
Oder stelle sich mal einer einfach mal eine Flugzeug Notwässerung vor gerendert in realtime auf eigenem PC. :biggrin:
kevsti
2006-05-07, 18:15:29
evtl. kommt bald ne Ageia PhysX emulation raus.. würde mal gerne das Cell Factor demo zocken, aber selbst wenn ne emulation rauskommt.. wenn die nicht gerade aus feinste optimiert ist und den GPU verwendet.. wird wohl die fps zahl unter 1 liegen ;/
naja *träum*
AnarchX[/POST]']... und der Rechner bleibt stehen, da die CPU von der Rechenlast erdrückt wird. ;)
Für eine sinnvolle Nutzung sollte man da schon eine kleine Rechnerfarm haben.
Ich bezweifle schwer, dass bei den ersten Spielen gleich jede CPU einen Kotzkrampf bekommt. Irgendwie. Gegenbeweise bitte. :D
MfG,
Raff
dildo4u
2006-05-07, 18:26:42
Raff[/POST]']Ich bezweifle schwer, dass bei den ersten Spielen gleich jede CPU einen Kotzkrampf bekommt. Irgendwie. Gegenbeweise bitte. :D
MfG,
Raff
Naja Cellfactor ist schon extrem wenn man die Videos kennt kann man schon erahnen das das nicht mir reiner CPU Power zu bewältigen ist.
http://www.cellfactorgame.com/screenshots/screen24.jpg
http://img.gamespot.com/gamespot/images/2006/087/929142_20060329_screen008.jpg
erfahrungsberichte zur demo:
http://www.hardforum.com/showthread.php?t=1052247&page=1&pp=20
BlackBirdSR
2006-05-07, 20:48:24
Die Screenshots sind toll.
Leider ist mit dieser Qualität die performance auf einer X1900XT unspielbar.
In spielbaren Settings sieht das Spiel dann sehr! viel schlechter aus.
Die Performance ist nicht gut!
Avalox
2006-05-07, 20:54:14
Sollte es denn wirklich sein, dass heutige Grafikkarten für detaillierte Spieleumgebungen deutlich zu langsam sind?
Die_Allianz
2006-05-07, 20:59:11
sorry wenn ich die frage so dazwischen werfe, aber ist cellfaktor denn nur diese eine location und reiner MP? ich hab noch nie was anderes davon gesehen!?
Bokill
2006-05-07, 21:06:39
Avalox[/POST]']Sollte es denn wirklich sein, dass heutige Grafikkarten für detaillierte Spieleumgebungen deutlich zu langsam sind? Kann es sein, dass deswegen ATI und NVIDIA eine Heidenangst davor haben?
betasilie
2006-05-07, 21:08:58
BlackBirdSR[/POST]']Die Screenshots sind toll.
Leider ist mit dieser Qualität die performance auf einer X1900XT unspielbar.
In spielbaren Settings sieht das Spiel dann sehr! viel schlechter aus.
Die Performance ist nicht gut!
Auf was für Hardware sind denn dann die Videos entstanden?
wieso sollten grafikkartenhersteller angst davor haben dass ihre produkte zu langsam sind? wenn man sich die entwicklung anschaut wo es von version zu version zu einer enormen steigerung der leistungsfähigkeit gekommen ist kann es für sie doch nur gut sein wenn mehr und mehr wege gefunden werden diese leistung zu verbrauchen
Slipknot79
2006-05-07, 21:31:04
betareverse[/POST]']Auf was für Hardware sind denn dann die Videos entstanden?
Das frage ich mich auch, zudem ist noch ein Video "nebenbei" aufgezeichnet worden...
Avalox
2006-05-07, 21:41:03
Bokill[/POST]']Kann es sein, dass deswegen ATI und NVIDIA eine Heidenangst davor haben?
ja, da ist was dran. Bisher wurde die Spielwichtige Geometrie immer schön durch die CPU geliefert. Die CPU stellt sich nun heraus, ist aber alles andere als gut geeignet für diese Aufgabe im speziellen. Die GPU Hersteller leben ja momentan in einer schönen Welt. Sie sagen was in ist, die Welt misst die Computergeschwindigkeit fast ausschließlich in FPS. Die GPU Hersteller rechnen schön mit einer maximal möglichen Szenario Komplexität anhand des Durchsatzes der bekannten CPUs. Steigerungen darin lassen sich schön über einen längeren Zeitraum im voraus planen. Nun macht die Szenario Komplexität einen enormen Hüpfer nach vorne. Die GPU Hersteller sind mit einer neuen Herausforderung konfrontiert. Wurden doch überschüssige Renderingleistung doch schon mal gerne in Bildverbessernde Funktionen gesteckt. AF/AA oder allgemein höhere Auflösungen. Könnte sich nun als falsch erweisen. Die aktive Rolle der GPU Hersteller könnte in die defensive gedrängt werden.
Ich finde die Entwicklung sehr interessant. Könnte zu einem generellen Umdenken führen. Mal sehen, ob die Marktmacht der Grafikkarten Hersteller ausreicht um den einen neuen Trend zu verhindern.
Schon aus diesen Grund sollte ich mir mal eine PhysX Karte zulegen. Werde ich wohl auch mal machen, sobald mit jemand die Zusammenarbeit mit der X-Fi am PCI Bus bestätigt.
TheGamer
2006-05-07, 21:43:00
Slipknot79[/POST]']Das frage ich mich auch, zudem ist noch ein Video "nebenbei" aufgezeichnet worden...
Ja und, was hat das mit der performance zu tun wenns richtig aufgezeichnet wurde?
kevsti
2006-05-07, 21:46:57
Slipknot79[/POST]']Das frage ich mich auch, zudem ist noch ein Video "nebenbei" aufgezeichnet worden...naja fürs Video brauchen die dann nurn paar % rechenleistung, wenn die eh schon so extreme Rechner benutzen um sowas hinzubekommen.. aber vlt. haben sie alles auch nur mit ner guten Cam aufgenommen? oder vlt. war das Game bei denen garnicht Realtime gerendert? sie könnten ja das vlt. auch in einer viel niedrigeren qualität gezockt haben und diese mit einer höheren Qualität nachgerendert haben und diese als Video gespeichert haben?
Avalox
2006-05-07, 21:52:41
Ich würde nicht so viel Wert auf die Geschwindigkeit im Video legen.
Es sagt ja niemand, dass das Video in Echtzeit auch gerendert wurde.
Auch auf der Grafikkarte lässt sich schön Frame für Frame rendern und in einem Videostream aufnehmen.
TheGamer
2006-05-07, 21:53:24
kevsti[/POST]']naja fürs Video brauchen die dann nurn paar % rechenleistung, wenn die eh schon so extreme Rechner benutzen um sowas hinzubekommen.. aber vlt. haben sie alles auch nur mit ner guten Cam aufgenommen? oder vlt. war das Game bei denen garnicht Realtime gerendert? sie könnten ja das vlt. auch in einer viel niedrigeren qualität gezockt haben und diese mit einer höheren Qualität nachgerendert haben und diese als Video gespeichert haben?
Man muss ja nicht unbedingt den Computer verwenden auf dem man spielt um das Video aufzunehmen noch mus sman ueberhaupt keien PC dafuer verwenden :D
Soll tatsaechlcih Luete geben dei einen Videorekorder an der Graka angeshclossen haben :D
BlackBirdSR
2006-05-07, 23:23:29
Ich weiß nicht wie die Videos entstanden sind, und welche Rechner verwendet wurden.
Aber HDR mit Tonemapping, Schatten UND dem überall dominanten Per Pixel Motion Blur bringt eine X1900XT in einstellige fps Bereiche bei 1024x768
Und ohne Motion Blur sieht Cellfactor echt mies aus, da überall Aliasing.
Da muss dann AA ran, wobei man zumindest bei nVidia auf echtes HDR verzichten muss ....
betasilie
2006-05-07, 23:32:35
BlackBirdSR[/POST]']Ich weiß nicht wie die Videos entstanden sind, und welche Rechner verwendet wurden.
Aber HDR mit Tonemapping, Schatten UND dem überall dominanten Per Pixel Motion Blur bringt eine X1900XT in einstellige fps Bereiche bei 1024x768
Und ohne Motion Blur sieht Cellfactor echt mies aus, da überall Aliasing.
Da muss dann AA ran, wobei man zumindest bei nVidia auf echtes HDR verzichten muss ....
Du meinst also, dass die Videos offline gerendert wurden? :|
kevsti
2006-05-07, 23:48:56
Wer weiß wies auf nen Quad SLi mit 7900GTXs ausieht.. und ob die entwickler nicht ne optimierte version haben, die sie aber wegen zuvielen bugs etc.. nicht als demo ausgeben..
hat Ageia eigentlich was mit den Entwickler von Cell Factor zutuen? oder sind sie sogar selbst die Entwickler? warum sonst sollte ein entwickler ein Spiel entwickeln was im endefekt nur ein bruchteil der PC-Gamer zocken kann, wenn dahinter nicht eine Marketingstrategie seitens Ageia steht..
Avalox[/POST]']ja, da ist was dran. Bisher wurde die Spielwichtige Geometrie immer schön durch die CPU geliefert. Die CPU stellt sich nun heraus, ist aber alles andere als gut geeignet für diese Aufgabe im speziellen. Die GPU Hersteller leben ja momentan in einer schönen Welt. Sie sagen was in ist, die Welt misst die Computergeschwindigkeit fast ausschließlich in FPS. Die GPU Hersteller rechnen schön mit einer maximal möglichen Szenario Komplexität anhand des Durchsatzes der bekannten CPUs. Steigerungen darin lassen sich schön über einen längeren Zeitraum im voraus planen. Nun macht die Szenario Komplexität einen enormen Hüpfer nach vorne. Die GPU Hersteller sind mit einer neuen Herausforderung konfrontiert. Wurden doch überschüssige Renderingleistung doch schon mal gerne in Bildverbessernde Funktionen gesteckt. AF/AA oder allgemein höhere Auflösungen. Könnte sich nun als falsch erweisen. Die aktive Rolle der GPU Hersteller könnte in die defensive gedrängt werden.
Ich finde die Entwicklung sehr interessant. Könnte zu einem generellen Umdenken führen. Mal sehen, ob die Marktmacht der Grafikkarten Hersteller ausreicht um den einen neuen Trend zu verhindern.
Schon aus diesen Grund sollte ich mir mal eine PhysX Karte zulegen. Werde ich wohl auch mal machen, sobald mit jemand die Zusammenarbeit mit der X-Fi am PCI Bus bestätigt.
Das mag sein... Nur wieso sollten nun die Gpu hersteller angst haben? weil aegias physx karte nun grakas ersetzt? weil nun ein neuer spitzengpu hersteller am markt ist? Klar kann man eine Gpu überfordern... das kann man mit jeder komponente (cpu/ram usw) aber deshalb muss niemand "angst" um seine produkte haben. es zeigt lediglich das sie aktuell noch nicht leistungsfähig genug für diese entwicklung (phy karten) sind und bremst sie vlt aus. DENN: wer kauft sich gute physik um dann nur mit mittelmäßiger grafik zu zocken?
da ist optik schon wichtiger als "ein bisschen physik" denn das auge spielt mehr mit als die korrekte wahrnehmung der physik
BTW: ich freu mich schon auf die ersten ALDI/etc werbeprospekte in denen pcs mit solchen karten angepriesen werden und ich dann gefragt werde wofür man sowas braucht. Die rückkehr der selbstzusammengestellten pcs *G* (ich werd ja bei neukäufen öfters mal nach rat gefragt, und ein selbst zusammengestellter pc ist einfach günstiger (keine unnötigen steckkarten...))
Rente
2006-05-08, 08:31:02
Blaze[/POST]']Hat überhaupt schon irgendwer auf diesem Planeten eine Karte? (außer Ageia selbst ;))
Wenn ich die Preise bei Geizhals seh könnt ich k*tzen, 280 € und das ist nur die kleine Version.
Mal ehrlich, wer kauft sich denn für den Preis so ein Teil?
Korrekt, niemand... :rolleyes:
Tombman? :biggrin:
Nein im Ernst von Marketing scheint Ageia meiner Meinung nach nicht viel zu verstehen. Wenn sie die Demo auch auf normalen CPUs lauffähig gemacht hätten könnten sie zu jedem Zeitpunkt in der Demo, in der die Fps unter 25 gehen, schön Werbung einblenden. Dann könnte sich wenigsten jeder ein Bild davon machen und müsste sich nicht auf Videos, etc. verlassen.
Haarmann
2006-05-08, 09:20:54
Wirklich lustig find ich, dass es eine PCI Karte ist. Wenn die Spiele wohl wirklich davon gebrauch machen würden, werden die Boards wohl keine Slots mehr haben ;).
MuLuNGuS
2006-05-08, 09:21:40
es gibt ja nicht nur herumfliegende objekte, richtig phun kommt doch erst auf wenn sogar flüssigkeiten eingesetzt werden wie in den techdemos die immerhin auf der UE3 entstanden sind.
http://ageia.com/physx_in_action/tech_demos.html
wäre ja geil wenn flüssigkeiten endlich realistisch aus fässern auslaufen wenn man löcher reinballert oder umwirft.
sicher ist:
das die games in den kommenden jahren noch ein ziemlichen schub in sachen gameplay machen werden aufgrund von physikbeschleunigung, egal ob Havok oder Physx.
Avalox@Gast
2006-05-08, 09:43:42
Ob-1[/POST]'] Nein im Ernst von Marketing scheint Ageia meiner Meinung nach nicht viel zu verstehen. Wenn sie die Demo auch auf normalen CPUs lauffähig gemacht hätten könnten sie zu jedem Zeitpunkt in der Demo, in der die Fps unter 25 gehen, schön Werbung einblenden.
Die Leistung des Physik Beschleuniger Karte in FPS zu messen?
Man sollte sich mal von dem drögen, Grafikkarten bevorteilenden FPS trennen.
Wie wäre es mal mit TPF - Texel per Frame, OPF - Objekte per Frame, PPF - Polygone per Frame. Vielleicht noch mit dem Kürzel 'animiert' davor.
Der elende Bezug und Reduzierung von allen auf die FPS ist das wahre Übel.
Gouvernator
2006-05-08, 10:12:46
evtl. kommt bald ne Ageia PhysX emulation raus.. würde mal gerne das Cell Factor demo zocken, aber selbst wenn ne emulation rauskommt.. wenn die nicht gerade aus feinste optimiert ist und den GPU verwendet.. wird wohl die fps zahl unter 1 liegen ;/
Da bin ich anderer Meinung. Ageia hat einfach nur den Entwicklern auf die Eier getreten damit die ein paar anständige "physik"-effekte einbauen die nicht wie geplant von einem Pentium2 berechnet werden können sondern etwas anspruchsvoller. Ich bin mir sicher das PhysX nur eine Attrappe ist :biggrin:
Avalox@Gast[/POST]']Der elende Bezug und Reduzierung von allen auf die FPS ist das wahre Übel.
Jeder der Ahnung hat weiss das FPS nur bei der Spielbarkeit und demnach beim Tuning und nicht bei der Leistungsmessung einzelner komponenten ein Maßstab sein kann. (Leistungsvergleiche kompletter Systeme lassen sich durchaus mithilfe der FPS anstellen)
Jeder der bei z.B. einer Soundkarte u.ä. nach FPS Vor- und Nachteilen urteilt hat schlichtweg keine Ahnung und naja... Jeder weiss eben von dem was ihm wichtig ist... (FPS oder eben BQ/SQ/Physikdetailiertheit/etc.)
Gouvernator[/POST]']Da bin ich anderer Meinung. Ageia hat einfach nur den Entwicklern auf die Eier getreten damit die ein paar anständige "physik"-effekte einbauen die nicht wie geplant von einem Pentium2 berechnet werden können sondern etwas anspruchsvoller. Ich bin mir sicher das PhysX nur eine Attrappe ist :biggrin:
Aegia hat niemandem auf die Eier getreten... Das ganze lässt sich mit Geld wesentlich problemfreier lösen ;) Wer würde jetzt ein Game entwickeln das schon auf PhysX-Karten (die nichtmal erhältlich sind) setzt (in einem Maßstab der eine Karte benötigt...) wenn nicht für Geld (das sicher nicht von den Gamern kommen wird)?
Und wie ist das mit der Attrappe gemeint?
tombman
2006-05-08, 11:46:43
rein technisch aufen wirds auch sicher ohne, aber die haben da sicher eine Abfrage drinnen die das game ned startet wenn keine HW-PPU drinnen ist :rolleyes:
Diese Klötzchen demo direkt im Ageia Treiber schaltet ja auch auf software um, wenn es keine hw findet....
Rente
2006-05-08, 11:56:24
#44[/POST]']Jeder der Ahnung hat weiss das FPS nur bei der Spielbarkeit und demnach beim Tuning und nicht bei der Leistungsmessung einzelner komponenten ein Maßstab sein kann. (Leistungsvergleiche kompletter Systeme lassen sich durchaus mithilfe der FPS anstellen)
Jeder der bei z.B. einer Soundkarte u.ä. nach FPS Vor- und Nachteilen urteilt hat schlichtweg keine Ahnung und naja... Jeder weiss eben von dem was ihm wichtig ist... (FPS oder eben BQ/SQ/Physikdetailiertheit/etc.)
Und das meinte ich auch! Wenn Ageia zulassen würde, dass alles, was in dieser Demo vom PhysX berechnet wird auf der CPU in Software auszuführen, dann würde man auch sehen wie es vor sich her ruckelt, etc. Warum sie das nicht machen und daraus noch Profit schlagen ist mir ein Rätsel.
Newton
2006-05-08, 12:04:37
@Ob-1
Genau!
Das würde eigentlich nur den Schluss zulassen das die Physik auch auf Dualcores etc. akzeptabel laufen würde.
Auf der anderen Seite sind die Effekte auf der cell factore Demo bis jetzt die bei weitem beeindruckensten.
Ladet mal die Movies von dem einen User auf der 2 Seite runter. Echt top!
Ob sowas auch auf DC laufen würde???
S3NS3
2006-05-08, 12:11:44
Jo, verstehe ich auch nicht. So wie ich das bisher an den Infos und Demos sehe läuft die Engine genau so in Software wie mit Hardware. Dann sollte man auch die wahl haben auch wenn es VIELLEICHT von der Performance her nicht sinnvoll wäre.
Zur Performance kann man ja auch kaum was sagen. Denke aber schon das die Karte einiges draufhat. Ein "Hardwaredongle" um bestimmte Spiele starten zu dürfen wirds wohl kaum sein ;)
Habt ihr denn mal die Videos in dem Flugzeughangar gesehen?
Der Crash, der Kran der auf den Metallbehälter fällt und die Szene mit dem "Öl" was aus einem Behälter ausläuft? Fande das schon sehr beeindruckend. Und auch von dem Physikdetail ne neue Klasse.
Und ich kenne mich mit Physikberechnungen in 3DAnimationssoftware etwas aus. Das erfordert schon EINIGES an power !
Vorallem Flüssigkeiten sind extrem Aufwendig. Kennt einer Realflow?
Da geht das so unfassbar langsam das man es erst nicht glauben kann.
Für ein Glas mit Wasser das umkippt und das in "Real-Detail" kann mein Xeon schonmal ne Woche nur die Partikel berechnen. K, REALDETAIL, aber immerhin.
Ich denke die Karte kann schon einiges Leisten aber die sollten halt schaun das Sie was zaubern wo zumindest die HighEnd-Freaks sagen können Wow, haben will. Mit Games die etwas mehr Detail in Explosionen haben aber dann LANGSAMER laufen wird das nichts. Und Cellfactor da... naja... nice Physics aber eher ein kleinstauftrag in der Art "Eh mach mal gaaaanzzz viele Objekte die man Interaktiv rumwerfen kann und nochn Game drumherum" :ugly:
Abwarten... bin auf jeden dabei wenns LOHNT.
Avalox@Gast
2006-05-08, 12:14:27
Ob-1[/POST]']Und das meinte ich auch! Wenn Ageia zulassen würde, dass alles, was in dieser Demo vom PhysX berechnet wird auf der CPU in Software auszuführen, dann würde man auch sehen wie es vor sich her ruckelt, etc. Warum sie das nicht machen und daraus noch Profit schlagen ist mir ein Rätsel.
Es würde nicht das richtige Bild ergeben, weil die Grafikkarte das schwächste Teil der Kette ist.
Würdest du auf eine Software Emulation, dieselbe Szenariokomplexität berechnen lassen, dann würde dieses langsamer geschehen. Langsamere Geometrie bedeutet aber letztendlich, dass die Grafikkarte weniger stark limitiert. Das Ergebnis wäre in der Softwareemulation zu gut, weil der Grafikkarten Einfluss geringer ist.
Man müsste die PhysX mit einem Nullzeit Renderer testen, welcher zwar keine Bilder darstellt aber schnell ist. Dann könnte man auch Software Emulation, gegen Hardware testen.
FPS werden bei Physik Beschleunigern regelrecht gefährlich. Weil Physiklose Szenarien niedriger Komplexität, gegen Physikbehaftete Szenarien hoher Komplexität getestet werden. Eine hohe Komplexität fährt scheinbar noch heute jede Grafikkarte an den Rand. Die FPS Zahl sinkt über Gebühr und wird viele zu falschen Schlüssen führen.
S3NS3
2006-05-08, 12:20:02
Avalox@Gast[/POST]']Es würde nicht das richtige Bild ergeben, weil die Grafikkarte das schwächste Teil der Kette ist.
Würdest du auf eine Software Emulation, dieselbe Szenariokomplexität berechnen lassen, dann würde dieses langsamer geschehen. Langsamere Geometrie bedeutet aber letztendlich, dass die Grafikkarte weniger stark limitiert. Das Ergebnis wäre in der Softwareemulation zu gut, weil der Grafikkarten Einfluss geringer ist.
Man müsste die PhysX mit einem Nullzeit Renderer testen, welcher zwar keine Bilder darstellt aber schnell ist. Dann könnte man auch Software Emulation, gegen Hardware testen.
FPS werden bei Physik Beschleunigern regelrecht gefährlich. Weil Physiklose Szenarien niedriger Komplexität, gegen Physikbehaftete Szenarien hoher Komplexität getestet werden. Eine hohe Komplexität fährt scheinbar noch heute jede Grafikkarte an den Rand. Die FPS Zahl sinkt über Gebühr und wird viele zu falschen Schlüssen führen.
Stimmt schon, klar. Aber die FPS sind am Ende, egal warum und wie und weshalb nun hoch oder niedrig, aber das auf was es ankommt.
Würde aber auch gerne zusätzlich eine "Rohleistungsmessung" der Softwareoptimierten gegen die Hardware-Engine sehen. Wäre mal interessant.
m.sch
2006-05-08, 12:24:36
#44[/POST]']
Und wie ist das mit der Attrappe gemeint?
Er meint,bei PhysX handelt es sich höchstwahrscheinlich um PLACEBO-Chips. :biggrin:
Higans
2006-05-08, 12:25:51
Wie gut Ageias Physx auf Dualcore läuft, demonstriert doch heute schon der 3dmark06.
Man bekommt bei gleichem Takt mit einer Dualcore CPU etwa die 1,8 fache Leistung, was sicherlich auf Ageia Physx zurückzurühren ist.
Eine spezielle Hardwarebeschleunigung würde aber im Vergleich einer Softwarebeschleunigung von 1,8 den Faktor 40 bringen, nach eigenen Aussagen.
Ageia Physx läuft auf der Schnittstelle Novodex (welches multithreading unterstützt, Dualcore), und deshalb auch grundsätzlich ohne spezielle Hardware, nur eben dann mit deutlich weniger FPS.
S3NS3[/POST]']Stimmt schon, klar. Aber die FPS sind am Ende, egal warum und wie und weshalb nun hoch oder niedrig, aber das auf was es ankommt.
Nein, dass stimmt nicht. Die FPS sind eine Grösse, welche nicht einen bestimmten Wert unterschritten soll. Ob man dann mehr FPS hat als diese Grösse ist völlig nebensächlich. Das ist das Problem an FPS. Die FPS verkommen zur generellen Messgrösse. Dabei hat eine hohe FPS Zahl überhaupt keinen Sinn.
Eine hohe FPS Zahl ist damit mitnichten eine praktische Grösse.
Avalox@Gast
2006-05-08, 12:29:57
ups. Namen vergessen
Higans[/POST]']Wie gut Ageias Physx auf Dualcore läuft, demonstriert doch heute schon der 3dmark06.
Man bekommt bei gleichem Takt mit einer Dualcore CPU etwa die 1,8 fache Leistung, was sicherlich auf Ageia Physx zurückzurühren ist.
Eine spezielle Hardwarebeschleunigung würde aber im Vergleich einer Softwarebeschleunigung von 1,8 den Faktor 40 bringen, nach eigenen Aussagen.
das wäre aber nur der fall bei einer reinen physik demo... in einem game würde wohl vorher die graka limitieren. was bringt die 40x physikleistung wenn man nix von sieht?
wobei bei flüssigkeiten die mehrleistung sicherlich ausgeschöpft werden kann, da das eher weniger ansprüche an die graka stellt... oder sehe ich das falsch?
Higans
2006-05-08, 12:53:13
Jo, der Faktor 1,8 bezieht sich jetzt nur auf den CPU Test in 3dmark06.
Dieser Wert wird ja dann irgendwie ins Gesamtergebnis künstlich eingerechnet.
Physikprogrammierung ist heute ein sehr limitierender Faktor, weil sehr CPU intensiv, der Trend geht aber immer mehr zu realistischen Physics, deshalb kommt jetzt eine Hardwarebeschleunigung, die die CPU entlastet genau richtig
Gouvernator
2006-05-08, 12:54:26
http://www.cotec.de/downloads/detail.asp?did=42&IT=44&SES=1
Hier bitte, ein Physik-Demo für jedermann. Die Bewegungen die dieses uraltes Demo simuliert lässt jede HavokXX alt aussehen und PhysX höchstwahrscheinlich auch.
Higans
2006-05-08, 12:58:39
Gouvernator[/POST]']http://www.cotec.de/downloads/detail.asp?did=42&IT=44&SES=1
Hier bitte, ein Physik-Demo für jedermann. Die Bewegungen die dieses uraltes Demo simuliert lässt jede HavokXX alt aussehen und PhysX höchstwahrscheinlich auch.
Sobald MS DirectPhysic in Directx implementiert haben, sind sowieso sämtliche anderen Physikstandards Geschichte. Das wird eben genauso ablaufen wie mit 3dfx und opengl usw.
Higans[/POST]']Sobald MS DirectPhysic in Directx implementiert haben, sind sowieso sämtliche anderen Physikstandards Geschichte. Das wird eben genauso ablaufen wie mit 3dfx und opengl usw.
Ja die Politik von MS ist schon stellenweise eine Schande... Konkurrenz wird gnadenlos ausgemerzt. Auch wenns bei DX praktisch ist...
ShadowXX
2006-05-08, 13:05:15
Higans[/POST]']Sobald MS DirectPhysic in Directx implementiert haben, sind sowieso sämtliche anderen Physikstandards Geschichte. Das wird eben genauso ablaufen wie mit 3dfx und opengl usw.
Das sehe ich ähnlich...wer dann von den Herstellern nicht auf den DX-Zug mit aufspringt hat verloren.
Ich werde deshalb auch mit dem Kauf einer Physik-Karte bis zum Tag der MS-Veröffentlichung warten.
@Avalox:
Ich glaube gar nicht mal, das die GPUs am Ende sind, sondern das DX9-Interface (das hasst nämlich viele gleichzeit dargestellte Objekte aka "The Small Batch Problem") bzw. indirekt dann wieder die CPU.
Interessant wäre, wie die Games/Demos unter Vista performen würden, wo dieses DX9-Problem sehr stark entschärft wurde.
Siehe auch hier:
http://enthusiast.hardocp.com/article.html?art=MTA0NSwxLCxoZW50aHVzaWFzdA==
#44[/POST]']Ja die Politik von MS ist schon stellenweise eine Schande... Konkurrenz wird gnadenlos ausgemerzt. Auch wenns bei DX praktisch ist...
Ohne DX wären wir nicht dort, wo wir heutzutage mit den Grakas sind....
Eine einheitliche Schnittstelle ist quasi ein muss für solche Sachen....wir sollten MS eher "Dankbar" sein, denn nur so wird sich ein Feature wie Phyisk per Physik-Addon-Karten überhaupt durchsetzten können.
Gummikuh
2006-05-08, 13:11:19
Ich bin mal ziemlich auf den endgültigen Preis gespannt und was es "wirklich" bringt...
Higans
2006-05-08, 13:12:46
Ich hab mir grad mal dieses interaktivephysics angeschaut, da fand ich aber die rocketdemo von Ageias Novodex wesentlich beeindruckender.
tombman
2006-05-08, 13:16:26
sehe ich auch so, DX war en Segen, sonst hätte jeder einfach geprogged was er wollte.
Bin auch schwer dafür einen Physik API Standard zu definieren, kann ruhig ms machen ;)
btw, weiß wer wo es schon PPU Karten LAGERND gibt? :naughty:
Ja, ich wär so wahnsinnig mir dieses Spielzeug zu kaufen ;)
(auf ebay hab ich nur eine 129mb für 290€ in GB gefunden und eine für 230€ in USA, beide zu teuer)
tombman
2006-05-08, 13:18:09
Higans[/POST]']Ich hab mir grad mal dieses interaktivephysics angeschaut, da fand ich aber die rocketdemo von Ageias Novodex wesentlich beeindruckender.
Ich würde zu gern wissen ob die "big bang" Novodex demo mit einer PPU flüssig laufen würde, die rennt mit heutigen cpus unter 5fps. DAS wäre mal ein echter Beweis wie mächtig die Karte sein kann. (fyi, 4 Türme werden durch Kugeln zerfetzt, ca 16000 Objekte insgesamt)
ShadowXX
2006-05-08, 13:35:56
tombman[/POST]']Ich würde zu gern wissen ob die "big bang" Novodex demo mit einer PPU flüssig laufen würde, die rennt mit heutigen cpus unter 5fps. DAS wäre mal ein echter Beweis wie mächtig die Karte sein kann. (fyi, 4 Türme werden durch Kugeln zerfetzt, ca 16000 Objekte insgesamt)
Und bei genau sowas limitiert IMO eher das DX9-Interface....
....One of the biggest limitations is API object overhead. In fact game content developers are currently being bottlenecked by this overhead. Out of all the improvements that could be pushed into DirectX 10, the issue at the top of the list for most game developers was to lessen API object overhead.
What we mean by API object overhead is that the API is using CPU cycles to achieve tasks necessary for rendering before being output to the video card for drawing. When rendering a game, the application first has to call to the API and then the API calls to the driver before it ever interacts with your video card’s GPU. These calls are all handled by the CPU, using valuable resources and creating a potential bottleneck.
Within those procedures are limitations of how many objects you can show onscreen at one time in one frame. Objects can be anything in the game, a character or tree for example. Current limitations are around 500 objects in one frame. Anything over that and you can run into severe CPU bottlenecks....
Qualle: http://enthusiast.hardocp.com/article.html?art=MTA0NSwyLCxoZW50aHVzaWFzdA==
Neomi
2006-05-08, 13:53:08
ShadowXX[/POST]']Und bei genau sowas limitiert IMO eher das DX9-Interface....
Sobald man Geometry Instancing nutzen kann (und bei massenweise identischen Blöcken geht das prima), sind es nur noch sehr wenige Drawcalls. Und Novodex Rocket nutzt GI, wenn die Hardware das kann (GI ist in D3D9 an SM3 gekoppelt). Du kannst das prima überprüfen, indem du die passende Demo aufrufst, die Physik pausierst (wichtig) und dir die Frames anschaust.
tombman
2006-05-08, 14:05:09
Leute man kann die cellfaktor demo IM EDITOR auch ohne PPU ausprobieren. Allerdings nicht als richtiges game sondern nur zum rumrennen und mit der Physik spielen. Und jetzt kommst: das ganze rennt auch ohne PPU flüssig (meistens 30fps)
Dh, die Anforderung PPU haben zu müssen wurde nur künstlich eingebaut, rein von der performance her gehts auch OHNE. (das einzige was nicht geht ist die cloth simulation).
Ein Typ hier hat erklärt wie es zu laden ist.
http://www.hardforum.com/showpost.php?p=1029401364&postcount=24
Die Anzeige der Wegpunkte hat er aber ned wegbekommen, is aber egal.
Jedenfalls ist das wieder so ein ALIBIGAME wo versucht wird den Leuten einzureden ohne PPU rennt es nicht flüssig ;)
ShadowXX
2006-05-08, 14:09:42
Neomi[/POST]']Sobald man Geometry Instancing nutzen kann (und bei massenweise identischen Blöcken geht das prima), sind es nur noch sehr wenige Drawcalls. Und Novodex Rocket nutzt GI, wenn die Hardware das kann (GI ist in D3D9 an SM3 gekoppelt). Du kannst das prima überprüfen, indem du die passende Demo aufrufst, die Physik pausierst (wichtig) und dir die Frames anschaust.
Aber nur dann....und dann müssem die Devs GI auch erst mal benutzen (ab wann wird das noch mal offiziell von ATI-Karten unterstützt? X1000-Karten wenn ich mich richtig erinnere...)
MuLuNGuS
2006-05-08, 14:28:48
@tombman
wie läuft es denn mit oder ohne dualcore?
®
Lool!
Das ist echt ein dicker Hund!
http://www.hardforum.com/showpost.p...64&postcount=24
Lade mir auch grad die Demo und schau obs auch ohne läuft.
Slipknot79
2006-05-08, 14:51:05
Gast[/POST]']Lool!
Das ist echt ein dicker Hund!
http://www.hardforum.com/showpost.p...64&postcount=24
Lade mir auch grad die Demo und schau obs auch ohne läuft.
Link ged ned^^
tombman
2006-05-08, 15:08:42
Slipknot79[/POST]']Link ged ned^^
nimm meinen link, der geht.
tombman
2006-05-08, 15:15:47
MuLuNGuS[/POST]']@tombman
wie läuft es denn mit oder ohne dualcore?
®
Also, durch den 955ee presler (4 "cores") kann ich sehr gut schauen wie weit es optimiert ist.
Gute Nachricht, es rennt mit 2 cores deutlich schneller.
Beliebige Stelle:
1 core: 20fps
1core + HT: 28fps
2 cores: 28fps
2cores + 2x HT: 28fps
Dh, es ist der engine egal ob man HT oder einen echten zusätzlichen core hat, alles darüber hinaus bringt aber keinen speed mehr.
Ich schätze mal, daß es einen eigenen thread für die physics PPU gibt, den dann der zweite core (oder HT) übernimmt, und drüber hinaus nix weiter threaded ist. (Achtung, nur Vermutung)
Jedenfalls ist klar, daß eine highend cpu die PPU für dieses game NICHT BRAUCHEN würde. (im editor gibts einen Fehler wegen der Cloth Simu., deshalb wird die nicht dargestellt (erwartet wahrscheinlich ne echte PPU), aber ich kann mir ned vorstellen, daß das die cpu nicht auch noch hinbekommen würde, denn in der Novodex Techdemo rennt cloth auch flüssig rein über software)
Bis jetzt hab ich noch nix gesehen, was eine PPU von der reinen Rechenleistung rechtfertigen würde. Moderne cpus können das auch. Naja, hoffen wir, daß es bald techdemos gibt, die eindeutig die Überlegenheit der PPU zeigen, und nicht nur "marketing-hype-demos" ;)
Bokill
2006-05-08, 15:16:12
Higans[/POST]']Sobald MS DirectPhysic in Directx implementiert haben, sind sowieso sämtliche anderen Physikstandards Geschichte. Das wird eben genauso ablaufen wie mit 3dfx und opengl usw. Ageia hat als Partner ... Microsoft ...
PS: Und OpenGL ist so weit ich weiss alles andere wie tot, das ist Glide von 3DFX, aber mithin eben nicht OpenGL.
Oder um es anders zu sagen, es gehen auch Standards ohne Microsoft ...
MFG Bobo(2006)
BlackBirdSR
2006-05-08, 15:28:47
tombman[/POST]']
Ich schätze mal, daß es einen eigenen thread für die physics PPU gibt, den dann der zweite core (oder HT) übernimmt, und drüber hinaus nix weiter threaded ist. (Achtung, nur Vermutung)
NovodermX ist grundsätzlich multithreaded. Zumindest gibt Ageia das an.
S3NS3
2006-05-08, 15:30:21
tombman[/POST]']Also, durch den 955ee presler (4 "cores") kann ich sehr gut schauen wie weit es optimiert ist.
Gute Nachricht, es rennt mit 2 cores deutlich schneller.
Beliebige Stelle:
1 core: 20fps
1core + HT: 28fps
2 cores: 28fps
2cores + 2x HT: 28fps
Dh, es ist der engine egal ob man HT oder einen echten zusätzlichen core hat, alles darüber hinaus bringt aber keinen speed mehr.
Ich schätze mal, daß es einen eigenen thread für die physics PPU gibt, den dann der zweite core (oder HT) übernimmt, und drüber hinaus nix weiter threaded ist. (Achtung, nur Vermutung)
Jedenfalls ist klar, daß eine highend cpu die PPU für dieses game NICHT BRAUCHEN würde. (im editor gibts einen Fehler wegen der Cloth Simu., deshalb wird die nicht dargestellt (erwartet wahrscheinlich ne echte PPU), aber ich kann mir ned vorstellen, daß das die cpu nicht auch noch hinbekommen würde, denn in der Novodex Techdemo rennt cloth auch flüssig rein über software)
Bis jetzt hab ich noch nix gesehen, was eine PPU von der reinen Rechenleistung rechtfertigen würde. Moderne cpus können das auch. Naja, hoffen wir, daß es bald techdemos gibt, die eindeutig die Überlegenheit der PPU zeigen, und nicht nur "marketing-hype-demos" ;)
Ok, aber überlege was du für eine CPU hast und dann nur 28FPS? Vielleicht würde die Demo aber auf "normaleren" PC´s mit der Karte auf 50 FPS laufen. Also... VIELLEICHT ;) Das wäre jetzt interessant zu wissen!
Monger
2006-05-08, 15:32:23
Bokill[/POST]']Ageia hat als Partner ... Microsoft ...
Das heißt doch gar nix. Partner von MS heißt doch nur, dass man derzeit keine Konkurrenz darstellt. MS wird nie selber Physikkarten bauen, warum sollten sie Ageia also sabotieren?
Aber Ageia hat nur dann eine Chance, wenn sie einen proprietären Standard einführen. Wenn MS eine allgemein zugängliche Schnittstelle präsentiert, werden sich alle großen Hardwarehersteller auf dieses Feld stürzen, und Ageia wird halt nur ein kleiner Fisch im Haifischbecken.
tombman
2006-05-08, 15:32:31
S3NS3[/POST]']Ok, aber überlege was du für eine CPU hast und dann nur 28FPS? Vielleicht würde die Demo aber auf "normaleren" PC´s mit der Karte auf 50 FPS laufen. Also... VIELLEICHT ;) Das wäre jetzt interessant zu wissen!
Also laut dem Typen der die Karte hat rennt es auch nur in 30fps (circa!), dürfte also ned wirklich viel bringen...
S3NS3
2006-05-08, 15:34:10
tombman[/POST]']Also laut dem Typen der die Karte hat rennt es auch nur in 30fps (circa!), dürfte also ned wirklich viel bringen...
Hmm, wenn der rest des Systems vergleichbar ist wärs ja echt nicht der bringer. Aber könnte ja dennoch auf kleineren Systemen was bringen.
Werd gleich wenn gesäugt auch mal das Demo gucken, mal gespannt.
BlackBirdSR
2006-05-08, 15:34:56
tombman[/POST]']Also laut dem Typen der die Karte hat rennt es auch nur in 30fps (circa!), dürfte also ned wirklich viel bringen...
Teste doch mal was passiert, wenn du eine Granate in eine größere Ansammlung feuerst..
brechen die fps stark ein? bzw gibt es Ausetzer?
Und sei bitte ehrlich, danke.
tombman
2006-05-08, 15:36:11
BlackBirdSR[/POST]']Teste doch mal was passiert, wenn du eine Granate in eine größere Ansammlung feuerst..
brechen die fps stark ein? bzw gibt es Ausetzer?
Und sei bitte ehrlich, danke.
Als ob das nicht schon längst getan hätte ;)
Einbrechen tut da praktisch gar nix, rennt flüssig weiter ;)
BlackBirdSR
2006-05-08, 15:37:42
tombman[/POST]']Als ob das nicht schon längst getan hätte ;)
Einbrechen tut da praktisch gar nix, rennt flüssig weiter ;)
Dann hast du gewissen Leuten etwas vorraus...
tombman
2006-05-08, 15:38:29
S3NS3[/POST]']Hmm, wenn der rest des Systems vergleichbar ist wärs ja echt nicht der bringer. Aber könnte ja dennoch auf kleineren Systemen was bringen.
Werd gleich wenn gesäugt auch mal das Demo gucken, mal gespannt.
Schau dir mal seine screenshots an, in den grünen stats rechts ganz unten die fps Anzeige -> lol, da hatte ich deutlich mehr.
Aber er schreibt auch http://www.hardforum.com/showpost.php?p=1029400827&postcount=22
"The fps do dip quite a bit during the detonations but for most of the part it is around 30..."
S3NS3
2006-05-08, 15:41:25
Bei dem Rechner mit der Karte echt nicht der bringer.
Hätte mehr erwartet. Für den Preis muss die Karte über die Physik lachen können.
Rente
2006-05-08, 15:42:11
Also auf meinem Opteron 146@2.6 läuft es deutlich schlechter als bei Tombman, die Bildwiederholrate liegt zwischen 10-30 allerdings ruckelt es mit 1GB Ram wie Sau. Also wenn es mit der Karte möglich ist mehr Objekte darzustellen und gleichzeitig die Bildwiederholrate über 25 zu halten, dann wäre es schon nicht schlecht.
http://img381.imageshack.us/img381/7069/cellfactor6mb.th.jpg (http://img381.imageshack.us/my.php?image=cellfactor6mb.jpg)
€: Endlich 1000 Posts! :biggrin:
tombman
2006-05-08, 15:58:36
Ob-1[/POST]']Also auf meinem Opteron 146@2.6 läuft es deutlich schlechter als bei Tombman, die Bildwiederholrate liegt zwischen 10-30 allerdings ruckelt es mit 1GB Ram wie Sau. Also wenn es mit der Karte möglich ist mehr Objekte darzustellen und gleichzeitig die Bildwiederholrate über 25 zu halten, dann wäre es schon nicht schlecht.
http://img381.imageshack.us/img381/7069/cellfactor6mb.th.jpg (http://img381.imageshack.us/my.php?image=cellfactor6mb.jpg)
€: Endlich 1000 Posts! :biggrin:
ist ja auch nur single core, ich hab ja schon gesagt, daß die engine HT oder dualcore ausnutzen kann.
Btw, bereite gerade ein kleines Video vor- upload kommt bald ;)
S3NS3
2006-05-08, 15:59:43
HmmmmMMM :)
Was soll ich sagen. Ich denke schon das die Karte etwas bringt.
Ich habe in dem Editor in etwa 2-10 fps. Macht ja voll Fun ;)
S3NS3
2006-05-08, 16:01:36
Aja, CPU last etwa 40%. Teilweise aber weniger. Kommt drauf an.
Glaub aber die GRAFIK hakt, nicht Physik. Editor-Overhead bestimmt.
tombman
2006-05-08, 16:16:30
OK, hier ist der Beweis, daß das Ding bei mir flüssig rennt. (fraps hat auch noch was abgezogen!)
http://rapidshare.de/files/19935947/CELLFAKTOR.avi.html
p.s. is nur 2.5mb groß, kann also jeder saugen ;)
EDIT
Hier zwei shots vor und während der Explosion.
http://img463.imageshack.us/img463/1529/cellfaktor17my.jpg
http://img463.imageshack.us/img463/7763/cellfaktor26kh.jpg
BlackBirdSR
2006-05-08, 16:31:03
Dieser Ruckler direkt vor der Explosion...
ist der nur im Video?
betasilie
2006-05-08, 16:37:33
Ich dachte das würde nicht in Echtzeit laufen. ;)
BlackBirdSR
2006-05-08, 16:41:46
betareverse[/POST]']Ich dachte das würde nicht in Echtzeit laufen. ;)
Liegt wohl daran, dass bei tombman die Kisten und Rohre anscheinend nicht in ihre Einzelteile zerfallen.
Sie bleiben fast alle als ganze Objekte bestehen. Die Anzahl an zu berechnenden Objekten ist somit um ein Vielfaches kleiner.
[dzp]Viper
2006-05-08, 16:45:34
BlackBirdSR[/POST]']Liegt wohl daran, dass bei tombman die Kisten und Rohre anscheinend nicht in ihre Einzelteile zerfallen.
Sie bleiben fast alle als ganze Objekte bestehen. Die Anzahl an zu berechnenden Objekten ist somit um ein Vielfaches kleiner.
ganz genau - das ist der Punkt. Sobald man diese Karte einsetzt, werden noch mehr Objekte dargestellt. Die Detailfülle geht stark nach oben. Darum auch der nur "leichte" Anstieg der FPS bei den Leuten die die Karte haben.
S3NS3
2006-05-08, 16:48:33
Bei mir ist das wörtlich ne Diashow :)
Kann aber kaum glauben das das nur wegen der Physik so ist.
Denke eher was mit Grafik/Editor.
tombman
2006-05-08, 16:53:21
BlackBirdSR[/POST]']Dieser Ruckler direkt vor der Explosion...
ist der nur im Video?
Ne, der is auch in echt gaaaaaanz kurz da, stört aber ned.
Ich bereite gerade noch 2 Vides vor. Habe extra einem riesigen Haufen angehäuft um zu zeigen, daß die Physik bei mir flüssig rennt ;)
betasilie
2006-05-08, 16:56:37
BlackBirdSR[/POST]']Liegt wohl daran, dass bei tombman die Kisten und Rohre anscheinend nicht in ihre Einzelteile zerfallen.
Sie bleiben fast alle als ganze Objekte bestehen. Die Anzahl an zu berechnenden Objekten ist somit um ein Vielfaches kleiner.
Nun, Du hast gesagt die Grafik wäre nicht darstellbar, also GPU-limitiert, was ich in keinster Hinsicht erkennen konnte.
Dass es ggf. nur eingeschränkt ohne dedizierte Physik-Hardware läuft, hätte ich nicht angezweifelt. :tongue:
Gouvernator
2006-05-08, 16:59:27
@Tombman
Stelle die aber nicht bei Rapidshare rein. Ich hasse es 2 stunden zu warten. Stelle sie bei megaupload.com
Neomi
2006-05-08, 17:04:17
tombman[/POST]']OK, hier ist der Beweis, daß das Ding bei mir flüssig rennt. (fraps hat auch noch was abgezogen!)
OK, es rennt flüssig, während die Objekte ruhig stehen, also während sie eingefroren sind und daher kaum Rechenlast erzeugen. Es rennt auch flüssig, wenn die Objekte einzeln umherfliegen, aber keine Kräfte untereinander austauschen. Aber in exakt dem einen Moment, in dem die Objekte aufgetaut werden und untereinander Kräfte über Kontaktpunkte austauschen, stockt es sehr deutlich.
Es kann sein, daß das ein Ressourcenproblem bei der Grafik war. Wenn du aktuell nVidia im Rechner hast (da ist das Problem nach meiner Empfindung stärker vorhanden), das Programm kein Preloading auf Ressourcen macht und bestimmte Ressourcen durch die Detonation zum ersten mal seit Programmstart benutzt wurden, dann könnte das so ein unglücklicher Zufall gewesen sein. Ansonsten sieht es aber sehr danach aus, daß deine CPU in genau dem Moment doch nicht reicht, in dem wirklich viel gerechnet werden muß.
BlackBirdSR
2006-05-08, 17:05:20
betareverse[/POST]']Nun, Du hast gesagt die Grafik wäre nicht darstellbar, also GPU-limitiert, was ich in keinster Hinsicht erkennen konnte.
Ist es auch nicht. Schau dir tombmans Screens an *wäh* und die Videos oder Screenshots des Herstellers ;)
betasilie
2006-05-08, 17:19:48
BlackBirdSR[/POST]']Ist es auch nicht. Schau dir tombmans Screens an *wäh* und die Videos oder Screenshots des Herstellers ;)
Was kann man denn in der Demo einstellen an Grafiksettings? Ist es wirklich GPU-limitiert?
tombman
2006-05-08, 17:22:34
betareverse[/POST]']Was kann man den in der Demo einstellen an Grafiksettings? Ist es wirklich GPU-limitiert?
Es ist überhaupt nicht GPU limitiert, die X1900 langweilt sich. Egal welche Fenstergröße im Editor, praktisch selbe fps...
tombman
2006-05-08, 17:25:40
Also Interaktionen sind kein Problem, fps bleiben hoch.
Allerdings habe ich tatsächlich viel weniger Trümmerteile als im CF-Video. (einige wenige aber schon). Flüssigkeitsaustritt und Cloth-Anim. hab ich auch nicht...
Wenn ich allerdings über 25fps habe bei einer großen Explosion und der Typ MIT PPU nur 7fps + mehr Trümmer, weiß ich nicht, ob mein presler das nicht auch könnte (ich meine die 7fps od. 10fps) MIT vielen Trümmerteilen...
Nene, noch bin ich nicht überzeugt-- es müßte halt mal wer fähiger ne PPU haben in unserem Forum, dann könnte man mehr testen ;)
BlackBirdSR
2006-05-08, 17:28:27
tombman[/POST]']
Wenn ich allerdings über 25fps habe bei einer großen Explosion und der Typ MIT PPU nur 7fps + mehr Trümmer, weiß ich nicht, ob mein presler das nicht auch könnte (ich meine die 7fps od. 10fps) MIT vielen Trümmerteilen...
Da hast du recht.
Es sind viel mehr Trümmer, aber meist nur 8fps, und ein fürchterliches Stocken. Teils unspielbar
@beta:
HDR, Tone-Mapping, Soft-Shadows, Per Pixel Motion-Blur und schon ist es vorbei mit 2-stelligen fps-Werten.
betasilie
2006-05-08, 17:31:27
BlackBirdSR[/POST]']@beta:
HDR, Tone-Mapping, Soft-Shadows, Per Pixel Motion-Blur und schon ist es vorbei mit 2-stelligen fps-Werten.
Das war aber doch im Video zu sehen. :confused: ... Oder war das ein komplettes off-line-Rendermovie, was ja wohl ein Witz wäre.
BlackBirdSR
2006-05-08, 17:33:07
betareverse[/POST]']Das war aber doch im Video zu sehen. :confused: ... Oder war das ein komplettes off-line-Rendermovie, was ja wohl ein Witz wäre.
Entweder haben die etwas was extrem viel schneller ist als meine X1900XT, oder das Video ist nicht ganz sauber.
Die Performance im Video ist zu keinster Zeit dem was man im Demo zu spüren bekommt.
Und ihne diese Optionen sieht die Cellfactor Demo mal ehrlich gesagt: Durschnittlich bis schlecht aus!
tombman
2006-05-08, 17:36:41
Zweites Video, wo man ganz klar eine Interaktion zwischen den Teilen hat, fps brechen nicht ein....
http://rapidshare.de/files/19942432/CELLINTERAKT.avi.html
p.s: habe versucht bei megaupload zu uploaden, aber nach dem erfolgreichen upload kam nirgendwo ein link oder ähnlches zum download. Ich hoffe mal die wollten kein neues Fenster aufmachen, weil das blockt mein FF.
betasilie
2006-05-08, 17:37:21
Hmm ok, das wäre ja mal extrem blöd, wenn das Video so massiv gefaked war. ;(
Blaze
2006-05-08, 17:41:15
Sagtmal, ist es normal dass ich nur so ne milchige Suppe auf den Screen bekomme?
http://img398.imageshack.us/img398/8167/hmpf1fd.th.jpg (http://img398.imageshack.us/my.php?image=hmpf1fd.jpg)
Woran könnts liegen?
Slipknot79
2006-05-08, 17:42:36
tombman[/POST]']Zweites Video, wo man ganz klar eine Interaktion zwischen den Teilen hat, fps brechen nicht ein....
http://rapidshare.de/files/19942432/CELLINTERAKT.avi.html
p.s: habe versucht bei megaupload zu uploaden, aber nach dem erfolgreichen upload kam nirgendwo ein link oder ähnlches zum download. Ich hoffe mal die wollten kein neues Fenster aufmachen, weil das blockt mein FF.
Bei Sekunde 13 bleibt er erneut kurz hängen^^
tombman
2006-05-08, 17:46:20
Slipknot79[/POST]']Bei Sekunde 13 bleibt er erneut kurz hängen^^
Und? Stört ingame nicht, garantiert.
Und nachdem ich gesehen habe wie GRAW _mit_ PPU rennt, weiß ich daß dieser extrem kurze Hänger MIT PPU noch viel länger dauert ;)
tombman
2006-05-08, 17:49:42
BlackBirdSR[/POST]']Hier mal mit Qualität wie im Video oder den Screenshots.
auf einer X1900XT
sorry muss sein
Hast du eine PPU Karte oder ist der shot von wem anderen?
betasilie
2006-05-08, 17:51:10
BlackBirdSR[/POST]']Hier mal mit Qualität wie im Video oder den Screenshots.
auf einer X1900XT
sorry, aber denke du verstehst das
Ohne PPU Karte weiß man nun nicht sicher, wie sehr die CPU-last der Physik das limitiert.
Aber ok, wahrscheinlich wird es dann aber mit einem Crossfiresystem so laufen, wie in dem Video.
tombman
2006-05-08, 17:54:32
BlackBirdSR[/POST]']Diese Szene ist ausschließlich GPU limitiert.
Keine Bots oder größere Explosionen.
Woher kommt der shot? Quelle?
Simon
2006-05-08, 18:03:38
Ich hab noch ein paar MB recht fixen Web Space frei, falls jemand was hochladen will... Schickt mir einfach ne Mail mit dem Inhalt oder so...
Bokill
2006-05-08, 18:07:45
Monger[/POST]']Das heißt doch gar nix. Partner von MS heißt doch nur, dass man derzeit keine Konkurrenz darstellt. MS wird nie selber Physikkarten bauen, warum sollten sie Ageia also sabotieren? Nun ja ... das mit dem "Nie" im Zusammenhang von Microsoft sollte man da lieber vermeiden.
Microsoft hat auch schon eine Menge IP/Wissen mit Hardware. So ist die CPU in der Xbox 360 in das IP-Eigentum von Microsoft gekommen. Da hat Microsoft aus der Xbox 1 gelernt, da hatte NVIDIA komplett seine Finger darauf gehabt (bis auf die Intel CPU natürlich). Microsoft kann also später auch ohne Partner IBM weitermachen.
Aber Ageia hat nur dann eine Chance, wenn sie einen proprietären Standard einführen. Jain. Sie haben eine Chance, wenn sie viele Partner gewinnen, und zwar die ganz dicken Dinger.
Wenn MS eine allgemein zugängliche Schnittstelle präsentiert, werden sich alle großen Hardwarehersteller auf dieses Feld stürzen, und Ageia wird halt nur ein kleiner Fisch im Haifischbecken. Und was dann, wenn die Schnittstelle auf der Ageia-Lösung basiert? Aber nun gut. Alles Spekulation und Ageia muss erst die "early adopers" erwärmen ... ganz klar da muss ein Nutzer wie tombman ran :D ...
MFG Bobo(2006)
Slipknot79
2006-05-08, 18:10:58
>Und? Stört ingame nicht, garantiert.
Ingame heisst zB 8 spieler, wenn da jetzt jeder in die kisten reinknallt, würde mich das sehr wohl stören, vorallem dann bei wenn ich gerade beim aimen bin. Ne PPU ist da unumgänglich :(
BlackBirdSR
2006-05-08, 18:12:49
Slipknot79[/POST]']>Und? Stört ingame nicht, garantiert.
Ingame heisst zB 8 spieler, wenn da jetzt jeder in die kisten reinknallt, würde mich das sehr wohl stören, vorallem dann bei wenn ich gerade beim aimen bin. Ne PPU ist da unumgänglich :(
Und wenn diese Ruckler mit einem Physikbeschleuniger jetzt schlimmer, länger und störender wären?
tombman
2006-05-08, 18:13:48
Slipknot79[/POST]']>Und? Stört ingame nicht, garantiert.
Ingame heisst zB 8 spieler, wenn da jetzt jeder in die kisten reinknallt, würde mich das sehr wohl stören, vorallem dann bei wenn ich gerade beim aimen bin. Ne PPU ist da unumgänglich :(
Mit PPU hast noch wahrscheinlich noch viel mehr lag, wenn die Daten über den PCI-Bus rauschen müssen ;D;D
Slipknot79
2006-05-08, 18:15:28
BlackBirdSR[/POST]']Und wenn diese Ruckler mit einem Physikbeschleuniger jetzt schlimmer, länger und störender wären?
Was wäre wenn... Ich kenne daweil tombmans Videos (und auch bei mir gibt es diese Aussetzer) und die offiziellen und keine was wäre wenn-videos.
Monger
2006-05-08, 18:15:44
Bokill[/POST]']
Und was dann, wenn die Schnittstelle auf der Ageia-Lösung basiert?
Selbst wenn: sobald die Schnittstelle standardisiert und offen ist, wird sie auch von den Spieleentwicklern genutzt werden. Und allerspätestens dann werden sich zumindest ATI und nVidia darauf stürzen.
Nur solange Ageia den Takt angibt, haben sie eine Chance. Ich denke da z.B. an Creative Labs, die nicht zuletzt deshalb Marktführer sind, weil sie EAX als Standard etablieren konnten, und diesen Standard selbst nunmal am besten erfüllen. Wer weiß was passiert wäre, wenn sie sich brav an die DirectSound Vorgaben gehalten hätten...
BlackBirdSR
2006-05-08, 18:16:04
Slipknot79[/POST]']Was wäre wenn... Ich kenne daweil tombmans Videos (und auch bei mir gibt es diese Aussetzer) und die offiziellen und keine was wäre wenn-videos.
Lass uns demnächst nochmal über genau dieses Thema reden.
tombman
2006-05-08, 18:18:08
BlackBirdSR[/POST]']Lass uns demnächst nochmal über genau dieses Thema reden.
Hehe, diese Aussage zusammen mit der Löschung des PPU screens = mir geht ein Licht auf :naughty: ;D;D
Slipknot79
2006-05-08, 18:18:29
BlackBirdSR[/POST]']Lass uns demnächst nochmal über genau dieses Thema reden.
Kein Problem. oO
BlackBirdSR
2006-05-08, 18:22:26
tombman[/POST]']Hehe, diese Aussage zusammen mit der Löschung des PPU screens = mir geht ein Licht auf :naughty: ;D;D
Die Screens waren zu 101% GPU Limitiert.
Ich wollte nur zum Nachdenken anregen, dass die gezeigten Shots und Videos nicht unbedingt das zeigen, was momentan erreichbar ist.
tombman
2006-05-08, 18:31:28
BlackBirdSR[/POST]']Die Screens waren zu 101% GPU Limitiert.
Ich wollte nur zum Nachdenken anregen, dass die gezeigten Shots und Videos nicht unbedingt das zeigen, was momentan erreichbar ist.
Hmm, und wennst die Auflösung runterdrehst? Wie schauts dann aus?
BlackBirdSR
2006-05-08, 18:36:51
tombman[/POST]']Hmm, und wennst die Auflösung runterdrehst? Wie schauts dann aus?
keine Ahnung :(
tombman
2006-05-08, 18:39:07
BlackBirdSR[/POST]']keine Ahnung :(
ich dachte du hast ne Karte? :confused:
tombman
2006-05-08, 18:40:10
Slipknot79[/POST]']Was wäre wenn... Ich kenne daweil tombmans Videos (und auch bei mir gibt es diese Aussetzer) und die offiziellen und keine was wäre wenn-videos.
Du willst wissen wie hoch der lag MIT PPU ist? Zieh dir das Video mal rein, da kannst die Sekunden zählen ...ROFL
http://www.mashie.org/hardforum/CellFactor_02.wmv
Ist von einem user im [H] forum...
Hier gibts mehr
http://www.hardforum.com/showpost.php?p=1029403474&postcount=29
@tombman
Ich hab mal Dein zweites Video angeschaut "CELLINTERAKT.avi".
Versuch mal bitte Granaten zu schmeißen so das die Objekte auch zerstört werden(wegen den Trümmerteilen die dann entstehen müssten).
Merci!
BlackBirdSR
2006-05-08, 18:43:25
Gast[/POST]']@tombman
Ich hab mal Dein zweites Video angeschaut "CELLINTERAKT.avi".
Versuch mal bitte Granaten zu schmeißen so das die Objekte auch zerstört werden(wegen den Trümmerteilen die dann entstehen müssten).
Merci!
geht im Softwaremodus nicht
tombman
2006-05-08, 18:43:28
Gast[/POST]']@tombman
Ich hab mal Dein zweites Video angeschaut "CELLINTERAKT.avi".
Versuch mal bitte Granaten zu schmeißen so das die Objekte auch zerstört werden(wegen den Trümmerteilen die dann entstehen müssten).
Merci!
Kann ich dir auch so sagen, da wird nix zerstört, die Rohre bekomm ich gar nicht kaputt, Kisten auch eher nicht. Ich hab aber einen screen hier mit Trümmerteilen, also IRGENDWAS kann schon zerstört werden, aber viel zu wenig...
BlackBirdSR
2006-05-08, 18:44:20
tombman[/POST]']Du willst wissen wie hoch der lag MIT PPU ist? Zieh dir das Video mal rein, da kannst die Sekunden zählen ...ROFL
http://www.mashie.org/hardforum/CellFactor_02.wmv
Ja die Videos sind schon interessant.
Von Ghost-Recon gibt es ja auch solche.
Slipknot79
2006-05-08, 18:48:36
tombman[/POST]']Du willst wissen wie hoch der lag MIT PPU ist? Zieh dir das Video mal rein, da kannst die Sekunden zählen ...ROFL
http://www.mashie.org/hardforum/CellFactor_02.wmv
Ist von einem user im [H] forum...
Hier gibts mehr
http://www.hardforum.com/showpost.php?p=1029403474&postcount=29
Passt, dann muss hier noch was nachgebessert werden zur Vollversion Oo
tombman
2006-05-08, 19:20:39
Hab noch was entdeckt, im Editor gamen zeigt auch nicht alle Grafikeffekte. Von HDR merk ich gar nix...
tombman,
wie hast Du dieses blaue Gitternetz wegbekommen?
@tombman
naja eine CPU die 1000 € kostet und bestimmt auch noch ohne Ende übertaktet ist,und gerade mal halb soviel kann wie eine PPU das ist auch nicht das wahre.
Philippe
2006-05-08, 23:14:23
hallo zusammen,
Also imo ist der Unterschied auf den videos (mit/ohne) ppu schon ordentlich.
Und ich denke mal das der Lag mit ner Anständigen Programmierung auch wegfällt. Vieleicht war dieser eine Ausetzer im Video 2 ja auch nur ein Laderuckler.
Aber wir werden sicher bald genügend infos zu den Dingern bekommen.
Was mich aber viel mehr intressieren würde, warum bieted Ageia keine PPU´s für diverse Supercomputer usw an. Mit so einer Karte könnte man die Leistung von Serverfarmen der NASA CERN usw. sicher um einiges Steigern. Die Rechnen warscheinlich auch nur zig mio. Matrizen den lieben Tag lang. Und dort könnte man auch locker 1000€ für ne art Quadro PPU verlangen, wenn man daurch 1-2 xeons ersetzt.
mfg
Neomi
2006-05-08, 23:19:34
Philippe[/POST]']Was mich aber viel mehr intressieren würde, warum bieted Ageia keine PPU´s für diverse Supercomputer usw an. Mit so einer Karte könnte man die Leistung von Serverfarmen der NASA CERN usw. sicher um einiges Steigern. Die Rechnen warscheinlich auch nur zig mio. Matrizen den lieben Tag lang. Und dort könnte man auch locker 1000€ für ne art Quadro PPU verlangen, wenn man daurch 1-2 xeons ersetzt.
Gibt es, allerdings nicht von Ageia:
http://www.clearspeed.com/downloads/CSX600Processor.pdf
Bokill
2006-05-08, 23:25:04
Philippe[/POST]'] ... Was mich aber viel mehr intressieren würde, warum bieted Ageia keine PPU´s für diverse Supercomputer usw an. Mit so einer Karte könnte man die Leistung von Serverfarmen der NASA CERN usw. sicher um einiges Steigern. Die Rechnen warscheinlich auch nur zig mio. Matrizen den lieben Tag lang. Und dort könnte man auch locker 1000€ für ne art Quadro PPU verlangen, wenn man daurch 1-2 xeons ersetzt.
mfg Weil es für dem High End Bereich noch bessere Lösungen gibt.
Zum einen sind das Chips wie die von Clearspeed, andererseits kommen auch FPGAs zum Einsatz, die in Verbindung von Firmware + Software und Kompilern zusammen ebenso ein Vielfaches von klasssichen Prozessoren leisten.
Ageia macht in so fern was neues, dass sie gezielt den Endkundenmarkt "Heim-PC" in Angriff nehmen. Als Chipgattung macht Ageia nichts neues und ungewönhliches, und hat mit dem PhysX eben nicht das geschnitten Brot erfunden.
MFG Bobo(2006)
BlackBirdSR
2006-05-08, 23:35:47
Philippe[/POST]']hallo zusammen,
Also imo ist der Unterschied auf den videos (mit/ohne) ppu schon ordentlich.
Und ich denke mal das der Lag mit ner Anständigen Programmierung auch wegfällt. Vieleicht war dieser eine Ausetzer im Video 2 ja auch nur ein Laderuckler.
Du könntest recht haben.
Nach Angaben der Entwickler muss bei größeren Explosionen mit vielen Objekten auf einen Schlag unmengen von Shader-Code ausgeführt werden.
Dabei verschluckt sich das Spiel anscheinend bei den ersten paar Mal.
Ob das nun der einzige Grund ist, kann ich nicht sagen.
Ist natürlich klar, dass man als Hersteller die Schuld immer auf die anderen schiebt. Die Wahrheit liegt wohl mitten zwischen CPU-PPU-GPU :)
Slipknot79
2006-05-08, 23:42:43
BlackBirdSR[/POST]']Du könntest recht haben.
Nach Angaben der Entwickler muss bei größeren Explosionen mit vielen Objekten auf einen Schlag unmengen von Shader-Code ausgeführt werden.
Dabei verschluckt sich das Spiel anscheinend bei den ersten paar Mal.
Ob das nun der einzige Grund ist, kann ich nicht sagen.
Ist natürlich klar, dass man als Hersteller die Schuld immer auf die anderen schiebt. Die Wahrheit liegt wohl mitten zwischen CPU-PPU-GPU :)
So wie aussieht haben wir immer noch Null Ahnung :( Erst kann es die Schnittstelle sein mit 120MB/s (real) und jetzt Nachladeruckler. Habs mal bei mir getestet, leider steht mein PC so dass ich die HDD-Diode nicht sehen kann wenn ne Explosion stattfindet. Also Monitor und HDD Diod gleichzeitig im Auge ged nicht, aber ich höre ein wenig (realtiv leise da per SMART-edit gesilenced) meine Festplatte wenn sie lädt. Und bei den Explosionen lädt sie tatsächlich.
Dann dürfte der Kolegge mit dem 2-3s-Lag (Link von Tombman) und seiner PPU nen mächtigen HDD-Lader gehabt haben.
BlackBirdSR
2006-05-08, 23:45:14
Slipknot79[/POST]']
Dann dürfte der Kolegge mit dem 2-3s-Lag (Link von Tombman) und seiner PPU nen mächtigen HDD-Lader gehabt haben.
Definitiv nicht.
Entweder PhysX macht in diesem Moment schlapp, die Latenz macht Probleme oder der Shader-Code kann nicht schnell genug geladen werden.
Das hat mit der Festplatte an sich wenig zu tun und es sind keine zufälligen Nachladeruckler durch Festplattenaktivität.
Das Problem ist einfach vorhanden, und wird von allen Seiten bestätigt.
Diese Cellfactor Demo läuft langsam und bei großen Explosionen kommt es zu Aussetzern.
BlackBirdSR[/POST]']Definitiv nicht.
Entweder PhysX macht in diesem Moment schlapp, die Latenz macht Probleme oder der Shader-Code kann nicht schnell genug geladen werden.
Das hat mit der Festplatte an sich wenig zu tun und es sind keine zufälligen Nachladeruckler durch Festplattenaktivität.
Das denke ich auch denn: Was soll da bitte von der HDD geladen werden? die physik? wohl kaum.... das problem ist wohl eher die Rechenleistung/Bandbreite
Leonidas
2006-05-09, 08:36:23
Da wir keine NDAs brechen und uns demzufolge an den 9. Mai als Veröffentlichungstermin gehalten haben, ist unser Artikel auch erst jetzt verfügbar:
http://www.3dcenter.org/artikel/ageia_physx/
Schöner Review!
Nun aber zur Kritik :B
Finde das ist ein total mislungener start von Aegia.
Ich selber hatte da viel mehr erwartet,
nachdem ich die ersten Techdemos gesehen hatte.
Denn es sieht meistens so aus als ob die CPU ein limitierender Faktor ist.
Da stellt sich die Frage "Ist das eine pseudo Karte?",
denn sobald Physikberechnungen anstehen bricht die Framerate in den Keller.
Das die Grafikkarte (1900XT) limitiert ist unwahrscheinlich.
Es ist aber wahrscheinlicher, dass der Aegia Processor ansich
zu schwach ist und zu langsam rechnet.
Somit Ergebnisse der Berechnungen viel zulangsam ausgegeben werden
und es zu rucklern kommt während das System auf diese wartet.
Würde mich nicht wundern wenn die Karte floppt.
dildo4u
2006-05-09, 09:51:52
Computerbase Preview
http://www.computerbase.de/artikel/hardware/2006/vorschau_bfg_physx_accelerator/
dildo4u[/POST]']Computerbase Preview
http://www.computerbase.de/artikel/hardware/2006/vorschau_bfg_physx_accelerator/
Der Test ist einfach nur vernichtend. Wenn die anderen Tester auch zu solchen Ergebnissen kommen, ist der Traum von Ageia sehr schnell ausgeträumt. Ich sage mal, es setzt sich nicht durch.
Bei dem ersten 3D-Beschleuniger hatte man im Gegensatz sofort ein Aha-Erlebnis bei Tomb Raider und wurde auch entsprechend von den Medien gefeiert. Und man darf dies nicht unterschätzen, es gibt kaum Produkte, die sich entgegen den Medien durchgesetzt haben.
Der Test hier sieht auch nicht besser aus
http://www.3dcenter.de/artikel/ageia_physx/
(del676)
2006-05-09, 10:38:14
sehr gut - totgeburt
eventuell wirds was 2007, mit besserer HW, ausgereiften treibern und massig game-unterstützung
][immy
2006-05-09, 10:52:16
wdragon[/POST]']Der Test ist einfach nur vernichtend. Wenn die anderen Tester auch zu solchen Ergebnissen kommen, ist der Traum von Ageia sehr schnell ausgeträumt. Ich sage mal, es setzt sich nicht durch.
Bei dem ersten 3D-Beschleuniger hatte man im Gegensatz sofort ein Aha-Erlebnis bei Tomb Raider und wurde auch entsprechend von den Medien gefeiert. Und man darf dies nicht unterschätzen, es gibt kaum Produkte, die sich entgegen den Medien durchgesetzt haben.
Der Test hier sieht auch nicht besser aus
http://www.3dcenter.de/artikel/ageia_physx/
bei den S3 Virge chips etwa auch?
BlackBirdSR
2006-05-09, 11:00:57
'][immy'[/POST]']bei den S3 Virge chips etwa auch?
Ja die angepassten Spiele die dabei waren, liefen ganz gut.
Zumal man soetwas noch nie zu Gesicht bekommen hatte.
Nur die anderen Spiele konnte man vergessen.
Zumal die 2MB der ersten 500DM Virges nicht ausreichten für 3D-Spiele. (Ausser den beiden mitgelieferten Sachen)
Shink
2006-05-09, 11:05:09
BlackBirdSR[/POST]']Ja die angepassten Spiele die dabei waren, liefen ganz gut.
Zumal man soetwas noch nie zu Gesicht bekommen hatte.
Nur die anderen Spiele konnte man vergessen.
Zumal die 2MB der ersten 500DM Virges nicht ausreichten für 3D-Spiele. (Ausser den beiden mitgelieferten Sachen)
3drealms machte z.B. eine angepasste Version von "Terminal Velocity", die lief verdammt schnell und sah (für damalige Verhältnisse) toll aus. War aber natürlich für DOS - DirectX-Treiber programmieren konnte S3 wohl noch nie...
BlackBirdSR
2006-05-09, 11:27:37
Shink[/POST]']3drealms machte z.B. eine angepasste Version von "Terminal Velocity", die lief verdammt schnell und sah (für damalige Verhältnisse) toll aus. War aber natürlich für DOS - DirectX-Treiber programmieren konnte S3 wohl noch nie...
Wenn man es ganz nüchtern betrachter:
Es wird wohl nichts anderes passieren, als bei den 3D-Karten damals.
Der Anfang ist gemacht, wenn auch nur sehr zäh.
Es wird Verbesserungen geben, und am Ende haben wir brauchbare Physik.
Daran besteht eigentlich kein Zweifel.
Ist nur die Frage wie lange es dauern wird, und wieviele Teilnehmer dabei auf der Strecke bleiben.
Ageia hat sich mutig vorgewagt. Aber das haben auch S3 oder Rendition. Und die gingen klaglos unter, während ein Mitbewerber die peinliche Situation ausnutze.
Wenige bekommen eine 2. Chance, so wie nVidia oder ATI.
tombman
2006-05-09, 11:29:05
Physics-DECELERATOR :cool:
So wie damals S3 und Rendition bei Grafik damals ;)
Btw, bei der Boxes demo hab ich mit 4ghz presler 120fps ;)
Btw, könntet ihr mir die Karte mal zum testen vorbeschicken, ich teste das dann mal mit 4ghz und 5ghz presler + crossfire ;D
ShadowXX
2006-05-09, 11:34:42
'][immy'[/POST]']bei den S3 Virge chips etwa auch?
Wobei der Vergleich mit den Virge-Chips IMHO etwas hinkt.
Vom Aufwand und Zeitvolumen was hinter PhysX steckt, sollte man es eher mit einer Voodoo1 vergleichen.....und dann fällt das Urteil für PhysX noch vernichtender aus.
tombman
2006-05-09, 11:36:11
Gast[/POST]']tombman,
wie hast Du dieses blaue Gitternetz wegbekommen?
Gar ned...aber die Dreiecke gehen weg- draufclicken -> renderer -> hidden = true
Gouvernator
2006-05-09, 11:37:06
Endlich habe ich mir gestern die Flashanimation auf Ageia Website angesehen. Und ich war mit meinem Kumpel sofort einig - ein Fake. Unmöglich sowas jetzt in Echtzeit zu machen. Ausserdem ein riesen Aufwand für Designer.
tombman
2006-05-09, 11:37:57
Gast[/POST]']@tombman
naja eine CPU die 1000 € kostet und bestimmt auch noch ohne Ende übertaktet ist,und gerade mal halb soviel kann wie eine PPU das ist auch nicht das wahre.
"...halb soviel kann..." ??? Eine cpu kann 1000x mehr als eine PPU...
tombman
2006-05-09, 11:39:03
Gouvernator[/POST]']Endlich habe ich mir gestern die Flashanimation auf Ageia Website angesehen. Und ich war mit meinem Kumpel sofort einig - ein Fake. Unmöglich sowas jetzt in Echtzeit zu machen. Ausserdem ein riesen Aufwand für Designer.
Zieh dir mal das 400mb BINK VIDEO, dann siehst wie geil es hätte aussehen KÖNNEN, und zwar in 30fps und nicht 5fps..
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.