Archiv verlassen und diese Seite im Standarddesign anzeigen : ATI und Physics Processing
In einem Interview macht Ati bekannt, daß schon seit weilen 9700 Physics Processing möglich wäre!
GPUs Will Process Physics, ATI Says (http://www.xbitlabs.com/news/video/display/20051005202331.html)
Das ist nichts neues. Jede DX9-GPU ist ein frei programmierbarer Streamprozessor.
Allerdings hat ATi das Problem, dass in dem Fall 24bit FP zu wenig sein könnten bei R4xx und R3xx.
Quasar
2005-10-06, 18:48:30
Das schöne ist, daß man mit Crossfire eine GPU Physik rechnen lassen könnte und eine das Rendering übernehmen kann. =)
Das schöne ist, daß man mit Crossfire eine GPU Physik rechnen lassen könnte und eine das Rendering übernehmen kann. =)Nö, dazu müsste man Crossfire sogar ausschalten.
Quasar
2005-10-06, 18:59:07
Nö, dazu müsste man Crossfire sogar ausschalten.
Mit Crossfire meinte ich ein Crossfire-taugliches Mainboard und zwei Grafikkarten darin. =) Sorry für die ungenaue Ausdrucksweise.
Dann kann man gleich eine besser spezialisierte PPU einsetzen.
AnarchX
2005-10-06, 19:15:06
Ist das hier angepriessene Physic Processing nicht ein Widerspruch zudem, dass Rx5x0 das Vertex-Texturing in Hardware fehlt.
Crushinator
2005-10-06, 19:48:10
Ist das hier angepriessene Physic Processing nicht ein Widerspruch zudem, dass Rx5x0 das Vertex-Texturing in Hardware fehlt.
Ich glaube nicht. Braucht man denn Texturen bei Physikberechnungen? :confused:
Ich glaube nicht. Braucht man denn Texturen bei Physikberechnungen? :confused:Ja. Der einzige Speicher den GPUs zur Ausgabe verwenden können sind Texturen. Aber man braucht nicht unbedingt Vertex-Texturing.
Crushinator
2005-10-06, 20:05:09
Ja. Der einzige Speicher den GPUs zur Ausgabe verwenden können sind Texturen. Aber man braucht nicht unbedingt Vertex-Texturing.
Ich glaube ich habe mich falsch ausgedrückt. Ich meinte eigentlich, ob man dafür im Vertexshader wirklich Texturen direkt aus der TMU braucht, oder ob man sich zum Speichern auch anderer Mittel bedienen kann.
Der Vertexshader wird bei so Sachen eh völlig vernachlässig (es wird meistens nur ein Quad gerendert), die komplette Rechenarbeit übernehmen die Pixelshader.
Demirug
2005-10-06, 20:28:31
Ich glaube ich habe mich falsch ausgedrückt. Ich meinte eigentlich, ob man dafür im Vertexshader wirklich Texturen direkt aus der TMU braucht, oder ob man sich zum Speichern auch anderer Mittel bedienen kann.
Die braucht man nur für geschlossene GPU Physik Kreise. Also zum Beispiel wenn die GPU völlig unabhängig von der CPU partikel oder komplexen Wellenbewegungen berechnen soll.
Wenn man die Ergebnisse wieder für die CPU braucht muss man sie sowieso über die Pixelshader in einen Buffer schreiben. Bei der derzeitigen Readback Leistung von ATI Chips würde ich allerdings eher einen nVidia Chip für sowas benutzten die sind da einfach besser was diese Sache angeht.
Die braucht man nur für geschlossene GPU Physik Kreise.Oder Render to Vertexbuffer...
Übrigens habe ich da was von Beta-Treibern in nem ATi-Paper gelesen, die das zulassen. Ich bin schon auf den Hack gespannt mit dem sie das in DX bekommen :D
Demirug
2005-10-06, 20:52:36
Oder Render to Vertexbuffer...
Übrigens habe ich da was von Beta-Treibern in nem ATi-Paper gelesen, die das zulassen. Ich bin schon auf den Hack gespannt mit dem sie das in DX bekommen :D
Das frage ich mich auch wie sie das drehen wollen.
zeckensack
2005-10-06, 22:24:11
Das frage ich mich auch wie sie das drehen wollen.
Falls noch nicht bekannt:
"Without specific support from DirectX to expose or enable R2VB ATI have to use a "backdoor" method for enabling it, as they did with Geometry instancing on VS2.0 hardware. Developers will have to first check for the FOURCC "R2VB" format to see if R2VB support is enabled by the device and then check the specific device format in order to see what capabilities it has"
Quelle (http://www.beyond3d.com/reviews/ati/r520/index.php?p=02)
Genauer wird's leider nicht.
Demirug
2005-10-06, 22:37:24
Falls noch nicht bekannt:
"Without specific support from DirectX to expose or enable R2VB ATI have to use a "backdoor" method for enabling it, as they did with Geometry instancing on VS2.0 hardware. Developers will have to first check for the FOURCC "R2VB" format to see if R2VB support is enabled by the device and then check the specific device format in order to see what capabilities it has"
Quelle (http://www.beyond3d.com/reviews/ati/r520/index.php?p=02)
Genauer wird's leider nicht.
Das kannte ich schon. Diese FourCC abfragen sind ja der übliche Weg zum pürfen ob ein DX Hack verfügbar ist. Das danach ist allerdings viel interesanter. Also wie man dem Treiber klar macht das er eine Texture und einen Vertexbuffer im Speicher zusammenlegt obwohl man sie über DX ja einzeln erzeugen muss.
Also sowas wie das OpenGL Superbuffer Prinzip.
Crushinator
2005-10-06, 23:23:00
Herzlichen Dank an Coda und Demi für die Beantwortung meiner Frage. :)
mocad_tom
2005-10-07, 15:05:52
Spekulatius:
Ich tippe mal ganz schwer drauf, das dieser neue Ringbus-Memory-Controller von Microsoft "bezahlt" wurde.
Der Grafikchip der XBox360 beinhaltet den Speichercontroller für die gesamte Maschine. Mir kam es irgendwie spanisch for wieso man plötzlich mit einer so kleinen granularität auf den Speicher zugreifen kann
- aber natürlich -
der vorteil ist hier nicht eigentlich für den Grafikchip zu finden sondern für Hauptspeicherzugriffe, die vom Xbox-Prozessor aus gestartet werden müssen.
Und nun komme ich wieder zum Topic zurück.
Wenn ATI für die XBox schon so einen hervorragenden Ringbus entwickeln durfte, dann liegt es doch wohl auch auf der Hand das NovodeX-Jobs auf die GPU ausgelagert werden können.
Das was ATI jetzt praktisch als Abfallprodukt(Physik-Berechnung auf GPU) präsentieren kann, hat bereits ein sehr viel grösseres Entwicklungs-Projekt hinter sich(Integration der NovodeX-SDK auf XBox360).
Grüße,
Tom
Demirug
2005-10-07, 15:14:00
Der "Ring Bus" ist vom Marketing aufgebauscht. Das ganze ist immer noch mehr eine Crossbar als ein Ring Bus.
mocad_tom
2005-10-07, 17:14:15
Mir ist schon klar, das die Marketing-Jungs verwursten was gerade ansteht.
Meiner Meinung ist dieser Mem-Controller eben auch mit der Anforderung im Hinterkopf entstanden, das es ein vollwertiger Controller für eine komplette Architektur(XBox360) sein muss und nicht nur ein Grafik-Chip-Mem-Controller.
Vielleicht ist es sogar "nur" ein suboptimaler Mem-Controller für einen Grafikchip, auf alle Fälle aber bärenstark für eine "Northbridge".
---------------------------------------
Anyway, wo ich eigentlich hinauswollte, wenn es schon so einen "Lohn-Design-Deal" gibt, dann könnte der auch weitreichender sein - Stichwort implementierung der Novodex-API.
Und hier räume ich den Treiber-Entwicklern von ATI und nVidia fast noch größere Erfahrungen ein als AGEIA. Was aber wichtig ist, ist die vereinheitlichte Schnittstelle. Diese wurde von Microsoft lizensiert und evtl. wurde ATI beauftragt auf diese Schnittstelle basierend einen Treiber zu entwickeln, der die Rechenwerke des Xenos-Chips ausnutzt.
Grüße,
Tom
Jesus
2005-10-07, 17:29:47
Das was ATI jetzt praktisch als Abfallprodukt(Physik-Berechnung auf GPU) präsentieren kann, hat bereits ein sehr viel grösseres Entwicklungs-Projekt hinter sich(Integration der NovodeX-SDK auf XBox360).
Grüße,
Tom
ehm, es war afaik noch nie davon die Rede das NovodeX auf irgend eine weise den 360Graphikchip mitbenutzen würde.
Demirug
2005-10-07, 17:32:55
Mir ist schon klar, das die Marketing-Jungs verwursten was gerade ansteht.
Meiner Meinung ist dieser Mem-Controller eben auch mit der Anforderung im Hinterkopf entstanden, das es ein vollwertiger Controller für eine komplette Architektur(XBox360) sein muss und nicht nur ein Grafik-Chip-Mem-Controller.
Vielleicht ist es sogar "nur" ein suboptimaler Mem-Controller für einen Grafikchip, auf alle Fälle aber bärenstark für eine "Northbridge".
Eigentlich ist er für beides gleich gut geeignet aber einer Crossbar nicht wirklich überlegen. Wenn man das ganze mit Netzwerktechnik vergleicht dann wäre ein echter Ring Bus ein Tokenring. Eine Crosbar ein gewöhnlicher Switch. Was ATI nun gebaut hat entspricht in etwa 4 Switchs deren Backplanes durch ein Dasiychain verbunden sind und über ein gemeinsames Managment Modul verfügen.
Anyway, wo ich eigentlich hinauswollte, wenn es schon so einen "Lohn-Design-Deal" gibt, dann könnte der auch weitreichender sein - Stichwort implementierung der Novodex-API.
Und hier räume ich den Treiber-Entwicklern von ATI und nVidia fast noch größere Erfahrungen ein als AGEIA. Was aber wichtig ist, ist die vereinheitlichte Schnittstelle. Diese wurde von Microsoft lizensiert und evtl. wurde ATI beauftragt auf diese Schnittstelle basierend einen Treiber zu entwickeln, der die Rechenwerke des Xenos-Chips ausnutzt.
Grüße,
Tom
Bei dem was MS scheinbar vorhat wird AGEIA eher den schwarzen Peter ziehen.
1. MS lizenziert in solchen Fällen keine Schnittstellen sondern kauft. Nur so können sie sicherstellen die Kontrolle zu haben.
2. Die Planung von MS läuft eindeutig darauf hinaus GPUs zu nutzen. Spezialchips müssen sich dann entweder anpassen oder werden halt nicht kompatibel sein.
3. Bei der XBox360 wird die CPU und nicht die GPU dié Physik rechnen. AGEIA hat dafür schon lange eine Physikengien fertig.
Jesus
2005-10-07, 21:10:22
wobei
The Windows Graphics and Gaming Technology group is looking for a software design engineer to join a growing team responsible for developing Direct Physics. This team is responsible for delivering a great leap forwards in the way game developers think about integrating Physics into their engines. Physics and real time, accurate simulation is a key part of the next generation gaming experience, bringing increased realism, greater immersion and more interesting experiences.
As a member of the core engine team you will be responsible for working on technologies such as the core simulation engine, collision detection, animation, particle effects, dynamics and constraint solving. You will be primarily responsible for key components in the architecture, developing and optimizing the performance and memory footprint while helping scale the architecture across multiple cores and well as mapping the algorithms onto GPU’s and other high performance hardware. Extensive knowledge of performance optimization on the Windows platform is required to be successful and a good understanding of the needs and requirements of game developers would be useful.
You should have excellent C/C++ skills with at least 4 years of development experience. Knowledge of DirectX and shipping game applications is strongly recommended. An understanding of Havok, Ageia, MathEngine, Meqon or ODE would be ideal. A BA/BS degree in Computer Science, Math, Physics or equivalent experience is required.
MS Career
mocad_tom
2005-10-07, 21:57:04
:biggrin:
Gab es nicht mal die Nachricht das die XBox nicht alle Funktionen der NovodeX-Api unterstützt. Funktionen wie NxFluid werden nicht unterstützt - diese Nachricht wurde aber dann dementiert - vielleicht weil diese Funktionen erfolgreich auf die GPU ausgelagert werden konnten.
Grüße,
Tom
Crushinator
2005-10-10, 15:53:06
Für die, die es noch nicht kannten.
Wie sich R520 bezüglich General Purpose Computation on Graphics Processors (http://graphics.stanford.edu/~mhouston/public_talks/R520-mhouston.pdf) schlägt. (PDF)
Von wegen zu wenig Rechenleistung. :D
Da wird ja auch viel gesampled. Ein Shader der nur aus Rechnung besteht wird z.B. auf G70 schon deutlich schneller verarbeitet.
Crushinator
2005-10-10, 16:11:27
Da wird ja auch viel gesampled. Ein Shader der nur aus Rechnung besteht wird z.B. auf G70 schon deutlich schneller verarbeitet.
Klar, ich meine nur, daß wenn das Ergebnis mit Sampeln schneller erzielt wird als mit "nur rechnen", man nicht zwingend nur rechnen muß. Abgesehen davon nutzt GROMACS auf R520 noch nicht mal mehr als PS2.0b, weil der aktuelle Treiber noch darauf begrenzt ist.
Quasar
2005-10-10, 18:07:03
Für die, die es noch nicht kannten.
Wie sich R520 bezüglich General Purpose Computation on Graphics Processors (http://graphics.stanford.edu/~mhouston/public_talks/R520-mhouston.pdf) schlägt. (PDF)
Von wegen zu wenig Rechenleistung. :D
Hier schlägt die Parallelität der ATi-Architektur zu, die Fähigkeit, Shader-ALU und Textur-ALU gleichzeitig nutzen zu können. Das ist natürlich ein Vorteil, der ja in der einen oder anderen Weise schon länger bei ATi-Nutzern anklang.
Crushinator
2005-10-10, 18:27:39
Hier schlägt die Parallelität der ATi-Architektur zu, die Fähigkeit, Shader-ALU und Textur-ALU gleichzeitig nutzen zu können. Das ist natürlich ein Vorteil, der ja in der einen oder anderen Weise schon länger bei ATi-Nutzern anklang.
Daß der Unterschied von fast gleich bis in etwa 3 mal so schnell aussehen würde, hat mich dann doch etwas überrascht.
Quasar
2005-10-10, 18:34:33
Naja, es kommt halt immer drauf an, was genau man nutzt. Shader, die ausschließlich Vec2-MADDs (geht das überhaupt?) rechnen und dabei gar nicht samplen, dürften auf der G70 über viermal so schnell laufen, wie auf der X1800 XT.
Andersrum gibt es eben auch durchaus Fälle, wo die R520-Karten ihre durchaus vorhandenen Stärken (zum Teil auch deutlich) in die Waagschale werfen.
Ich habe den Eindruck, und das geht nicht gegen dich, dass hier oft vergessen wird, dass auch der R520 ein extrem leistungsfähiger Chip ist. Die Reviews sehen aufgrund der Spieleanforderungen nur nicht mehr so aus, wie man es aus den letzten Jahren kannte, wo ATi teilweise um Faktor 3 in Führung lag. Und darüber wird dann aus dem hervorragenden R520 ein Chip, der nur als "so lala" wahrgenommen wird.
Leonidas
2005-10-11, 19:24:01
Das reine Können sagt nichts darüber aus, daß es in irgendeiner Form schnell wäre. Was nützt das Vorhandensein der Möglichkeit, wenn PhysX dann in der Realität 10x schneller ist?
Damit will ich nicht sagen, daß PhysX wirklich 10x schneller ist. Theoretisch wäre auch ein umgedrehtes Verhältnis möglich. Der Punkt ist, daß man das messen muß, vorher ist die Sache eine reine Theorie.
Quasar
2005-10-11, 19:41:09
Das reine Können sagt nichts darüber aus, daß es in irgendeiner Form schnell wäre. Was nützt das Vorhandensein der Möglichkeit, wenn PhysX dann in der Realität 10x schneller ist?
Wenn du dein Programm sowieso in Streams ausdrückst, ist es schonmal inhärent parallel. Dann kannst du zusätzlich zu einem Thread auf jeder CPU und x Threads in der PhysX auch noch y Threads in der GPU rechnen.
Und x+y > x gilt, sobald y > 0, was wiederum durch "können" erreicht ist.
Jesus
2005-10-11, 19:44:01
Wenn du dein Programm sowieso in Streams ausdrückst, ist es schonmal inhärent parallel. Dann kannst du zusätzlich zu einem Thread auf jeder CPU und x Threads in der PhysX auch noch y Threads in der GPU rechnen.
Und x+y > x gilt, sobald y > 0, was wiederum durch "können" erreicht ist.
Falls die GPU noch Zeit hat das zu tun...
mocad_tom
2005-10-11, 20:40:34
Falls die GPU noch Zeit hat das zu tun...
Gibt es nicht irgendwo einen Punkt, wo man abwägen sollte ob mehr Realismus durch physikalisch korrektes Verhalten oder bessere visuelle Effekte erreicht werden kann.
Nehmen wir einen Sumo-Ringer - ist platt, aber mir passt er gerade in den Kragen.
Was bringt wohl mehr?
Ein möglichst aufwendiges "Haut-Shading" mit zufällig verteilten Schweißtropfen. Dafür aber ein paar starre Fettrollen.
Oder
Eine phys. realistische Simulation von ein paar Speckrollen, dafür nur ein paar Texturen aufgeklebt.
Grüße,
Tom
Juerg
2005-10-11, 22:53:43
Nehmen wir einen Sumo-Ringer - ist platt, aber mir passt er gerade in den Kragen.
Was bringt wohl mehr?
Ein möglichst aufwendiges "Haut-Shading" mit zufällig verteilten Schweißtropfen. Dafür aber ein paar starre Fettrollen.
Oder
Eine phys. realistische Simulation von ein paar Speckrollen, dafür nur ein paar Texturen aufgeklebt.Ich bin für ein paar zufällig verteilte Speckrollen mit ein paar aufgeklebten Schweisstropfen... :biggrin:
Monger
2005-10-12, 12:16:38
So wie sich das für mich anhört, wird Ageia einen unvostellbar schweren Stand haben.
Auch wenn es vielleicht über die Grafikkarte nicht ganz so effizient wie über eine spezielle Physikkarte ist, ist es doch die kundenverträglichere Lösung.
Kaum einer wird 200 € für eine Karte ausgeben, die einige wenige Spiele unterstützt. Aber jeder braucht eine Grafikkarte. Wenn die gleich Physikeffekte mit beschleunigen kann, umso besser.
Ich kann mich dann (im Idealfall) entscheiden, was mir wichtiger ist: bessere Grafik oder bessere Physik. So oder so wird die Grafikkarte aber wenigstens voll genutzt. Für ATI bzw. nVidia ist das ganze ja nur ein nützlicher Nebeneffekt. Sie müssen deshalb nichtmal ihre Hardware umwerfen.
Wenn auch noch Microsoft sich gegen Ageia quer stellt, dürften deren Überlebenschancen extrem gering sein.
Quasar
2005-10-12, 12:19:14
Falls die GPU noch Zeit hat das zu tun...
Eigentlich meinte ich jetzt nicht unbedingt Games.
Crushinator
2005-10-12, 12:28:07
(...) Kaum einer wird 200 € für eine Karte ausgeben, die einige wenige Spiele unterstützt. Aber jeder braucht eine Grafikkarte. Wenn die gleich Physikeffekte mit beschleunigen kann, umso besser. (...)
IMHO ist da ein klitzekleiner Denkfehler drin. Denn die interessante Idee hinter Physik auf GPU ist, daß man 2 Grafikkarten hat, welche man entweder in Kombination (XFire/SLI) für Beschleunigung der Grafik nutzen könnte, oder man läßt eine die Grafik beschleunigen während die andere die CPU bei der Physik unterstützt. Angenommen das wäre in der Praxis möglich, in der Summe würde das eine Extra-PPU tatsählich überflüssig machen, weil es in der Praxis einfach flexibler ist. :)
Quasar
2005-10-12, 12:55:41
Angenommen das wäre in der Praxis möglich, in der Summe würde das eine Extra-PPU tatsählich überflüssig machen, weil es in der Praxis einfach flexibler ist. :)
Meinst du jetzt Spiele-Praxis oder Praxis allgemein? Letzteres funktioniert auf jeden Fall.
Demirug
2005-10-12, 13:00:51
IMHO ist da ein klitzekleiner Denkfehler drin. Denn die interessante Idee hinter Physik auf GPU ist, daß man 2 Grafikkarten hat, welche man entweder in Kombination (XFire/SLI) für Beschleunigung der Grafik nutzen könnte, oder man läßt eine die Grafik beschleunigen während die andere die CPU bei der Physik unterstützt. Angenommen das wäre in der Praxis möglich, in der Summe würde das eine Extra-PPU tatsählich überflüssig machen, weil es in der Praxis einfach flexibler ist. :)
Die lässt man auch wenn man die zweite eigentlich für die Physik nehmen will im SLI/CrossFire Verbund. Ist viel effektiver.
Was die Leistung der PhysX Chips angeht so gibt es da derzeit zwei Zahlenmodele.
Eines spricht von 32 einfachen Vector4 FPUs ein zweites von 4 Blöcken mit jeweils 6 FMACs. Ein FMAC entspricht einem skalren MAD bei den GPUs. Ersteres könnte von der Rechenleistung noch einigermassen mit einer modernen GPU mithalten. Zweiteres eher nicht. Bleibt also nur noch der Vorteil das PhysX besser für das Streamprocessing ausgelegt ist als die GPUs. Das dürfte aber eher ein vorrübergehendens Problem sein.
Crushinator
2005-10-12, 13:07:11
Meinst du jetzt Spiele-Praxis oder Praxis allgemein? Letzteres funktioniert auf jeden Fall.
Gamepraxis natürlich. Klar, daß wenn es in der allgemeinen Praxis funktioniert heißt ja, daß es auch in Games funktionieren dürfte, wenn man es implementiert. Da aber eine solche Implementierung noch nicht gegeben ist, nehme ich nur an. :)
Crushinator
2005-10-12, 13:10:08
Die lässt man auch wenn man die zweite eigentlich für die Physik nehmen will im SLI/CrossFire Verbund. Ist viel effektiver. (...)
Zugegeben, ich habe es etwas blöd formuliert. Es ging mir darum, daß letztendlich die 2 fache Power vorhanden wäre, die man nach Bedarf mal hier oder da einsetzen könnte.
Monger
2005-10-12, 13:52:37
IMHO ist da ein klitzekleiner Denkfehler drin. Denn die interessante Idee hinter Physik auf GPU ist, daß man 2 Grafikkarten hat, welche man entweder in Kombination (XFire/SLI) für Beschleunigung der Grafik nutzen könnte, oder man läßt eine die Grafik beschleunigen während die andere die CPU bei der Physik unterstützt. Angenommen das wäre in der Praxis möglich, in der Summe würde das eine Extra-PPU tatsählich überflüssig machen, weil es in der Praxis einfach flexibler ist. :)
OK, ist richtig.
Wenn ich vor der Wahl stehe, für 200 € eine Physikkarte zu kaufen, oder für 200€ eine Grafikkarte, die ich über SLI /Crossfire entweder für zusätzliche Physikeffekte oder für leistungsstärkere Grafik verwenden kann, ist doch letzteres wesentlich flexibler.
Es sei denn man strebt SLI / Crossfire und gleichzeitig Physikunterstützung an, aber der Bedarf dafür dürfte doch verschwindend gering sein.
Ich meine nur: ich weiß nicht, an wen (außer an extreme Freaks) Ageia in Zukunft was verkaufen will. ATI als Konkurrenz dürfte erdrückend sein, selbst wenn sie leistungsmäßig nicht das selbe bieten können.
mocad_tom
2005-10-12, 14:31:03
Weiter oben hatte ich mal das Gerücht erwähnt, das keine Fluid-Simulation auf der XBox360 möglich wäre hier der Link:
http://www.extremetech.com/article2/0,1697,1855078,00.asp
Und hier das Dementi:
http://www.extremetech.com/article2/0,1558,1856641,00.asp?kc=ETRSS02129TX1K0000532
Es muss nichts heissen, eine interessante Tatsache ist es dennoch.
Evtl. ist ja hier schon ATI am Entwickeln.
Hier noch eine Demo von nVidia über Stoffsimulation auf der GPU:
http://download.nvidia.com/developer/SDK/Individual_Samples/samples.html#glsl_physics
Bei der PPU wollte man auch diesen Punkt aufgreifen.
Grüße,
Tom
Edit: Hier noch ein Link zur Fluid-Simulation auf einer GPU:
http://download.nvidia.com/developer/SDK/Individual_Samples/DEMOS/OpenGL/src/gpgpu_fluid/docs/GPU_Gems_Fluids_Chapter.pdf
][immy
2005-10-12, 14:44:27
ansich ist es doch eine tolle sache, wenn ati physik-beschleunigung über die shader realisiert. auf die art kann zumindest die hardwareseitige physik-beschleunigung im Konsumermarkt durchgesetzt werden. dadurch können dann spieleentwickler anfangen physikberechnungen von der hardware beschleunigen lassen
so könnte es kommen, ist zumindest besser als das ageia jetzt pleite geht weil es noch keinen großen markt für physikbeschleuniger gibt und dementsprechend nur ein geringer absatz dafür geschaffen wird. so gäbe es schonmal einen breite hardwareseitige unterstützung bei den spielern.
diese könnten dann schon eher überredet werden sich extra hardware zu holen da diese hardware die spiele dann wirklich merkbar beschleunigen könnte
Crushinator
2005-10-12, 17:19:49
[immy']ansich ist es doch eine tolle sache, wenn ati physik-beschleunigung über die shader realisiert. (...)
Noch toller ist's, daß es praktisch nicht auf ATi beschränkt ist. :)
mocad_tom
2005-10-13, 10:00:13
3DMark 2006 mit Physikbeschleunigung?
http://www.tweakpc.de/?news_id=8381
>Allerdings soll damit nicht nur die Möglichkeit bestehen, die Performance
>des PhysX-Chips zu messen. Auch die Geschwindigkeit von
>Single- und Multi-Core Prozessoren soll berücksichtigt werden.
>Die PhysX-Engine funktioniert auch ohne eine
>PhysX-Erweiterungskarte, profitiert aber natürlich enorm von diesen
>Karten.
Mit 3dmark06 die Physikbeschleunigungsleistung der Grafikkarte testen?
Damit hätte man dann Hausnummern zum Vergleichen zwischen PhysX(MSRP 250-300€) und einer X1600XT(MSRP 250€) als Physikbeschleuniger.
Grüße,
Tom
Demirug
2005-10-13, 10:06:24
3DMark 2006 mit Physikbeschleunigung?
http://www.tweakpc.de/?news_id=8381
>Allerdings soll damit nicht nur die Möglichkeit bestehen, die Performance
>des PhysX-Chips zu messen. Auch die Geschwindigkeit von
>Single- und Multi-Core Prozessoren soll berücksichtigt werden.
>Die PhysX-Engine funktioniert auch ohne eine
>PhysX-Erweiterungskarte, profitiert aber natürlich enorm von diesen
>Karten.
Mit 3dmark06 die Physikbeschleunigungsleistung der Grafikkarte testen?
Damit hätte man dann Hausnummern zum Vergleichen zwischen PhysX(MSRP 250-300€) und einer X1600XT(MSRP 250€) als Physikbeschleuniger.
Grüße,
Tom
Die entsprechenden Physikengine wohl von Agiea kommt unterstützt sie die Physikberechnung nur auf einer CPU oder dem PhysX Chip. Um Alternative Lösungen zu vergleichen brauchen wir erst eine unabhängige API und entsprechenden Treiber.
mocad_tom
2005-10-13, 11:50:21
*dem-Vorredner-zustimm*
Die Lizenz-Politik von AGEIA wird der Markt bestimmen, nicht umgekehrt:
http://interviews.teamxbox.com/xbox/1117/AGEIA-Technologies-Interview/p3/
Right now, the only way to unleash the power of the PhysX PPU is by using the Novodex API, right? Would you provide the inside of your architecture for other software physics engines to use? For example, let’s say Havok or Meqon Research AB wants to its engine to be PhysX compatible. You know what happened to 3dfx and GLIDE…
Manju Hegde: As mentioned in the second answer, the NovodeX SDK is natively supported on AGEIA hardware so that game developers can use the hardware physics simulation seamlessly while having a software fallback. It is also possible to use AGEIA hardware with other software physics SDKs and several of the games that will be available in the 2005 Christmas season will incorporate software physics other than Novodex. Our goal is to have every physics API supporting our hardware, there is a natural synergy with the software API and physics hardware. We would be fully supportive of Havok or Meqon Research AB porting their middleware onto our hardware.
Angenommen Havok oder Meqon Research sagt zu ATI/NV, hier ist unsere API lagert mal Teile der Physik auf die GraKa aus - kann sich dann AGEIA diesem Wettbewerbsvorteil entziehen?
Genau daran ist doch 3dfx gestorben.
Grüße,
Tom
Edit: Ageia vice president of marketing Andy Keane, who was a former vice president of marketing at graphics-chip pioneer 3Dfx ;D
Zweimal wird er doch nicht den selben Fehler machen
Jesus
2005-10-14, 19:54:01
ATI practically kicked off its press event for the Radeon X1000 series with a physics demo running on a Radeon graphics card. Rich Heye, VP and GM of ATI's Desktop Business Unit, showed off a simulation of rolling ocean waves comparing physics performance on a CPU versus a GPU. The CPU-based version of the demo was slow and choppy, while the Radeon churned through the simulation well enough to make the waves flow, er, fluidly. The GPU, he proclaimed, is very good for physics work, and he threw out some impressive FLOPS numbers to accentuate the point. A Pentium 4 at 3GHz, he said, peaks out at 12 GFLOPS and has 5.96GB/s of memory bandwidth. By contrast, a Radeon X1800 XT can reach 83 GFLOPS and has 42GB/s of memory bandwidth." B3D
Es ist doch nichts neues, dass die massiv parallele Architektur einer GPU deutlich mehr FLOPS raushauen kann.
PPU und GPU sind gar nicht so unterschiedlich.
Jesus
2005-10-14, 20:28:44
Es ist doch nichts neues, dass die massiv parallele Architektur einer GPU deutlich mehr FLOPS raushauen kann.
PPU und GPU sind gar nicht so unterschiedlich.
Eigentlich find ichs etwas wenig für so eine Karte. :|
mocad_tom
2005-10-20, 10:56:00
http://www.anandtech.com/video/showdoc.aspx?i=2574
AEGIA might have a run for it's money if ATI has anything to say about it. One AIB commented today that the idea of a dedicated scalar mathematics processor for game physics could already be replicated on ATI's R520 series silicon, although drivers for such a project only exist in R+D departments (the vendor wouldn't let us have them, we tried). The idea of offloading math to a GPU is not a new idea; many projects exist for Linux for this already. However, the indication we had was that ATI could actually do physics calculations on the card with the graphics processing simultaniously -- the bandwidth is already there. AEGIA's physics processor has already been delayed well into Q2 next year.
Benzin ins Spekulationsfeuer ;D
Grüße,
Tom
mocad_tom
2005-10-29, 01:25:03
Nennt mich Hellseher:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3620598#post3620598
Genau das meinte ich mit Havok vs. AGEIA.
Konkurrenz belebt das Geschäft.
Grüße,
Tom
m.sch
2005-10-30, 18:34:07
http://www.anandtech.com/video/showdoc.aspx?i=2574
AEGIA might have a run for it's money if ATI has anything to say about it. One AIB commented today that the idea of a dedicated scalar mathematics processor for game physics could already be replicated on ATI's R520 series silicon, although drivers for such a project only exist in R+D departments (the vendor wouldn't let us have them, we tried). The idea of offloading math to a GPU is not a new idea; many projects exist for Linux for this already. However, the indication we had was that ATI could actually do physics calculations on the card with the graphics processing simultaniously -- the bandwidth is already there. AEGIA's physics processor has already been delayed well into Q2 next year
Benzin ins Spekulationsfeuer ;D
Grüße,
Tom
Einen mathematischen Co-Prozessor zur Physikberechnung auf jede Graka
wäre eine sehr gute lösung,oder nicht.
Einen mathematischen Co-Prozessor zur Physikberechnung auf jede Graka
wäre eine sehr gute lösung,oder nicht.Nicht jeder, der eine 3D-Graka braucht, braucht beschleunigte Physikberechnungen. In gewissen Maßen kann jede WGF2/DX10-Karte für Physikberechnungen genutzt werden.
TheCounter
2005-10-30, 20:04:48
In der ATi Toy Shop Demo wird ja iirc auch die GPU (X1800) genutzt um die Wasserphysik zu berechnen (z. B. Regentropfen die an der Wand/Fenster entlang laufen). Aussehen tuts jedenfalls genial.
Aber wird wohl noch ne Weile dauern bis wir sowas in Games sehen.
mocad_tom
2005-10-30, 23:48:07
Könnte evtl. Microsoft bei der Auftragsvergabe für den Grafikkern schon dies in Planung gehabt haben.
Meiner Meinung bietet hier ein unified Shader deutliche Vorteile, er kann also als Pixel-Shader, Vertex-Shader oder für die Physik verwendet werden.
Novodex und Havok bieten ihre Physik-Middleware für die XBox an, vielleicht mit dem Unterschied, das Havok die Fluid-Berechnung auf den Grafikkern auslagert, Novodex hat sich dagegen zunächst gewehrt.
Scheinen aber dann wohl doch eingelenkt zu haben.
Grüße,
Tom
deekey777
2006-03-25, 01:12:48
Was ist damit: ATI Physics Acceleration Gets a Voice (http://www.pcper.com/article.php?aid=226)
Etwas Mund um den Honig schmieren, das Ganze klingt einfach zu toll. Ok, ATi entwickelt da eine eigene API für die Physik, die wiederum von Programmierern benutzt werden kann.
Interessant finde ich diesen Absatz (letzte Seite):
An even better solution, for the user and for ATI, is that you have two ATI GPUs that can split the rendering and physics calculations between the two different cards. What is most impressive to me is that ATI has assured me that these two cards do not have to run in CrossFire mode, and thus they do not have to be the same GPU. If you have an X1900 XTX now, and in about eight months you buy a new ATI 2800 XTX, you can save your X1900 XTX for physics calculations. ...
Meinungen?
Dann würde die eine GPU nur für Physik-Berechnungen herhalten. Wer würde dafür extra ein teures Crossfire-Mainboard kaufen?
Ist grad alles ein wenig wirr was die Leute sich so vorstellen, aber sie müssen halt per Marketing dem Havok-FX-Zeug entgegenhalten (das finde ich übrigens sinnvoller, da da nur "Effektphysik" auf der GPU ausgerechnet wird. Die Idee ist allerdings überhaupt nicht neu).
Aber:
http://www.mental-asylum.de/files/perfgraph.jpg
Bwahaha. Das G70-Dyn-Branching ist immer wieder ein Lacher X-D
reunion
2006-03-25, 11:27:58
Eigentlich find ichs etwas wenig für so eine Karte. :|
R580 schafft das dreifache.
Aber:
http://www.pcper.com/images/reviews/226/perfgraph.jpg
Geht nicht.
Hier noch etwas Marketing: http://www.dailytech.com/article.aspx?newsid=1414
Aber:
http://www.mental-asylum.de/files/perfgraph.jpg
Bwahaha. Das G70-Dyn-Branching ist immer wieder ein Lacher X-D
seltsam dass der G70 teilweise schneller als der G71 sein soll ;)
Hab ich mir auch gedacht, aber das kann sein wenn nVIDIA was an der Batchgröße gedreht hat.
Das ganze ist schon einigermaßen nachvollziehbar wenn man mal ein paar Shader die dyn. branching exzessiv benützen auf beiden Architekturen getestet hat.
ATI Physics Video:
http://www.fileshack.com/file_download_limited.x?fid=8573
About ATI Physics Video
This video goes through multiple physics demonstrations running on ATI’s hardware. The first is a particle demo that starts with 124,000 particles on screen and goes all the way up to 900,000 as I drag the right tool bar up the side. The second demo shows a piece of cloth on a table that is blowing is varying angles and speeds of wind. The third demo looks at animations of character models that is not really indicative of physics performance but on the pixel shading power of the R580. Finally we have a Mandelbrot application running side by side on the GPU and CPU to see the difference in frame rates as these patterns are built dynamically.
http://www.fileshack.com/file.x?fid=8573
PS:
Radeon SDK March 2006
Welcome to ATI’s Software Developer's Kit (SDK). This kit is intended to provide developers with the inside scoop on getting the most out of ATI’s latest products using Microsoft® DirectX® or OpenGL for 3D graphics. The SDK is a compilation of new and previously posted information from the Developer Relations web site.
Highlights:
- Render to Vertex Buffer Samples. This SDK shows the many uses of the powerful render to vertex buffer technique.
- Parallax Occlusion Mapping. New documentation of Parallax Occlusion Mapping using SM 3.0 dynamic branching for efficient rendering.
- New Papers and Presentation slides describing the latest techniques.
http://www.ati.com/developer/radeonSDK.html
Hvoralek
2006-03-28, 17:17:49
seltsam dass der G70 teilweise schneller als der G71 sein soll ;)Die Leistung in diesem Diagramm ist "relative to X1600XT" dargestellt, also müsste die X1600XT im Diagramm 100% entsprechen. Wieso liegt dann der RV530 (=X1600Pro/ XT) zwischen 400 und 600%?
qu3x^
2006-03-29, 08:21:29
Gibt es eine Möglichkeit das Movie noch irgendwo anders zu downloaden. Fileshack ist totaler Crap! Nach Anmeldung meines Basic Logins kam erst am nächsten Tag die Registration Confirmation und selbst die war dann unbrauchbar... :mad:
Hab ich mir auch gedacht, aber das kann sein wenn nVIDIA was an der Batchgröße gedreht hat.Wenn, dann aber höchstens nach unten. Der G71-Chip ist kleiner und hat weniger Transistoren.
svenw
2006-03-29, 10:09:34
Wenn man sich die Physiksparte anschaut, wird es langsam unübersichtlich. Havok, PPU, ATI Crossfire Physik und wahrscheinlich noch ein paar Softwarepakete. Ich glaube kaum, das das der Spielephysik wesentlich hilft. Wollte MS nicht eine Physikschnittstelle (in DirectX ?) implementieren? Dann müßten sich die Spieleprogger keine gEdnken mehr amchen, welche Physik nun verwendet wird sondern einfach nur auf die Schnittstelle zugreifen. Das wäre einer der Fälle, wo ich ein eingreifen des "großen Bruder" MS gut finde weil sich dann der Markt nicht in 1000 unterschiedliche Lösungen aufspaltet.
ShadowXX
2006-03-29, 10:26:38
Wenn man sich die Physiksparte anschaut, wird es langsam unübersichtlich. Havok, PPU, ATI Crossfire Physik und wahrscheinlich noch ein paar Softwarepakete. Ich glaube kaum, das das der Spielephysik wesentlich hilft. Wollte MS nicht eine Physikschnittstelle (in DirectX ?) implementieren? Dann müßten sich die Spieleprogger keine gEdnken mehr amchen, welche Physik nun verwendet wird sondern einfach nur auf die Schnittstelle zugreifen. Das wäre einer der Fälle, wo ich ein eingreifen des "großen Bruder" MS gut finde weil sich dann der Markt nicht in 1000 unterschiedliche Lösungen aufspaltet.
Nach dem was ich gehört habe, soll sowas von MS kommen.....die Frage ist eher das wann.
Wenn man sich die Physiksparte anschaut, wird es langsam unübersichtlich. Havok, PPU, ATI Crossfire Physik und wahrscheinlich noch ein paar Softwarepakete.Genau. Jeder schreit: "Physik? Kann ich auch!"
Wenn man sich die Physiksparte anschaut, wird es langsam unübersichtlich. Havok, PPU, ATI Crossfire Physik und wahrscheinlich noch ein paar Softwarepakete. Ich glaube kaum, das das der Spielephysik wesentlich hilft.
Das gab es schonmal als der Havok-Hype aufkam. Danach gab es eine Marktbereinigung. Ageia und Havok haben die meisten Konkurrenten aufgekauft oder sie haben von sich aus aufgegeben. Der Markt ist zwar gross, aber die Preise sind nicht sehr hoch und es ist schwer Gewinne zu erzielen. Wenn ATi Physics nicht mindenstens die selbe Kompatibilitäten wie HavokFX bietet, wird es wieder schnell vom Markt verschwunden sein.
Auch wenn MS etwas anbietet sind Havok und Ageia wohl immer noch die erste Wahl für Titel, die auf mehreren Plattformen erscheinen.
svenw
2006-03-29, 12:55:08
Wenn ATi Physics nicht mindenstens die selbe Kompatibilitäten wie HavokFX bietet, wird es wieder schnell vom Markt verschwunden sein.
Auch wenn MS etwas anbietet sind Havok und Ageia wohl immer noch die erste Wahl für Titel, die auf mehreren Plattformen erscheinen.
Nun, ein Entwickler der Havok verwenden will muß dafür zahlen. Ageia dürfte seine Gewinne über den Verkauf von Karten machen, also daran interessiert sein, die Schnittstellen kostenlos zu verteilen. Gleiches gilt für ATI. ATI hat nebenbei den Vorteil, das sie die Karten in Massen fertigen und sie aktuell multifunktional sind. Wenn die nächsten Chips rauskommen wird die alte Karte eben nicht verkauft, sondern zur PPU "degradiert".
SLI/Corssfire Boards gibt es in Massen und es sollte mich nicht wundern wenn ATIs Lösung unabhängig vom Board funktioniert, da die beiden Karten ja nicht zusammen arbeiten müssen. Abhängig davon wie effektiv Physik auf den Grakas umzusetzen ist, könnten die Grakak Hersteller als die Gewinner der Physikschlacht herrauskommen. Wie es wirklich läuft, werden wohl erst intensive Tests aller beteiligten zeigen wenn eine Ageia Karte gegen eine billige ATI Karte (1600er) antritt. Wenn Ageia dort nicht mindestens 30% mehr Leitung rausholt, sehe ich schwarz für Ageia, denn ATI kann seine Karten durch die Masse wesentlich billiger fertigen. Und ob es so schwierig wäre ein PCIe1x Interface für einen chip zu entwickeln wage ich auch zu bezweifeln, wenn ATI wirklich eine PPU KArte anbieten will.
derMeister
2006-04-03, 18:38:04
Eben, wenn ATI wirklich will, stecken die Ageia im vorbeigehen ein, ein kleiner Schluckauf, das wars :biggrin: . Oder nV bedient sich.
MegaManX4
2006-04-03, 18:46:32
Das wäre doch mal 'ne Idee, 'ne X1600XT mit PCIe 1x als PPU für die Leute die keinen zweiten PCI16x Slot haben (wie meiner einer). Mehr Bandbreite wird die für Physik wahrscheinlich eh nicht brauchen.
Wenn, dann aber höchstens nach unten. Der G71-Chip ist kleiner und hat weniger Transistoren.
Ja, eben. Weniger Transistoren ;)
Da damit eh nix zu reißen ist, haben sie evtl. gleich voll ganz gespart. Ist eh wurscht, benutzt keine Sau auf dem Chip.
Nun, ein Entwickler der Havok verwenden will muß dafür zahlen. Ageia dürfte seine Gewinne über den Verkauf von Karten machen, also daran interessiert sein, die Schnittstellen kostenlos zu verteilen.
Kostenlos gibts die Ageia Engine nur für Spiele mit massiver Unterstützung des Chips. Ansonsten liegt sie in der gleichen Preisklasse wie Havok. Bei der grossen Anzahl von Lizenznehmern gibt es auch keinen Grund etwas zu verschenken.
Gleiches gilt für ATI. ATI hat nebenbei den Vorteil, das sie die Karten in Massen fertigen und sie aktuell multifunktional sind. Wenn die nächsten Chips rauskommen wird die alte Karte eben nicht verkauft, sondern zur PPU "degradiert".
Dann müssen sie aber schon die komplette Physik übernehmen, einen Softwarefallback für alle wichtigen Plattformen bieten und auch Nvidiakarten vernünftig unterstützen. Ansonsten würde ich mich als Entwickler nicht darauf einlassen. Mehrere Physikengines zu unterstützen kostet im Endeffekt wahrscheinlich mehr als eine für alle Plattformen zu kaufen.
Wie es wirklich läuft, werden wohl erst intensive Tests aller beteiligten zeigen wenn eine Ageia Karte gegen eine billige ATI Karte (1600er) antritt. Wenn Ageia dort nicht mindestens 30% mehr Leitung rausholt, sehe ich schwarz für Ageia, denn ATI kann seine Karten durch die Masse wesentlich billiger fertigen. Und ob es so schwierig wäre ein PCIe1x Interface für einen chip zu entwickeln wage ich auch zu bezweifeln, wenn ATI wirklich eine PPU KArte anbieten will.
Ohne Leistungsvergleich kann man nicht wirklich eine Aussage treffen. Aber das habe ich in wahrscheinlich jedem Thread zu dem Thema geschrieben. X-D
svenw
2006-04-03, 20:09:29
Dann müssen sie aber schon die komplette Physik übernehmen, einen Softwarefallback für alle wichtigen Plattformen bieten und auch Nvidiakarten vernünftig unterstützen. Ansonsten würde ich mich als Entwickler nicht darauf einlassen. Mehrere Physikengines zu unterstützen kostet im Endeffekt wahrscheinlich mehr als eine für alle Plattformen zu kaufen.
Den Software Fallback wird man immer brauchen, egal worauf man sich einläßt (Ageia oder ATI). Das momentane Problem von Havok ist, das sie per Softwre Physik keinesfalls auch nur in die Nähe der Leistungsfähigkeit von Hardwarelösungen kommen. Wenn es Havok gelingt sowohl ATI als auch Nvidia Karten zu nutzen (wahrscheinlich bei der Zusammanarbeit mit Nvidia) haben sie gute Chancen, denn sie bieten das "Rundum Sorglos Paket" mit Software Fallback und möglicher Hardware Unterstützung. Dann dürfte die Frage sein, mit welcher (zusatz) Hardware bekomme ich das beste Preis/Leistungsverhältnis. Die normale Graka zusätzlich mit Physik zu belasten halte ich für relativ unwahrscheinlich, da das unvermeidlich auf die Framerate geht und der größte Leistungsbedarf an Physikberechnungen sich just mit dem "worst case" bei der Grafikberechnung decken dürfte. Da sind die meisten Grakas bei den gewählten Einstellungen eh schon am Rande der 25 fps und dann nocht Physik oben drauf zu satteln.
Um ehrlich zu sein, sehe ich in dem Wettlauf wenig Chancen für Ageia, denn mit der Entwicklungspower von Nvidia oder ATI können sie nicht mithalten genausowenig wie mit den Kostenvorteilen durch Großserienproduktion.
deekey777
2006-04-03, 20:21:17
Havok FX steht in keinster Konkurrenz zu Ageias PhysX. Mit Havok FX soll nur die Effekte-Physik auf der Grafikkarte berechnet werden, nicht die Spiele-Physik. Es verbessert nur das visuelle Ergebnis. Für die Spiele-Physik ist weiterhin Havok Physics 2.0 oder so.
Den Software Fallback wird man immer brauchen, egal worauf man sich einläßt (Ageia oder ATI).
Ageia hat einen sehr guten Softwarefallback. Sie liefern seit Jahren schon eine Softwarelösung und haben auch zB Meqon geschluckt. Man hat auch schon einen ordentlichen Marktanteil.
ATi scheint momentan garnichts in der Richtung zu haben und zielt vielleicht wie HavokFX nur auf Effektphysik ab. Wenn man allerdings das wieder auf einer seperaten Karten berechnet hat man wie PhysX das Problem mit der Synchronisation und der Datenübertragung auf die Grafikkarte. Dann steht man nicht mehr in Konkurenz mit HavokFX, sondern mit PhysX.
Das momentane Problem von Havok ist, das sie per Softwre Physik keinesfalls auch nur in die Nähe der Leistungsfähigkeit von Hardwarelösungen kommen.
Es soll ja auch nur Effektphysik auf die Karten verlagert weren.
Wenn es Havok gelingt sowohl ATI als auch Nvidia Karten zu nutzen (wahrscheinlich bei der Zusammanarbeit mit Nvidia) haben sie gute Chancen, denn sie bieten das "Rundum Sorglos Paket" mit Software Fallback und möglicher Hardware Unterstützung. Dann dürfte die Frage sein, mit welcher (zusatz) Hardware bekomme ich das beste Preis/Leistungsverhältnis.
Das beste Preisleistungsverhältnis hängt mit der Preisentwicklung der Physikkarten und deren Leistungsfähigkeit ab. Beides ist bisher nicht vorhersehbar.
Die normale Graka zusätzlich mit Physik zu belasten halte ich für relativ unwahrscheinlich, da das unvermeidlich auf die Framerate geht und der größte Leistungsbedarf an Physikberechnungen sich just mit dem "worst case" bei der Grafikberechnung decken dürfte. Da sind die meisten Grakas bei den gewählten Einstellungen eh schon am Rande der 25 fps und dann nocht Physik oben drauf zu satteln.
Die Argumentation hab ich auch schon öfters gebracht. :D
Um ehrlich zu sein, sehe ich in dem Wettlauf wenig Chancen für Ageia, denn mit der Entwicklungspower von Nvidia oder ATI können sie nicht mithalten genausowenig wie mit den Kostenvorteilen durch Großserienproduktion.
4 Punkte:
1. die Größe und Mittel der Entwicklungsabteilung haben nicht unbedingt etwas mit den Resultaten zu tun (siehe Intel/AMD).
2. Havok und Ageia haben alles mit Patenten zugepflastert.
3. Ageia ist afaik ein Spinoff. Denen steht meistens einiges an Manpower in Form von kostenlosen Studenten zur Verfügung.
4. Die Stückzahlen im Highendbereich bei Grafikkarten sind wohl nicht höher als die einer Physikkarte.
Wir haben also 3 Produkte:
- Reine Grafikkartenbeschleunigung auf PC (nur für Effektphysik?): ATI
- Multiplattform Softwarelösung mit beschleunigter Effektphysik über Grakas: Havok
- Multiplattform Softwarelösung mit vollständiger Hardwarebeschleunigung: Ageia
deekey777
2006-04-04, 00:56:25
[...]Wir haben also 3 Produkte:
- Reine Grafikkartenbeschleunigung auf PC (nur für Effektphysik?): ATI
- Multiplattform Softwarelösung mit beschleunigter Effektphysik über Grakas: Havok FX
- Multiplattform Softwarelösung mit vollständiger Hardwarebeschleunigung: Ageia
Ich glaub, ATi will beides: Spiele-Physik (Gameplay-beeinflussende Physik) und die Effekte-Physik.
http://www.firingsquad.com/hardware/ati_physics/page2.asp
Man sollte nicht vergessen, dass Havok FX extra kostet.
Ich glaub, ATi will beides: Spiele-Physik (Gameplay-beeinflussende Physik) und die Effekte-Physik.
http://www.firingsquad.com/hardware/ati_physics/page2.asp
Das klingt danach, dass wenn sich die Leute zusätzlich ne X1900 in den Rechner stecken, ihre Lösung schneller ist.
Allein schon der Stromverbrauch aktueller ATI-Karten schreckt mich da ab. ;)
Ageia hat da imo noch einiges an Potential, wenn der Chip schnell genug ist. In 90/80 nm wäre der Chip auch billig und stromsparend.
Naja mal abwarten.
Man sollte nicht vergessen, dass Havok FX extra kostet.
Die Kosten werden wohl nicht wirklich hoch sein.
Wenn die Preise nicht wesentlich gestiegen sind, liegt die Havok Engine, wie auch die Ageia Engine, noch im oberen 5 stelligen Bereich.
Für so ein Addon rechen ich mal unteren 5 stelligen Bereich. Nicht wirklich viel für eine Produktion. Zudem kaufen die großen Publisher vieles zentral ein und bekommen da noch günstigere Preise.
sloth9
2006-04-06, 08:51:18
Bei ATi bin ich skeptisch; gross ankündigen, wenn man sich da mal nicht verhebt.
Wo ist eigentlich der GPU-Encoder (Avivo-Gedöhns), kommt der nur zu Lebzeiten der 11. Generation?
deekey777
2006-04-06, 12:38:17
Der AVIVO-Encoder ist schon länger draußen, aber sinnlos.
sloth9
2006-04-06, 17:55:24
Der AVIVO-Encoder ist schon länger draußen, aber sinnlos.
Also fangen die das nächste Grossprojekt an, bevor das vorherige überhaupt arbeitet. Fusionieren die mit EA? Wer fällt darauf noch herein und kauft sich deshalb eine ATi-Karte?
(del676)
2006-04-06, 18:42:13
wenn die physics-treiber unterstützung genauso mies ist wie die der graka-treiber na dann gute nacht :rolleyes:
dann lieber ein langsameres original
deekey777
2006-05-30, 23:35:48
Zeit zum Pushen (hoffentlich ist robbitop nicht böse, dass ich sein Posting aus einem anderen Thread herausreiße, aber es hat seinen Sinn):
robbitop[/POST]']sinnvoll wäre es, die IGP die Arbeit übernehmen zu lassen. Die 6100IGP erzeugt vergleichsweise wenig Abwärme, verbraucht keinen zusätzlichen Platz, läuft komplett passiv, ist günstig (ein ASROCK 6100IGP Board kostet ~50EUR) und sollte zum Streaming genug Rechenleistung besitzen (4xMAD4 +1Vec4+1skalar VS @425MHz).
Angebunden ist das ganze per HT und sollte somit von der Bandbreite und den Latenzen auch stimmen. Endlich mal eine gute Verwendung für eine IGP!
http://www.tgdaily.com/2006/05/27/is_physics_the_third_wheel_in_gaming/
When I recently spoke to ATI, they told me that they're also looking at unlocking their onboard graphic chips, which currently sit idle on the motherboard when graphics cards are present, to do the physics work. Everything is gravy, apparently.
Demirug
2006-05-30, 23:49:54
Interesanten Idee. Dann kann zumindestens niemand meckern das man GPU Leistung abzieht.
Fudo hat es gehört :cop:
WE HEAR THAT the red team has prepared a live demo of some fancy physics on Crossfire cards.
http://www.theinquirer.net/?article=32084
Nur mal spekulativ: CF ist eine Variante, ein RV530 neben R520/580 aber auch möglich und günstiger! :wink:
derMeister
2006-06-01, 12:15:10
Warum keine x1600pro/xt, sollte genug Leistung haben und Ram auch.
Ageia und x1600 haben beide eine 128bit Speicheranbindung.
Habe keine IGP auf meinem Board :wink:
MegaManX4
2006-06-01, 12:21:48
Wäre es möglich das ATI eine x1 PCIe X1600 bringt? Dann könnte sich jeder so ein Teil als Physik Beschleuniger reinbauen der kein SLI/Crossfire Board hat.
Ja, das ist ja der Clou bei Ati, daß man unabhägig zwei verschiedene Grakas nebeneinander im CF-Mobo betreiben kann :wink:
Wie gesagt, eine x1600 mit einer x1800 oder x1900 :smile:
Demirug
2006-06-01, 13:35:52
up¦²[/POST]']Ja, das ist ja der Clou bei Ati, daß man unabhägig zwei verschiedene Grakas nebeneinander im CF-Mobo betreiben kann :wink:
Wie gesagt, eine x1600 mit einer x1800 oder x1900 :smile:
Das funktioniert aber mehr schlecht als recht weil in der Regel wird die schnellere Karte von der langsameren runter gezogen.
Für Physik ist das aber egal weil man da die Karten sowieso nicht im direkten Verbund nutzt.
deekey777
2006-06-01, 13:39:21
up¦²[/POST]']Ja, das ist ja der Clou bei Ati, daß man unabhägig zwei verschiedene Grakas nebeneinander im CF-Mobo betreiben kann :wink:
Wie gesagt, eine x1600 mit einer x1800 oder x1900 :smile:
Du hast ihn nicht ganz verstanden:
MegaManX4[/POST]']Wäre es möglich das ATI eine x1 PCIe X1600 bringt? Dann könnte sich jeder so ein Teil als Physik Beschleuniger reinbauen der kein SLI/Crossfire Board hat.
Glaube ich nicht, das wäre mit unnötigen Kosten verbunden. Da wird man nicht um ein Mainboard mit 2 physikalischen PCIe 16x kommen. Andererseits will ATi, dass die Physik à la ATi auch auf einer Grafikkarte berechnet wird (nur Effekte-Physik?).
Demirug
2006-06-01, 14:14:23
deekey777[/POST]']Glaube ich nicht, das wäre mit unnötigen Kosten verbunden. Da wird man nicht um ein Mainboard mit 2 physikalischen PCIe 16x kommen. Andererseits will ATi, dass die Physik à la ATi auch auf einer Grafikkarte berechnet wird (nur Effekte-Physik?).
Eigentlich braucht man nur einen offenen 1x dann müsste die Karte laufen.
Die zweite Karte soll auch die Gamephysik übernehmen.
StefanV
2006-06-01, 14:24:11
Demirug[/POST]']Eigentlich braucht man nur einen offenen 1x dann müsste die Karte laufen.
In dem offenen x2 Slot aufm MSI K8N NEO Schießmichtot nF4 S939 Brett lief sowohl meine x850XT als auch die Leadtek 6600.
deekey777
2006-06-01, 14:26:02
Demirug[/POST]']Eigentlich braucht man nur einen offenen 1x dann müsste die Karte laufen.
Stimmt, das wäre eine Lösung.
Demirug[/POST]']
Die zweite Karte soll auch die Gamephysik übernehmen.
Ja, die zweite, mein letzter Satz ist irgendwie bescheuert geschrieben.
ATI is telling us that their cards will also support rendering and physics acceleration in a single GPU configuration as shown here. If the game being played, at the resolution the user selects, is able to render more frames than necessary per second than required for adequate visual quality, the extra GPU cycles can be utilized in physics calculations.
http://www.pcper.com/article.php?aid=226&type=expert&pid=3
Wenn eine Grafikkarte im Rechner steckt, gibt es den gleichen Ansatz wie bei Havok FX. Wenn zwei Grafikkarten im Rechner stecken und die zweite die Physikberechnungen übernimmt, dann ist es der gleiche Ansatz wie bei Ageias PhysX.
Und was passiert bei Microsoft Direct Physics?
Demirug
2006-06-01, 15:41:07
up¦²[/POST]']Und was passiert bei Microsoft Direct Physics?
Der Begriff wurde nur ein einziges mal verwendet und wer sich erinniert ging es dabei auch um die nutzung von GPUs für Physik.
TheGoD
2006-06-01, 17:06:42
Wow, ATI macht Ernst:
ATI RD600 mit Support für drei PCIe-GPUs zwecks Physikberrechnung:
http://www.hkepc.com/bbs/attachments_dir/ext_jpg/rd600-4_NB6ZDwgtHt2H.jpg
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=300417
Das sind Machbarkeitsstudien, was die Technik angeht. Damit das Marketing schön heiße Luft rausblasen kann.
Technisch machbar wäre so vieles. Die Frage ist, was die Entwickler dann wirklich nutzen.
reunion
2006-06-06, 12:32:41
ATi präsentiert „CrossFire Physics“:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2006/juni/ati_crossfire_physics/
sok-1
2006-06-06, 12:37:10
Hier die Newsmeldung von hardwareluxx.de:
http://www.hardwareluxx.de/story.php?id=4128
Mit drei Karten schiessen sie zwar den Vogel ab, aber ansonsten halte ich es für garnicht mal so schlecht. Allerdings wird es anscheinend wohl nur um Effektphysik gehen, welches ATI bzw. Nvidia beschleunigen wollen.
Naja, warum nicht, hat demnächst der 4-Kern Prozessor mit der Gamephysik auch noch was zu tun... :tongue:
MegaManX4
2006-06-06, 13:05:25
sok-1[/POST]']Hier die Newsmeldung von hardwareluxx.de:
http://www.hardwareluxx.de/story.php?id=4128
Mit drei Karten schiessen sie zwar den Vogel ab, aber ansonsten halte ich es für garnicht mal so schlecht. Allerdings wird es anscheinend wohl nur um Effektphysik gehen, welches ATI bzw. Nvidia beschleunigen wollen.
Naja, warum nicht, hat demnächst der 4-Kern Prozessor mit der Gamephysik auch noch was zu tun... :tongue:
3 Karten, verbraucht nicht eine schon ca. 100 Watt? Ich mein, 3 Karten?
Demirug
2006-06-06, 13:09:44
sok-1[/POST]']Hier die Newsmeldung von hardwareluxx.de:
http://www.hardwareluxx.de/story.php?id=4128
Mit drei Karten schiessen sie zwar den Vogel ab, aber ansonsten halte ich es für garnicht mal so schlecht. Allerdings wird es anscheinend wohl nur um Effektphysik gehen, welches ATI bzw. Nvidia beschleunigen wollen.
Naja, warum nicht, hat demnächst der 4-Kern Prozessor mit der Gamephysik auch noch was zu tun... :tongue:
Gerade bei der 3 Karten Lösung soll die dritte Karte ja die Game Physik übernehmen. Theoretisch kommt anstelle der dritten Karten auch ein passender IGP in frage.
deekey777
2006-06-06, 13:18:26
MegaManX4[/POST]']3 Karten, verbraucht nicht eine schon ca. 100 Watt? Ich mein, 3 Karten?
Das ist auch die Nonplusultra-Lösung.
Ist euch eigentlich aufgefallen, dass eine Möglichkeit, nur eine Grafikkarte zu nutzen, sich in die Luft aufgelöst hat?
http://www.pcper.com/article.php?aid=226&type=expert&pid=3
The_Invisible
2006-06-06, 13:22:57
soll das wieder so ne proprietäre API werden oder was? vielleicht macht nvidia auch noch eine und dann hätten wir 3 verschiedene APIs die das gleiche machen. ist natürlich sehr fördernd für die spieleentwickler (oder: wer mehr zahlt wird implementiert)
mfg
In press briefings, you generally expect a best case to be shown by the presenter, not untruths, but selective numbers.
In this case, ATI showed off numbers where the a lowly RV530 absolutely spanked a G70 and G71 for physics.
When you look at the performance relative to a R520 or R580, it gets even more abusive.
The numbers ranged from a worst case where RV530 was 'only' 4x faster than G70 to a best where R580 spanked the G70 by 15x.
They also went on to show the X1600XT as 2x faster than Ageia, and the X1900XTX being 9x faster.
Whatever the numbers, they can put up a demo with a lot of rocks rolling down a hill.
http://www.theinquirer.net/images/articles/ATI_Physics_boulder_demo.jpg
Ein ausnahmsweise interessanter Artikel (http://www.theinquirer.net/?article=32208) von Inquirer.
Wenn das stimmt, sieht es überhaupt nicht gut aus für Ageia.
Ausserdem frage ich mich wie Nvidia kontern wird.
deekey777
2006-06-06, 13:29:37
Wieso drei?
Wenn, dann wären es schon vier, aber ich zähle trotzdem nur eine.
Die DPP-Technologie steht (irgendwann) jedem Entwickler frei zur Verfügung und soll auch allen Grafikkarten laufen, nur setzt man hier stark auf dynamisches Branching, wenn man dem Interview bei Firingsquad glauben darf.
In press briefings, you generally expect a best case to be shown by the presenter, not untruths, but selective numbers. In this case, ATI showed off numbers where the a lowly RV530 absolutely spanked a G70 and G71 for physics. When you look at the performance relative to a R520 or R580, it gets even more abusive. The numbers ranged from a worst case where RV530 was 'only' 4x faster than G70 to a best where R580 spanked the G70 by 15x. They also went on to show the X1600XT as 2x faster than Ageia, and the X1900XTX being 9x faster. Whatever the numbers, they can put up a demo with a lot of rocks rolling down a hill.
Und bei diesen Tests wurde bestimmt die Ageias PhysX-Engine benutzt...
Demirug
2006-06-06, 13:32:20
The_Invisible[/POST]']soll das wieder so ne proprietäre API werden oder was? vielleicht macht nvidia auch noch eine und dann hätten wir 3 verschiedene APIs die das gleiche machen. ist natürlich sehr fördernd für die spieleentwickler (oder: wer mehr zahlt wird implementiert)
mfg
Also:
HavokFX (nur für Effect Physik) setzt auf DirectX (SM3) oder OpenGL (entsprechenden Extensions) auf.
Für die Game Physik arbeitet ATI derzeit an etwas eigenen. Sie sind sich aber bewusst das properitär keine Ideallösung ist. Allerdings fehlt derzeit noch so etwas wie DirectPhysic oder OpenPhysic.
Der Markt wird sich erst etwas stabilisieren müssen bis wir eine einheitliche API bekommen. War bei der Grafik ja nicht anders. Während dann die propertären Lösungen verschwinden kann man nur hoffen das es dann emulatoren für diese APIs geben wird.
reunion
2006-06-06, 13:35:30
Gast[/POST]']Ein ausnahmsweise interessanter Artikel (http://www.theinquirer.net/?article=32208) von Inquirer.
Wenn das stimmt, sieht es überhaupt nicht gut aus für Ageia.
Ausserdem frage ich mich wie Nvidia kontern wird.
Da spielen die ATi-Chip die Möglichkeit der parallelen Berechnung von ALU- und TEX-Operationen voll aus. Es gab da auch schon früher eine Präsentation, bei welcher ein R520 einen G70 regelrecht vernichtete - leider finde ich das Ding momentan nicht mehr.
deekey777
2006-06-06, 13:37:28
reunion[/POST]']Da spielen die ATi-Chip die Möglichkeit der parallelen Berechnung von ALU- und TEX-Operationen voll aus. Es gab da auch schon früher eine Präsentation, bei welcher ein R520 einen G70 regelrecht vernichtete - leider finde ich das Ding momentan nicht mehr.
Meinst du das? Vierte Seite.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4122049#post4122049
(^.^)
2006-06-06, 13:39:36
deekey777[/POST]']
...
Und bei diesen Tests wurde bestimmt die Ageias PhysX-Engine benutzt...
Hast ja recht die haben zwar die Havok Engine benutzt
Marketing terminology aside, they are supporting Havok with the Havok FX physics on the GPU API.
Aber was man von Ageia bisher gesehen hat war auch nur "Effekt Physik".
Der Begriff "Effekt Physik" ist aber auch etwas zu abwertend und nicht definiert denn es ist nicht nur "Effekt Physik",
genauso wenig wie auf der Havok FX Engine. ;-)
reunion
2006-06-06, 13:44:23
deekey777[/POST]']Meinst du das? Vierte Seite.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4122049#post4122049
Nein, aber trotzdem Thx.
deekey777
2006-06-06, 14:06:26
(^.^)[/POST]']Hast ja recht die haben zwar die Havok Engine benutzt
Haben sie nicht, es wurde die eigene Physik-Engine benutzt.
Charlie Demerjian schreibt sehr wirr.
Marketing terminology aside, they are supporting Havok with the Havok FX physics on the GPU API.
Das sagt nur aus, dass ATi auch auf den Havok-FX-Zug aufgesprungen ist.
They also went on to show the X1600XT as 2x faster than Ageia, and the X1900XTX being 9x faster. Whatever the numbers, they can put up a demo with a lot of rocks rolling down a hill.
:crazy2:
Was sollen diese beiden Sätze bedeuten? Entweder ließ ATi eigene Demos auf der PhysX-Karte laufen (sehr wahrscheinlich), oder ATi ließ Ageias Demos auf eigenen Grafikkarten laufen (sehr unwahrscheinlich).
Demirug
2006-06-06, 14:10:45
deekey777[/POST]']Was sollen diese beiden Sätze bedeuten? Entweder ließ ATi eigene Demos auf der PhysX-Karte laufen (sehr wahrscheinlich), oder ATi ließ Ageias Demos auf eigenen Grafikkarten laufen (sehr unwahrscheinlich).
Es gibt bestimmte standard Probleme in der Physik und ATI hat einfach die eigenen Marketing Zahlen dafür mit den von Ageia verglichen.
Hallo,
was haltet Ihr von den Vergleichswerten, die auf www.hartware.de veröffentlich wurden. PhysX versus ATI & NVIDIA und jetzt alle 3 zusammen,
erinnert mich irgendwie an einen TV-Gag! :)
Link: http://www.hartware.de/news_40059.html
Grüsse
Gast
deekey777
2006-06-06, 14:23:23
Demirug[/POST]']Es gibt bestimmte standard Probleme in der Physik und ATI hat einfach die eigenen Marketing Zahlen dafür mit den von Ageia verglichen.
Woher soll man das als ein normaler Verbraucher wissen?
Etwas OT: Wenn ein Spiel Agieas PhysX-Effekte nutzt, dürfen diese nur auf der PhysX-Karte berechnet werden, oder darf man (durch einen Treiberhack oder ähnliches) diese zB auf eine zweite GPU/Grafikkarte auslagern?
Die gelbe Eule
2006-06-06, 14:24:19
Ich möchte mal die X1600XT in PhysX Games sehen, wie sie dann performed. Das ist doch alles bestimmt ein schlechter Scherz.
Hey,
was haltet Ihr denn von den Benchmarks auf Hartware.de
http://www.hartware.de/news_40059.html
Grüsse
Gast
Die gelbe Eule
2006-06-06, 14:29:32
Gut das ATi auch bei HavokFX einsteigt, weil sonst kann man gar nichts mehr miteinander vergleichen und die Spielehersteller müsste sich auf 3 Physik APIs einstellen.
Demirug[/POST]']Gerade bei der 3 Karten Lösung soll die dritte Karte ja die Game Physik übernehmen. Theoretisch kommt anstelle der dritten Karten auch ein passender IGP in frage.
Ja Klar ein IGP, :)
.... der über Systemspeicher läuft, ein NEUER Flaschenhals für aufwendige PhysX-Berechnungen?!?!?!
Smile! Ne dat geht so niet! Ich glaube eher ATI und NV haben AGEIA von Anfang nicht ernst genommen und springen jetzt "spontan" mit Marketing-Bla Bla auf!
Grüsse
Die gelbe Eule[/POST]']Gut das ATi auch bei HavokFX einsteigt, weil sonst kann man gar nichts mehr miteinander vergleichen und die Spielehersteller müsste sich auf 3 Physik APIs einstellen.
Ich glaube nicht das sich Havox durchsetzt! Kostet die Entwickler zu viel Geld!
Ageia PhsyX ist for free! Überhaupt glaube ich das einer von beiden AGEIA schlucken muß, wenn er einen Standart setzen will! Oder?
Die gelbe Eule
2006-06-06, 14:42:18
For free ist es nur, wenn Du die Karte vorher gekauft hast. Und diese ist nicht sehr günstig. Weiterhin ist es noch offen, wie groß die Leistung hier ist und ob sie für einen großen Zeitraum ausreicht. Bei NV z.B. kann man die zweite Karte im SLi ständig preisgünstig austauschen. Also 7950GX2 und eine 7300GT als Physikkarte, würde bestimmt reichen.
Die gelbe Eule[/POST]']For free ist es nur, wenn Du die Karte vorher gekauft hast. Und diese ist nicht sehr günstig. Weiterhin ist es noch offen, wie groß die Leistung hier ist und ob sie für einen großen Zeitraum ausreicht. Bei NV z.B. kann man die zweite Karte im SLi ständig preisgünstig austauschen. Also 7950GX2 und eine 7300GT als Physikkarte, würde bestimmt reichen.
Da stimme ich dir teilweise zu! For free für die Entwickler bedeutet nur, das sich die Entwickler eher auf AGEIA Engines konzentrieren als auf die Oberflächliche Physx von ATI oder NV, die mit HAVOX realisert wird.
Das die Karten günstiger werden müßen von AGEIA steht ausser Frage!
Ich denke ein großer Zeitraum wäre mal wieder wünschenswert, eine AGEIA für Leben! :)
Demirug
2006-06-06, 14:50:18
PhysX ist nicht mehr wirklich "for free". Das dürfte alleine schon daran zu erkennen das das sich die neuste Version des SDKs nicht mehr jeder einfach runter laden darf
Wenn ATI und nVidia sich zusammentun und auf eine gemeinsame API einigen haben sie AGEIA als Hardwarehersteller ganz schnell an die Wand gedrückt.
Die Sache mit der Properitären API hat auch schon 3dFX versucht und da hat es auch nicht funktioniert.
Hauwech
2006-06-06, 14:55:29
Gast[/POST]']Ja Klar ein IGP, :)
.... der über Systemspeicher läuft, ein NEUER Flaschenhals für aufwendige PhysX-Berechnungen?!?!?!
Smile! Ne dat geht so niet! Ich glaube eher ATI und NV haben AGEIA von Anfang nicht ernst genommen und springen jetzt "spontan" mit Marketing-Bla Bla auf!
Grüsse
Demirug sagte ja auch theoretisch. Von der Rechnenleistung her könnte es also passen. Der 'Rest' wie Anbindung, Bandbreite usw steht halt auf einen anderem Blatt.
Demirug[/POST]']PhysX ist nicht mehr wirklich "for free". Das dürfte alleine schon daran zu erkennen das das sich die neuste Version des SDKs nicht mehr jeder einfach runter laden darf
Wenn ATI und nVidia sich zusammentun und auf eine gemeinsame API einigen haben sie AGEIA als Hardwarehersteller ganz schnell an die Wand gedrückt.
Die Sache mit der Properitären API hat auch schon 3dFX versucht und da hat es auch nicht funktioniert.
Kann auch ein anderer Grund sein, bisher ist mir nichts aus dieser Richtung bekannt, das wir Geld dafür zahlen müßten! ;)
Allerdings klingt dein zweiter Absatz bekannt für mich! Ich hoffe aber, das dem nicht so ist oder wird ! Wird Zeit Demi das wir das Thema mal genaustens unter die Lupe nehmen!
Demirug
2006-06-06, 15:05:41
Gast[/POST]']Kann auch ein anderer Grund sein, bisher ist mir nichts aus dieser Richtung bekannt, das wir Geld dafür zahlen müßten! ;)
Man kann nicht nur mit Geld "bezahlen". ;) Aber wir nähern uns hier mit riesen Schritten einem NDA Bereich und deswegen ist für mich hier eine klare Grenze erreicht.
Gast[/POST]']Allerdings klingt dein zweiter Absatz bekannt für mich! Ich hoffe aber, das dem nicht so ist oder wird ! Wird Zeit Demi das wir das Thema mal genaustens unter die Lupe nehmen!
Was soll man da unter die Lupe nehmen? Keine der beteiligten Stellen ist offiziell bereit zu bestätigen das es arbeiten zu einer Herstellerunabhängigen Physik API gibt.
Das interesante daran ist lediglich das die einzigen wirklich offentlichen Bestrebungen zu einer solchen gemeinsamen API von den damals noch Novodex Leuten gestartet wurde. Nachdem sie allerdings von Ageia geschluckt worden sie war die entsprechenden Webseite ganz schnell Tod.
Winter[Raven]
2006-06-06, 15:11:53
Demirug[/POST]']PhysX ist nicht mehr wirklich "for free". Das dürfte alleine schon daran zu erkennen das das sich die neuste Version des SDKs nicht mehr jeder einfach runter laden darf
Wenn ATI und nVidia sich zusammentun und auf eine gemeinsame API einigen haben sie AGEIA als Hardwarehersteller ganz schnell an die Wand gedrückt.
Die Sache mit der Properitären API hat auch schon 3dFX versucht und da hat es auch nicht funktioniert.
Unwarscheinlich, dafür sind beide Untenhemen viel zu verbissen auf einander.
http://www.computerbase.de/news/hardware/grafikkarten/ati/2006/juni/ati_crossfire_physics/
kA obs schon gepostet wurde. ATIs gute dyn. Branching-Leistung scheint sich auch vorteilhaft auszuwirken. Haben sie wohl ein bisschen weiter gedacht bei der Entwicklung.
Gast[/POST]']http://www.computerbase.de/news/hardware/grafikkarten/ati/2006/juni/ati_crossfire_physics/
kA obs schon gepostet wurde. ATIs gute dyn. Branching-Leistung scheint sich auch vorteilhaft auszuwirken. Haben sie wohl ein bisschen weiter gedacht bei der Entwicklung.
Nach dem Ati-PR (http://ir.ati.com/phoenix.zhtml?c=105421&p=irol-newsArticle&ID=868986&highlight=) und ersten Reviews eigentlich dem Speku-Forum entwachsen oder?
oder verletzt CB ein non-disclosure agreement :confused:
Demirug
2006-06-06, 15:21:47
Gast[/POST]']http://www.computerbase.de/news/hardware/grafikkarten/ati/2006/juni/ati_crossfire_physics/
kA obs schon gepostet wurde. ATIs gute dyn. Branching-Leistung scheint sich auch vorteilhaft auszuwirken. Haben sie wohl ein bisschen weiter gedacht bei der Entwicklung.
Ich will hier niemandem an die Karre fahren weil jeder der im Moment etwas dazu schreibt aufgrund mangelnder Möglichkeiten selbst etwas zu testen sowieso nur die Marketing Unterlagen von ATI zu rate ziehen kann.
Aber wenn ich ATI wäre würde ich natürlich das dynamische Branching auch als unverzichtbar für Physik Berechungen hinstellen. Bitte nicht falsch verstehen. Es vereinfacht die ganze Sache natürlich sehr aber es ist nicht die einzige Lösung.
Demirug
2006-06-06, 15:24:18
'Winter[Raven]'[/POST]']Unwarscheinlich, dafür sind beide Untenhemen viel zu verbissen auf einander.
Erscheint ein junger aufmüpfiger Rebell auf der Bildfläche können sich alte Streithähne plötzlich ganz schnell einig werden.
PingpiN
2006-06-06, 15:24:33
'Winter[Raven]'[/POST]']Unwarscheinlich, dafür sind beide Untenhemen viel zu verbissen auf einander.
aufeinander heisst das.
Topic:Hoffentlich tun die sich zusammen.
Wird es wie damals bei den 3dfx patches für bestehende Games geben, oder geht Physics zu sehr "an's eingemachte"?
Winter[Raven]
2006-06-06, 15:48:27
PingpiN[/POST]']aufeinander heisst das.
Topic:Hoffentlich tun die sich zusammen.
Ne Tipp, wenn du Rechtschreibfehler findest, darfst du sie gerne behalten:-)
Nix für ungut.
Hey,
@Demi
Dann stimmt es also doch! :) Hatte mich schon gewundert, warum alle Kollegen wie aufgeschreckte Hühner sich plötzlich für VGA interessieren! so was aber auch! ;)
Bin sehr gespannt wie das wohl angekommt?
PingpiN[/POST]']aufeinander heisst das.
Topic:Hoffentlich tun die sich zusammen.
NAch dem ":" immer ein LEERZEICHEN! 2 Klasse Grundschulwissesn!
Topic: Hoffentlich nicht!
g-string 3
2006-06-06, 16:16:31
Gast[/POST]']NAch dem ":" immer ein LEERZEICHEN! 2 Klasse Grundschulwissesn!
Topic: Hoffentlich nicht!
Wissen wird mit zwei "s" geschrieben.
Topic: Konkurenz belebt das Geschäft, wobei der Markt entscheiden soll.
deekey777
2006-06-06, 16:21:14
Wollen wir nicht nur beim Thema bleiben?
reunion
2006-06-06, 16:52:49
Demirug[/POST]']Die Sache mit der Properitären API hat auch schon 3dFX versucht und da hat es auch nicht funktioniert.
Naja, eigentlich hat es schon funktioniert. Nur war die HW irgendwann nicht mehr zeitgemäß, und mit ihr starb natürlich auch die API.
Demirug
2006-06-06, 17:05:00
Gast[/POST]']Hey,
@Demi
Dann stimmt es also doch! :) Hatte mich schon gewundert, warum alle Kollegen wie aufgeschreckte Hühner sich plötzlich für VGA interessieren! so was aber auch! ;)
Bin sehr gespannt wie das wohl angekommt?
Was soll stimmen? Ich befürchte hier wird zu viel in meine Posts hineininterpretiert.
reunion[/POST]']Naja, eigentlich hat es schon funktioniert. Nur war die HW irgendwann nicht mehr zeitgemäß, und mit ihr starb natürlich auch die API.
Schau dir mal die Entwicklung der Glide-Games an - Spiele mit speziellem Glide-Modus, der nicht schon in der Engine verankert war, wurden immer weniger, auch schon vor 3dfx' Tod.
reunion
2006-06-06, 17:13:35
Gast[/POST]']Schau dir mal die Entwicklung der Glide-Games an - Spiele mit speziellem Glide-Modus, der nicht schon in der Engine verankert war, wurden immer weniger, auch schon vor 3dfx' Tod.
Natürlich, da die Hardware schon vorher arge Mängel aufwies. Zur Blütezeit gab es hingegen sogar Spiele, welche Glide voraussetzten, um überhaupt zu starten.
Benchmarks!
BTW, um bandbreite zu sparen, bitte selber mal reinschaun! :wink:
http://www.hkepc.com/bbs/news.php?tid=610974&starttime=1149552000&endtime=1149638400
Ati hat nun selber Info online:
http://www.ati.com/technology/crossfire/index.html
Ob ATI denn jetzt auch einen Kühlschrank samt Crossfire-Setup schickt bleibt zu hoffen.
Da bin ich schrachlos!
up¦²[/POST]']Benchmarks!
BTW, um bandbreite zu sparen, bitte selber mal reinschaun! :wink:
http://www.hkepc.com/bbs/news.php?tid=610974&starttime=1149552000&endtime=1149638400
Im letzten Bild schaftt ATI 7FP/s, Respekt! ;) Da lohnt sich doch die Dritte Karte gleich RICHTIG!
Wenn ich mir den Hansel auf Bild 1 dann anschau, wie der guckt schreie ich gleich vor lachen!!!!!!!!!!!!!
StefanV
2006-06-06, 19:57:38
Gast[/POST]']Ja Klar ein IGP, :)
.... der über Systemspeicher läuft, ein NEUER Flaschenhals für aufwendige PhysX-Berechnungen?!?!?!
Smile! Ne dat geht so niet! Ich glaube eher ATI und NV haben AGEIA von Anfang nicht ernst genommen und springen jetzt "spontan" mit Marketing-Bla Bla auf!
Grüsse
http://www.gigabyte.com.tw/Products/Motherboard/Products_Spec.aspx?ProductID=1892
up¦²[/POST]']Wird es wie damals bei den 3dfx patches für bestehende Games geben, oder geht Physics zu sehr "an's eingemachte"?Ans Eingemachte. Wörter wie ans, ins und so weiter werden immer ohne Apostroph geschrieben.
'Winter[Raven]'[/POST]']Ne Tipp, wenn du Rechtschreibfehler findest, darfst du sie gerne behalten:-)
Nix für ungut.Man sollte für Verbesserungshinweise, auch die Rechtschreibung betreffend, immer dankbar sein.
Demirug[/POST]']Erscheint ein junger aufmüpfiger Rebell auf der Bildfläche können sich alte Streithähne plötzlich ganz schnell einig werden.Ich halte bislang sowohl ATIs als auch Nvidias Beteuerungen, wie gut man GPUs für Physik-Berechnungen nutzen könnte, eher für Marketing um den Verkauf eigener GPUs anzukurbeln.
Computex news ...
http://www.pcinpact.com/images/bd/news/29446.jpg
http://www.pcinpact.com/images/bd/news/29444.jpg
http://www.pcinpact.com/images/bd/news/29442.jpg
http://www.pcinpact.com/images/bd/news/29443.jpg
http://www.pcinpact.com/actu/news/29254-ATI-se-lance-dans-la-physique-quelques-detai.htm
Demirug
2006-06-06, 21:56:37
aths[/POST]']Ich halte bislang sowohl ATIs als auch Nvidias Beteuerungen, wie gut man GPUs für Physik-Berechnungen nutzen könnte, eher für Marketing um den Verkauf eigener GPUs anzukurbeln.
Ich nicht. Das einzige was die PPU den GPUs vorraus hat ist der MIPS Kern.
Was die Zeit angeht so draf man nicht vergessen das man es trotz der ständigen Verschiebungen nicht geschafft hat die Novodex Engine vollständig in der PPU zu implementieren.
Palpatin
2006-06-06, 22:26:22
Wozu braucht man eigentlich Crossfire wenn ich eine ATI Karte nur für die Physik Berechnung einsetz und die andere für die Grafik?
deekey777
2006-06-06, 22:28:14
Palpatin[/POST]']Wozu braucht man eigentlich Crossfire wenn ich eine ATI Karte nur für die Physik Berechnung einsetz und die andere für die Grafik?
Mehr Power. Die Dreier-Lösung ist für Hardcore-Gamer gedacht.
Demirug
2006-06-06, 22:28:55
Bei ATI laufen auch die Motherboards mit mehr als einen 16xPCIe Slot unter der Bezeichnung Crossfire
Palpatin
2006-06-06, 22:32:10
Ok dann halt die Frage warum brauch ich ein ATI Mainboard? wirds auch auf Intel oder NV boards gehen btw was würde dagegen sprechen ne NV Karte für die Grafik und ne ATI Karte für die Physik zu verwenden?
Palpatin[/POST]']Ok dann halt die Frage warum brauch ich ein ATI Mainboard? wirds auch auf Intel oder NV boards gehen btw was würde dagegen sprechen ne NV Karte für die Grafik und ne ATI Karte für die Physik zu verwenden?
Lol, das sind ja gleich 3 Dinge auf einmal:Ein Ü-Ei sollte da helfen!
Demirug[/POST]']Ich nicht. Das einzige was die PPU den GPUs vorraus hat ist der MIPS Kern.
Was die Zeit angeht so draf man nicht vergessen das man es trotz der ständigen Verschiebungen nicht geschafft hat die Novodex Engine vollständig in der PPU zu implementieren.
Ich schliess mich an ATHS Meinung an und du hast ja gerade selbst des Rätzels Lösung beim Namen genannt! ;) Mehr NDA't niet!
aths[/POST]']
Ich halte bislang sowohl ATIs als auch Nvidias Beteuerungen, wie gut man GPUs für Physik-Berechnungen nutzen könnte, eher für Marketing um den Verkauf eigener GPUs anzukurbeln.
...ganze meine Meinung!
Grüsse
Gast
Demirug
2006-06-06, 22:46:33
Gast[/POST]']Ich schliess mich an ATHS Meinung an und du hast ja gerade selbst des Rätzels Lösung beim Namen genannt! ;) Mehr NDA't niet!
Der MIPS Kern wird überschätzt.
Aber solange wir keine allgemeine API haben ist das alles sowieso weniger eine Frage der Leistung sondern der Überzeugungsarbeit des entsprechenden Entwicklersupports.
Im Physik Bereich herscht nun Goldgräberstimmung mit all den negativen Auswirkungen für den Endkunden.
dildo4u
2006-06-06, 22:58:24
Video von der Computex. http://www.tweaktown.com/articles/908/computex_2006_video_of_ati_s_hardware_physics_in_action/index.html
derMeister
2006-06-07, 00:16:13
Gast[/POST]']Im letzten Bild schaftt ATI 7FP/s, Respekt! ;) Da lohnt sich doch die Dritte Karte gleich RICHTIG!
Wenn man doch nur verstehn könnte oder, wie sagts man Dir?!?
Softwareberechnung über CPU packt nur 7fps bei der Demo, mit der x1600xt läuft das bei 45fps, guten morgen, setzen sechs.
Wenn ich mir den Hansel auf Bild 1 dann anschau, wie der guckt schreie ich gleich vor lachen!!!!!!!!!!!!!
Ohne weiteren Kommentar, billigstes geflame...
del_4901
2006-06-07, 01:09:43
Also wenn ATI das so handhabt, wie ihre anderen Sachen .. dann Prost Mahlzeit. Ati soll erstmal die vorhandene Suppe fertigkochen, bevor man neues heißes Wasser aufsetzt. (ja ich bin etwas verärgert, weil alle sinvollen Extensions von Nvidia[ja es soll welche geben] bei Ati immernoch auf sich warten lassen) Aus Unfähigkeit oder welchen Gründen auch immer....Naja sollen die beiden sich bashen, der Gewinner ist eh der lachende Dritte.
tombman
2006-06-07, 01:21:58
und das ganze auf meinem mobo -> geil :D (Intel BadAxe, 3x pci-e "16")
StefanV
2006-06-07, 01:22:27
AlphaTier[/POST]']Naja sollen die beiden sich bashen, der Gewinner ist eh der lachende Dritte.
Welcher dritte? :|
Achso, du meinst Ageia, ja, hoffen wir mal, das die 'nen Fuß in die Tür bekommen und sich IHR Modell durchsetzt...
tombman
2006-06-07, 01:24:22
das größte Problem ist schlicht und einfach DER PLATZ. Bei 3x dual slot hast nicht mal mehr Platz für eine soundcard :ugly:
Tja, Marketing, aber Ati legt sich nicht nur mit der "Green" Architecture an :wink:
http://img2.pcpop.com/ArticleImages/0x0/0/287/000287853.jpg
Da tropft der Zahn, ghe Tombman?
tombman
2006-06-07, 01:32:53
hmm, aber die Frage ist ja nicht was schneller ist, sondern welche games was unterstützen werden...
Man braucht schon mal mindestens ein dual 16x slot pci-e mobo-> und wieviele haben das schon? Fast nur die SLI/CF user. Und genau die haben keinen weiteren Platz für einen dritte Karte.
ATI hatte Glück, daß die überhaupt ein mobo gefunden haben, welches 3x pci-e slots hat, nämlich meines ;) Oder, das Intel hat überhaupt nur 3 slots weil ATI das so wollte :eek: Verschwörung? :D
dildo4u
2006-06-07, 01:40:21
Nett vor allem weils 1800XTs grad für 230€ gibt und jede ppu vernichtet fragt sich nur wie sich drei solcher Heizmonster auswirken so Towerklimatisch.
tombman
2006-06-07, 01:57:52
die einzige Lösung wäre da sowieso alles per wakü zu kühlen, da man dann single slot kühlen könnte ;)
naja, so langsam kommt ja der R600 in Sicht und dem einen R520/80 spendieren ist dann sicher angesagt :smile:
Zu der Zeit wird wohl auch klar sein, wie und was an Spielen läuft.
tombman
2006-06-07, 02:02:41
up¦²[/POST]']naja, so langsam kommt ja der R600 in Sicht und dem einen R520/80 spendieren ist dann sicher angesagt :smile:
Zu der Zeit wird wohl auch klar sein, wie und was an Spielen läuft.
Ich will aber von CF weg und hin zu Quad-SLi ;) Außer ATI erlaubt in Zukunft Profile ;)
Da gab es vor paar Tagen ein Statement von einem Ati-Bobo:
Recently, some reports have wrongly said ATI is facing difficulty with 80nm technology. We have interviewed Edward Chow, Group Marketing Manager, for the news of the manufacturing and Computex Taipei 2006.
According to Edward, the pilot production with 80nm process was completed by TSMC with satisfactory yield rate. They are now final tuning for the mass production, expected to be done in Q3. The first round production would include mainstream and value products of ATI.
In the Computex Taipei 2006, ATI have no planning to launch any new product for video card and main board. Yet samples of RV560 and RV570 may be exhibited. ATI would like to focus on their Physics Acceleration technology instead. Edward figure out that their technology is more flexible and better than nVidia SLi-Physics, they don’t require the same model to make the advantage (e.g. X1900 with X1600 can also experience such technology advance).
With regard to the recent launch of nVidia Geforce 7950GX2 and Quad SLi technology, Edward doesn't think the technology is mature enough. ATI have no plan on Quad CrossFire product, but boosting the performance to the existed product. The most likely example is the launch of R580+ with faster core speed and GDDR4 RAM, such that it will be the first video card with GDDR4!
http://www.hkepc.com/bbs/news.php?tid=607981&starttime=0&endtime=0
sok-1
2006-06-07, 10:44:36
@tombman: Schau mal was ich da gefunden habe: http://www.rage3d.com/interviews/chats/ircchat5/
Auszug:
Question: Are there any plans for improved profile handling for Crossfire?
Answer: [...] With respect to improving the profile handling, yes - there will be forthcoming changes that I think you will like.
Wäre doch genau dein Ding: 3*1900xtx + Physik & Profile... :-)
up¦²[/POST]']Tja, Marketing, aber Ati legt sich nicht nur mit der "Green" Architecture an :wink:
Sphere-Sphere-Coldet ist ja auch so unglaublich wichtig...
Wenn man nix anderes hat.......... smile!
Hvoralek
2006-06-07, 13:29:47
dildo4u[/POST]']Nett vor allem weils 1800XTs grad für 230€ gibt und jede ppu vernichtet fragt sich nur wie sich drei solcher Heizmonster auswirken so Towerklimatisch.Noch netter, dass die X1600XT eine nur gut 1/4 geringere Atithmetikleistung hat und nochmal erheblich weniger kostet...
Demirug
2006-06-07, 13:45:37
Coda[/POST]']Sphere-Sphere-Coldet ist ja auch so unglaublich wichtig...
Aus gutem Grund die Basis jeder Kollisionerkennung.
Hey liebe Diskussionsrunde,
http://www.tomshardware.com/site/computex_2006/
ATI demonstrates physics on X1000 graphics cards
What you can expect from physics, one of the big buzzwords in today's graphics industry: Chris Evenden, ATI's Director of Public Relations, demonstrates accelerated physics effects by pulling and repelling hundreds of on-screen objects in real-time.
Im Interview hatte er leider keine Zahlen im Vergleich zur dedizierten PPU Karte parat! So was aber auch!
Behauptet aber ATI wäre auf jeden Fall schneller!
So langsam kapiert man bei ATI das Marketing "ala NVIDIA" auch Sinn maxcht ;)
LOL
Grüsse
Botcruscher
2006-06-07, 13:55:34
http://www.heise.de/newsticker/meldung/73942
Nochmal auf Deutsch.
So macht das Sinn! Da kann man nehmlich einfach seine alte Karte der letzten Generation werkeln lassen.
Monger
2006-06-07, 13:56:25
Ist eigentlich mal irgendein Spiel angekündigt, was zumindest mal HavokFX unterstützen wird?
Ich bin gespannt wie ein Flitzebogen wie das letztendlich nun aussehen wird. Dass ein Spiel sowohl PhysX als auch HavokFX unterstützen wird, ist wohl mehr als unwahrscheinlich, also wird es am subjektiven Eindruck hängen welchen Weg man für den besseren hält. Aber ich hab die Hoffnung ja nicht aufgegeben, dass ich ohne aufzurüsten auf meiner X1900XT noch Physikbeschleunigung erleben werde...
deekey777
2006-06-07, 16:49:28
http://www.computerbase.de/news/hardware/grafikkarten/ati/2006/juni/ati_crossfire_physics/
Update: Wie ATi uns auf Anfrage soeben mitteilte, ist es mit CrossFire Physics technisch durchaus möglich, die Spielphysik auf einer Grafikkarte zu berechnen. Jedoch würde eine GPU bei der Spielphysik die CPU nur um etwa 10 bis 15 Prozent entlasten, weswegen sich die Kanadier auf die Effektphysik fokussieren werden.
Da hat jemand den Mund zu voll genommen.
» AGEIA Responds To ATI's Physics Hardware Solution (http://www.firingsquad.com/news/newsarticle.asp?searchid=10584)
Since ATI's announcement this morning about their own solution for PC game hardware physics seemed to us to be a challenge to AGEIA's PhysX hardware, we decided to contact AGEIA to get their side on things. Here is AGEIA's response via their vice president of marketing Michael Steele:
• We’re glad that they’ve validated physics as the next big thing in gaming
• The performance claims appear to be based solely on gigaflops of the Radeon chips and an assumption of PhysX gigaflops, but that is not a meaningful way to measure physics performance. That’s like suggesting that the more wheels I have on my car, the faster I will go. Physics requires much more than raw gigaflops.
• Graphics processors are designed for graphics. Physics is an entirely different environment. Why would you sacrifice graphics performance for questionable physics? You’ll be hard pressed to find game developers who don’t want to use all the graphics power they can get, thus leaving very little for anything else in that chip.
• “Boundless Gaming” is actually enabled by AGEIA’s Gaming Power Triangle in which the PhysX processor adds true physics to the mix instead of leaving it to a repurposed graphics processor.
• In the end, what matters is who develops software for the product. There are games shipping for PhysX today and more than 20 announced for 2006. In addition, over 65 developers of more than 100 games are deep in development for PhysX. No specific games are announced even in development mode for ATI.
• PhysX is here now
... :popcorn:
Den Hinweis hast du vergessen zu kopieren
Quelle: http://www.firingsquad.com/news/newsarticle.asp?searchid=10584
AGEIA also sent over a link to a CNet News.com blog which is also critical of the ATI solution.
http://reviews.cnet.com/4531-10921_7-6538332.html
Hier der ganze Bericht:
An die Profis hier, bitte mal genau lesen, bin gespannt auf euer Feedback!
After Ageia's PhysX chip and Nvidia's Havok FX support announcement, ATI now follows suit with its own proclamation of support for accelerated gaming physics. The Canadian 3D chip vendor's so-called boundless gaming approach is similar to Nvidia's; in games that feature Havok FX physics coding, a PC with two or even three ATI Radeon X1000-series 3D cards in it can accelerate the physics calculations, allowing for more complex interaction of objects, characters, materials, and environments. How would you get three graphics cards in a PC, you ask? Why, simply purchase one of the new motherboards with three 16x PCI-Express graphics slots.
If you think that sounds ridiculous, you're not alone. Consider:
1. ATI's Radeon X1000-series 3D cards are DirectX 9 parts. By the time any games are out with Havok FX features, Windows Vista, and with it DirectX 10, will either have arrived or will be arriving imminently, rendering the current generation of Radeons obsolete. We're sure ATI will include Havok FX acceleration in its next-gen cards, but you'd be foolish to buy the Radeon X1900 XT card ATI is highlighting now in anticipation of future boosted game physics.
2. ATI's two-card physics acceleration presents the same problem as Nvidia's. By using a 3D card for physics acceleration, you sacrifice 3D performance for physics performance. Yes, there's lots of new technology on the horizon promising faster computing, but if you've played the Elder Scrolls IV: Oblivion, you know that it chokes even the most advanced current-gen hardware. Smooth frame rates are still more important than more flying bricks. As for the three-card option, ostensibly you can plug in an older Radeon alongside a two-card Radeon CrossFire setup to ramp up the physics, but we'll withhold judgment until we know more about pricing of the special three 3D slot motherboards.
In fairness to ATI, it's too early to purchase any hardware with physics in mind. The game developers are still working to include meaningful physics-based content into their games. Until that happens, we have nothing to test with and therefore can't determine whether Ageia's, ATI's, or Nvidia's approach will offer the best value and the best experience improvement. So far, though, we like Ageia's approach the best, both for simplicity of concept and because it doesn't involve sacrificing a GPU.
deekey777[/POST]']http://www.computerbase.de/news/hardware/grafikkarten/ati/2006/juni/ati_crossfire_physics/
Da hat jemand den Mund zu voll genommen.
Das meine ich ja auch, so langsam nervt dieses Geschrei!
Was der kann, kann ich auch und viel schneller, aber nur so nen bissel, aber dem Gamer ist eh noch nicht klar was an Physx-Effekten so passiert!
Für mich ist AGEIA durch das typische ATI & NVIDIA Marketing ganz klar im Vorteil, wenn die versprochene Leistung durch die einzelne PPU auch machbar ist!
Monger
2006-06-09, 10:14:31
Gast[/POST]']Hier der ganze Bericht:
An die Profis hier, bitte mal genau lesen, bin gespannt auf euer Feedback!
Ich bin kein Profi, aber ich bin da an vielen Stellen anderer Meinung.
Erstens: ich denke, die DirectX 9 Grafikkarten werden erstaunlich lange leben. Es wird nicht jeder sofort sich Vista kaufen, und es wird nicht jeder Spieleentwickler sofort die Direct3D 10 Effekte nutzen. Der Leistungssprung zum r600 wird vermutlich auch nicht so dramatisch sein, dass alle vorigen Grafikkarten sofort veralten würden.
Zweitens: ich persönlich finde nicht, dass alle aktuellen Spiele ausschließlich Grafikkartenlimitiert sind. Ganz im Gegenteil: wenn irgendwas bremst, dann doch die CPU. Das haben die Tests mit Timedemos bzw. realen Szenarien vom 3DC auch gezeigt. Momentan hat eine moderne Grafikkarte fast immer genügend Reserven, um noch FSAA o.ä. für ein Spiel zu bieten. Da ein paar Reserven für Physik zu opfern, ist vielleicht nicht jedermanns Sache, aber das kann man ja glücklicherweise handhaben wie man will.
Das mit den drei Grafikkarten ist nur ein Gag, um nVidia Kontra zu bieten. Eigentlich zielt man darauf, Ageia das Wasser abzugraben: Warum sich eine Physikkarte für 300€ reinklatschen, wenn man für 120€ eine Grafikkarte bekommt die genau das selbe kann?
Demirug
2006-06-09, 10:25:51
Völlig egal wer am Schluss die schnellste "Physik Lösung" hat der Endkunde (=Spieler) ist im Moment sowieso der Idiot weil bisher jeder eine properitäre Lösung hat.
Demirug[/POST]']Völlig egal wer am Schluss die schnellste "Physik Lösung" hat der Endkunde (=Spieler) ist im Moment sowieso der Idiot weil bisher jeder eine properitäre Lösung hat.
Ich hoffe die PPUs werden günstiger!
Sinnvoll wäre ein Preis um die 149€!
Aber mal schaun wie sich die Implementierung bei den SDKs so macht!
Das wird den entscheiden Schub in die eine oder andere Richtung geben!
Grüsse
MegaManX4
2006-06-09, 11:40:59
Demirug[/POST]']Völlig egal wer am Schluss die schnellste "Physik Lösung" hat der Endkunde (=Spieler) ist im Moment sowieso der Idiot weil bisher jeder eine properitäre Lösung hat.
Welche Lösung würdest du, als Entwickler, den präferieren?
Ich hoffe nur das die Endkunden diesmal abwarten. Immerhin gibts ja nicht mal downloadbare Heißmacher für DX9 Karten. Wie soll denn der Kunde angelockt werden?
MegaManX4[/POST]']Welche Lösung würdest du, als Entwickler, den präferieren?
Na ganz einfach was wie DirectPhysics oder OpenPL. Dann könnte jeder in Hardware machen was er will.
MegaManX4
2006-06-09, 12:14:49
Coda[/POST]']Na ganz einfach was wie DirectPhysics oder OpenPL. Dann könnte jeder in Hardware machen was er will.
Ich meinte den Weg über Grafikkarte oder über extra PPU wie bei Ageia.
MegaManX4[/POST]']Ich meinte den Weg über Grafikkarte oder über extra PPU wie bei Ageia.
Ganz klar über eine Extra Engine!
Auf einer speziell für Physx Effekte & und ich meine alle, nicht nur ein paar "Oberflächliche" wie es ATI schon angekündigt hat wird kein weiterer Schritt in RIchtung Realismus im Game passieren.
Wir brauchen eigentlich die PPU! Es sei den Foto-Realistisches Daddeln genügt den meisten!
Coda[/POST]']Na ganz einfach was wie DirectPhysics oder OpenPL. Dann könnte jeder in Hardware machen was er will.
Sind wir hier bei "Wünsch-Dir-Was" ? ;) Ich denke das wird nicht passieren!
ShadowXX
2006-06-09, 12:32:19
MegaManX4[/POST]']Ich meinte den Weg über Grafikkarte oder über extra PPU wie bei Ageia.
Das ist doch im Endeffekt egal.
ATI/nV könnten auch einfach auf Ihre Midrange-Grakas ein "PPU"-Aufkleber raufpatschen, dann ist das auch ne PPU und keine GPU mehr (etwas überspitzt).
Das wichtige ist die Schnittstelle, nicht die im Hintergrund laufende Realisierung die im Bestfall völlig Transparent ist (siehe auch SM4.0 Modell mit den Unified Shadern -> In der API ist es Unified, wie es auf den GPUs realisiert wird ist ne ganz andere sache).
Gast[/POST]']Sind wir hier bei "Wünsch-Dir-Was" ? ;) Ich denke das wird nicht passieren!
Warum nicht??
Bei Grakas hats mit DX auch geklappt.
Davon abgesehen gibt es durchaus meherer Gerüchte über ein Direct Physics
DirectPhysics: lange nichts mehr gehört von MS :rolleyes:
BTW, Jobs gibt es aber noch: seit Monaten suchen die Leute also ran an die Bouletten!
http://members.microsoft.com/careers/search/details.aspx?JobID=6b94ac4f-0627-4851-8e6a-633186d96261
Gast[/POST]']Den Hinweis hast du vergessen zu kopieren
Quelle: http://www.firingsquad.com/news/newsarticle.asp?searchid=10584
AGEIA also sent over a link to a CNet News.com blog which is also critical of the ATI solution.
http://reviews.cnet.com/4531-10921_7-6538332.html
Nene, war ja in der Überschrift verlinkt :wink:
Aber eigentlich hast du recht: die url drunter knallen ist auf jeden Fall deutlicher.
ShadowXX[/POST]']
Warum nicht??
Bei Grakas hats mit DX auch geklappt.
Davon abgesehen gibt es durchaus meherer Gerüchte über ein Direct Physics
Das stimmt, Gerüchte gibt es, wobei ich davon ausgehe, das es sich wie bei ATI/NV auf wenige Physx Effekte beziehen wird.
Es wäre aber sehr wünschenswert :)
Grüsse
Pit
up¦²[/POST]']Nene, war ja in der Überschrift verlinkt :wink:
Aber eigentlich hast du recht: die url drunter knallen ist auf jeden Fall deutlicher.
:) Paßt scho up!
Was ich aber noch anmerken möchte bei der ganzen Diskussion um Physx ist folgendes!
1. Wachen ATI/NV plötzlich auf! Sehr positiv!
2. Könnte, wie einige schon vermutet haben, Physx als Schnittstelle in DX aufgenommen werden.
3. Werden die Spiele so oder so, egal wer sich durchsetzt REALER
Last but not least! Ein NEUEr Benchmarkvergleich!
Vision: Ja klar hast du Tombman ;) (Sorry TB, mir viel gerade keine anderer ein mit SLI) ein paar mehr FPS bei UT2007, dafür kann habe ich aber zig GFLPs mehr als du und überhaupt, erlebe ich viel mehr und das ist in FPS nicht auszudrücken!
Schade nur, das das an Allein-erlebnis bleiben wird, es sei denn zu jedem Gameserver gibt es Physx - Support ;)
Grüsse
Pit
Sig: Its coming home, football coming home...........
Demirug
2006-06-09, 13:01:54
Gast[/POST]']2. Könnte, wie einige schon vermutet haben, Physx als Schnittstelle in DX aufgenommen werden.
Das hoffe ich nicht.
Derzeit scheint MS aber eher in die Richtung zu gehen das man Direct3D für alles benutzten soll was die GPU nutzt. Sie erweitern aber D3D dafür um entsprechenden "nicht Grafik" Funktionen.
Demirug[/POST]']Das hoffe ich nicht.
Derzeit scheint MS aber eher in die Richtung zu gehen das man Direct3D für alles benutzten soll was die GPU nutzt. Sie erweitern aber D3D dafür um entsprechenden "nicht Grafik" Funktionen.
Demi,
wenn die Versprechungen von AGEIA sich bewahrheiten und nehmen wir mal an, mit einem echtem Performance-Vorteil gegenüber VGA & CPU, wird dann eine solche Lösung wie von AGEIA erfolgreich werden?
Pit
Demirug
2006-06-09, 13:18:29
Gast[/POST]']Demi,
wenn die Versprechungen von AGEIA sich bewahrheiten und nehmen wir mal an, mit einem echtem Performance-Vorteil gegenüber VGA & CPU, wird dann eine solche Lösung wie von AGEIA erfolgreich werden?
Pit
In einer Zeit in der man als Spieleentwickler immer noch dafür kämpft das sich die Leute wenigsten halbwegs brauchbare Grafikhardware kaufen kann sich ein weitere Chip höchstens eine Nische erobern.
Spätestens wenn eine zweite Physiklösung erscheint (und ATI und nVidia puschen ja bereits in diese Richtung) werden die Entwickler anfangen nach einer allgemeinen API zu schreien. Damit verliert aber PhysX entgültig sein Alleinstellungsmerkmall und sie müssen sich dem harten Konkurrenzkamp stellen. Wie das ausgeht dürfte klar sein. Wenn ATI und nVidia aus einem Design mehrer Grafikchips und dann noch zusätzliche „Physikchips“ herausholen verteilen sich die Entwicklungskosten noch besser und der Mengenrabatt bei den Fabs wird ebenso größer. Ich kann mir sogar durchaus vorstellen das es dann „Grafikkarten“ ohne Monitoranschluss geben wird.
Demirug[/POST]']In einer Zeit in der man als Spieleentwickler immer noch dafür kämpft das sich die Leute wenigsten halbwegs brauchbare Grafikhardware kaufen kann sich ein weitere Chip höchstens eine Nische erobern.
Spätestens wenn eine zweite Physiklösung erscheint (und ATI und nVidia puschen ja bereits in diese Richtung) werden die Entwickler anfangen nach einer allgemeinen API zu schreien. Damit verliert aber PhysX entgültig sein Alleinstellungsmerkmall und sie müssen sich dem harten Konkurrenzkamp stellen. Wie das ausgeht dürfte klar sein. Wenn ATI und nVidia aus einem Design mehrer Grafikchips und dann noch zusätzliche „Physikchips“ herausholen verteilen sich die Entwicklungskosten noch besser und der Mengenrabatt bei den Fabs wird ebenso größer. Ich kann mir sogar durchaus vorstellen das es dann „Grafikkarten“ ohne Monitoranschluss geben wird.
Demi;
Danke für deine Antwort!
Dann hoffe ich mal das sich die Entwickler für Ageia entscheiden, ein Wettbewerb only ATI und NV wäre mir zu langweilig.
Grüsse
Pit
Schon gesehn?
http://downloads.guru3d.com/download.php?det=1417
ATIPhysicsDemo_Docklands1.mpg (19 MB)
ATIPhysicsDemo_Docklands2.mpg (10 MB)
ATIPhysicsDemo_Docklands3.mpg (9 MB)
ATIPhysicsDemo_Vortex.mpg (29 MB)
ATIPhysicsDemo_Wall1.mpg (16 MB)
ATIPhysicsDemo_Wall2.mpg (16 MB)
ATIPhysicsDemo_ChessVideo.mpg (16 MB)
Was ich nicht verstehe:
Jetzige Physik-Berechnungen im Spiel werden doch von der CPU nebenbei mit gemacht, oder?
Wäre es da nicht sehr viel einfacher, einfach die Physik-Berechnung auf den 2. core der (Dualcore)CPU zu legen? Anstatt sich sinnlose sache wie tripple GPU auszudenken? immerhin dürfte die cpu ja auch leistungsmäßig überlegen sein?!
Monger
2006-06-09, 14:07:27
Gast[/POST]']Was ich nicht verstehe:
Jetzige Physik-Berechnungen im Spiel werden doch von der CPU nebenbei mit gemacht, oder?
Wäre es da nicht sehr viel einfacher, einfach die Physik-Berechnung auf den 2. core der (Dualcore)CPU zu legen? Anstatt sich sinnlose sache wie tripple GPU auszudenken? immerhin dürfte die cpu ja auch leistungsmäßig überlegen sein?!
Eben nicht. Physik ist extrem gut dafür geeignet, parallelisiert zu werden. Wenn 10000 Splitter in der Gegend rumfliegen, kann jeder Splitter für sich isoliert betrachtet berechnet werden.
Die CPU macht es derzeit nur deshalb, weil die CPU nunmal alles macht was andere Komponenten nicht können. Sie ist das Mädchen für alles. 3D Grafik hat man ja auch eine ganze zeitlang nur auf der CPU gerendert (=Softwarerenderer), aber im Vergleich zu den Grafikbeschleunigern war das eben schneckenlangsam.
Windi
2006-06-09, 21:03:09
Monger[/POST]']Eben nicht. Physik ist extrem gut dafür geeignet, parallelisiert zu werden. Wenn 10000 Splitter in der Gegend rumfliegen, kann jeder Splitter für sich isoliert betrachtet berechnet werden.
Die CPU macht es derzeit nur deshalb, weil die CPU nunmal alles macht was andere Komponenten nicht können. Sie ist das Mädchen für alles. 3D Grafik hat man ja auch eine ganze zeitlang nur auf der CPU gerendert (=Softwarerenderer), aber im Vergleich zu den Grafikbeschleunigern war das eben schneckenlangsam.Da die Entwickler aber auch an die "kleinen" denken müssen, dürfte Dualcore problemlos reichen. Kein Publisher wird in den nächsten zwei Jahren ein Spiel zulassen, was nicht auf einen normalen Singelcore PC läuft (Da diese nunmal einen riesigen Teil der Kundschaft stellen). Das bischen Physik, was auf einem Singelcore möglich ist, könnte ein 2. Kern problemlos übernehmen.
Ich erwarte mittlerweile von den ganzen Physiklösungen nichts anderes mehr, als reine Effektphysik ohne wirklich spielrelevante Berechnungen. Und 300€ nur für Effektphysik ist ein bischen heftig. Bei den Grafikkarten wäre der Übergang wenigstens fließend.
Windi[/POST]']Da die Entwickler aber auch an die "kleinen" denken müssen, dürfte Dualcore problemlos reichen. Kein Publisher wird in den nächsten zwei Jahren ein Spiel zulassen, was nicht auf einen normalen Singelcore PC läuft (Da diese nunmal einen riesigen Teil der Kundschaft stellen). Das bischen Physik, was auf einem Singelcore möglich ist, könnte ein 2. Kern problemlos übernehmen.
Ich erwarte mittlerweile von den ganzen Physiklösungen nichts anderes mehr, als reine Effektphysik ohne wirklich spielrelevante Berechnungen. Und 300€ nur für Effektphysik ist ein bischen heftig. Bei den Grafikkarten wäre der Übergang wenigstens fließend.
Das glaube ich schon! Es werden genügend Titel rauskommen die ohne eine gesonderte PPU halt nicht das Feeling haben (PhysX) wie mit einem Dual Core oder eine VGA Einheit!
Die Zeiten ändern sich!
Grüsse
Hallo ZUsammen,
ich hatte irgendwo mal gesagt hier , das ich den Test von 3Dcenter niet so dolle fand ;)
Warum: Zu jedem guten Testbericht gehört eine Recherche!
Was finden meine Google-Augen da?!
The Unofficial AGEIA PhysX PPU Links & Info Page
http://personal.inet.fi/atk/kjh2348fs/ageia_physx.html
Hier sind alle Infos über Entwicklung, Stand der Dinge etc. pp (Hintergrund)
Grüsse
deekey777
2006-06-15, 13:46:19
http://www.theinq.com/?article=32439
Ist ja gut, ist :cop:Fuad:cop:
Aber das machte mich doch neugierig:
ATI might just do its own API or it will extend the existing Havok Physics, if allowed, as the company wants to be serious about the upcoming Physics trend.
Ist das aus den Fingern gesaugt oder steckt etwas mehr dahinter?
Die Demos, die Ati auf der Computex zeigte, waren Havok-FX-Demos. Insofern kocht der liebe Fuad hier mal nur wieder Dinge neu auf, die eigentlich bekannt sind.
MuLuNGuS
2006-06-15, 15:05:35
Gast[/POST]']Die Demos, die Ati auf der Computex zeigte, waren Havok-FX-Demos. Insofern kocht der liebe Fuad hier mal nur wieder Dinge neu auf, die eigentlich bekannt sind.
und so doll sind die demos auch wieder nicht..
Monger
2006-06-15, 18:30:10
Windi[/POST]']Da die Entwickler aber auch an die "kleinen" denken müssen, dürfte Dualcore problemlos reichen. Kein Publisher wird in den nächsten zwei Jahren ein Spiel zulassen, was nicht auf einen normalen Singelcore PC läuft (Da diese nunmal einen riesigen Teil der Kundschaft stellen). Das bischen Physik, was auf einem Singelcore möglich ist, könnte ein 2. Kern problemlos übernehmen.
Ich bin nicht ganz sicher ob ich dich hier richtig verstehe...
Singlecore Prozessoren sind natürlich IMMER kompatibel zu Programmen die für Dual Core ausgelegt sind! Das Betriebssystem sorgt ja dafür, dass die passenden Threads bzw. Prozesse auf die Kerne verteilt werden. Bei einem Single-Core wird halt alles in einen Topf geschmissen wie bisher auch...
Jede vernünftige Neuentwicklung wird heute natürlich als Multicore Lösung entwickelt. Ich glaube nicht, dass der zweite, dritte, vierte Kern jetzt jahrelang brach liegen wird und so nur für Physikeffekte reserviert bleibt. Die CPU kann man durchaus noch für andere Sachen gebrauchen als nur fliegende Mülltonnen...
Ich erwarte mittlerweile von den ganzen Physiklösungen nichts anderes mehr, als reine Effektphysik ohne wirklich spielrelevante Berechnungen. Und 300€ nur für Effektphysik ist ein bischen heftig. Bei den Grafikkarten wäre der Übergang wenigstens fließend.
Full ack. Beziehungsweise: ich hätte bei Grafikkarten wenigstens die Wahl, ob ich besonders viele oder besondere schöne Trümmerteile haben will.
Windi
2006-06-15, 19:49:17
Monger[/POST]']Ich bin nicht ganz sicher ob ich dich hier richtig verstehe...
Singlecore Prozessoren sind natürlich IMMER kompatibel zu Programmen die für Dual Core ausgelegt sind! Das Betriebssystem sorgt ja dafür, dass die passenden Threads bzw. Prozesse auf die Kerne verteilt werden. Bei einem Single-Core wird halt alles in einen Topf geschmissen wie bisher auch...
Jede vernünftige Neuentwicklung wird heute natürlich als Multicore Lösung entwickelt. Ich glaube nicht, dass der zweite, dritte, vierte Kern jetzt jahrelang brach liegen wird und so nur für Physikeffekte reserviert bleibt. Die CPU kann man durchaus noch für andere Sachen gebrauchen als nur fliegende Mülltonnen...
Was ich damit hauptsächlich meinte ist, dass die Publisher die Spielehersteller ja praktisch dazu zwingen werden Spiele zu programmieren, die auch problemlos auf Singelcores laufen (ist halt eine gigantische Zielgruppe). Bei dem bischem Physik was auf einem SC möglich ist, braucht es halt nicht viel Leistung um den kompletten Physikpart zu übernehmen. Ein zweiter Kern dürfte da problemlos reichen. Wenn man halt nur den Physikpart eines Singelcore-Spieles "beschleunigen" will, braucht man nicht die gigantische Leistung einer 2. Grafikkarte oder gleich einer speziellen Physikkarte.
Mehr spielrelevante Physik ist auch nicht möglich, da sonst die SingelCore Rechner nicht mehr mitkommen würden. Das einzige was dann die verschiedenen Hardwarelösungen noch machen könnten wäre Eyecandy, also Physik die auf den eigentlichen Spielverlauf keinen Einfluss mehr hat.
TheRealTentacle
2006-06-16, 10:21:07
Demirug[/POST]']Ich kann mir sogar durchaus vorstellen das es dann „Grafikkarten“ ohne Monitoranschluss geben wird.
Wäre es nicht sogar denkbar, dass es bei einer Zusammenarbeit von AMD und ATI es eine Lösung auf dem Die der CPU geben könnte?
Winter[Raven]
2006-06-30, 13:47:27
ATi präsentierte Anfang Juni auf der Computex „ChrossFire Physics“, ATis Physiklösung für Grafikkarten, die gegen „SLI Physics“ von nVidia sowie AGEIAs separatem Physikbeschleuniger in Zukunft antreten muss. Dabei scheint sich das Wort „Zukunft“ allerdings sehr weit auszudehnen.
So ging man vor kurzem davon aus, dass sowohl ATi als auch nVidia bereits in Kürze ein Treiberupdate nachschieben würden, in dem die Physiklösungen für die aktuellen 3D-Beschleuniger aktiviert sind, um gegen den auf dem Markt erhältlichen Physikbeschleuniger „PhysX“ antreten zu können. Zumindest ATi macht dieser Vermutung nun ein Ende, da Dave Orton, der CEO von ATi, in der „Financial Results Conference“ bekannt gegeben hat, dass CrossFire Physics frühestens in neun bis zwölf Monaten im Catalyst-Treiber aktiviert wird – bei nVidia spricht man derzeit vom Ende des Jahres, da zu diesem Zeitpunkt erste HavokFX-Spiele erscheinen sollen.
Bekanntlicherweise wird ATi mit dem R600, dem Next-Generation-Chip der Kanadier, die Physikberechnungen mit Hilfe von Direct3D 10 stark in den Vordergrund rücken. Somit bleibt es fraglich, ob CrossFire Physics überhaupt für die älteren R5xx-GPUs freigeschaltet wird.
Kennt noch jemand Truform? ... nicht das ATI den selben Fehler nochmal macht. :D ;D :biggrin:
derMeister
2006-07-01, 11:25:44
Auf CB gibts dazu ne Kurzmeldung, mein erster Gedanke dazu; Leck mich am A****, was soll diese Ver*rschung, ihr könnt mich mal ihr *recksäcke.
Erst groß vom baldigen Erscheinen eines solchen Treiber Gerüchte in die Welt setzen und den Absatz ankurbeln, dann zu 99% alles auf den R600 und D3D10 schieben :ucrazy2: :ubash2: :uattack4: :udown: :ufinger:
(sry for smilörn)
Hatte ja eigentlich nen eigenen Thread eröffnet, aber DK777 meinte, ich solle das lieber hier posten :wink:
deekey777
2006-09-18, 21:47:00
http://www.3dnews.ru/video/ati_physics2/
Eine Schande, dass es diesen Artikel immernoch nicht in Englisch gibt.
Es ist schon ein "Pre-Test" von ATi Physics, denn die Redakteure durften tatsächlich etwas mit ATi Physics rumspielen.
Kann es sein, dass in Kanada (jetzt USA :biggrin: ) unter ATi Physics alles versteht, was als Physik durchgeht und auf ATi-Hardware läuft? Von den getesten Technologie-Demos, war nur eine von ATi mit der Nutzung deren DPP.
Das Testsystem war ein Depo mit Intel Core Duo Extreme X6800 @ 2,93 GHz, 2 GiB DDR2, 2xRadeon X1900XTX, wobei eine X1900XTX als "Physikbeschleuniger" diente. Zusätzlich wurde mit einer X1600XT als "Physikschleuniger" benutzt, 1280x1024 (NO AA/AF). Laut einem ATi-Verantwortlichen waren die benutzten Treiber nicht Beta, sondern Alpha im frühen Stadium. Irgendwelche Schlüsse auf die Zukunft darf/soll man nicht ziehen, sondern auf den Zeitpunkt, zu dem getestet wurde, es ist einfach noch zu früh dafür.
Zweite Seite, erster Test: rollende Steine (ATi), 10 000, 15 000 oder 20 000 Objekte. Grafisch alles andere als anspruchsvoll, so dass die Vermutung ist, dass der "Physik-Beschleuniger" limitiert. Interessant ist, dass die Leistung nicht linear abfällt.
Seite 3, Test 2:
Keine Ahnung, was das soll, ist aber Havok FX. In den Test kann man eingreifen. Die X1600XT schlägt sich ausgezeichnet.
Test 3: Schachfiguren.
Mit steigender Anzahl der Objekte fällt die Leistung.
Seite 4, Test 4: Herrscher des Mülls.
Der erste Test, der wie ein Spiel aussieht. Die X1600XT schägt sich ausgezeichnet.
Test 5: Rauch bzw. Rauchpartikel als einzelne Objekte (2020).
Fazit: Die X1600XT reicht aus, denn welches Spiel wird schon so viele Objekte verwenden? Aber ohne Spiele, die Havok FX nutzen, braucht man auch keine Grafikkarten als "Physik-Beschleuniger".
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4382825#post4382825
Eigentlich braucht man nur einen offenen 1x dann müsste die Karte laufen.
Die zweite Karte soll auch die Gamephysik übernehmen.
Als Besitzer eines ASRock 939Dual-VSTA mit AGP8x und PEG stellt sich die Frage, ob ich mein PCIe 1x öffnen muss oder den AG-Port nuntzen kann. AGP 8x sollte doch reichen, wenn dort ein "Physik-Beschleuniger" steckt.
Natürlich gibt es auch andere unbeantwortete Fragen:
Wird ATi oder nVidia die Unterstützung von Havok FX auf CF- bzw. SLI-Boards beschränken oder werden sich auch (offene) PCIe nutzen lassen (physikalisch <PCIe 16x)? Wird es gar möglich sein, eine AGP-Grafikkarte als Physikbeschleuniger zu nutzen? Oder werden sich alle aus Geldgier querstellen?
Hvoralek
2006-09-19, 14:01:13
Irgendwie kommen mir die Abstände zwischen X1600XT und X1900XTX arg klein vor angesichts eines Faktors 4,4 bei der rechnerischen Arithmetikleistung. Gibt es da irgendwo einen Flaschenhals, den ich übersehe?
deekey777
2006-09-19, 14:18:54
Irgendwie kommen mir die Abstände zwischen X1600XT und X1900XTX arg klein vor angesichts eines Faktors 4,4 bei der rechnerischen Arithmetikleistung. Gibt es da irgendwo einen Flaschenhals, den ich übersehe?
Es ist auch ein sehr, sehr frühes Stadium. Auch kann die CPU weiterhin der limitierende Faktor sein, wenn sie die Objekte berechnet.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=303077
AnarchX
2006-09-19, 19:21:10
http://img5.pcpop.com/ArticleImages/500x375/0/331/000331736.jpg
http://babelfish.altavista.com/babelfish/trurl_pagecontent?lp=zh_en&trurl=http%3a%2f%2fwww.pcpop.com%2fdoc%2f0%2f155%2f155879.shtml
;)
deekey777
2007-01-09, 18:15:56
AMD Assymetric Physics Processing Requirements Revealed (http://www.dailytech.com/article.aspx?newsid=5634)
Und was ist mit der nötigen Software?
Brick Wars demo
Smash your opponent's Lego brick castle with your canon, all powered by ATi's Stream GPU physics acceleration. Except that it's just a demo. We hope it becomes a real game someday!
=> http://www.hexus.tv/show.php?show=20
AnarchX
2007-03-17, 13:38:21
Crossfire-Physik: bis zu 10 Mal schneller als CPU? (http://www.pcgameshardware.de/?article_id=571782)
Mit Generation X2 sollte ja bald der offizielle Start folgen.
Vielleicht kann man sogar seine alte X1 als Physikkarte weiternutzen?
Zocker_28
2007-03-19, 06:08:35
Das haben die schon auf der GC 2006 gezeigt, da lief es mit 2 x1950XTX.
Dann war ne andere mit ganzen ´vielen bunten Kugeln die man bündlen konnte und die dann richtig geil Formen und zerfallen lassen konnte.
Und sdas leif alles sehr flüssig an dem Stand.
Bokill
2007-03-19, 10:35:55
... Als Besitzer eines ASRock 939Dual-VSTA mit AGP8x und PEG stellt sich die Frage, ob ich mein PCIe 1x öffnen muss oder den AG-Port nuntzen kann. AGP 8x sollte doch reichen, wenn dort ein "Physik-Beschleuniger" steckt.
Natürlich gibt es auch andere unbeantwortete Fragen:
Wird ATi oder nVidia die Unterstützung von Havok FX auf CF- bzw. SLI-Boards beschränken oder werden sich auch (offene) PCIe nutzen lassen (physikalisch <PCIe 16x)? Wird es gar möglich sein, eine AGP-Grafikkarte als Physikbeschleuniger zu nutzen? Oder werden sich alle aus Geldgier querstellen?
Ich denke, die Frage hast du dir selber beantwortet ...
AGP 3.0 lässt sogar 2 AGP Karten auf einem Mainboard zu ... is aber nicht auf Konsumentenboards gemacht worden ...
Technische Limits damals? Nope!
Marketing? Yesss!
Auch die künstliche Trennung von SLI (NVIDIA), CrossFire (ATI, wenngleich kürlich für alle geöffnet), zeigt den Charakter mit Multiprozessing mit GPUs auf PCI-Express ... es geht um Marktbeherrschung, nicht um technische Machbarkeit.
Mit dem damaligen ULi konnte man durchaus beides technisch bedienen, durfte ULi/Asrock aber nicht wirklich. Dann daneben noch legacy AGP zu bedienen ist daher aus Marketingründen erst recht nicht mehr denkbar gewesen ... zugegeben, macht ja auch Mehrarbeit bei der Treiberpflege.
VIA zeigte früher durchaus, dass man den AGP Slot für Nichtgrafikanwendungen durchaus nutzen konnte.
So gesehen ist es eine ganz subversive Methode von ATI/AMD, NVIDIA den Nutzwert von PCI-Express gegenüber AGP nochmals zu betonen. Paralleles GPU-Multiprozessing hätte man auch schon mit AGP 3.0 durchaus machen können ...
... wenngleich AGP dennoch technisch ein Flaschenhals (Bus) gegenüber PCI-Express gewesen wäre (multiple individuelle serielle Lanes als High Speed Interconnect).
MFG Bobo(2007)
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.