Archiv verlassen und diese Seite im Standarddesign anzeigen : PhysX - Die erste PPU-Karte
nein
die karte hat ihre eigene physik engine und nur mit derer läuft das ganze zusammen
epic zB sind schon auf den zug aufgesprungen ...
naja aber das ist kein kleiner chip mehr der ein bischen physik kann
da werkeln mind 200 mio transistoren :eek:
und 128mb gddr3 werden die nicht zum spass verbaauen genauso wie einen stromanschluss ...
DAS ding wird mächtig leistung haben
und dann kan nman auch den preis verlangen ...
außerdem wird der preis wohl nach einiger zeit runtergehen, wenn das teil ordentlich gas gibt würde ich so 150€ ausgeben.
Problem ist IMHO, daß man eben nicht den Markt mit Highendkrempel kriegen kann. Eine leichte Verbesserung für 50 Euro würden viel mehr Leute kaufen als eine Verbesserung für 250 Euro, auch wenn diese um ein Vielfaches besser ist. Viele sehen einfach nicht ein, 250 Euro für etwas auszugeben, von dem nicht einmal klar ist, ob es überhaupt großflächig unterstützt werden wird. Auch andere Vorteile zieht man aus der Physikkarte ja noch nicht; wenn's angepaßte Audio- oder Videoencoder gäbe, die auf der PPU laufen, dann würde die Karte gleich nochmal um einiges interessanter, da man somit auch in diesem Sektor einen Geschwindigkeitsbonus erreichen könnte. Aber nur wegen 2, 3 Spielen eine Karte für 250 Euro kaufen... das werden wohl nur die Leute, die meinen, daß sowas absolut notwendig ist. Und das werden die Wenigsten sein.
-huha
(del676)
2005-05-23, 14:10:45
LOL
250-300 Euro und nen aktiven Lüfter?
nein danke
Exxtreme
2005-05-23, 14:45:28
250€ sind mir ehrlich gesagt auch zuviel. ;(
Demirug
2005-05-23, 14:53:22
Da steht was von 250 bis 300 Dollar. Wenn ich die üblichen Aufschläge bedenke wird das mit 250€ wohl nichts werden.
Da steht was von 250 bis 300 Dollar. Wenn ich die üblichen Aufschläge bedenke wird das mit 250€ wohl nichts werden.
Die UVPen liegen bei vielen anderen Herstellern auch sehr hoch. Ageia und Partner sind natürlich daran interessiert Gewinn zu machen. Allerdings machen sie keinen Gewinn, wenn niemand das Dingen kauft weil es zu teuer ist. Hinzu kommt noch der Pre-Xmas Zuschlag sowie der Early-Adaptor Faktor.
Nach Weihnachten, spätestens Frühjahr fällt sie mit Sicherheit unter $ 200,- respektive € 200,- Straßenpreis.
(del676)
2005-05-24, 23:15:31
*für ein teil dass VIELLEICHT von games unterstützt wird?*
und kommt mir jetzt ned mit Unreal3 - blahblah
DukeNukem unterstützt sicher auch SM3 :P :)
Hey die Situation war bei den Voodoos damals auch nicht viel anders ;)
Hier ein erster Eindruck der Karte "in action". Ich weiss, dass der Artikel vom Inquirer stammt, aber bei aller gebotenen Vorsicht ist's doch lesenswert:
WE WROTE a couple times before about some wizardry called a PPU (PhysX Processing Unit) and now we've seen the actual hardware in action. Last time we saw this marchitectural miracle we saw the card but all the demos we saw were software rendered.
This time, demos were rendered in real time with all the fancy physics detailed and effects on.
We have to say that seeing hardware in action was breathtaking and we do believe that this is the next step in game evolution.
This hardware add-in card presents 40,000 bones (rigid bodies) on screen at a time, while even Dual core AMD or Intel CPUs can calculate just few hundreds. When it comes to Fluids, PPU can render even more rigid bodies. Your game will look like never before.
AGEIA says sample cards will be ready in Q3. Actually, hardware is ready even now but AEGIA wants to wait for content before launching. The cards should be available in retail sometimes in Q4.
A company spokesman said that in retail those cards should cost between 250 and $300. WE understand Asus will be one of the first companies who will offer those cards in retail.
Its interesting to notice that many of the AGEIA executives comes from 3DFX and those guys sure know how hard it was to convince people to use 3D hardware back in 1995. Now AGEIA has to convince people that games need special hardware to accelerate the Physics in games.
One thing is certain, when you use see this hardware in action you will be convinced. Just a fair warning, it will be very hard to see this hardware in action just by looking at the pictures, you need to watch the video files.
With developers such is Epic, investors such as TSMC and Bank of America, this technology should have a very bright and successful future. µ
Quelle: http://www.theinquirer.net/?article=23468
Grüße: X.Perry_Mental
[LOG]Skar
2005-05-25, 09:59:06
Ich bin schon ein wenig gespannt!
250€ scheint mir zwar teuer, aber wenn man dafür 50€ - 100€ an der CPU sparen
kann lohnt es sich. Vor allem weil ich mir denke , dass es nicht zu oft eine neue
Karte kommen sollte.
Die sollen nur nen gescheiten Compiler bauen (lassen) ich will das auch unter
Linux nutzen können =)
tombman
2005-05-25, 10:51:24
hab den inq Artikel auch gelesen und bin schon ziemlich gehyped, immerhin sind da 3dfx Jungs am Werken :D
Eine neue Revolution wäre mal wieder fällig :D
Am besten wäre natürlich ein Video davon wie es rennt :D
Demirug
2005-05-25, 11:04:09
Ich kenne zwar die Zählweise: "1,2 viele" aber bei Fuad sind wohl schon 2 viele.
Die beiden die mal bei 3dfx gearbeitet haben sind der VP OF MARKETING und der VP SOFTWARE ENGINEERING. Die Hardware jungs kommen aus einer ganz anderen Ecke.
[LOG]Skar
2005-05-25, 18:41:30
Eine Video ist gewünscht.
ja hier ---> http://dmode.datamachine.net/ageia.html <---
Denkt am besten gleich laut in dieses Forum =)
[EDIT]
So nachdem ich mir das jetzt angeschaut habe muss ich schon sagen beeindruckend. Gerade das Lava ähnliche zeugs welches sie auf das Auto schütten. Der Bombercrash ist auch nicht übel, aber ob das genug Objekte
für nen echten Hype sind ? Naja es sind erstmal frühe Demos.
Bei der einen Bombe die auf der Geländer knallt hätte ich mir schon eine
Delle gwünscht... Aber sie haben wohl auch noch statische Objekte.
Eben kam mir gerade so der Einfall, dass sich die Karte doch eigentlich perfekt für Realtime-Raytracing eignen müsste. Die Algorithmen sind ja quasi dieselben wie bei der Physik-Berechnung. Da würden mich jetzt echt mal Benchmarks PhysX vs. SaarCOR interessieren :cool:
Demirug
2005-05-27, 13:32:39
Das scheint dann wohl die passenden Patenschrift (http://v3.espacenet.com/textdoc?DB=EPODOC&IDX=WO2005038559&F=0&QPN=WO2005038559) zu sein. Dummerweise sind zwei mögliche implementierungen aufgeführt die aufgrund der Zahlen ein stark unterschiedliches Leistungsverhalten an den Tag legen dürften.
(del676)
2005-05-27, 14:55:40
Hey die Situation war bei den Voodoos damals auch nicht viel anders ;)
tja und wir sehen wo es geendet hat :)
tja und wir sehen wo es geendet hat :)
Lag aber eher am falschen Managment. ATI/Nvidia würden auch den Bach runter gehen wenn sie den OEM Markt ignorieren und sich nur auf Retail konzentrieren täten. Zusätzlich würde der Kauf einer eigenen Fertigungsstätte auch mächtig auf das Geldsäckel hauen. Ok, ATI hat auch noch andere Bereiche wo sie tätig sind, genauso wie Nvidia, allerdings glaube ich nicht, dass sie damit überleben würden.
dildo4u
2005-06-22, 00:34:32
Video von der E3 mit vielen Anwendungsbeispielen für die PPU
http://dmode.datamachine.net/Ageia.wmv 55mb
EDIT: *ups ist das selbe wie oben sorry*
-=CHICKEN=-
2005-06-24, 14:11:30
als ich gerade den PPU thread sah und anschließend die neue top 500 liste der supercomputer erblickte, dachte ich mir, das man das vielleicht verbinden könnte.
der "Earth Simulator" der im moment auf platz 4 verdrängt wurde, ist ja nur dazu da, die erde virtuell darzustellen (z.b. tektonische verschiebungen usw. Wetter). es sind also fast nur physikalische berechnungen, die der "Earth Simulator" durchführen muß.
nehmen wir mal an, man könnte mehrere 1000 PPUs parallel betreiben und zu einem super-physik-computer zusammen bauen. wie wäre dann der leistungsvergleich zu einem herkömmlichen supercomputer.
also 10000 CPUs VS 10000 PPUs?
würden die 10000 PPUs, die ja vollkommen auf physik ausgelegt sind, wesentlich schneller als 10000-CPUs sein. :confused:
oder können wir schon die server-CPUs (opteron,xeon) so optimieren und spezialisieren, das sie genau so effizient wie PPUs sind? :confused:
zeckensack
2005-06-24, 14:54:36
Der ES bezieht seine Rechenleistung nicht aus "normalen" CPUs, wie sie in PCs eingesetzt werden.
http://www.es.jamstec.go.jp/esc/eng/ES/hardware.html
Igzorn
2005-06-24, 14:55:44
Die PPU läuft aber nicht ohne eine CPU da irgend wo her ja auch daten kommen müssen.
-=CHICKEN=-
2005-06-24, 15:12:56
Der ES bezieht seine Rechenleistung nicht aus "normalen" CPUs, wie sie in PCs eingesetzt werden.
http://www.es.jamstec.go.jp/esc/eng/ES/hardware.html
ah danke, die ES-CPUs sehen schon "ziemlich spezialisiert²" aus. aber mich würde es spaseshalber doch mal interresieren wie die leistungsunterschiede wären. (auch wenn ich es nie erfahren werde :rolleyes: )
@igzorn
klar, das man CPUs braucht, aber eine CPU könnte vielleicht schon richtig viele PPUs mit daten "füttern". also, das man für 10000 PPUs zusätzlich nur 1000 CPUs braucht (oder noch weniger).
Hauwech
2005-06-26, 14:50:15
ah danke, die ES-CPUs sehen schon "ziemlich spezialisiert²" aus. aber mich würde es spaseshalber doch mal interresieren wie die leistungsunterschiede wären. (auch wenn ich es nie erfahren werde :rolleyes: )
@igzorn
klar, das man CPUs braucht, aber eine CPU könnte vielleicht schon richtig viele PPUs mit daten "füttern". also, das man für 10000 PPUs zusätzlich nur 1000 CPUs braucht (oder noch weniger).
Theoretisch denkbar da die PPU ja über PCIe angebunden werden kann. Bei 20 Lanes wären das dann nur 500 CPUs die du für die 10000 PPUs brauchst. ;)
Unreal Tournament 2007:
http://media.pc.gamespy.com/media/746/746632/vids_1.html?ui=rssFeed
Klasse Physik!
Die_Allianz
2005-07-22, 16:01:02
Ageia Chip für die PS3!:
http://www.computerbase.de/news/consumer_electronics/konsolen/sony/2005/juli/sony_ageias_physx-chip_ps3/
da dürfte wohl einiges an Kohle ins Haus kommen! :D
Demirug
2005-07-22, 16:46:13
Sind die zu blöd um Pressemitteilungen zu lesen?
Sony hat nicht den Chip lizenziert sondern eine Spezialversion der Physikengine welche für Cell optimiert ist.
Crazy_Chris
2005-07-23, 20:32:10
Sind die zu blöd um Pressemitteilungen zu lesen?
Sony hat nicht den Chip lizenziert sondern eine Spezialversion der Physikengine welche für Cell optimiert ist.
ja, im Grunde nur das SDK dazu. Ab an der Lizenz werden die sicher gut verdienen. :tongue:
Irgendwie ist das ja schön für Ageia, bringt den PC Besitzern aber nix. Wenn die Karte bei den angenommenen 250 - 300 Euro liegt dann wird es nix mit großer Verbreitung im PC Sektor.
Mal wieder was neues von Ageia. Scheint aber leider keine Auswirkung auf den Preis der Karte zu haben, schade.
http://www.heise.de/newsticker/meldung/62391
-=CHICKEN=-
2005-08-05, 17:54:11
http://www.computerbase.de/news/hardware/multimedia/2005/august/ageia_physx_herbst/
hoffe, es wurde nicht schon wo anders erwähnt. :rolleyes:
besonders dieses hier gefällt mir:
"Sogar ein on-board-Einsatz auf zukünftigen Grafikkarten kann man sich bei AGEIA vorstellen und ist dabei nicht völlig auf eine Zusatzkarte fixiert. Lass wir uns also überraschen."
Power
2005-08-10, 09:59:54
das eine ist ein pci-express 4x Anschluß, welchen du zb auf server mobos oder auf manchen SLI mobos findest (dfi sli-dr, asus a8n sli premium usw)
Dh, die Karte kann sowohl bei pci als auch pci-epxress slots aussfüllen (wenn man sie umdreht)
Jo, der andere ist ein Stromanschluß.
Man muß dazu sagen, daß die KArte auf dem Bild noch KEIN Serienmodell ist..
Scheint sich aber wohl um einen PCIe 1x Anschluß zu handeln ?
Können Rennspiele nutzen aus der Karte ziehen?
Avalox
2005-09-02, 14:17:40
[url]
besonders dieses hier gefällt mir:
"Sogar ein on-board-Einsatz auf zukünftigen Grafikkarten kann man sich bei AGEIA vorstellen und ist dabei nicht völlig auf eine Zusatzkarte fixiert. Lass wir uns also überraschen."
Ob das so prickelnd ist?
Zum einen würde der Preis vielleicht ein bischen fallen, wenn mehr Chips vertickert werden, weil so vielleicht auch jemand einen Physik Beschleuniger kauft, der eigentlich gar keinen braucht. aber
3D Grafikkarten nähern sich aber grade einer Sättigungsgrenze an.
Nachher muss man sich eine neue Grafikkarte kaufen, nicht weil man mit der Grafikleistung unzufrieden ist, sondern weil einen die Physik Beschleunigung nicht mehr zusagt.
Eine extra Karte ist da schon deutlich vorteilhafter.
.
-=CHICKEN=-
2005-09-02, 14:24:49
Ob das so prickelnd ist?
Zum einen würde der Preis ein bischen fallen, wenn mehr Chips vertickert werden.
3D Grafikkarten nähern sich aber grade einer Sättigungsgrenze an.
Nachher muss man sich eine neue Grafikkarte kaufen, nicht weil man mit der Grafikleistung unzufrieden ist, sondern weil einen die Physik Beschleunigung nicht mehr zusagt.
Eine extra Karte ist da schon deutlich vorteilhafter.
.
"gegenfrage":
warum gibt es 2D und 3D auf einer karte? im 2D bereich tut sich wohl auch nicht mehr so viel bei der performance. aber warum kaufst du dir mit jedem neuen 3D beschleuniger auch eine neue 2D "karte" ?
die "evolution" hat es einfach mit sich gebracht, das man immer 2D und 3D zusammen kauft. genau das gleiche kann auch bei den PPUs passieren, die in 5-10 jahren mit jeder neunen karte auch einfach neu angeschafft werden *hoff* :wink: :cool:
EDIT/: denke schon, das auch rennspiele von dieser PPU profitieren können, denn auch hier ist viel physik gefragt. aber vor allem bei den autos könnte es viel bewirken, wenn man sie aus allen (wie im richtigen leben) einzelteilen zusammen setzen kann. dadurch würden die schadensmodelle ja schon fast an eine "perfektion" heran reichen :cool:
Neomi
2005-09-02, 14:41:53
Können Rennspiele nutzen aus der Karte ziehen?
Reifenphysik geht über die Möglichkeiten von Novodex hinaus, Reifen sind nunmal weitaus mehr als ein massiver Zylinder. Der Drehmoment eines Motors abhängig von der Drehzahl und das Getriebe sind auch keine Dinge, die für eine Physiksimulation zu haben sind.
Für allgemeine Physik wie z.B. die Kollision mit Objekten wird es aber kaum Hindernisse geben.
Avalox
2005-09-02, 14:44:17
"gegenfrage":
warum gibt es 2D und 3D auf einer karte?
Deine Frage funktioniert doch nur, weil du was Wichtiges hinter 2D und 3D weggelassen hast. Nämlich GRAFIK. Es gibt viele Gemeinsamkeiten, woraus eine Kombination profitiert.
Allerdings hast du Recht damit, mal dieses in Frage zu stellen.
Denn interessanter Weise, hat ja die Kombination von 2D und 3D Teil auf einer Grafikkarte dazu geführt, dass erstmal und ganz sicher noch heute so manch einer eine schlechtere 2D Grafik hat, als noch zu Zeiten wo man eine dedizierte 2D Grafikkarte im Rechner hatte.
Der eigentliche Anreiz eine neue Grafikkarte zu kaufen, kommt heute zu 99,9% aus einen neuen 3D Grafik Teil.
Wenn man dieses nun auf eine zusätzliche Physik Beschleunigung überträgt, dann würde dieses bedeuten irgendwann tut sich in Sachen 3D Beschleunigung nichts mehr und man kauft eine neue Grafikkarte nur noch wegen einer immer besseren Physikbeschleunigung.
Denn eines muss einen ja klar sein. Auf dem rückständigen Gebiet der Physikbeschleunigung sind viel grössere Fortschritte zu erwarten, wie auf dem ausgelutschten Gebiet der 3D Grafik Beschleunigung.
Demirug
2005-09-02, 14:49:03
Reifenphysik geht über die Möglichkeiten von Novodex hinaus, Reifen sind nunmal weitaus mehr als ein massiver Zylinder. Der Drehmoment eines Motors abhängig von der Drehzahl und das Getriebe sind auch keine Dinge, die für eine Physiksimulation zu haben sind.
Für allgemeine Physik wie z.B. die Kollision mit Objekten wird es aber kaum Hindernisse geben.
Was die Möglichkeiten des Chips angeht würde ich da erst mal keine Einschränkungen machen. Wenn das was ich gesehen habe stimmt dann wird der Chip im Moment eher durch die Physikengine die als Basis genutzt wurde limitiert.
-=CHICKEN=-
2005-09-02, 15:05:25
Wenn man dieses nun auf eine zusätzliche Physik Beschleunigung überträgt, dann würde dieses bedeuten irgendwann tut sich in Sachen 3D Beschleunigung nichts mehr und man kauft eine neue Grafikkarte nur noch wegen einer immer besseren Physikbeschleunigung.
Denn eines muss einen ja klar sein. Auf dem rückständigen Gebiet der Physikbeschleunigung sind viel grössere Fortschritte zu erwarten, wie auf dem ausgelutschten Gebiet der 3D Grafik Beschleunigung.
kann schon sein, daß es in zukunft mehr auf die physik ankommt anstatt auf 3D-performance, aber wir haben ja noch lange nicht das ende der 3D evolution erreicht.
meiner meinung nach ist die 3D grafik erst dann am ende, wenn man die computerspiele (grafisch gesehen) nicht mehr von der wirklichkeit unterscheiden kann. also das, was man in modernen Filmen ala "star wars" etc. sehen kann.
aber bis es soweit ist, das ein normaler PC solche grafiken in echtzeit liefern kann, werden noch viele jahre bzw. GPU-generationen vergehen.
daher kann ich mir gut vorstellen, das GPU und PPU gemeisam "versuchen könnten" dieses perfekte ziel zu erreichen, wobei die PPU tatsächlich erst mal ihren rückstand aufholen muß, aber die 3D sparte nicht in "vergessenheit" geraten wird (nicht so wie 2D).
Neomi
2005-09-02, 15:56:57
Was die Möglichkeiten des Chips angeht würde ich da erst mal keine Einschränkungen machen. Wenn das was ich gesehen habe stimmt dann wird der Chip im Moment eher durch die Physikengine die als Basis genutzt wurde limitiert.
Deshalb habe ich das ja in Bezug auf Novodex geschrieben. Zum PhysX selbst will ich solche Aussagen nicht machen, solange ich den nicht testen konnte. Obwohl natürlich theoretische Möglichkeiten nichts bringen, wenn man sie nicht nutzen kann...
Demirug
2005-09-02, 16:54:03
Deshalb habe ich das ja in Bezug auf Novodex geschrieben. Zum PhysX selbst will ich solche Aussagen nicht machen, solange ich den nicht testen konnte. Obwohl natürlich theoretische Möglichkeiten nichts bringen, wenn man sie nicht nutzen kann...
Mit etwas Glück gibt es einen C++ Compiler für das Teil.
Neomi
2005-09-02, 19:04:34
Mit etwas Glück gibt es einen C++ Compiler für das Teil.
Wenn das passiert, dann ist das Ding gekauft.
Die_Allianz
2005-09-13, 12:06:57
hallo mods :rolleyes:
hat jemand lust den ins neue sonstige HW zu verschieben?
Danke
BigBen
2005-09-18, 02:33:07
Hi!
heise.de (http://www.heise.de/newsticker/meldung/57232): "Der Physx-Chip soll die Interaktion von cirka 32.000 Festkörpern simultan unterstützen können."
Wie könnte man diesen Leistungswert auf die physikalisch korrekte Berechnung von Fluiden (http://de.wikipedia.org/wiki/Fluid) übertragen?
Es müsste doch ein deutlicher Unterschied sein, Materie in Form eines Kontinuums (http://de.wikipedia.org/wiki/Kontinuum) zu berechnen, als beispielsweise viele einfache Kisten - oder tut sich das etwa nicht viel?
Und was darf man von der ersten Generation diesbezüglich in Spielen und Applikationen erwarten?
Schon mal danke für eine Antwort! :)
Thomas Gräf
2005-09-18, 14:07:00
Hi!
Und was darf man von der ersten Generation diesbezüglich in Spielen und Applikationen erwarten?
Schon mal danke für eine Antwort! :)
...in Gamekonsolen zerbröselt dann alles worauf
man mit einer Wumme ballern kann.
Die PC Versionen versuchen dann das nachzuahmen.
PS.
Die Hoffnung stirbt zuletzt...;)
Avalox
2005-09-18, 14:44:37
Benutzt denn eine der neuen Konsolen den Physx-Chip?
Thomas Gräf
2005-09-18, 15:08:22
Den Chip wohl nicht, aber die Engine.
Die kommenden Konsolen haben scheinbar
genug Rechenpower übrig.
BigBen
2005-09-19, 11:06:37
Selbst wenn die Konsolen noch ordentlich Rechenpower für physikalische Berechnungen über haben sollten, befürchte ich, dass man trotzdem keine allzu komplexe Physik einsetzen wird.
Hübie
2005-09-19, 12:05:42
Naja was interessieren uns auch die Konsolen ;)
Also wenn die das geschickt anstellen und das SDK gratis herausgeben, ist ein Erfolg wesentlich wahrscheinlicher als wenn die das was kosten lassen.
Ich bin einerseits begeistert von der Idee und Umsetzung,
andererseits enttäuscht von dem Preis und dem Marketing.
Werbeaktionen, Gewinnspiele und Rabattaktionen (z.B. VPU+PPU bundle)
wären sicher von Vorteil. Schliesslich soll das Ding ja bald kommen... :D
bye Hübie
Tomcat70
2005-09-21, 14:29:42
ASUS PhysX Card Ready
http://www.vr-zone.com/?i=2724&s=1
davidzo
2005-09-26, 21:07:58
Die erste Variante kommt von der Mainboard und Grafikkartenschmiede ASUS und wird wohl nur für PCI sein und nicht wie das Entwicklerboard auch für PCIe.
Die karte sieht aus wie eine mainstream grafikkarte, das PCB ist also gegenüber der Preversion nicht wesentlich geschrumpft, die speicheranordnung geblieben etc.
Der 125mio transistoren chip im 130nm Verfahren ist mit einem Lüfter versehen, ähnlich den Lüftern die MSI (bzw. medion) auf ihren ATIkarten der r300serieverbaut hat.
Ausgestattet ist sie weiterhin mit Speicher von 128MB GDDR3 und benötigt einen 12V Molexstecker, da der PCIbus wohl nicht genügend Energie liefert. Sie unterstützt bisher nur die Novodex Engine, welche aber von einer Reihe an neuen Titeln unterstützt wird. inwieweit die Karte die CPU entlasten kann ist noch nicht bestätigt, da müssen wir wohl die ersten unabhängigen Tests mit der Hardware und den richtigen Games abwarten.
Die karte wird in kürze für etwa 249US$, also schätzungsweise 200-250EUR auf den markt kommen und kostet damit wohl mehr als die meisten ausgeben würden.
http://www.hardspell.com/pic/2005/9/21/760676ed-20aa-4e65-b8a6-950e5dc6433c.jpg
http://www.hardspell.com/pic/2005/9/21/b45d5334-2cf2-4474-b80c-5a7da905972b.jpg
http://www.hardspell.com/pic/2005/9/21/81f8df53-ec1c-4032-80f1-3763bd251db2.jpg
http://www.hardspell.com/pic/2005/9/21/68c5064f-a0fb-4e7f-95f6-822bcb24502b.jpg
hier nocheinmal das bisherige entwicklerboard:
http://www.vr-zone.com/newspics/Sep05/21/AGEIA.jpg
Blaze
2005-09-26, 21:10:56
Einen PCI Slot hab ich noch frei :)
Aber ich weiß nich...das wird dann bestimmt so wie mit den Grafikkarten, einmal im Jahr kommt ne neue, verbesserte Version mit mehr Speicher etc. pp raus.
Ich such mir schonmal nen Zweitjob :ugly:
Der Lüfter sieht nach Terror aus. Ich warte mal lieber auf die nächste Version (hoffentlich dann auch mit PCIe - hab' nämlich ohnehin keinen PCI-Slot mehr frei).
Fusion_Power
2005-09-26, 21:23:13
Diese neuen PPU-Steckkarten scheinen wohl auch keine Sttromsparer zu werden. ^^"
Ich hoffe sehr, das die teile wirklich was bringen denn so langsam wird es doch recht warm im Durchschnitts-PC. Stromkosten sind auch mittlerweile ein echter Faktor geworden, was nen PC anbelangt.
Wo soll das noch alles hinführen? Irgend wann muß es doch mal wieder "andersrum" gehn: weniger "Verbrauch" quasi wie beim Auto.
Demirug
2005-09-26, 21:26:31
Ich sage dazu nur GPGPU.
In diesem Zusammenhang sollte man wissen das MS gerade leute sucht die sich mit Physikberechnungen und Grafikkarten auskennen. ;)
Winter[Raven]
2005-09-26, 22:30:43
Ich weiß echt nicht was ich von PPU's halten soll, auf der einen Seite ist es schön das es jetzt einen Vorstoß in die Physikengine gibt und durch die Karte beschleunigt werden kann, auf der anderen Seite läuft es nicht mit den anderen, und wirklich viele Lizensnehmer gibt es jetzt noch nicht und ich denke man hätte es etwas besser durchdenken sollen.
Hauwech
2005-09-26, 23:14:07
']Ich weiß echt nicht was ich von PPUs halten soll, auf der einen Seite ist es schön das es jetzt einen Vorstoß in die Physikengine gibt und durch die Karte beschleunigt werden kann, auf der anderen Seite läuft es nicht mit den anderen, und wirklich viele Lizensnehmer gibt es jetzt noch nicht und ich denke man hätte es etwas besser durchdenken sollen.
Wieso? Ageia will damit Geld verdienen, das gleiche gilt fuer jeden anderen Hard- und Softwareproduzenten. Viele Lizenznehmer brauchst du eigentlich auch nicht wenn eine gute Engine auch von anderen lizensiert wird. Bei Portierungen auf PC koennte sich die Lizenz von Sony auch auszahlen.
Monopole sind zwar eigentlich immer schlecht aber in diesem Fall koennte die Kopplung von Physikengine und Hardware eventuell auch zu mehreren Anbietern fuehren.
3dfx hat das ja quasi auch so gemacht. MS haette statt auf DX auch auf OGL setzen koennen, haben sie aber nicht und rate mal warum. Eine OPL gibt es zwar auch aber die soll anscheinend recht schlecht zu nutzen sein. Da kann sich natuerlich noch einiges tun vor allem wenn MS auf den Zug aufspringt und Physik staerker irgendwie in DX einfliessen laesst.
Solange die Karte allerdings in der Region um 200 bis 300 Euro liegt, holen sie sich eh nur wenige und man kann das "Problem" der NichtBesitzer vernachlaessigen. DualCore CPUs und Physik duerfte da fuer die Masse schon interessanter sein.
Avalox
2005-09-28, 13:31:45
Hier ist noch ein bisschen was zur Asus zu sehen und zu lesen ähm.
http://www.hardspell.com/news/showcont.asp?news_id=17631
-error-
2005-09-28, 15:33:37
Hier ist noch ein bisschen was zur Asus zu sehen und zu lesen ähm.
http://www.hardspell.com/news/showcont.asp?news_id=17631
Jup, zur der Entwicklung kann ich nur den Kopf schütteln, auch noch mit Lüfter :rolleyes:
So eine Karte braucht kein Mensch, aber wer zusätzliche Wärme im System haben will und eine höhere Stromrechnung - bitte.
Und über 200€ für so eine Karte, ne, da kaufe ich mir lieber eine schnellere Grafikkarte.
Jup, zur der Entwicklung kann ich nur den Kopf schütteln, auch noch mit Lüfter :rolleyes:
So eine Karte braucht kein Mensch, aber wer zusätzliche Wärme im System haben will und eine höhere Stromrechnung - bitte.
Und über 200€ für so eine Karte, ne, da kaufe ich mir lieber eine schnellere Grafikkarte.Bei einem CPU-Limit wird die dir auch nichts helfen.
betasilie
2005-09-28, 15:38:15
Jup, zur der Entwicklung kann ich nur den Kopf schütteln, auch noch mit Lüfter :rolleyes:
So eine Karte braucht kein Mensch, aber wer zusätzliche Wärme im System haben will und eine höhere Stromrechnung - bitte.
Und über 200€ für so eine Karte, ne, da kaufe ich mir lieber eine schnellere Grafikkarte.
Genau, oder ne Dualcore CPU, denn der 2. Core wird bei neuen Spielen dann auch für Physik benutzt und man hat auch Vorteile bei normalen Anwendungen.
Genau, oder ne Dualcore CPU, denn der 2. Core wird bei neuen Spielen dann auch für Physik benutzt und man hat mit DC auch Vorteile bei normalen Anwendungen.Selbst mit Dual Core kommst du nicht an die Leistungsregionen dedizierter HW heran. Ein X2 4800+ könnte z.B. nichtmal so schnell rendern wie eine GeForce 4.
DjDino
2005-09-28, 15:40:44
Also ich verstehe das nicht, warum per zusätzlicher Karte ?
Diese Technik zur Physikberechnungsentlastung könnte mann doch auch auf Grafikkarten oder deren GPU miteinpflanzen ? Das wäre praktischer.
Obwohl das dann wohl ein grösseres Layout erfordern würde und Kühlungs sowie stromversorgungsmässig ein Problem sein könnte und lizenzmässig abgeklärt werden müsste.
Ich finde es jedenfalls unbequem mit dieser zusätzlichen Karte.
Avalox
2005-09-28, 15:45:47
Du meinst dass bestimmt so, dass dann die Grafik-/Physik Karte dann aber nicht teuer ist als die nur Grafikkarte heute?
Ein wirklich guter GamePC ist grade 400€ teurer geworden und warum?
Wegen Kurzsichtigkeit.
betasilie
2005-09-28, 15:50:26
Selbst mit Dual Core kommst du nicht an die Leistungsregionen dedizierter HW heran. Selbst ein X2 4800+ könnte z.B. nichtmal so schnell rendern wie eine GeForce 4.
Klar, keine Frage. Aber ich sehe keine Zukunft ATM für so eine Karte. Zu teuer, aktiv gekühlt, zu wenig Verbreitung, was sich imho auch so schnell nicht ändern wird.
Daher würde ich mein Geld lieber in DC investieren, denn ein 2. Core für Physik, wie die Cry-Engine2 bieten wird, wird schon einen ordentlichen Performanceschub für die Physik bedeuten und DC ist definitv die Zukunft im PC Markt. Außerdem bietet DC auch Vorteile im Alltag, daher stellt sowas die bessere Investition dar, als 200€ für eine Physik-Karte auszugeben, deren breite Unterstützung vom Markt angezweifelt werden muss.
Avalox
2005-09-28, 15:59:42
Klar, keine Frage. Aber ich sehe keine Zukunft ATM für so eine Karte. Zu teuer, aktiv gekühlt, zu wenig Verbreitung, was sich imho auch so schnell nicht ändern wird.
Die Frage "oder" wird sich nicht stellen.
Der der es will, wird eh beides kaufen.
Der, der das Geld nicht ausgeben will, wird mit einem suboptimalen Ergebnis leben müssen.
Wenn die Verbreitung des Physik Beschleunigers an einem krankt, dann nur daran, dass man den „Unterschied“ nicht in Screenshots sehen kann.
Vom "Markt angezweifelt".
z.B. von ID. Mit ihrem Static Shooter Doom3 wäre ID wohl besser dran sich die Haltung nochmal zu überlegen.
ID zweifelt übrigens auch DualCore CPUs für Spiele an.
Klar, dort wird alles angezweifelt, wo es um die Änderung der Gelddruck Maschine geht, schliesslich lebt ID von einer Technik Bibliothek.
Neues ist dort automatisch umständlich und negativ. Carmack ist scheinbar zu alt um sich noch mit der umständlichen Parallelisierung zu beschäftigen.
RyoHazuki
2005-09-28, 16:09:05
Hmm, dann wirds wohl nicht lange dauern bis die Boardhersteller GPU und PPU auf ein PCB klatschen... das wäre meiner meinung nach nähmlich die vernüftigeste lösung!
Muss ja nicht jeder so sehen.
Avalox
2005-09-28, 16:20:42
Hmm, dann wirds wohl nicht lange dauern bis die Boardhersteller GPU und PPU auf ein PCB klatschen... das wäre meiner meinung nach nähmlich die vernüftigeste lösung!
Warum?
Kommunizieren tun PPU und GPU nicht direkt. Dann könnten ja auch gleich Netzwerkkarte, Hauptspeicher und das Netzteil auf die Grafikkarte gebaut werden.
Darf ich mal fragen, wann du deinen ersten PC erstanden hast? Ein PC hat Erweiterungsslots. Damit konnte jeder aus dem PC ein Gerät machen, welches seinen persönlichen Bedürfnissen gerecht wird.
Das hat den PC letztendlich zum dominierenden Homecomputer gemacht. Diese Slots sind zum benutzen gemacht. Es liesst sich ja fast, wie Angst vor Erweiterungskarten. Vielleicht ist es ja auch einfach die Angst vor Entscheidungen.
Uniformität für jeden und das Denken kann abgeschaltet werden.
Eigentlich hat die GPU schon nichts auf dem Grafikadapter verloren. Funktional völlig verschiedene Dinge.
Der Grafikkarten Hersteller findet dieses natürlich toll, kann er doch jedes mal eine 2D Grafikkarte mit jedem 3D Beschleuniger zusammen verkaufen.
Ich denke der Grafikkarten Anbieter fände deine Idee toll. Der GPU Hersteller NVidia und ATI bestimmt auch, die werden bestimmt sehr gerne auch technische Lösungen aus einer Hand anbieten. Die haben dann einen Preis- und damit einen Wettbewerbsvorteil.
Aber sind NVidia und ATI auch gute Physik Beschleuniger Entwickler? Nein! Momentan sind es nämlich gar keine und haben damit einen Rückstand. Es sind Innovationsbremser, hätten ja selbst auf die Idee kommen und Mut beweisen können.
Die Physikbeschleuniger sollten mal tunlichst einen grossen Bogen um Grafikkarten machen. Grafikkarten die schon heute langweilig sind.
Marc-
2005-09-28, 18:41:04
Bei einem CPU-Limit wird die dir auch nichts helfen.
Dann kaufter sich eben ne bessere cpu dazu... omg.
Wennste nen monitor hast der nur 1024*768 mit gescheiten bildwiederholdungsraten schafft lohnt sich au keine moderne graka... also echt... manche posts hier sind etwas flüssig.... um nicht zu sagen über...
Marc-
2005-09-28, 18:44:06
Selbst mit Dual Core kommst du nicht an die Leistungsregionen dedizierter HW heran. Ein X2 4800+ könnte z.B. nichtmal so schnell rendern wie eine GeForce 4.
... aber sicherlich schneller physix berechnen als ne geforce4 gelle? Postings gibts... der vorteil der dualcore geschichte is eben der das du ihn für vielfältige anwendungen leistungsfördernd einsetzen kannst... anders als eine physix karte die das erste jahr vermutlich nur bei einer guten handvoll spielen sinnvoll genutzt wird. Insofern duerfte sich für die meisten in der tat der aufpreis DC mehr rechnen als das in die karte zu investieren.
Marc-
2005-09-28, 18:47:57
Carmack ist scheinbar zu alt um sich noch mit der umständlichen Parallelisierung zu beschäftigen.
Äh Lol?
Die quake engine (quake2?) war afaik die erste die überhaupt die option für SMP besass und zumindest im ansatz davon profitieren konnte. Und das war eine sehr schnelle reaktion damals auf aufkommende günstige dual celeron systeme.
Also ich denk mal DIESE deine unterstellung is mal ganz fehl am platze...
Dann kaufter sich eben ne bessere cpu dazu... omg.Wie gesagt. Du wirst mit keiner CPU der Welt die Performance dedizierter Physikhardware erreichen. Spiele die PhysiX völlig ausreizen, werden auch auf einem FX-57 oder X2 4800+ hart ans CPU-Limit stoßen.
... aber sicherlich schneller physix berechnen als ne geforce4 gelle?Was? Ein Dual Core könnte auch keine PhysiX ersetzen, deshalb der Vergleich. Eine CPU ist nunmal general purpose und eigentlich relativ langsam im Gegensatz zu fest verdrahteten Schaltkreisen, vor allem wenn man etwas sehr gut parallelisieren kann.
Wer sagt eigentlich dass ich das Ding kaufen will? Ich halte es nur für eine sinnvolle Entwicklung.
Die quake engine (quake2?) war afaik die erste die überhaupt die option für SMP besass und zumindest im ansatz davon profitieren konnte. Und das war eine sehr schnelle reaktion damals auf aufkommende günstige dual celeron systeme.Quake 3. Und es war so buggy, dass es mit einem der ersten Patches wieder deaktiviert wurde. Bei Doom 3 sieht man auch nichts mehr von SMP.
Ich will jetzt allerdings überhaupt nicht unterstellen, dass Carmack nicht Multithreading programmieren kann. Nur war die Notwendigkeit bisher sehr gering.
Avalox
2005-09-28, 18:54:57
Äh Lol?
Die quake engine (quake2?) war afaik die erste die überhaupt die option für SMP besass und zumindest im ansatz davon profitieren konnte. Und das war eine sehr schnelle reaktion damals auf aufkommende günstige dual celeron systeme.
Die erste? Weiss ich nicht. Jedenfalls ist es die einzigste von ihn. Danach hat er schnell die Lust verloren.
Also ich denk mal DIESE deine unterstellung is mal ganz fehl am platze...
Unterstellung?
Soll ich dir mal sein Zitat zu DC CPUs suchen?
-error-
2005-09-28, 19:19:38
Bei einem CPU-Limit wird die dir auch nichts helfen.
Doch, ich kann mit bessere BQ spielen :)
Und es ruckelt trotzdem :uclap:
ollix
2005-09-28, 19:26:22
Die Physikbeschleuniger sollten mal tunlichst einen grossen Bogen um Grafikkarten machen. Grafikkarten die schon heute langweilig sind.Exakt :smile:
Hauwech
2005-09-28, 20:08:31
... aber sicherlich schneller physix berechnen als ne geforce4 gelle? Postings gibts... der vorteil der dualcore geschichte is eben der das du ihn für vielfältige anwendungen leistungsfördernd einsetzen kannst... anders als eine physix karte die das erste jahr vermutlich nur bei einer guten handvoll spielen sinnvoll genutzt wird. Insofern duerfte sich für die meisten in der tat der aufpreis DC mehr rechnen als das in die karte zu investieren.
Von DC hast du solange du keine spezielle Software einsetzt, die Nutzen daraus ziehen kann, auch nichts. Das gleiche gilt fuer PhysX oder 64bit.
Selbst wenn die Karte nur die Haelfte der Leistung bringt mit der sie beworben wird, ist sie immer noch Jahre vor CPUs die so eine Leistung mal erreichen werden, egal ob SC, DC oder MultiCore.
Eine CPU kann auch Sound ausgeben mit entsprechendem Chipsatz. Warum gibt es dann Soundkarten wenn DC doch ausreichen wuerde?
Wer sagt eigentlich, dass die PhysX Karte nur fuer Spieler interessant ist? Was ist mit den ganzen Forschungseinrichtungen die sich mit Physik beschaeftigen? Klar, die Novodex Engine werden sie sicher nicht einsetzen doch ich vertraue Demirug einfach mal wenn er sagt, dass eher die Novodex Engine limitiert als der Chip selber. Ein entsprechendes SDK koennte da der Hammer werden.
Wie koennte so eine Karte zB bei Crash-Simulationen in der Autoindustrie eingesetzt werden? Koennte sie vielleicht da einen Nutzen bringen und so zu zB weniger Verkehrstoten oder effizienteren Motoren fuehren?
Was ist zB mit SETI als realistisch betrachtet sinnloser Spielerei? Ich habe SETI auch am Laufen, davon mal ab. ;) Oder Folding@home? Koennte man es da einsetzen um vielleicht Medikamente zu entwickeln, die dir vielleicht mal den Arsch retten?
Je nach Problemstellung sind Grafikkarten auch wesentlich maechtiger als CPUs und das in so einigen Bereichen. Hat man daran den ersten Grafikkarten mal gedacht ausser das sie bunte Bildchen auf den Schirm brachten? Ein Motor funktioniert auch nur mit einem Zylinder, warum sollte man dann also mehr als nur einen benutzen?
Es wird von einigen alles immer nur auf Spiele bezogen und irgendwie habe ich das Gefuehl, dass eben deren Horizont ziemlich nah am Gesicht ist und die Moeglichkeiten die sich daraus ergeben koennten anscheinend gefuerchtet werden.
Oder ist es einfach was ich mir nicht leisten kann braucht auch sonst niemand? Ich kann mir SLI/CF auch nicht leisten, finde es aber eine klasse Sache und eigentlich nur eine logische Konsequenz das man mit "simpler" Verdoppelung schneller mehr erreichen kann als durch die immer nur in kleinen Haeppchen uns vorgeworfene Effizienssteigerung bei SingleCPU/GPU oder was auch immer Computerprodukten. Der Clou ist vor allem, ich kann es sofort fuer messbar bessere Ergebnisse oder fuer gleiche Leistung bei wesentlich mehr "Spielqualitaet" fuer mich selbst einsetzen.
Wenn die Karte nichts taugt, wird sie sowieso fuer Spieler verschwinden, na und? Ist mit anderen Karten auch so geschehen und je nach Ausfuehrung waren die deutlich teurer.
Ich habe fertig.
PCI? Wird wohl nicht viel Bandbreite benötigt?
Ich finde die Entwicklung schon interessant. Und solange es ein Goodie bleibt, finde ich es auch ok.
Aber zur Zeit sprechen für mich Stromverbrauch, Preis, schlechte Kompatibilität mit Software dagegen.
@Avalox, Verfechter der modularen PCs:D: Wie das mit der Aufteilung des 2D und 3D-Teils der Grafikkarten praktiziert werden sollte kann ich auch nicht ganz nachvollziehen. Dann hätte man teilweise doppelten Speicher usw. Der Anteil der Transistoren des 2D-Teils wird doch eh verschwindend gering sein.
Avalox
2005-09-28, 20:45:43
@Avalox, Verfechter der modularen PCs:D: Wie das mit der Aufteilung des 2D und 3D-Teils der Grafikkarten praktiziert werden sollte kann ich auch nicht ganz nachvollziehen. Dann hätte man teilweise doppelten Speicher usw. Der Anteil der Transistoren des 2D-Teils wird doch eh verschwindend gering sein.
Der Grafikadapter hat ja mehr zu bieten als einen 2D Beschleuniger, der ja auch nicht auf der Grafikkarte sitzen müsste. Das hat sich ja nur eingebürgert, da der ISA Bus damals zu langsam war.
Der Grafikadapter hat ja vor allen die Anschlüsse für Monitore und Displays zu bieten. Grade die analogen VGA Ausgänge sind ja selbst heute noch bei vielen Karten alles andere als hochwertig. Dort konnte man vor 10 Jahren schon besseres kaufen. Diese besseren Wandler wurden dann mit der 2D Karte entsorgt. Eigentlich schade.
Warum also kein modulares Konzept, bei dem die 2D, 3D und die Frame, Anschlusskomponente getrennt ist.
3D zu langsam? Egel, neuer 3D Part dazu. Vielleicht auch einen zweiten dazu.
Zusätzlicher Monitor benötigt? Einfach ein neues Frame Module rein in den Rechner.
Das wäre doch nicht schlecht.
Nun muss man ja nicht übertreiben.
Aber ein Physikbeschleuniger hat auf einer Grafikkarte in der Form nichts zu suchen. Wie soll denn da die Entwicklung weitergehen?
Letztendlich kann denn nur der Physikbeschleuniger entwickeln, welcher auch populäre Grafikkarten im Angebot hat.
Die stärke des Moduls liegt ja darin, dass man es von dem kaufen kann, der es am besten kann.
-error-
2005-09-28, 22:45:49
Und es ruckelt trotzdem :uclap:
Man kanns auch übertreiben ;)
Zeig mir mal ein Spiel, wo ein ein A64 @ 2.5ghz die Puste ausgeht.
Zeig mir mal ein Spiel, wo ein ein A64 @ 2.5ghz die Puste ausgeht.
Ganz toll, du denkst aber auch nur an das heute...
Wenn morgen wie ersten Spiele ausgiebigen Gebrauch von der PPU machen, wird deinem A64 bei äquivalenten Physik-Einstellungen ganz schnell die Puste ausgehen, siehe Codas Posts.
betasilie
2005-09-29, 03:16:41
Ganz toll, du denkst aber auch nur an das heute...
Wenn morgen wie ersten Spiele ausgiebigen Gebrauch von der PPU machen, wird deinem A64 bei äquivalenten Physik-Einstellungen ganz schnell die Puste ausgehen, siehe Codas Posts.
Jaja, dann halte ich dagegen, dass erstmal ne Hand von Spiele auf den Markt sein müssen, die uns Kunden von der brachialen Gewalt dieser Karte überzeugen. Wer gibt schon 200€ für eine Karte aus, wenn man a) nicht weiß, wie viel besser die Physik in der Spielepraxis sein wird, denn die Demos überzeugen mal garnicht, und wenn man b) nichtmal weiß, ob sich dieses System überhaupt auf dem Spielemarkt wirklich etabliert, denn ansonsten wirds ne 200€ teure Eintagsfliege.
Die Punkte bestreitet ja auch keiner. Aber es ist dennoch so, dass keine CPU der Welt einen Physikbeschleuniger in HW ersetzen kann.
Kane02
2005-09-29, 11:19:03
Jaja, dann halte ich dagegen, dass erstmal ne Hand von Spiele auf den Markt sein müssen, die uns Kunden von der brachialen Gewalt dieser Karte überzeugen. Wer gibt schon 200€ für eine Karte aus, wenn man a) nicht weiß, wie viel besser die Physik in der Spielepraxis sein wird, denn die Demos überzeugen mal garnicht, und wenn man b) nichtmal weiß, ob sich dieses System überhaupt auf dem Spielemarkt wirklich etabliert, denn ansonsten wirds ne 200€ teure Eintagsfliege.
Sehe ich genauso, und für 200€ hab ich meinen A64 +Board gekauft...
200€ für ne PhysX Karte...öhm... wo soll das noch hinführen?
Zudem sieht man an den ersten Bildern, dass das Teil aktiv gekühlt wird - noch nen Krachmacher *urks*
Ganon
2005-09-29, 11:31:11
Quake 3. Und es war so buggy, dass es mit einem der ersten Patches wieder deaktiviert wurde.
Und noch mal (wie schon so oft):
Das stimmt, zumindest für MacOS X, NICHT!!!
Dort bringt der Schalter "r_smp" auf 1 gute 60-90% Performance. Je nach System.
-error-
2005-09-29, 11:31:48
Ganz toll, du denkst aber auch nur an das heute...
Wenn morgen wie ersten Spiele ausgiebigen Gebrauch von der PPU machen, wird deinem A64 bei äquivalenten Physik-Einstellungen ganz schnell die Puste ausgehen, siehe Codas Posts.
Jup und darum braucht man eine PPU heute noch nicht. Und wenn man sie in Zukunft brauchen sollte, die Entwicklung bzw. den Trend finde ich trotzem nicht gut.
Und noch mal (wie schon so oft):
Das stimmt, zumindest für MacOS X, NICHT!!!
Dort bringt der Schalter "r_smp" auf 1 gute 60-90% Performance. Je nach System.Da ist auch entsprechende HW vorhanden gewesen, die es zu supporten galt.
Avalox
2005-09-29, 12:43:47
Wann kommen denn die ersten Karten mit dem AIS-1 Chip? :smile:
Welche die Interaktion und die Reaktionen des Computers in Spielen verbessern sollen.
Bei der künstlichen Intelligenz fehlt es eher an Algorithmen als an Rechenleistung.
Avalox
2005-09-29, 13:24:11
KI habe ich mal absichtlich weggelassen.
AIseek wird doch wohl gleich ein paar Lösungen für gängige Probleme mit anbieten. Solche Implementierungen der schwachen KI können doch durchaus sehr nützlich sein.
Aber interessante Entwicklungen sind das schon, begründen sich ja tatsächlich in den massiven Defiziten heutiger Spiele.
Gaestle
2005-09-29, 14:28:19
Jup und darum braucht man eine PPU heute noch nicht. Und wenn man sie in Zukunft brauchen sollte, die Entwicklung bzw. den Trend finde ich trotzem nicht gut.
Wenn man mal professionelle Anwendungen außen vorlässt:
Wie viele Leute schalten per UNCUT-Patches das Ragdoll-System bei diversen Shootern frei und warum tun sie dies?
Wer würde sich nicht über sich korrekt im Wind wiegendes Gras freuen?
Natürlich sind das keine spielrelevanten Inhalte. Aber DOOM1 hat auch ohne 3D funktioniert. Will heute noch jemand auf 3D Grafik verzichten? Macht es einen für das Spielprinzip relevanten Unterschied, ob das Männchen im Shooter (oder bei Age of Empires) aus 10 oder 100.000 Polygonen besteht und wie gut die Texturierung ist?
Gerade das eingangs als Beispiel genommene Ragdoll-System zeigt doch, dass die Physik in Spielen heute ungefähr soweit ist, wie die Grafik Anno 1996.
Wenn ich das Ragdoll-System z.B. in Thief3 sehe, sehe ich auch, dass es den Ansprüchen deutlich nicht gerecht wird. Auch wenn es ganz ohne Frage um Klassen besser ist, als die Physik-Implementierung von Thief 1 oder 2. Aber welcher menschliche Durchschnitts-Oberkörper lässt sich zu einem U zusammenbiegen (nach hinten, wohlgemerkt).
Was sicherlich auch sehr anspruchsvoll und für CPUs die nächste Zeit nicht realisierbar sein wird: das halbwegs korrekte Verhalten von Flüssigkeiten, d.h. also Wellenbildung wenn was reinfällt (z.B. AoE3), wenn was drauf fährt (z.B. ein Schiff) oder was reintappt anstatt bloßer (meist gut gemeinter) Gischt.
Oder Einschusslöcher an Wänden, was wird gewünscht: einfach nur ein scharzer Fleck an der Wand, oder doch lieber ein richtiges Loch?
Letztlich dient doch in diesem Zusammenhang die Physik der Optik, und dafür wird doch auch mehr gezahlt als eingentlich unbedingt nötig wäre. Man braucht keine GF6, eine ATi8500 tut's auch noch.
Grüße
Demirug
2005-09-29, 14:32:06
Gerade wenn man aber nur die Physik für die Optik berechnen möchte ist eine PPU der falsche Weg. In dem Fall muss man nämlich massenhaft Daten von der PPU in die GPU pumpen.
Gaestle
2005-09-29, 14:36:39
Gerade wenn man aber nur die Physik für die Optik berechnen möchte ist eine PPU der falsche Weg. In dem Fall muss man nämlich massenhaft Daten von der PPU in die GPU pumpen.
Wobei es ja bis zur Physik als Massen-Standardanwendung noch ein bißchen hin sein wird. Möglichweise sieht man die PPU doch noch mit auf der GraKa. Voodo1 war doch auch eine Add-On-Karte zur bestehenden 2D Platine. Oder es benötigt irgendwann PCIe IV oder eine spezielle Bridge nach SLi-Vorbild oder so... Solange das Ding auf PCI läuft, dürfte es ja sowieso nicht die Ultra-große Datenmenge sein, die hin- und hergeschaufelt wird.
Ich denke Deine Anmerkung von wegen MS und sucht Leute geht schon in die entsprechende Richtung. Vielmehr MS geht in die Richtung.
Grüße
Avalox
2005-09-29, 14:46:07
Voodo1 war doch auch eine Add-On-Karte zur bestehenden 2D Platine.
Nein eigentlich nicht. Die Voodoo1 war nur eine nicht brauchbare 2D Karte, aber trotzdem vollwertig.
saddevil
2005-09-29, 15:04:41
die voodoo I war die kleine zusatzkarte mit wenigen MB #
ohne 2D karte lief nix
hatte damals eine monster voodoo mit 8MB glaube und einer S3 trio64V2 mit 4MB
danach die Voodoo II mit 12MB und deutlich länger .. auch kein 2D +
dann 2x Voodoo II mit je 12MB im SLI und der trio64
der framebuffer war immer extra erforderlich
beide zusatzkarten wurden mit LOOP kabel verklemmt
erst die Voodoo III oder dann die banshee mit 16MB die ich danach hatte .. lief einzeln
dann kam ne kyro II , eine Ti4200 und jetzt die 6800nu
got das waren noch zeiten ...
Pentium 166MMX + DFI board 32MB RAM
selbst für LANparties hatte das genügt ... WOW
betasilie
2005-09-29, 15:22:33
Die Punkte bestreitet ja auch keiner. Aber es ist dennoch so, dass keine CPU der Welt einen Physikbeschleuniger in HW ersetzen kann.
Bestreitet ja auch keiner, nur bringt die Theorie nichts, wenn das Produkt sich nicht etabliert, zu teuer ist, die Softwarebranche es nicht breitflächig unterstützt und der Datenbus zur GPu zu klein ist.
Auf der PS3 wird sowas wesentlich besser möglich sein, da die SPEs den PhysX Schaltkreisen sehr ähnlich sind und die Datenanbindung an die GPU ist erheblich höher. Und es gibt keine Probleme mit der installierten Basis.
Edit:
Der imho einzige Weg zum Erfolg für so einen Physikbeschleuniger ist, dass man einen Deal mit Nintendo macht für den Nintendo Rev und man die Karte durch höhere margen der Chips erheblich günstiger anbieten kann. Für 200€ wird das Ding ein Flop, mal abgesehen davon, dass ich von der Leistung sowieso noch nicht wirklich überzeugt bin. Dedizierte HW mag schneller sein, aber ob der Chip ein gutes Design hat, und ob das Zusammenspiel mit der GPU wirklich gut funktioniert ist noch völlig offen.
Avalox
2005-09-29, 15:23:37
@saddevil
Auch die beiden ersten Voodoo Karten waren technisch vollwertige Grafikkarten.
3DFX hat es nur vermieden, diese wegen der extrem schlechten Leistung für den 2D Einsatz, als vollwertige Grafikkarte zu positionieren.
Die Voodoo Karte war einfach eine zweite Grafikkarte im System, zu der bei Bedarf gewechselt wurde.
Damit unterscheidet sich das Konzept als Erweiterung zu der o.g. PPU Karte fundamental.
Marc-
2005-09-29, 15:46:26
@saddevil
Auch die beiden ersten Voodoo Karten waren technisch vollwertige Grafikkarten.
3DFX hat es nur vermieden, diese wegen der extrem schlechten Leistung für den 2D Einsatz, als vollwertige Grafikkarte zu positionieren.
Die Voodoo Karte war einfach eine zweite Grafikkarte im System, zu der bei Bedarf gewechselt wurde.
Damit unterscheidet sich das Konzept als Erweiterung zu der o.g. PPU Karte fundamental.
Ich denke da liegst du mehr als falsch.
1. Wieso gab es dann die standalone versionen voodoo rushed und banshee? Wenn auch die Voodoo1 karten als solche schon "vollwertige grafikkarten" waren?
2. Warum waren die Voodoo karten dann nicht mal in der lage ohne ECHTE grafikkarte im rechner eine simpelste 2d ausgabe zustandezubringem und sei es ein postboot screen?
3. Warum wurden sie IMMER und ausschliesslich als zusätzliche und explizite 3d beschleuniger karten und nie als grafikkarten beworben?
saddevil
2005-09-29, 15:47:34
tjo ..
bleibt nur abzuwarten bis NV und ATI eine physikengine in die GPU integriert ..
Gaestle
2005-09-29, 15:47:57
[...]
3DFX hat es nur vermieden, diese wegen der extrem schlechten Leistung für den 2D Einsatz, als vollwertige Grafikkarte zu positionieren.
[...]
Damit unterscheidet sich das Konzept als Erweiterung zu der o.g. PPU Karte fundamental.
Inwiefern? Also jetzt nicht unbedingt technisch gefragt, sondern vom Standpunkt der Verwendung her. Letztendlich sind beides - von der Anwendung her - Add-On Karten bzw. wurden/werden als solche verwendet und für die Voodoo war Geld da, warum sollte es für die PPU nicht auch da sein.
Und wie gesagt, wenn der Datendurchsatz wqiklich so immens wird, würde es mich nicht wundern, wenn es Lösungen für dieses Problem gäbe.
Grüße
Avalox
2005-09-29, 16:13:02
Ich denke da liegst du mehr als falsch.
1. Wieso gab es dann die standalone versionen voodoo rushed und banshee? Wenn auch die Voodoo1 karten als solche schon "vollwertige grafikkarten" waren?
Weil erst mit diesen Karten 3Dfx eine recht konkurrenzfähige 2D Lösung für den Anwendungsbetrieb entwickelt hatte.
3Dfx hätte sich lächerlich gemacht, Windows Treiber rund um die Voodoo Graphics zu entwickelt. Dieses hätte einen grossen Aufwand bedeutet und die schlechte Kritik wäre vielleicht noch von den Käufer auf dem 3D Betrieb reflektiert worden. So hat 3Dfx gleich ganz darauf verzichtet.
2. Warum waren die Voodoo karten dann nicht mal in der lage ohne ECHTE grafikkarte im rechner eine simpelste 2d ausgabe zustandezubringem und sei es ein postboot screen?
Weil 3Dfx dieses nicht Softwaremäßig für den Anwendungsfall unterstützt hat.
Ich denke sogar, dass es Bemühungen entsprechendes für Linux sogar selbst zu entwickelt.
und natürlich hat die Voodoo Gr. im Betrieb 2D Ausgaben getätigt. Du hast doch das Bild des Spiels gesehen. Das ist doch eine 2D Ausgabe.
3. Warum wurden sie IMMER und ausschliesslich als zusätzliche und explizite 3d beschleuniger karten und nie als grafikkarten beworben?
Weil es das Produkt war. Der 3D Beschleuniger war aber immer technisch eine richtige Grafikkarte.
Mit allen Problemen die dazu gehören. z.B. wie bekommt man zwei Grafikkarten an nur einen Monitor. ...
Sehr schlechte Lösung von 3Dfx.
Karten bzw. wurden/werden als solche verwendet und für die Voodoo war Geld da, warum sollte es für die PPU nicht auch da sein.
Doch ich denke schon, dass die PPU Karte durchaus so interessant ist, dass sie ein Erfolg werden kann.
Könnte mir auch gut vorstellen, selbst solch eine Karte zu kaufen.
Für Linux gibt es AFAIK wirklich 2D-Treiber für die Voodoo Graphics. Sinnvoll ist es aber nicht, weil ganz einfach keine 2D-Beschleunigung vorhanden ist.
Solang man einen Framebuffer allozieren und mit der CPU drauf schreiben kann ist alles 2D fähig....
Marc-
2005-09-29, 18:12:42
Weil erst mit diesen Karten 3Dfx eine recht konkurrenzfähige 2D Lösung für den Anwendungsbetrieb entwickelt hatte.
3Dfx hätte sich lächerlich gemacht, Windows Treiber rund um die Voodoo Graphics zu entwickelt. Dieses hätte einen grossen Aufwand bedeutet und die schlechte Kritik wäre vielleicht noch von den Käufer auf dem 3D Betrieb reflektiert worden. So hat 3Dfx gleich ganz darauf verzichtet..
Sorry? Wir reden von zeiten in denen die meisten leuts maximal s3 trio virge chips im rechner hatten, als "2d beschleuniger". In den meisten fällen waren sogar weitaus schwächere verbaut (und zudem damals schon sehr betagte... beispielsweise tseng labs ET4000 und die nachfolger ET6000 chips. Einige wenige hatten die ersten sauteuren matrox milleniums/mystiques drin. Und du willst mir allen ernstes erzaehlen das 3dfx sich "lächerlich" gemacht haette weil sie nicht mal in der lage gewesen waeren, einen ET4000/s3 konkurrenzfähigen 2d chip unterzubringen? Weil die allermeisten für die 2d beschleunigung garnicht mehr brauchten? Und ein halbes jahr später konnten se dann ne voodoo rush rausbringen? Ne. Das war eben genau der punkt warums ne zusatzkarte gemacht haben. Weil den allermeisten nicht klarzumachen war das sie ne neue graka brauchten... weil alles was 2d war mehr als langte. Ausnahme waren die milleniums u. abgeschwächt auch die mystiques die für damals recht seltene wesentlich grössere monis höhere auflösungen und bildwiederholraten anboten durch schnellere ramdacs.
Weil 3Dfx dieses nicht Softwaremäßig für den Anwendungsfall unterstützt hat.
Ich denke sogar, dass es Bemühungen entsprechendes für Linux sogar selbst zu entwickelt.
und natürlich hat die Voodoo Gr. im Betrieb 2D Ausgaben getätigt. Du hast doch das Bild des Spiels gesehen. Das ist doch eine 2D Ausgabe...
Inwiefern? sofern nicht explizit der 3d treiber für eine 3d anwendung angesprochen wurde, zeigte die voodoo garnix an. Das normale 2d beschleunigte bild der graka zum beispiel im normalen windows modus wurde nur durchgeschliffen. Deshalb wurde zum beispiel auch erst später durch voodoorush etc ein spielen im fenstermodus möglich.
Weil es das Produkt war. Der 3D Beschleuniger war aber immer technisch eine richtige Grafikkarte.
Mit allen Problemen die dazu gehören. z.B. wie bekommt man zwei Grafikkarten an nur einen Monitor. ...
Sehr schlechte Lösung von 3Dfx.
Ich kann dir irgendwie net folgen. Welche 2 grafikkarten an einen monitor? Man bekam sehr simpel 2 graka (wenn du die voodoo nun als graka sehen willst) an einen monitor.... indem man das signal durchgeschliffen hat extern, was zugegebenermassen bei billigen durchschleifkabeln zu schlechterer signalqualität geführt hat, bei besserer abschirmung aber ohne bedeutung war (was im übrigen bis heute für jedes analoge monitorkabel gilt... also nix mit 2 grakas zu tun hat).
Ansonsten gabs damals wie heute billige lösungen über monitorumschalter... oder was meinst du?
Schlechte lösung? denk ich nicht... gerade so hats den markteinstieg geschafft... weils einfach war.. in installation und anwendung... ich musste nix umbauen (die karte brauchte net ma ne irq ressource was damals haeufig ein problem bei windows installationen war) einfach dazu stecken... treiber inkl. glide bibliothek installieren... u. U. gamepatch laden... fertig. Wesentlich einfacher als sich heute so mancher grafikkartenwechsel gestaltet.. zumal wenn mans aufs alte windows 9x respektive sogar dos projeziert (jo... selbsz für dos gabs 3 beschleunigung über glide).
betasilie
2005-09-29, 18:18:47
Hallo? Wir sprechen hier von einem Physikbeschleuninger und nicht von uralt 3DFX Karten. Also bitte BOT.
blablablahttp://sstfb.sourceforge.net/
Demirug
2005-09-30, 08:53:31
Um mal wieder zum Thema zurück zu kommen.
Futuremark Licenses AGEIA PhysX SDK for Inclusion in Industry-Leading Benchmarks (http://ageia.vnewscenter.com/press.jsp?id=1127769033089)
MegaManX4
2005-09-30, 10:09:38
Also ich weiß nicht was ich davon halten soll. Einerseits bin ich begeistert ob der Möglichkeiten die sich da (vielleicht) auftun, zweitens ist aber mein Geldbeutel schon arg strapaziert (siehe Sys).
Ich denke das 250 Euro einfach zu viel sind. Wer hat soviel Geld heute schon noch soweit übrig, das er sagen kann "ISMI Regal, wenns nix bringt wars halt 'ne Fehlinvestition"?
Ack, sehe ich genauso. 50€ wäre mir der Spaß sicher wert, wenn es dafür eine Art Quantensprung bei Physik in Spielen gäbe. Aber 250-300? Hallo? Das sind 600 DM! Dafür kaufe ich mir lieber eine fette Grafikkarte (oder auch nicht, ich gebe nur 200 aus ;)).
MfG,
Raff
Tomcat70
2005-09-30, 11:33:34
Ack, sehe ich genauso. 50€ wäre mir der Spaß sicher wert, wenn es dafür eine Art Quantensprung bei Physik in Spielen gäbe. Aber 250-300? Hallo? Das sind 600 DM! Dafür kaufe ich mir lieber eine fette Grafikkarte (oder auch nicht, ich gebe nur 200 aus ;)).
MfG,
Raff
also, mit 100€ könnt ich auch leben, alles darüber wird sich wohl auch langfristig kaum durchsetzen. sehe das von der wertigkeit her in etwa bei den preisen von soundkarten. aber vielleicht kommen ja noch "kleinere", leistbarere versionen.
Wie gesagt, eine bessere Grafikkarte wird dir nichts nützen, wenn das Spiel "physiklimitiert" ist.
http://sstfb.sourceforge.net/
oder auch: http://lists.parisc-linux.org/pipermail/parisc-linux/2004-February/022382.html
Jetzt aber wieder zur Physik...
Ich würde mal abwarten mit dem Kauf einer solchen Karte. Wenn die erste Welle vorbei ist und das Produkt "läuft" werden die bestimmt erheblich günstiger.
Ich würde mal abwarten mit dem Kauf einer solchen Karte. Wenn die erste Welle vorbei ist und das Produkt "läuft" werden die bestimmt erheblich günstiger.
Wenn es mal soweit kommt ...
Mal ein anderer Gedankengang: Warum eine extra Karte? Ich fände es wesentlich sinnvoller, den Spaß direkt aufs Mainboard zu kleben. Aktuelle Chipsätze sind doch bereits hochintegriert, da würde ein Chip doch sicher noch drauf passen. Zumal das deutlich billiger sein dürfte als eine extra Platine, die auch noch einen PCI-Slot belegt. Obendrein halte ich es nicht für sinnvoll, das Teil gleich am Anfang so extrem teuer zu verkaufen -- so setzt sich das nie durch, auch mit Spielesupport. Billig, um eine Basis zu schaffen sollte die richtige Strategie sein!
Auch nett wäre, wenn man einfah Grafikkarten mit so einem Chip ausrüsten würde. T&L war auch ein Zusatzfeature, das der CPU Arbeit abnahm (die wird anscheinend bald überflüssig :|).
MfG,
Raff
ollix
2005-09-30, 17:07:05
Also das etwas einen PCI Slot nutzt finde ich gar mal eine gute Sache. :) Ich glaube meine letzten Erweiterungskarten neben Grafikkarten habe ich vor 3-4 Jahren mit der SB Live 1024 Player und dem SCSI Controller ausgemustert. Endlich kann man diese verstaubten Slots mal wieder nutzen und dem Drang der Penetration beim Einsetzen der Karten nachkommen. Ich glaube, daß das System funktioneren wird; es haben ja schon ein paar Nicht-Nonames Support angekündigt. Und sobald man dafür einen Unterschied bekommt (d.h. längere Balken oder/und schönere Spiele), man eine positive Entwicklung sieht und es erstmal das einzige System dieser Art man Markt ist, werden bestimmt genügend Leute die den Wunsch nach HighEnd haben sich finden lassen, die sich so eine Karte einbauen; sobald dann dies erreicht ist, steht dann einer guten Entwicklung nichts mehr im Weg.
Die gelbe Eule
2005-10-06, 01:04:56
Wird nur auf manchen Boards bissl eng. 2 Dualslot Karten im SLI, dann Soundkarte und vielleicht noch Firewire, Wifi oder USB Blende dabei, schon bleibt kein Platz mehr übrig.
DjDino
2005-10-07, 13:00:41
http://www.k-hardware.de/news.php?s=&news_id=4492
Spasstiger
2005-10-10, 17:44:39
Wenn es mal soweit kommt ...
Mal ein anderer Gedankengang: Warum eine extra Karte? Ich fände es wesentlich sinnvoller, den Spaß direkt aufs Mainboard zu kleben. Aktuelle Chipsätze sind doch bereits hochintegriert, da würde ein Chip doch sicher noch drauf passen.
Der PhysX-Chip hat 125 Mio. Transistoren. Das ist mehr als bei einer Radeon 9800 Pro.
Und der schon recht leistungshungrige NForce 4 Chipsatz hat gerade mal 22 Mio. Transistoren. Da fallen 125 Mio. zusätzliche Transistoren aber ganz gewaltig ins Gewicht ;).
EDIT: Was ich ganz vergessen habe, 128 MB Ram sind ja auch noch dabei.
Thomas Gräf
2005-10-10, 21:37:54
Zitat aus dem Link:
Der größte Vorteil gegenüber einer zusätzlichen Beschleunigerkarte wäre die umfassende Marktdurchdringung mit entsprechenden Produkten. Viele Gamer würden eher in eine Grafikkarte als in eine neue, zusätzliche Erweiterungskarte zu investieren. Aus der Sicht von AGEIA wäre das natürlich schrecklich, da man dann die PPUs nicht an den Mann bringt.
Soweit so gut....doch einige Zeilen davor steht:
Da die Pixelleistung aktueller Grafikkarten jedes Jahr enorm zunimmt, wäre es durchaus denkbar, einen Teil der Leistung für Physikberechnungen zu verwenden.
Und somit geht die Runde doch wieder an AGEIA.
Denn eine 3D- GRAKA mit Luft für "Nebenjobs"
wird es nie geben.
Eine 3D-Graka wird zumal bei Games immer voll
ausgenutzt sein.
...zumindest solange wie sie das noch in
Sillizium backen.;)
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.