Archiv verlassen und diese Seite im Standarddesign anzeigen : 2007: Intel übernimmt Havok - 2015: Microsoft übernimmt Havoc
dildo4u
2007-09-15, 09:54:04
http://www.intel.com/pressroom/archive/releases/20070914corp.htm?iid=pr1_releasepri_20070914r
Hmm will Intel mit dem Know how eine eigene Physikkarte bauen?Intel scheint ja sher interresiert daran zu sein auch in Gamermarkt zu punkten.
AnarchX
2007-09-15, 10:03:51
Larrabee dürfte sich eigentlich schon auch so sehr gut für Physik eigenen.
Aber schon seltsam, erst empfiehlt man die PhysX für die X38-Boards und nun holt man sich deren Konkurrenz.:|
dildo4u
2007-09-15, 10:09:30
Vieleicht will Intel ja schon was ein paar Transistoren zur Physikbeschleunigung in Intels SSE5 einfließen lassen oder ist Nehalem schon "komplett"?
AnarchX
2007-09-15, 10:15:20
Nehalem hat nur SSE4.2 und Samples wird es schon im Oktober geben.
Intels "SSE5" wird man dann wohl erst 2009 mit Westmere geben.
Aber durchaus keine schlechte Idee mit der Anpassung auf eine Physikengine, wobei ich auch vermute, dass man die kommenden IGPs vielleicht dafür zweckentfremden kann.
(del)
2007-09-15, 13:44:17
Da Havok eigentlich die Softwarephysik dominiert, sehe ich hier auch Probleme auf AMD zukommen. Und auf Ageia.
Warum? Ich traue Intel zu gegen die Konkurrenz mit der Havok paar Gruben zu graben. Keine gute Entwicklung für den Markt.
Kompiliert mal die SPEC mit einem ungepatchten ICC und laßt es auf K8 laufen...
Einer Hardwarephysik von Intel stehe ich auch erstmal skeptisch gegenüber was den Markt angeht. Mal sehen.
Vieleicht will Intel ja schon was ein paar Transistoren zur Physikbeschleunigung in Intels SSE5 einfließen lassen oder ist Nehalem schon "komplett"?
Da wird sich am Instruction-Set nichts mehr ändern. Außerdem braucht Physik auch vor allem Matrix- und Vektoroperationen, also nichts neues.
Genialer Schachzug!
Nvidia und Amd können Ihr Bluff-Marketing mit Havok FX nun vergessen!
Da Havok eigentlich die Softphysik dominiert, sehe ich hier auch Probleme auf AMD zukommen. Und auf Ageia.
Warum? Ich traue Intel zu gegen die Konkurrenz mit der Havok paar Gruben zu graben. Keine gute Entwicklung für den Markt.
Kompiliert mal die SPEC mit einem ungepatchten ICC und laßt es auf K8 laufen...
Einer Hardwarephysik von Intel stehe ich auch erstmal skeptisch gegenüber was den Markt angeht.
Für AGEIA ist das eher positiv!
(del)
2007-09-15, 13:48:51
Genialer Schachzug!
Nvidia und Amd können Ihr Bluff-Marketing mit Havok FX nun vergessen!Der "Leidtragende" bist dann aber du!
Für AGEIA ist das eher positiv!Mal abwarten...
Der "Leidtragende" bist dann aber du!
Warum?
Aber schon seltsam, erst empfiehlt man die PhysX für die X38-Boards und nun holt man sich deren Konkurrenz.:|
Genau daran hab ich auch gedacht.
Sehr seltsam das ganze.
dilated
2007-09-15, 13:57:47
weil du keine physikbeschleunigung auf grakas (amd/nv)
mit der havok engine sehen wirst
(wenn intel das so will was wahrscheinlich ist)
ageia ist, war und bleibt ne totgeburt
havok ist gut verbreitet, deswegen wollten es ja nv und ati/amd
imho werden die quad und octacores das eh überrennen und es wird keine karte zum beschleunigen geben (höchstens von intel^^)
und ob die am anfang konkurenz zu ati nv sind, muss man abwarten
wenn nicht wird deren physikbeschleunigung keiner nachheulen, wenn die spiele nicht mit "höchsten details" wie bei nv ati laufen, nützt die beschleunigung intel nix
aber ich habe großes vertrauen in intel (auch wenn ich keinen habe ;))
(del)
2007-09-15, 13:58:45
Aber schon seltsam, erst empfiehlt man die PhysX für die X38-Boards und nun holt man sich deren Konkurrenz.:|Hat man PhysX wirklich nomentlich empfohlen? Oder nur Hardwarephysik? ;)
Ich denk mir folgendes. Vielleicht haben sie sich gedacht ein Monopol in Sachen Physik aufzubauen und zumindest den High-End-Spielermarkt endgültig zu dominieren. Und vielleicht hat sich Ageia nicht einverstanden erklärt aufgekauft zu werden. Dann sind die halt zu Havok.
Für Ageia ist das ambivalent. Wenn sie es allein nicht schaffen sollten, dann besteht die Chance, dass AMD sie aufnimmt, um den einzigen konkurenzfähigen Know-How-Lieferanten in diesem Bereich zu haben und mit Intel konkurrieren zu können.
Hat man PhysX wirklich nomentlich empfohlen? Oder nur Hardwarephysik? ;)
Ersteres!
AnarchX
2007-09-15, 14:01:55
Hat man PhysX wirklich nomentlich empfohlen? Oder nur Hardwarephysik? ;)
http://www.fudzilla.com/index.php?option=com_content&task=view&id=2679&Itemid=1
Die werden dann vielleicht am Montag übernommen... :D
Das ist natürlich auch eine Möglichkeit. Wenn Intel anfängt Ageia fertig zu machen, dann werden sie selbst auf AMD zulaufen.
BH
weil du keine physikbeschleunigung auf grakas (amd/nv)
mit der havok engine sehen wirst
(wenn intel das so will was wahrscheinlich ist)
ageia ist, war und bleibt ne totgeburt
havok ist gut verbreitet, deswegen wollten es ja nv und ati/amd
imho werden die quad und octacores das eh überrennen und es wird keine karte zum beschleunigen geben (höchstens von intel^^)
und ob die am anfang konkurenz zu ati nv sind, muss man abwarten
wenn nicht wird deren physikbeschleunigung keiner nachheulen, wenn die spiele nicht mit "höchsten details" wie bei nv ati laufen, nützt die beschleunigung intel nix
aber ich habe großes vertrauen in intel (auch wenn ich keinen habe ;))
falsch!
ageia hat alle pc hersteller auf seiner Seite, eine notebook physx karte in jedem gaming dell notebook drin! havok ist schlecht verbreitet, selbst crysis wollte diesen driss niet und hat lieber Ihre eigene engine gemacht, im pc sektor sind sie ein niemand und fx war nur nen marketing gag
Aha :| PhysX wollte Crytek aber auch nicht haben ;)
Das ist natürlich auch eine Möglichkeit. Wenn Intel anfängt Ageia fertig zu machen, dann werden sie selbst auf AMD zulaufen.
BH´
ich denke einer wird sich da was überlegen, mal zum nachdenken! wenn es ein totgeblaubter schafft, einen 130nm prozi an dell zu verkaufen, für's notebook, sagen wir mal für 80USD und die mengen eher lächerlich sind im vergleich zu amd oder intel, erübrigt sich die spekulation ob ageia gekauft wird. ;) sicherlich kann einer von den beiden den chip wesentlich billiger produzieren und einen shrink auf 90 oder 65nm easy machen ;) das macht ja den preis aus
Aha :| PhysX wollte Crytek aber auch nicht haben ;) ist doch auch nachvollziehbar, wenn du die engine kennst weißt du ja auch warum, ich finde crytek hat es perfect umgesetzt!
_DrillSarge]I[
2007-09-15, 14:13:04
mich würde mal interessieren wieviel die für havok bezahlt haben. höchstwahrscheinlich nur peanuts für intel.
ist doch auch nachvollziehbar, wenn du die engine kennst weißt du ja auch warum, ich finde crytek hat es perfect umgesetzt!
hier ist warum! ageia & epic = UT3 Engine (warmonger, unreal etc.)
ps:
http://www.golem.de/print.php?a=50996
Mit der Lizenzierung der CryEngine 2 an Dritte tritt die deutsche Firma ganz klar in die Fußstapfen von Epic. Wie dieser Hersteller mit seiner Unreal-Engine, versucht sie nicht nur als Spielestudio, sondern auch als Middleware-Anbieter Erfolg zu haben. Nach den Reaktionen der anwesenden Designer zu urteilen, könnte ihr das gelingen.
I[;5845507']mich würde mal interessieren wieviel die für havok bezahlt haben. höchstwahrscheinlich nur peanuts für intel.
mich auch... :) ich denke nvidia hat da einen grossen fehler gemacht, die hatten ja das angebot auch auf dem tisch und bei dem umsatz anstieg den nvidia gemacht hat in den letzten 12 monaten, wäre es für sie auch peanuts gewesen, letztendlich konkurieren ja nv und intel im chipset recht häftig....und ich kann mir kaum vorstellen das intel havok fx weiter an die vga jungs gibt :)
_DrillSarge]I[
2007-09-15, 14:22:31
mich auch... :) ich denke nvidia hat da einen grossen fehler gemacht, die hatten ja das angebot auch auf dem tisch und bei dem umsatz anstieg den nvidia gemacht hat in den letzten 12 monaten, wäre es für sie auch peanuts gewesen, letztendlich konkurieren ja nv und intel im chipset recht häftig....und ich kann mir kaum vorstellen das intel havok fx weiter an die vga jungs gibt :)
intel hat bestimmt nur havok gekauft, weil sie aus kartellrechtlichen gründen nvidia nicht haben können;). (finanziell sicherlich kein problem für intel (umsatz 2006: ~36Mrd usd) nvidia (umsatz 2006: ~3Mrd usd) zu kaufen)
I[;5845531']intel hat bestimmt nur havok gekauft, weil sie aus kartellrechtlichen gründen nvidia nicht haben können;). (finanziell sicherlich kein problem für intel (umsatz 2006: ~36Mrd usd) nvidia (umsatz 2006: ~3Mrd usd) zu kaufen) nein, jetzt hast du mich falsch gelesen, ich meinte, warum hat nvidia nicht havok gekauft, so hätten sie 1. fx für amd blocken können und 2. verhindern können, das intel sich die physx kompentenz auf die fahne schreibt, so hat nvidia jetzt wie amd plötzlich gar keine physx kompentenz mehr, geschnallt!? intel wird doch nicht so bescheuert sein und nvidia brav das havok fx weiter geben
_DrillSarge]I[
2007-09-15, 14:30:11
nein, jetzt hast du mich falsch gelesen, ich meinte, warum hat nvidia nicht havok gekauft, so hätten sie 1. fx für amd blocken können und 2. verhindern können, das intel sich die physx kompentenz auf die fahne schreibt, so hat nvidia jetzt wie amd plötzlich gar keine physx kompentenz mehr, geschnallt!? intel wird doch nicht so bescheuert sein und nvidia brav das havok fx weiter geben
wieso nicht? gegen gebühr ;). vielleicht wars ja zu teuer, glaub ich zwar nicht, aber vielleicht war die offerte von intel besser.
I[;5845547']wieso nicht? gegen gebühr ;).
no way! :)
no way! :)Sorry aber du hast keinen Plan.
ShadowXX
2007-09-15, 15:24:41
falsch!
ageia hat alle pc hersteller auf seiner Seite, eine notebook physx karte in jedem gaming dell notebook drin! havok ist schlecht verbreitet, selbst crysis wollte diesen driss niet und hat lieber Ihre eigene engine gemacht, im pc sektor sind sie ein niemand und fx war nur nen marketing gag
Also ich habe wesentlich mehr Games die mit Havoc arbeiten als welche die mit Ageia arebiten (ich schätze mal 40 zu 5).
_DrillSarge]I[
2007-09-15, 15:26:49
Also ich habe wesentlich mehr Games die mit Havoc arbeiten als welche die mit Ageia arebiten (ich schätze mal 40 zu 5).
zustimm. weils für havok keine extra hw braucht und die physx dinger (noch?) nicht wirklich verbreitet sind.
PhysX braucht auch keine extra Hardware.
_DrillSarge]I[
2007-09-15, 15:42:17
PhysX braucht auch keine extra Hardware.
das "mainfeature" ist doch die hardwarebeschleunigte (PhysXkarte) Physik, welche noch nie dagewesene effekdichte ermöglichen sollte.
(del)
2007-09-15, 15:42:19
Vor allem weil Havok bis jetzt noch dicke reichte. Einiges ist mit PhysX wirklich fein zu machen, die meisten der Spielereien wie Zb. hier mit dem Schiessen auf die Holzkisten ist absolut unrealistisch http://www.youtube.com/watch?v=xCYGPuo3qQQ
Der Rest wird ebenfalls meist stark überzeichnet dargestellt um die Möglichkeiten zu zeigen. Fluids oder weiteren weichen Stoffe gehen damit aber schon recht gut. Ein Mehrwert für den Zocker wärte sowas auf jeden Fall http://www.youtube.com/watch?v=fXkSxph75_I&mode=related&search=
Das zusätzliche Problem war bis jetzt nur, daß zwar Sachen möglich sind die ohne garnicht mit annehmbaren FPS möglich wären, die FPS mit PhysX trotzdem meistens merkbar sinken. Mehr Effekte for nothing ist das noch lange nicht (bis jetzt).
@Coda
Ist aber mit dem Chip verdongelt oder nicht? ;) Und dann würde es in der jetzigen Form auch noch stärker auf die FPS drücken als ohnehin.
dilated
2007-09-15, 15:52:29
falsch!
ageia hat alle pc hersteller auf seiner Seite, eine notebook physx karte in jedem gaming dell notebook drin! havok ist schlecht verbreitet, selbst crysis wollte diesen driss niet und hat lieber Ihre eigene engine gemacht, im pc sektor sind sie ein niemand und fx war nur nen marketing gag
mag ja sein aber was gibts außer havokfx und physx???
nur eigen kreationen?
Intel versucht momentan halt mit aller Kraft Multicore zu pushen. Eine Physikengine macht sich da gut. Was anderes steckt da imo nicht dahinter.
Mich macht nur die notwendige Crossplattformfähigkeit nachdenklich. Stellt Intel jetzt Leute ein um ihre Software auf IBM Architekturen zu optimieren?
Simon
2007-09-15, 16:37:35
mag ja sein aber was gibts außer havokfx und physx???
nur eigen kreationen?
Bullet, ODE und etliche andere...
Die gelbe Eule
2007-09-15, 16:39:31
Also erstmal war Intel sehr angetan von Ageia und nun Havok. Spekuliert man 1:1 zusammen, das Havok Team bietet die Software an, Ageia die Hardware. Somit wird Intel dann den Physikmarkt dominieren und ist in nahezu allen Spieleengines vertreten. Andersrum könnte Intel mit der Multicore Architektur auch Physik on Die anbieten, was Ageia dann noch mehr zu schaffen machen würde. Was nun mit NV und HavokFX passiert, sowie mit AMD, die noch gar nichts preisgegeben haben, man weiß es nicht.
Danke, dge. Jetzt begreif ich endlich was Sache ist :D :uup:
Sorry aber du hast keinen Plan.
Lol, den fehlenden Plan kannst du ja gerne nachreichen!
Also erstmal war Intel sehr angetan von Ageia und nun Havok. Spekuliert man 1:1 zusammen, das Havok Team bietet die Software an, Ageia die Hardware. Somit wird Intel dann den Physikmarkt dominieren und ist in nahezu allen Spieleengines vertreten. Andersrum könnte Intel mit der Multicore Architektur auch Physik on Die anbieten, was Ageia dann noch mehr zu schaffen machen würde. Was nun mit NV und HavokFX passiert, sowie mit AMD, die noch gar nichts preisgegeben haben, man weiß es nicht.
falsch: havok hat nur die software und ageia hat beides, die physx engine funktioniert doch wunderbar auch mit der cpu bei beiden, bis auf das havok nur effekt physixs anbietet, intel wird den physx markt nicht dominieren weil havok 90% console hat und nur 10% pc, checkt die havok.com für havok fx gibt es 0 spiele! nv hat kein havok fx mehr in unmittelbarer zukunft amd auch nicht, da intel das nicht weiterführen wird. intel hat nur ein argument mehr für den ihren prozi.
es wird sehr spannend werden... :)
Wenn nV und AMD schon etwas von Havoc lizenziert haben um Hardware Unterstützung zu bieten oder im Treiber etwas entrsprechendes Einzubaun dann macht Intel da gar nichts. Aber es wundert nun nicht mehr das man von Physik@GPU in letzter Zeit rein gar nichts mehr gehört hat. Außer das Entwickler wie Crytek etwas eigenes basteln um mit DX10 hier mehr bieten zu können.
Intel hatte Havoc vor einiger Zeit ja auch Entwicklungsgelder zugeschoben die nun Früchte getragen haben. Wer ein bisschen sucht findet da einiges, ich glaube es sind pro Jahr an die 100 Firmen die Intel mit ca. 1Mrd$ Sponsort im bereich Forschung und Entwicklung.
Moralelastix
2007-09-15, 17:04:55
Es ist wirklich zum Kotzen das es da nur so lähmend vorrankommt.
Selbst bei Crysis(habt ihr da mal gesehen wie unrealistisch Fahrzeuge zusammen stoßen, wie zwei Pingong Bälle kein Schadensmodell nix!) hat ich mir da deutlich mehr erhofft.
:confused:
Demirug
2007-09-15, 17:13:25
PhysX braucht auch keine extra Hardware.
Jaein. Für die neuen Sachen brauchst du zwingend die Hardware.
Demirug
2007-09-15, 17:14:52
Es ist wirklich zum Kotzen das es da nur so lähmend vorrankommt.
Selbst bei Crysis(habt ihr da mal gesehen wie unrealistisch Fahrzeuge zusammen stoßen, wie zwei Pingong Bälle kein Schadensmodell nix!) hat ich mir da deutlich mehr erhofft.
:confused:
Muss wohl einen Grund haben warum die großen Fahrzeughersteller ganze Cluster für die Crashtest Simulation kaufen.
Muss wohl einen Grund haben warum die großen Fahrzeughersteller ganze Cluster für die Crashtest Simulation kaufen.
Wir haben als Spieler doch aber ganz andere Anforderungen an die Physik.
Moralelastix
2007-09-15, 18:05:37
Vorrausgesetzt das bleibt in Crysis wirklich so, ist es zu viel verlangt ein Schadensmodell vom Schlage eines aktuellen Rennpiels in Crysis für die Fahrzeuge zu integrieren?
FlatOut2
Rigs of Rods http://rigsofrods.blogspot.com/
Die gelbe Eule
2007-09-15, 19:16:32
Crysis soll doch nur Physikeffekte unter DX10 haben, wenn ich mich nicht irre.
Moralelastix
2007-09-15, 20:48:12
Bäume und Hütten demolieren geht auch mit DX9.
dargo
2007-09-15, 20:55:31
Crysis soll doch nur Physikeffekte unter DX10 haben, wenn ich mich nicht irre.
Ich glaube du verwechselst hier gerade was. Du meinst bestimmt die Unterschiede im MP mit DX9 und DX10 Trennung.
MuLuNGuS
2007-09-17, 13:05:05
apropo hardware,
wie wäre es wenn intel die havok geschichten mit in die CPU integrieren würe, dat wär 'nen hammer
apropo hardware,
wie wäre es wenn intel die havok geschichten mit in die CPU integrieren würe, dat wär 'nen hammer
Naja... bedenke, dass das auch einen nicht unerheblichen Anteil an Transen kosten würde. So weit sind wir noch nicht, dass wir einen oder zwei spezialisierte Kerne haben können. Das kommt frühestens mit 8 oder eher mit 16-Kernern.
Es ist wirklich zum Kotzen das es da nur so lähmend vorrankommt.
Selbst bei Crysis(habt ihr da mal gesehen wie unrealistisch Fahrzeuge zusammen stoßen, wie zwei Pingong Bälle kein Schadensmodell nix!) hat ich mir da deutlich mehr erhofft.
:confused:gibt es denn irgendwo schon die d3d10 physic zu sehen?
Ich glaube du verwechselst hier gerade was. Du meinst bestimmt die Unterschiede im MP mit DX9 und DX10 Trennung.
Das ist sowieso sehr verdächtig, weil derartige Physik nicht auf der GPU ausgeführt werden kann.
Beim Tag-/Nachtwechsel geh ich ja noch mit, aber was soll D3D10 mit der Physik im Multiplayer zu tun haben?
Wir haben als Spieler doch aber ganz andere Anforderungen an die Physik.
Es ist trotzdem höllisch aufwändig. Vor allem weil das Rendering durch dynamische Geometrie auch viel langsamer wird.
Beim Tag-/Nachtwechsel geh ich ja noch mit, aber was soll D3D10 mit der Physik im Multiplayer zu tun haben?
Folgendes: Explosionen erzeugen sehr große Mengen an Trümmern. Diese kann man mit D3D10 besser handhaben.
Zweitens muss man das alles syncen, was für einen höllischen Serverload sorgt. Also zieht man die Linie zwischen DX9 und D3D10 und zwar in der Annahme, dass Leute mit D3D10 statistisch sowohl bessere Rechner haben, als auch in ihrer Zahl sehr viel weniger sind, so dass man zumindest zu Beginn den Serverload handhaben können wird. Und später wird man schauen tun.
Folgendes: Explosionen erzeugen sehr große Mengen an Trümmern. Diese kann man mit D3D10 besser handhaben.
Wieso? Instancing funktioniert auch mit Direct3D 9 sehr gut.
Zweitens muss man das alles syncen, was für einen höllischen Serverload sorgt. Also zieht man die Linie zwischen DX9 und D3D10 und zwar in der Annahme, dass Leute mit D3D10 statistisch sowohl bessere Rechner haben, als auch in ihrer Zahl sehr viel weniger sind, so dass man zumindest zu Beginn den Serverload handhaben können wird. Und später wird man schauen tun.
Das klingt schon plausibler.
Wieso? Instancing funktioniert auch mit Direct3D 9 sehr gut.
Das klingt schon plausibler.
Völliger Humbug! @Gast
Völliger Humbug! @Gast
Soso... gute Argumente! Vielleicht solltest Du einfach mal ein paar Artikel zum Thema lesen.
deekey777
2007-09-18, 07:22:06
PhysX braucht auch keine extra Hardware.
Lustigerweise nutzt GRAW Havok Physics für Rechner ohne die PhysX-Karte bzw. im "Software-Modus".
ist doch auch nachvollziehbar, wenn du die engine kennst weißt du ja auch warum, ich finde crytek hat es perfect umgesetzt!
Wie kann man nur so blauäugig sein? Es wird nie und nimmer "perfekt umgesetzte Physik" geben, sondern nur gut vorgetäuschte. Ich glaube kaum, dass eine reine Softwarelösung, die auf der CPU läuft, mit einer halbwegs realistischer Physik dedizierter HW (PhysX oder Grafikkarte) mithalten kann, da die CPU sich weiterhin um andere Sachen kümmern muss. Dazu kommt aber das PhysX - Dilemma.
Lustigerweise nutzt GRAW Havok Physics für Rechner ohne die PhysX-Karte bzw. im "Software-Modus".
Dafür bitte eine Quelle.
Wie kann man nur so blauäugig sein? Es wird nie und nimmer "perfekt umgesetzte Physik" geben, sondern nur gut vorgetäuschte. Ich glaube kaum, dass eine reine Softwarelösung, die auf der CPU läuft, mit einer halbwegs realistischer Physik dedizierter HW (PhysX oder Grafikkarte) mithalten kann, da die CPU sich weiterhin um andere Sachen kümmern muss. Dazu kommt aber das PhysX - Dilemma.
Hier hast Du zwar recht mit Deiner Aussage, aber es sei angemerkt, dass der Gast wahrscheinlich sowas wie "unter den Umständen und mit den gegebenen Ressourcen perfekt" gemeint hat und nicht pauschal perfekt. :wink:
BlackBirdSR
2007-09-18, 13:04:01
Lustigerweise nutzt GRAW Havok Physics für Rechner ohne die PhysX-Karte bzw. im "Software-Modus".
.
Weil GRAW für Havok ausgelegt wurde. Erst später kam Ageia und wollte einen Port. Also wurde der PhysX-Support obendrauf geklatscht. Daher auch die Probleme zu beginn.
GRAW2 hat vollständigen Support für die Novodex SDK
_DrillSarge]I[
2007-09-18, 13:38:54
ist inzwischen bekannt, was der deal gekostet hat?
€: seh gerade - voll panne: die dt. intel hp geht nicht
AnarchX
2007-09-18, 13:45:49
US$110.000.000
_DrillSarge]I[
2007-09-18, 13:48:44
US$110.000.000
geht ja noch. aber: soviel? hätte die firma max. auf 30mio usd geschätzt.
AnarchX
2007-09-18, 17:59:54
Man sollte Havok nicht unterschätzen, immerhin wird durch den Einsatz in 3ds Max wohl Havok desöfteren für einige Filme verwendet und auch vielversprechene Games gehören zu den Lizenznehmern (Second Life).
smockdogx
2007-09-19, 20:13:47
Lustigerweise nutzt GRAW Havok Physics für Rechner ohne die PhysX-Karte bzw. im "Software-Modus".
Wie kann man nur so blauäugig sein? Es wird nie und nimmer "perfekt umgesetzte Physik" geben, sondern nur gut vorgetäuschte. Ich glaube kaum, dass eine reine Softwarelösung, die auf der CPU läuft, mit einer halbwegs realistischer Physik dedizierter HW (PhysX oder Grafikkarte) mithalten kann, da die CPU sich weiterhin um andere Sachen kümmern muss. Dazu kommt aber das PhysX - Dilemma.
Nö glaube ich nicht ,bei einen quad core cpu kann doch ein Kern allein die Physik berechnen
Nö glaube ich nicht ,bei einen quad core cpu kann doch ein Kern allein die Physik berechnen
Ein Physikchip ist um Größenordnungen schneller als Deine Vier-Kern-CPU zusammengenommen. :rolleyes:
smockdogx
2007-09-19, 21:46:20
Quelle Bitte?
Es ist sehr unwahrscheinlich dass das bei dedizierter Hardware nicht so ist. Das Ding hat mehr Bandbreite und speziell darauf ausgelegte Recheneinheiten.
smockdogx
2007-09-19, 22:31:51
Das mag sein ich Denke aber ,wenn Spiele wie Far Cry oder Hl2 schon Komplett mit einer Cpu laufen wird in Zukunft auch locker ein Core für die Physik reichen .
Und bist jetzt bringt die Karte ja Meistens nichts !
Ich habe jetzt keinen Link zur Hand aber dazu gab es definitiv Artikel und Benches, als die Karte neu war.
Mal davon, dass es eine Selbstverständlichkeit sein sollte, ganz abgesehen. Oder glaubst Du ernsthaft, dass eine Karte für 300 Euro Startpreis durch einen Mehrkernprozessor so leicht plattgemacht werden könnte? Hätte die Firma in so einem Fall überhaupt das Ding entwickelt? Mit Physik ist es wie mit Grafik, darauf kann man einen Chip sehr gut optimieren. Ein Allrounder, der ein Prozessor nun mal ist, sieht da kein Land.
Ganz ohne irgendwelche Zahlen kannst Du Dir auch einfach mal Videos anschauen, wo man PhysX-spezifische Effekte sieht und Dich fragen, warum nicht einmal Crysis, welches auch Quads unterstützt, nicht annähernd solche Effekte zeigt. :smile:
Das mag sein ich Denke aber ,wenn Spiele wie Far Cry oder Hl2 schon Komplett mit einer Cpu laufen wird in Zukunft auch locker ein Core für die Physik reichen .
Und bist jetzt bringt die Karte ja Meistens nichts !
Was heißt "reichen"? Das ist der Punkt, wo Du einen Fehler machst. Es existiert kein absolutes Maß, wann Physik (oder auch Grafik und andere Features) "reicht". Selbstverständlich kann man mit einem Core schon einiges anfangen. Aber sehr viel mehr Leistung kann man nun mal auch sehr viel mehr anfangen. Ist doch logisch, oder? Es ist alles eine Sache der Anforderungen. Würdest Du etwa verlangen, dass man Grafik auch auf Prozessoren berechnet und Grafikkarten einspart? Also einsparen ließe sich auf diesem Weg einiges. Aber auch die Grafik würde dementsprechend aussehen.
Dass die Karte bisher nicht beeindruckt hat lag abgesehen von Startschweirigkeiten nicht zuletzt am Henne-Ei-Problem. Da kaum jemand die Karte hatte, haben sich auch kaum Firmen die Mühe gemacht exklusive Features massiv in ihre Spiele einzubauen.
smockdogx
2007-09-19, 22:39:03
Die hab ich schon gesehen ,aber so rund läuft das Zeug halt nicht wie die Entwickler es gerne Hätten .....
Wirst schon recht haben das dass Ding um ein vielfaches schneller ist ,wenn aber games mit Karte trotzdem langsam laufen bringt das nichts.
Wenn sich in letzter Zeit die Leistung drastisch verbessert hat sorry :smile:
An 2ten Gast okay da hast du Recht Lesitung kann man da sicher nicht genug haben !
Damit sich das Henne-Ei-Problem ändert muss die Karte aber erstmal zeigen was sie kann ,was sie bis jetzt nicht gemacht hat .
Kein Problem. Dass es Schwierigkeiten gibt und unvorhergesehene Flaschenhälse aufgetaucht sind stimmt ja auch. Allerdings habe ich einen Artikel zur UE3 (die ja PhysX unterstützt) gelesen, der Hoffnung macht. Wenn alles gut geht sollten spätestens auf der PhysX 2 die bisherigen Probleme entweder ausgemerzt oder kaum noch ins Gewicht fallen. :smile:
smockdogx
2007-09-19, 22:45:53
Wenn es Funktioniert und die Karte in mehrer Spielen Leuft würde ich mir bestimmt eine hollen :smile:
dildo4u
2007-09-21, 06:39:20
Hovak & Pandemic Demo "Mercinaries 2" at IDF 2007
http://www.youtube.com/watch?v=EJEQu54NFvw&mode=user&search=
Naja... bedenke, dass das auch einen nicht unerheblichen Anteil an Transen kosten würde. So weit sind wir noch nicht, dass wir einen oder zwei spezialisierte Kerne haben können. Das kommt frühestens mit 8 oder eher mit 16-Kernern.
Sicher? Ich weiß grade nicht mehr wo ich das gelesen habe, aber man denkt doch z.Z. daran spezialisierte Kerne zu realisieren anstatt alles immer zu verdoppeln, weil dafür muss ja erstmal die Software geschrieben werden, was ja auch nicht so einfach ist wie viele sich das immer vorstellen ("einfach Threads auslagern") .Warum sollte es keinen Gamerprozessor geben, der z.B. einen Physikkern hat, den ein kleineres Prozessormodell denn aben nicht besitzt?
Sicher werden wir das bestimmt nicht schon nächstes Jahr erleben, aber bis 2009? Denke das wäre machbar...
=Floi=
2007-09-21, 08:27:46
man könnte ja auch den cache reduzieren und dafür mehr logik verbauen
die breite mancher chips könnte man durch den hohen takt auch klein halten und somit wäre das ganze sicherlich auch realisierbar
Piffan
2007-09-21, 11:13:01
Ich bin nach wie vor skeptisch, was beschleunigte Physik betrifft.
Bei der Zerstörungsphysik besteht nach wie vor das Problem der zunehmenden Last für das Grafiksystem, schließlich will der ganze Dreck auch dargestellt werden.
Sind die Flaschenhälse nun eigentlich beseitigt?
Am ehesten würde ich mir mehr Physik bei Stoffen und Wasser wünschen.......
AnarchX
2007-09-21, 11:16:11
Bei der Zerstörungsphysik besteht nach wie vor das Problem der zunehmenden Last für das Grafiksystem, schließlich will der ganze Dreck auch dargestellt werden.
Sind die Flaschenhälse nun eigentlich beseitigt?
Dafür gibt es ja eigentlich Instancing schon seit DX9. Imo kommt es wohl eher auf die Güte der Implementierung an, das was PhysX bisher ablieferte, machte eher einen halbgaren Eindruck.
Intel trau ich da doch mehr zu... ;)
Demirug
2007-09-21, 11:26:59
Dafür gibt es ja eigentlich Instancing schon seit DX9.
Instancing funktioniert aber nur bei gleichen Teilen. Solange du nicht gerade ein Lego Spiel hast funktioniert das so nicht.
Piffan
2007-09-21, 11:37:01
Einmal das und zum anderen passen Instancing und echte Physik nicht zusammen. Reine Effektphysik ohne Interaktion mit Levelgegenständen gibts doch heute schon zur Genüge......
Hydrogen_Snake
2007-09-21, 12:31:58
Havok Co-Processor Confirmed!? Das wäre sowas von Geil. Havok impementiert in C2D oder C2Q. GOOD BYE AGEIA!
Havok ist doch eine reine Prozessorlösung. Wieso sollten sie daher einen "Co-Prozessor" auf die Platine löten?
Hydrogen_Snake
2007-09-21, 12:53:37
Havok ist doch eine reine Prozessorlösung. Wieso sollten sie daher einen "Co-Prozessor" auf die Platine löten?
Wir nennen es SPEED. Wenn das in Hardware Implementiert werden würde wäre Physx wohl überflüssig?
Wir nennen es SPEED. Wenn das in Hardware Implementiert werden würde wäre Physx wohl überflüssig?
Dann führt du jedoch Quad-Core Prozessor adsurdum. ;)
Havok Co-Processor Confirmed!? Das wäre sowas von Geil. Havok impementiert in C2D oder C2Q. GOOD BYE AGEIA!
Und was machen dann Leute mit einem AMD-System? Oder einer Xbox360? Oder einer PS3? Oder dem Wii?
La-ra-bee...
Instancing funktioniert aber nur bei gleichen Teilen. Solange du nicht gerade ein Lego Spiel hast funktioniert das so nicht.
"Massacre in Lego Land" ;)
Einmal das und zum anderen passen Instancing und echte Physik nicht zusammen. Reine Effektphysik ohne Interaktion mit Levelgegenständen gibts doch heute schon zur Genüge......
Wieso können instanzierte Objekte nicht individuelle Physik besitzen?
Sicher? Ich weiß grade nicht mehr wo ich das gelesen habe, aber man denkt doch z.Z. daran spezialisierte Kerne zu realisieren anstatt alles immer zu verdoppeln, weil dafür muss ja erstmal die Software geschrieben werden, was ja auch nicht so einfach ist wie viele sich das immer vorstellen ("einfach Threads auslagern") .Warum sollte es keinen Gamerprozessor geben, der z.B. einen Physikkern hat, den ein kleineres Prozessormodell denn aben nicht besitzt?
Sicher werden wir das bestimmt nicht schon nächstes Jahr erleben, aber bis 2009? Denke das wäre machbar...
Das habe ich doch gar nicht bestritten. 2009 könnte sogar hinkommen, nur haben wir bis dahin auch 8-Kernen. Wie Du siehst habe ich nichts großartig anderes gesagt. :wink:
Ich wollte nur darauf hinaus, dass solche spezialisierten Kerne in den heutigen Architekturen nicht sinnvoll sind und wenn man diese heute anfängt zu entwickeln, dann wird es eben noch dauern, bis sowas reinkommt.
Hovak & Pandemic Demo "Mercinaries 2" at IDF 2007
http://www.youtube.com/watch?v=EJEQu54NFvw&mode=user&search=
Havok bitte. Es geht hier nicht um irgendwelche Polen. :D
AnarchX
2007-09-21, 14:56:05
Instancing funktioniert aber nur bei gleichen Teilen. Solange du nicht gerade ein Lego Spiel hast funktioniert das so nicht.
Jede Instanz kann doch trotzdem leicht modifizierte Parameter(z.B. Textur) haben? Natürlich nicht optimal, aber eben ein nötiger Zwischenschritt.
Demirug
2007-09-21, 17:34:11
Jede Instanz kann doch trotzdem leicht modifizierte Parameter(z.B. Textur) haben? Natürlich nicht optimal, aber eben ein nötiger Zwischenschritt.
Dann haben die Teile aber immer noch die gleiche Form und gerade das wirkt dann bei der Physik irgendwie künstlich. Deswegen sprach ich ja von Lego.
AnarchX
2007-09-21, 18:03:48
Deswegen sprach ich ja von Lego.
Aber immernoch besser als das übliche "Playmobil".
Irgendwie muss man dieses Dilemma doch lösen können, dass man auf der einen Seite entsprechend viele Objekte hat, die aber auch entsprechend detailiert und gleichzeitig realistisch/verschieden aussehen?
Aber immernoch besser als das übliche "Playmobil".
Irgendwie muss man dieses Dilemma doch lösen können, dass man auf der einen Seite entsprechend viele Objekte hat, die aber auch entsprechend detailiert und gleichzeitig realistisch/verschieden aussehen?
Wo ist das Problem? Die Lösung heißt seit jeher: Mehr Power. Und genau das bietet PhysX. :smile:
smockdogx
2007-09-21, 19:35:13
Wo ist das Problem? Die Lösung heißt seit jeher: Mehr Power. Und genau das bietet PhysX. :smile:
bist jetzt aber nur Theoretisch ...
AnarchX
2007-09-21, 19:38:55
Wo ist das Problem? Die Lösung heißt seit jeher: Mehr Power. Und genau das bietet PhysX. :smile:
Darum geht es ja es gar nicht, sondern um die Berechnung/das Rendering der Objekte auf welche diese Physik-Berechnungen angewendet werden.
GPU Physics Dead for Now, Says AMD’s Developer Relations Chief.
Nvidia’s Chief Exec Predicts “Negative Synergies” with Intel’s Acquisition of Havok (http://www.xbitlabs.com/news/multimedia/display/20071119065621_GPU_Physics_Dead_for_Now_Says_AMD_s_Developer_Relations_Chief.htm l)
;(
Die gelbe Eule
2007-11-20, 12:33:30
Ist auch klar, weil Intel hier etwas bringen könnte, das alle anderen aussticht. Schließlich arbeitet NV mit Havok zusammen und diese Zusammenarbeit wird nun mehr von Intel abhängen. Sollte jeder sein eigenes Süppchen kochen, hätte man das Problem, daß es zuviele verschiedene Engines gibt, welche unterschiedlich reagieren werden und jeder Spielehersteller sucht sich dann immer das passende heraus, was zu Lasten des Kunden gehen kann.
deekey777
2015-10-02, 21:43:13
Microsoft hat Intel Havok abgekauft.
http://www.windowscentral.com/microsoft-acquires-pc-game-physics-developer-havok-intel
Blutmaul
2015-10-02, 22:09:24
Damit wird Physx ja dann wohl endgültig zur Totware...
Niall
2015-10-02, 22:12:37
Ich bin gespannt was daraus wird. PhysX und Co. werden ja (zumindest meines Erachtens) immer noch etwas stiefmütterlich behandelt, obgleich wir jedes Jahr aufs Neue von nVidia zu sehen bekommen was man alles mit der Rechenpower ihrer Prozessoren anstellen kann - wat kommt? nüscht. :freak:
Ich bin gespannt ... :)
-/\-CruNcher-/\-
2015-10-02, 22:44:26
Doch schon etwas überraschend
Der Gewinner hier könnte klar AMD werden ;)
Wobei Microsofts ziele scheinen irgendwie auch sehr Agnostisch immerhin wird hier Azure erwähnt aber das sie keine weiteren Optimierungen für die Xbox One und deren Licenses vornehmen glaub ich nicht immerhin hat Havok das auch Präsentiert für die PS4 und die zusammenarbeit mit AMD vorher versärkt das dürfte Huang garnicht schmecken ;)
Ob ihre PC/Konsolen Konvergenz unter Windows 10 dann eher auf Azure Zugriff setzen wird als lokal Physics zumindestens für ihre Studios sehr spannend wobei ihr Motto seit Windows 10 ja eindeutig ist Nadella hat das ja nun oft genug ausgesprochen "Mobile First, Cloud First":)
Wenn sie da bessere Performance liefern könnte das Entwickler schnell in die preduile bringen und Microsoft könnte sich die tür für einen Physics Cloud Service voll aufstosen (License Based).
Wenn der Deal mit Intel Exclusiv Zugriff auf die Platform bedeutet würde das viel sinn machen.
QnKNliV7gwU
StefanV
2015-10-02, 23:10:15
Ich erwarte, dass M$ Havoc ins DX Framework integrieren könnte...
Und ebenso erwarte ich, dass man GPU Physik implementieren wird...
Und, wie Blutmaul erwäht hat, wird man hier versuchen PhysX aus dem Markt zu kicken.
Wenns ganz blöd läuft, könnte das auch eine Vorbereitung an einer Beteiligung an AMD sein :(
-/\-CruNcher-/\-
2015-10-02, 23:20:01
Wenn sie das machen was du sagst dann würde ich einen Kauf AMDs auch für sehr Wahrscheinlich halten aber nope sie haben kein Interesse mehr an rein Lokaler Entwicklung mit Windows 8 haben sie angefangen dort die weichen zu setzen mit Windows 10 geht es weiter.
Azure ist das OS der Windows Client wird nur noch die hülle werden die mit Azure Kommuniziert das sieht man ja schon an der Architektur in Windows 8/10 und der zu jeder Zeit Daten analysierenden Cortana zum Aufbau ihres Super Brains gegen Google :)
Und Mark Russinovich ist einer der Architekten dieses Mega OS
y33H@
2015-10-03, 00:20:26
Beim ersten Post, den du ohne Zwinker-Smiley machst, zahle ich dir nen Millionen-Betrag ...
Novum
2015-10-03, 01:38:20
Microsoft hat Intel Havok abgekauft.
http://www.windowscentral.com/microsoft-acquires-pc-game-physics-developer-havok-intel
Dreck. Das verdirbt mir echt den Tag.
Ich erwarte, dass M$ Havoc ins DX Framework integrieren könnte...
Und ebenso erwarte ich, dass man GPU Physik implementieren wird...
Und, wie Blutmaul erwäht hat, wird man hier versuchen PhysX aus dem Markt zu kicken.
Wenns ganz blöd läuft, könnte das auch eine Vorbereitung an einer Beteiligung an AMD sein :(
Bullshit. Physik ist nichts was in eine Low-Level-API gehoert. Hat's noch nie und wird's auch nie.
Beim ersten Post, den du ohne Zwinker-Smiley machst, zahle ich dir nen Millionen-Betrag ...
Ich auch, wenn er Satzzeichen benützte.
Wurde Havok eigentlich die letzten Jahre irgendwo benutzt? Z.B. bei World of Tanks wurde es seit Jahren angekündigt, aber noch nicht released.
Dann weiss man ja schon, dass DX13 im Anmarsch ist.
Natürlich kann Havok in die API integriert werden. Wieso denn nicht?
Locuza
2015-10-03, 09:21:08
Wurde Havok eigentlich die letzten Jahre irgendwo benutzt?
Seit Jahrzehnten immer bei vielen nennenswerten AAA-Games.
Dann weiss man ja schon, dass DX13 im Anmarsch ist.
Natürlich kann Havok in die API integriert werden. Wieso denn nicht?
Ja, wieso denn nicht.
Microsoft Office bitte auch.
StefanV
2015-10-03, 09:30:02
Bullshit. Physik ist nichts was in eine Low-Level-API gehoert. Hat's noch nie und wird's auch nie.
Liest du auch, was andere Leute schreiben?!
Oder schreist du nur Bullshit, wenn dir irgendwas nicht passt?!
WO habe ich geschrieben, dass das in eine 'low level API' integriert werden würde?! EBEN, GAR NICHT.
Es ist aber sehr wahrscheinlich, dass M$ damit 'großes' vor hat und das zum quasi Standard durchdrücken wird, meinst du nicht auch?!
Und zu DirectX gehört ja eben nicht NUR Direct3D, da gibts auch noch andere Dinge wie DirectInput, DirectSound...
Und jetzt packt man halt 'ne Physik Engine dazu...
Das passt nur allzu gut zu der Strategie, mehr für die PC-Spieler zu tun, mehr für die Konsolen zu tun...
Ist natürlich ev. nicht soo toll für Sony...
Aber für uns PC-Spieler kann das gewaltige Vorteile haben!
Auf jeden Fall deutlich mehr als dieser PhysX Müll, den man hiermit endlich mal komplett los werden kann (und wohl auch will)...
Würd mich jetzt nicht wundern, wenn M$ überhaupt nicht gut auf nV zu sprechen ist und sie versuchen die wo es geht aus dem Markt zu kicken...
Ein Effekt Framework analog zu Gameworks wird wohl auch nicht in allzu großer Ferne liegen...
Niall
2015-10-03, 09:32:37
Wurde Havok eigentlich die letzten Jahre irgendwo benutzt?
Klar, das bekommt bzw. bekam man nur nicht so vors Gesicht gedrückt wie bei nVidias PhysX. ;)
Havok Showcase (http://www.havok.com/showcase/)
Klar, das bekommt bzw. bekam man nur nicht so vors Gesicht gedrückt wie bei nVidias PhysX. ;)
Havok Showcase (http://www.havok.com/showcase/)
Ah...ok. :rolleyes: Ist mir noch nie aufgefallen, aber ich habe so gut wie kein Spiel auf der Liste. Außer Portal 2. ;D
Kartenlehrling
2015-10-03, 10:31:11
Ich begrüsse es auch,
die frage ist nur wie schnell wir davon was sehen, in 2 oder 5 Jahre oder schon 2016?
Aber alles ist besser als Nvidias Gameswork.
Mafia 2 optisch aufgewertet - Benchmarks mit PhysX
Die Physx-Effekte sind auch zum heutigen Zeitpunkt noch nett anzusehen, allerdings wirken sie auf das von aktueller Optik verwöhnte Auge ein wenig unglaubwürdig.
Nicht mehr zeitgemäß ist der Performance-Verlust,
selbst eine GTX 980 Ti mit GPU-Physx verliert in 1080p beim Zuschalten der Effekte auf hoher Stufe über 66 % Leistung,
bei einer AMD Fury X sind es in 1080p und CPU-Physx knapp 85 % - jeweils gemessen mit einem auf 4,5 GHz übertakteten i7-4790K.
Beide Grafikkarten fallen außerdem mit häufigen kleinen Stockern auf, im besonderen Maße naturgemäß die AMD (CPU-Physx only),
jedoch ist auch die Bildausgabe der GTX 980 Ti (GPU-Physx) alles andere als ruhig. Bei diesen,
aus den ersten 35 Sekunden des spielinternen Benchmarks entnommenen Messungen handelt es sich jedoch ausdrücklich um ein Worst-Case-Szenario.
Mit einer aktuellen Nvidia-GPU und GPU-Physx oder einem mindestens 4-GHz-schnellen Prozessor (CPU-Physx) lässt sich das eigentliche Spiel recht flüssig genießen.
http://www.pcgameshardware.de/Mafia-2-Spiel-13147/Specials/Vorbereitung-Mafia-3-Benchmarks-1166573/
xxxgamerxxx
2015-10-03, 11:56:48
Hier die offizielle PM:
http://blogs.microsoft.com/blog/2015/10/02/havok-to-join-microsoft/
We believe that Havok is a fantastic addition to Microsoft’s existing tools and platform components for developers, including DirectX 12, Visual Studio and Microsoft Azure.
Microsoft’s acquisition of Havok continues our tradition of empowering developers by providing them with the tools to unleash their creativity to the world. We will continue to innovate for the benefit of development partners. Part of this innovation will include building the most complete cloud service, which we’ve just started to show through games like “Crackdown 3.”
Havok shares Microsoft’s vision for empowering people to create worlds and experiences that have never been seen before, and we look forward to sharing more of this vision in the near future.
Also wird mal wohl zweigleisig fahren. Zum einen als SDK, um seine Tools zu vervollständigen. Zum anderen, um wohl wirklich einen Cloud Dienst aufzubauen.
y33H@
2015-10-03, 12:07:35
Cloud meint in diesem Falle (Crackdown) nur, dass die Havok-Physik auf die Server ausgelagert wird statt auf der Xbox One zu laufen.
-/\-CruNcher-/\-
2015-10-03, 12:12:15
Ja aber da steht Cloud Service
das funktioniert so wer schlechte Local Physics haben möchte nutzt das SDK auf dem Lokalen client und belastet den Nutzer und seine Stromrechnung ;)
Wer High efficient monster überal destruction haben will kann das gegen aufpreis auf unsere Cloud entlasten für seine Spieler und damit resourcen Lokal für z.b die Grafik in seiner Engine auf der Xbox One freimachen und damit die Stromrechnung des Users belasten ;)
Kartenlehrling
2015-10-03, 12:33:50
Die Idee teile der Licht und Physik Berechnung auf die Server zu legen finde ich bei MMOs gut.
Nur bei Singlegames die sie mir dann nach 5-8 Jahren Abschalten und nicht mehr Spielen darf finde ich dann nicht besondert förderlich.
Bei Solospielen hat sowas nichts zu suchen, ein Onlinezwang.
Nvidia biete diese Cloudberechnung ja bei der Wasserberechnung von War Thunder ja schon an.
https://www.youtube.com/watch?v=i135o2djHdY
Dagor Engine 4.0 & NVIDIA Gameworks: New Technologies
y33H@
2015-10-03, 12:41:52
Ja aber da steht Cloud Service Havok auf Servern laufen zu lassen, ist ein "Cloud Service".
xxxgamerxxx
2015-10-03, 13:06:41
Havok auf Servern laufen zu lassen, ist ein "Cloud Service".
Es wird aber vermutlich nicht auf beliebigen Servern laufen, sondern in Azure. Damit braucht man sich keine teure Infrastruktur anschaffen, kann je nach Nutzung skalieren/bezahlen und hat feste SLAs/PLAs. Das ist wohl als Cloud Service gemeint.
G3cko
2015-10-03, 21:51:08
Physikberechnung auf der GPU war schon immer Müll. Die Grafikkarten sind ja sowieso quasi immer am Limit. Wozu diese auch noch mit Physik belasten, während sich die CPU ohnehin langweilt. Auf einer zweiten GPU als dedizierten Physik-Beschleuniger sicherlich am sinnvollsten, aber NVIDIA hat schon dafür gesorgt, dass man seine alte GPU auf keinen Fall dafür noch gebrauchen kann.
PhysX ist propritär und kostet zuviel Pefromance. Daher hat es sich auch nicht durchsetzen können, egal wieviel Geld Nvidia da noch reinsteckt um Spielentwickler davon zu überzeugen.
Microsoft hat mit Dx12 erkannt, dass man für DirectX zukünftig noch Mehrwerte braucht. Der Schritt ist daher begrüßenswert.
Oliver_M.D
2015-10-03, 22:26:11
Aber alles ist besser als Nvidias Gameswork.
http://www.pcgameshardware.de/Mafia-2-Spiel-13147/Specials/Vorbereitung-Mafia-3-Benchmarks-1166573/War ein hauptproblem bei Mafia 2 nicht das gewisse Physx features auf der CPU liefen und nicht der nvidia GPU was extreme performance problem verursachte?
Nvidia biete diese Cloudberechnung ja bei der Wasserberechnung von War Thunder ja schon an. Warte, das neue WT zeug läuft in der cloud? Dachte das ganze läuft wie gewohnt alles local wie bei Killing Floor 2 und anderen?
Kartenlehrling
2015-10-03, 22:35:55
Nö da wird nichts auf der CPU ausgelagert,
das liegt einfach daran das vor 5 Jahren der Leistungverlust schon 40% war und
nun wo die Grafikkarten doppelt so schnell sind es noch krasser auffällt wie schlecht die PhsyX-engine in wirklichkeit performed läuft.
Oliver_M.D
2015-10-03, 23:27:44
Nö da wird nichts auf der CPU ausgelagertBist du dir da sicher? Ich könnte schwören das ich mal gelesen habe das gewisse sachen wie cloth simulation auf der CPU läuft.
"Most performance is devoured by APEX Clothing module (why ? because it is running on CPU, not on GPU)"
http://physxinfo.com/news/3628/mafia-ii-demo-tweaking-physx-performance/
Mr.Magic
2015-10-04, 00:18:43
Mafia 2 war mit PhysX auf einer GTX 480 alleine unspielbar. Eine GTX 285 als PhysX-Karte dazugesteckt, und alles war gut. Das war noch auf einem Core2Quad, der gerade mal die halbe Rechenleistung meines fast fünf Jahre alten i5 hat.
Kartenlehrling
2015-10-04, 06:21:03
Du hast recht die Kleidung wird anscheinen auch bei einer Nvidia Karte über die CPU berechnend, was dem CPU-Limit mit sicherheit nicht gut sein kann.
Dann muss halt PCGH.de das nochmal Testen.
DrFreaK666
2015-10-04, 10:43:36
Du hast recht die Kleidung wird anscheinen auch bei einer Nvidia Karte über die CPU berechnend, was dem CPU-Limit mit sicherheit nicht gut sein kann.
Dann muss halt PCGH.de das nochmal Testen.
Really? Wen interessiert Mafia 2 noch?
Grober Nachtest reicht
Wie groß sind die Chancen, dass man Havok-Physik in zukunft per GPU berechnen kann? Oder ist das nur für die Cloud gedacht?
AlphaNUSS
2015-10-04, 11:08:57
Macht es nicht mehr mehr das ganze Physik Zeugs auf der CPU zu berechnen. Mit dx12 langweilt die sich doch eh. Die GPUs sind ja schon genug beschäftigt.
DrFreaK666
2015-10-04, 11:58:10
Macht es nicht mehr mehr das ganze Physik Zeugs auf der CPU zu berechnen. Mit dx12 langweilt die sich doch eh. Die GPUs sind ja schon genug beschäftigt.
Weiss nicht ob CPUs heutzutage perfomant genug sind. Man sieht ja was passiert wenn man physx-Effekte auf der CPU berechnen lässt.
StefanV
2015-10-04, 12:32:41
Macht es nicht mehr mehr das ganze Physik Zeugs auf der CPU zu berechnen. Mit dx12 langweilt die sich doch eh. Die GPUs sind ja schon genug beschäftigt.
Naja, das Phsyik Zeugs schaut ja auch nach etwas aus, was man gut parallelisieren kann, was der GPU auch gut liegt.
Da machts natürlich mehr Sinn, das ganze ggF eher auf der GPU zu berechnen.
Allerdings: Das ganze muss ja nicht auf der primären GPU passieren. Die meisten hier anwesenden haben ja auch noch ein System, welches eine Sekundäre GPU drin hat, welches einfach nur dumm da ist und nix macht.
Die wäre dafür sehr gut geeignet. Zumal die auch sehr nah an der CPU ist...
DrFreaK666
2015-10-04, 12:41:36
Naja, das Phsyik Zeugs schaut ja auch nach etwas aus, was man gut parallelisieren kann, was der GPU auch gut liegt.
Da machts natürlich mehr Sinn, das ganze ggF eher auf der GPU zu berechnen.
Allerdings: Das ganze muss ja nicht auf der primären GPU passieren. Die meisten hier anwesenden haben ja auch noch ein System, welches eine Sekundäre GPU drin hat, welches einfach nur dumm da ist und nix macht.
Die wäre dafür sehr gut geeignet. Zumal die auch sehr nah an der CPU ist...
Da wären die Low-End-Karten auch für uns mal interessant :D
Kartenlehrling
2015-10-04, 13:42:59
Ich glaube nichtmal das Microsoft es über die CPU plant sondern über die iGPU/APU .
Mit DX12 kommt DirectX 12’s Explicit Asynchronous Multi-GPU und Split Frame Rendering (SFR).
Nvidia hat es auch bestätig das Intel iGPU mit Nvidia Hauptkarte zusammenarbeiten wird,
aber warscheinlich erst ab iris (intel HD5xxx) da sie DX12 fähig sein müssen.
http://assets.hardwarezone.com/img/2015/06/dx12-multi-adaptor-assymmetric-rendering.jpg
deekey777
2015-10-04, 15:27:54
Microsoft hat doch seine Xbox One, jetzt kann man sich ausdenken, worauf Havok-Physik auch laufen soll.
Die Gretchenfrage ist, ob auf Konsolen bestimmte Effekte/Simulationen aus Havok bzw. PhysX auf die GPU ausgelagert werden dürfen. Bullet dürfte diese Einschränkung nicht haben.
Screemer
2015-10-04, 16:07:56
Weiss nicht ob CPUs heutzutage perfomant genug sind. Man sieht ja was passiert wenn man physx-Effekte auf der CPU berechnen lässt.
Gabs schon vor Jahren, fast einem jahrzehnt, dann kam intel und es war aus die Maus.
2007: http://youtu.be/-x0S0b_eG_MMM
2013 auf der ps4: http://www.pcgameshardware.de/PlayStation-4-Konsolen-220102/News/GPU-beschleunigte-Havok-Physik-auf-Playstation-4-bald-auch-bei-Radeon-Grafikkarten-1058121/
Immer noch nicht am PC.
G3cko
2015-10-08, 17:23:09
Hatte die Physik in Mafia 2 auf meinen Q6600@3,7Ghz laufen. Wenn man die Cloth der NPCs deaktiviert hat, dann lief es auch soweit ganz gut.
Wie einige schon schrieben: Physikberechnungen auf der GPU ist deshalb so insteressant, da man sie perfekt paralelisieren kann. Schon komisch, wenn man PhysX auf der CPU berechnen lässt nur 1 Thread genutzt wird.
Wie man ja an den Benchmarks sieht wurde PhysX in Mafia 2 (und generell allen anderen Spielen) immer so implementiert, dass gerade die High-End GPUs dafür ausgereicht haben. Selbst eine aktuelle 980Ti reicht immer noch nicht für 100fps aus. nvidia - it meant to be p(l)ayed
y33H@
2015-10-08, 17:54:39
Immer noch nicht am PC.Und auch in keinem verfügbaren Konsolen-Spiel via GPU und daran dürfte sich vorerst nichts ändern.
Niall
2015-10-08, 18:57:15
Selbst eine aktuelle 980Ti reicht immer noch nicht für 100fps aus. nvidia - it meant to be p(l)ayed
Bist du dir da sicher? Ich habe Mafia 2 zu Beginn diesen Jahres mit meiner 780ti und 8xSGSSAA fluffig mit 'alles an' spielen können und eine 980ti schüppt doch noch eine Menge mehr weg. Kommt mir etwas überspitzt vor. ;)
Wahrscheinlich müßig, da der großteil hier den Unterschied zwischen PhysX als Physikengine und PhysX für Effekte nicht zu verstehen scheint, aber hier die Erklärung des Entwicklers, unter anderem auch warum PhysX2 als Engine so beschissen ist (x87 Instruktionen, singlethreaded, etc. - wer Space Frog: Space Mission spielt kann ein Lied davon singen).
http://www.codercorner.com/blog/?p=1129
RavenTS
2015-10-25, 11:04:55
Microsoft hat doch seine Xbox One, jetzt kann man sich ausdenken, worauf Havok-Physik auch laufen soll.
Die Gretchenfrage ist, ob auf Konsolen bestimmte Effekte/Simulationen aus Havok bzw. PhysX auf die GPU ausgelagert werden dürfen. Bullet dürfte diese Einschränkung nicht haben.
Angesichts der leicht zurückliegenden GPU-Leistung der Xbox One im Vergleich zur PS4 dürfte MS das wohl nicht so gern in der Breite sehen/zulassen ... da doch eher dann auf einigen CPU-Kernen...
Kartenlehrling
2015-10-25, 11:17:06
Also ich spiele gerade Mass Effect 1 in 1440p + Hightexture, der erste Teil wurde noch mit Havok entwickelt obwohl die Gameengine schon damals Unreal Engine war, die ja dann später Nvidias PhsyX übernahmen.
Die Gamephysik mit Havok in ME1 sind wirklich gelungen und müssen sich selbst heute nicht versteckenen, hier kann man sehen das sich das schlechter "durchgesetzt" hat, was eigentlich nicht wirklich vorteile bringt.
Kartenlehrling
2015-11-23, 20:37:20
uiii hier gibts einen job, .... go go go PhysX dem Kampf ansagen.
http://www.havok.com/software-engineersenior-software-engineer-graphics-and-rendering-germany/
Software Engineer/Senior Software Engineer (Graphics and Rendering)
Location: Germany
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.