PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Half_life 2 geforce fx optimiert?


sChRaNzA
2004-12-08, 17:33:22
Hi, mal ne kleine frage, was wäre eigentlich wenn man half-life² komplet auf eine geforce fx optimiert? Also mit cinefx engine?

Würde es dann problemlos unter direct x9 laufen? oder was könnte man da eigentlich optimieren?

Joe
2004-12-08, 18:08:00
Schau auf Konsolen da siehste was rauszuhoeln ist wenn man die Sys Specs kennt.

Allerdings glaube ich das Jedes bessere 3D SPiel auf Jede Karte Opimiert ist wiel eh jede Karte ihren eigenen Renderpfad hat.

Doom3 zB ist eigentlich eher ATI Optimiert obowhls auf der GeForce besser Rennt der witz is aber die GeForce müsste eignetlich noch mehr vorsprung haben aber id hat saubere arbeit geleistet beim ATI Renderpfad.

Normal Suchen sich halt die Firmen schon die Spiele (Engines) Raus wo ihre Karten Traditionell Schneller sind zB NV bei OpenGL sachen und ATI bei so sachen wie Battlefield und eben HL² bei der Unreal Engine isses ziemliuch egal wiel die CPU Limitiert ist als DX8 engine mit dem Hohen Polycount so hat sich NV UT gekrallt und ATI Tribes überhaupt schient ATI sehr an VIvendi/Sierra Games zu hängen

Mr. Lolman
2004-12-08, 18:19:53
Doom3 zB ist eigentlich eher ATI Optimiert obowhls auf der GeForce besser Rennt der witz is aber die GeForce müsste eignetlich noch mehr vorsprung haben aber id hat saubere arbeit geleistet beim ATI Renderpfad.

Normal Suchen sich halt die Firmen schon die Spiele (Engines) Raus wo ihre Karten Traditionell Schneller sind zB NV bei OpenGL sachen und ATI bei so sachen wie Battlefield und eben HL² bei der Unreal Engine isses ziemliuch egal wiel die CPU Limitiert ist als DX8 engine mit dem Hohen Polycount so hat sich NV UT gekrallt und ATI Tribes überhaupt schient ATI sehr an VIvendi/Sierra Games zu hängen

So ein Stuß!

Es gibt nur einen eigenen R200 Pfad bei D³, aber Radeon 8500 kacken bei dem Spiel eh total weg. Außerdem wars nicht ids, sondern ATis verdienst, dass das Spiel mittlerweile ganz gut auf ATi Karten rennt. (mal ins Benchmarkforum kucken)

UT2003/4 ist je nach Level, Auflösung AA/AF tw. auf ATis deutlich schneller. OpenGL ist NV Domäne, was aber sicher zu einem guten Teil daran liegt, dass 90% aller OpenGL Spiele auf id Engines aufbauen, die naturgemäß auf NV Karten optimiert sind. (was wohl daran liegt, dass zur 3dfx Zeit Ati nicht viel gebacken bekommen hat, und 3dfx sich einen sh1ce um Carmacks Wünsche gekümmert hat)

MadMan2k
2004-12-08, 18:35:53
OpenGL ist NV Domäne, was aber sicher zu einem guten Teil daran liegt, dass 90% aller OpenGL Spiele auf id Engines aufbauen, die naturgemäß auf NV Karten optimiert sind. (was wohl daran liegt, dass zur 3dfx Zeit Ati nicht viel gebacken bekommen hat, und 3dfx sich einen sh1ce um Carmacks Wünsche gekümmert hat)
Ich denke dass vielmehr die Ati-OGL Treiber Systemübergreifend scheiße sind, denn während Ati in UT2004 bei Benutzung des OGL-Renderes stark zurückfällt, werden die NV karten tendeziell schneller.

Joe
2004-12-08, 22:14:01
So ein Stuß!

UT2003/4 ist je nach Level, Auflösung AA/AF tw. auf ATis deutlich schneller.


OMG!

Wir reden hier von Praxis mit den Syntetischen Benchmarks auf 2048 mit 10000000X FSAA kannst mir vom Hals bleiben das Spielt doch kein Mensch!
Da hab ich dann mit ner NV Karte 10fps und mit ner ATI 12 WOW 20% SCHNELLER!!!!!

Vor kurzem hab ich da einen sehr schönen artikel glaub bei Hard OPC gelesen zu dem Thema labor bedingungen kontra wirklichkeit.
Wenn einer eine Grafikkarte kaufen will (so is zumindest bie mir) dann schaut er auf Deutliche Unterschiede in bestimmten Games wie zB Doom3 zu Gunsten NV oder Battlefield zu Gunsten ATI diese 0.01% Pixelfurzerrei kann man den Fanboys überlassen :)

BesenWesen
2004-12-09, 04:55:44
Hi, mal ne kleine frage, was wäre eigentlich wenn man half-life² komplet auf eine geforce fx optimiert? Also mit cinefx engine?

Würde es dann problemlos unter direct x9 laufen? oder was könnte man da eigentlich optimieren?

Es läuft ja schon ganz gut auf der FX, wenn man HL2 per 3D Analyzer eine Radeon R3xx vorgaukelt und FP16 erzwingt. Hätte Valve von vornherein die Shader so geschrieben, daß sie dem NV3x schmecken, würde das Ganze sicher noch besser oder sagen wir problemloser laufen... leider gibt es unter FP16 gelegentlich Grafikfehler, da die verminderte Präzision anscheinend nicht immer ausreicht, während permanente Full Precision zu langsam ist. Der Mix hätte es vielleicht schon gemacht :)
Man kann natürlich spekulieren, wie aktuelle Spiele, die Pixelshader 2.0 nutzen, auf dem NV3x performen würden, wenn Direct X9 so ausgefallen wäre, wie es sich Nvidia vorgestellt hat. Vermutlich ähnlich gut wie sich ATIs R3xx bis heute schlägt... Ein komplett auf CineFX optimiertes HL2 müsste zwangsläufig problemlos DirectX 9 Shader auf der GeforceFX rendern können, da es ja dann auf den Chip zugeschnitten wäre. Bei den Spielekonsolen ist es ja ähnlich... die Programmierer können den Grafikchip optimal ausnutzen und so noch nach Jahren erstaunliche Dinge aus uralter Hardware rausholen, da diese stets gleich bleibt. Beim Design von DirectX 9 hat ATI das Rennen gemacht, somit bleibt deren Architektur in Gestalt des R3xx das Maß der Dinge, während man mit dem NV3x tricksen muss, um auch nur annähernd ähnliche Ergebnisse zu erzielen.

geforce
2004-12-09, 12:30:58
Also ich hab Half-Life 2 das erste mal mit einer Geforce 2 GTS (32MB DDR) durchgespielt und die Performence war 1A, natürlich nur auf Direct X 7.0-Basis, aber Wayne? Es lief und darum gings, ich denk nicht das die 8500 da sooo extrem wegbricht, oder?

MfG Richard ;)