PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Welche Shadersets gibts in HL2?


aths
2004-11-25, 17:11:48
Aus einem in Vorbereitung befindlichem Artikel:

"Pikant ist die Lage – nach unserem Kenntnisstand – beim Actionkracher Half Live 2. Weil man innerhalb eines 2.0-Pixelshaders kein FX12 einsetzen darf, gab es zunächst für die FX ein "gemischtes" Shaderset: Einfache Effekte werden mit DX8-Shadern gerendert, aufwändige Effekte mit DX9-Shadern. Selbstverständlich wurde, wo es sinnvoll war, in DX9-Pixelshadern das _PP-Flag gesetzt. Allerdings ist dieser Mischmodus entfernt worden. Die GeForce FX wird jetzt als DirectX8-Karte angesehen. Die Serie 6 geht als DirectX9-Karte durch, allerdings, soweit wir wissen, wurden aus den Shadern die _PP-Flags entfernt."

Allerdings weiß ich nicht, ob das überhaupt noch aktuell ist.

deekey777
2004-11-25, 18:04:59
Aus einem in Vorbereitung befindlichem Artikel:

"Pikant ist die Lage – nach unserem Kenntnisstand – beim Actionkracher Half Live 2. Weil man innerhalb eines 2.0-Pixelshaders kein FX12 einsetzen darf, gab es zunächst für die FX ein "gemischtes" Shaderset: Einfache Effekte werden mit DX8-Shadern gerendert, aufwändige Effekte mit DX9-Shadern. Selbstverständlich wurde, wo es sinnvoll war, in DX9-Pixelshadern das _PP-Flag gesetzt. Allerdings ist dieser Mischmodus entfernt worden. Die GeForce FX wird jetzt als DirectX8-Karte angesehen. Die Serie 6 geht als DirectX9-Karte durch, allerdings, soweit wir wissen, wurden aus den Shadern die _PP-Flags entfernt."

Allerdings weiß ich nicht, ob das überhaupt noch aktuell ist.


Half-Life 2 ;)

Klugscheißern macht Spaaaaß.
;(
Aber nicht die ganze FX-Serie wird als DX8.0-Grafikkarten angesehen, sondern die FX5800/5900 als Dx8.1 und der Rest als 8.0.

Demirug
2004-11-25, 18:24:02
5700er bekommen auch noch 8.1

tombman
2004-11-25, 21:29:14
hmm, um was geht es in dem Artikel?

Eine Regierungserklärung warum es so ist wie es ist? :D

aths
2004-11-25, 22:23:42
Half-Life 2 ;)

Klugscheissern macht Spaaaaß. ... und wird mit ß geschrieben :)

Aber nicht die ganze FX-Serie wird als DX8.0-Grafikkarten angesehen, sonder die FX5800/5900 als Dx8.1 und der Rest als 8.0.Das heißt, der angeblich entfernte Mischmodus ist vorhanden?

Spasstiger
2004-11-25, 23:14:39
PC Games Hardware hat die GeForce FX 5900 in der Source Engine mit einem DirectX 9 Mixed Modus getestet und kam auf brauchbare Performance (aber niedriger als mit DirectX 8.1).
Vielleicht solltest du mal bei denen anfragen, wie die das gemacht haben. Ich tippe ja auf 3DAnalyzer, aber vielleicht gibts ja auch nen Konsolenbefehl.

Demirug
2004-11-25, 23:17:44
PC Games Hardware hat die GeForce FX 5900 in der Source Engine mit einem DirectX 9 Mixed Modus getestet und kam auf brauchbare Performance (aber niedriger als mit DirectX 8.1).
Vielleicht solltest du mal bei denen anfragen, wie die das gemacht haben. Ich tippe ja auf 3DAnalyzer, aber vielleicht gibts ja auch nen Konsolenbefehl.

Schau mal wer da als Autor dabei steht. ;)

aths
2004-11-26, 03:23:29
Vielleicht hätte ich meine Frage präziser formulieren sollen.

Welche Shadersets sieht HL2 für GeForce FX vor?

- Rein DX8 (Shaderversion maximal 1.4)

- Mischmodus DX8/DX9? (Shaderversion 2.x, sowie für einige Effekte 1.x) Wenn es 2.x-Shader gibt, enthalten diese _PP-Hints?

mapel110
2004-11-26, 03:29:17
- Rein DX8 (Shaderversion maximal 1.4)

Richtig. Sogar Furz-Shader überfordern NV3x.
Da gibt's einfach keine Basis für Optimierungen, schon gar nicht bei "nicht mehr Furz"-Shadern.

"Treat NV3x as DX8 hardware" <- irgendwas falsch an dem Satz?

tja, hat sich zumindest bei HL2 bewahrheitet.

Demirug
2004-11-26, 07:29:38
Vielleicht hätte ich meine Frage präziser formulieren sollen.

Welche Shadersets sieht HL2 für GeForce FX vor?

- Rein DX8 (Shaderversion maximal 1.4)

>= 5700 8.1 (bis PS 1.4)
< 5700 8.0 (bis PS 1.1)

- Mischmodus DX8/DX9? (Shaderversion 2.x, sowie für einige Effekte 1.x) Wenn es 2.x-Shader gibt, enthalten diese _PP-Hints?

Gibt es nicht mehr. Alles nur noch noch 2.0 Shader ohne PP.

Simon Moon
2004-11-26, 15:35:35
... und wird mit ß geschrieben :)


Und was ist mit uns armen Schweizern, die kein doppel S besitzen? :wink:

Ontopic: Wie siehts eigentlich mit den Radeons aus? Ist da auch erst die X Serie DX9 "tauglich" oder schon ab der R9500?

Quasar
2004-11-26, 16:22:32
*der_ßchweiz_ein_weiteres_s_schenkt*

Die Radeon sind ab der 9500 durchgehendes PS2.0-Karten - denen würde es vermutlich auch wenig Speed bringen, auf PS1.x herunterzugehen, wenn damit dieselben Effekte dargestellt werden.

Jesus
2004-11-26, 16:54:16
PC Games Hardware hat die GeForce FX 5900 in der Source Engine mit einem DirectX 9 Mixed Modus getestet und kam auf brauchbare Performance (aber niedriger als mit DirectX 8.1).


Womit die Existenzberechtigung eines solchen Pfades in Frage gestellt werden kann.

Ich hoffe das wird nicht so ein "NV könnte es eigentlich viel besser wenn die böse IHVs nicht wären" Artikel ... :rolleyes:

Quasar
2004-11-26, 16:56:30
"Brauchbare Performance mit mehr Effekten" - was ist daran existenzunwürdig, zumal der Pfad bereits fertig war und nur nachträglich gecancelt wurde?

IVN
2004-11-26, 17:08:10
Womit die Existenzberechtigung eines solchen Pfades in Frage gestellt werden kann.

Ich hoffe das wird nicht so ein "NV könnte es eigentlich viel besser wenn die böse IHVs nicht wären" Artikel ... :rolleyes:

It's ISVs,if you want to write correctly? ;)


@on topic

I read in all those reviews,that in 8.1 path only the water has a hard edge,and all other details look the same(AA for shadows,LOD of bump maps,Q of textures and so on).Maybe all shaders could be left at 1.4 level and only the wather calculated with 2.a .This would stil be faster than a pure 2.0 shader path and look the same.

Mr. Lolman
2004-11-26, 17:09:47
Ich hoffe das wird nicht so ein "NV könnte es eigentlich viel besser wenn die böse IHVs nicht wären" Artikel ... :rolleyes:

:P :P :P

mapel110
2004-11-26, 17:43:25
Ich hoffe das wird nicht so ein "NV könnte es eigentlich viel besser wenn die böse ISVs nicht wären" Artikel ... :rolleyes:

Ich erwarte nichts anderes.

Jesus
2004-11-26, 18:03:45
Ich erwarte nichts anderes.

Dann erwarte ich aber auch einen "Warum ist ATI in HL2 schneller?" Artikel, der nicht auf etwaige Optimierungen eingeht, sondern auf HW spezifische besonderheiten (siehe D3 und Shaderreplacement) :biggrin:

Sonst wirds langsam aber sicher immer unglaubwürdiger... :rolleyes:

Gast
2004-11-26, 18:03:50
Und was ist mit uns armen Schweizern, die kein doppel S besitzen? :wink:


alt225

Coda
2004-11-26, 18:40:18
Dann erwarte ich aber auch einen "Warum ist ATI in HL2 schneller?" Artikel, der nicht auf etwaige Optimierungen eingeht, sondern auf HW spezifische besonderheiten (siehe D3 und Shaderreplacement)
Da wäre halt nicht viel zu schreiben. HL² ist ziemlich Füllratenlimitiert und ATi hast halt deutlich mehr Chiptakt die sie in Füllrate umsetzen können.

Jesus
2004-11-26, 18:43:59
Da wäre halt nicht viel zu schreiben. HL² ist ziemlich Füllratenlimitiert und ATi hast halt deutlich mehr Chiptakt die sie in Füllrate umsetzen können.

Das ist etwas zu einfach, da selbst eine X800 pro mit deutlich weniger Füllrate (und Speicherbandbreite) als eine 6800 Ultra teilw. deutlich schneller als diese ist.

Spasstiger
2004-11-26, 18:57:29
Das ist etwas zu einfach, da selbst eine X800 pro mit deutlich weniger Füllrate (und Speicherbandbreite) als eine 6800 Ultra teilw. deutlich schneller als diese ist.

Im Großen und Ganzen besteht aber auch bei HL2 die übliche Reihenfolge, Radeon X800 Pro, GeForce 6800 GT, GeForce 6800 Ultra, Radeon X800 XT.
Ich hab jedenfalls noch keine Benches gesehen, wo die Radeon X800 Pro tatsächlich vor einer GeForce 6800 Ultra liegt. Hab mich dahingehend aber auch noch nicht wahnsinning informiert.

Quasar
2004-11-26, 19:01:12
Das ist etwas zu einfach, da selbst eine X800 pro mit deutlich weniger Füllrate (und Speicherbandbreite) als eine 6800 Ultra teilw. deutlich schneller als diese ist.

Das stimmt auffallend! :)
Welches geheime HW-Feature der Radeon ist wohl dafür verantwortlich? *gruebel*

deekey777
2004-11-26, 19:03:15
Das stimmt auffallend! :)
Welches geheime HW-Feature der Radeon ist wohl dafür verantwortlich? *gruebel*


SM 3.0??? :|

IVN
2004-11-26, 19:04:33
Das stimmt auffallend! :)
Welches geheime HW-Feature der Radeon ist wohl dafür verantwortlich? *gruebel*

The feature called 16000000 $. ;D or valve water shader cheap 2.0.

Jesus
2004-11-26, 19:21:39
The feature called 16000000 $. ;D or valve water shader cheap 2.0.

or the problems a nv40 has running many short shaders... or some calculations that need less gpu cycles on a r420 etc. ...

not everything is black and white ;)

Jesus
2004-11-26, 20:24:01
Im Großen und Ganzen besteht aber auch bei HL2 die übliche Reihenfolge, Radeon X800 Pro, GeForce 6800 GT, GeForce 6800 Ultra, Radeon X800 XT.
Ich hab jedenfalls noch keine Benches gesehen, wo die Radeon X800 Pro tatsächlich vor einer GeForce 6800 Ultra liegt. Hab mich dahingehend aber auch noch nicht wahnsinning informiert.

hier

http://firingsquad.com/hardware/half-life_2_athlon_xp/page6.asp

oder hier

http://www.xbitlabs.com/articles/video/display/half-life_6.html

selbst in der niedrigsten Auflösungen ohne AA und AF, wo Füllrate etc. keine Rolle spielen sollte. Aber genauso in den sehr hohen Auflösungen mit max AA / AF wo sie eigentlich eine Rolle spielt, aber es scheinbar nicht tut weil was anderes "bremst" ;)

oder hier (man beachte die wunderbar sichtbare GPU limitierung) (Canals water wieder mal):

http://firingsquad.com/hardware/half-life_2_athlon_xp/images/canals1600aa.gif

Coda
2004-11-26, 20:36:52
Das ist eine gute Frage, vielleicht sind die Shader doch zu sehr auf ATi zugeschnitten. Auf jeden Fall glaube ich kaum, dass die PS der ATi Karten NV40 noch überlegen sind. Zumindest gibt es genügend Beispiele wo das nicht der Fall ist.

Aber who cares, HL² läuft bei mir auch auf 1600/4xAA/8xAF noch flüssig auf meiner 6800 Ultra, das reicht mir ;)
Zuvor hatte ich ne 9700 Pro, die war genauso toll. Mir ist eigentlich der Vendor egal solang die Features passen.

Jede Hardware verhällt sich leicht anders, man kann auch x86 Code schreiben der AMD überhaupt nicht schmeckt und andersrum, verhällt sich bei Grafikkarten ähnlich (und dort nicht nur bei den Shadern sondern auch in anderen Sachen)

Und durch R300 hat ATi bei den derzeitigen Spielen wohl etwas die Nase vorne was die Entwicklungsplatform betrifft, wird sich durch NV40 wohl wieder stark ändern (zumindest zeigen das Polls auf Coder-Seiten)

Dein Auftreten ist schon ziemlich Fanboy mäßig, hat dir das mal jemand gesagt? Du hällst dich an jedem Grashalm fest solang er pro-ATi ist.

Jesus
2004-11-26, 21:02:08
Dein Auftreten ist schon ziemlich Fanboy mäßig, hat dir das mal jemand gesagt? Du hällst dich an jedem Grashalm fest solang er pro-ATi ist.


Bevor ich diesen sinnfreien Beitrag melde:

lol, sorry, aber es geht mir hier eigentlich darum was da wohl für ein toller (pro NV) Artikel kommt...

Ich finde es reicht langsam damit. Es geht mir hier auch nicht darum zu beweisen das ATI super toll und auf jeden Fall besser ist bei HL2, sondern warum es so ist, wie es jetzt ist.

Ich glaube kaum dass man Shader schreiben kann die eine Hardware total bevorzugen, sodass sie plötzlich fast doppelt so schnell wie die andere wird, obwohl sie in den meisten Spielen gleichauf liegen und dann auch noch einen sinnvollen Grafik Output dabei bekommt ( nur schreiben kann man sie sicher, keine Frage).

Ich lasse mich gerne eines besseren belehren, wenn sich herausstellt das Valve NV Karten irgendwie ausbremsen sollte, aber ich möchte nicht wieder irgendwelche theoretischen Halbwahrheiten lesen die sich dann hinterher als grösstenteils irrelevant herausstellen (siehe D3 Artikel)...

Edit: hier hab ich noch 2 , x800 pro trotz 16x zu 8x AF deutlich schneller als die 6800 Ultra (canals):

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2485112&postcount=63

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2485216&postcount=64

Coda
2004-11-26, 21:07:14
Das mit der X800 Pro bringt mich auch aus dem Konzept, die ATI Karten kommen wohl mit kurzen Shadern und vielen Texturesamples sehr viel besser zurecht als NV40. NV40 ist wohl schon eher auf längere Shader getrimmt...

Das NV30 so schlecht abschnitt lag wohl erwießenermaßen daran das nVidia die Direct3D Specs falsch eingeschätzt hat und auf FX12 gesetzt hat (auf FX12 läuft das Ding nämlich nicht langsamer als R300 sondern eher schneller).
Aus Fehlern lernt man. Und diesmal hatte nVidia die Direct3D Specs sehr genau und NV40 sieht auch sehr darauf zugeschnitten aus (zeigt auxg auch an den OpenGL Extensions).

Deshalb glaube ich nicht an eine allgemeine Schwäche, nVidia hat genauso fähige Engineers.

Godmode
2004-11-26, 23:53:23
Ich bin einfach auf die nächsten Top Titel gespannt, wie Stalker oder ein Titel mit Unreal 3 Engine(*EDIT:ok U3 kommt erst irgendwann*). Ob es da auch eher schlecht für den NV40 aussieht oder er eher im Vorteil sein wird. Bei FarCry und HL2 ist es ja eher umgekehrt. Aber man wird ja sehn, vielleicht kommen die Entwickler einfach noch nicht klar mit der NV40 Architektur und wissen einfach noch nicht wirklich Bescheid, wie sie diese GPU zu programmieren haben. Wie schauts in HL2 eigentlich mit Renderpfaden aus? Gibts da einen für alle DX9 GPUs oder bekommt die Radeon(Xxxx) was anderes vorgesetzt als die Geforce(6xxx)?

Ich würde ja mal sagen wenn man die NV40 Serie mit optimalen Code füttern würde, würde sicherlich das Bild anders aussehen, also in etwa ein Gleichstand zwischen ATI und Nvidia. Vielleicht war es Valve einfach zu teuer um eigene Renderpfade zu implementieren.(oder sie wollten gar keine anderen, da ja sonst ATI keinen Performance Vorteil in HL2 mehr hätte).

Ich erwarte mir ehrlichgesagt auch von einem SM3.0 Patch nichts, denn es wird auf das selbe rauskommen wie bei FC, nachträglich hineingepfuscht.

Naja wir werden ja sehn wie sich das Ganze entwickeln wird.

LovesuckZ
2004-11-27, 00:14:53
Ich glaube kaum dass man Shader schreiben kann die eine Hardware total bevorzugen, sodass sie plötzlich fast doppelt so schnell wie die andere wird, [...]

Es gibt Shader, die laufen auf der Topmodernen ATi Hardware nicht.
Die Firma hatte Glueck, dass das Minimum vom DX9 Modell an ihre Hardware angepasst wurde.

Ich lasse mich gerne eines besseren belehren, wenn sich herausstellt das Valve NV Karten irgendwie ausbremsen

Ist es schon oder wo ist der angepriesende FX Pfad?

Spasstiger
2004-11-27, 00:40:13
hier

http://firingsquad.com/hardware/half-life_2_athlon_xp/page6.asp

oder hier

http://www.xbitlabs.com/articles/video/display/half-life_6.html

selbst in der niedrigsten Auflösungen ohne AA und AF, wo Füllrate etc. keine Rolle spielen sollte. Aber genauso in den sehr hohen Auflösungen mit max AA / AF wo sie eigentlich eine Rolle spielt, aber es scheinbar nicht tut weil was anderes "bremst" ;)
[...]


Das Wasser aus den Canals Map scheint den Radeons wirklich zu liegen. Die Benchmarks, die ich kannte, waren wohl von anderen, weniger shaderlastigen Levels und hier bestand die übliche Rangfolge (X800 Pro hinter 6800 GT und 6800 Ultra).

mapel110
2004-11-27, 00:46:02
Ist es schon oder wo ist der angepriesende FX Pfad?

Der FX-Pfad würde auf dem NV40 sogut wie nichts bringen.

IVN
2004-11-27, 01:54:05
Der FX-Pfad würde auf dem NV40 sogut wie nichts bringen.

If this path uses fp16,it would bring performance.As you see for most shaders is even fx12 precision enough to produce the same IQ as FP16/24 or 32.
I tested some shaders in FxComposer and there you can get 10-25% performance with fp16 without losing IQ.If you just compile the shader with an other shader model the difference is very small.(less then 1%)

mapel110
2004-11-27, 02:03:41
I tested some shaders in FxComposer and there you can get 10-25% performance with fp16 without losing IQ.If you just compile the shader with an other shader model the difference is very small.(less then 1%)

tested on NV40?

Ich dachte, der NV40 hätte keine FP32-Schwäche mehr?!

IVN
2004-11-27, 02:04:38
tested on NV40?

Yes.

IVN
2004-11-27, 02:11:10
Ich dachte, der NV40 hätte keine FP32-Schwäche mehr?!

FP32 is large,and those registers are surely very bad for the transistor buget.Maybe ATI will solve that problem in the future? :confused:
I'm not sure if my memory is playing games with me,but i think i heard something about a better support for FP16 (nv40) here in the forum.

aths
2004-11-27, 06:42:25
tested on NV40?

Ich dachte, der NV40 hätte keine FP32-Schwäche mehr?!Hat er auch nicht, aber eine FP16-Stärke :) Einige Details dazu folgen im angesprochenen Artikel der in Vorbereitung ist.

betasilie
2004-11-27, 06:44:57
Hat er auch nicht, aber eine FP16-Stärke :) Einige Details dazu folgen im angesprochenen Artikel der in Vorbereitung ist.
Oioioi. Jetzt willst Du also niedrigere Featuresets und deren Performance hervorkehren, wo Du doch immer die technologische Überlegenheit beim NV40 popagierst. :uclap:

Demirug
2004-11-27, 09:23:26
FP16 bringt bei HL2 nicht wirklich grossartig etwas. Entweder enthalten die benutzen Shader nicht genügend Stellen mit Ops die bei FP16 beschleunigt werden oder der Flaschenhals ist nicht die Rechenleistung.

Edit: PS: Ich meine jetzt beim NV40. Wenn ich es schaffe meinen Zeitplan wieder einzuholen baue ich noch den NV35 ein und teste nochmal.

Quasar
2004-11-27, 10:41:21
Saubere Arbeit! :up:

Chris Lux
2004-11-27, 10:42:35
Oioioi. Jetzt willst Du also niedrigere Featuresets und deren Performance hervorkehren, wo Du doch immer die technologische Überlegenheit beim NV40 popagierst. :uclap:

Oioioi. ;) erstens fp24 bei radeons. zweitens ist fp16 kein niedrigeres featureset, denn für farbberechnungen sind sie derzeit mehr als ausreichend, gerade bei hl2, wo nicht wirklich HDR gerendert wird. dazu sind für diese datentypen spezielle operationen vorhanden (beispielsweise das normalisieren eines fp16 vektors...). also bitte ;). drittens, warum arbeitet ILM mit diesem datentyp (OpenEXR AFAIR unabhängig von nvidia entwickelt), wenn er doch so niedrige qualität hat, dann möcht ich mir episode3 nicht ansehen müssen.

Demirug
2004-11-27, 12:25:25
Ich war mal so frei und habe den NV35 eingebaut (zum VS 2.0 debuggen reicht der heute Mittag auch).

1024*768 4xAA 8xAF Alles auf maximum mit NV40/R420 DX9 Modus(da ist die Sichtweite etwas höher).

d1_canals_09 legt um 49% zu. Eine Demo von der PCGH (wollte was neutrales benutzen) um 39%. Beim VST hatte ich +50%. Bei Wasserflächen (die PCGH Demo ist trocken) bringt FP16 also scheinbar etwas mehr.

Möglicherweise ist noch etwas Spielraum wenn man nicht nur auf FP16 herunter geht sondern Shader wo dies möglich ist auf 1.X konvertiert. Dafür ist das Tool aber noch nicht ganz fertig.

Coda
2004-11-27, 12:56:00
drittens, warum arbeitet ILM mit diesem datentyp (OpenEXR AFAIR unabhängig von nvidia entwickelt), wenn er doch so niedrige qualität hat, dann möcht ich mir episode3 nicht ansehen müssen.
Weil das Datenformat nix mit den Berechnungen zu tun haben. Software Renderer arbeiten mindestens mit FP32, weil die CPUs gar nicht weniger bieten.

Aber bei HL² hätte durchgängig FP16, wenn nicht FX12 ausgereicht.

Quasar
2004-11-27, 12:56:25
Ich war mal so frei und habe den NV35 eingebaut[..]

.....2 Minuten für den GPU-Bench??? *bettel*

Demirug
2004-11-27, 13:11:37
.....2 Minuten für den GPU-Bench??? *bettel*

Hab ich dir doch schon geschickt. Die Werte sind allerdings verwirrend was wohl aufgrund der Messmethoden zustande kommt.

Quasar
2004-11-27, 13:17:04
Thx! (Du weisst doch, daß ich Mails nur auf Zuruf nachsehe...)

betasilie
2004-11-27, 15:06:03
Oioioi. ;) erstens fp24 bei radeons. zweitens ist fp16 kein niedrigeres featureset, denn für farbberechnungen sind sie derzeit mehr als ausreichend, gerade bei hl2, wo nicht wirklich HDR gerendert wird. dazu sind für diese datentypen spezielle operationen vorhanden (beispielsweise das normalisieren eines fp16 vektors...). also bitte ;). drittens, warum arbeitet ILM mit diesem datentyp (OpenEXR AFAIR unabhängig von nvidia entwickelt), wenn er doch so niedrige qualität hat, dann möcht ich mir episode3 nicht ansehen müssen.
Mir musst Du das nicht sagen. Ich bin der selben Meinung. :)

Chris Lux
2004-11-27, 16:59:13
Mir musst Du das nicht sagen. Ich bin der selben Meinung. :)
sorry dann muss ich meinen sarkasmusdetektor doch wieder zurückgeben ;)

Xmas
2004-11-27, 21:21:37
[...]oder der Flaschenhals ist nicht die Rechenleistung.

Edit: PS: Ich meine jetzt beim NV40.
Wovon ich, wie schon in einem anderen Thread geschrieben, sowieso ausgehe.

NV4x bricht ja offensichtlich bei Reflect All statt Reflect World stark ein (Reviews mit Reflect World bescheinigen NV4x IIRC sehr konkurrenzfähige Leistung). Nur sehe ich keinen Grund, warum Reflect All mehr Rechenleistung im PS beanspruchen sollte.

Demirug
2004-11-27, 21:28:21
Wovon ich, wie schon in einem anderen Thread geschrieben, sowieso ausgehe.

NV4x bricht ja offensichtlich bei Reflect All statt Reflect World stark ein (Reviews mit Reflect World bescheinigen NV4x IIRC sehr konkurrenzfähige Leistung). Nur sehe ich keinen Grund, warum Reflect All mehr Rechenleistung im PS beanspruchen sollte.

Ich suche ja gerade noch einen Bug in meinem Visuellen DX Debugger der bisher nur in Verbidnung mit HL2 aufgetreten ist. Sobald ich das Problem beseitigt habe kann ich mir mal anschauen wo der Unterschied zwischen All und World genau liegt.

aths
2004-11-28, 01:07:10
Oioioi. Jetzt willst Du also niedrigere Featuresets und deren Performance hervorkehren, wo Du doch immer die technologische Überlegenheit beim NV40 popagierst. :uclap:Das "kostenlose" NRM_PP ist sicherlich als Vorteil zu werten, nicht? Das ist kein "niedrigeres" Featureset, sondern eine Zusatzleistung zur FP32-Arithmetik.

aths
2004-11-28, 01:09:46
d1_canals_09 legt um 49% zu. Eine Demo von der PCGH (wollte was neutrales benutzen) um 39%. Beim VST hatte ich +50%. Bei Wasserflächen (die PCGH Demo ist trocken) bringt FP16 also scheinbar etwas mehr.Ich denk, NV35 wird als DX8-Karte gesehen. Wieso bringt da FP16 so viel – angesichts der paar 1.4-er Shader.

Quasar
2004-11-28, 01:19:27
Man kann sie doch auch zum DX9-Modus überreden.... :rolleyes:

betasilie
2004-11-28, 03:32:30
Das "kostenlose" NRM_PP ist sicherlich als Vorteil zu werten, nicht? Das ist kein "niedrigeres" Featureset, sondern eine Zusatzleistung zur FP32-Arithmetik.
Ich lass mich mal von deinem Artikel überraschen. ;)

aths
2004-11-28, 04:33:38
Ich lass mich mal von deinem Artikel überraschen. ;)Er wird dir nicht gefallen. Aber du hast mich auf die Idee gebracht, NRM_PP noch zu erwähnen.

betasilie
2004-11-28, 04:36:50
Er wird dir nicht gefallen.
Wieso?

reunion
2004-11-28, 15:04:49
d1_canals_09 legt um 49% zu. Eine Demo von der PCGH (wollte was neutrales benutzen) um 39%. Beim VST hatte ich +50%. Bei Wasserflächen (die PCGH Demo ist trocken) bringt FP16 also scheinbar etwas mehr.


Und wie siehts im Verhältnis zum R350 und zum Dx8 Modus aus?
Ähnlich wie bei den vorabbenchs wo ja dieser "mixed-Mode" auch drin war?

IVN
2004-11-28, 16:09:30
Und wie siehts im Verhältnis zum R350 und zum Dx8 Modus aus?
Ähnlich wie bei den vorabbenchs wo ja dieser "mixed-Mode" auch drin war?

I think there are only 2 shaders in the game that really need 2.0 PS.
The 1st one is the water shader,and the 2nd one is that shield sheder,that you can see on the beach .

Demirug
2004-11-28, 17:08:00
Und wie siehts im Verhältnis zum R350 und zum Dx8 Modus aus?
Ähnlich wie bei den vorabbenchs wo ja dieser "mixed-Mode" auch drin war?

Mit einem R350 kann ich gerade nicht diehen (habe nur noch einen R300/R420 in einem anderen Rechner) aber für d1_canals_09 bekommst ja überall Zahlen.

Der DX8 Modus ist natürlich schneller aber was soll das beweisen? Das die FXen mit PS 2.0 so ihere Probleme haben ist ja nichts neues.

Der original "Mixed-Mode" ist übrigens ein anderer gewesen als das was ich gemacht habe.

Benedikt
2004-11-28, 18:14:42
I think there are only 2 shaders in the game that really need 2.0 PS.
The 1st one is the water shader,and the 2nd one is that shield sheder,that you can see on the beach . The shader for the "wooden doors with glass windows" does also look like a PS2.0-shader (of course I don't know it for sure). And what about the magnifying-glasses (e. g. in Kleiner's Lab)? Would be interesting to know which surfaces/objects in Half-Life 2 really "use" PS2.0 shaders.

Greetings,
B. W.

sepperator
2004-11-28, 20:15:28
The shader for the "wooden doors with glass windows" does also look like a PS2.0-shader (of course I don't know it for sure). And what about the magnifying-glasses (e. g. in Kleiner's Lab)? Would be interesting to know which surfaces/objects in Half-Life 2 really "use" PS2.0 shaders. Also diese Tür- und Lupen-Shader laufen auf meiner Geforce4 TI auch. Und ich kann nicht wirklich einen Unterschied bei den zweien zu einem PS2.0 Screenshot entdecken (Im Gegensatz zum Wasser z.B.).

Godmode
2004-11-28, 20:25:11
also ich hab mir dieses Wochenende HL2 auf meinem alten Rechner, den jetzt mein kleiner Bruder hat angesehn (XP2600+ und GF4TI4800SE) und muss sagen von der Qualität her ist es nicht viel schlechter als auf meinem Rechner, bis auf AA natürlich.

IVN
2004-11-28, 20:30:54
The shader for the "wooden doors with glass windows" does also look like a PS2.0-shader (of course I don't know it for sure). And what about the magnifying-glasses (e. g. in Kleiner's Lab)? Would be interesting to know which surfaces/objects in Half-Life 2 really "use" PS2.0 shaders.

Greetings,
B. W.

No,i'm talking about shaders that can't be realized without PS2.0.And not about those that really use 2.0 .(wich could be realized with a lower SM)