Archiv verlassen und diese Seite im Standarddesign anzeigen : CS in 32 bit Farbtiefe
StarVertex
2001-08-04, 16:28:34
Als ich letztens wieder mal ne PC-Games aufgeschlagen habe, sah ich CS Benchmark´s in 16 und 32 bit. Ich dachte HL und damit auch Counter Strike basiert auf der Quake1 Engine und beherscht nur 16 bit Rendering.
Wie geht das ? Wenn es stimmt, wo kann man es umstellen ?
Ich glaube per Kommandozeile, die cvar ist mir aber momentan nicht geläufig. Schau doch mal auf die Fansites - dort dürfte es eine Auflistung einschlägiger cvar und console-commandos geben.
Korak
2001-08-04, 19:25:24
Wenn du die Desktopfarbtiefe auf 32bit stellst läuft CS automatisch mit 32bit (der Geschwindigkeit nach zu urteilen) aber einen Unterschied seh ich da nich. Wenns noch ne Möglichkeit gibt kenn ich sie nich. :)
Leonidas
2001-08-04, 22:25:55
H:\Half-Life\hl.exe -console -32bpp -game cstrike
Korak
2001-08-05, 11:32:45
Ergibt das überhaupt Sinn??? Ich mein CS in 32bit. Sämtliche Texturen sind doch in 16bit oder???
Dmitriy Popov
2001-08-05, 11:35:17
ich habs mal in 32 bit auspobiert und festgellt: meine fps waren schlechter und optisch null unterschied.....
Korak
2001-08-05, 11:38:48
genau wie bei mir. Besonders die 'Smokes' drücken die Framerate dann gehörig in den Keller.
Legolas
2001-08-05, 11:42:13
Originally posted by Korak
Ergibt das überhaupt Sinn??? Ich mein CS in 32bit. Sämtliche Texturen sind doch in 16bit oder???
Nicht ganz richtig.. in Wirklichkeit haben Texturen in Half-Life nur 256 Farben, also 8Bit.. aber jede Textur hat ihre eigene Farbpalette.
Leonidas
2001-08-06, 20:51:22
Texturen- und Farbtiefe sind unterschiedliche Dinge. Mit der genannten Einstellung wird das Spiel im 32-Bit-Modus gerendert, ganz egal, welche Texturen da anliegen.
Legolas
2001-08-07, 00:50:43
Ja ich weiß, daß Texturfarbtiefe was anderes ist als die Farbtiefe mit der die Szene gerendert wird, aber es macht doch recht wenig Sinn ein Spiel in 32 Bit rendern zu lassen, wenn das Ausgangsmaterial nur in 8 Bit vorliegt. Den unterschied zw. 16 und 32 Bit sieht man dann nur bei Transparenzeffekten vielleicht ansatzweise.
Originally posted by Legolas
Ja ich weiß, daß Texturfarbtiefe was anderes ist als die Farbtiefe mit der die Szene gerendert wird, aber es macht doch recht wenig Sinn ein Spiel in 32 Bit rendern zu lassen, wenn das Ausgangsmaterial nur in 8 Bit vorliegt. Den unterschied zw. 16 und 32 Bit sieht man dann nur bei Transparenzeffekten vielleicht ansatzweise.
Das das Ausgangsmaterial nur in 8Bit vorliegt stimmt auch nicht unbedingt. Einfach "gl_ext_paletted_textures" auschalten und schon werden die Texturen in 16Bit konvertiert.
Und: TNT/TNT2 unterstuetzen keine 8 Bit Texturen (paletted textures), die muessen immer mit 16Bit Texturen rendern.
Also den einzigen Unterschied den ich da bemerkt habe sind die grauen Steine auf dem Boden in Italy. Sonst auch nix. Aber warum nicht wenn man die Power hat. ;D
Legolas
2001-08-19, 22:54:53
Originally posted by ow
Das das Ausgangsmaterial nur in 8Bit vorliegt stimmt auch nicht unbedingt. Einfach "gl_ext_paletted_textures" auschalten und schon werden die Texturen in 16Bit konvertiert.
Ändert aber nix daran, daß die Texturen als 8-Bit Bild abgespeichert werden. Wenn man jetzt künstlich die Farbanzahl auf 16-Bit erhöht, dann hat man im Endeffekt auch nur 8-Bit Qualität.
Leonidas
2001-08-21, 12:03:11
Originally posted by Legolas
Ja ich weiß, daß Texturfarbtiefe was anderes ist als die Farbtiefe mit der die Szene gerendert wird, aber es macht doch recht wenig Sinn ein Spiel in 32 Bit rendern zu lassen, wenn das Ausgangsmaterial nur in 8 Bit vorliegt. Den unterschied zw. 16 und 32 Bit sieht man dann nur bei Transparenzeffekten vielleicht ansatzweise.
Jo, richtig, der Unterschied ist gering. Bei Q3A sieht man das deutlicher: Da ergibt 16 Farbe + 16 Texturen, 16 Farbe + 32 Texturen, 32 Farbe + 16 Texturen und 32 Farbe + 32 Texturen jeweils unterschiedliche Qualitäten, die man auch (in Screenshots) nachweisen kann.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.