Archiv verlassen und diese Seite im Standarddesign anzeigen : Alte 16Bit Spiele und NV40 = mehr Banding?
Demirug
2005-11-05, 16:20:48
Im Rahmen eines kleines Projekts beschäftige ich mich gerade mit einem alten DirectX 6.1 Spiel. Das Spiel ist so alt das es nicht mal eine Option für einen 32 Bit Framebuffer hat und auch sonst nur 16 Bit Texturen verwendet. Die einzige Ausnahme sind Texturen mit 8 Bit Indizes auf eine Farbpalette die dann 32 Bit Farben enthält. So weit so gut nur sieht der Himmel in dem Spiel auf meiner 6800 GT schauderhaft aus. Ganz übles Banding. Meiner erster Gedanke war: „16 Bit Spiel das ist halt mal so“. Jetzt habe ich aber die 5900 eingebaut und siehe da das Banding ist weitgehend weg. Ich hatte nun die 8 Bit Index Texturen im Verdacht den diese werden vom NV40 aufwärts nicht mehr unterstützt. Eine Überprüfung hat aber ergeben das der Himmel immer nur mit 16 Bit Texturen gerendert wird.
Nun aber zu meiner Frage: Ist das sonst noch jemanden Aufgefallen das alte 16 Bit Spiele auf den 6er und 7er GeForce Karten verstärkt zum Banding neigen? Oder habe ich hier einen Sonderfall erwischt?
Es scheint irgendwie mit dem Dithering zusammen zu hängen.
PS: Bilder kommen gleich muss erst noch mal Karten tauschen.
5900:
http://img5.picsplace.to/img5/12/thumbs/FA18_5900_1.png (http://img5.picsplace.to/img.php?file=img5/12/FA18_5900_1.png)
6800:
http://img5.picsplace.to/img5/12/thumbs/FA18_6800_1.png (http://img5.picsplace.to/img.php?file=img5/12/FA18_6800_1.png)
AnarchX
2005-11-05, 18:12:26
Nun aber zu meiner Frage: Ist das sonst noch jemanden Aufgefallen das alte 16 Bit Spiele auf den 6er und 7er GeForce Karten verstärkt zum Banding neigen? Oder habe ich hier einen Sonderfall erwischt?
Das wurde auch schon in einem Voodoo-Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3634182#post3634182) im sonstigen Graka Forum bemerkt.
16bit ist ja aber nun auch nicht mehr wirklich ein Anwendungsgebiet für den NV40...
Das wurde auch schon in einem Voodoo-Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3634182#post3634182) im sonstigen Graka Forum bemerkt.
16bit ist ja aber nun auch nicht mehr wirklich ein Anwendungsgebiet für den NV40...
Schon klar, für eine 5900 aber irgendwie auch nicht mehr. Die Frage ist wieso das so ist... :confused:
Aber von großer Bedeutung ists wirklich nicht mehr...
Darthrox
2005-11-05, 20:41:43
allgemein finde ich das die neueren karten probleme mit älteren games hat ich kann mit meiner gf6800gt kein cs im openGL zocken -.-
woran kann das liegen die müssten ja eigentlich abwärtskompatibel sein und cs sind ja auch schon 32bit und n treiber prob isses net.
allgemein finde ich das sich die hersteller nicht nur auf die neusten sachen konzentrieren sollten sondern auch ein wenig inne vergangenheit gucken sollten
Spasstiger
2005-11-05, 20:44:58
Das Problem wurde schonmal hier im Forum diskutiert, hab aber keine Ahnung mehr, im Rahmen welchen Threads.
Der Voodoo-Thread ist auf jeden Fall ein guter Anhaltspunkt.
EDIT: GeForce 6-Reihe: 16 Bit-Qualität erfuhr eine Änderung (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=215438)
Genau -- ich hab' den Thread garnicht mehr gefunden. :) Das "Problem" wurde mit dem NV40 eingeführt, der Treiber scheint egal zu sein. Vielleicht haben die 3dfx-Ingenieure sich gedacht, dass man das "smoothe" Alpha-Blending, das schon bei den Voodoos so herrlich kacke aussah, einfach mal auch bei Nvidia zum Standard macht, um die hässlichen Rasterungen mit noch hässlicherem Banding bzw. schicken Farbverfälschungen zu bekämpfen ...
MfG,
Raff
Demirug
2005-11-05, 22:03:28
Ich habe in auch nicht gefunden. Aber das scheint ja dann wirklich ein allgemeines Problem zu sein.
Ich habe jetzt einfach einen 32 Bit Backbuffer erzwungen. Jetzt sieht es noch besser aus als vorher auf der 5900er.
Ich habe in auch nicht gefunden. Aber das scheint ja dann wirklich ein allgemeines Problem zu sein.
Ich habe jetzt einfach einen 32 Bit Backbuffer erzwungen. Jetzt sieht es noch besser aus als vorher auf der 5900er.
Wie macht man das?
Thanatos
2005-11-06, 14:57:05
allgemein finde ich das die neueren karten probleme mit älteren games hat ich kann mit meiner gf6800gt kein cs im openGL zocken -.-
Also an der graka liegt das sicher nicht, das funktioniert bei mri wunderbar, sogar mit 8xS + 16xAF (Anders ertrag ich den crap auf der lan nicht X-D)
Mr. Lolman
2005-11-06, 15:07:21
Genau -- ich hab' den Thread garnicht mehr gefunden. :) Das "Problem" wurde mit dem NV40 eingeführt, der Treiber scheint egal zu sein. Vielleicht haben die 3dfx-Ingenieure sich gedacht, dass man das "smoothe" Alpha-Blending, das schon bei den Voodoos so herrlich kacke aussah, einfach mal auch bei Nvidia zum Standard macht, um die hässlichen Rasterungen mit noch hässlicherem Banding bzw. schicken Farbverfälschungen zu bekämpfen ...
MfG,
Raff
Ne, da is noch mehr dahinter. Denn bei smoothen Alphablending gibts auf 3dfx Karten in keinem Fall Dithering. Beim NV40 ist das Dithering richtig übel. BTW: Nochmal die Screenshots aus dem Voodoothread nebeneinander:
http://img392.imageshack.us/img392/3629/q3vsa1005iu.th.png (http://img392.imageshack.us/my.php?image=q3vsa1005iu.png) http://img392.imageshack.us/img392/9237/q3nv404ds.th.png (http://img392.imageshack.us/my.php?image=q3nv404ds.png) http://img353.imageshack.us/img353/9918/q3nv159fi.th.png (http://img353.imageshack.us/my.php?image=q3nv159fi.png)
links: Voodoo5, FXT1
mitte: 6800GT, S3TC
rechts: Geforce 2 GTS, S3TC
edit: Hier sieht mans besser (3dfx/NV15 2xAA, NV40 8xS):
http://ho5t.us/display/c0f95eb502.png (http://ho5t.us/show.php?locm=c0f95eb502.png) http://ho5t.us/display/7b48b05ad0.png (http://ho5t.us/show.php?locm=7b48b05ad0.png) http://ho5t.us/display/0ef2f7e50a.png (http://ho5t.us/show.php?locm=0ef2f7e50a.png)
/edit2: Die 3dfx Screenshots sind mit Gamma 1.0 aufgenommen worden. Standard bei 3dfx ist 1.3...
Fusion_Power
2005-11-06, 15:17:47
Zu dem Thema kann ich auch einiges erzählen.
Ich habe eine GeForce3 und zocke oft ältere Games. Das mit dem color-banding fiel mir vor einigen Jahren erstmals auf, als ich von 3DfX vodoo /später geforce 1 auf geforce3 wechselte. Plötzlich sahen die texturen in Black&White total zum kotzen aus. Hab anfangs nie gemerkt, warum. Auch fiel mir die kinnlade runter als ich Unreal/ Tournament, Half-Life statt auf Vodoo2 plötzlich auf ner GeForce zockte.
Ich weiß nicht warum das genau so ist wie es ist aber z.B. Half-Life sah in 16Bit auf ner Vodoo2 um Welten besser aus als unter 32Bit auf ner GeForce3!
Gerade die Sky-Texturen wirkten plötzlich total "zerknüllt" und farbverfälscht.
Früher mit ner Vodoo2 hab ich Die texturen in Unreal immer bewundert, ebenso den Himmel. Selbst HL wirkte ok für mich. Aber seit der GeForce3 sehen die texturen eben aus wie... naja, schlecht angeklebte Bilder . ^^"
Und das phänomen setzte sich dann fort. ich hab UT2003/4 auf ner ATI Graka gezockt. Alles super. Aber auf meiner eigenen Geforce3 sehen manche Texturen total verpixelt/verwaschen/farbverfälscht aus und das unter 32Bit.
Das ist echt kein Zustand und ich frag mich, warum die Entwickler der grakas das nie hinbekommen haben. Unreal 2 sah stellenweise bei mir beinahe aus wie Quake 1, was die Texturqualität anging (ich wünschte ich könnt euch nen Screenshot zeigen)
Es geht wirklich verdammt viel Athmosphäre flöten, wenn ein Game so ausschaut. Bei Unreal mit Vodoo2 war alles "nahtlos" und ich konnte mir nie erklären, wie die das hinbekamen, die Wände, den Himmel, alles. Aber die miese Texturqualität ab Geforce enttarnt jedes game als "Tapetengrafik".
Gibts da keinen allgemeinen Fix?
Ich hoffe inständig, das es zumjindest die geforce 7er Serie wieder hinbekommt, texturen so darzustellen wie sie sein sollten. Ich bin da kein Experte aber niemand kann mir erzählen, das eine Antike Vodoo2 unter 16 Bit ne bessere Bildqualität liefert als ne GeForce7 unter 32 Bit.
Demirug
2005-11-06, 15:20:15
Wie macht man das?
Damit (http://www.nonatainment.de/web/DirectXTweaker/Allgemein/tabid/56/Default.aspx)
Ist allerdings bei DX 6 und DX 7 Spielen noch nicht sehr ausgereift.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.