PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 16 -vs.- 32 Bit


dav133
2004-01-05, 09:21:28
Also wenn man unter Win als Farbtiede 32 Bit wählt, ein Spiel aber mit 16 ausführt (und umgekehrt), passieren hässliche Bildfehler (und D3d)
Wenn ich beides synchron hab, funzts iO. Macht das überhaupt von der Perormance was aus ob 32 oder 16Bit? Ist mein Prob normal?

R300
2004-01-05, 10:39:06
Wie kann man sich nur 16Bit antun? Das sieht voll zum kotzen aus.:kotz:
Bei deiner Grafikkarte kannst du immer 32Bit verwenden.
Bei der gibts kein Performance Unterschied zwischen 32 und 16 Bit.

mapel110
2004-01-05, 11:16:34
Original geschrieben von R300
Bei der gibts kein Performance Unterschied zwischen 32 und 16 Bit.

da wäre ich mir nicht so ganz sicher. hab aber auch noch keine 16bit-benchmarks einer 9x00er gesehen.
wäre sicher mal interessant.

imagine
2004-01-05, 12:58:11
Vielleicht bin ich ja farbenblind o.ä. aber ich hab noch nie einen Unterschied zwischen 16 und 32bit erkennen können. Dementsprechend laufen sowohl alle Spiele als auch der Desktop unter 16bit.

Black-Scorpion
2004-01-05, 13:08:54
Alle aktuellen Karten/Treiber sind auf 32Bit Farbtiefe optimiert.
Afaik kann es sogar sein das die Karten unter 16Bit etwas langsamer sind.
Es gibt heute keinen Grund den Desktop und Spiele mit 16Bit laufen zu lassen.

Gast
2004-01-05, 13:09:54
Original geschrieben von imagine
Vielleicht bin ich ja farbenblind o.ä. aber ich hab noch nie einen Unterschied zwischen 16 und 32bit erkennen können. Dementsprechend laufen sowohl alle Spiele als auch der Desktop unter 16bit.

Wa? Ich hab unter 16bit immer (egal was fürne Karte)
nen grausamen Raster effekt (zb Q3 rocketnebel, schatten bei OFP,DX1).
Ich hab nicht so die ahnung daher kann ich nicht mit Fachbegriffen um mich werfen aber daran liegen tut es aufjedenfall. ;)
Sogar unter Windows stört mich 16bit zb: -->dunkel zu hellblau oben an einem Fenster.

R300
2004-01-05, 13:33:09
Original geschrieben von Anonym_001
Alle aktuellen Karten/Treiber sind auf 32Bit Farbtiefe optimiert.
Afaik kann es sogar sein das die Karten unter 16Bit etwas langsamer sind.
Es gibt heute keinen Grund den Desktop und Spiele mit 16Bit laufen zu lassen.

Genau das habe ich bei 3DMark 2001 festgestellt.
Ich hatte bei 16Bit ca. 300 Punkte weniger als bei 32 Bit.

R300
2004-01-05, 13:53:03
Original geschrieben von imagine
Vielleicht bin ich ja farbenblind o.ä. aber ich hab noch nie einen Unterschied zwischen 16 und 32bit erkennen können. Dementsprechend laufen sowohl alle Spiele als auch der Desktop unter 16bit.

Guckmal, ob du bei den beiden Bildern einen Unterschied siehst.
http://www.ystart.net/upload/20040105/1073307085.jpg
http://www.ystart.net/upload/20040105/1073307167.jpg

imagine
2004-01-05, 15:13:45
Wenn man sie direkt im Vergleich betrachtet schon, aber während dem Spielen könnte ich dir nicht sagen ob ich ez grade unter 16 oder 32bit spiele.

harkpabst_meliantrop
2004-01-07, 00:12:08
Original geschrieben von Gast
Sogar unter Windows stört mich 16bit zb: -->dunkel zu hellblau oben an einem Fenster.
Da kann ich definitiv keinen Unterschied feststellen ... :|

Gast
2004-01-07, 02:38:19
Original geschrieben von Gast
Wa? Ich hab unter 16bit immer (egal was fürne Karte)
nen grausamen Raster effekt (zb Q3 rocketnebel, schatten bei OFP,DX1).
Ich hab nicht so die ahnung daher kann ich nicht mit Fachbegriffen um mich werfen aber daran liegen tut es aufjedenfall. ;)
Sogar unter Windows stört mich 16bit zb: -->dunkel zu hellblau oben an einem Fenster.

ROFL zu geil was sich hier für daus rumtreiben, keine Ahnung von tuten und blasen. Bei den hier gemeinten 16 und 32 Bit handelt es sich um die, Achtung, jetzt aufpassen FARBTIEFE. Wenn ihr 16 Bit wählt steht ein viel geringeres Spektrum an Farben zur Verfügung die wenn man was im Hirn hat auch für jeden erkennbar sind. Artefakte an/in Farbüberläufen, Fehlfarbdarstellung zur kompensierung des nicht vorhandenen Farbtons usw. wem das nicht auffällt der kann locker mit ner ur ur ur alten Grafikkarte spielen und dem dürfte sicher auch ruckeln ein unerklärlicher Begriff sein.

Gast
2004-01-07, 02:42:24
Original geschrieben von harkpabst_meliantrop
Da kann ich definitiv keinen Unterschied feststellen ... :|

Dann haste entweder a) keine Augen im Kopf
bist b) stark Sehbehindert
c) hast einen so schrecklichen Monitor das ohnehin nichts zu erkennen ist
oder hast d) vergessen deinen PC einzuschalten

Argo Zero
2004-01-07, 02:44:28
Original geschrieben von Gast
Dann haste entweder a) keine Augen im Kopf
bist b) stark Sehbehindert
c) hast einen so schrecklichen Monitor das ohnehin nichts zu erkennen ist
oder hast d) vergessen deinen PC einzuschalten

oder
e) ein gui ohne Transparenz ;).

StefanV
2004-01-07, 03:23:43
Original geschrieben von dav133
Also wenn man unter Win als Farbtiede 32 Bit wählt, ein Spiel aber mit 16 ausführt (und umgekehrt), passieren hässliche Bildfehler (und D3d)
Wenn ich beides synchron hab, funzts iO. Macht das überhaupt von der Perormance was aus ob 32 oder 16Bit? Ist mein Prob normal?

Hast du FSAA an??

Wenn ja, dann könnte das die Fehler erklären...

WObei die Radeons (unter D3D) bei 16bit Farbtiefe der Anwendung und aktiviertem FSAA die Verwendung von 32bit Farbtiefe erzwingt, da das FSAA sonst nicht funzen würde...

PS: kann mich meinen Vorrednern nur anschließen, 16bit lohnt ab der GF3 (bzw Radeon) nicht mehr, da die Bandbreiten schonenden Maßnahmen auf 32bit Farbtiefe ausgelegt sind und bei 16bit u.U. nicht mehr zuverlässig funktionieren, weshalb sie meist deaktiviert sind...

dav133
2004-01-07, 10:56:03
thx für die vielen antworten. also kein FSAA an, aber die erkenntnis, nie mehr unter 16 Bit zu spielen. Unter Win macht das bei mir keinen unterschied. Aber egal, ich werde mal nen bench machen.

harkpabst_meliantrop
2004-01-07, 17:28:49
Original geschrieben von Gast
Dann haste entweder a) keine Augen im Kopf
bist b) stark Sehbehindert
c) hast einen so schrecklichen Monitor das ohnehin nichts zu erkennen ist
oder hast d) vergessen deinen PC einzuschalten
Alles verkehrt, mein kleines Gästchen. Aber natürlich kein Spielzeug, sondern ein ganz normales Windows 2000. Und wer mir da erzählen will, er würde im Farbverlauf des Fenstertitels einen Unterschied zwischen 16 und 32 Bit Farbtiefe sehen, mit dem mache ich gerne einen Blindtest. Um eine Kiste Frankenheim.

Argo Zero
2004-01-07, 17:39:18
Mein OS: Windows 2000

16Bit:
http://argozero.bei.t-online.de/poc/16Bit.jpg

32Bit:
http://argozero.bei.t-online.de/poc/32Bit.jpg


Ne Kiste Frankenheim sagtest du? ;D

[dzp]Viper
2004-01-07, 17:44:26
Original geschrieben von harkpabst_meliantrop
Alles verkehrt, mein kleines Gästchen. Aber natürlich kein Spielzeug, sondern ein ganz normales Windows 2000. Und wer mir da erzählen will, er würde im Farbverlauf des Fenstertitels einen Unterschied zwischen 16 und 32 Bit Farbtiefe sehen, mit dem mache ich gerne einen Blindtest. Um eine Kiste Frankenheim.

man sieht einen unterschied - siehe auch Argo´s 2 bilder

wenn du die nicht siehst, dann solltest du vielleicht mal zum augenarzt gehen - nicht wir :D

dav133
2004-01-08, 13:53:32
also hat sich die sache erledigt, da ja eh alles für 32Bit optimiert wird. Was ist überhaupt mit 64Bit? Kommt da nochwas?

imagine
2004-01-08, 16:49:06
Ja wenn du in der Lage bist einen Unterschied zwischen Farbverläufen mit 4 Milliarden und Verläufen mit 3 Trillionen verschiedenen Farben zu erkennen, wird sicher bald 64bit auf dem Desktop Einzug erhalten.
Spaß beiseite: In der Realität hast du natürlich unendlich viele verschiedene Farbtöne, eine Farbtiefe von 32 Bit bietet jedoch schon über 4 Milliarden verschiedene Abstufungen, so dass die Unterschiede zwischen den einzelnen Farbtönen so winzig sind dass du sie nicht mehr erkennen kannst. Man spricht deshalb auch von "True Color", also echten, realen Farbverläufen. Es wär zwar technisch möglich die Farbtiefe noch weiter zu erhöhen, es macht aber keinen Sinn, weil das menschliche Auge keinen Unterschied erkennen könnte. Und wehe es sagt ez jemand er kann mehr als 4 Milliarden verschiedener Farben erkennen.

Gast
2004-01-08, 17:22:59
Original geschrieben von Gast
ROFL zu geil was sich hier für daus rumtreiben, keine Ahnung von tuten und blasen. Bei den hier gemeinten 16 und 32 Bit handelt es sich um die, Achtung, jetzt aufpassen FARBTIEFE. Wenn ihr 16 Bit wählt steht ein viel geringeres Spektrum an Farben zur Verfügung die wenn man was im Hirn hat auch für jeden erkennbar sind. Artefakte an/in Farbüberläufen, Fehlfarbdarstellung zur kompensierung des nicht vorhandenen Farbtons usw. wem das nicht auffällt der kann locker mit ner ur ur ur alten Grafikkarte spielen und dem dürfte sicher auch ruckeln ein unerklärlicher Begriff sein.

ach was erzähl? lol ... Du bist von nun an unser Gott, so ein richtiger Pro.......

R300
2004-01-08, 17:46:44
Original geschrieben von imagine
eine Farbtiefe von 32 Bit bietet jedoch schon über 4 Milliarden verschiedene Abstufungen,

4Milliarden?
32 Bit hat soweit ich weiß 16 Millionen un ein Paar Tausend Abstufungen.

Coda
2004-01-08, 17:57:28
Original geschrieben von dav133
also hat sich die sache erledigt, da ja eh alles für 32Bit optimiert wird. Was ist überhaupt mit 64Bit? Kommt da nochwas?
Ne kommt sicher nicht. Wenn dann kommt 128 bit (FP32 RGBA), aber selbst das ist unwahrscheinlich, da Pixel Shader in Zukunft eh alles in einem Pass rendern und somit die 32 bit locker ausreichen.
ATi hat z.B. schon 128 bit Render Targets, aber soweit ich weiß geht das nicht für den Front Buffer.

4Milliarden?
32 Bit hat soweit ich weiß 16 Millionen un ein Paar Tausend Abstufungen.
Ja. Weil nur 24 bit für die Farbe benützt werden und 8 bit für den Alpha Channel.

harkpabst_meliantrop
2004-01-09, 22:22:54
Original geschrieben von Argo Zero
Mein OS: Windows 2000

16Bit:
http://argozero.bei.t-online.de/poc/16Bit.jpg

32Bit:
http://argozero.bei.t-online.de/poc/32Bit.jpg


Ne Kiste Frankenheim sagtest du? ;D Die können wir gerne zusammen trinken, aber so hübsche Artefakte wie in deinen Bildern bekomme ich beim besten Willen nur dann hin, wenn ich einen Screenshot in 32 Bit mache und den dann in 16 Bit darstelle. Das ist aber nicht das, was Windows tut, wenn 16 Bit Farbtiefe eingestellt sind.

Natürlich sehe ich da auch einen Unterschied. Und zwar genau dann, wenn entweder meine Nasenspitze den Monitor berührt oder wenn ich den Screenshot auf 400% vergrößere. Aber auch dann sieht das höchstens so aus:
http://fetzbraun.gmxhome.de/pix/verlaufe.jpg

Ich will ja auch keinem seinen Spaß an 32 Bit Grafik madig machen. Das ganze hat ja auch durchaus in Spielen seinen Sinn, insbesondere wenn bei mehrfachen Grafikoperationen Rundungsfehler verringert werden. Aber wenn es um Audio geht, plärren alle rum, 256 kBit/s MP3 wäre sowieso nicht vom Original (gemeint ist dabei in Wirklichkeit natürlich die CD) zu unterscheiden. Wenn es um Digitalkameras geht, glaubt die Mehrheit der jungen Hüpfer tatsächlich, die frisch erworbene 4 Megapixel Aldi-Kamera könnte auch nur im entferntesten mit einer guten Kleinbildkamera mithalten. Aber über die angeblich unerträglichen Farbverläufe in Windows-Fenstern kann man sich plötzlich aufregen.

Prost (wenn auch im Moment mit Frankenheim blue).

Funkyman
2004-01-10, 08:34:38
So weit ich weiss braucht man 64 bit erst wenn man sehr sehr viel Transparenteffekte übereinander legt. Da wird 32 bit nicht mehr ausreichend sein. Ein riesen Nachteil ist halt das 64 bit extremst leistung braucht und eine menge Grakaram.
Aufm Desktop wird man das so bald nicht brauchen es sei denn, Microsoft packt in den Nachfolger von Longhorn sehr viele Effekte rein. (das basiert dan bestimmt auf dx10 :) )
So bescheuert wie MS ist, ist das ja garnicht mal so unwahrscheinlich :)
MFG Funkyman

dav133
2004-01-12, 13:12:53
Original geschrieben von harkpabst_meliantrop
Die können wir gerne zusammen trinken, aber so hübsche Artefakte wie in deinen Bildern bekomme ich beim besten Willen nur dann hin, wenn ich einen Screenshot in 32 Bit mache und den dann in 16 Bit darstelle. Das ist aber nicht das, was Windows tut, wenn 16 Bit Farbtiefe eingestellt sind.

Natürlich sehe ich da auch einen Unterschied. Und zwar genau dann, wenn entweder meine Nasenspitze den Monitor berührt oder wenn ich den Screenshot auf 400% vergrößere. Aber auch dann sieht das höchstens so aus:
http://fetzbraun.gmxhome.de/pix/verlaufe.jpg

Ich will ja auch keinem seinen Spaß an 32 Bit Grafik madig machen. Das ganze hat ja auch durchaus in Spielen seinen Sinn, insbesondere wenn bei mehrfachen Grafikoperationen Rundungsfehler verringert werden. Aber wenn es um Audio geht, plärren alle rum, 256 kBit/s MP3 wäre sowieso nicht vom Original (gemeint ist dabei in Wirklichkeit natürlich die CD) zu unterscheiden. Wenn es um Digitalkameras geht, glaubt die Mehrheit der jungen Hüpfer tatsächlich, die frisch erworbene 4 Megapixel Aldi-Kamera könnte auch nur im entferntesten mit einer guten Kleinbildkamera mithalten. Aber über die angeblich unerträglichen Farbverläufe in Windows-Fenstern kann man sich plötzlich aufregen.

Prost (wenn auch im Moment mit Frankenheim blue).

gute screenshots, das würde man aber auch ohne diese monstervergrößerung sehen. und: Muss man nicht 32Bit unter win eingestellt haben um hier nen unterschied zwischen 16 und 32 zu erkennen?

harkpabst_meliantrop
2004-01-12, 15:03:20
Original geschrieben von dav133
gute screenshots, das würde man aber auch ohne diese monstervergrößerung sehen.
Niemals. Außer bei 3cm Abstand vom Bildschirm.

und: Muss man nicht 32Bit unter win eingestellt haben um hier nen unterschied zwischen 16 und 32 zu erkennen?
Ja sicher. Einen Unterschied sieht man immer, aber bei 16 Bit Farbtiefe sieht man eben nicht den Unterscheid zwischen dem Titelbalken bei 16 und bei 32 Bit.

R300
2004-01-12, 15:27:29
Original geschrieben von harkpabst_meliantrop
Die können wir gerne zusammen trinken, aber so hübsche Artefakte wie in deinen Bildern bekomme ich beim besten Willen nur dann hin, wenn ich einen Screenshot in 32 Bit mache und den dann in 16 Bit darstelle. Das ist aber nicht das, was Windows tut, wenn 16 Bit Farbtiefe eingestellt sind.

Natürlich sehe ich da auch einen Unterschied. Und zwar genau dann, wenn entweder meine Nasenspitze den Monitor berührt oder wenn ich den Screenshot auf 400% vergrößere. Aber auch dann sieht das höchstens so aus:
http://fetzbraun.gmxhome.de/pix/verlaufe.jpg

Ich will ja auch keinem seinen Spaß an 32 Bit Grafik madig machen. Das ganze hat ja auch durchaus in Spielen seinen Sinn, insbesondere wenn bei mehrfachen Grafikoperationen Rundungsfehler verringert werden. Aber wenn es um Audio geht, plärren alle rum, 256 kBit/s MP3 wäre sowieso nicht vom Original (gemeint ist dabei in Wirklichkeit natürlich die CD) zu unterscheiden. Wenn es um Digitalkameras geht, glaubt die Mehrheit der jungen Hüpfer tatsächlich, die frisch erworbene 4 Megapixel Aldi-Kamera könnte auch nur im entferntesten mit einer guten Kleinbildkamera mithalten. Aber über die angeblich unerträglichen Farbverläufe in Windows-Fenstern kann man sich plötzlich aufregen.

Prost (wenn auch im Moment mit Frankenheim blue).
Welche Garak hast du? Ich habe nämlich das Dithering auch nicht.
So siehts bei mir aus:
http://www.ystart.net/upload/20040112/1073920611.png
http://www.ystart.net/upload/20040112/1073920750.png
So sieht das bei mir wirklich aus. (Die Bilder sind verlustfrei mit PNG komprimiert worden.)
Und das sehe ich auf 3m entfernung!!!

In Spielen habe ich zwar auch diesen Dither Effekt wie bei dir im Windows, aber der stört auch gewaltig.
Man sieht alles wie durch ein Netz hindurch. :puke:

Kann es sein, dass dein Monitor etwas unscharf ist?
Auf deinen Bildern kann ich den Unterschied auch bei 100% sehr gut sehen. Meine Nasenspitze ist dabei etwa 30cm vom Monitor entfrent.

harkpabst_meliantrop
2004-01-12, 16:37:14
Original geschrieben von R300
Welche Garak hast du? Ich habe nämlich das Dithering auch nicht.
So siehts bei mir aus:
http://www.ystart.net/upload/20040112/1073920611.png
http://www.ystart.net/upload/20040112/1073920750.png
So sieht das bei mir wirklich aus. (Die Bilder sind verlustfrei mit PNG komprimiert worden.)
Und das sehe ich auf 3m entfernung!!!
Bei deinen Bildern sehe ich die gleichen horzontalen Teilbalken wie in Argos Bildern auch. Das sehe ich auch. Aber bei mir sieht es nicht so aus. GF 5200 mit 45.23 Treiber unter Windows 2000. Meine Bilder sind zwar JPEGs, aber mit Kompression 1 gespeichert. Die sehen selbst als Bitmaps genauso aus.

Kann es sein, dass dein Monitor etwas unscharf ist?
Auf deinen Bildern kann ich den Unterschied auch bei 100% sehr gut sehen. Meine Nasenspitze ist dabei etwa 30cm vom Monitor entfrent.
Son billiger ALDI TFT eben. Aber garantiert absolut scharf. Die Textzeichnung ist hervorragend.

Übrigens stelle ich gerade fest, dass die Darstellung auf meinem Arbeitsplatzcomputer völlig anders ist, als bei mir zu Hause. Und das mit einer ollen GeForce GTS an einem uralten 17" CRT. Hier sehe ich selbst auf meinem 32 Bit Bild Streifen.

Vielleicht ist das Vergleichen der Screenshots doch gar nicht so einfach ...

dav133
2004-01-12, 17:27:32
waaaaaaaaaaaaaas?

grad mal auf 16Bit runtergeschaltet und ich kann den unterschied genauso deutlich wie unter 32 Bit erkennen. strange...

R300
2004-01-12, 17:40:48
Original geschrieben von dav133
waaaaaaaaaaaaaas?

grad mal auf 16Bit runtergeschaltet und ich kann den unterschied genauso deutlich wie unter 32 Bit erkennen. strange...

Ach was.
Bei sieht unter 16 bit alles gleich schlecht aus.
(Foto mit 16bit)
http://www.ystart.net/upload/20040112/1073929097.png

Nur bei diesem Bild kann ich den Unterschied bei 16 bit sehen.
http://fetzbraun.gmxhome.de/pix/verlaufe.jpg
Das ist wegen dem Dithering. Es ist dafür da, dass man die Farbverläufe nicht mehr so gut sieht.