Archiv verlassen und diese Seite im Standarddesign anzeigen : Gelbe Pixelfehler bei 16-Bit (Freund)
Hi,
Mein Freund mit ner 9700 hat n eher kleines Problem, mich interessierts aber trotzdem.
Wenn er die Farbtiefe in Spielen auf 16-Bit stellt, bekommt er gelbe pixelfehler, wie beim übertakten, allerdings Gelb :|
Was is das?
Mit 32-Bit is alles normal.
Jemand ne Erklärung?
Tritt das bei mehreren Spielen auf oder nur bei einem? Ansonsten würde ich ma andern Treiber probieren oder halt nur in 32bit spielen.
trit sogar auf dem desktop auf :o
wenn man ein fenster verschiebt, bevor er die auflösung nicht umändert, recht viel, danach, nur noch minimal, mit 32-Bit is dann nix mehr.
Jo, mal anderen Treiber ausprobieren, macht er dann mal.
ansonsten... wer fährt schon 16-bit ^^
deekey777
2004-01-01, 22:19:28
Original geschrieben von Nedo
jemand noch ne idee?
Gelbsucht? (sorry)
Original geschrieben von deekey777
Gelbsucht? (sorry)
Gar nicht mal so abwegig (oder schreibt man das mit ä?) :D
So in etwa (;)) sieht das aus auf Desktop. da bleiben die Punkte bis ich F5 oÄ drück. Sie erscheinen nur wenn ich n fenster verschieb oder so.
In Spielen siehts so aus, als hätte ich den Core übertaktet. nur kommen keine weißen sondern gelbe Pixelfehler. mit 32-bit gibts keine pixelfehler.
PS.: Jo, ich habs inzwischen auch, diese "Prob" :/
EDIT:
Arg Bild vergessen ^^
http://mitglied.lycos.de/svendrzisga/gelb.JPG
und so im spiel:
http://mitglied.lycos.de/svendrzisga/gelb1.bmp
kann das nicht reproduzieren. (r9500np)
Original geschrieben von wm
kann das nicht reproduzieren. (r9500np)
ok,
Ich vermute irgendwie Software Fehler. Allerdings welcher?
Weil es is schon komisch, dass das nur bei 16-bit is :/
Jemand ncoh ne Idee oder soagr ähnliche erfahrungen?
x-dragon
2004-01-20, 13:28:34
Hab zwar auch keine Erklärung dafür, aber was wollt ihr mit 16 Bit bei euren Grafikkarten?
Original geschrieben von x-dragon
Hab zwar auch keine Erklärung dafür, aber was wollt ihr mit 16 Bit bei euren Grafikkarten?
Klar, ich benutz NIE 16-bit. bis auf in benchmarks. aber interessieren tuts mich trotzdem ;)
MegaManX4
2004-01-20, 16:07:47
Original geschrieben von Nedo
Klar, ich benutz NIE 16-bit. bis auf in benchmarks. aber interessieren tuts mich trotzdem ;)
für mich sieht das eher nach Speicherfehler aus. Bist du dir wirklich sicher das in 32bit diese Fehler überhaupt nicht auftreten? Obwohl...wenns der Speicher wäre, müsste es unter 32bit (höhere Speicherlast) sogar verstärkt auftreten. Ich würde jedenfalls versuchen den Speicher der Karte mal zu untertakten und dann ma gucken...
Thomas
StefanV
2004-01-20, 16:09:39
Original geschrieben von Nedo
So in etwa (;)) sieht das aus auf Desktop. da bleiben die Punkte bis ich F5 oÄ drück. Sie erscheinen nur wenn ich n fenster verschieb oder so.
In Spielen siehts so aus, als hätte ich den Core übertaktet. nur kommen keine weißen sondern gelbe Pixelfehler. mit 32-bit gibts keine pixelfehler.
PS.: Jo, ich habs inzwischen auch, diese "Prob" :/
EDIT:
Arg Bild vergessen ^^
http://mitglied.lycos.de/svendrzisga/gelb.JPG
und so im spiel:
http://mitglied.lycos.de/svendrzisga/gelb1.bmp
IMO eindeutig:
Karte breit, da hilft nur austauschen (lassen).
Original geschrieben von MegaManX4
für mich sieht das eher nach Speicherfehler aus. Bist du dir wirklich sicher das in 32bit diese Fehler überhaupt nicht auftreten? Obwohl...wenns der Speicher wäre, müsste es unter 32bit (höhere Speicherlast) sogar verstärkt auftreten. Ich würde jedenfalls versuchen den Speicher der Karte mal zu untertakten und dann ma gucken...
Thomas
Jo, ganz sicher. in 32-bit is kein einziger punkt zu erkennen. mit 16-bit sieht man z.B. in UT2003 nur noch punkte :D
in 32-bit keinen einzigen.
@Stefan Payne:
Hätte man nur ne Rechnung :D
Ich probier mal weiter.
EDIT:
Megaman, du hattest wie es scheint recht. takte ich den Speicher runter sind die fehler wech bzw. werden weniger. viiieeel weniger.
Aber warum nru in 16-bit?
Ich mir echt mal anch nem Voltmeter umschaun. mal sehn wie es um die Speicherspannung steht.
MegaManX4
2004-01-20, 17:09:23
Original geschrieben von Nedo
Jo, ganz sicher. in 32-bit is kein einziger punkt zu erkennen. mit 16-bit sieht man z.B. in UT2003 nur noch punkte :D
in 32-bit keinen einzigen.
@Stefan Payne:
Hätte man nur ne Rechnung :D
Ich probier mal weiter.
EDIT:
Megaman, du hattest wie es scheint recht. takte ich den Speicher runter sind die fehler wech bzw. werden weniger. viiieeel weniger.
Aber warum nru in 16-bit?
Ich mir echt mal anch nem Voltmeter umschaun. mal sehn wie es um die Speicherspannung steht.
Dazu noch was:
Ich hatte vor einigen Tagen meine Radeon 9800 versucht auf Pro zu flashen, also 380/340. Hat nicht geklappt. Das merkwürdige war, das ich auf dem Desktop mit 16bit sofort Pixelfehler hatte, nach der Treiberinstallation und 32bit Desktop Einstellungen waren diese Pixelfehler aber deutlich reduziert, also wo vorher 100 Pixelfehler zu sehen waren, waren es jetzt nur noch 10. Da aber 10 mehr sind als 0 habe ich wieder zurückgeflasht auf 325/290 und dann manuell auf 380/320 getaktet.
Was ist eigentlich die angezeigte Grundtaktrate des Speichers der 9700 bei Dir? Sollte doch 275+-Mhz sein.
Vielleicht läuft sie standardmäßig auf Pro Werten (alles schon vorgekommen).
Thomas
ne, ich hab ne 9800 Pro, die auf Standardtakt läuft.
MegaManX4
2004-01-20, 20:06:09
Original geschrieben von Nedo
ne, ich hab ne 9800 Pro, die auf Standardtakt läuft.
Ich mein die 9700 deines Kumpels.
aso, die läuft auch auf standard.
Also,
In der Far Cry Demo hab ich auch mit 32-bit wenige pixelfehler am radar. is das da normal oder net?
push
die gelben punkte am radar sind nur, wenn der radar über hellen flächen wie dem Sand is. sonst nich.
StefanV
2004-01-22, 16:28:00
Speicher mal etwas runtergetaktet??
Original geschrieben von Stefan Payne
Speicher mal etwas runtergetaktet??
jo, grade eben, hat sich damit auch verringert :/
Ich mess mal die spannung ab vom speicher ab
EDIT:
Ich les grad, "I'm no Fanatic"
Aber Fanatic Member biste :D
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.