Archiv verlassen und diese Seite im Standarddesign anzeigen : Flimmer-Probleme bei NVIDIA bekannt - Treiber Fix in Bearbeitung!!!
Hellknight[FA]
2005-08-19, 13:08:05
...zumindest lt. dieser Meldung von NVNEWS
http://www.nvnews.net/#1124376839
Lt. dieser Meldung ist der Ursprung des Problems eingekreist und an einem Fix wird bereits gearbeitet. Außerdem wird an den Problemen gearbeitet welche bei manchen Benutzern mit den Anwendungs-Profilen auftreten. Man hofft das Update sobald wie möglich zu veröffentlichen :)
Grüße
Timo
Mr. Lolman
2005-08-19, 13:18:09
Lt. dieser Meldung ist der Ursprung des Problems eingekreist und an einem Fix wird bereits gearbeitet.
Lol, die sollten Blaire als Treiberprogger anstellen. Der hat das innerhalb von einem Tag geschafft.
BvB123
2005-08-19, 13:25:20
Lol, die sollten Blaire als Treiberprogger anstellen. Der hat das innerhalb von einem Tag geschafft.
Mit dem 78.10 solls schon weniger flimmern.
Crool
2005-08-19, 14:25:08
Wenn die das Flimmern ohne Performanceverlust wegbekommen, sodass sie immer noch genauso gut sind wie die ATIs, dann ist ja ok.
eXodia
2005-08-19, 14:29:47
Wenn die das Flimmern ohne Performanceverlust wegbekommen, sodass sie immer noch genauso gut sind wie die ATIs, dann ist ja ok.
Naja genauso gut wirds nicht werden, mir ist bekannt das es an das AF der 6800 in HQ angeglichen werden soll.
GrUß
svenska
2005-08-19, 15:43:38
Mit dem 78.10 solls schon weniger flimmern.
ne, nich wirklich....
Lol erst gut gegenüber denn NV 40 darstehen und jetzt die quali wieder hoch setzten.sowas kann man schon als cheatenbezeichnen.
Lol, die sollten Blaire als Treiberprogger anstellen. Der hat das innerhalb von einem Tag geschafft.Wo?
Wie?
:confused:
Mit dem 78.10 solls schon weniger flimmern.Schon?
Der Treiber ist uralt...
Naja genauso gut wirds nicht werden, mir ist bekannt das es an das AF der 6800 in HQ angeglichen werden soll.Und was wäre dann daran schlecht?
IMHO ist das AF der 6800 (unter HQ) dem von ATI gar überlegen...
Razor
Seraf
2005-08-19, 15:50:40
Wo?
Wie?
:confused:
http://www.forum-3dcenter.de/vbulletin/showpost.php?p=3391046&postcount=866
Und was wäre dann daran schlecht?
IMHO ist das AF der 6800 (unter HQ) dem von ATI gar überlegen...
Aths sagt es wäre grenzwertig. Also gerade noch so ok ;)
Blacksoul
2005-08-19, 15:53:21
Klingt sehr gut, denn das scheint den release eines neuen Treibers zu beschleunigen und den brauche (und will) ich dringend, allerdings für was anderes ;)
Beim Topic musste ich allerdings schon ein wenig schmunzeln ;D
t.blacksoul.d
MechWOLLIer
2005-08-19, 15:54:11
Aths sagt es wäre grenzwertig. Also gerade noch so ok ;)
Das ist Geschmackssache. Meine Augen sagen mir, dass HQ auf ner 6800 meistens (nicht immer!) weniger flimmert als auf einer X800.
MikBach@w
2005-08-19, 15:56:24
Und was wäre dann daran schlecht?
IMHO ist das AF der 6800 (unter HQ) dem von ATI gar überlegen...
Razor
Mit dieser Meinung stehst du wohl mittlerweile allein da.
Lies mal den Flimmerartikel.
Da wird auch das AF von R4x0 und NV40 vergliechen.
Und nur weil man mit 8 Samples filtert statt 5 wie beim RefRast, ist man nicht direkt besser. :wink:
Das ist Geschmackssache. Meine Augen sagen mir, dass HQ auf ner 6800 meistens (nicht immer!) weniger flimmert als auf einer X800.
Dann solltest du die TS-Opimierung ausschalten.
eXodia
2005-08-19, 16:41:43
jetzt haben wir es offiziell:
K L I C K M I C H (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2005/august/herstelleruebergreifendes_sli/)
GrUß
MechWOLLIer
2005-08-19, 16:45:58
Dann solltest du die TS-Opimierung ausschalten.
Die gibts gar nicht m,ehr beim R4x0 bei ATi;)
Seraf
2005-08-19, 16:52:52
Die gibts gar nicht m,ehr beim R4x0 bei ATi;)
Da wäre ich mir nicht so sicher.
Das war mal kurz so. Bei einigen Treibern hatte ich bei einer Neuinstallation aber manchmal ganz seltsame Einstellunegn im ATI TrayTool :|
Ein Kontrollblick mit dem ATI TrayTool ist nie verkehrt.
MikBach
2005-08-19, 18:14:07
Da wäre ich mir nicht so sicher.
Das war mal kurz so. Bei einigen Treibern hatte ich bei einer Neuinstallation aber manchmal ganz seltsame Einstellunegn im ATI TrayTool :|
Ein Kontrollblick mit dem ATI TrayTool ist nie verkehrt.
Exakt.
ATI trickst auch, wenn auch imo deutlich weniger als Nvidia. :wink:
DaBrain
2005-08-19, 18:42:54
Eigentlich hat ATI mehr getrickst beim AF, aber man sieht es kaum.
Trotzdem, für mich ist die AF Qualität von NV40, G70 und R420 zu schlecht.
Meine nächste Karte soll gefälligst wieder eine ordentliche Bildqualität haben.
Immerhin kümmert sich NV um das Problem, das macht G70 Karten, die bis auf AF und Texturenqualität, spitze sind, in meinen Augen wieder ein Stück weit interessanter.
Sollte man sogar nah ein GF3/4 Niveau rankommen, würde ich wahrscheinlich mein komplettes System aufrüsten. ;)
Ich würde ja gerne mal wieder aufrüsten, aber IMO wäre der Umstieg auf eine 7800 GTX teilweise sogar ein Downgrade. :(
MikBach
2005-08-19, 18:50:31
Eigentlich hat ATI mehr getrickst beim AF, aber man sieht es kaum.
Kannst du das irgendwie belegen?
Imo hat NV aufgrund der 8 Samples mehr Spielraum zu optimieren als ATI mit 5, die genau dem RefRast entsprechen.
Deswegen kann imo NV mehr optimieren.
Trotzdem, für mich ist die AF Qualität von NV40, G70 und R420 zu schlecht.
Zustimmung.
Meine nächste Karte soll gefälligst wieder eine ordentliche Bildqualität haben.
Da kannst du, glaube ich, lange drauf warten. :wink:
Die Winkelunabhängigkeit kostet Transistoren, die die Hersteller lieber in Performance investieren.
Traurig, aber wahr.
Immerhin kümmert sich NV um das Problem, das macht G70 Karten, die bis auf AF und Texturenqualität, spitze sind, in meinen Augen wieder ein Stück weit interessanter.
Was sollen die sonst machen, wenn ihnen die User die Bude einrennen?
Ich würde da wirklich erstmal abwarten.
Sollte man sogar nah ein GF3/4 Niveau rankommen, würde ich wahrscheinlich mein komplettes System aufrüsten. ;)
Siehe das Problem mit der Winkelunabhängigkeit.
Ich würde ja gerne mal wieder aufrüsten, aber IMO wäre der Umstieg auf eine 7800 GTX teilweise sogar ein Downgrade. :(
So ist es.
doom1
2005-08-20, 07:58:52
"Ich würde ja gerne mal wieder aufrüsten, aber IMO wäre der Umstieg auf eine 7800 GTX teilweise sogar ein Downgrade.
So ist es."
Wieso???? :confused:
Mit einem 17Zoll Monitor macht es keinen Sinn...
Mit einem "gurken" Proz. macht es auch keinen Sinn....
Mir dem Qualm der Karte-Karten und den richtigen Einstellungen hatt man im Mom auch keinen Qualli Verlust.(Da sind andere Sachen viel ärgerlicher aber wie wir wissen wird daran ja gearbeitet)
Also was wollt Ihr?
mit ner Auflösung von 1024 und nem P3 oder ähnlichem die Karte betreiben?
Dazu würd ich dem jenigen ne 4200TI ans Herz legen.
Die Karte ist der Knaller und im SLI........
Ist nicht bereit für`s neue Super Betriebssystem....Deine Sorgen möcht ich haben.
Razor
2005-08-20, 08:28:43
http://www.forum-3dcenter.de/vbulletin/showpost.php?p=3391046&postcount=866Mit einem Uralt-Treiber ala 70.41!
Und das wird dann auch noch "Lösung" genannt, oder wie?
Man, man, man...
Der 70.41 unterstützt die 7800 einfach noch nicht und 'spricht' diese im NV3x-Kompatibilitätsmodus an. Würde mich nicht wundern, wenn dadurch einiges an Leistung flöten geht.
Und noch eine Anmerkung: bitte nächstes mal den Post im Thread quoten und nicht 'standalone'. Danke.
Aths sagt es wäre grenzwertig. Also gerade noch so ok ;)Schön...
Ich sage, es ist identisch zur FX-Serie und der einzige Unterschied die Winkelabhängigkeit.
Die Quali zu der ATI-'Variante' ist sehr viel besser...
Razor
Kladderadatsch
2005-08-20, 08:37:26
Und noch eine Anmerkung: bitte nächstes mal den Post im Thread quoten und nicht 'standalone'. Danke.
ot: du kannst rechts oben 'im thread' anklicksen, um den rest zu sehen;)
doom1
2005-08-20, 09:08:03
[QUOTE=Razor]Mit einem Uralt-Treiber ala 70.41!
Und das wird dann auch noch "Lösung" genannt, oder wie?
Man, man, man...
Der 70.41 unterstützt die 7800 einfach noch nicht und 'spricht' diese im NV3x-Kompatibilitätsmodus an. Würde mich nicht wundern, wenn dadurch einiges an Leistung flöten geht.
Die Leistung geht "gnadenlos" in den Keller aber darum ging es ja nicht,das kann man auch mit den jetzigen Treibern drehen-da geht die Leistung auch flöten...man wollte eigendlich nur wissen ob ein ein Hardware Bug vorliegt das ist aber (zum Glück) nicht der Fall.
MikBach
2005-08-20, 09:14:48
"Ich würde ja gerne mal wieder aufrüsten, aber IMO wäre der Umstieg auf eine 7800 GTX teilweise sogar ein Downgrade.
So ist es."
Wieso???? :confused:
Weil das AF schlechter ist...
MikBach
2005-08-20, 09:16:36
Der 70.41 unterstützt die 7800 einfach noch nicht und 'spricht' diese im NV3x-Kompatibilitätsmodus an. Würde mich nicht wundern, wenn dadurch einiges an Leistung flöten geht.
Ack.
Schön...
Ich sage, es ist identisch zur FX-Serie und der einzige Unterschied die Winkelabhängigkeit.
Die Quali zu der ATI-'Variante' ist sehr viel besser...
Razor
In der Praxis nicht.
Schau dir mal den Flimmerartikel von aths an!
Seraf
2005-08-20, 09:21:15
Mit einem Uralt-Treiber ala 70.41!
Und das wird dann auch noch "Lösung" genannt, oder wie?
Man, man, man...
Der 70.41 unterstützt die 7800 einfach noch nicht und 'spricht' diese im NV3x-Kompatibilitätsmodus an. Würde mich nicht wundern, wenn dadurch einiges an Leistung flöten geht.
Ganz ruhig Razor. Kein Grund sich aufzuregen.
Blaire hat nur aufgezeigt das es der G70 mit einem älteren Treiber auch besser kann. Also kann NV "das Problem" wieder per Treiber richten.
Es wurde nur festgestellt das es wahrscheinlich "kein" in Hardware gegossener (und nicht korrigierbarer) Designfehler ist.
Wenn du den Thread über den Flimmerartikel gelesen hättest würdest du sehen das wir ganz ähnlicher Meinung über schlechtere Leistung und nicht voller unterstützung aller Features des G70 mit diesen alten Treibern sind.
Und noch eine Anmerkung: bitte nächstes mal den Post im Thread quoten und nicht 'standalone'. Danke.
Muß ich mir noch überlegen. Schließlich bekommt man dich damit anscheinend automatisch auf 180 :naughty:
doom1
2005-08-20, 10:02:14
Ack.
In der Praxis nicht.
Schau dir mal den Flimmerartikel von aths an!
Quark richtig lesen!
doom1
2005-08-20, 10:03:47
Ganz ruhig Razor. Kein Grund sich aufzuregen.
Blaire hat nur aufgezeigt das es der G70 mit einem älteren Treiber auch besser kann. Also kann NV "das Problem" wieder per Treiber richten.
Es wurde nur festgestellt das es wahrscheinlich "kein" in Hardware gegossener (und nicht korrigierbarer) Designfehler ist.
Wenn du den Thread über den Flimmerartikel gelesen hättest würdest du sehen das wir ganz ähnlicher Meinung über schlechtere Leistung und nicht voller unterstützung aller Features des G70 mit diesen alten Treibern sind.
Muß ich mir noch überlegen. Schließlich bekommt man dich damit anscheinend automatisch auf 180 :naughty:
Wieso schreibt Ihr immer und immer wieder das selbe?
Kauft euch ne ATI und gut ist..
Und laßt uns doch unsere mülligen NV´s!
doom1
2005-08-20, 10:04:48
Weil das AF schlechter ist...
wenn Du meinst....
MikBach
2005-08-20, 10:05:37
Quark richtig lesen!
:confused:
Was meinst du jetzt?
MikBach
2005-08-20, 10:09:56
Wieso schreibt Ihr immer und immer wieder das selbe?
Kauft euch ne ATI und gut ist..
Und laßt uns doch unsere mülligen NV´s!
Ganz ruhig bleiben...
Ich habe eine ATI und eine NV.
Ich bereue den Kauf der 6800GT auch nicht.
Man muss halt nur klarstellen, dass die Benchmarks im Netz nichts taugen, weil mit unterschiedlicher BQ getestet wurde. Und es denn Anschein hat, als ob NV schneller wäre, was bei vergleichbarer BQ nicht der Fall ist..
That´s all. :)
MikBach
2005-08-20, 10:11:45
wenn Du meinst....
Das meine nicht nur ich, sogar die 7800-Besitzer geben es zu.
Einige stört es, andere wiederum nicht.
Seraf
2005-08-20, 10:14:08
Wieso schreibt Ihr immer und immer wieder das selbe?
Kauft euch ne ATI und gut ist..
Und laßt uns doch unsere mülligen NV´s!
Noch so ein Heißsporn?!
Ich dachte Razor wäre der einzige hier.
Mit den meisten G70 Besitzern kann man ja auch vernünftig reden...
Guck dir mal das Video (http://rapidshare.de/files/4117114/Halflife7800GTX-Xvid.avi.html) von Frank an. Sieht das nicht ein bisschen komisch aus? Wenn das Problem gefixt wäre würden einige bestimmt gerne ins NV Lager wechseln. Also warum regst du dich so auf?
TobiWahnKenobi
2005-08-20, 10:26:42
selbst für vollkommen uninformierte ATI auf NV umsteiger sollte ersichtlich sein,
dass die forceware 4 qualitäts-stufen bietet.
wenn man also im standard-betrieb (Quality) schon bessere benches auf der NV karte zustande bekommt, wie sieht das dann wohl erst auf "Leistung" oder "Hohe Leistung" aus.. ?
ihr diskuttiert teilweise echt über crap. wer meint augenkrebs zu bekommen, schaltet auf HQ und wer gern den nachbarn in grund und boden benchen möchte, der schaltet auf hohe leistung um.
und wer dann immernochnicht genug hat, das muss halt mit einigen anderen alleinstellungsmerkmalen der NV karten angeben. man könnte HDR nehmen oder ein bissl mit den beiden TFTs und dem anständig konfigurierten nview prollen.. oder ne runde linuxen.. ;)
unterm strich haben kunden beider IHVs vergleichbares geld für vergleichbare (frame)raten bezahlt. allerdings sind's meist die ATI nutzer, die irgenwas von bildqualität erzählen. das "lager" mit dem (für meinen geschmack) reiferen featureset, hält sich ja meist dezent zurück (G70 makel mal ausgeklammert, die karte hab' ich nicht und will mir hier keine meinung zu erlauben; wäre eh spekulation).
absurd klingen für mich immer die hohen auflösungen und AF filter einstellungen. viele user, die ich so kenne, haben so schlechte displays, dass alles oberhalb von 1280pixeln eh brei wäre/ist, wo man den unterschied zw. 16x und 4x AF nichtmal sehen würde (ausser vielleicht in der framerate).
wäscht jetzt eigentlich ariel oder persil weisser? und jetzt erzählt mir nicht, dass die waschmaschine noch eine tragende rolle spielt. 60° sind 60° - oder doch nicht ?
LOL
(..)
mfg
tobi
MikBach
2005-08-20, 10:37:18
wenn man also im standard-betrieb (Quality) schon bessere benches auf der NV karte zustande bekommt, wie sieht das dann wohl erst auf "Leistung" oder "Hohe Leistung" aus.. ?
Das ist jetzt aber nicht dein Ernst?
Wenn schon Quality mangelhaft ist, sollten wir besser nicht über minderwertigere Settings reden.
ihr diskuttiert teilweise echt über crap. wer meint augenkrebs zu bekommen, schaltet auf HQ und wer gern den nachbarn in grund und boden benchen möchte, der schaltet auf hohe leistung um.
Es geht aber um Vergleichbarkeit...
Ist das denn so schwer zu verstehen?
und wer dann immernochnicht genug hat, das muss halt mit einigen anderen alleinstellungsmerkmalen der NV karten angeben. man könnte HDR nehmen oder ein bissl mit den beiden TFTs und dem anständig konfigurierten nview prollen.. oder ne runde linuxen.. ;)
Vergiss HDR, kann ATI auch.
Was hat denn Nview oder Linux mit Zocken zu tun?
Bleibt beim Thema. :)
TobiWahnKenobi
2005-08-20, 10:44:05
Vergiss HDR, kann ATI auch.
Was hat denn Nview oder Linux mit Zocken zu tun?
Bleibt beim Thema.
ich bleibe beim thema. gerade weil ich eine grafikkarte schon seit jahren nicht allein an ihrer zockperformance bewerte. ich hab' das auch schon irgendwo geschrieben: der HQ nachteil zu Q ist doch nichtig. der 3D murks 2003 fällt im HQ von 13.6 auf 13.1 kilopunkte. beim 05er ist es ähnlich gering (6.2 zu 5.7).
wer das als defizit werten möchte, der kann die vorteile einfach nicht nutzen.
wenn ihr schon auf vergleichbarkeit rumreitet, dann zwingt euren ATI karten erstmal volle präzision auf. soweit ich mich erinnere, rechnen die intern immernoch mit 24bit.
zum thema HDR traue ich mich grad nichts zu sagen. mein kenntnisstand ist noch dahingehend, dass ATI keine ROPs für FP-16-blending besitzt und somit für richtiges HDR ihre pixelshader bemühen muss (was eigentlich unendlich langsam sein müsste). falls das ATI -HDR widererwartend "schön schnell" sein sollte, müsste mal jemand feststellen, ob es nicht nur blending und blooming ist.
(..)
mfg
tobi
Seraf
2005-08-20, 10:49:42
wer das als defizit werten möchte, der kann die vorteile einfach nicht nutzen.
wenn ihr schon auf vergleichbarkeit rumreitet, dann zwingt eure ATI karten erstmal volle präzision auf. soweit ich mich erinnere, rechnen die intern immernoch mit 24bit.
mfg
tobi
Es geht nur und nur um das flimmer/grissel/rausch Problem der 7800GTX unter HQ und nichts anderes.
Geht das nicht in deinen Schädel?
Hast du das Video mal angesehen?
Soll ich ohne SLI System und hohen Auflösungen sowas ertragen???
p.s.
Die 24bit sind von den Dx Specs gedeckt und somit konform.
p.s.s
Und nochmal es geht nur um das flimmern der 7800GTX/GT. Nicht um die NV4x Serie oder um andere NV Karten.
MikBach
2005-08-20, 10:52:37
zum thema HDR traue ich mich grad nichts zu sagen. mein kenntnisstand ist noch dahingehend, dass ATI keine ROPs für FP-16-blending besitzt und somit für richtiges HDR ihre pixelshader bemühen muss (was eigentlich unendlich langsam sein müsste). falls das ATI -HDR widererwartend "schön schnell" sein sollte, müsste mal jemand feststellen, ob es nicht nur blending und blooming ist.
ATI HDR ist genauso lahm wie Nvidias.
Die machen das über Shader.
TobiWahnKenobi
2005-08-20, 11:03:25
lahm ?
ich hab' damals FC gekauft, als ich noch primär eine GeForce FX hatte. das spiel war zwar nicht schnell, aber ich hab's damals sehr gut damit durchgezockt.
es war also spielbar. und heute, auf dem NV4x ist es schneller mit HDR, als damals ohne. soll heissen: ist sogar besser spielbar.
ein paar bilder (mit framecounter)
nu guck aber auch (http://people.freenet.de/Home_of_the_pro_bios/FCHDR.htm)
das ist nicht vergleichbar mit 80fps (ohne HDR und dafür mit 4x AA), aber das reicht dicke. mit SLI wirds sicher noch mehr und auf einer GF7 sowieso.
ps. ich hab' seit ewigkeiten keine CRTs mehr. ich spiele mit DVI (60Hz) TFTs.
da ist jede framerate (ohne vsync) oberhalb von 60fps sehr kontraproduktiv.
eine framerate von <60 ist allerdings ideal. ich brauche keine 100 oder 400 fps. da würde ich mehr augenkrebs wg. tearing bekommen, als mit jeder anderen art der unter- oder überfilterung.
(..)
mfg
tobi
Ronny145
2005-08-20, 11:05:19
ich bleibe beim thema. gerade weil ich eine grafikkarte schon seit jahren nicht allein an ihrer zockperformance bewerte. ich hab' das auch schon irgendwo geschrieben: der HQ nachteil zu Q ist doch nichtig. der 3D murks 2003 fällt im HQ von 13.6 auf 13.1 kilopunkte. beim 05er ist es ähnlich gering (6.2 zu 5.7).
wer das als defizit werten möchte, der kann die vorteile einfach nicht nutzen.
mfg
tobi
Wer spielt 3dmark? Die Unterschiede können bei hohen Settings sehr groß sein.
Far Cry 1024x768 4xAA16xAF
High Quality 36,82 fps
Quality 52,63 fps
MikBach
2005-08-20, 11:05:30
lahm ?
ich hab' damals FC gekauft, als ich noch primär eine GeForce FX hatte. das spiel war zwar nicht schnell, aber ich hab's damals sehr gut damit durchgezockt.
es war also spielbar. und heute, auf dem NV4x ist es schneller mit HDR, als damals ohne. soll heissen: ist sogar besser spielbar.
ein paar bilder (mit framecounter)
nu guck aber auch (http://people.freenet.de/Home_of_the_pro_bios/FCHDR.htm)
das ist nicht vergleichbar mit 80fps (ohne HDR und dafür mit 4x AA), aber das reicht dicke. mit SLI wirds sicher noch mehr und auf einer GF7 sowieso.
(..)
mfg
tobi
Ich wollte damit zum Ausdruck bringen, dass mit HDR ATI/Nvidia bedeutend an Leistung verlieren und in etwa auf gleichem Niveau. :)
doom1
2005-08-20, 11:10:13
Noch so ein Heißsporn?!
Ich dachte Razor wäre der einzige hier.
Mit den meisten G70 Besitzern kann man ja auch vernünftig reden...
Guck dir mal das Video (http://rapidshare.de/files/4117114/Halflife7800GTX-Xvid.avi.html) von Frank an. Sieht das nicht ein bisschen komisch aus? Wenn das Problem gefixt wäre würden einige bestimmt gerne ins NV Lager wechseln. Also warum regst du dich so auf?
Quatsch ich kann es nur nicht mehr hören. Punkt.
Ich könnte ja jetzt schreiben nur kein Neid oder......
oder nächste Woche kommt der "gute" Treiber ;D und was sabbelt Ihr dann?
Und nächsten Monat kommt der "über" Treiber (50er) und dann?
Ach laßt mich doch in ruhe mit meinen mülligen lahmen flimmernden Dreckskarten :tongue: ;D :biggrin: :cool:
Ich reg mich doch garnicht auf das liest sich dann ganz anders ich bin rundrum zufrieden mit meinen Kärtchen IN JEDER HINSICHT!!
Geht doch ins ATI Forum ;D und laabert nen bisgen über "AI" :wink:
MikBach
2005-08-20, 11:12:40
Quatsch ich kann es nur nicht mehr hören. Punkt.
Ich könnte ja jetzt schreiben nur kein Neid oder......
oder nächste Woche kommt der "gute" Treiber ;D und was sabbelt Ihr dann?
Abwarten und Tee rauchen. :)
Wenn der Treiber rauskommt, wird man das mit HL2 und Aufzug testen.
Dann wird entschieden, ob das Gebashe weitergeht. :wink:
doom1
2005-08-20, 11:13:42
ich rauch kein Tee ich kann mir was gescheides leisten........... :biggrin:
TobiWahnKenobi
2005-08-20, 11:15:21
also liegt es doch nur an der "grünen brille" ?
(..)
mfg
tobi
Seraf
2005-08-20, 11:20:39
Quatsch ich kann es nur nicht mehr hören. Punkt.
Ich könnte ja jetzt schreiben nur kein Neid oder......
oder nächste Woche kommt der "gute" Treiber ;D und was sabbelt Ihr dann?
Und nächsten Monat kommt der "über" Treiber (50er) und dann?
Ach laßt mich doch in ruhe mit meinen mülligen lahmen flimmernden Dreckskarten :tongue: ;D
Ich hoffe doch mal das ein guter Treiber kommt ;)
Aber die Frage ist doch angebracht ob ohne Druck der Community durch Artikel und Mundpropaganda NV sich dazu genötigt sieht den Treiber anzupassen.
Ich reg mich doch garnicht auf das liest sich dann ganz anders ich bin rundrum zufrieden mit meinen Kärtchen IN JEDER HINSICHT!!
Das ist ja schön. (Hast du eigentlich eine G70??). Denk aber auch mal an die unglücklichen Kartenbesitzer. :wink:
Geht doch ins ATI Forum ;D und laabert nen bisgen über "AI" :wink:
Ihr immer mit eurem Schubladendenken. ;) Und ATI hats drauf. Die wissen wie man die eigenen Optimierungen perfekt vor der Community versteckt. :ucatch:
Mr. Lolman
2005-08-20, 11:22:53
l
nu guck aber auch (http://people.freenet.de/Home_of_the_pro_bios/FCHDR.htm)
Lol, zuerst den HIres AA Screenshot: http://people.freenet.de/Home_of_the_pro_bios/PICTURES/FCHDR/1280high4xAA8xAF.jpg
und dann: So hab ich das auf einer X800 gesehen: http://www.kaltmacher.de/album_pic.php?pic_id=5058
BTW: Bekommst du eigentlich Kohle für die Seite?
TobiWahnKenobi
2005-08-20, 11:29:28
ich finde das trifft doch voll ins schwarze.
(..)
mfg
tobi
ShadowXX
2005-08-20, 11:42:19
Ich wollte damit zum Ausdruck bringen, dass mit HDR ATI/Nvidia bedeutend an Leistung verlieren und in etwa auf gleichem Niveau. :)
Nicht wenn man bei ATI die FP16-Blender per Shader emulieren müsste/würde....
Und sag mir mal ehrlich....würde ATI FP16-Blender in den r520 einbauen, wenn es überflüssig wäre?
Wohl kaum, da ATI dafür bekannt ist Transistore zu sparen wo es nur geht....
ShadowXX
2005-08-20, 11:44:56
Ganz ruhig bleiben...
Ich habe eine ATI und eine NV.
Ich bereue den Kauf der 6800GT auch nicht.
Man muss halt nur klarstellen, dass die Benchmarks im Netz nichts taugen, weil mit unterschiedlicher BQ getestet wurde. Und es denn Anschein hat, als ob NV schneller wäre, was bei vergleichbarer BQ nicht der Fall ist..
That´s all. :)
Wie war das noch damals mit den Benches r3x0 AF vs. nv3x AF??
Da hat auch keiner von der ATI-Fraktion gemeckert, das die BQ nicht die dieselbe ist....
Immerhin kümmert sich NV um das Problem, das macht G70 Karten, die bis auf AF und Texturenqualität, spitze sind, in meinen Augen wieder ein Stück weit interessanter
Ja, aber sie sind dadurch jetzt nicht sofort wieder unsere Helden oder? Verarsche um die Karte allen anderen hochhaus überlegen zu machen, damit auch alle potenziellen R520-Käufer sich nicht mehr halten können und dann ín aller Ruhe gemütlich "den Fehler einkriesen". Das nächste Mal warte ich noch aufgeregt und begeistert, weil ein aktueller Treiber kommt, der mit ALLEN Chips aus der .inf bestmöglich funzt, oder was? Ne lass mal. Den G70 laß ich ebenso "gemütlich" aus.
Sollte man sogar nah ein GF3/4 Niveau rankommen
Nicht vor dem Launch des R5x0 :uup: Erstmal, nach dem nun alle namhaften Seiten gebencht haben, an den NV40. Dann, vieleicht, an den NV30.
MikBach
2005-08-20, 11:52:43
Wie war das noch damals mit den Benches r3x0 AF vs. nv3x AF??
Da hat auch keiner von der ATI-Fraktion gemeckert, das die BQ nicht die dieselbe ist....
Das ist durchaus korrekt.
Die Winkelabhängigkeit stört aber auch nicht so sehr wie das Flimmern.
Ausserdem war damals das AA des R3x0 besser, also Gleichstand, wenn man so will. :)
MikBach
2005-08-20, 11:57:41
Nicht wenn man bei ATI die FP16-Blender per Shader emulieren müsste/würde....
:confused:
Das tut man doch bei SC3:
http://www.simhq.com/_technology/technology_058b.html
Und die ATI ist schneller...
Und sag mir mal ehrlich....würde ATI FP16-Blender in den r520 einbauen, wenn es überflüssig wäre?
Wohl kaum, da ATI dafür bekannt ist Transistore zu sparen wo es nur geht....
Vielleicht hat ATI bei der Entwicklung des R520 nicht gewusst, dass sie es auch über Shader hinbekommen würden.
DaBrain
2005-08-20, 12:01:00
Ihr immer mit eurem Schubladendenken. ;) Und ATI hats drauf. Die wissen wie man die eigenen Optimierungen perfekt vor der Community versteckt. :ucatch:
Naja, bis auf die AF Optimierungen. Die merkt man schon. (Besonders GF3/4 Besitzer. ;) )
Ja, aber sie sind dadurch jetzt nicht sofort wieder unsere Helden oder? Verarsche um die Karte allen anderen hochhaus überlegen zu machen, damit auch alle potenziellen R520-Käufer sich nicht mehr halten können und dann ín aller Ruhe gemütlich "den Fehler einkriesen". Das nächste Mal warte ich noch aufgeregt und begeistert, weil ein aktueller Treiber kommt, der mit ALLEN Chips aus der .inf bestmöglich funzt, oder was? Ne lass mal. Den G70 laß ich ebenso "gemütlich" aus.
Für mich ist die AF/Filterqualität, der größte und einzige Kritikpunkt am G70. (Bis auf den Preis. ;D )
Wenn der behoben ist, kommt die Karte für mich wieder in Frage. Aber wirklich erst wenn er behoben ist. Ich werde mich nicht blind darauf verlassen was NV alles verspricht.
Wenn der R520 bis dahin raus ist und ähnliche Leistung, Features und GF4-like AF liefert, ist meine nächste Karte halt ein R520.
Der Kauf meiner letzten ATI Karte ist auch schon ziemlich lange her.
Nicht weil ich NV vorziehe, sondern weil ich besonders gute Angebote irgendwie immer nur für NV Kartenbekomme. ;)
Razor
2005-08-20, 13:36:53
ot: du kannst rechts oben 'im thread' anklicksen, um den rest zu sehen;)OT back: Thx alot!
Hab' ich glatt überlesen...
:)
Razor
Razor
2005-08-20, 13:39:38
In der Praxis nicht.
Schau dir mal den Flimmerartikel von aths an!Hab' ich... und?
Razor
MikBach
2005-08-20, 13:42:20
Hab' ich... und?
Razor
:confused: :confused:
Sag mal Razor, willst du hier provozieren?
Wenn du dir den Artikel angesehen hast, dann dürfte es klar sein, dass eine 6800@HQ nicht besser ist als eine ATI@Default.
Razor
2005-08-20, 13:44:33
Wieso schreibt Ihr immer und immer wieder das selbe?
Kauft euch ne ATI und gut ist...Der Witz ist ja... ich hab' hier 'ne R9800p (und damit bessere BQ, als mit den R4x0) zu hause und kann direkt vergleichen. Ist mit ein Grund, warum ich hier dieses ganze 'Nachgeplappere' nicht verstehen kann...
Um das Flimmern bei ATI in Grenzen zu halten, darf man kein "High Quality" nehmen und muss den LOD herunter schrauben (thx @ lolman). Dann ist's erträglich, aber damit auch hinsichtlich der Texturschärfe lange nicht mehr mit der von nVidia zu vergleichen.
Aber ich bin ja offenbar 'nur' ein nVidia-F.....y.
Razor
MikBach
2005-08-20, 13:46:37
Der Witz ist ja... ich hab' hier 'ne R9800p (und damit bessere BQ, als mit den R4x0) zu hause und kann direkt vergleichen. Ist mit ein Grund, warum ich hier dieses ganze 'Nachgeplappere' nicht verstehen kann...
Um das Flimmern bei ATI in Grenzen zu halten, darf man kein "High Quality" nehmen und muss den LOD herunter schrauben (thx @ lolman). Dann ist's erträglich, aber damit auch hinsichtlich der Texturschärfe lange nicht mehr mit der von nVidia zu vergleichen.
Aber ich bin ja offenbar 'nur' ein nVidia-F.....y.
Razor
LOL.
Komm mal wieder runter...
Das Flimmern bei der 7800 siehst du aber?
svenska
2005-08-20, 13:49:29
:confused: :confused:
Sag mal Razor, willst du hier provozieren?
Wenn du dir den Artikel angesehen hast, dann dürfte es klar sein, dass eine 6800@HQ nicht besser ist als eine ATI@Default.
finde ich gar nicht. die quali ist im HQ bei der 6800 etwas besser als bei der ATI. das war auch mein kaufargument vor einem jahr. ich hatte zu diesem zeitpunkt beide karten zum verlgeichen und der AF im HQ modus war meines erachtens überzeugend. (allerdings mit den üblichen abstrichen, winkel ect..)
MikBach
2005-08-20, 13:51:35
finde ich gar nicht. die quali ist im HQ bei der 6800 etwas besser als bei der ATI.
Lies den Artikel von aths!!!
ShadowXX
2005-08-20, 13:56:14
:confused:
Das tut man doch bei SC3:
http://www.simhq.com/_technology/technology_058b.html
Und die ATI ist schneller...
Vielleicht hat ATI bei der Entwicklung des R520 nicht gewusst, dass sie es auch über Shader hinbekommen würden.
Dann liess mal den Text von denen über HDR genau durch:
Without knowing exactly what enabling HDR with the 2.0 profile is changing in the rendered output, it's hard to reach any firm conclusions on the performance numbers these tests produced. Nevertheless, while the 2.0 profile saw a strong performance drop it's not comparable to the dip in framerate that the 3.0 HDR option results in with the 6800 GT. Worth noting is that there's a significant visual quality difference between the two higher shader profiles with this setting, as seen below in the screenshots section of the article. Whether or not the game is playable at 1600x1200 with these features enabled is up to the individual's tolerance for low framerates.
und dieses hier:
The lack of parallax mapping and soft shadows is very noticeable between the 1.1 and 2.0 profile shots. The lighting between the 2.0 and 3.0 profile shots, however, while subtle is still noticeably different. The following screenshots do a better job in showing this difference.
Because of the confusion surrounding the HDR feature now available with the new 2.0 profile, the following screenshots are intended to display the visual differences between the two graphics boards used for this article. All features are enabled in these shots.
The most noticeable difference is that the specular lighting is much more pronounced with the 3.0 profile's HDR output and the entire scene isn't quite as dark as with the 2.0 profile. Interestingly enough, the 2.0 profile shows no visual difference with or without tone mapping enabled.
Wie du lesen kannst, hat ATI (von denen kommen ja die Shader), da wohl ein bisserl tricksen müssen.
Es ist eben keine richtige FP16-Blender Emulation, sondern nur etwas was in die Nähe kömmt....und dadurch auch etwas schlechter aussieht.
Razor
2005-08-20, 13:56:55
Wenn du dir den Artikel angesehen hast, dann dürfte es klar sein, dass eine 6800@HQ nicht besser ist als eine ATI@Default.Schon merkwürdig, dass ich dieses Fazit absolut nicht nachvollziehen kann.
Du 'glaubst' dies offenbar nur zu gerne...
Beispiel: das Filter-Video
Des Zeug wurde unter UT2003 aufgenommen und spiegelt damit die denkbar ungünstigste Ausgangslage eines Vergleichs dar, da hier alle IHV's kräftig hand-optimieren, die Einstellungen im Control-Panel des Treibers nunmehr nur noch "Schall-und-Rauch" sind. Die dorft getroffenen Fazits sind somit völlig wertlos und können bestenfalls dazu dienen, die BQ unter UT2003/4 zu dokumentieren, ohne damit einen Bezug auf die reguläre BQ nehmen zu wollen.
Mit HQ (AllOpt off) und 'Clamp' gibt es schlicht keine flimmernden Texturen mehr... und wenn aths 2xAF gefilterte Texturen ale 'flimmernd' bezeichnen möchte, dann scheint dies seine persönliche Meinung, die andere ganz offenbar nicht nachvollziehen können. 'Unruhe' durch ungleichmäßige Filterung lass ich gelten, welche ja leider schon seit Anbeginn bei ATI eine Begleiterscheinung ist und bei nVidia - dank ATI - mit der 6800 Einzug gefunden hat.
Ich hoffe, dass nun auch Du verstanden hast, was ich auszudrücken suchte.
Es geht aber um Vergleichbarkeit...
Ist das denn so schwer zu verstehen?Eine direkte Vergleichbarkeit war schon immer eine Illusion. Erst mit der 6800 sind sich ATI und nVidia näher gekommen... wenn sie auch noch Welten voneinander entfernt sind.
Razor
P.S.: Aber gerade dieser Artikel von aths (wir sprechen hier doch über das G70-Teil?), ging vollkommen an der Realität vorbei...
Mr. Lolman
2005-08-20, 13:57:00
Um das Flimmern bei ATI in Grenzen zu halten, darf man kein "High Quality" nehmen und muss den LOD herunter schrauben (thx @ lolman). Dann ist's erträglich, aber damit auch hinsichtlich der Texturschärfe lange nicht mehr mit der von nVidia zu vergleichen.
Gerne. Nur, das Tenebrae-Problem gibts genauso auf ner 6800GT @ HQ. Habs grad ausprobiert.
MikBach
2005-08-20, 13:57:31
Es ist eben keine richtige FP16-Blender Emulation, sondern nur etwas was in die Nähe kömmt....und dadurch auch etwas schlechter aussieht.
Könntest du mir bitte die Stellen nennen, wo ATI schlechter aussieht?
ShadowXX
2005-08-20, 14:00:17
Lies den Artikel von aths!!!
Im Artikel von aths, steht aths Meinung....wenn jemand andere Meinung ist und dieses anderes empfindet ist das wohl sein gutes Recht.
Ich bin jetzt erst mal auf die neuen Bug-Fix-Treiber von nV gespannt....denn im gegensatz zu den meisten anderen hier, glaube ich, das der G70 durch das "reparierte" AF kaum Leistung einbüßen wird.
Man wird sehen....
Seraf
2005-08-20, 14:00:28
Der Witz ist ja... ich hab' hier 'ne R9800p (und damit bessere BQ, als mit den R4x0) zu hause und kann direkt vergleichen. Ist mit ein Grund, warum ich hier dieses ganze 'Nachgeplappere' nicht verstehen kann...
Um das Flimmern bei ATI in Grenzen zu halten, darf man kein "High Quality" nehmen und muss den LOD herunter schrauben (thx @ lolman). Dann ist's erträglich, aber damit auch hinsichtlich der Texturschärfe lange nicht mehr mit der von nVidia zu vergleichen.
Aber ich bin ja offenbar 'nur' ein nVidia-F.....y.
Razor
Hmm, das hatte ich auch mal.
Bin mir aber nicht sicher ob es mit AI off und den neuen Treibern immer noch da ist....
Man braucht ja nur MoireMonster um es zu testen.
Darfst aber auch nicht vergessen das eine NV40 mit aktiviertem Clamp-Schalter auch Texturen auf LOD 0 setzt bei denen ein Programm negative Werte anfordert. D.h. das es auf einer Radeon flimmern kann weil sie das tut was sie soll ;)
MikBach
2005-08-20, 14:01:12
Schon merkwürdig, dass ich dieses Fazit absolut nicht nachvollziehen kann.
Wundert mich ehrlich gesagt nicht...
Ich hoffe, dass nun auch Du verstanden hast, was ich auszudrücken suchte.
Nö...
Razor
P.S.: Aber gerade dieser Artikel von aths (wir sprechen hier doch über das G70-Teil?), ging vollkommen an der Realität vorbei...
Damit hast du dich disqualifiziert, was die Objektivität angeht....
MikBach
2005-08-20, 14:02:11
Im Artikel von aths, steht aths Meinung....wenn jemand andere Meinung ist und dieses anderes empfindet ist das wohl sein gutes Recht.
Das ist Unsinn pur.
Die Videos sind objektiv...
ShadowXX
2005-08-20, 14:02:16
Könntest du mir bitte die Stellen nennen, wo ATI schlechter aussieht?
Steht doch im Artikel und sind sogar Screenie dabei.
Lies den Artikel auf der Seite ganz durch und guck die die Screenshots an....da wird es doch genau beschrieben.
Wenn du da die Unterschiede nicht siehst, kann ich auch sagen, ich seh kein Flimmern beim G70.
Mr. Lolman
2005-08-20, 14:04:50
Steht doch im Artikel und sind sogar Screenie dabei.
Lies den Artikel auf der Seite ganz durch und guck die die Screenshots an....da wird es doch genau beschrieben.
Wenn du da die Unterschiede nicht siehst, kann ich auch sagen, ich seh kein Flimmern beim G70.
Das ist das Tonemapping. Mit HDR alleine gibts ja anscheinend keine Unterschiede. Und aufs Tonemapping würd ich mich auch nicht versteifen, denn das arbeitet bei SC3 so seltsam, dass man fast meinen könnte, es wäre kaputt...
Razor
2005-08-20, 14:04:54
Naja, bis auf die AF Optimierungen. Die merkt man schon. (Besonders GF3/4 Besitzer. ;) )Jau!
Und vielleicht bekommen sie ja beides noch irgendwann in den Griff...
...nebst Verfügbarkeit für AGP selbstredend.
Für mich ist die 7800 derzeit echt 'ne Mißgeburt, sorry.
:down:
Razor
Seraf
2005-08-20, 14:07:22
Steht doch im Artikel und sind sogar Screenie dabei.
Lies den Artikel auf der Seite ganz durch und guck die die Screenshots an....da wird es doch genau beschrieben.
Wenn du da die Unterschiede nicht siehst, kann ich auch sagen, ich seh kein Flimmern beim G70.
Es geht ja nicht direkt ums flimmern sondern um diese seltsame Optimierung hier:
Video (http://rapidshare.de/files/4117114/Halflife7800GTX-Xvid.avi.html)
Blaire, DerOminöseGast, Frank819 und mbee haben es auf ihren Karten nachgetestet und bestätigt.
Es wäre schön wenn es mit dem neuen Treiber weg ist.
MikBach
2005-08-20, 14:07:43
Wenn du da die Unterschiede nicht siehst, kann ich auch sagen, ich seh kein Flimmern beim G70.
Dann schau dir dieses Video an!
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3390587#post3390587
Und jetzt sag mir ins Gesicht, dass die 7800 korrekt filtert. :mad:
ShadowXX
2005-08-20, 14:07:55
Das ist Unsinn pur.
Die Videos sind objektiv...
Die Videos sind alles möglich...aber nicht objektiv.
Das sind absolute Worst-Case-Videos, die nicht im entferntesten das wiederspiegeln was ich auf dem Monitor sehe.
Das einzige was mit den Videos bewiesen wird, ist das der G70 eher zum Flimmern neigt....und das sollte sich mit den nächsten Treibern dann wohl auch geben.
Anmerkung: Ich finde das mit dem FlimmerAF (ja, ich sehe es teilweise auch muss aber um ehrlich zu sein danach suchen...dies HL2 Ding im Fahrstuhl liegt wohl noch an was anderem, da ich sowas nur bei HL2 nachvollzeihen kann) auch schei**e und will ab der nächsten Gen auch was anderes sehen, sonst können sich die beiden Ihre Karten sonstwo hinstecken....aber was da von aths mit den Videos gemacht wird ist Rufmord.
Speziell wenn es im nächsten Treiber gefixt sein sollte und sich dazu rausstellt, das es nur minimale Performancedrops gibt.
svenska
2005-08-20, 14:08:58
Lies den Artikel von aths!!!
ja und? den hatte ich mit als erstes gelesen und bin informiert. dennoch ist die BQ einer 68er @HQ besser als alle zZ verfügbaren ATI graka. der treiber is nur mist, mit früheren treibern konnte man das problem des flimmerns ja nicht mehr nachvollziehen.
Dann schau dir dieses Video an!
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3390587#post3390587
Und jetzt sag mir ins Gesicht, dass die 7800 korrekt filtert. :mad:
du bist so ein aktionistischer schreihals, fast schon dilettantisch. hol' erstmal luft und mach mal pause. warte auf den neuen treiber bzw. die entwicklung und was das so bleiben sollte, dass es schlecht gefiltert wird, dann hast du recht und wenn nicht, dann mach dein kopp zu. :D
ShadowXX
2005-08-20, 14:09:27
Das ist das Tonemapping. Mit HDR alleine gibts ja anscheinend keine Unterschiede. Und aufs Tonemapping würd ich mich auch nicht versteifen, denn das arbeitet bei SC3 so seltsam, dass man fast meinen könnte, es wäre kaputt...
Wenn du meinst.......
Razor
2005-08-20, 14:11:27
Gerne. Nur, das Tenebrae-Problem gibts genauso auf ner 6800GT @ HQ. Habs grad ausprobiert.Hab' ich hier auf der Platte... 4xAA und 16xHQ AllOpt off und 'Clamp' on (auch wenn letzteres wenig mit OGL zu tun hat ;-)... KEIN Flimmern... nix. Allerdings nur Tenebrae... Tenebrae2 mag nicht so recht funzen.
Razor
MikBach
2005-08-20, 14:12:13
ja und? den hatte ich mit als erstes gelesen und bin informiert. dennoch ist die BQ einer 68er @HQ besser als alle zZ verfügbaren ATI graka.
Das ist Unsinn!!!
Ich kann es sehr gut vergleichen weil ich eine 9800PRO und eine 6800GT habe...
Die BQ der 6800GT kommt meistens and die 9800 ran, aber nicht immer. :P
Geht doch ins ATI Forum ;D und laabert nen bisgen über "AI" :wink:
Wen interessiert wie Kacke AI ist, WENN es abschaltbar ist? Ich will ja nicht bashen :( , aber - auch wenn ich nur ein Gast bin - Du bist hier der einzige der mir so richtig auf den Panzer geht. Es gab so ein Spiel für Dreamcast, daß zurückgezogen und überabreitet werden mußte, weil das Flimmern bei manchen anfälligen Kidds epileptsiche Anfälle hervorgerufen hat. So schlimm ist es bei einer G70 aber wohl doch nicht (?) Oder doch?
EOD
svenska
2005-08-20, 14:13:41
Das ist Unsinn!!!
Ich kann es sehr gut vergleichen weil ich eine 9800PRO und eine 6800GT habe...
Die BQ der 6800GT kommt meistens and die 9800 ran, aber nicht immer. :P
ROFL
www.noob.de
#edit:
verdammt, diese seite gibbet ja tatsächlich ^^
ShadowXX
2005-08-20, 14:13:42
Dann schau dir dieses Video an!
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3390587#post3390587
Und jetzt sag mir ins Gesicht, dass die 7800 korrekt filtert. :mad:
Siehe anderes Post......ich habe übrigens auch ein 9800Pro rumliegen und ich kenn ein paar Games, da Flimmert das Ding auf ATI-HQ schlimmer als ein G70 in einem halbwegs Worst-Case-Szenario.
Hast du eine 7800GTX....nein...dann guck Sie dir bitte erst mal im RL an, bevor du über die Karte urteilst.
Bis jetzt hat jeder, der sich bei mir die Karte in Real angeguckt hat die Aufregung über das Flimmern nicht nachvollziehen können....und da waren ein paar beinharte ATI-Jünger drunter.
ShadowXX
2005-08-20, 14:18:10
Schon merkwürdig, dass ich dieses Fazit absolut nicht nachvollziehen kann.
Du 'glaubst' dies offenbar nur zu gerne...
Beispiel: das Filter-Video
Des Zeug wurde unter UT2003 aufgenommen und spiegelt damit die denkbar ungünstigste Ausgangslage eines Vergleichs dar, da hier alle IHV's kräftig hand-optimieren, die Einstellungen im Control-Panel des Treibers nunmehr nur noch "Schall-und-Rauch" sind. Die dorft getroffenen Fazits sind somit völlig wertlos und können bestenfalls dazu dienen, die BQ unter UT2003/4 zu dokumentieren, ohne damit einen Bezug auf die reguläre BQ nehmen zu wollen.
Mit HQ (AllOpt off) und 'Clamp' gibt es schlicht keine flimmernden Texturen mehr... und wenn aths 2xAF gefilterte Texturen ale 'flimmernd' bezeichnen möchte, dann scheint dies seine persönliche Meinung, die andere ganz offenbar nicht nachvollziehen können. 'Unruhe' durch ungleichmäßige Filterung lass ich gelten, welche ja leider schon seit Anbeginn bei ATI eine Begleiterscheinung ist und bei nVidia - dank ATI - mit der 6800 Einzug gefunden hat.
Ich hoffe, dass nun auch Du verstanden hast, was ich auszudrücken suchte.
Eine direkte Vergleichbarkeit war schon immer eine Illusion. Erst mit der 6800 sind sich ATI und nVidia näher gekommen... wenn sie auch noch Welten voneinander entfernt sind.
Razor
P.S.: Aber gerade dieser Artikel von aths (wir sprechen hier doch über das G70-Teil?), ging vollkommen an der Realität vorbei...
Ich bin selten deiner Meinung, aber in diesem Fall ein "Ack".
MikBach
2005-08-20, 14:18:15
Siehe anderes Post......ich habe übrigens auch ein 9800Pro rumliegen und ich kenn ein paar Games, da Flimmert das Ding auf ATI-HQ schlimmer als ein G70 in einem halbwegs Worst-Case-Szenario.
:eek:
Jetzt übertreibst du aber.
Nenn mir bitte Spiel und Szene (Level). :)
Hast du eine 7800GTX....nein...dann guck Sie dir bitte erst mal im RL an, bevor du über die Karte urteilst.
Ich habe eine 7800GTX ca. 30 Stunden lang getestet...
Reicht das?
Mr. Lolman
2005-08-20, 14:20:15
Wenn du meinst.......
Ich weiss es zumindest von der Demo. Und iirc gibts von Coda sogar ein Statement, dass bei der Tonemapping Einheit des NV40 tatsächlich ein Problem vorhanden sein könnte.
Am deutlichsten merkt mans in der Höhle mit der Hängebrücke. Wenn man da den Mauscursor ein paar mm von ner dunklen Stelle auf ne Helle bewegt hat, ist das gesamte Bild gleich deutlich heller geworden, so als ob nur ein paar Pixel der Bildmitte den Ausgangswert fürs Tonemapping bilden. Schon komisch, denn bei Farcry funktionierts ja auch. Außerdem weiss ich nicht, obs sie das vll. nicht schon mit der Full gefixt haben -> also Aussage unter vorbehalt betrachten ;)
BTW: Andererseits funktioniert bei TM Sunrise das Tonemapping auch mit SM2.0 Karten. (Der Demoversion gefällts halt nicht besonders wenn man mittem im Rennen neu startet -> Tonemapping wird nicht zurückgesetzt sondern mappt anhand der aktuellen Werte munter weiter ;))
Razor
2005-08-20, 14:20:43
Darfst aber auch nicht vergessen das eine NV40 mit aktiviertem Clamp-Schalter auch Texturen auf LOD 0 setzt bei denen ein Programm negative Werte anfordert. D.h. das es auf einer Radeon flimmern kann weil sie das tut was sie soll ;)Negatives LOD kann im Prinzip gar nicht 'sinnvoll' sein, es drückt höchstens aus, dass die Progger geschlampt haben. Aber leider flimmert ATI auch in Situationen, wo offenbar kein negatives LOD bias der Grund ist. Keine Ahnung, warum das so ist... habe mich nie wirklich grundlegend damit beschäftigt.
Lolman hat mich zumindest damals überzeugt, dass man auch mit ATI brauchbare BQ bekommen kann, wenn man sich mit diversen Einstellungen im Treiber auseinander setzt und auch akzeptiert, dass diese teils von Game zu Game unterschiedlich sein müssen... was ob der fehlenden Profile (die durch Tools der community nachgereicht werden) ausgesprochen unschön ist. Auch muss man eben mit 'weicheren' Bildern leben (ich drücke es hier extra mal weniger provokant aus, als ich dies sonst tue ;-).
Razor
Razor
2005-08-20, 14:21:57
Das ist Unsinn pur.
Die Videos sind objektiv...Damit hast du dich disqualifiziert, was die Objektivität angeht....OK, man könnte Deine Komentare auch der Reihenfolge umkehren...
:D
Razor
Mr. Lolman
2005-08-20, 14:24:39
Hab' ich hier auf der Platte... 4xAA und 16xHQ AllOpt off und 'Clamp' on (auch wenn letzteres wenig mit OGL zu tun hat ;-)... KEIN Flimmern... nix. Allerdings nur Tenebrae... Tenebrae2 mag nicht so recht funzen.
Razor
Nö, es flimmert schon. Starte ein neues Spiel und geh zum Eingang der 3. Episode. Steig auf die letzte Stufe (so knapp, dass man bei nem Schritt zurück ne Stufe runterfällt) und dreh die Maus ein bisschen herum.
Nur ists momentan anscheinend nicht ganz vergleichbar mit meinen Ati Shots, da bei der Mip0 aufeinmal der Lichteffekt fehlt -> gesamte Szene ist etwas dunkler...
MikBach
2005-08-20, 14:24:49
OK, man könnte Deine Komentare auch der Reihenfolge umkehren...
:D
Razor
:confused: :eek:
Wieso denn?
Lies ma den Artikel von aths oder schau dir die grauenhaften Vidieos an.
Dann bist du geheilt. :mad:
Seraf
2005-08-20, 14:29:05
:confused: :eek:
Wieso denn?
Lies ma den Artikel von aths oder schau dir die grauenhaften Vidieos an.
Dann bist du geheilt. :mad:
Lass das!
Wie ich Razor kenne legt er auf Meinungen von einigen Usern (aths, Stefan Payne ... einige andere) keinen Wert. ;)
Razor
2005-08-20, 14:29:37
Am deutlichsten merkt mans in der Höhle mit der Hängebrücke. Wenn man da den Mauscursor ein paar mm von ner dunklen Stelle auf ne Helle bewegt hat, ist das gesamte Bild gleich deutlich heller geworden, so als ob nur ein paar Pixel der Bildmitte den Ausgangswert fürs Tonemapping bilden. Schon komisch, denn bei Farcry funktionierts ja auch. Außerdem weiss ich nicht, obs sie das vll. nicht schon mit der Full gefixt haben -> also Aussage unter vorbehalt betrachten ;)War ein Problem in der Demo... und ist defakto in der retail gefixt. Überhaupt ist es ziemlich krass, von Problemen mit Vorab-Versionen von Anwendungen/Games auf Probleme in der Hardware schließen zu wollen... aber das steht noch auf einem anderen Blatt.
Razor
Mr. Lolman
2005-08-20, 14:30:44
War ein Problem in der Demo... und ist defakto in der retail gefixt.
Tatsache?
MikBach
2005-08-20, 14:33:27
Lass das!
Wie ich Razor kenne legt er auf Meinungen von einigen Usern (aths, Stefan Payne ... einige andere) keinen Wert. ;)
Das geht mir aber ehrlich gesagt am Arsch vorbei worauf Razor achtet. Für mich ist er ein User wie jeder andere, auch aths hat von mir schon mal eins auf den Deckel bekommen wegen der FX.
Naja, bis auf die AF Optimierungen. Die merkt man schon. (Besonders GF3/4 Besitzer. ;) )
Für mich ist die AF/Filterqualität, der größte und einzige Kritikpunkt am G70. (Bis auf den Preis. ;D )
Wenn der behoben ist, kommt die Karte für mich wieder in Frage. Aber wirklich erst wenn er behoben ist. Ich werde mich nicht blind darauf verlassen was NV alles verspricht.
Wenn der R520 bis dahin raus ist und ähnliche Leistung, Features und GF4-like AF liefert, ist meine nächste Karte halt ein R520.
Der Kauf meiner letzten ATI Karte ist auch schon ziemlich lange her.
Nicht weil ich NV vorziehe, sondern weil ich besonders gute Angebote irgendwie immer nur für NV Kartenbekomme. ;)
Ja :) So läßt man sie aber nichts in der Kasse spüren, daß sowas bitte nicht geht. Ich jag schon nach "best driver for my NV" seit der TNT2pro. Was man so alles im Laufe dieser Zeit erlebt hat weißt Du auch selbst. Bist auch kein Bub mehr. Und ich hab da echt keinen Bock mehr drauf. 2 NV Generationen laß ich aus. Die 9800XT rennt schon seit einiger Zeit bestens. Cat ist, jedenfalls für Windows, mittlerweile eine Institution. Die nächste wird auch eine ATI. Und dann mal gucken wie es weiter geht. Weißt ja, vergebe Deinen Feinden, aber vergesse ihre Namen nicht :wink:
p.s.:
Wenn sie mit dem R5x0 die gleiche Quali wie sie hier mit dem R360 bieten, samt AI aus, low und high, dann wäre das für mich schon ok.
The_Invisible
2005-08-20, 14:36:17
Nö, es flimmert schon. Starte ein neues Spiel und geh zum Eingang der 3. Episode. Steig auf die letzte Stufe (so knapp, dass man bei nem Schritt zurück ne Stufe runterfällt) und dreh die Maus ein bisschen herum.
Nur ists momentan anscheinend nicht ganz vergleichbar mit meinen Ati Shots, da bei der Mip0 aufeinmal der Lichteffekt fehlt -> gesamte Szene ist etwas dunkler...
lol, sorry...
wenn ich aber sowas lese frage ich mich wirklich ob diese situation krampfhaft gesucht wurde oder durch zufall darüber gestolpert bist
Seraf
2005-08-20, 14:36:19
Das geht mir aber ehrlich gesagt am Arsch vorbei worauf Razor achtet. Für mich ist er ein User wie jeder andere, auch aths hat von mir schon mal eins auf den Deckel bekommen wegen der FX.
Mit Razor kannst du aber so gut wie mit S.Payne diskutieren. (Vielleicht nicht ganz so schlimm).
Wenn du also keinen Flamewar initieren, Kopfschmerzen bekommen und dauernt gegen die Wand laufen willst dann lass Razor seine Meinung. ;)
p.s.
Razor, nimms nicht (zu) persönlich :D
Razor
2005-08-20, 14:40:05
Nö, es flimmert schon. Starte ein neues Spiel und geh zum Eingang der 3. Episode. Steig auf die letzte Stufe (so knapp, dass man bei nem Schritt zurück ne Stufe runterfällt) und dreh die Maus ein bisschen herum.
Nur ists momentan anscheinend nicht ganz vergleichbar mit meinen Ati Shots, da bei der Mip0 aufeinmal der Lichteffekt fehlt -> gesamte Szene ist etwas dunkler...Hab' die ATI gerade in 'nem Rechner aus der Firma... insofern ist sogar ein direkter Vergleich möglich. Und nein, Lichteffekte fehlen da nicht (ist wohl noch Cat 4.8 ;-). Und es flimmert an dieser Stelle (bei den bebumpten und geshaderten Wand-Texturen ;-) exakt genauso, wie bei der 6800@HQ... und ist wohl auf zu niedriges LOD der Texturen von Tenebrae zurück zu führen, welches man bei der gemoddeten Q1-Engine ja leider nicht justieren kann. Schon schade, dass 'clamp' bei OGL keine Wirkung zeigt... aber meist halten sich die Entwickler ja am Riemen... was bei den Proggern dieses Addons wohl eher nicht gegeben ist.
Nochmal kurz: ganz normales negLOD-Flimmern... nur eben unter OGL.
Razor
Razor
2005-08-20, 14:43:16
Wie ich Razor kenne legt er auf Meinungen von einigen Usern (aths, Stefan Payne ... einige andere) keinen Wert. ;)Bei Payne sind es die Netzteil-Kommentare, die mich fastzinieren... der Rest ist leider oft schrott. aths Meinung lass ich ja gelten... jeder hat ein Recht auf die Seinige... nur muss man sich dieser ja nicht anschließen... schon gar nicht, wenn diese auf einem - diesmal sehr - unsauber recherchierten "Artikel" zurück zu führen ist.
Razor
Razor
2005-08-20, 14:44:38
Tatsache?Jup.
Razor
doom1
2005-08-20, 15:03:46
also liegt es doch nur an der "grünen brille" ?
(..)
mfg
tobi
Ich?
hatte vorher ne 800PE und danach ne 850PE im Rechner und auch zufrieden und zum xxxten Male wenn ich an dem grünen Zeug`s (Qualli)was auszusetzen hätte wäre es schon längst wieder rausgeflogen.
doom1
2005-08-20, 15:10:00
LOL.
Komm mal wieder runter...
Das Flimmern bei der 7800 siehst du aber?
Du bist blind und d... aber egal so welche brauchen wir um uns richtig an userer Hardware zu erfreuen.
doom1
2005-08-20, 15:11:56
Ich hoffe doch mal das ein guter Treiber kommt ;)
Aber die Frage ist doch angebracht ob ohne Druck der Community durch Artikel und Mundpropaganda NV sich dazu genötigt sieht den Treiber anzupassen.
Das ist ja schön. (Hast du eigentlich eine G70??). Denk aber auch mal an die unglücklichen Kartenbesitzer. :wink:
Ihr immer mit eurem Schubladendenken. ;) Und ATI hats drauf. Die wissen wie man die eigenen Optimierungen perfekt vor der Community versteckt. :ucatch:
Nein ich habe ZWEI!!!!! :tongue:
Und bin so richtig unglücklich.
MikBach
2005-08-20, 15:12:44
Bei Payne sind es die Netzteil-Kommentare, die mich fastzinieren... der Rest ist leider oft schrott. aths Meinung lass ich ja gelten... jeder hat ein Recht auf die Seinige... nur muss man sich dieser ja nicht anschließen... schon gar nicht, wenn diese auf einem - diesmal sehr - unsauber recherchierten "Artikel" zurück zu führen ist.
Razor
Unsinn.
Gegen Damien habe auch 10 Razors keine Chance...
doom1
2005-08-20, 15:14:39
Dann liess mal den Text von denen über HDR genau durch:
und dieses hier:
Wie du lesen kannst, hat ATI (von denen kommen ja die Shader), da wohl ein bisserl tricksen müssen.
Es ist eben keine richtige FP16-Blender Emulation, sondern nur etwas was in die Nähe kömmt....und dadurch auch etwas schlechter aussieht.
Er kann doch gar nicht lesen nur irgendwas nachplappern....siehe Razor`s Text etc.vergiß den Kerl und fertig.
MikBach
2005-08-20, 15:17:51
Er kann doch gar nicht lesen nur irgendwas nachplappern....siehe Razor`s Text etc.vergiß den Kerl und fertig.
Wenn ich Mod wäre, würde ich dir Punkte wegen Flames/Provokationonen verpassen...
Lies meine Postings...
Seraf
2005-08-20, 15:18:45
Nein ich habe ZWEI!!!!! :tongue:
Und bin so richtig unglücklich.
Dich hab ich bestimmt nicht gemeint. :tongue:
Wenn du glücklich bist ist es ja ok.
Im Thread zum Flimmerartikel gibts aber zwei oder drei G70 Besitzer die nicht so glücklich sind. mbee und derominöseGast und noch jemand.
doom1
2005-08-20, 15:20:14
Wen interessiert wie Kacke AI ist, WENN es abschaltbar ist? Ich will ja nicht bashen :( , aber - auch wenn ich nur ein Gast bin - Du bist hier der einzige der mir so richtig auf den Panzer geht. Es gab so ein Spiel für Dreamcast, daß zurückgezogen und überabreitet werden mußte, weil das Flimmern bei manchen anfälligen Kidds epileptsiche Anfälle hervorgerufen hat. So schlimm ist es bei einer G70 aber wohl doch nicht (?) Oder doch?
EOD
Klar weil ich sage was sache ist, AI abschalten aha......bei den G70 kann man es auch einstellen das nix flimmert.
Aber hauptsache den Kram versuchen madig zu machen gebt es endlich auf.
MikBach
2005-08-20, 15:21:48
Klar weil ich sage was sache ist, AI abschalten aha......bei den G70 kann man es auch einstellen das nix flimmert.
Wie?
doom1
2005-08-20, 15:21:59
Das ist Unsinn!!!
Ich kann es sehr gut vergleichen weil ich eine 9800PRO und eine 6800GT habe...
Die BQ der 6800GT kommt meistens and die 9800 ran, aber nicht immer. :P
Ich dachte Du hast ne G70 weil Du alles so genau sehen kannst wie sch...ße die Karte ist?
doom1
2005-08-20, 15:22:52
:eek:
Jetzt übertreibst du aber.
Nenn mir bitte Spiel und Szene (Level). :)
Ich habe eine 7800GTX ca. 30 Stunden lang getestet...
Reicht das?
muuhhaaaaaa im Promarkt?
MikBach
2005-08-20, 15:24:19
Ich dachte Du hast ne G70 weil Du alles so genau sehen kannst wie sch...ße die Karte ist?
Alter, lies mal genauer ....
Ich hatte die G70 30 Stunden zum Testen...
Mr. Lolman
2005-08-20, 15:24:27
lol, sorry...
wenn ich aber sowas lese frage ich mich wirklich ob diese situation krampfhaft gesucht wurde oder durch zufall darüber gestolpert bist
Du kennst meine ATi Vergleiche nicht. Ich hab RAzor nur die Stelle beschrieben, an der ich die BQ Vergleiche mit meiner ATi Karte gemacht hatte. Im Konkreten ists halt wieder mal ne Textur und deren Mipmaps, die zum FLimmern neigen, sowas braucht man nicht kleinreden...
MikBach
2005-08-20, 15:24:34
muuhhaaaaaa im Promarkt?
LOOOOOOL.
doom1
2005-08-20, 15:25:19
Wie?
Braucht dich noch nicht zu interessieren du hast ja keine im übrigen ist das zigmal gesagt und geschrieben worden.
doom1
2005-08-20, 15:26:23
Alter, lies mal genauer ....
Ich hatte die G70 30 Stunden zum Testen...
jaja schon klar und Du weist noch nicht mal wie man die Optimierungen ausstellt..........
Mr. Lolman
2005-08-20, 15:26:30
Nochmal kurz: ganz normales negLOD-Flimmern... nur eben unter OGL.
Razor
Nö, es liegt eindeutig an der Textur. Die Mipmaps sind einfach äußerst suboptimal. Ich hab die Textur sogar in UT99 importiert und es dort ausprobiert: Flimmert genauso.
/edit: Lol, warum bashen sich jetzt Mikbach und doom1? Wart ihr euch gerade vorher nicht noch eher wohlgesonnen?
MikBach
2005-08-20, 15:28:41
Braucht dich noch nicht zu interessieren du hast ja keine im übrigen ist das zigmal gesagt und geschrieben worden.
Wenn du so weiter machst, ist die Ignoreliste sicher.
So weit hat es bisher keiner gebracht.
Also nochmal die Frage, wie willst du mit den aktuellen Treibern dieses "Unglück" beheben?
doom1
2005-08-20, 15:29:49
Dich hab ich bestimmt nicht gemeint. :tongue:
Wenn du glücklich bist ist es ja ok.
Im Thread zum Flimmerartikel gibts aber zwei oder drei G70 Besitzer die nicht so glücklich sind. mbee und derominöseGast und noch jemand.
Nicht alles aber wenn man sich als alter ATI Nutzer in das Treiberwirrwar wieder reingewurstelt hat paßt es schon.Die Sachen die mir richtig auf den Keks gehen werden ja nun gefixt und das geht mir RICHTIG AUF DEN SACK den mir kann keiner weismachen das die Typen von NV davon keine Ahnung hatten UND DAS KOTZT MICH AN.
doom1
2005-08-20, 15:37:26
Wenn du so weiter machst, ist die Ignoreliste sicher.
So weit hat es bisher keiner gebracht.
Also nochmal die Frage, wie willst du mit den aktuellen Treibern dieses "Unglück" beheben?
Der erste Trick ist ...sich nicht 1cm vor den Monitor zu setzen.....
das andere ist ne Einstellungssache... ;D
und nun hab ich keinen Bock mehr ich geh jetzt watt Batt2 zocken und erfreu mich an der super Grafik.
ich geh jetzt watt Batt2 zocken und erfreu mich an der super Grafik.
Könnte sicherlich besser sein :D
MikBach
2005-08-20, 15:51:41
Der erste Trick ist ...sich nicht 1cm vor den Monitor zu setzen.....
Warum sollte ich das?
50 Cm reichen, um die Scheisse bei der 7800 zu sehen...
eXodia
2005-08-20, 15:52:54
Warum sollte ich das?
50 Cm reichen, um die Scheisse bei der 7800 zu sehen...
Ist ja gut... :ucrazy2:
The_Invisible
2005-08-20, 15:54:32
Du kennst meine ATi Vergleiche nicht. Ich hab RAzor nur die Stelle beschrieben, an der ich die BQ Vergleiche mit meiner ATi Karte gemacht hatte. Im Konkreten ists halt wieder mal ne Textur und deren Mipmaps, die zum FLimmern neigen, sowas braucht man nicht kleinreden...
war net bös gemeint, habs nur irgendwie lustig gefunden wie du das beschrieben hast ;)
mfg
Razor
2005-08-20, 16:13:05
Du kennst meine ATi Vergleiche nicht. Ich hab RAzor nur die Stelle beschrieben, an der ich die BQ Vergleiche mit meiner ATi Karte gemacht hatte. Im Konkreten ists halt wieder mal ne Textur und deren Mipmaps, die zum FLimmern neigen, sowas braucht man nicht kleinreden...Aber auch nicht aufbauschen...
Zumal Du ja schon selber festgestellt hast, dass bei Dir offenbar ein Teil der Beleuchtung von neueren Catas unterschlagen wird (was bei älteren Games durchaus 'üblich' ist ;-). So bitte ich Dich denn doch, Dir diese Scenerie nochmal unter vergleichbaren Umständen näher anzuschaun'.
Nö, es liegt eindeutig an der Textur. Die Mipmaps sind einfach äußerst suboptimal. Ich hab die Textur sogar in UT99 importiert und es dort ausprobiert: Flimmert genauso.War halt nur 'ne Vermutung von mir...
Ich wollte allerdings eher darauf hinaus, dass sich hier ATI und nVidia hinsichtlich der Flimmerneigung exakt an dieser Stelle des Q1-Mods gleichen, egal woran es liegt.
Razor
Mr. Lolman
2005-08-20, 16:18:20
Aber auch nicht aufbauschen...
Zumal Du ja schon selber festgestellt hast, dass bei Dir offenbar ein Teil der Beleuchtung von neueren Catas unterschlagen wird (was bei älteren Games durchaus 'üblich' ist ;-). So bitte ich Dich denn doch, Dir diese Scenerie nochmal unter vergleichbaren Umständen näher anzuschaun'.
Das Beleuchtungsproblem hab ich auf der 6800GT mit dem 77.77 und ich will nicht schon wieder Treiber durchprobieren :)
Razor
2005-08-20, 16:29:24
Das Beleuchtungsproblem hab ich auf der 6800GT mit dem 77.77 und ich will nicht schon wieder Treiber durchprobieren :)Wus?
Auch bei mir ist der 77.77 druf'.
Bis Du sicher, dass da bei Dir nicht irgend etwas durcheinander geraten ist?
Musste selber noch nie irgendwelche Treiber 'probieren', um irgendwas 'zum Laufen' zu bekommen...
Razor
Mr. Lolman
2005-08-20, 16:35:00
Wus?
Auch bei mir ist der 77.77 druf'.
Bis Du sicher, dass da bei Dir nicht irgend etwas durcheinander geraten ist?
Musste selber noch nie irgendwelche Treiber 'probieren', um irgendwas 'zum Laufen' zu bekommen...
Razor
Hm, relativ sicher. Aber wenn du Tenebrae1 eh installiert hast, kannst dus ja selbst testen. An besagter Stelle sieht man aus gewisser Entfernung die Wand noch beleuchtet, sobald man sich dieser nähert wird die Textur immer dünkler, fast schwarz...
DaBrain
2005-08-20, 17:32:09
@Doom1 Ich weiss gar nicht was du hast. Der G70 hat eben eine schlechtere Texturenqualität als NV40 und R4x0.
Nvidia gibt es ja sogar zu. Wenn alles ok wäre, müsste man nicht an einem Fix arbeiten.
SSAA und positive LOD Werte sind keine wirkliche Lösung des Problems, sondern nur ein Umgehen.
Der NV40 hat genau wie der R4x0 schon eine mangelhafte AF Qualität, aber der G70 geht da sogar noch einen Schritt weiter.
Wenn es gefixt wird ist doch wieder alles ok. Ich sehe gar kein Problem darin zuzugeben, dass der aktuelle NV Chip einen Mangel hat.
Alle haben ihre Schwächen. ATI hat immer noch kein PS 3.0 und rechnet nur mit 24-Bit Präzision. Das ist genauso Fakt. Dagegen kann auch kein ATI User was sagen. Es stimmt einfach.
doom1
2005-08-20, 18:02:09
@Doom1 Ich weiss gar nicht was du hast. Der G70 hat eben eine schlechtere Texturenqualität als NV40 und R4x0.
Nvidia gibt es ja sogar zu. Wenn alles ok wäre, müsste man nicht an einem Fix arbeiten.
SSAA und positive LOD Werte sind keine wirkliche Lösung des Problems, sondern nur ein Umgehen.
Der NV40 hat genau wie der R4x0 schon eine mangelhafte AF Qualität, aber der G70 geht da sogar noch einen Schritt weiter.
Wenn es gefixt wird ist doch wieder alles ok. Ich sehe gar kein Problem darin zuzugeben, dass der aktuelle NV Chip einen Mangel hat.
Alle haben ihre Schwächen. ATI hat immer noch kein PS 3.0 und rechnet nur mit 24-Bit Präzision. Das ist genauso Fakt. Dagegen kann auch kein ATI User was sagen. Es stimmt einfach.
hab ich doch gar kein prob. :confused: hab ich doch schon zigmal geschrieben das mir so einiges auf den Senkel geht "man kann es aber umgehen" Punkt.
Mit geht nur das ewige Rumgesülze "ach was für ein flimmer Müll" auf den Keks vorallem von Leuten die die Karte gar nicht haben und sich irgendwelche Bildchen anschauen und dann los schreien und wie gesagt ich hatte vorher eine 850PE im Rechner......ich kann es sehr gut nachvollziehen was schlechter oder besser ist.....schärfer oder matsch..usw.
Ice =A=
2005-08-20, 18:30:17
Ich verstehe grundsätzlich nicht, warum jemand, der mit seiner Karte persönliuch voll zufrieden ist, denjenigen, die das nicht sind, seine Meinung unbedingt aufzwingen möchte. Ich versteh nichtmal, warum so jemand überhaupt hier postet. Für ihn ist doch alles ok, warum also Threads zu dem Thema auch nur lesen?!
Die wirklich einzige Begründung dafür, die ich finde, ist, daß diejenigen Ihre karte vor sich selbst schönreden wollen. Und das hat hier nichts zu suchen.
Und immer die Beschwerden, daß jemand pingelig die eine Stelle oder das eine Bild beschreibt und sucht, wo der Fehler auffällt. Man sucht halt die "besten" und auffälligsten Stellen zu einem Problem, das is doch normal. Außerdem bewertet man eine Sache nicht an der Stelle, wo sie optimal ist, sondern anhand der Sache, wo sie die größten Defizite hat! Würdet Ihr ein Auto mit dem stärksten und besten Motor kaufen, wenn die Bremse Probleme macht?!
Und generell: Hört doch mal mit diesem kindischen Gezänke auf!
MikBach
2005-08-20, 18:59:43
Ist ja gut... :ucrazy2:
:confused:
Was soll das?
Und was wäre dann daran schlecht?
IMHO ist das AF der 6800 (unter HQ) dem von ATI gar überlegen...
Wo soll das besser sein???? Ist doch Tatsache, dass es das nicht ist! Habe beide Karten daheim und bei jeder Lan bestätigt sich das wieder und wieder.
MikBach
2005-08-20, 19:48:01
Und was wäre dann daran schlecht?
IMHO ist das AF der 6800 (unter HQ) dem von ATI gar überlegen...
Nein.
eXodia
2005-08-20, 20:29:07
Nein.
Er hat IMO geschrieben... :rolleyes:
GrUß
MikBach
2005-08-20, 20:30:56
Er hat IMO geschrieben... :rolleyes:
GrUß
Deswegen hab ich ihn ja korregiert. :)
Das AF von ATI ist besser als 6800@HQ.
eXodia
2005-08-20, 20:34:03
Deswegen hab ich ihn ja korregiert. :)
Das AF von ATI ist besser als 6800@HQ.
Das ist richtig, aber für ihn ist es das nicht. Was gibbet da nicht zu verstehen... :|
GrUß
Ice =A=
2005-08-20, 20:36:05
Eigentlich geht's hier doch um das Flimmer-Problem der 7800er Karten, nicht um die generelle Qualität des anisotropen filterings bei 6800er Karten.
Zu letzterem gab's schon zahlreiche Diskussionen.
eXodia
2005-08-20, 20:36:23
:confused:
Was soll das?
Nun, ist eigentlich ganz einfach. Du bashst absolut jeden Thread mit dem AF Thema, was einen so sehr nervt das einem dazu nix mehr einfällt.
Es ist doch jetzt klar das es am Treiber liegt und das das Problem gefixt wird, warum dann immer wieder diese sinnlosen Aktionen?
GrUß
MikBach
2005-08-20, 20:48:47
Das ist richtig, aber für ihn ist es das nicht. Was gibbet da nicht zu verstehen... :|
GrUß
Dann sieht er das falsch...
(bin jetzt mal aths)... :)
eXodia
2005-08-20, 20:50:01
Dann sieht er das falsch...
(bin jetzt mal aths)... :)
OK! Du siehst es:
1.) Richtig
2.) Bestimmst du ob er falsch oder richtig sieht
:|
GrUß
svenska
2005-08-20, 21:02:22
Dann sieht er das falsch...
(bin jetzt mal aths)... :)
benimmst dich hier im thread wie ein dummes kind...tsts
MikBach
2005-08-20, 21:05:49
OK! Du siehst es:
1.) Richtig
2.) Bestimmst du ob er falsch oder richtig sieht
Jeder sieht es anders...
Deswegen hat jeder für sich das Recht zu behaupten, dass er keine Unterschiede sieht, was aber allgemein falsch sein kann. :)
MikBach
2005-08-20, 21:06:26
benimmst dich hier im thread wie ein dummes kind...tsts
Keine Beleidigungen bitte.
eXodia
2005-08-20, 21:08:16
Jeder sieht es anders...
Deswegen hat jeder für sich das Recht zu behaupten, dass er keine Unterschiede sieht, was aber allgemein falsch sein kann. :)
Da sind wir uns ja mal ausnahmsweise mal einig :biggrin: .
GrUß
MikBach
2005-08-20, 21:10:57
Da sind wir uns ja mal ausnahmsweise mal einig :biggrin: .
GrUß
Ich gehe mit dir recht oft konform.. :)
svenska
2005-08-20, 21:11:47
Jeder sieht es anders...
Deswegen hat jeder für sich das Recht zu behaupten, dass er keine Unterschiede sieht, was aber allgemein falsch sein kann. :)
er weis selber nich mehr was er redet. du bleibst auf deinen standpunk also nur um einen zu haben.ok.....
mapel110
2005-08-20, 21:13:08
Da hier nichts bei rum kommt außer sinnlosen Beiträgen *closed*
Zur Filterproblemmatik siehe weiter diesen
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=241557
oder diesen Thread
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=235409
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.