Archiv verlassen und diese Seite im Standarddesign anzeigen : 7800 - Flimmern jetzt Hardware oder Treiber?
Ist eigentlich mittlerweile geklärt worden ob das Texturflimmern in Bewegung nun...
a) Treiber
a1) ... "Optimierung"
a2) ... "Bug"
b) Hardware "Optimierung" (oder IMHo dann eher BUG)
..ist ?
Falls es sich um a) handelt - gibt es mittlerweile einen Work-a-Round ?
Und bitte - kein Glaubenskrieg. Kein Geflame und keine inhaltslosen Postings. Ja - ich habe einige Threads gelesen bevor ich diese Frage stelle, aber falls mir was entgangen sein sollte (was angesichts der länge mancher Threads wohl mögich ist)... Bitte ein Link (an die richtige Stelle)...
Für mich ist das durchaus Kaufentscheidend (bzw. NICHT-KAUF entscheidend).
BlackArchon
2005-07-27, 11:09:52
Es wird noch eifrig darüber diskutiert. :D
Unsere Gurus wissen das auch noch nicht so genau. Siehe dazu auch folgenden Thread:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=235409&page=1&pp=20
Den Thread kenne ich - aber ich habe keine Lust jetzt 200 Seiten zu lesen von denen sich 80% eher mit persönlichen Grabenkämpfen als mit dem Thema des Posts befassen. Imho müsste da mal ein Mod mit der Axt reinschlagen und die ganzen pro/kontra ATHS Artikel wegschlachten um das wieder lesbar zu machen.
Aber danke schonmal für die Zusammenfassung: "Man ist sich also noch nicht sicher..."
Falls sich das noch ändert wäre ein Post, der die Erkenntnisse zusammenfasst wirklich nett.
Wenn du schon alles schön aufbereitet haben willst, wirst du wohl noch etwas (mindestens einige Wochen) warten müssen – da ich in Dingen Diplomarbeit langsam unter Zeitdruck gerate und dort konzentriert arbeiten muss, bleibt nicht viel Zeit für anderes, z. B. einen Artikel zu schreiben der den bekannten Stand der Dinge beschreibt.
Jacek_K
2005-07-27, 15:09:44
bis wir es erfahren juckt es kein schwein mehr ...spielt doch und geniesst die zeit und die sachen die ihr euch gekauft habt.
bis wir es erfahren juckt es kein schwein mehr ...spielt doch und geniesst die zeit und die sachen die ihr euch gekauft habt.
Das ist ja eben das Problem, dass man bei schlechter BQ das Spiel nicht perfekt geniessen kann.
Und die Katze im Sack zu kaufen finde ich doch nicht so toll.
das weiß wohl niemand so genau.
Gast (=Threadstarter)
2005-07-28, 08:48:49
bis wir es erfahren juckt es kein schwein mehr ...spielt doch und geniesst die zeit und die sachen die ihr euch gekauft habt.
Jo... Die geniesse ich auch... Zu der Zeit war die 6800GT einfach die beste Wahl (IMHO - also jetzt bloss keine geflame...). Aber jetzt wo der nächste upgrade Zyklus ansteht (und das Urlaubsgeld da ist) - da fängt man an sich Gedanken zu machen.
ShadowXX
2005-07-28, 10:38:19
Ich würde jedem empfehlen sich die 7800GTX mal Live anzugucken und dann zu entscheiden, ob man das Flimmern wirklich so stark (auf HQ natürlich, bei der Karte wäre es ohnehin nonsense ohne HQ zu daddeln) bemerkt.
Ich selbst nehme das Flimmer auf HQ nur in ein paar Games wahr und auch nur dann, wenn ich expliziet darauf achte.
Aber das kann natürlich bei jedem etwas anders sein wiel a.) jeder andere Augen bzw. Wahrnehmung hat und b.) es auch vom Monitor/TFT (+ die eigenen Einstellung bezüglich Helligkeit/Kontrast/etc.) mit abhängt wie stark es auffällt.
Ich hatte letztens ein paar Kumpel aus genau dem Grund bei mir, da dieses sich vor dem Kauf mal das Flimmern angucken wollten....2 haben gar nix gesehen und einer hat wie ich beim genauen Hingucken was bemerkt.
Aber wie gesagt....das kann bei jedem anders sein. Was mir nur auffällt ist, das zum größten Teil für die Beweisführung durchgehen Worst-Case-Szenarien genommen werden, wo es auch schon bei der 6800U und auch bei den ATIs langsam Richtung flimmern geht bzw. teilweise Effekte zum Flimmern mit dazugezählt werden, die gar nix mit dem beschriebenen Flimmerproblem (was eigentlich mehr ein Grieselproblem ist) zu tun haben.
Also: Erst mal selbst Live betrachten und sich dann Aufregen oder eben nicht.
P.S.
das soll jetzt natürlich keine Entschuldigung oder Beschwichtigung dieses "Bug" (oder was es auch immer ist) sein, da auch ich lieber ordentliches AF (am besten wie bei der GF4 oder 3) haben möchte.
Ich habe bei mir fest gestellt das ich bei Spielen mit Flimmern wie HL2, Riddick und Doom3 immer eine Kotztüte dabei haben muss. Mir wird nach ein paar minuten schlecht vom Spielen. Bei anderen shotern wie UT2003und4 hab ich das Problem nicht. Kein Ahnung ob ihr sowas auch habt. Ich denke eher nicht
Vielleicht bin ich ja ein extremer Fall. So ein Problem werden wohl nicht viel bzw wohl keiner von euch haben
da bist du nicht der einzige,gesell dich zu ihnen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=232294&highlight=schlecht
ShadowXX
2005-07-28, 11:53:49
Ich habe bei mir fest gestellt das ich bei Spielen mit Flimmern wie HL2, Riddick und Doom3 immer eine Kotztüte dabei haben muss. Mir wird nach ein paar minuten schlecht vom Spielen. Bei anderen shotern wie UT2003und4 hab ich das Problem nicht. Kein Ahnung ob ihr sowas auch habt. Ich denke eher nicht
Vielleicht bin ich ja ein extremer Fall. So ein Problem werden wohl nicht viel bzw wohl keiner von euch haben
Zumindest bei Riddick und teilweise Doom3 kommt das Flimmern aber nicht durch den Bug, sondern das Flimmert immer etwas (liegt am BumpMapping, das ist extrem Flimeranfällig).
Bei HL2 siehts bei mir eigentlich ziemlich normal aus. Verwechsel das Aliasing-Flimmern an den Zäunen nucht mit dem AF-Flimmern.
Das Flimmern an den Zäunen bekommst du mit TSAA weg (bzw. mir irgeneinwm XxS Modus oder besser noch beidem Gleichzeitig).
Das ist ja auch im Prinzip das was ich meine....momentan wird jedwelches Flimmern auf dem Bild gleich dem AF zugeschustert, obwohl es oft gar nicht das AF-Flimmern ist.
there is no bug! was man sich alles einbilden kann...
http://www.forumdeluxx.de/forum/showthread.php?p=2193507#post2193507
lest mal die tests der dort verlinkten seiten. selbst 3Dcenter selber räumt ein das es keinen unterschied gibt...
Ich hab ne 6800GT und ne 7800GTX im Einsatz, und muss sagen das man es wirklich sieht das die 7800GTX mehr flimmert, Screenshots kannste eh in die Tonne treten, Flimmern sieht man ausschließlich in Bewegung.
Mir ist egal was Testseiten sagen, ich gugs mir selber an auf 2 Monitoren :)
Aber Battlefield2 in 1280x1024 FullDetail bei 4xTSAA 8xAF ist schon "nice", und im Spielfluss fällt es nicht auf, wer da Zeit hat drauf zu gugen spielt nicht richtig. Was negativ bei TSAA auffällt, es Blurt kleine Gräßer in BF2 auf, die sehen aus wie 32x32 große Bi-gefilterte Texturen, aber besser als der Zackenwald den man sonst vor sich her schiebt.
Ich schaue schon auf Grafikqualität, in WoW habe ich keinen Flimmerunterschied sehen können bisher, aber da kann man jetzt auch 8xS fahren ^^
ich habe auch zwei augen und bei mir flimmert die GTX auf HQ und Opti. off sogar etwas weniger als die GT mit Treiber 77.76...
komisch wie subjektive Eindrücke verschieden sind. Mein Kumpel hat sogar ne X850XT aber nur 1GB RAM und war hin und weg als er BF2 bei mir mit 2GB und der GTX mit TSSAA sah... sehe bei ihm bei weitem nicht so gut aus. der war aber wohl voreingenommen weil er endlich BF2 mal ruckelfrei sah...
naja, ich sehe das gleiche Flimmern wie bei einer GT, die Hardwareonlinemags auch, also denke ich das wir auf der richtigen Seite sind und du entweder falsche einstellungen, den falschen treiber oder sonst ein problem hast...
flimmern sieht man nur in bewegung das ist richtig aber der aus dem schlechten AF entstehende moire effekt ist auf entsprechenden screenies sehr gut sichtbar und genau da flimmert es in bewegung auch.
Mr. Lolman
2005-07-29, 11:33:50
there is no bug! was man sich alles einbilden kann...
http://www.forumdeluxx.de/forum/showthread.php?p=2193507#post2193507
lest mal die tests der dort verlinkten seiten. selbst 3Dcenter selber räumt ein das es keinen unterschied gibt...
Und nur weil von nen paar Seiten nix bemerkt wird (wie auch, wenn man nichtssagende Standbilder miteinander vergleicht) existiert das Problem nicht?.
ist echt der hammer was hier teilweise probiert wird abzuziehen... standbilder? denkst du die mags testen mit standbilder? oder meine augen tesen mit standbildern?
ach glaub was ihr wollt... es ist ne verarsche mehr kann ich dazu nicht sagen. Die ATI vs. Nvidia scheisse nimmt langsam ganz absurde züge an und selbst GT besitzer kommen nun und machen die GTX runter... neid ist eine verdammt schlechte angewohnheit und wer den mist auch noch unterstützen muss ist eh unten durch...
Kurgan
2005-07-29, 11:59:15
ist echt der hammer was hier teilweise probiert wird abzuziehen... standbilder? denkst du die mags testen mit standbilder? oder meine augen tesen mit standbildern?
ach glaub was ihr wollt... es ist ne verarsche mehr kann ich dazu nicht sagen. Die ATI vs. Nvidia scheisse nimmt langsam ganz absurde züge an und selbst GT besitzer kommen nun und machen die GTX runter... neid ist eine verdammt schlechte angewohnheit und wer den mist auch noch unterstützen muss ist eh unten durch...
äh, ich hab das flimmern selber gesehen. egal was gäste oder irgendwelche harwaremagazine oder sonstwer schreibt, das flimmern ist da.
dachte erst es liegt am monitor (je nach modell seh ich es noch bei 75Hz) aber der lief auf 100hz (21er röhre) und auf dem 20er tft vom dem geldscheisser (arbeits-moni, eigentlich nicht spieletauglich) war es auch zu sehen.
Mr. Lolman
2005-07-29, 12:00:42
Mann, ich biete schon seit einiger Zeit NV40 R3x0 AF Vergleiche. Sowohl bei Q3a als auch bei Farcry (und im weiteren Sinne auch bei SC3) stellt sich raus, dass maximal NV40 HQ mit R3x0 default vergleichbar ist.
Dieser Umstand wird mittlerweile von Zeckensack und aths akzeptiert. Nun gibts hardware.fr, denen definitiv ein verstärktes Flimmern auffiel, und dagegen stehen tw. stumpfsinnig benchende (default BQ, avg fps) HW mags. die nichts erkannt haben wollen, oder anhand von schärferen Standbildern dem G70 gar ne bessere BQ diagnostizieren.
1 Idiot kann mehr Fragen stellen, als 100 Weise beantworten können. Nur ists momentan so, dass es 100 Idioten gibt, die alle glauben ihre Fragen selbst beantworten zu können, und sich somit auf die gleiche Stufe stellen wie die 2-3 Weisen, die wirklich die BQ untersuchen. Warte nur ein paar PCGHs ab, wenn schon computerbase (wundert mich eh nicht, man müsste ja gleichzeitig zufgeben, dass die vorigen BQ betrachtungen zu ungenau waren) und 3DCenter hinsichtlich dessen nix unternehmen wollen, dann sollte man wenigstens wissen, dass Demirug gerade ein Programm entwickelt welches die AF Qualität testet. Seine bisherigen Erkenntnisse übern G70 sagen aus, dass definitiv was am Filter verändert worden ist, und das womöglich die Samples falsch gewichtet werden.
Und dann kommen irgendwelche Fanboys daher, und werfen mit Zitaten von zT inkompetenten Testern umsich und behaupten nicht nur, dass die BQ nicht schlechter wurde, sondern dass man sie verbessert hat?
Mann, die ganzen HW tester sind auch nur Menschen wie du und ich. Und wenn die sich bisher nicht die Mühe machten (im Ggs zu mir) und bewegte Bildsequenzen capturen und die dann pixelweise zu vergleichen, dann muss man das akzeptieren. Doch solche Verfehlungen als Referenz heranzuziehen und gleichzeitig damit die Arbeit 3. in den Dreck zu ziehen halte ich gelinde gesagt für ein wenig impertinent.
impertinent... super schönes deutsches wort lol
es flimmert! ja es flimmert! aber nicht mehr als auf einer gt! und nun lass ichs bleiben den ihr wollt unbedingt die GTX schlecht dastehen lassen und somit hat es keinen sinn.
x-bit, firingsquad, anantech usw. ja die sind sicher alle inkompenter als du... lachhaft. mach du weiter movies und vergleiche deine pixel...
Winter[Raven]
2005-07-29, 12:26:26
Ich würde jedem empfehlen sich die 7800GTX mal Live anzugucken und dann zu entscheiden, ob man das Flimmern wirklich so stark (auf HQ natürlich, bei der Karte wäre es ohnehin nonsense ohne HQ zu daddeln) bemerkt.
Ich selbst nehme das Flimmer auf HQ nur in ein paar Games wahr und auch nur dann, wenn ich expliziet darauf achte.
Aber das kann natürlich bei jedem etwas anders sein wiel a.) jeder andere Augen bzw. Wahrnehmung hat und b.) es auch vom Monitor/TFT (+ die eigenen Einstellung bezüglich Helligkeit/Kontrast/etc.) mit abhängt wie stark es auffällt.
Ich hatte letztens ein paar Kumpel aus genau dem Grund bei mir, da dieses sich vor dem Kauf mal das Flimmern angucken wollten....2 haben gar nix gesehen und einer hat wie ich beim genauen Hingucken was bemerkt.
Aber wie gesagt....das kann bei jedem anders sein. Was mir nur auffällt ist, das zum größten Teil für die Beweisführung durchgehen Worst-Case-Szenarien genommen werden, wo es auch schon bei der 6800U und auch bei den ATIs langsam Richtung flimmern geht bzw. teilweise Effekte zum Flimmern mit dazugezählt werden, die gar nix mit dem beschriebenen Flimmerproblem (was eigentlich mehr ein Grieselproblem ist) zu tun haben.
Also: Erst mal selbst Live betrachten und sich dann Aufregen oder eben nicht.
P.S.
das soll jetzt natürlich keine Entschuldigung oder Beschwichtigung dieses "Bug" (oder was es auch immer ist) sein, da auch ich lieber ordentliches AF (am besten wie bei der GF4 oder 3) haben möchte.
FULLACK
War heute bei einem Freund zu Besuch, der befindet sich im Besitz der GTX, ich habe mir doch mal angeschaut das Flimmern und ich muss dir vollkommen zustimmen, man sieht es nur an bestimmten Stellen und wirklich so EXTREM flimmert es nun auch wieder nicht.
Mr. Lolman
2005-07-29, 12:34:12
x-bit, firingsquad, anantech usw. ja die sind sicher alle inkompenter als du... lachhaft. mach du weiter movies und vergleiche deine pixel...
Schaut fast so aus. Und solang niemand meine Vergleichstechnik adaptiert (wird bspw. auch von Zeckensack* gefordert) muss ich halt als einzelner Fels in der Brandung die Wogen der Unzufriedenen Fanboys übermich ergehen lassen.
Aber da du lieber gast ja eh alles besser weist, zeig mir einfach mal einen guten BQ-test.
*solang man mir die kompetenz abspricht muss ich mich immer auf dich beziehen, sry ;)
/edit: Ums noch polemischer zu fomulieren: Imo ist jeder inkompetent, der beide IHVs mit Standardtreibersettings gegeneinander bencht...
zeckensack
2005-07-29, 12:51:21
ist echt der hammer was hier teilweise probiert wird abzuziehen... standbilder? denkst du die mags testen mit standbilder?Die haben die Karte maximal 48 Stunden, und müssen in der Zeit fünf Benchmarks in 4 Settings auf drei Karten durchprügeln, den Artikel dann fertig schreiben bevor das NDA abläuft, noch irgendwas von der Übertaktbarkeit faseln und die Feature-Liste aus'm Marketing-PDF kopieren, neuerdings noch an "HD"-Videos vorbei auf die Prozessorlast schielen, und dann die Karte schnell wieder zurückschicken.
Für BQ-Vergleiche, oder so banale Dinge wie Alltagstauglichkeit ist schlicht keine Zeit. Hauptsache dabei sein, Testkarte kriegen, und möglichst früh veröffentlichen damit die PIs sprudeln. So sieht Online-"Journalismus" aus.
Brauchst dir nur mal anzusehen, welche Tester den NV40 mit Treiber-Defaults gebencht haben, ohne die grässliche AF-Qualität zu bemerken. Beinahe alle. Entweder sie haben's nicht gesehen, wollten's nicht sehen, oder dachten es wäre normal (was es aber nicht ist). Und dann schau mal was NV40-Käufer in Foren weltweit dazu zu sagen hatten und zu sagen haben. Niemand ohne enorme Tomaten auf den Augen nutzt freiwillig "Quality"-AF auf 'nem NV40. QED.
Wenn du glaubst, dass die gleichen Reviewer die beim NV40 schon drei Augen zugedrückt haben jetzt auf einmal die Filterveränderungen beim G70 wahrnehmen und bewerten könnten, kann ich dir auch nicht helfen.
zeckensack
2005-07-29, 12:59:42
*solang man mir die kompetenz abspricht muss ich mich immer auf dich beziehen, sry ;)Ich finde dass die beliebte Phrase "laut Demirug [...]" sehr viel schöner klingt. Vielleicht sollte man ihn mal motivieren, dir schöne Steilvorlagen zu geben X-D
/edit: Ums noch polemischer zu fomulieren: Imo ist jeder inkompetent, der beide IHVs mit Standardtreibersettings gegeneinander bencht...Jawoll.
Kurgan
2005-07-29, 13:05:20
/edit: Ums noch polemischer zu fomulieren: Imo ist jeder inkompetent, der beide IHVs mit Standardtreibersettings gegeneinander bencht...
hm, sollte man imho ergänzen mit einem "nur" zwischen "mit" und "Standardtreibersettings".
dafür gibts einfach zu viele "karte einbauen, treiber installieren und fertig"-leute, die entweder keine lust, keine zeit oder keine ahnung haben sich stundenlang mit diversen einstellungen in den treibern rumzuschlagen um das bestmögliche ergebnis zu erzielen. die defaulteinstellung sollte ein mittelding aus performance und bq bieten und ist imho defintiv testwürdig.
Hier scheinen alle alles zu wissen... habt ihr alle eine GT, eine GTX und eine X850XT oder wie könnt ihr das überhaupt beurteilen? Hier ist ein Haufen Fanboys (ich hasse das Wort...) die wohl teilweise sogar ne GT in der Sig haben die gar nicht existiert.
Von "benchen" hat auch noch keiner geredet... hier gehts doch um IQ und nicht FPS oder? und selbst wenn... wie soll man den bitte sonst "benchen" wenn nicht mit gleichen Treibersettings? Ich verstehe euch nicht und scheine nicht der einzige zu sein. wtf ist ein IHS? Imo ein Headspreader... was hat das jetzt damit zu tun???
Und wie oben schon einer gesagt hat: diese quellen sind von 3Dcenter also von HIER! http://www.3dcenter.de/artikel/nvidia_g70_benchmarks/fazit.php unten bei Links zu weiteren Tests.
Hier wollen ein paar User gegen ein dutzend mags ankämpfen und behaupten sie testen kompetenter als die Profis? Nicht euer ernst oder? Das Ganze bringt hier sowieso nichts... ich hoffe das Nvidia die Aufruhr jedoch mitbekommt und was am nächsten Treiber hinbiegt. Es ist doch offensichtlich das wir User Qualität wollen von einer Karte die enorm viel Performance dafür zur Verfügung stellt und mit der Ultra und GT gings ja nun über einem Jahr mit Treiber 77.76 plötzlich auch.
sorry nix IHS... IHV's was ist das?
BlackArchon
2005-07-29, 13:28:04
Independent Hardware Vendor
Independent hardware vendor = IHV
zu den tests der mags... ist mir klar das dies passieren kann, aber bei allen? und was ist mit den GTX besitzern die behaupten es flimmere nicht mehr als eine GT?
was kann ich tun um euch zu zeigen das meine GT min. so flimmert wie die GTX? ich will doch hier nicht irgendeinen sinnlosen mist verzapfen! ich verstehe das man unterschiede im AF hat... wie Demirug ja auch ausführt gibts unterschiede und es ja auch in den mags heisst "es ist schärfer" auf der GTX... schärfer = mehr flimmern?
zeckensack
2005-07-29, 13:38:45
Hier scheinen alle alles zu wissen... habt ihr alle eine GT, eine GTX und eine X850XT oder wie könnt ihr das überhaupt beurteilen? Hier ist ein Haufen Fanboys (ich hasse das Wort...) die wohl teilweise sogar ne GT in der Sig haben die gar nicht existiert.Ich hab 'ne 6800nU, hatte eine 9800Pro, und habe nun eine 9600SE. Reicht dir das?
Von "benchen" hat auch noch keiner geredet... hier gehts doch um IQ und nicht FPS oder? und selbst wenn... wie soll man den bitte sonst "benchen" wenn nicht mit gleichen Treibersettings? Ich verstehe euch nicht und scheine nicht der einzige zu sein.:|
ATI- und NVIDIA-Karten brauchen unterschiedliche Treiber ... es ist schlicht nicht möglich, mit den gleichen Treibersettings zu arbeiten. Die Knöpfe heißen anders, es sind unterschiedlich viele, und wenn man Pech hat sind sie auch noch anders strukturiert. Default ist das was man bekommt wenn einem alles egal ist. Das heißt aber nicht dass das Default von einem bestimmten Hersteller und einem bestimmten Treiber gleichwertig ist zu allen anderen Defaults, die es jemals gab oder geben wird. Ist das denn wirklich so schwer zu verstehen?
wtf ist ein IHS? Imo ein Headspreader... was hat das jetzt damit zu tun???Möglicherweise ein Vertipper. IHV=Independent Hardware Vendor ist ein Oberbegriff für Chiphersteller wie NVIDIA und ATI (und S3, XGI, ...).
Und wie oben schon einer gesagt hat: diese quellen sind von 3Dcenter also von HIER! http://www.3dcenter.de/artikel/nvidia_g70_benchmarks/fazit.php unten bei Links zu weiteren Tests.Leo hatte die Karte auch nur zum Testen. Kannst ja mal in dem Artikel auf "Kommentieren" drüxx0rn und dir den dazugehörigen Diskssionsthread durchlesen. Da wirst feststellen, dass Leo quasi schlaf- und pausenlos durchgebencht hat, um vor dem Rückgabetermin fertig zu werden.
Hier wollen ein paar User gegen ein dutzend mags ankämpfen und behaupten sie testen kompetenter als die Profis? Nicht euer ernst oder? Das Ganze bringt hier sowieso nichts... ich hoffe das Nvidia die Aufruhr jedoch mitbekommt und was am nächsten Treiber hinbiegt. Es ist doch offensichtlich das wir User Qualität wollen von einer Karte die enorm viel Performance dafür zur Verfügung stellt und mit der Ultra und GT gings ja nun über einem Jahr mit Treiber 77.76 plötzlich auch.Sag mal ... liest du überhaupt was hier geschrieben wird?
Test 1, 2, 3, *klopf*?
Du sagst du hast eine GT. Gut. Dann stelle den Treiber mal zurück auf die Standardeinstellung (die du ja freiwillig nicht benutzt, stimmt's oder hab' ich Recht?), mache AF an, und spiele ein bisschen. Das was dir dann auffallen wird ist den Reviewern schon beim NV40-Launch nicht aufgefallen. Zumindest haben sie mehrheitlich kein Wort darüber verloren. Jetzt klar?
Und von den gleichen Reviewern erwartest du nun noch irgendeine Form von Gründlichkeit? Tztz ...
sorry aber ich glaub ich sollte eher bei dir anklopfen! er sagt nicht er habe eine GT sondern ich und dazu noch ne GTX... hier sind mehrere gäste.
wer mit default spielt interessiert es eh einen dreck ob die GTX oder GT flimmert. nein deine 9800pro, 6800ultra und 9600se sind nicht eine GT, GTX und eine X850XT also warum erwähnst du die überhaupt?
es sieht total shice aus auf einer GT auf default. und nun? genau so shice sieht es auf einer GTX aus auf default! ist doch wurscht wie man testet, hauptsache auf höchster qualität und bei beiden IHV's (cool) ohne optimierungen. mehr gibt die karte nicht also kann man dann die IQ vergleichen.
und das könnt ihr biegen und wenden wie ihr wollt (ohne eine GTX zu haben spreche ich eure kompetenz ja eh schon von anfang an ab... anders kanns nicht sein) die GT flimmert mindestens genau so heftig auf default wie eine GTX. auf HQ ohne optimierungen sind die jedoch ganz in Ordnung und die GTX mit TSSAA weit voraus.
Sonyfreak
2005-07-29, 14:16:46
Ich denke mal, dass hier im Forum einige der kompetentesten Grafikspezialisten(zum Teil halt) vertreten sind, die es in Europa gibt. Und ja, den Berichten der User bzw. Tester hier, traue ich eindeutig mehr, als irgendwelchen "Profimagazinen" oder "Profiwebseiten".
Wenn hier einer der Großen behauptet, dass das Bild flimmert, dann flimmert es auf der betreffenden Karte bzw. Einstellung. Glaub es oder glaub es nicht aber so ist es. ;)
mfg.
Sonyfreak
Mr. Lolman
2005-07-29, 14:18:38
sorry aber ich glaub ich sollte eher bei dir anklopfen! er sagt nicht er habe eine GT sondern ich und dazu noch ne GTX... hier sind mehrere gäste.
wer mit default spielt interessiert es eh einen dreck ob die GTX oder GT flimmert. nein deine 9800pro, 6800ultra und 9600se sind nicht eine GT, GTX und eine X850XT also warum erwähnst du die überhaupt?
es sieht total shice aus auf einer GT auf default. und nun? genau so shice sieht es auf einer GTX aus auf default! ist doch wurscht wie man testet, hauptsache auf höchster qualität und bei beiden IHV's (cool) ohne optimierungen. mehr gibt die karte nicht also kann man dann die IQ vergleichen.
Ja willst dus wirklich nicht checken? Man bencht ATi gegen NV. Klar kann man auf HQ schalten und hat dann schöne Grafik. Nur sollte man auch beim benchen schon auf HQ schalten, denn Ati bietet schon "out of the box" schöne Grafik (obwohl sie natürlich da auch noch besser sein könnte). Auf nem NV40 bricht die Leistung bei Ut2004 (1280, 8xS/16xAF) um fast 50% ein, wenn man von treiberdefault (Q+Opts) auf HQ wechselt. HQ ist dann aber immernoch brilinear!
Selbst wenn der Abstand bei anderen Spielen nur 10% ausmacht, dann ist das Bild immernoch um die 10% verfälscht. Vll. kommt ja Ati drauf, dass man per default mit sh1ce BQ viel mehr Geschwindigkeit rausholen kann, und gewinnt dann damit mit einem (möglicherweise rohleistungsmässig unterlegenen) R520 aufeinmal alle Benchmarks. Ist es das was du willst?
Kann ich mir kaum vorstellen.
und das könnt ihr biegen und wenden wie ihr wollt (ohne eine GTX zu haben spreche ich eure kompetenz ja eh schon von anfang an ab... anders kanns nicht sein) die GT flimmert mindestens genau so heftig auf default wie eine GTX. auf HQ ohne optimierungen sind die jedoch ganz in Ordnung und die GTX mit TSSAA weit voraus.
Stimmt, die GT flimmert auf default, aber bei HQ kaum noch. Beim G70 ist (lt. mehreren Aussagen von G70 Besietzern) selbst HQ noch etwas flimmrig (oder grisselig). Und TSSAA ist sehr praktisch stimmt. Trotzdem muss erst tombman Benchmarks fahren, damit man erfährt, dass selbst TSSAA einen Einbruch von knapp 50% verursachen kann (bei Chrome bspw...)
Black-Scorpion
2005-07-29, 14:18:39
Und wie oben schon einer gesagt hat: diese quellen sind von 3Dcenter also von HIER! http://www.3dcenter.de/artikel/nvidia_g70_benchmarks/fazit.php unten bei Links zu weiteren Tests.
Dann schau dir mal den Post an.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3267126&postcount=534
Stimmt, die GT flimmert auf default, aber bei HQ kaum noch. Beim G70 ist (lt. mehreren Aussagen von G70 Besietzern) selbst HQ noch etwas flimmrig (oder grisselig). Und TSSAA ist sehr praktisch stimmt. Trotzdem muss erst tombman Benchmarks fahren, damit man erfährt, dass selbst TSSAA einen Einbruch von knapp 50% verursachen kann (bei Chrome bspw...)
MOMENT: ICH sage das ATI die beste IQ hat! das stellt niemand in frage und sonst kann man ihn eh nicht ernst nehmen.
ich sage es nun zum x-ten mal: die GTX flimmert nicht mehr als eine GT mit 77.76er HQ und optimierungen manuell abgestellt. Sie flimmert mit TSSAA sogar weniger als eine GT. warum wollt ihr das nicht einsehen? Ich kenne keinen einzigen GTX besitzer persönlich der findet das die GTX mehr als die GT flimmert mit den einstellungen oben. und das hier ab und zu einer kommt und das gegenteil behauptet... wunder das jemanden?
ich persönlich sehe auch keinen unterschied auf default Q... sieht beides total schlecht aus auf GT wie GTX.
echt jetzt! ich bin sogar bereit movies zu machen. hier wartet eine Gigabyte GTX und eine Gainward GT mit 77.76 auf arbeit! sagt mir wie ich das anstelle, wo ich das uppen kann und ich bin dabei! ne X850XT könnte ich evtl. auch noch machen... müsste ich aber nem kunden anrufen. ich bin händler also mich interessiert das fanboy gequatsche überhaupt nicht bzw. wenn ich beides verkaufen kann bin ich natürlich auch zufrieden ;-)
ich hab hier HL2, Farcry, BF2 und GuildWars anzubieten... Guildwars ist derart perfekt sauber das lohnt sich eh nicht. Entweder HL2 oder BF2 schlage ich vor oder?
Dann schau dir mal den Post an.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3267126&postcount=534
das hat er am 17.7 geschrieben... soviel zu nächster woche.. ich seh nix davon!? und ist jetzt aths der AF-Gott hier auf der welt oder wie? dann würde ich als ATI und Nvidia mal anheuern...
das sich hier auf dem 3Dcenter board die elite der 3D Gurus von europa rumtreibt würde ich jetzt auch mal bezweifeln. aber so 2-3 sind durchaus hier die massiv ahnung haben.
Und TSSAA ist sehr praktisch stimmt. Trotzdem muss erst tombman Benchmarks fahren, damit man erfährt, dass selbst TSSAA einen Einbruch von knapp 50% verursachen kann (bei Chrome bspw...)
und das soll dann an der GTX liegen? obwohl bei Farcry im Jungel 10-15% verloren gehen gegenüber MSAA? ne du...
resonatorman
2005-07-29, 14:44:56
Hmm, ist es überhaupt ausgemacht, daß eine GF7 mehr flimmert als die GF6? Das kann eigentlich nur jemand beurteilen, der beide Karten gleichzeitig hat und bei gleicher Einstellung checkt (77.76, HQ natürlich, keine Gimmicks wie TSAA).
Ok, hat der Gast oben ja praktisch schon beantwortet, während ich den Beitrag getippt hab... ;)
zeckensack
2005-07-29, 14:45:17
sorry aber ich glaub ich sollte eher bei dir anklopfen! er sagt nicht er habe eine GT sondern ich und dazu noch ne GTX... hier sind mehrere gäste.Sry.
wer mit default spielt interessiert es eh einen dreck ob die GTX oder GT flimmert. nein deine 9800pro, 6800ultra und 9600se sind nicht eine GT, GTX und eine X850XT also warum erwähnst du die überhaupt?Damit du weißt dass ich a)zumindest den NV40 selbst ausprobieren kann, und b)auch Vergleichsobjekte habe. Die 9600SE filtert zB am liebsten "brilinear", und liegt damit in Punkto Texturqualitätsverschlimmbesserungen IMO sehr nahe an der X800/X700-Serie.
Warum das wichtig ist, kommt gleich.
es sieht total shice aus auf einer GT auf default. und nun? genau so shice sieht es auf einer GTX aus auf default! ist doch wurscht wie man testet, hauptsache auf höchster qualität und bei beiden IHV's (cool) ohne optimierungen. mehr gibt die karte nicht also kann man dann die IQ vergleichen.Es ging mir um das Autoritätsargument ~"Die Reviewer haben nichts gesehen, also kann da nichts sein". Ich wollte aufzeigen dass das so nicht funktioniert.
Die gleichen Reviewer haben schon beim NV40 bewiesen, dass sie garnichts sehen (http://techreport.com/reviews/2004q2/geforce-6800ultra/index.x?pg=18). Wer die Mängel von dessen "Quality"-AF nicht bemerkt, den akzeptiere ich nicht als Autorität in Bezug auf Bildqualität. Du selbst bist ja auch nicht mit "Quality" zufrieden, wenn ich "die GT flimmert mindestens genau so heftig auf default wie eine GTX" nicht krass falsch deute. Der Witz ist aber dass die Reviewer eben genau so den NV40 benchen, seit über einem Jahr mittlerweile, und es bisher nie geschafft haben diese offensichtlichen Mängel zu bemerken.
So weit ich das aus der Ferne einschätzen kann sind die BQ-Veränderungen G70 vs NV40 sogar deutlich geringer als zB NV40 vs NV30. Also müsste man, um sie zu bemerken, noch genauer hinschauen. Dafür verlasse ich mich aber keinesfalls auf die Reviewer. Dieses Vertrauen ist längst verloren.
kein problem!
ich will nur nochmal betonen das ich persönlich eine X800XTPE hatte, dann zu einer 6800GT von Gainward gekommen bin (weil die XT abgeraucht ist)...
SCHOCK! dachte ich sei im falschen film! kein vergleich mit der sauberen IQ von ATI. ich spielte damals sehr viel GTR und dieses spiel ist auf ATI sowas von schöner... dir gridlines, curbs alles flimmert auf Nvidia und auf ATI nicht.
Nun habe ich privat auch noch eine GTX und die ist mit TSSAA besser als die GT und ansonsten gleich. ich empfinde das so und nicht weil die karte 500euro kostet.
witzigerweise hat mir heute ein kunde mit x850xt angerufen und gemeint er habe ein problem mit seiner karte... es flimmere derart heftig in BF2 die müsse kaputt sein. hab ihn dann mal auf AA und AF sovie AI aufmerksam gemacht und warte nun auf eine antwort. den würde ich dann auch gleich als X850XT vergleichsobjekt herziehen wenn er es den fertigbringt die IQ angemessen zu optimieren... aber mal soviel zu "out the box" IQ von ATI und NV :-)
Gast (=Threadstarter)
2005-07-29, 15:59:09
Sagtmal sehe ich das jetzt richtig und es muss erstmal geklärt werden ob es nun auf einer 7800 überhaupt mehr flimmert als auf einer 6800 ?
Die Default-IQ interessiert mich persönlich nicht die Bohne - für mich ist entscheidend ob ich "Optimierungen", die auf Kosten der IQ gehen abschalten kann oder nicht.
Wenn es nicht ein Bug ist, der das Abschalten verhindert, wird interessant ob es niemals gehen wird weil in Hardware gegossen oder Aufgrund von Schwanzvergleichsängsten des IHVs über den Treiber nur "erstmal" nicht. Aber das ist eigentlich nur Sekundär - denn auf die Vernunft des IHVs darf man leider oft nicht hoffen.
Bisher habe ich nur als einzige Objektive Aussage gesehen, dass sich etwas geändert hat (von Demi). Das muss allerdings nicht heisse, dass es dadurch schlimmer geworden ist, gelle ? Und es steht ja auch noch im Raum, ob Dinge wie Gamma, Kontrast etc. einen Einfluss darauf haben wie/ob es flimmert. Vielleicht sieht es uU ja bei manchem sogar noch besser aus ?
Interessant finde ich dann auch die Auswirkung von zusätzlichen Verhübschungen wie AA, FSAA etc. Aber eigentlich möchte ich die maximal erreichbare IQ unabhängig davon. Verbessern kann man sie mit diesen Möglichkeiten ja gerne - aber zwingend Notwendig um den Brechreiz zu unterdrücken dürfen sie imho nicht sein. Ausserdem kosten sie wieder Leistung.
Also ich harre interessiert der Dinge, die da kommen mögen.
Eine Bitte an ALLE: Lasst diesen Thread nicht so (unnötig) Lang werden wie den letzten - also bitte keine Streitgespräche per Forum. Schickt euch PMs :-).
In diesem Sinne - schönes Wochenende.
Blaire
2005-07-29, 17:19:24
Stimmt, die GT flimmert auf default, aber bei HQ kaum noch. Beim G70 ist (lt. mehreren Aussagen von G70 Besietzern) selbst HQ noch etwas flimmrig (oder grisselig). Und TSSAA ist sehr praktisch stimmt. Trotzdem muss erst tombman Benchmarks fahren, damit man erfährt, dass selbst TSSAA einen Einbruch von knapp 50% verursachen kann (bei Chrome bspw...)
Grieselig ja , aber flimmern würde ich nicht sagen. Flimmern tut es aber bei Quality aber heftigst , schön zu sehen bei Battlefield2!
Allerdings gilt bei der 7800GTX das HQ gegenüber dem default Quality Setting kaum an Leistung verliert. Bei der 6800 Ultra sah das noch ganz anders aus , da brach die Leistung wie du schon sagtest um ca. 50% ein!
Mr. Lolman
2005-07-29, 17:26:17
Allerdings gilt bei der 7800GTX das HQ gegenüber dem default Quality Setting kaum an Leistung verliert.
Gibts dazu Benchmarks?
Blaire
2005-07-29, 17:30:08
Gibts dazu Benchmarks?
Ich seh es doch bei mir.
Farcry 1600x1200 4xFSAA/16xAF
Quality: 104 fps
HighQ: 97 fps
Unreal Tournament
Icetomb 1600x1200 4xFSAA/16xAF
Quality: 112 fps
HQ: 98 fps
Doom3 demo1 1600x1200 4xFSAA/16xAF
Quality: 86 fps
HQ: 82 fps
Bei der 6800 GT/Ultra sah das noch ganz anders aus. Da gabs teils heftige Unterschiede.
Dunkeltier
2005-07-29, 17:34:08
MOMENT: ICH sage das ATI die beste IQ hat! das stellt niemand in frage und sonst kann man ihn eh nicht ernst nehmen.
ich sage es nun zum x-ten mal: die GTX flimmert nicht mehr als eine GT mit 77.76er HQ und optimierungen manuell abgestellt. Sie flimmert mit TSSAA sogar weniger als eine GT. warum wollt ihr das nicht einsehen? Ich kenne keinen einzigen GTX besitzer persönlich der findet das die GTX mehr als die GT flimmert mit den einstellungen oben. und das hier ab und zu einer kommt und das gegenteil behauptet... wunder das jemanden?
ich persönlich sehe auch keinen unterschied auf default Q... sieht beides total schlecht aus auf GT wie GTX.
echt jetzt! ich bin sogar bereit movies zu machen. hier wartet eine Gigabyte GTX und eine Gainward GT mit 77.76 auf arbeit! sagt mir wie ich das anstelle, wo ich das uppen kann und ich bin dabei! ne X850XT könnte ich evtl. auch noch machen... müsste ich aber nem kunden anrufen. ich bin händler also mich interessiert das fanboy gequatsche überhaupt nicht bzw. wenn ich beides verkaufen kann bin ich natürlich auch zufrieden ;-)
ich hab hier HL2, Farcry, BF2 und GuildWars anzubieten... Guildwars ist derart perfekt sauber das lohnt sich eh nicht. Entweder HL2 oder BF2 schlage ich vor oder?
Ich bin ein ex GT-Besitzer, und die GTX flimmert sehr wohl stärker als die GT. Das sieht man ständig sehr schön links und rechts ziemlich nah an einen dran, wie dort die Bodentexturen in (virtuellen) 3-5m Entfernung total überschärft wirken. Dabei spielt es keine Rolle ob es um Low-Quality oder extrem hochaufgelöste Texturen geht, es ist bei beiden sehr stark sichtbar. Und nein, es hat ganz sicher nichts mit 'nem Muster-Flimmern zu tun, da das flimmern was ich meine mehr ein "Überschärfegrieseln" ist.
Ich seh es doch bei mir.
Farcry 1600x1200 4xFSAA/16xAF
Quality: 104 fps
HighQ: 97 fps
Unreal Tournament
Icetomb 1600x1200 4xFSAA/16xAF
Quality: 112 fps
HQ: 98 fps
Doom3 demo1 1600x1200 4xFSAA/16xAF
Quality: 86 fps
HQ: 82 fps
Bei der 6800 GT/Ultra sah das noch ganz anders aus. Da gabs teils heftige Unterschiede.
Imo ein Beweis, dass die GTX in HQ schlechter als die 6800 filtert.
Blaire
2005-07-29, 17:41:28
Imo ein Beweis, dass die GTX in HQ schlechter als die 6800 filtert.
Das tut sie auch. Trotzdem flimmert sie nicht, zumindest nicht nach der Definition wie ich sie verstehe. Grieseln ja, flimmern nein.
Das Bild bei der 6800GT/Ultra war bei HQ aber besser, als das jetzt bei der 7800GTX der Fall ist, daß ist auf jeden Fall so.
Das tut sie auch. Trotzdem flimmert sie nicht, zumindest nicht nach der Definition wie ich sie verstehe. Grieseln ja, flimmern nein.
Das Bild bei der 6800GT/Ultra war bei HQ aber besser, als das jetzt bei der 7800GTX der Fall ist, daß ist auf jeden Fall so.
Sorry, meinte natürlich Grieseln. :)
Mr. Lolman
2005-07-29, 17:59:20
Ich seh es doch bei mir.
AFAIK ist ja beim G70 HQ noch die Mipfilteroptimierung aktiv, oder wie ist da jetzt der aktuelle stand?
BTW: Zumindest Bei Ut2004 ist ja zusätzlich noch brilinear weiterhin aktiv.
Der Unterschied von meiner Testmethode zu anderen ist, dass letztendlich wieder alles an einer subjektiven Beurteilung hängt, (die ich gerne jedem selbst überlasse), während man bei den "besseren" Tests zwar diverse Programme bemüht, dann aber meistens anhand von bestenfalls jew. 3 Standbildern, die in Differenzprogrammen gegeneinander verglichen werden, dem Leser pauschalisierende Aussagen vorsetzt, in denen man dem einen IHV ne bessere BQ zugesteht, weil manche Standbilder schärfer wirken!?
Wohin das führt, sieht man z.B. bei Firingsquad, die biAF plötzlich besser fanden als triAF, weil die Bildschärfe an manchen Stellen höher ist :ulol:
Tjell
2005-07-29, 19:13:25
Ein Sturm im Wasserglas... den nVidia sicher nicht die Bohne interessiert.
Irgendwann, und damit müssen wir uns abfinden, ja irgendwann filtert die GeForce7-Reihe wieder korrekt. In Hardware werden sie sich, und da bin ich mir wiederum sicher, die geänderte Filterung nicht gebacken haben, das nähme ihnen ja die Möglichkeit, beim nächsten neuen Produkt zu tricksen. :wink:
Dennoch kann ich derweil ungetrübt weiterzocken, weil ich nicht (nur) Augen für irgendwelche Texturen habe, sondern mich gerne vom Spielerlebnis fesseln lasse. :cool:
Ich gehe davon aus das es ein Treiberbug ist und eine Optimierung oder gar eine versteckte Opt in HQ aktiv bleibt, afaik hat man mit einer GF6xxx Q+Optimierung für Anisotrope Filter genau das selbe Bild wie mit einer GTX in HQ. Zumindest sieht es so an meinen beiden Rechnern aus, in Screenshots lässt sich das leider aber nicht gießen.
Mattl
2005-07-30, 13:24:45
Nachdem hier immer wieder behauptet wird das die fps signifikant bei HQ einbrechen:
Könnte hier mal bitte jemand posten wie groß der fps-Unterschied in typ. Games beim NV40 zw. Q/HQ wirklich ist (bitte nicht nur BF u. UT)
Gruss Mattl
CompEx
2005-07-30, 14:08:44
Nachdem hier immer wieder behauptet wird das die fps signifikant bei HQ einbrechen:
Könnte hier mal bitte jemand posten wie groß der fps-Unterschied in typ. Games beim NV40 zw. Q/HQ wirklich ist (bitte nicht nur BF u. UT)
Gruss Mattl
Guckst du hier, über 30 Tests: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=233393
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.