PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - A.I. on = schlechte Bildquali?


Seiten : [1] 2 3 4

Schlammsau
2007-12-31, 16:14:01
Da ich schon von mehreren Foren Besuchern gelesen habe. Dass ewig nur auf nVidia, wegen diverser "cheats", herumgetrampelt wird und bei ATI nicht. Starte ich hier einen "offiziellen ATI eins reinwürge Thread". ;)
Nein im ernst.....mich würde wirklich interessieren, inwieweit sich das zuschalten von A.I. im Treiber, auf die Bildquali und Performance auswirkt.

Im Netz finden sich, wenn überhaupt, nur ältere Artikel!

Also Leute, macht Screenshots und bencht was das Zeug hält!

Crysis DX10, HighSpec, 1280x1024, 4xAA/16xAF

A.I. On Standard
http://img231.imageshack.us/img231/7679/crysis20074xaa16xafaionyk7.th.jpg (http://img231.imageshack.us/my.php?image=crysis20074xaa16xafaionyk7.jpg)

A.I. On Advanced
http://img221.imageshack.us/img221/5499/crysis20074xaa16xafaiofhy5.th.jpg (http://img221.imageshack.us/my.php?image=crysis20074xaa16xafaiofhy5.jpg)

A.I. off
http://img341.imageshack.us/img341/9361/crysis20074xaa16xafaionpm3.th.jpg (http://img341.imageshack.us/my.php?image=crysis20074xaa16xafaionpm3.jpg)

_DrillSarge]I[
2007-12-31, 16:19:52
Da ich schon von mehreren Foren Besuchern gelesen habe. Dass ewig nur auf nVidia, wegen diverser "cheats", herumgetrampelt wird und bei ATI nicht. Starte ich hier einen "offiziellen ATI eins reinwürge Thread". ;)
Nein im ernst.....mich würde wirklich interessieren, inwieweit sich das zuschalten von A.I. im Treiber, auf die Bildquali und Performance auswirkt.

Im Netz finden sich, wenn überhaupt, nur ältere Artikel!

Also Leute, macht Screenshots und bencht was das Zeug hält!

Crysis DX10, HighSpec, 1280x1024, 4xAA/16xAF

A.I. On Standard
http://img231.imageshack.us/img231/7679/crysis20074xaa16xafaionyk7.th.jpg (http://img231.imageshack.us/my.php?image=crysis20074xaa16xafaionyk7.jpg)

A.I. On Advanced
http://img221.imageshack.us/img221/5499/crysis20074xaa16xafaiofhy5.th.jpg (http://img221.imageshack.us/my.php?image=crysis20074xaa16xafaiofhy5.jpg)

A.I. off
http://img341.imageshack.us/img341/9361/crysis20074xaa16xafaionpm3.th.jpg (http://img341.imageshack.us/my.php?image=crysis20074xaa16xafaionpm3.jpg)
also ich sehe keinen unterschied (kann auch an der jpeg komprimierung liegen)

Die gelbe Eule
2007-12-31, 16:20:07
Wenn Du selbst genauer hinschaust, werden bei A.I. on Bildinformationen einfach mal eben wegoptimiert. Gibt mehr fps und längeren e-penix :up:
Bei Deiner Karte würde ich mir das erst recht nicht mehr antun, die ist schnell genug für A.I. off oder sollte es zumindest.

Sonyfreak
2007-12-31, 16:21:58
I[;6153028']also ich sehe keinen unterschied (kann auch an der jpeg komprimierung liegen)Ich auch nicht. Ich nehme mal an, dass der Fredstarter eine verlustfreie JPG-Kompression gewählt hat, weil dieser Vergleich sonst für die Katz wäre.

mfg.

Sonyfreak

_DrillSarge]I[
2007-12-31, 16:28:23
habs mir jetzt in irfan view in der slideshow (deckungsgleich) paar mal angesehen und bis auf die wandernden schatten keinen unterschied.
die gröbsten unterschiede zwischen ai hab ich bei doom3 + parallax-mapping mod erlebt.

L2K
2007-12-31, 16:31:56
Wenn Du selbst genauer hinschaust, werden bei A.I. on Bildinformationen einfach mal eben wegoptimiert. Gibt mehr fps und längeren e-penix :up:
Bei Deiner Karte würde ich mir das erst recht nicht mehr antun, die ist schnell genug für A.I. off oder sollte es zumindest.

Ich sehe zwar auch keinen Unterschied in den o.g. Screenshots, aber natürlich - wenn es auf die Bildqualität geht, welche dann evtl. zwanghaft heruntergeschraubt wird um Performance zu gewinnen ist das nicht besonders Kundenfreundlich. Andersrum gesehen kann es mir als Endanwender doch egal sein, was und wieviel sie von AMD wegoptimieren solang die Bildqualität auf gleich guten Niveau liegt.
Dass hier oft als "cheating" propagiert wird gilt daher nur solange bis Treiberoptimierungen zwanghaft angewandt und klar zu sehen auf Kosten der Bildqualität gehen.

Schlammsau
2007-12-31, 16:34:14
Ich auch nicht. Ich nehme mal an, dass der Fredstarter eine verlustfreie JPG-Kompression gewählt hat, weil dieser Vergleich sonst für die Katz wäre.

mfg.

Sonyfreak

hab mit Fraps (.bmp) die Shots gemacht und dann mit Paint Dot Net auf .jpg komprimiert! Qualitätseinstellung lag bei 100%.

_DrillSarge]I[
2007-12-31, 16:36:11
hab mit Fraps (.bmp) die Shots gemacht und dann mit Paint Dot Net auf .jpg komprimiert! Qualitätseinstellung lag bei 100%.
wenn, dann .png oder .tga. sowas wie jpeg ist dafür schlecht geeignet.
da ai meist den texturfilter beeinflusst ist jpeg eine schlechte wahl, da die nuancen einfach wegkomprimiert werden, auch auf 100%

Sonyfreak
2007-12-31, 16:38:05
hab mit Fraps (.bmp) die Shots gemacht und dann mit Paint Dot Net auf .jpg komprimiert! Qualitätseinstellung lag bei 100%.Was aber nicht bedeutet, dass die Bilder verlustfrei komprimiert sind. Wenn schon so ein Vergleich, dann bitte mit PNGs, damit man die Bildqualität wirklich vergleichen kann. Es geht ja hier um möglicherweise kleine Details, die sonst verschwinden. :)

mfg.

Sonyfreak

puntarenas
2007-12-31, 16:40:58
Gab es das nicht schon Hundertmal und warten wir nicht immer noch gespannt auf den allumfassenden 3Dc-Artikel?

Soweit ich das verstanden habe, muss man dazu noch zumindest zwischen R5XX und R(V)6XX differenzieren. Während "A.I. Off" bei R5XX ja beim AF Vorzüge bieten soll, die man eben unglücklicherweise durch gleichzeitige Deaktivierung erwünschter Optimierungen teuer erkauft, scheint "A.I. Off" auf dem RV670 doch aus AF-Sicht quasi wirkungslos, kostet aber die Gameoptimierungen.

Also scheint die Frage zumindest beim RV670 zu lauten, ob mit "A.I. Default" eine ansprechende Filterqualität geboten wird oder eben nicht und beim R5XX könnte man den Sinn von "A.I. Off" durch die unheilige Kopplung ebenfalls in Frage stellen. Dass NVidia mittlerweile bessere Filterqualität bietet ist unstrittig, die Frage ist halt wie definiert man "schlechte Bildqualität", immer in Relation zum Besten und wie ist dann der Maßstab?

Also, seid ihr mit der gebotenen Defaultbildqualität eurer ATI-Karte zufrieden oder eben nicht?

Schlammsau
2007-12-31, 16:42:12
Was aber nicht bedeutet, dass die Bilder verlustfrei komprimiert sind. Wenn schon so ein Vergleich, dann bitte mit PNGs, damit man die Bildqualität wirklich vergleichen kann. Es geht ja hier um möglicherweise kleine Details, die sonst verschwinden. :)

mfg.

Sonyfreak

.....mit PNG sind die Bilder 3MB gross!


Also, seid ihr mit der gebotenen Defaultbildqualität eurer ATI-Karte zufrieden oder eben nicht?

ja bin ich!

Gast
2007-12-31, 16:43:46
Wenn Du selbst genauer hinschaust, werden bei A.I. on Bildinformationen einfach mal eben wegoptimiert. Gibt mehr fps und längeren e-penix :up:
Bei Deiner Karte würde ich mir das erst recht nicht mehr antun, die ist schnell genug für A.I. off oder sollte es zumindest.
Wow, soviele Wörter und null Aussage.

Schlammsau: Wenn du einen Unterschied sehen will, solltest du Doom 3 nehmen, da gibt es einen Unterschied bei Standard und Advanced (Grüße an Lolman).

Sonyfreak
2007-12-31, 16:47:01
.....mit PNG sind die Bilder 3MB gross!Kann sein, dass du die Kompressionsstärke von PNG nicht auf dem Maximum hast. Da das PNG-Format nämlich verlustfrei komprimiert, ändert die Kompressionsstärke nur die Zeitdauer die du zum komprimieren brauchst. In einem kürzlichen BQ-Vergleich (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6140092&postcount=36) von mir, waren die Dateien auch "nur" ca. 1,5MB pro Bild groß. Kann aber auch sein, dass sich dein Motiv eben nicht besser zusammen stauchen lässt.

mfg.

Sonyfreak

Nakai
2007-12-31, 16:49:01
I[;6153073']wenn, dann .png oder .tga. sowas wie jpeg ist dafür schlecht geeignet.
da ai meist den texturfilter beeinflusst ist jpeg eine schlechte wahl, da die nuancen einfach wegkomprimiert werden, auch auf 100%

Ehem...*Hust*
Selbst wenn es so minimale Unterschiede gegeben hätte, von der BQ hätte sich da nicht soviel geändert, denke ich.

Also, seid ihr mit der gebotenen Defaultbildqualität eurer ATI-Karte zufrieden oder eben nicht?

Denkst du ich mach mir da Gedanken?
Ja, es ist scheiße, wenn ATI Spieloptimierungen ins AI integriert, das sollte schnellstens entfernt werden. Aber im Ernst? Ich sehe selten einen Unterschied, bei hitzigen Gefechten sowieso nicht.
Für Testzwecken mag das zwar notwendig sein, aber für den Otto-Normalverbraucher taugts meistens.

Gibt mehr fps und längeren e-penix

Wenn ich davon nichts sehe, dann ist das mir egal.

Bei Deiner Karte würde ich mir das erst recht nicht mehr antun, die ist schnell genug für A.I. off oder sollte es zumindest.

Naja, in einem Jahr nicht mehr.



mfg Nakai

Sonyfreak
2007-12-31, 16:55:15
Ja, es ist scheiße, wenn ATI Spieloptimierungen ins AI integriert, das sollte schnellstens entfernt werden. Aber im Ernst? Ich sehe selten einen Unterschied, bei hitzigen Gefechten sowieso nicht.
Für Testzwecken mag das zwar notwendig sein, aber für den Otto-Normalverbraucher taugts meistens.Wir befinden uns hier aber im 3DCenter, und sind daher auf keinen Fall Otto-Normalverbraucher. Wen der Unterschied nicht interessiert, hat meiner Meinung nach in BQ-Diskussionen nichts verloren.

mfg.

Sonyfreak

Nakai
2007-12-31, 17:04:45
Wir befinden uns hier aber im 3DCenter, und sind daher auf keinen Fall Otto-Normalverbraucher. Wen der Unterschied nicht interessiert, hat meiner Meinung nach in BQ-Diskussionen nichts verloren.

Darum gings mir eigentlich nicht. Mir gehts eher darum, dass es Leute gibt, die eine Grafikkarte verteufeln weil die BQ marginal schlechter ist.
Mich interessiert der Unterschied schon, es ist wichtig, dass bei Tests und Reviews die gleiche BQ gewährleistet wird.

mfg Nakai

_DrillSarge]I[
2007-12-31, 17:08:42
hab gerade keine lust. werde nächstes jahr mal paar bilderserien anfertigen.

Razor
2007-12-31, 17:23:53
.....mit PNG sind die Bilder 3MB gross!
Tjo... warum das wohl so ist?
:rolleyes:

Razor

Blaire
2007-12-31, 18:09:06
hab mit Fraps (.bmp) die Shots gemacht und dann mit Paint Dot Net auf .jpg komprimiert! Qualitätseinstellung lag bei 100%.

Dein Versuch in Ehren, aber diese Stelle eignet sich nun überhaupt nicht um die Bildqualität zu vergleichen. ;)

Gast
2007-12-31, 18:11:09
Dein Versuch in Ehren, aber diese Stelle eignet sich nun überhaupt nicht um die Bildqualität zu vergleichen. ;)

anstatt zu kritisieren sag an wo es ne gescheite stelle gibt zum vergleichen...

Blaire
2007-12-31, 18:15:30
anstatt zu kritisieren sag an wo es ne gescheite stelle gibt zum vergleichen...

Muss ich selber sehn, kann ich so nicht sagen. In Crysis hab ich noch nicht nach Vergleichsmöglichkeiten gesucht.

Raff
2007-12-31, 18:17:15
Crysis ist auch ziemlich gnädig, was Texturpfusch angeht. Relativ fies ist mal wieder Waldboden mit Blattmuster. Da flimmert's garantiert.

MfG,
Raff

Nakai
2007-12-31, 18:51:19
Crysis ist auch ziemlich gnädig, was Texturpfusch angeht. Relativ fies ist mal wieder Waldboden mit Blattmuster. Da flimmert's garantiert.

Liegt das nicht an den hochfrequenten Texturen? Und was bedeutet eigentlich "hochfrequent" in diesem Zusammenhang?

mfg Nakai

Die gelbe Eule
2007-12-31, 18:57:17
Wer mal Lust hat zu suchen, sollte sich die Astenden genauer ansehen, wo wann was verschwindet.

the_MAD_one
2007-12-31, 20:16:10
Also, seid ihr mit der gebotenen Defaultbildqualität eurer ATI-Karte zufrieden oder eben nicht?

Definitiv JA!
Hatte vorher ne Geforce 7600 GT und die hat bei halbwegs vegleichbaren Qualitätseinstellungen ein sichtbar schlechteres Ergebnis geliefert(lasse die Radeon auf AI=default laufen und hatte bei der Geforce, soweit möglich, die Optimierungen über Nhancer abgeschaltet). Besonders aufgefallen ist mir das bei Eve Online. Da hab ich mit der Radeon wesentlich schärfere Texturen und das Bumpmapping wirkt irgendwie plastischer als auf der Geforce. Das Spiel sieht jetzt imo sogar besser aus als in den Trinity Trailern. Einstellungen waren bei beiden 1280x1024, 16xAF über den Treiber erzwungen, ingame auf maximale Details gestellt(wobei ich mittlerweile bei der Auflösung der Schatten von hoch auf extrem umgestellt habe, das läuft mit der Radeon immer absolut flüssig), HDR an und Bloom auf low, deshalb auch kein AA. Eve ist übrigens imo das erste Spiel bei dem Bloom und HDR nicht störend wirken sonder tatsächich die Atmosphäre des Spiels verbessern.

puntarenas
2007-12-31, 20:24:15
Klingt nach einem zufriedenen Anwender, wobei der Sprung von der 7600GT ja auch anscheinend eine ganz andere Dimension war, als aktuelle Vergleiche :)

Ich selbst war bei meiner X1900XT mit der Bildqualität von "A.I. Standard" ebenfalls zufrieden und habe A.I. zum Spielen nie deaktiviert. Wenn stimmt, dass die Filterqualität der neuen R(V)6XX gleichwertig ist, dann kann ich die Frage beantworten:

A.I. on = schlechte Bildquali? Nein!

Dass es immer besser geht und das auch wünschenswert wäre, steht dagegen auf einem anderen Blatt.

Gast
2007-12-31, 20:29:35
Bei Crysis muss man auch deutlich anmerken, dass es nicht sehr einfach ist, 1:1-Screenshots zu machen. Hat man anscheinend die passende Stelle gefunden, reicht es nicht aus, das entsprechende Quicksave zu laden und schnell einen Screenshots zu machen. Zuerst dauert es etwas, bis die Szene geladen ist. Dann kommt die Sonne hinzu, die nicht stillsteht, womit sich die Lichtquelle ändert. Man darf also nicht zu früh einen Screenshot knirpsen, da ggf. nicht alles geladen wurde, aber auch nicht zu lange warten, da sich die Tageszeit ändert.

Schlammsau
2007-12-31, 20:32:34
Bei Crysis muss man auch deutlich anmerken, dass es nicht sehr einfach ist, 1:1-Screenshots zu machen. Hat man anscheinend die passende Stelle gefunden, reicht es nicht aus, das entsprechende Quicksave zu laden und schnell einen Screenshots zu machen. Zuerst dauert es etwas, bis die Szene geladen ist. Dann kommt die Sonne hinzu, die nicht stillsteht, womit sich die Lichtquelle ändert. Man darf also nicht zu früh einen Screenshot knirpsen, da ggf. nicht alles geladen wurde, aber auch nicht zu lange warten, da sich die Tageszeit ändert.

eigentlich ging es ganz gut, die screens zu machen.....savegame laden, 5 sekunden warten (bis alle Texturen geladen sind) und dann mit Fraps *klick* ein Screenshot! :) die Screens sind eigentlichh ganu gut geworden.

Dein Versuch in Ehren, aber diese Stelle eignet sich nun überhaupt nicht um die Bildqualität zu vergleichen. ;)

welche stelle meinst du?

macht einfach ein paar andere Screens. Kann heute leider keine mehr machen weil mein Rechner ausser Reichweite ist.

Wünsch euch noch ein frohes neues :)

Gast
2007-12-31, 22:10:25
AI disabled geht bei der 38xx eh nicht aus , daher gibt es auch kaum Unterschiede

Gast
2007-12-31, 22:25:59
eigentlich ging es ganz gut, die screens zu machen.....savegame laden, 5 sekunden warten (bis alle Texturen geladen sind) und dann mit Fraps *klick* ein Screenshot! :) die Screens sind eigentlichh ganu gut geworden.
...
Ein Blick auf die Schatten verrät, dass die Tageszeit auf allen drei Screenshots unterschiedlich ist.

Sentionline
2007-12-31, 22:51:20
Wir befinden uns hier aber im 3DCenter, und sind daher auf keinen Fall Otto-Normalverbraucher. Wen der Unterschied nicht interessiert, hat meiner Meinung nach in BQ-Diskussionen nichts verloren.
Mich würde der Unterschied sehr interessieren. Am meisten Interesse zeige ich auf die Stellen, die du mit rotem Pinsel auf den Screens markierst, wo du die Unterschiede siehst.

Ein Blick auf die Schatten verrät, dass die Tageszeit auf allen drei Screenshots unterschiedlich ist.
Die Tageszeiten in CrySis sind gescriptet. Man kommt z.B. immer beim Sonnenaufgang auf dem Berg an, und bleibt 5 Std. an der gleichen Stelle, aber die Sonne bewegt sich kein mm.

Soviel zu den "Tageszeiten@Savegames"...

Ansonsten find ich das albern jetzt Nvidia mit ATi "wieder" vergleichen zu wollen, nur weil PCGH irgendwas behauptet auf Basis der G7x Karten. Bei den G8x Karten soll das ja nicht mehr der Fall sein, da die Architektur Optimierungen ganz offensichtlich nicht (mehr) nötig hat. Die Vergangenheit hat gezeigt, das ATi mit AI besser "tricksen" kann als Nvidia, und keiner sieht den Unterschied zwischen A.I. On und AI Off. Also was soll das schon wieder...?

PCGH hat übrigens die OpenGL Filterqualität gemeint. Bei CrySis ist der OpenGL Part, aus mir unbekannten Gründen, noch gesperrt. Wenn man jetzt wieder einen Bildqualitätskrieg zwischen ATi und Nvidia starten will, dann richtig...nicht mit 3 Screens, und schon gar nicht nur in D3D.

Bedeutet:
GeForce 6/7: HQ
GeForce 8 : Quality
Radeon 1x/2x/3x : AI Standard

Das ist die gängige Praxis die von allen Usern verwendet wird. Das die GeForce Reihe Fx bis GeForce 7 nicht die HQ Könige waren, ist schon von vielen Seiten klargestellt. Wenn man bei der GeForce 6/7 die Treiber auf Quality stellt, verlieren diese hoffnungslos gegen Catalyst AI -Standard-. Und wenn man AI bei Catalyst deaktiviert und die GeForce 6/7 auf HighQuality stellt, verlieren diese dennoch die BQ vergleiche. Nur mal so zur Info. Wie bei ATi mit dem AI getrickst wird, weiss keiner so genau...sehen kanns irgendwie auch keiner. Also wayne?

Alles gute für das Jahr 1984! Kommt gut rein!

mfg

deekey777
2008-01-01, 00:19:15
...

Die Tageszeiten in CrySis sind gescriptet. Man kommt z.B. immer beim Sonnenaufgang auf dem Berg an, und bleibt 5 Std. an der gleichen Stelle, aber die Sonne bewegt sich kein mm.

Soviel zu den "Tageszeiten@Savegames"...

...

mfg
Schaffst du je einen sinnvollen Beitrag zu schreiben?
http://www.ixbt.com/video/itogi-video/test/0711_crysis.shtml
Gleich die ersten beiden Bildchen (es bringt bei dir eh nichts zu erklären, was im Text steht). Zwischen den Bildern liegen dreißig Sekuden.

Gast
2008-01-01, 00:39:57
Bei fehlen mal wieder Details auf den Bildern beim ixbt Link...und selbst die Beleuchtung des HDR scheint besser auf 8800 Karten zu funktionieren.

http://www.ixbt.com/video/itogi-video/test/0711_crysis/crysis64_gf8800_dx10_16912_3.png

http://www.ixbt.com/video/itogi-video/test/0711_crysis/crysis64_rhd2900_dx10_711_3.png

ESAD
2008-01-01, 02:23:30
findest du? also mir gefallen die ATI bilder mehr und die details sind genau gleich

Gast
2008-01-01, 03:14:41
Bei fehlen mal wieder Details auf den Bildern beim ixbt Link...und selbst die Beleuchtung des HDR scheint besser auf 8800 Karten zu funktionieren.

http://www.ixbt.com/video/itogi-video/test/0711_crysis/crysis64_gf8800_dx10_16912_3.png

http://www.ixbt.com/video/itogi-video/test/0711_crysis/crysis64_rhd2900_dx10_711_3.png

Hi

Ich kann auf die Bilder nicht zugreifen.
403

Gruss Labberlippe

Tigerchen
2008-01-01, 07:12:26
Wenn Du selbst genauer hinschaust, werden bei A.I. on Bildinformationen einfach mal eben wegoptimiert. Gibt mehr fps und längeren e-penix :up:
Bei Deiner Karte würde ich mir das erst recht nicht mehr antun, die ist schnell genug für A.I. off oder sollte es zumindest.

Absurd. Bein den paar Szenen/Spiele wo man A.I. wirklich negativ wahr nimmt kann man es doch einfach deaktivieren. Bei allen anderen hat man einfach ein paar Frames mehr. Ein Segen für die nicht so reichen Gamer ohne HighEndSuperDuper Grafikkarte.

Gast
2008-01-01, 12:29:57
tut mit leid ich kann da 0.0 Unterschied sehen.

AI normal
http://www.abload.de/thumb/ainormal7j9.jpg (http://www.abload.de/image.php?img=ainormal7j9.jpg)

AI Advance
http://www.abload.de/thumb/aiadvancecmt.jpg (http://www.abload.de/image.php?img=aiadvancecmt.jpg)

AI Disable
http://www.abload.de/thumb/aidisableu6l.jpg (http://www.abload.de/image.php?img=aidisableu6l.jpg)

Schlammsau
2008-01-01, 13:54:43
Mich würde der Unterschied sehr interessieren. Am meisten Interesse zeige ich auf die Stellen, die du mit rotem Pinsel auf den Screens markierst, wo du die Unterschiede siehst.


Die Tageszeiten in CrySis sind gescriptet. Man kommt z.B. immer beim Sonnenaufgang auf dem Berg an, und bleibt 5 Std. an der gleichen Stelle, aber die Sonne bewegt sich kein mm.

Soviel zu den "Tageszeiten@Savegames"...

Ansonsten find ich das albern jetzt Nvidia mit ATi "wieder" vergleichen zu wollen, nur weil PCGH irgendwas behauptet auf Basis der G7x Karten. Bei den G8x Karten soll das ja nicht mehr der Fall sein, da die Architektur Optimierungen ganz offensichtlich nicht (mehr) nötig hat. Die Vergangenheit hat gezeigt, das ATi mit AI besser "tricksen" kann als Nvidia, und keiner sieht den Unterschied zwischen A.I. On und AI Off. Also was soll das schon wieder...?

PCGH hat übrigens die OpenGL Filterqualität gemeint. Bei CrySis ist der OpenGL Part, aus mir unbekannten Gründen, noch gesperrt. Wenn man jetzt wieder einen Bildqualitätskrieg zwischen ATi und Nvidia starten will, dann richtig...nicht mit 3 Screens, und schon gar nicht nur in D3D.

Bedeutet:
GeForce 6/7: HQ
GeForce 8 : Quality
Radeon 1x/2x/3x : AI Standard

Das ist die gängige Praxis die von allen Usern verwendet wird. Das die GeForce Reihe Fx bis GeForce 7 nicht die HQ Könige waren, ist schon von vielen Seiten klargestellt. Wenn man bei der GeForce 6/7 die Treiber auf Quality stellt, verlieren diese hoffnungslos gegen Catalyst AI -Standard-. Und wenn man AI bei Catalyst deaktiviert und die GeForce 6/7 auf HighQuality stellt, verlieren diese dennoch die BQ vergleiche. Nur mal so zur Info. Wie bei ATi mit dem AI getrickst wird, weiss keiner so genau...sehen kanns irgendwie auch keiner. Also wayne?

Alles gute für das Jahr 1984! Kommt gut rein!

mfg

hier gehts nicht um Vergleiche, welcher Hersteller jetzt besser trickst! Es werden nur, viele Anschuldigungen gegen ATI, in den Raum gestellt. Und hier möchte ich dem ganzen auf den Grund gehen. Weil auch wirklich nichts brauchbares im Netz zu finden ist!
Wie kommst du darauf das ATI "besser" cheatet? Nur weil keiner die optimierungen sieht?
So sollte es doch dann auch sein!

Leute noch mehr Pics bitte, am besten noch von anderen Games......

puntarenas
2008-01-01, 14:05:31
Leute noch mehr Pics bitte, am besten noch von anderen Games......
Warum möchtest du hier eigentlich so unbedingt einen Screenshot-Thread anleiern, der Knackpunkt sind doch die AF-Tricksereien und deren Auswirkung sieht man nach weitläufiger Meinung eben nur in Bewegung.

Ich konnte bei meiner X1900XT mit "A.I. Standard" durchaus gelegentlich leichtes flimmern feststellen, wenn ich extra darauf geachtet habe. Es war allerdings selten so, dass es sich mir aufgedrängt hätte und dadurch störte. In den Bildern (vgl. PCGH, Link fehlt mir im Moment) sieht man bestenfalls minimale Detailunterschiede an den Texturen, wie das in Bewegung aussieht ist aber schwer zu mutmaßen und als Standbild sehen die fiesen Einstellungen oftmals ja sogar besser aus. Also wenn schon, dann die oft beschworenen Hi-Res-Movies bitte :)

Raff
2008-01-01, 14:20:54
Wenn man Unterschiede schon auf Standbildern sieht, dann ist ist der Pfusch in Bewegung garantiert nicht zu übersehen. Wirkt etwas "schärfer" oder "grieseliger", dann flimmert diese Stelle, wenn man sich im 3D-Raum bewegt.

Ich möchte in meinem ersten Posting 2008 noch eine Bitte kommunizieren. Es ist Fakt, dass A.I. und Nvidias "Optimierungen" die BQ beeinflussen. Das kann man leugnen und schönreden, an den Tatsachen ändert es aber nichts. Wer die Defizite beneidenswerterweise nicht sieht, muss nicht militant darauf bestehen, dass es sie nicht gibt. Die "Optimierungen" sind klar eine Bereicherung, weil sie gerade auf Radeons die Framerate stark nach oben ziehen. Aber es sollte selbstverständlich sein, dass man diese Sparmaßnahmen auch wieder deaktivieren kann! Deswegen gilt es, A.I. @ R(V)6x0 anzukreiden und deswegen kriegt Nvidia für den OGL-Pfusch auf die Mütze.

Was oft, und eben auch von mir, vergessen wird: Der Monitor ist ein entscheidender Faktor beim "Sehen und Nichtsehen". Die GF7-"Optimierungen" entlocken mir selbst hier am matschigen CRT einen Kotzkrampf, was für deren negative Sichtbarkeit spricht. GF8-Quality und A.I. On fallen weniger auf. An einem scharfen TFT sind Letztere aber oft inakzeptabel – IMO!

MfG,
Raff

_DrillSarge]I[
2008-01-01, 14:22:48
leider sind ai und cf verknüpft :(

Gast
2008-01-01, 15:49:12
findest du? also mir gefallen die ATI bilder mehr und die details sind genau gleich

Nö bei Ati fehlt die Beleuchtung und Schattendetails

Mr. Lolman
2008-01-01, 16:20:30
Nö bei Ati fehlt die Beleuchtung und Schattendetails

Wo denn? Ich seh, dass NV die Steine und die Palmenblätter heller rendert, aber wer sagt, dass das so korrekt ist? (Nach den bisherigen Treiberpfusch, den sie bei Crysis abgeliefert haben,... ...naja egal)

Andererseits seh ich, dass bei ATi die Büsche links schattierter (also teilweise dunkler sind) und dass der Auspuff korrekt beleuchtet wird.

Außerdem: NVidia hatte nicht nur deutlich mehr Zeit ihre Treiber auf das Spiel zu optimieren, sondern hatte durch einige Tausend Mannstunden an Programmierarbeit ja sogar diverse Möglichkeiten das Spiel bestmöglich auf ihre HW zuzuschneiden. ;)

Gast
2008-01-01, 16:30:51
Lass dir mal den Text ins englische übersetzen... Schau dir mal das Bild mit dem Raum an (NV hat Schatten, Ati nicht...) oder die fehlenden Beleuchtungen wieder einmal die bei Ati fehlen.
Aber klar ist ja Ati die dürfen das nichtwahr Mr.Lolman? Die bescheissen die leute und es gibt keine großen Artikel... wäre das bei Nvidia gewesen wären die Cheatvorwürfe sofort bei Fuß...aber die lieben Kanadier werden wieder mal in Schutz genommen

Grivel
2008-01-01, 16:34:31
generell hab ich nix zu meckern, diese Moire effekt oder wie die heißen , seh ich sehr selten (nie?^^)
und naja ich habe AI und 4 X AF drin , grundsätzlich damit wirken alle Spiele optisch ok finde ich ..

gegenüber Nvidia Karten muss ich sagen hat ATI irgendwie definitiv schönere bildqualität :-D
aber nun gut insgesamt ist das alles meckern auf hohem niveau....

Mr. Lolman
2008-01-01, 16:38:38
Lass dir mal den Text ins englische übersetzen... Schau dir mal das Bild mit dem Raum an (NV hat Schatten, Ati nicht...) oder die fehlenden Beleuchtungen wieder einmal die bei Ati fehlen.
Aber klar ist ja Ati die dürfen das nichtwahr Mr.Lolman? Die bescheissen die leute und es gibt keine großen Artikel... wäre das bei Nvidia gewesen wären die Cheatvorwürfe sofort bei Fuß...aber die lieben Kanadier werden wieder mal in Schutz genommen

Hab den Text noch nicht gelesen. Erwischt. Egal. Der Bug wird schon noch gefixt werden. Die lieben Kanadier werden deswegen in den Schutz genommen, weil sie imo noch ein bisschen Schonfrist verdient haben, das Spiel ordentlich zu optimieren. (wie auch damals bei Doom³ ;))

Gast
2008-01-01, 16:45:09
Nein weil du nicht objektiv bist bzw. nie sein kannst. Denn dann wüsstest du das Nvidia dies auch verdient hätte , nur wurde bei Nvidia gleich ne Cheatgeschichte daraus gemacht , obwohl Ati viel mehr Details garnicht erst anzeigt, was noch wesentlich schlimmer ist. So wird ein Schuh draus...

_DrillSarge]I[
2008-01-01, 16:47:50
http://www.ixbt.com/video/itogi-video/test/0711_crysis/crysis32_rhd2900_dx9_711_6.png
http://www.ixbt.com/video/itogi-video/test/0711_crysis/crysis32_gf8800_dx9_16912_6.png

bei den beiden bildern (und auch bei den anderen) aus dem artikel ist halt das problem, dass diese nicht identisch sind, vor allem die beleuchtung ändert sich ja in crysis fortlaufend.

Mr. Lolman
2008-01-01, 16:48:04
Nein weil du nicht objektiv bist bzw. nie sein kannst. Denn dann wüsstest du das Nvidia dies auch verdient hätte , nur wurde bei Nvidia gleich ne Cheatgeschichte daraus gemacht , obwohl Ati viel mehr Details garnicht erst anzeigt, was noch wesentlich schlimmer ist. So wird ein Schuh draus...

Nvidia hatte sich ja mit min 2 169er Treiber auch das ein oder andere Detail gespart. Unterschied: NVidia hatte an dem Spiel fleissig mitgebastelt und (wie damals auch bei Doom3) mehr als ausreichend Zeit gehabt die Treiber darauf anzupassen. ATi nicht.

_DrillSarge]I[
2008-01-01, 16:49:48
Nö bei Ati fehlt die Beleuchtung und Schattendetails
habs mir mal in crysis angesehen und es fehlt (schnell betrachtet) nix. es liegt halt daran, dass die sonne wandert und das lcht anders einfällt. man müsste es irgendwie hinbekommen absolut gleiche zustände aufzunehmen.

übrigens ist hier der ai off - ai on - ai adv
fred und nicht der nv vs. ati thread

Schlammsau
2008-01-01, 16:56:26
I[;6154863']
übrigens ist hier der ai off - ai on - ai adv
fred und nicht der nv vs. ati thread

genau!!!!!

Gast
2008-01-01, 16:56:32
Nvidia hatte sich ja mit min 2 169er Treiber auch das ein oder andere Detail gespart. Unterschied: NVidia hatte an dem Spiel fleissig mitgebastelt und (wie damals auch bei Doom3) mehr als ausreichend Zeit gehabt die Treiber darauf anzupassen. ATi nicht.

Falsch bei Nvidia waren nur die Wasserreflektionen fehlerhaft, ansonsten waren keine Unterschiede sichtbar. Bei Ati fehlen Schatten und Beleuchtungsdetails... Den Pfusch betreibt Ati und nicht Nvidia. Und ob Nvidia dran mitgebastelt hat oder nicht, darf hier keine Rolle spielen, Ati hat ebenso lange genug Zeit wie Nvidia auch, die Treiber anzupassen.

Gast
2008-01-01, 16:57:31
I[;6154863']habs mir mal in crysis angesehen und es fehlt (schnell betrachtet) nix. es liegt halt daran, dass die sonne wandert und das lcht anders einfällt. man müsste es irgendwie hinbekommen absolut gleiche zustände aufzunehmen.


Text übersetzen lassen, dann Bilder betrachten...

Mr. Lolman
2008-01-01, 16:59:12
Falsch bei Nvidia waren nur die Wasserreflektionen fehlerhaft, ansonsten waren keine Unterschiede sichtbar. Bei Ati fehlen Schatten und Beleuchtungsdetails... Den Pfusch betreibt Ati und nicht Nvidia. Und ob Nvidia dran mitgebastelt hat oder nicht, darf hier keine Rolle spielen,


Und Windschutzscheibenscheiben wurden erstmal garnicht gerendert.


Ati hat ebenso lange genug Zeit wie Nvidia auch, die Treiber anzupassen.

Nö. NV hatte div. Vorabversionen zur Verfügung, ATi mWn nicht. Egal. Back2Topic plz.

Gast
2008-01-01, 17:02:17
Und Windschutzscheibenscheiben wurden erstmal garnicht gerendert.

Unsinn

Nö. NV hatte div. Vorabversionen zur Verfügung, ATi mWn nicht. Egal. Back2Topic plz.

Das zeigt das du keine Ahnung hast, Ati und NV hatten Vorabversionen...

Mr. Lolman
2008-01-01, 17:07:34
Unsinn

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=389716


Das zeigt das du keine Ahnung hast, Ati und NV hatten Vorabversionen...

Irgendwo las ich mal ein Interview, welches als Resumeé hatte, das ATi ihre Treiber noch nicht allzugut auf Crysis optimieren konnte. Und jetzt spar dir mal besser weiter die persönlichen Angriffe, werter 'Gast'.

Gast
2008-01-01, 17:09:17
Nö. NV hatte div. Vorabversionen zur Verfügung, ATi mWn nicht. Egal. Back2Topic plz.
Ach geh! Und ATI war völlig überrascht, als im November dann Crysis kam - trotz Demo einen Monat vorher?

Mr. Lolman
2008-01-01, 17:11:53
Ach geh! Und ATI war völlig überrascht, als im November dann Crysis kam - trotz Demo einen Monat vorher?

Die ja aus irgendeinem Grund zurückgehalten wurde, obwohl sie schon längst fertig war...

Gast
2008-01-01, 17:13:41
Irgendwo las ich mal ein Interview, welches als Resumeé hatte, das ATi ihre Treiber noch nicht allzugut auf Crysis optimieren konnte. Und jetzt spar dir mal besser weiter die persönlichen Angriffe, werter 'Gast'.

Dann frag mal bei Crytek nach...nach deiner These dürfte Ati ja garnicht mitbekommen haben das Crysis überhaupt erscheint...*lach* Absurd , natürlich hatte Ati genug Vorabversionen, oder glaubst du die Ati.dlls kommen von Nvidia? ;)

Mr. Lolman
2008-01-01, 17:14:47
Dann frag mal bei Crytek nach...nach deiner These dürfte Ati ja garnicht mitbekommen haben das Crysis überhaupt erscheint...*lach* Absurd , natürlich hatte Ati genug Vorabversionen, oder glaubst du die Ati.dlls kommen von Nvidia? ;)

Nö. Aber angeblich hatte NV ihre Finger drinn, dass wir alle länger auf die Crysis Demo warten mussten.

Gast
2008-01-01, 17:20:32
Nö. Aber angeblich hatte NV ihre Finger drinn, dass wir alle länger auf die Crysis Demo warten mussten.

Nicht ablenken bitte. Es geht jetzt nur darum ob Ati Vorabversionen bekam oder nicht. Glaubst du wirklich das Crytek nur Infos an Nvidia herausgibt und damit die Käuferschicht absichtlich einschränkt? Das ist purer Unsinn sorry.
Es gibt auch eine atimgpu.dll im Verzeichnis...mit allerlei R600 Einträgen
c:\MyWork\ISV\isv_desktop\SDK\Tools\CrossFire Detect\atimgpud\Win32\Release\atimgpud.pdb

Mr. Lolman
2008-01-01, 17:33:06
Nicht ablenken bitte. Es geht jetzt nur darum ob Ati Vorabversionen bekam oder nicht. Glaubst du wirklich das Crytek nur Infos an Nvidia herausgibt und damit die Käuferschicht absichtlich einschränkt? Das ist purer Unsinn sorry.
Es gibt auch eine atimgpu.dll im Verzeichnis...mit allerlei R600 Einträgen
c:\MyWork\ISV\isv_desktop\SDK\Tools\CrossFire Detect\atimgpud\Win32\Release\atimgpud.pdb

Stimmt. Du hast recht. Gut das wir das nun geklärt haben.

Schlammsau
2008-01-01, 18:12:16
Bitte leute bleibt beim Thema......hier geht es um ATI und nicht um nVidia!
Ich hab im nVidia ogl Cheat Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=397603), von jemanden gelesen, dass ATI´s cheaterei "totgeschwiegen" wird! Also beweist uns das? Das es was zu bemängeln gibt! Und bitte, es muss auch auf Screenshots zu bannen sein! Bei nVidia schaffen es auch andauernd Pics ins Netz....

Gast
2008-01-01, 18:50:14
ok wie schon die Crysis Screens von mir, hier von FEAR perseus Mondate:

und hier sieht man einen ganz klein unterschied, achtet Links oben auf die Kitter die im Boden sind das AF ist da besser :)

1680x1050
4xAA
16xAF

ALLES MAX

AI normal
http://www.abload.de/thumb/ainormalkq9.jpg (http://www.abload.de/image.php?img=ainormalkq9.jpg)

AI Advance
http://www.abload.de/thumb/aiadvancerqm.jpg (http://www.abload.de/image.php?img=aiadvancerqm.jpg)

AI Disable
http://www.abload.de/thumb/aidisablebmy.jpg (http://www.abload.de/image.php?img=aidisablebmy.jpg)

Gast
2008-01-01, 18:51:08
wenn ich AI aus machen geht leider kein Crossfire mehr.

Sonyfreak
2008-01-01, 19:33:38
ok wie schon die Crysis Screens von mir, hier von FEAR perseus MondateMach doch mal den selben Bildvergleich mit PNGs. So kann man leider nur schwer abschätzen, welche Teile des Bildes durch die Kompression und welche durch die Treiberoptimierungen zerstört wurden.

mfg.

Sonyfreak

Gast
2008-01-02, 06:54:27
ok wie schon die Crysis Screens von mir, hier von FEAR perseus Mondate:

und hier sieht man einen ganz klein unterschied, achtet Links oben auf die Kitter die im Boden sind das AF ist da besser :)

1680x1050
4xAA
16xAF

ALLES MAX

AI normal
http://www.abload.de/thumb/ainormalkq9.jpg (http://www.abload.de/image.php?img=ainormalkq9.jpg)
die Pics sind schon arg komprimiert.......mach sie am besten neu mit 100% Quali
AI Advance
http://www.abload.de/thumb/aiadvancerqm.jpg (http://www.abload.de/image.php?img=aiadvancerqm.jpg)

AI Disable
http://www.abload.de/thumb/aidisablebmy.jpg (http://www.abload.de/image.php?img=aidisablebmy.jpg)
Die Pics sind schon arg komprimiert.....~200kb für diese grossen Pics. Mach nochmal neu!

Gast
2008-01-02, 14:50:58
...
Irgendwo las ich mal ein Interview, welches als Resumeé hatte, das ATi ihre Treiber noch nicht allzugut auf Crysis optimieren konnte. Und jetzt spar dir mal besser weiter die persönlichen Angriffe, werter 'Gast'.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=393016

Zu dem Crysis-Artikel:
Bei iXBT-Artikeln muss man immer folgendes im Hinterkopf haben: Es gibt immer zwei Meinungen. Die eine Meinung ist die des Redakteurs, und die andere ist falsch. Das musste ich schon vor fast zwei Jahren selbst feststellen: Es gibt einen sehr schönen Artikel über Begriffe von Technologien, die in modernen Spielen verwendet werden, samt Erklärung und Beispielen. Auch steht was zu [url=http://www.ixbt.com/video2/terms2k5.shtml#hdr]HDR[/hdr]. Wie man sieht, ist ganz unten ein Bildchen aus TheProject zu sehen. Wie man weiß, verwendet TheProject irgendwas, was aber nicht mit HDR gemacht wird. Darauf habe ich im entsprechenden Thread im iXBT-Forum hingewiesen, das war sehr dumm von mir.
Die iXBT-Autoren sind definitiv nicht biased und sehr praxisnah (sie interessiert die AI-Problematik kaum, es sei, man hat im Spiel deutliche Nachteile), aber wenn sie etwas schreiben, dann stehen sie felsenfest dazu - ohne Rücksicht darauf, ob man es anders deuten kann.
Im Crysis-Bildqualiartikel will der Autor sich nicht darauf festlegen, ob die zT unterschiedliche Darstellung von Schatten eine "performancesteigernde Maßnahme" ist oder ein Bug des Spiels oder des verwendeten Treibers, schreibt aber, dass mit einer 8800Ultra eine deutlich höhere Bildqualität in Crysis in allen Rendermodi zu sehen ist (nicht wegen MSAA oder AF, sondern allein wegen der Bildfehler). Im dazu gehörigen Thread war ein Roter so frech und behauptete einfach, dass Crysis für die Architektur des G80-G92 mit kräftiger Unterstützung von nVidia entwickelt wurde; weiterhin hätten die Treiberentwickler keine Möglichkeit gehabt, vor dem Release (der Demo) auf das Spiel zuzugreifen. Das wird (wie schon so oft) einfach damit widerlegt: Wer hat denn AMD gestört, sich die Demo bei Crytekt zu holen? Das Interview auf Golem mit Richard Huddy ist für sie irrelevant, die Schuld liegt allein bei AMD.

Schlammsau@work
2008-01-02, 15:30:40
keinen "Kleinkrieg" hier! Es geht hier immernoch nur um ATI und deren Optimierungen.
Ich werde nachher noch ein paar Screens von anderen Games machen.....

Schlammsau
2008-01-02, 16:40:07
hier mal als PNG......
kurioser weise ist die Framerate bei ausgeschaltetem A.I. um 1fps höher! :frown:

Crysis DX10, HighSpec, 1280x1024, 4xAA/16xAF

A.I. Off
http://www.pictransfer.de/thumbs/CrysisAIoff14bbf944png.png (http://www.pictransfer.de/?img=CrysisAIoff14bbf944png.png)

A.I. On Standard
http://www.pictransfer.de/thumbs/CrysisAIonstandardc24a8abapng.png (http://www.pictransfer.de/?img=CrysisAIonstandardc24a8abapng.png)

A.I. On Advanced
http://www.pictransfer.de/thumbs/CrysisAIonadvancedf76972depng.png (http://www.pictransfer.de/?img=CrysisAIonadvancedf76972depng.png)

Gast
2008-01-02, 16:58:48
hier mal als PNG......
kurioser weise ist die Framerate bei ausgeschaltetem A.I. um 1fps höher! :frown:


Weil AI aus noch nicht funktioniert, und damit auch noch die Optimierungen an sind. Und die Stelle eignet sich auch nicht um Bildqualität zu vergleichen such doch mal was besseres raus.

Schlammsau
2008-01-02, 17:01:54
welche den dann????
eher indoor level? weite Areale?

Gast
2008-01-02, 17:03:27
Irgendwo wo die ATI echte Grafikfehler erzeugt...

Es gibt doch genug solcher Szenen.
Teilweise wird das ganze Lightning entfernt.

Gast
2008-01-02, 17:07:37
Irgendwo wo die ATI echte Grafikfehler erzeugt...

Es gibt doch genug solcher Szenen.
Teilweise wird das ganze Lightning entfernt.
Und das wäre wo? Ich kann sowas nicht wirklich finden, hab aber nur einen R580. Gibts solche Fehler nur auf R(V)6xx?

Gast
2008-01-02, 17:08:55
welche den dann????
eher indoor level? weite Areale?

Wo man bissl hochfrequentes sieht wie Moire etc. Nicht sowas wo man den Wald vor lauter Bäumen nicht mehr sieht. :-)

Gast
2008-01-02, 17:19:13
Eigentlich ist der Vergleich sowieso unsinnig weil auch bei AI disabled die Optimierungen noch nicht ausgeschalten sind. Müsste man mit X1950/X1900 Karten testen.

Gast
2008-01-02, 17:19:19
Wenn Du selbst genauer hinschaust, werden bei A.I. on Bildinformationen einfach mal eben wegoptimiert. Gibt mehr fps und längeren e-penix :up:
Bei Deiner Karte würde ich mir das erst recht nicht mehr antun, die ist schnell genug für A.I. off oder sollte es zumindest.


man möge mir diese wegbleibenden bildinformationen einkreisen ;)

Schlammsau
2008-01-02, 17:21:50
Crysis DX10, HighSpec, 1280x1024, 4xAA/16xAF

A.I. On Standard
http://www.pictransfer.de/thumbs/CrysisAIstandard3d5c9c01png.png (http://www.pictransfer.de/?img=CrysisAIstandard3d5c9c01png.png)

A.I. On Advanced
http://www.pictransfer.de/thumbs/CrysisAIadvanced4c157a77png.png (http://www.pictransfer.de/?img=CrysisAIadvanced4c157a77png.png)

A.I. Off
http://www.pictransfer.de/thumbs/CrysisAIdisabled3d8492a7png.png (http://www.pictransfer.de/?img=CrysisAIdisabled3d8492a7png.png)

Gast
2008-01-02, 17:22:26
Eigentlich ist der Vergleich sowieso unsinnig weil auch bei AI disabled die Optimierungen noch nicht ausgeschalten sind. Müsste man mit X1950/X1900 Karten testen.
Was für Optmierungen werden denn nicht abgeschaltet? Bitte etwas Konkretes und nicht Abstraktes.

Gast
2008-01-02, 17:25:17
Was für Optmierungen werden denn nicht abgeschaltet? Bitte etwas Konkretes und nicht Abstraktes.

Frag mal Raff...

Gast
2008-01-02, 17:28:05
@Schlammsau:

Nimm doch mal z.b. den Bootsteeg stellst dich ganz vorn hin und überlickst den ganzen Steeg... in den Raum sieht man doch garnix außer ne Wand... ist halt nicht ganz so einfach DIE richtige Stelle zu finden.

Schlammsau
2008-01-02, 17:52:39
besser?
Man sieht tatsächlich leichte unterschiede....u. a. oben links an den Klippen! Aber ob das jetzt besser oder schlechter ist, ist für mich nicht erkennbar!

*entfernt*

Raff
2008-01-02, 18:07:53
Es wäre unfassbar genial, wenn du deine Bildchen woanders hochladen könntest. Nach fünf Minuten sah ich jeweils die Hälfte und hatte die Faxen dicke. ;)

MfG,
Raff

Gast
2008-01-02, 18:09:58
So siehts aus. z.b. www.imagebanana.com ist gut

Razor
2008-01-02, 18:53:09
So siehts aus. z.b. www.imagebanana.com ist gut
Jo... oder abload.de:
http://www.abload.de/

Razor

Schlammsau
2008-01-03, 06:38:25
Sorry, jetzt neuer Hoster! :/

kennzeichnet bitte die qualitativ schlechteren Stellen.....wie schon gesagt, u. a. oben links am Hang und am Haus in der Mitte, unterscheiden sich die Screenshots!

Crysis DX10, HighSpec, 1280x1024, 4xAA/16xAF
A.I. Standard
http://www.abload.de/thumb/standardd8d38b54png16f.png (http://www.abload.de/image.php?img=standardd8d38b54png16f.png)

A.I. Advanced
http://www.abload.de/thumb/advancedd832409apngraw.png (http://www.abload.de/image.php?img=advancedd832409apngraw.png)

A.I Off
http://www.abload.de/thumb/disabled167103bepngk3y.png (http://www.abload.de/image.php?img=disabled167103bepngk3y.png)

=Floi=
2008-01-03, 06:44:38
warum ausgerechnet das spiel? Wir soltlen eher spiele finden die wirklich gut optimiert sind und wo ai on viel bringt, und dann die grafik vergleichen!

Schlammsau
2008-01-03, 06:47:20
Mach Vorschläge......und dann kann ich dir sagen ob ich das Game habe!
Vielleicht FEAR? Doom³?

Schlammsau@work
2008-01-03, 09:24:27
warum ausgerechnet das spiel? Wir soltlen eher spiele finden die wirklich gut optimiert sind und wo ai on viel bringt, und dann die grafik vergleichen!
Also 3fps average Vorteil mit eingeschaltetem A.I. im GPU Bench, find ich schon beachtlich!!!! Vor allem wenn die Performance eh unter 20fps ist!

Gast
2008-01-03, 10:05:57
http://www.google.de/search?hl=de&q=HD2900+AI+Bildqualit%C3%A4t+Video&btnG=Suche&meta=

http://www.pcgameshardware.de/?article_id=603050

Google spuck zu dem Thema sogar einen Videovergleich aus. Kann einer von euch das runterladen und anschauen? Ich bin dort leider nicht angemeldet. :(

Mr. Lolman
2008-01-03, 10:33:38
http://www.google.de/search?hl=de&q=HD2900+AI+Bildqualit%C3%A4t+Video&btnG=Suche&meta=

http://www.pcgameshardware.de/?article_id=603050

Google spuck zu dem Thema sogar einen Videovergleich aus. Kann einer von euch das runterladen und anschauen? Ich bin dort leider nicht angemeldet. :(

Was ich nicht ganz verstehe ist folgendes:


Bei den folgenden drei AF-Bildern fällt auf, dass mit aktiviertem AI ein härterer Übergang zwischen den MIP-Stufen kurz vor dem Tunnel zu sehen ist. Schalten Sie A.I. ab, liegen R600 und GF8 in dieser Szene auf demselben Texturfilter-Niveau.


AI am R600 deaktivieren, bringt ja angeblich quasi nix, oder?

desert
2008-01-03, 10:40:46
Was ich nicht ganz verstehe ist folgendes:



AI am R600 deaktivieren, bringt ja angeblich quasi nix, oder?

was willst du uns damit sagen lolli? das r600 doch eine bessere oder gleichgute bildqualität hat. und hq gegen standard somit also gerechtfertig wäre?

Razor
2008-01-03, 11:08:31
Sorry, jetzt neuer Hoster! :/

kennzeichnet bitte die qualitativ schlechteren Stellen.....wie schon gesagt, u. a. oben links am Hang und am Haus in der Mitte, unterscheiden sich die Screenshots!

Crysis DX10, HighSpec, 1280x1024, 4xAA/16xAF
A.I. Standard http://www.abload.de/image.php?img=standardd8d38b54png16f.png
A.I. Advanced http://www.abload.de/image.php?img=advancedd832409apngraw.png
A.I Off http://www.abload.de/image.php?img=disabled167103bepngk3y.png
Ich halte Crysis noch immer für nicht wirklich geeignet...
Aber wenn Du schon Vergleiche Postest, dann auch bitte mit SaveGame, damit auch andere das nachvollziehen können.
(nicht, dass wir Dir das nicht 'glauben' würden ;-)

Wie dem auch sei, habe Dir mal anhand Deines "AI off" Screens die Bereiche markiert, auf die man bei einem Vergleich achten sollte.
"AI standard" scheint relativ 'unbehelligt', "AI advanced" haut mächtigst auf die BQ...

Hier mal der Sceen:
http://www.abload.de/thumb/diff_off_advvyd.png (http://www.abload.de/image.php?img=diff_off_advvyd.png)

Die gesamte Fels-Textur links ist 'irgendwie' schlechter aufgelöst... wenn man genau hinschaut, dann erkennt man den Unterschied. Ohne allerdings genau hinzuschaun', erkennt JEDER sofort, dass da etwas mit der Rankpflanze auf dem Felsen links nicht stimmt (kleinere Rechtecke innerhalb der Fels-Makierung)... mit "advanced" ist diese total vermatscht und es ist kaum noch erkennbar, um was es sich dabei handelt.

Und ja, nicht nur das Haus in der Mitte des Screens, sondern auch jeses auf der linken Seite hat deutlich etwas 'abbekommen'... in negativer Hinsicht natürlich. Auch hier sind Details verschwunden. Nicht nur auf den Blechen des Daches (beide Häuser), sondern auch auf den Blechen der Front (nur Mitte) zu finden... zudem scheint dem zusammen gefaltete Sonneschirm in der Mitte des Hauses (in der Mitte ;-) ordentlich was abgegangen zu sein.

Offensichtlich ist, dass hier nur die Detail-Texturen in der Entfernung von der Optimierung etwas abbekommen haben, die Texturen nahe beim Spieler sind wohl nicht betroffen. Und ich vermute, dass es bei der Vegetation ähnlich aussehen dürfte, nur ist das bei der ständigen Bewegung dieser nicht auszumachen.

Wer also mit "AI advanced" Crysis zockt, kann eigentlich gleich die Textur-Qualität nach unten schrauben...
Was man im übrigen auch sehr gut an den gewonnenen 3 Frames fest machen kann.

Warum nicht gerade Crysis vergleichen?
Alles ist dort in Bewegung und es ist so kaum möglich, das, was in Bewegung ist, zu bewerten.
Wenn man es schaffen würde, ein SaveGame gleich im DevModus mit der TimeScale=0 zu laden... vielleicht?

Besser wären aber vermutlich eher andere Engines geeignet... mit einem vollen Effekt für die Optimierung vielleicht welche, die schon mind. 6 Monate "auf dem Buckel" haben.

Razor

P.S.: so etwas, wie die Optimierung von Mip-Übergängen ist übrigens nur schwer mit Standbildern auszumachen. Lolmann hat damals mit akribischer Arbeit die diesbezüglichen Schwächen der damaligen nVidia-Architektur aufgezeigt und versucht heute dieses Thema bei ATI runter zu spielen... war ja klar. Ist aber nicht so, dass mich das nun wundern würde, denn ich finde es einfach nur schade...

Mr. Lolman
2008-01-03, 11:15:33
was willst du uns damit sagen lolli? das r600 doch eine bessere oder gleichgute bildqualität hat. und hq gegen standard somit also gerechtfertig wäre?

Nö. Will ich nicht. Ich will nur wissen, wie die obige Aussage mit dem Umstand, dass das Deaktivieren von AI am R600 quasi keine Auswirkungen auf die BQ hat, in Einklang zu bringen ist.

seahawk
2008-01-03, 11:30:53
Eine falsche Aussage evtl. ?

Wobei ich mir gar nicht sicher bin ob AI Advanced jetzt gravierende Verluste bringt. Der Cyrsis shot ist primär heller und kontrastärmer als der OFF Shot, viel Verlust scheint daher zu kommen.

Gast
2008-01-03, 11:35:33
Eine falsche Aussage evtl. ?

Wobei ich mir gar nicht sicher bin ob AI Advanced jetzt gravierende Verluste bringt. Der Cyrsis shot ist primär heller und kontrastärmer als der OFF Shot, viel Verlust scheint daher zu kommen.
In Doom 3 schon (und wohl in weiteren Spielen, die unkomprimierte Texturen draufklatschen).

puntarenas
2008-01-03, 11:38:22
Was genau versucht ihr eigentlich in diesem Thread aufzuzeigen? Ich habe mir jetzt mal Razors markierte Stellen angeschaut und bei "A.I. Advanced" sind die Stellen tatsächlich ein wenig weichgezeichnet.

Andererseits kann man doch immer wieder lesen, dass gerade was auf Standbildern besonders scharf aussieht in Bewegung zum Flimmern neigt, diesbezüglich hat man an der Stelle mit "A.I. Advanced" also vielleicht sogar mehr Freude, wie sieht das nun in Bewegung aus?

Ich bin übrigens durchaus an einer genauen Analyse des A.I. Verhaltens und einer Aufdeckung der (Vor-? und) Nachteile der einzelnen A.I.-Levels interessiert, aber hier werde ich nicht schlau, ich komme mir vor wie auf dem Hornberger Schießen.

Sonyfreak
2008-01-03, 11:40:52
Zwischen AI Advanced und AI Off kann ich wie Razor große Unterschiede ausmachen. Die von ihm erwähnten Punkte erläutere ich deshalb nicht nochmal. Einen Unterschied zwischen AI Standard und AI Disabled kann ich bei diesen beiden Bildern auch nicht wirklich erkennen, wobei das wie gesagt schwer ist, weil sich das Bild ja weiter bewegt. Ob das Spiel an manchen Stellen durch AI mehr flimmert oder nicht, ist durch ein Standbild natürlich auch nicht auszumachen. Danke auf jeden Fall mal für die Bilder. :up:
Wenn du Zeit und Lust hast, kannst du das selbe vielleicht auch mal bei UT2004 oder Half Life 2 machen. :)

mfg.

Sonyfreak

Gast
2008-01-03, 11:43:15
Call of Duty 4

1680x1050
4xAA
16xAF

alles Max.

und diesmal in PNG Unkomprimiert

Q6600@4Ghz
1xHd 3870

AI Normal
http://www.abload.de/thumb/iw3spainormal8ea.png (http://www.abload.de/image.php?img=iw3spainormal8ea.png)

AI Advance
http://www.abload.de/thumb/iw3spaiadvancesex.png (http://www.abload.de/image.php?img=iw3spaiadvancesex.png)

AI Disable
http://www.abload.de/thumb/iw3spaidisablej5l.png (http://www.abload.de/image.php?img=iw3spaidisablej5l.png)

AI Disable kostet 2-3 FPS sieht aber nicht anders aus wie die anderen Screens.

Mr. Lolman
2008-01-03, 11:43:54
AIAdvanced hebt tw. sogar die Trilinearität des Filters (ggü AIStandard), wohl aufgrund einer detaillierteren Texturanalyse, an. Deswegen kanns vorkommen, dass AIAdvanced langsamer ist als AIlow, aber deswegen - durch die Realtimekompression - trotzdem nicht zwangsläufig besser aussehen muss.

Gast
2008-01-03, 12:02:00
Stalker 1.008

1680x1050
4xAA
16xAF

alles Max.

und diesmal in PNG Unkomprimiert

Q6600@4Ghz
1xHd 3870

AI Normal
http://www.abload.de/thumb/xr_3daainormalf0g.png (http://www.abload.de/image.php?img=xr_3daainormalf0g.png)

AI Advance
http://www.abload.de/thumb/xr_3daaiadvanceuw4.png (http://www.abload.de/image.php?img=xr_3daaiadvanceuw4.png)

AI Disable
http://www.abload.de/thumb/xr_3daaidisableiqr.png (http://www.abload.de/image.php?img=xr_3daaidisableiqr.png)


auch hier keine Unterschied zu erkennen.

Ich glaub die AI Geschichte ist doch bloss dafür da um ATI schlecht zu machen oder?

Man kann 0.0 Unterschied erkennen und wenn Interessiert den Dumm 3 ?

Gast
2008-01-03, 12:05:26
Stalker 1.008

1680x1050
4xAA
16xAF

alles Max.

und diesmal in PNG Unkomprimiert

Q6600@4Ghz
1xHd 3870

AI Normal
http://www.abload.de/thumb/xr_3daainormalf0g.png (http://www.abload.de/image.php?img=xr_3daainormalf0g.png)

AI Advance
http://www.abload.de/thumb/xr_3daaiadvanceuw4.png (http://www.abload.de/image.php?img=xr_3daaiadvanceuw4.png)

AI Disable
http://www.abload.de/thumb/xr_3daaidisableiqr.png (http://www.abload.de/image.php?img=xr_3daaidisableiqr.png)


auch hier keine Unterschied zu erkennen.

Ich glaub die AI Geschichte ist doch bloss dafür da um ATI schlecht zu machen oder?

Man kann 0.0 Unterschied erkennen und wenn Interessiert den Dumm 3 ?
Beim nächsten Mal einfach in den Himmel starren.

Sonyfreak
2008-01-03, 12:05:44
Call of Duty 4Hier wirken meiner Meinung nach die Texturen der AI Advanced + Normal Screenshots sogar eine Spur schärfer als bei AI Disabled. Sonst kann ich ehrlich gesagt keinen Unterschied erkennen. :confused:

mfg.

Sonyfreak

EDIT: Die Stalker Screenshots sind an einer ziemlich ungünstigen Stelle entstanden.

Gast
2008-01-03, 12:06:45
Beim nächsten Mal einfach in den Himmel starren.

find ma ne Stelle in Stalker wo keine grossen Bewegungen sind und wo das Bild immer gleich ist du Knaller.

puntarenas
2008-01-03, 12:08:14
Ich glaub die AI Geschichte ist doch bloss dafür da um ATI schlecht zu machen oder?

Nein, definitiv nicht. Allerdings, wie Lolman bereits anmerkte, vermutlich vergleichen wir hier A.I. Standard mit sich selbst, weil sich die "Optimierungen" bei RV670 nicht deaktivieren lassen. Erstmal bräuchten wir also eine R580 zum Vergleich, ein paar gescxhulte Augen, berüchtigte Spielszenen und das ganze dann zusätzlich in Bewegung analysiert. Klingt irgendwie nach 3DCenter-Artikel :)

Bei A.I. Advanced habe ich in manchen Reviews auch schon in einem Nebensatz gelesen, dass die Bildqualität sogar subjektiv als etwas besser wahrgenommen wurde. Das kann am verminderten Flimmern durch Unschärfe liegen oder auch Einbildung und völlig falsch bewertet sein, auf jeden Fall tut sich am Texturfilter was.

Edit: Da fällt mir noch eine Stelle ein, an der man schöne Vergleiche anstellen könnte, denn dort ist mir beim R580 zuletzt das Texturflimmern während des Spielens unangenehm aufgefallen -> NWN2, vor dem Versteck des Hexenmeisters, das man mit dem Blut der Uschi öffnen muss nachdem man die drei Prüfungen bestanden hat, die sandigen Bodentexturen haben meiner X1900XT richtig zugesetzt.

Gast
2008-01-03, 12:10:19
find ma ne Stelle in Stalker wo keine grossen Bewegungen sind und wo das Bild immer gleich ist du Knaller.
In dem du eine Straße nimmst. Mein Gott, was daran so schwer? Dort sieht man (insbesondere in Bewegung), ob getrickst wird oder nicht.

Gast
2008-01-03, 12:15:47
ne Stasse wo immer irgendwelche Schatten von Vöglen, Menschen, Wolken uw. sich bewegen ?

is klar......

Gast
2008-01-03, 12:25:46
ne Stasse wo immer irgendwelche Schatten von Vöglen, Menschen, Wolken uw. sich bewegen ?

is klar......
Hatst du STALKER je gespielt? Geh in die Bar, Wildgebiet, Armeelager, Mülldeponie. Oder lass es einfach.

Schlammsau@work
2008-01-03, 12:34:47
also ich werde mich nachher ranmachen und andere Games und bessere Pics machen.
Das Savegame vom letzten Crysis Screenshot werd ich euch auch zur Verfügung stellen!

Schlammsau
2008-01-03, 16:16:36
Hier erstmal das Savegame, des Steglevels von Crysis.....
default_test.rar (http://www.siteupload.de/p619497-defaulttestrar.html) (Virenfrei!)
Ladet das Level, wartet ca. 5 Sekunden und dann macht ihr ein Screenshot. Am besten mit Fraps und als .png!
Und bitte mit diesen Einstellungen....
1280x1024, DX10, High Settings, 4xAA/16AF


zu dir Razor....
Du hast recht, die Bilder unterscheiden sich. Aber wenn man sie sich mal genauer anschaut, wird die Quali nicht unbedingt schlechter.....

Coda
2008-01-03, 16:16:56
Screenshots können das Problem sowieso nicht darstellen. Man kann schlechte Filter oft nur in Bewegung sehen.

Schlammsau
2008-01-03, 16:23:51
Screenshots können das Problem sowieso nicht darstellen. Man kann schlechte Filter oft nur in Bewegung sehen.
....ergo lässt sich dieses A.I. Problem nie dokumentieren?????

N0Thing
2008-01-03, 16:25:32
Mit einem Video in Spielauflösung ohne Verluste bei der Kompression, bzw. mit verlustfreier Kompression? ^^

Schlammsau
2008-01-03, 16:48:26
du kein Thema, ich kann schon ein Video mit Fraps erstellen. Dann kannste aber mit 500MB rechnen.....:|

Gast
2008-01-03, 16:53:09
richtig, und wo hochladen :(

Schlammsau
2008-01-03, 16:57:13
moment........

puntarenas
2008-01-03, 17:00:06
Eigentlich müsste AMD dafür Webspace bereitstellen ;)

Vielleicht hat ja jemand eine Server mit dicker Bandbreite und grenzenlosem Volumen oder einen kostenpflichtigen Account bei einem dieser Filehoster, dann sollte mit ein paar Tipps von Raff und Co zu einigen besonders markanten Stellen in Spielen hier doch noch ein wenig Aufklärung Einzug halten. Ideal wäre natürlich dann noch jemand, der im Idealfall eine R580-Karte und eine mit RV670 hat.

Schlammsaus Idee des Threads ist gut, aber wahllos Screenshots zu posten halt wohl leider wenig hilfreich zur Klärung der Problematik.

Edit: Noch ein Tipp, in Titan Quest auf der chinesischen Mauer glänzte diese auch durch herzerfischendes Flimmern mit "A.I. Standard" auf einer X1900XT :)

Schlammsau
2008-01-03, 17:11:07
hmmm....habe ein Video mit Fraps erstellt, 10 sekunden lang und als unkomprimiertes Video hat es 110MB! Hab jetzt mal spasseshalber AutoGK mit einer Quali von 100% drüberlaufen lassen und das Ergebniss war ein 30MB grosses File! Was meint ihr? Codec ist Xvid (neueste Version) bei 100% Qualität und keinerlei sonstiger Einschränkungen.

Würd jetzt mal das XviD File über Rapidshare hosten.....dauert nur noch ein paar Minuten!
Laded es euch und schreibt eure Meinung!

Schlammsau
2008-01-03, 17:19:01
auf gehts :)

Crysis DX10, 1280x1024, HighSpec, 4xAA/16xAF

A.I. Standard
http://rapidshare.com/files/80969202/Crysis_AI_standard_agk.av.html
(Aspect Ratio hat nicht gestimmt!)

A.I. Off

öffnet das File am besten mit dem Media Player....bei filtert der VLC Player das Bild ein wenig! Sieht damit dann ziemlich vewaschen aus! Der Media Player gibt das Video genau so aus, wie es sein soll!

puntarenas
2008-01-03, 17:58:41
Ein Fleißkärtchen kannst du dir verdienen, wenn du die beiden A.I. Varianten zu einem Spitscreen-Video zusammenbastelst. Jeweils ein Bildabschnitt mit relevanten Texturen sollte ja reichen, dann bliebe die Größe gleich ;)

Schlammsau
2008-01-03, 18:10:09
Ein Fleißkärtchen kannst du dir verdienen, wenn du die beiden A.I. Varianten zu einem Spitscreen-Video zusammenbastelst. Jeweils ein Bildabschnitt mit relevanten Texturen sollte ja reichen, dann bliebe die Größe gleich ;)

Sorry aber da fehlt mir das Know How....aber vielleicht magst ja du, oder jemand anderes?

auf ein neues.....
Crysis Full, DX10, 1280x1024, HighSpec, 4AA/16AF
A.I. Off
http://rapidshare.com/files/80980004/Crysis_AI_off_agk.avi.html

A.I. Standard
http://rapidshare.com/files/80980007/Crysis_AI_standard_agk.avi.html

A.I. Advanced
http://rapidshare.com/files/80990309/Crysis_AI_advance_agk.avi.html

puntarenas
2008-01-03, 19:00:48
Sorry aber da fehlt mir das Know How....aber vielleicht magst ja du, oder jemand anderes?
Sorry, meine momentane Grafikkarte (Matrox Mystique 4MB) ist nichtmal in der Lage, deine Videos flüssig abzuspielen und die HD3870 ist immer nocht nicht besonders gut verfügbar, ich bin zur Zeit also rein als Maulheld unterwegs :D

Schlammsau
2008-01-03, 19:08:19
also das Video ruckelt schon ein bisschen ~12fps, weil meine Karte nicht in der Lage ist, das Spiel in der hohen Auflösung, und mit 4xAA/16AF flüssig darzustellen!
Liegt also nicht unbedingt an deiner Karte.....

puntarenas
2008-01-03, 19:17:12
Liegt also nicht unbedingt an deiner Karte.....
Also die Karte pfeift bei dem Video auf dem letzten Loch und ist dank ihrer 4MB Speicher leider auch nicht in der Lage, 1280x1024 bei voller Farbtiefe darzustellen. Das Ganze muss also erstmal auf 1152x768 skaliert an den Analogeingang meines TFT geschickt werden, wo es dann vom Monitor wiederum auf 1600x1200 hochgezogen wird.

Wahrlich, ich bin nicht in der Lage Aussagen über A.I. anhand der Videos zu treffen ;D

N0Thing
2008-01-03, 20:01:03
Ich lade die Videos schonmal runter, Kommetare gibt es aber erst später. Abendessen steht an und danach noch ein Filmchen gucken.

Ich kann vielleicht die Tage noch Videos von Spiele mit der Source-Engine, Guild Wars, X2, Morrowind und Operation Flashpoint liefern.
U.u auch Doom3, das müßte ich aber erst noch installieren. Graka ist eine X1950gt...

Sentionline
2008-01-04, 05:51:02
Erstmal bräuchten wir also eine R580 zum Vergleich, ein paar gescxhulte Augen, berüchtigte Spielszenen und das ganze dann zusätzlich in Bewegung analysiert.
Jup, sehe ich auch so, am besten in 1920x1200. Einmal mit AA/AF und einmal komplett ohne. Villeicht kann sich ja mal einer die Wireframes vornehmen und schauen inwieweit sich der Polygonaufbau verändert. Es kann aber auch sein das sich im Alphakanal etwas tut, aber wie weit A.I. dort eingreift, kann ich schwer einschätzen. Quantisierungsdifferenzen könnte man mit HDMI umgehen.

mfg

seahawk
2008-01-04, 07:44:36
Sollte man die Sache nicht einfach vergessen, wenn der Aufwand so hoch ist um einen Unterschied nachzuweisen.

Schlammsau@work
2008-01-04, 09:16:19
Sollte man die Sache nicht einfach vergessen, wenn der Aufwand so hoch ist um einen Unterschied nachzuweisen.

....also hab gestern noch 4 Videos der gleichen Szene von FEAR gemacht.
werd euch die Files heut Nachmittag zur Verfügung stellen.
Ich sag nur eins, es ist nichts erkennbar! Kein Unterschied in der Bildquali! Nur in der Framerate sieht man einen Unterschied. Mit A.I. läuft FEAR bei mir im Schnitt 10-20fps schneller!

Schlammsau@work
2008-01-04, 09:19:47
....es ist deswegen so schwer nachzuweisen, weil so wie es scheint nichts ist! Screenshots, Videos.....was soll man sonst noch machen?
AI verändert etwas an den Filtern!? Aber was?
Es muss doch möglich sein, dass irgendwie festhalten zu können.

Schlammsau
2008-01-04, 18:16:49
3DMark06 1.1.0, 1280x1024, 4xAA/16xAF, integrierter Bildvergleich

A.I. off
http://www.abload.de/thumb/gt1_1180aioff3an.png (http://www.abload.de/image.php?img=gt1_1180aioff3an.png)

A.I. standard
http://www.abload.de/thumb/gt1_1180aistandardbsp.png (http://www.abload.de/image.php?img=gt1_1180aistandardbsp.png)

A.I. advanced
http://www.abload.de/thumb/gt1_1180aiadvancedhcb.png (http://www.abload.de/image.php?img=gt1_1180aiadvancedhcb.png)

leichte Unterschiede sind zu erkennen, aber mit A.I. sind die Texturen schärfer!

Sentionline
2008-01-04, 19:40:52
Also mein Posting sollte eher ironischer Natur sein. Ob jetzt mit AI oder ohne. Ich sehe da kein untersched, beim besten willen nicht. Wenn aber "Experten" unbedingt da was sehen wollen, muss man schwere Geschüze ausfahren. Was AI genau macht, gibt AMD/ATi ja nicht preis. Wenigstens haben die Radeons so eine funktion, Nvidia hat wohl auch sowas eingebaut, aber da kann man nichts verstellen, so seh ich das.

Und das die Bilqualität mit AI nicht 1 Gramm abnimmt, sieht man überall. Man kann sich natürlich mit Gewalt einreden Unterschiede zu sehen. Diese sollte man aber mit Fakten untermauern können. Und eben dies können die Skeptiker nicht.

Ergo ist AI etwas, das ein Firmengeheimnis bleiben wird.

Oder man versuchts mit den schweren geschützen die ich oben beschrieben habe. Spielen oder rumspielen, das ist die Frage.

mfg

###edit###
Unterschied das ich gesichtet habe nach intensiven vergleichen, sind die Bodentexturen:

AI Off
http://www.abload.de/img/aioffgku.png

AI Standard
http://www.abload.de/img/aistandard35w.png

Ob sowas in einem Spiel was ausmacht...wer meint.:rolleyes:

puntarenas
2008-01-04, 19:43:27
Ich glaube ja ebenfalls nicht, dass Screenshots uns wirklich weiterbringen, hier und da sieht etwas vielleicht schärfer aus, aber ob und wie diese Schärfe dann in Flimmern endet kann man nur orakeln. Komprimierte Videos halte ich ebenfalls für sinnlos.

Ich habe mir gestern mal ein Bashscript gebastelt, das aus mehreren Quellvideos ein Splitscreenvideo erzeugt. Dabei werden die Frames nach PNG decodiert, zugeschnitten und wieder aneinandergefügt. Anschließend erzeugt mencoder eine Filmdatei im RAW-Format, das Ganze sollte also durchgehend verlustfrei bleiben, falls auch die mit Fraps aufgezeichnete Videodatei unkomprimiert ist, korrigiert mich wenn ich mich irre.
./m2split -h

Note: m2split creates its AVI files in the current directory,
using /tmp for temporary files.

Usage: m2split [-h] [-b] [-c] [-o "OFFSET"] [-z <n>] source.avi source.avi target.avi

-h show this help
-c force cleanup of temporary files

-s save disk space by deleting temporary files as soon
as possible

-o crop settings for the size of the strip(s) and
the offset as taken by convert in the format
widthxheight{+-}x{+-}y (required)
Example: "-o 640x1024+0+0" will give you the left
half of 1280x1024 source videos.

-z PNG compression level from 0 to 9
(defaults to 0, 0 = no compression)

source.avi Name of the source files (2 required)
target.avi Name of the resulting AVI (required)



Sieht dann etwa so aus, als Quellen für Testzwecke habe ich deine Videos genommen:

http://img201.imageshack.us/img201/3733/crysissplit1nb6.th.png (http://img201.imageshack.us/my.php?image=crysissplit1nb6.png)

http://img296.imageshack.us/img296/7681/crysissplit2ic6.th.png (http://img296.imageshack.us/my.php?image=crysissplit2ic6.png)

Ich weiß nicht, ob ihr den Weg über Splitscreenvideos für geeignet haltet, wenn ja dann blieben immer noch genug Probleme:

- das Problem mit dem Filehosting
- zum Vergleich mindestens eine R580 mit A.I. off und eine 8800er als Referenz
- geeignete Szenenauswahl

Schlammsau
2008-01-04, 20:17:06
......

###edit###
Unterschied das ich gesichtet habe nach intensiven vergleichen, sind die Bodentexturen:

AI Off
http://www.abload.de/img/aioffgku.png

AI Standard
http://www.abload.de/img/aistandard35w.png

Ob sowas in einem Spiel was ausmacht...wer meint.:rolleyes:

kannst du die Pics grösser machen?


@puntarenas
also bei rapidshare (http://www.rapidshare.com/) kann man ohne Anmeldung, 100MB pro File hosten! Dann wäre es vielleicht möglich die Datei zu splitten!?

_DrillSarge]I[
2008-01-04, 20:38:35
screen shots sind halt bei sowas problematisch. und videos auch, da man diese in möglichst hoher auflösung aufnehmen sollte (bei mir 1680x1050) und es dann anfängt unerträglich zu ruckeln (zumindest bei mir, da kein quad). zudem ist auch schon wieder videokompression problematisch (verwischen etc.)

zB hier sof3, ruckelt mit video wie sau

ai off
http://www.filefactory.com/file/ca1dc5/

ai low
http://www.filefactory.com/file/7ae84d/

ai high
http://www.filefactory.com/file/2789e6/

1680x1050, wmv9, 8000kbs
@x1950xt (4xaa (geht irgendwie nicht) 16x hq-af)
-> mal wieder ein game ohne unterschied (die äste auf dem boden platziert sof zufällig)

Sentionline
2008-01-04, 20:51:43
kannst du die Pics grösser machen?
Ich bin jetzt kein Animationsexperte. Aber ich habs versucht:

http://www.abload.de/img/testvcg.gif

Ein Splitscreenvideo kann ich auch machen. Nur frag ich mich: "Für wen? Um was zu beweisen?"

Von schlechter Bildqualität kann man hier nicht sprechen. AI scheint ein sehr intelligenter Optimierungsalgoritmus zu sein, und dabei sollte man es belassen. Die Bildqualität ändert sich kaum und man bekommt mehr fps, ist doch super. Nicht wie bei Nvidia. Wenn man da versucht die Einstellungen zu optimieren, muss man nicht mit der Lupe suchen um Deffizite zu beweisen.

mfg

Schlammsau
2008-01-04, 21:46:22
Von schlechter Bildqualität kann man hier nicht sprechen. AI scheint ein sehr intelligenter Optimierungsalgoritmus zu sein, und dabei sollte man es belassen. Die Bildqualität ändert sich kaum und man bekommt mehr fps, ist doch super. Nicht wie bei Nvidia. Wenn man da versucht die Einstellungen zu optimieren, muss man nicht mit der Lupe suchen um Deffizite zu beweisen.

mfg

seh ich genauso, und deswegen liest man auch so wenig darüber. Aber dennoch gibt es viele hier im Forum die meinen, dass Bild wird durch AI unerträglich.....
Kann ich absolut nicht nachvollziehen....weder mit meiner alten X1950 Pro noch mit meiner neuen 3850! Das Bild sieht fast immer identisch aus und ein Unterschied ist wenn überhaupt, nur auf einem Screenshot sichtbar. Und dann ist auch noch so, dass es mit AI oft noch besser aussieht (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6163694#post6163694) und das bei einer besseren Performance.
Ich hoffe die ganzen ATI AI Hasser verfolgen diesen Thread!

Sentionline
2008-01-04, 21:57:44
So, jetzt ma Butter bei de Fische:smile:

Call of Duty 4
1680x1050
4xAA/16xAF
alles Max.
und diesmal in PNG Unkomprimiert
Q6600@4Ghz, 1xHd 3870
AI Disable kostet 2-3 FPS sieht aber nicht anders aus wie die anderen Screens.


Ein Dank geht an Gast für die Screens.

http://www.abload.de/img/teste69.gif

Gast
2008-01-04, 21:59:07
irgendwie sieht AI Standard besser aus

Pirx
2008-01-04, 22:10:49
Das ist doch nicht vergleichbar weil unterschiedlich groß, könnte auch mit nem Grafikprogramm gezoomt sein.

Schlammsau
2008-01-04, 22:12:15
So, jetzt ma Butter bei de Fische:smile:




Ein Dank geht an Gast für die Screens.

http://www.abload.de/img/teste69.gif

Mit A.I. ists viel schärfer! :))

Sentionline
2008-01-04, 22:14:36
Das ist doch nicht vergleichbar weil unterschiedlich groß, könnte auch mit nem Grafikprogramm gezoomt sein.
Dann mach selber. Wie soll ich denn sonst die Ausschnitte vergrößern? Ich hab den Lanczos (http://de.wikipedia.org/wiki/Lanczos-Verfahren) Resizer genommen, der wird wohl reichen.

JPG eignet sich übrigens überhaupt nicht. Da sieht man die Artefakte.

Pirx
2008-01-04, 22:25:50
Dann mach selber. Wie soll ich denn sonst die Ausschnitte vergrößern? Ich hab den Lanczos (http://de.wikipedia.org/wiki/Lanczos-Verfahren) Resizer genommen, der wird wohl reichen.

JPG eignet sich übrigens überkaupt nicht. Da sieht man die Artefakte.
Naja, sobald der gleiche Inhalt auf Screenshots unterschiedlich groß ist, kann man es imho nicht vergleichen. Hab im Mom nicht die Progs installiert (recht neuer PC;))
Aber meine Erfahrungen mit R420 R580 und RV670 besagen auch, daß AI nicht viel Bildquali kostet, wenn überhaupt.

Mr. Lolman
2008-01-04, 22:26:39
Mit A.I. ists viel schärfer! :))

Weil durch die Brilinearität unterfiltert wird.

Sentionline
2008-01-04, 22:27:43
Naja, sobald der gleiche Inhalt auf Screenshots unterschiedlich groß ist...
Der inhalt ist exakt gleich groß. Oder siehst du eine größere Wand im Inhalt? Ich hab die Bilder auf 300% aufgezogen und dann ausgeschnitten. Unterschiedlich groß kann der Inhalt nicht sein. Das Ausschneiden ist mir nicht "perfekt" gelungen, das stimmt.

Es geht mir jetzt nicht darum zu zeigen das AI Gut/Böse ist, sondern das alle Seifenblasen von sich lassen, ohne Fakten zukommen zu lassen. Und von solchen Experten haben wir einige hier.

Crysis DX10, HighSpec, 1280x1024, 4xAA/16xAF
http://www.abload.de/img/testb3e.gif

Hier wirken die Kanten der Kisten bei AI Off etwas schärfer. Wird wohl...
Weil durch die Brilinearität unterfiltert wird.
...daran liegen. Keine Ahnung.

Aber dennoch gibt es viele hier im Forum die meinen, dass Bild wird durch AI unerträglich.....
Ich hab eine Nvidia Karte. Was unerträglich ist will ich in einem ATi Thread aber nicht zeigen.

mfg

Schlammsau
2008-01-04, 22:42:27
Ich hab eine Nvidia Karte. Was unerträglich ist will ich in einem ATi Thread aber nicht zeigen.

mfg

hab ich dir auch nicht zugetraut! Dann Danke ich dir gleich noch mehr für deine Mühe.... :)

Schlammsau
2008-01-04, 22:47:57
@sentio

du machst das so schön, könntest du evtl. noch so ne schöne Gif mit diesem Ausschnitt machen? Am besten mit allen 3 Einstellungen. Man sieht deutlich, dass mit AI die Textur sehr viel schärfer ist!

http://www.abload.de/thumb/gt1_1180aioff3anjb8.png (http://www.abload.de/image.php?img=gt1_1180aioff3anjb8.png)

und nim am besten die 3 Originale (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6163694#post6163694)!

Pirx
2008-01-04, 22:51:59
Der inhalt ist exakt gleich groß. Oder siehst du eine größere Wand im Inhalt? ...
Jo, der gleiche Inhalt in einem unterschiedlich großen Bild, also im Endeffekt unterschiedlicher Zoom.:confused:

Sentionline
2008-01-04, 23:10:37
Jo, der gleiche Inhalt in einem unterschiedlich großen Bild, also im Endeffekt unterschiedlicher Zoom.:confused:
Unterschiedlicher Zoom wäre, wenn der Inhalt in der größe nicht gleich wäre. Der Ausschnitt ist mir nicht gelungen. Sieht man aber auch am Fadenkreuz, das seine Größe nicht ändert.

http://www.abload.de/img/testr6c.gif

Also mit 3 Bildern steigt der Aufwand:smile:

4 Vitamins
2008-01-04, 23:12:45
mach euch nicht doch unnötig stress, jeder der ne ati hat weist doch das es keine sichtbaren unterschiede bei A.I (algorhytmen?)gibt.
ATI hat auch nix preisgegebne, also was soll die phantom disskusion?
Wer unbedingt sehen will wie verschlechterungen aussehen..ups..sorry optimierungen, dann solle er sich ne nividia kerte holen.

gruss.

4 Vitamins
2008-01-04, 23:13:38
Unterschiedlicher Zoom wäre, wenn der Inhalt in der größe nicht gleich wäre. Der Ausschnitt ist mir nicht gelungen. Sieht man aber auch am Fadenkreuz, das seine Größe nicht ändert.

http://www.abload.de/img/testr6c.gif

Also mit 3 Bildern stegt der Aufwand:smile:

ganz klar zu sehen das A.I On das bild verbessert:biggrin:
habe nix anderes erwartet.

gruss

Schlammsau
2008-01-04, 23:17:02
http://www.abload.de/img/testr6c.gif

Also mit 3 Bildern steigt der Aufwand:smile:

Hammer.....:massa:

Gast
2008-01-05, 08:45:16
oben bei Crysis sind zwar die Kanten bissel besser mit off, aber die kisten werden schelchter mit off.

Gast
2008-01-05, 11:23:32
Also wird die Bildqualität mit AI nicht immer schlechter und wenn dann derart unmerkbar, dass man sich gleich diese Diskussion sparen kann.

Gast
2008-01-05, 11:40:12
Also wird die Bildqualität mit AI nicht immer schlechter und wenn dann derart unmerkbar, dass man sich gleich diese Diskussion sparen kann.


Doch, mit A.I wird die Bildqualität IMMER schlechter und in vielen Fällen sieht man es auch direkt.

Schlammsau
2008-01-05, 11:45:03
Doch, mit A.I wird die Bildqualität IMMER schlechter und in vielen Fällen sieht man es auch direkt.

hast du dir diesen thread überhaupt durchgelesen...vor allem die letzten 2 Seiten!? :|

Sentionline
2008-01-05, 11:57:26
Guten Morgen,

Doch, mit A.I wird die Bildqualität IMMER schlechter und in vielen Fällen sieht man es auch direkt.
Fakten mein lieber, Fakten. Her damit. Am besten Visuell.

Heiße Luft kann ich auch produzieren.:rolleyes:

mfg

Raff
2008-01-05, 12:09:56
Weil durch die Brilinearität unterfiltert wird.

Ja!

Argh, bitte fangt nicht an wie anno 2004, als Nvidias NV40 "Quality" als "scharf" betitelt und damit für gut befunden wurde. "Scharf" kommt in Bewegung fast immer Flimmern gleich, weil unzureichend gefiltert wird und Infos flöten gehen. Morgen baue ich eine 3870 ein und zeige euch mal, wie fies das aussehen kann. :naughty:

MfG,
Raff

_DrillSarge]I[
2008-01-05, 12:14:36
das mag auf ai-high zutreffen, aber auf low ist das weit weniger der fall, schon gar nicht auf einem r580. trotzdem ist bei mir das hauptproblem, dass man mit crossfire auf ai angewiesen ist.

Raff
2008-01-05, 12:17:02
Ich packe schon mal Relikte aus, die einst in einen A.I.-Artikel fürs 3DC sollten:

CSS.rar (http://www.keepmyfile.com/download/00e9162087878)

... und sage mal nichts dazu. ;) Das stammt übrigens von einem R520, bei dem A.I. Off noch relevante Auswirkungen hat!

MfG,
Raff

Sentionline
2008-01-05, 12:22:53
Die Moirè Muster entstehen auf Nvidia Karten aber auch auf HQ mit 16xAF und 8xSSAA.

Also bitte...

Außerdem kann man die alten Bilder nicht zum vergleich nehmen, da die Treiber wohl als Asbach zu bezeichnen sind. Wir müssten schon bei den aktuellen Engines, Treibern und Karten bleiben.

Screentime: Samstag, 19. August 2006

mfg

_DrillSarge]I[
2008-01-05, 12:23:00
das ist schon ein herbes beispiel, netter moire effekt. da ich jedoch kein css spiele, ist das mit eines der seltenen beispiele für DRAMATISCHE reduzierung der bq.
ich hab mir jetzt ziemlich viele games angeschaut und es gibt igentlich kaum einen grund auf ai zu verzichten (größtenteils, zB ut3, obwohl es da schonwieder egal ist;)).
muss mal paar screens machen.

Raff
2008-01-05, 12:24:40
Die Moirè Muster entstehen auf Nvidia Karten aber auch auf HQ mit 16xAF und 8xSSAA.

Also bitte...

... lass das Schönreden. ;) Fakt ist, dass A.I. Augenkrebs induziert, während das saubere Off-Filtering akzeptabel aussieht. Dass A.I. immer minderwertig aussieht, ist aber klar falsch.

MfG,
Raff

Schlammsau
2008-01-05, 12:31:09
Ich packe schon mal Relikte aus, die einst in einen A.I.-Artikel fürs 3DC sollten:

CSS.rar (http://www.keepmyfile.com/download/00e9162087878)

... und sage mal nichts dazu. ;) Das stammt übrigens von einem R520, bei dem A.I. Off noch relevante Auswirkungen hat!

MfG,
Raff

die Bilder sind doch schon ein paar Jahre alt!? Meine mich erinnern zu können, diese Pics schon mal gesehen zu haben! Welcher Treiber war das? Catalyst 5.1?

Raff
2008-01-05, 12:33:41
Mein Datum sagt September 2006, gemacht mit dem damals aktuellen Treiber. Und glaub mir: Besser wurde die BQ sicher nicht. ;)

MfG,
Raff

Schlammsau
2008-01-05, 12:37:45
mach bitte ein Test, wie es jetzt aussieht!
Bei jedem der Anti A.I. Artikel, kommen nur CSS oder HL2, also die Source Engine zum Einsatz!

4 Vitamins
2008-01-05, 13:20:50
Und glaub mir: Besser wurde die BQ sicher nicht. ;)

MfG,
Raff

Ich glaube dir aber nicht:biggrin:
Ein beispiel von 2006??
Und damit soll bewisen sein das A.I On die quali verschlechtet??:biggrin:
Man findet immer ein spiel das dem treiber nicht schmeckt.
Wenn A.I on die quali reduziert dann muss es IN ALLEN games der fall sein!
So wie bei NIvidia, der unterschied zu HQ ist immer zu sehen, es wird schlechter gefiltert und sonst geschummelt:wink:
Die A.I bei ATI hat nix mit den verschiedenen "optimierungsstuffen" welche Nividia treiber bittet zu tun.
Das haben sich paar leute zusammen gedichtet.
Es ist nur die möglichkeit spieleoptimierungen einzubrinngen, renderpfade an die jeweilige chiparchitektur anzupassen, also bessere leistung bei gleichbleibende qualität.

Mit 1-2 alten games ist nix bewisen.
Es gibt hunderte neue games zu testen und ihr findet nix:biggrin:
ausser :" da seht "eine"textur oder ein schatten mal anders aus"
Lachhaft.;D

Gast
2008-01-05, 13:31:12
Jap bei diesem einen Beispiel wo sich eine Textur derart extrem wiederholt dann sieht man den Moire-Effekt wobei der auch bei AI-off nicht komplett entfernt wurde.

puntarenas
2008-01-05, 13:40:21
Leute, soll das hier Realsatire werden? Jeder weiß, dass auch der bereits anständige Filter auf einem R580 an fiesen Stellen zu Flimmern neigt. Einige Beispiele an die ich mich selbst erinnern kann, weil ich eben nicht danach suchen musste, sondern sich mir der Eindruck unangenehm aufgezwängt hat, habe ich bereits genannt, jeder Spieler kennt in seinem Repertoire sicherlich ebensolche Szenen.

Ferner herrscht weitgehend Einigkeit, dass sich R580 und RV670 in Sachen Texturfilterung nicht viel geben, lediglich A.I. Off scheint beim RV670 keine Wirkung mehr zu zeigen, man kann also nicht für besonders fiese Spiele die Performance zugunsten ruhiger Bilder opfern, was sehr schade ist.

Außerdem bestreitet kein Mensch, dass mit allen A.I.-Stufen exzellente Standbilder gemacht werden können. Die Aufgabe der Karten liegt aber darin, bewegte Bilder auf den Schirm zu zaubern und hier trennt sich die Filterspreu vom Weizen. Screenshots hier als besonders scharf zu bewundern ist wenig hilfreich, eigentlich sogar lächerlich. Referenz ist, was ein G80 auf H.Q. in Bewegung zustande bringt, wenn in der gleichen Szene mit A.I. (bei den RV670 zwangsläufig) das Bild unruhig wirkt und flimmert, dann haben ATI-User ein Problem.

Wie schon gesagt, ich empfand A.I. Default auf meiner x1900xt als durchaus annehmbar und meist überzeugend, aber es gab eben immer mal wieder fiese Stellen, wo mir dieses Filterflimmern aufgefallen ist ohne danach zu suchen und das sind die Momente, in denen es stört.

Dass hier im Thread nun Raff wegen vermeintlich zu alter Screenshots niedergeflamt werden soll, ist geradezu absurd. Seine Screenshots sind tatsächlich relativ zeitlos, weil sich definitiv nichts im Treiber zum besseren gewandelt hat. Das ganze hier scheint mir zu einer Schulterklopfveranstaltung mit Fanboybrillenpflicht zu werden, ich warte ja noch, dass NVidia ernsthaft die schlechtere Bildqualität unterstellt wird. Leider ist mit Screenshots bei dem Thema nicht viel zu holen und ich hoffe, dass wir doch noch eines Tages einen feinen 3DCenter-Artikel zum Thema erhalten werden, gerade in Sachen Aufklärung hatte das 3Dc ja mal einen sehr guten Namen.

Raff
2008-01-05, 13:41:36
Wenn A.I on die quali reduziert dann muss es IN ALLEN games der fall sein!

Nein, denn es gibt gnädigen und fiesen (hochfrequenten) Content. Sieht man die zweifellos vorhandenen Sparmaßnahmen nicht, dann ist das sehr schön.

So wie bei NIvidia, der unterschied zu HQ ist immer zu sehen, es wird schlechter gefiltert und sonst geschummelt:wink:

Der Unterschied zwischen GF8-Treiberdefault vs. HQ ist ähnlich A.I. on @ vs. A.I. Off @ R5x0. Natürlich sieht man das auch bei Nvidia nicht immer. Dort ist Q aber fast sinnlos, da HQ kaum für Einbrüche sorgt und die BQ dann konstant hochwertig ist.

Mit 1-2 alten games ist nix bewisen.
Es gibt hunderte neue games zu testen und ihr findet nix:biggrin:
ausser :" da seht "eine"textur oder ein schatten mal anders aus"
Lachhaft.;D

Ich finde dir in jedem aktuellen Spiel mehr oder minder große Differenzen. Der ganze Vergleich hier ist eher sinnlos, da man auf einem R(V)6x0 zwischen den A.I.-Stufen in Sachen Filteroptimierungen nicht viel sieht. Und das liegt nicht daran, dass das Teil so unglaublich hochwertig filtert, sondern dass einfach jede A.I.-Stufe am AF hantiert. Das war beim R5x0 noch nicht der Fall, Off war mal hübsch. Vermutlich werden bei Off jetzt nur die Shader-Replacements schlafen gelegt ... aber nicht mal das ist bewiesen.

MfG,
Raff

IceKillFX57
2008-01-05, 14:05:46
Hab den Thread hier nicht verfolgt aber wie siehts eig. mit den Benchmarks aus?
Sind mit eingeschaltetem AI die Punkte hocher oder gleich oder gar schlechter?

Hatte lange keine ATI Karte mehr aber damals Stand ja im Treiber das das Laden des Spiel länger dauern soll weil die Software (Treiber) sich Optimal einstellt um besseren Spielgenus zu liefern.
Somit soll die Karte Intelligent sein und im vorfällt wissen was sie wann zutun hat....

Stand zumindest damals so im Treiber die erklärung...ist aber schon vedammt lange her.. kp.

Mich interessieren eher die 3DMARK Punkte

Sentionline
2008-01-05, 14:06:20
Moirè Musterphasen gibt es in jedem Spiel. Wie ich schon schrieb bahandelt jede Karte mit jedem anderen Treiber diese "Stellen" anders, sodass wir uns eigendlich Tod suchen und vergleichen können. Ich kann mich noch an die Serious Sam Prügeleien erinnern:rolleyes:

Meistens sind die Alphatexturen betroffen. Diese sind eigendlich ein recht guter Indikator, was Qualität an sich geht. Aktuelle Spieleengines (CryEngine2, UnrealEngine3) tapezieren so viele verschiedene Texturarten auf dem schirm, das man kaum Möglichkeiten hat Differenzierungspunkte zu finden. Und ich denke die (mit?)Schuld an der "nicht-beeinflussbarkeit-der-Grafik-durch-Treibereinstellung" geht villeicht auch auf die US Architektur zurück...keine Ahnung.

Dieser Thread wird aber lustig werden, wenn man durch Videos etwas Nachweisen möchte(-n will).

Und was hat jetzt die R5xx hier zu suchen? Die sind doch eh bald Geschichte. Oder zockt hier noch einer mit einer R3xx? Wenn, dann sollte man die Konzentration auf die R6xx legen. Denn wenn 3 Kartengenerationen mit sagen wir 6 Karten, 4 Treiberrevisionen mit AI-On/Off mit Videos/Animationen verglichen wird, dann wird dieser Thread noch recht lustig werden.

Seine Screenshots sind tatsächlich relativ zeitlos, weil sich definitiv nichts im Treiber zum besseren gewandelt hat.
Jup, es wurden nur die Mogeleien in der Zwischenzeit "optimiert";D

ich warte ja noch, dass NVidia ernsthaft die schlechtere Bildqualität unterstellt wird.
:|

Referenz ist, was ein G80 auf H.Q. in Bewegung zustande bringt, wenn in der gleichen Szene mit A.I. (bei den RV670 zwangsläufig) das Bild unruhig wirkt und flimmert, dann haben ATI-User ein Problem.
Tja dann können die Savegames ja schonmal verteilt werden, oder wie sehe ich das? Mal abgesehen ist das nicht Nvidia vs. ATi sondern AI On vs AI Off Thread.

mfg

IceKillFX57
2008-01-05, 14:08:13
Ich würde mich lieber auch auf die neuen Karten beziehen...
Dort Funktioniert meist die neue Techik bzw, Futures besser^^... da sind meist die Kinderkrankheiten schon behoben^^

puntarenas
2008-01-05, 14:18:23
Mal abgesehen ist das nicht Nvidia vs. ATi sondern AI On vs AI Off Thread.

Ehrlich gesagt habe ich nach den letzten Seiten keine Ahnung, um was es in diesem Thread geht. Im Titel steht "A.I. on = schlechte Bildquali?" und da fragt man sich natürlich unwillkürlich, schlecht gemessen woran?

A.I. Default gegen A.I. Off und dann auch noch am liebsten innerhalb einer einzigen Architektur (RV670) kann ja aber irgendwie auch nicht das Thema sein, vor allem weil ja nichtmal geklärt ist, ob A.I. Off auf diesen Karten überhaupt etwas elementar anders macht.

Sentionline
2008-01-05, 14:43:56
Es geht generell darum zu schauen was die undokumentierte Funktion AI bewirkt. Nicht darum ob es wirklich etwas schlechter macht. Meiner Meinung nach ist AI ein Intelligenter Algoritmus das in jedem Treiber enthalten ist. Nur das man diesen eben bei ATi beeinflussen kann. Aber das man "Kopfschmerzen" durch AI kriegt, find ich lächerlich solche Aussagen.

Wenigstens hat ATi einen AI Schalter, wo ist das bei Nvidia? Auch wegoptimiert;D

mfg

Blaire
2008-01-05, 14:48:35
Ich packe schon mal Relikte aus, die einst in einen A.I.-Artikel fürs 3DC sollten:

CSS.rar (http://www.keepmyfile.com/download/00e9162087878)


Hast du ev. dieses Savegame noch da und kannst es hochladen?

Schlammsau
2008-01-05, 14:58:03
Hast du ev. dieses Savegame noch da und kannst es hochladen?
...in CSS kann man keine Savegames machen!


hier nochmal 2 sehr kleine Videos aus Far Cry mit einer 3850 und dem 7.12 Catalyst!
1280x1024 4xAA/16xAF, Video ist mit FRAPS aufgenommen auf XviD komprimiert, Quality 100% bei voller Auflösung!

AI off
http://rapidshare.com/files/81444342/FarCry_2008_off_agk.avi.html
AI off: ~88fps

AI standard
http://rapidshare.com/files/81444344/FarCry_2008_standard_agk.avi.html
AI standard: ~94fps

....das zum Thema -moire Effekt.

LovesuckZ
2008-01-05, 15:02:58
Gibt es unterschiede in der Framesanzahl?

Gast
2008-01-05, 15:16:23
Dass A.I. immer minderwertig aussieht, ist aber klar falsch.

MfG,
Raff


Besser wird die Bildqualität mit A.I aber niemals, sie kann also höchstens gleich bleiben oder schlechter werden.

Schlammsau
2008-01-05, 15:19:59
Gibt es unterschiede in der Framesanzahl?

jep......hab aber nicht die absolute gleiche Position hinbekommen...... macht aber keinen einzigen Frame aus!
AI off: ~88fps
AI standard: ~94fps

AI lässt sich auch auf einem RV670 Chip deaktivieren!

AI off
http://www.abload.de/thumb/farcry2008offulv.png (http://www.abload.de/image.php?img=farcry2008offulv.png)

AI standard
http://www.abload.de/thumb/farcry2008standardbz6.png (http://www.abload.de/image.php?img=farcry2008standardbz6.png)

LovesuckZ
2008-01-05, 15:24:24
Dann scheint A.I off keine Auswirkung zu haben.

Schlammsau
2008-01-05, 15:26:36
Dann scheint A.I off keine Auswirkung zu haben.
Hä?

LovesuckZ
2008-01-05, 15:30:04
Hä?

Ich sehe auf deinen Bildern keinen Unterschied - auch nicht in den Videos. Die 7% sind in Abhängigkeit der unterschiedlichen Position sowieso noch im Bereich der Messtoleranz.

Schlammsau
2008-01-05, 15:31:58
Ich sehe auf deinen Bildern keinen Unterschied - auch nicht in den Videos. Die 7% sind in Abhängigkeit der unterschiedlichen Position sowieso noch im Bereich der Messtoleranz.

Messtoleranz?:| Du hast recht die Quali ist die gleiche aber die höheren fps sind real!
Ich bin mit ausgeschaltetem AI in dieser Szene nie über 90 fps gekommen! Mit eingeschaltetem AI war ich immer über 90!
Das ist keine Messtoleranz!:P

LovesuckZ
2008-01-05, 15:44:23
1. Es bezug sich auf die Filterqualität.
2. Kannst du den Spielstand mal hochladen?

Schlammsau
2008-01-05, 15:50:32
1. Es bezug sich auf die Filterqualität.
2. Kannst du den Spielstand mal hochladen?

aso....hier das savegame, musst aber ein paar meter in diesem Raum zurückgehen, Far Cry hat doch nur festgelegte Speicherpunkte.
http://rapidshare.com/files/81456127/checkpoint_Training_Training_3.sav.html

LovesuckZ
2008-01-05, 16:38:53
Mit dem 169.28 Treiber und meiner 8800GT lässt sich das Moire-Muster nur durch SuperSampling abmildern btw. beseitigen.

Raff
2008-01-05, 17:41:06
Und was hat jetzt die R5xx hier zu suchen? Die sind doch eh bald Geschichte. Oder zockt hier noch einer mit einer R3xx? Wenn, dann sollte man die Konzentration auf die R6xx legen. Denn wenn 3 Kartengenerationen mit sagen wir 6 Karten, 4 Treiberrevisionen mit AI-On/Off mit Videos/Animationen verglichen wird, dann wird dieser Thread noch recht lustig werden.

Dir ist es also egal, wenn Ati mit jeder Generation einen Schritt zurück läuft? Denn das ist zumindest bei "Off" der Fall. Die Option wird ad absurdum geführt, denn hinter "off" sollte auch "off" stehen – und nicht "verschieben wir das LOD um 0,025, der Rest passt".

MfG,
Raff

_DrillSarge]I[
2008-01-05, 17:49:54
Dir ist es also egal, wenn Ati mit jeder Generation einen Schritt zurück läuft? Denn das ist zumindest bei "Off" der Fall. Die Option wird ad absurdum geführt, denn hinter "off" sollte auch "off" stehen – und nicht "verschieben wir das LOD um 0,025, der Rest passt".

MfG,
Raff
ganz so schlimm ist es nicht. eher war r5x0 einen schritt vor und jetzt wieder einen zurück ;)

Raff
2008-01-05, 17:59:30
Yep. Aber wenn das nur der Anfang ist? Jeder Rückschritt sollte scharf verurteilt werden, sonst sehen wir bald wieder NV40-Quality als Treiberdefault. Immer, wenn ich in einem Forum versierter Leute (wie diesem) "das sieht man gar nicht" lese, wird das wahrscheinlicher.

MfG,
Raff

LovesuckZ
2008-01-05, 18:04:18
Dafür müsste auch die Medien mitspielen. Bei der PCGH wird A.I Standard gegen HQ getestet. Als Fachmagazin impliziert man dadurch doch, dass beide Einstellung vergleichbare Ergebnisse liefern. Bevor man also auf User im Forum reagiert, sollte man selbst erstmal überlegen, wie man die Welt verbessern kann.

_DrillSarge]I[
2008-01-05, 18:04:58
sicher. beim r5x0 ist es meist egal, ob off oder on. jedoch r600 legt manchmal ein komisches verhalten an den tag.
und nochmal: ich will ai endlich vom crossfire entkoppelt haben !!!

Blutmaul
2008-01-05, 18:11:05
Wo ich jetzt fast 3 Tage gebraucht habe, um meinen neuen TFT ein anständiges Bild zu entlocken, was Helligkeit, Kontrast, Farbe angeht, muß ich feststellen, das hier über 0,5% Bildqualität bei AI On/Off gestritten wird, während der Monitor 99,5% ausmacht.
Natürlich sind nur 100% wirklich perfekt ;)

Razor
2008-01-05, 18:57:55
Wenigstens hat ATi einen AI Schalter, wo ist das bei Nvidia? Auch wegoptimiert
Das wird hier langsam zu dumpf, findest Du nicht?
Raff hat es sehr deutlich erklärt, wo die Unterschiede zu suchen sind...

Und bei nVidia heißen diese - sehr wohl beeinflußbaren - 'Schalter' im Treiber:
- Quality: hohe Leistung, Leistung, Qualität, hohe Qualität
- Trilineare Optimierung: An, Aus
- Anisotrope Optimierung: An, Aus
- neg. LOD-Bias: Zulassen, Clamp

Mit "hoher Leistung" sind die beiden Optimierungen automatisch inaktiv.

Bei ATI sehe ich nur einen einzigen Schalter, mit dem man dieses uminöse "A.I." beeinflussen kann.
Welcher Treiber hier also mehr Beeinflussung zuläßt, liegt mehr als klar auf der Hand.

jep......hab aber nicht die absolute gleiche Position hinbekommen...... macht aber keinen einzigen Frame aus!
AI off: ~88fps
AI standard: ~94fps
AI lässt sich auch auf einem RV670 Chip deaktivieren!
Damit wäre bewiesen, dass das Shader-Replacement mit A.I. off noch immer deaktiviert wird...
Das ist ein weiterer - erheblicher - Nachteil der ATI-Treiber.

Denn solange Shader-Replacements nicht zur negativen Beeinflussung der Bildqualität 'mißbraucht' werden, sind sie 'gut'.
Schön wäre ein Schalter in den nVidia-Treibern, um auch diese zu deaktivieren... auch wenn es lediglich Testzwecken dienen würde.

Razor

_DrillSarge]I[
2008-01-05, 19:01:15
Damit wäre bewiesen, dass das Shader-Replacement mit A.I. off noch immer deaktiviert wird...
Das ist ein weiterer - erheblicher - Nachteil der ATI-Treiber.
woran erkennst du den beweis ? ;)

seahawk
2008-01-05, 19:05:10
Wenn die Filterung gleichwertig ist, dann muss sich der Performancegwinn aus anderen Lösungen erklären. Und ATI sagt ja offen, dass AI off eben auch unschädliche Verbesserungen abschaltet.

pest
2008-01-05, 19:10:12
Bei ATI sehe ich nur einen einzigen Schalter, mit dem man dieses uminöse "A.I." beeinflussen kann.
Welcher Treiber hier also mehr Beeinflussung zuläßt, liegt mehr als klar auf der Hand.


Also ich kann bei meiner ATI folgende Qualitätseinstellungen machen

Textureinstellung
MIP-MAP-Stufe
jeweils [Hohe Leistung,Leistung,Qualität,Hohe Qualität]

A.I. [Off,Standard,High]
Anisotrope Filterung optimieren [x|-]
Trilineare Filterung optimieren [x|-]
HQ-AF [x|-]
LOD-Bias

und jetzt :rolleyes:

Raff
2008-01-05, 19:24:28
Deine CCC-Version würde ich mir gern genauer ansehen, klingt hochspannend. Bei mir gibt's die "Optimierungs"-Optionen nicht. ;)

MfG,
Raff

pest
2008-01-05, 19:35:12
Deine CCC-Version würde ich mir gern genauer ansehen, klingt hochspannend. Bei mir gibt's die "Optimierungs"-Optionen nicht. ;)

MfG,
Raff

ging's hier um's CCC oder um die Möglichkeiten des ATI-Treibers?
Ati's Control Center hat auf meinem PC nicht lange überlebt :wink:

Razor
2008-01-05, 19:39:56
Also ich kann bei meiner ATI folgende Qualitätseinstellungen machen

Wenn wir hier über den Treiber sprechen, dann sprechen wir garantiert NICHT über irgendwelche Tools, die irgendwelche nützlichen oder unnütze Registry-Hacks durchführen. Oder soll ich Dir jetzt etwa erklären, was aTuner, RivaTuner, nHancer und Co alles 'können'?

Also DEN Super-Treiber von ATI (!) möchte ich sehen, bei dem Du das von Dir genannte beeinflussen kannst.
Bei nVidia ist das von mir Genannte per Default einstellbar...

Razor

pest
2008-01-05, 19:46:55
Wenn wir hier über den Treiber sprechen, dann sprechen wir garantiert NICHT über irgendwelche Tools, die irgendwelche nützlichen oder unnütze Registry-Hacks durchführen. Oder soll ich Dir jetzt etwa erklären, was aTuner, RivaTuner, nHancer und Co alles 'können'?
Also DEN Super-Treiber von ATI (!) möchte ich sehen, bei dem Du das von Dir genannte beeinflussen kannst.
Bei nVidia ist das von mir Genannte per Default einstellbar...


Ist mir schon klar das solche Tools mehr können als die propritären Herstellertools. Die benutzen aber nur Keys die eh vom Treiber benutzt werden. Jegliche Limitierung ist keine Limitierung der Schnittstelle, oder des APIs. Nicht verwechseln. :) Dann schreib du findest CCC zum Kotzen, oder die Möglichkeiten der Hauseigenen Tools die BQ zu Beeinflußen.

Razor
2008-01-05, 20:27:49
Für mich bilden Treiber-Kern und das Treiber-Panel eine Einheit.

Was uns nun aber auf die eigentliche Frage zurück führt:
"Was genau soll jetzt der nVidia-Treiber - gerne nach 'Deiner' Definition - weniger 'können', als der ATI-Treiber?"
:confused:

Dass das Standard-nVidia-Panel sehr viel mehr Möglichkeiten bietet, scheint ja nun geklärt.

Razor

4 Vitamins
2008-01-05, 21:19:30
Für mich bilden Treiber-Kern und das Treiber-Panel eine Einheit.

Was uns nun aber auf die eigentliche Frage zurück führt:
"Was genau soll jetzt der nVidia-Treiber - gerne nach 'Deiner' Definition - weniger 'können', als der ATI-Treiber?"
:confused:

Dass das Standard-nVidia-Panel sehr viel mehr Möglichkeiten bietet, scheint ja nun geklärt.

Razor

Also ich sehe es nicht als vorteil für nividia, dass man da viele einstellungen zu "reduzierung" der qualität im treiber hat.
Ati bittet "immer" (bis jemand das gegenteil beweisen kann) die volle qualität. Man kann mit dem CCC alles wichtige einstellen: AA, AF, AAA mehr braucht man nicht. Wo zu noch optionen für 5 minderwertige filter oder cheats? Wenn mit die karte für ein spiel zu langsam sein sollte, dann reduziere ich in gameoptionen etnsprechend runter bis es passt, ohne augenkrens zu bekommen. Ich hätte keine lust stundenlang auszutesten welche von den sich bittenden konstalationen bei den einstellungen die besste für jedes game ist.

Noch was am rande: Ich finde die ganzen grakaperformancevergleiche für absurd, da man mit nividia für jeden bench beliebig die qualität verändern kann. Wer garantiert mir dass der nividiatester die bestmögliche qualität eingestellt hat und nicht tricks?? Auf nem geposteten pic mit fps anzeige sieht man eh nicht ob getricks worden ist oder nicht.
Bei ati kann man nicht mal eben HQ AF abstellen(bei einer HD3XXX)
bei nividia ohne probs.


gruss

4 Vitamins
2008-01-05, 21:23:44
Bei der PCGH wird A.I Standard gegen HQ getestet. .

Ja was den sonst?
Die beste ATI qualitäteinstellung und die besste Nividia qualitäteintellung die der jeweilige treiber bittet.
Das Nividia im promile bereich besser filtert (was nicht erwiesen ist)spielt dabei keine rolle.


gruss

4 Vitamins
2008-01-05, 21:24:29
Wo ich jetzt fast 3 Tage gebraucht habe, um meinen neuen TFT ein anständiges Bild zu entlocken, was Helligkeit, Kontrast, Farbe angeht, muß ich feststellen, das hier über 0,5% Bildqualität bei AI On/Off gestritten wird, während der Monitor 99,5% ausmacht.
Natürlich sind nur 100% wirklich perfekt ;)

Beweise??

gruss

Raff
2008-01-05, 21:24:46
Du scheinst Fehlinformationen aufzusitzen. Eine Geforce 8 filtert ebenfalls immer (fast) winkelunabhängig. Unabänderlich. Die Billig-Logik der letzten Generation wurde entsorgt, jetzt gibt's eben gescheites AF. Und genau wie bei Ati sind im Treiberdefault die Hartz-4-Filter aktiv. Die BQ ist damit vergleichbar. Schaltet man aber bei Nvidia die "Optimierungen" ab und stellt auf HQ, ist die BQ in 99,38% der Fälle einer Radeon überlegen oder gleichwertig (wenn wir mal von der OpenGL-Scheiße absehen). Bei Ati wird aber auch mit allen CCC-Optionen auf Qualität noch gespart. Das war beim R580 noch anders. Wer bietet also aktuell die bessere absolute BQ?

MfG,
Raff

4 Vitamins
2008-01-05, 21:25:45
I[;6166709']sicher. beim r5x0 ist es meist egal, ob off oder on. jedoch r600 legt manchmal ein komisches verhalten an den tag.
und nochmal: ich will ai endlich vom crossfire entkoppelt haben !!!


Wie kann man das messen?
Oder haste soein "gefühl"?

gruss

aths
2008-01-05, 21:25:48
Kann sein, dass du die Kompressionsstärke von PNG nicht auf dem Maximum hast. Da das PNG-Format nämlich verlustfrei komprimiert, ändert die Kompressionsstärke nur die Zeitdauer die du zum komprimieren brauchst. In einem kürzlichen BQ-Vergleich (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6140092&postcount=36) von mir, waren die Dateien auch "nur" ca. 1,5MB pro Bild groß. Kann aber auch sein, dass sich dein Motiv eben nicht besser zusammen stauchen lässt.PNG wird vom IE schlecht dargestellt, daher ist PNG auch nicht die beste Wahl.

4 Vitamins
2008-01-05, 21:28:48
Damit wäre bewiesen, dass das Shader-Replacement mit A.I. off noch immer deaktiviert wird...
Das ist ein weiterer - erheblicher - Nachteil der ATI-Treiber.



Razor

A.I OFF = HQ AF ohne shader-replacement
A.I ON = HQ AF + shader-replacement

wo sehst du da verschlechterungen in der qualität?

gruss

LovesuckZ
2008-01-05, 21:35:02
Und wer sagt, dass es "HQ AF" ist?

Sentionline
2008-01-05, 21:36:17
Also wenn man hier schon so sachen raushaut wie: "Bei AI wirds immer schlechter" oder "Bei AI kann man immer sehen wie verschlechterungen aussehen" oder "Optimierungen sind bei AI Off noch immer an"...

Also wenn ich mir schon solche Zeilen durchlesen muss, dann sollte man deffizite auch anhand von Screenshots nachweisen können. Wie gesagt: Blubbern kann ich auch.

Wer bietet also aktuell die bessere absolute BQ?
Durgehend ATi, weil nicht wie bei N* "hintenrum" optimiert wird.

mfg

4 Vitamins
2008-01-05, 21:38:54
Bei Ati wird aber auch mit allen CCC-Optionen auf Qualität noch gespart. Das war beim R580 noch anders. Wer bietet also aktuell die bessere absolute BQ?

MfG,
Raff

Es ist doch egal ob gespart wird (was zu beweisen wäre:cool:).
Man stellt das maximum von dem was der treiber bittet. Mehr kann keiner machen. Das nividia die bessere absolute BQ bittet kann stimmen, nur beim spielen sieht es "niemand". Man wird "immer" unterschiede (nur messbare)haben, es ist doch nicht möglich das beide hersteller "identische" BQ bitten, ausser vielleicht die tun sich zusammen und gründen eine neue firma.


gruss

4 Vitamins
2008-01-05, 21:40:16
Und wer sagt, dass es "HQ AF" ist?


Das ATI- team und der treiberpanel CCC:biggrin:
Natürlich kannste das gegenteil beweisen.

gruss

LovesuckZ
2008-01-05, 21:40:16
Ohman. Du kannst defizite nur in Bewegungen wahrnehmen, da hier das Bild verstärkt zum Flimmern neigt. Bilder werden eher schärfer und somit für den Betrachter von besserer Qualität.
A.I ist nur die Bezeichnung. Ob man die Optimierungen sieht, hängt einfach vom Quellmaterial und dem eigenen befinden ab.
Anscheinend gibt es für r6xx AMD User kaum eine Möglichkeit von vornerein auf vollwertige, trilineare Filterung auf allen Stages umzuschalten.


Durgehend ATi, weil nicht wie bei N* "hintenrum" optimiert wird.
mfg

Warum neigt dann AMD verstärkt zum Flimmern?

_DrillSarge]I[
2008-01-05, 21:40:55
PNG wird vom IE schlecht dargestellt, daher ist PNG auch nicht die beste Wahl.
das ist schon lange her (ie6) und trifft nicht mehr zu
€: ati neigt nicht stärker zum flimmern @ai-off als eine gf8@hq. mit ai-low sollte man sch das genauer anschauen, nochmal hier= ai-off vs ai-on vs. ai-high ;)

4 Vitamins
2008-01-05, 21:42:31
Ohman. Du kannst defizite nur in Bewegungen wahrnehmen, da hier das Bild verstärkt zum Flimmern neigt. Bilder werden eher schärfer und somit für den Betrachter von besserer Qualität.
A.I ist nur die Bezeichnung. Ob man die Optimierungen sieht, hängt einfach vom Quellmaterial und dem eigenen befinden ab.
Anscheinend gibt es für r6xx AMD User kaum eine Möglichkeit von vornerein auf vollwertige, trilineare Filterung auf allen Stages umzuschalten.



Warum neigt dann AMD verstärkt zum Flimmern?

Vermutung??
Vision??
So ne ahnung??

:biggrin:
gruss

Raff
2008-01-05, 21:44:27
Argh. Ich habe keinen Bock mehr. Einige hier sollten mal bitte die gefärbte Brille abnehmen ... und eventuell eine schärfende aufsetzen. Beide Hersteller kochen nur mit Wasser. Wenn hier noch gescheite Inhalte kommen, bin ich gerne bereit, weiter zu partizipieren. Vorerst EOD.

MfG,
Raff

Gast
2008-01-05, 21:45:43
Ohman. Du kannst defizite nur in Bewegungen wahrnehmen, da hier das Bild verstärkt zum Flimmern neigt. Bilder werden eher schärfer und somit für den Betrachter von besserer Qualität.
A.I ist nur die Bezeichnung. Ob man die Optimierungen sieht, hängt einfach vom Quellmaterial und dem eigenen befinden ab.
Anscheinend gibt es für r6xx AMD User kaum eine Möglichkeit von vornerein auf vollwertige, trilineare Filterung auf allen Stages umzuschalten.



Warum neigt dann AMD verstärkt zum Flimmern?
Unterstellst du gerade, dass bei HQ-AF nicht so winkelunabhängih gefiltert wird, wie es sein sollte?

Coda
2008-01-05, 21:50:29
Und dann ist auch noch so, dass es mit AI oft noch besser aussieht (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6163694#post6163694)
Nein, das ist garantiert nicht so. Was du da auf dem Screenshot als "schärfer" wahrnimmst wird in Bewegung flimmern, weil unterfiltert wird.

Durgehend ATi, weil nicht wie bei N* "hintenrum" optimiert wird.
Ich denke du solltest dir da mal selber ein Bild machen. Das ist einfach nur Blödsinn. Die Bildqualtiät von beiden Herstellern ist inzwischen so gut, dass die Diskussionen wie sie hier geführt werden einfach nur noch komplett lächerlich sind.

Vor allem wird dann angefangen mit applikationsspezifischen Renderpfaden und Treiberbugs zu argumentieren dass es einen nur graust.

Unterstellst du gerade, dass bei HQ-AF nicht so winkelunabhängih gefiltert wird, wie es sein sollte?
Es geht nicht nur um die Winkelunabhängigkeit. Das ist nur ein Teil eines guten Filters.

LovesuckZ
2008-01-05, 21:59:34
Unterstellst du gerade, dass bei HQ-AF nicht so winkelunabhängih gefiltert wird, wie es sein sollte?

HQ-AF war ATi's Bezeichnung für die winkelunabhängige Filterung. Seit den 8800 Karten ist die Einstellung - jedenfalls beim r600 - standard geworden.
HQ-AF ist jedoch nicht das gleiche wie bei nVidia, wo hoffentlich alle Filteroptimierungen abgestellt werden.

pest
2008-01-05, 22:03:34
"Was genau soll jetzt der nVidia-Treiber - gerne nach 'Deiner' Definition - weniger 'können', als der ATI-Treiber?"


Ich hab davon nicht gesprochen, sondern wollte nur deine Argumentation wiederlegen. Nur weil A falsch ist, muss nicht B richtig sein ;)

Die Sachen die mich an der BQ von ATI stören, lassen sich eh nicht auf A.I. zurückführen, damit bin ich raus :)

Coda
2008-01-05, 22:05:20
Was stört dich denn?

pest
2008-01-05, 22:11:39
Was stört dich denn?

In Flatout 2 und JustCause z.B. hat mich das Flackern von Fensterscheiben extrem gestört, unabhängig von A.I.

In FarCry hat im ZoomModus die Vegetation ohne Bewegung extrem geflimmert
(Hintergrund flackert kurz durch eine Kiste durch)

...Spielabhängig und def. auch Treiberabhängig wie die Darstellungsfehler die ich derzeit mit dem 7.12 in Crysis habe

da finde ich diese Sisyphossuche nach A.I.-Unterschieden eher verschmerzlich ;)

4 Vitamins
2008-01-05, 22:23:57
In Flatout 2 und JustCause z.B. hat mich das Flackern von Fensterscheiben extrem gestört, unabhängig von A.I.

In FarCry hat im ZoomModus die Vegetation ohne Bewegung extrem geflimmert
(Hintergrund flackert kurz durch eine Kiste durch)

...Spielabhängig und def. auch Treiberabhängig wie die Darstellungsfehler die ich derzeit mit dem 7.12 in Crysis habe

da finde ich diese Sisyphossuche nach A.I.-Unterschieden eher verschmerzlich ;)

und genau solche "fehler" findet man auch bei nividia wenn man danach sucht, egal ob HQ oder nicht. Die treiber und architekturen kommen mal mehr mal weniger gut mit games. Was solls.

gruss.

Gast
2008-01-05, 22:31:41
Ohman. Du kannst defizite nur in Bewegungen wahrnehmen, da hier das Bild verstärkt zum Flimmern neigt. Bilder werden eher schärfer und somit für den Betrachter von besserer Qualität.
A.I ist nur die Bezeichnung. Ob man die Optimierungen sieht, hängt einfach vom Quellmaterial und dem eigenen befinden ab.
Anscheinend gibt es für r6xx AMD User kaum eine Möglichkeit von vornerein auf vollwertige, trilineare Filterung auf allen Stages umzuschalten.



Warum neigt dann AMD verstärkt zum Flimmern?
Zu scharfe Texturen neigen gerade zu flimmern (sihe Cinema Mod für HL2&Co).

Coda
2008-01-06, 00:20:42
In Flatout 2 und JustCause z.B. hat mich das Flackern von Fensterscheiben extrem gestört, unabhängig von A.I.

In FarCry hat im ZoomModus die Vegetation ohne Bewegung extrem geflimmert
(Hintergrund flackert kurz durch eine Kiste durch)

...Spielabhängig und def. auch Treiberabhängig wie die Darstellungsfehler die ich derzeit mit dem 7.12 in Crysis habe

da finde ich diese Sisyphossuche nach A.I.-Unterschieden eher verschmerzlich ;)
Das würde ich halt nicht unter "Bildqualität" verbuchen sondern unter "Treiberbugs". Aber blöd isses natürlich dennoch.

aths
2008-01-06, 02:14:12
Weil durch die Brilinearität unterfiltert wird.Oder überfiltert. Je nach Lage.


ganz klar zu sehen das A.I On das bild verbessert:biggrin:
habe nix anderes erwartet.Verschlechtert. Ich hab mal Max-Payne-2-Screenshots mit AI gesehen. Da sah man die Unterfilterung bereits im Standbild. Mit AI off hingegen waren die Texturen so wie sie sein sollten. Leider muss man bei Nvidia ebenfalls die ganzen angeblichen Optimierungen abschalten damit die Texturen wirklich optimal gefiltert werden.

Mr. Lolman
2008-01-06, 11:03:05
In Flatout 2 und JustCause z.B. hat mich das Flackern von Fensterscheiben extrem gestört, unabhängig von A.I.


Dann war vll. EATM aktiv. Normalerweise flackert bei den Spielen überhauptnix.

The_Invisible
2008-01-06, 12:34:10
naja, ich habe auch blut geschwitzt bis ich draufgekommen bin das ne 1600pro nur mit dem 7.4 catalyst einwandfrei funktioniert und alle höheren versionen nur ein "cant create d3d irgendwas" fabriziert haben, opengl ging aber.

aber bei ati.com wird schön auf den neuesten treiber verwiesen, wie soll ein laie da durchblicken?

mfg

Gast
2008-01-06, 13:06:15
Äh ich zockel noch mit ner R3xx Karte

Hab mitm Omegatreiber CSS getestet nur ist da kein AI dabei :)
Also sah es ordentlich aus.

Die neuen Catalyst bieten nur noch Support für PCIE-Karten und die neuen AGP-Versionen der aktuellen Generation, der Support wird einfach eingestellt... Schade.

Aber so was ich von den Bildern her gesehen habe würde ich auf AI-standard-on lassen
weil weder in den Videos noch auf den Bildern fällt mir ein signifikanter Unterschied auf.

pest
2008-01-06, 13:11:33
Dann war vll. EATM aktiv. Normalerweise flackert bei den Spielen überhauptnix.

Nein def nicht. Weil es mir bei den beiden Spielen besonders auf den Sack ging,
hab ich wirklich viel durchprobiert. Es waren auch immer nur bestimmte Fenster,
auch im Stillstand. Also wie Coda schon schrieb->Treiberbugs, die aber subjektiv mehr stören. Oder wie erklärst du es mir das in Cod2 in der Wüstenmision der Himmel aussah als wäre er ohne Dithering in 16-Bit gerendert?

Raff
2008-01-06, 14:10:03
Äh ich zockel noch mit ner R3xx Karte

R3x0 kann noch nicht "brilinear" filtern, daher hat man hier auch nicht mit dem Mist zu kämpfen.

MfG,
Raff

Gast
2008-01-06, 14:23:31
R3x0 kann noch nicht "brilinear" filtern, daher hat man hier auch nicht mit dem Mist zu kämpfen.

MfG,
Raff
Na gut, Amd ist sich sicher seiner Schwächen (Performance) beim Filtern ihrer aktuellen Chips bewusst, deshalb muss optimiert werden bis der Arzt kommt. Und Amd verfolgt garantiert auch die Diskussionen um AI im Internet mit, und dass Forderungen laut wurden, die sagten, dass mit AI off gebenched werden sollte. Da haben sie dann wohl mal vorsorglich ein paar Optimierungen von AI entkoppelt und dauerhaft angelassen. Ich hoffe beim nächsten Refresh wird mal die Texelfüllrate erheblich aufgebohrt und nicht nur durch marginale Chiptaktsteigerungen erhöht wie seit dem R520.
Dann dürfte die undurchsichtige AI Scheiße obsolet werden.
Korrigiert mich bitte, wenn ich hier falsch liegen sollte.

Gast
2008-01-06, 14:28:01
Und Amd verfolgt garantiert auch die Diskussionen um AI im Internet mit, und dass Forderungen laut wurden, die sagten, dass mit AI off gebenched werden sollte.
Ernsthaft, wenn sogar im 3Dcenter in einem Thread unter Aufklärungsdeckmäntelchen A.I. eher noch gelobt wird und Einige offensichtlich nicht einmal wissen, wie sich die Schweinereien im bewegten Bild äußern, dann dürfte der Druck auf die Gesamtkundschaft gegen Null gehen.

_DrillSarge]I[
2008-01-06, 14:35:43
Ernsthaft, wenn sogar im 3Dcenter in einem Thread unter Aufklärungsdeckmäntelchen A.I. eher noch gelobt wird und Einige offensichtlich nicht einmal wissen, wie sich die Schweinereien im bewegten Bild äußern, dann dürfte der Druck auf die Gesamtkundschaft gegen Null gehen.
es hat auch niemand behauptet, dass die spiele mit ai in bewegung besser aussehen. meistens ist der unterschied von ai-off zu low jedoch nicht sehr groß. das high des öfteren zum lod-totoptimieren neigt ist auch nicht von der hand zu weisen.
raffs beispiel mit css ist sicherlich eines der negativsten. da kommt alles zusammen evil-content, überfilterung etc..
wer behauptet ai(low) sieht immer KLAR schlechter aus als off lügt, genau wie der, der behauptet mit ai ändere sich gar nichts.

€: zudem hat sich ati mit dem r600 halt einfallen lassen ai-off etwas näher an low anzugleichen (andersrum wäre besser ;)). man kann nur hoffen, dass sowas nicht weiter schule macht.
in dem sinne: back to the roots, r200 af for win !

Schlammsau
2008-01-06, 16:45:02
Ernsthaft, wenn sogar im 3Dcenter in einem Thread unter Aufklärungsdeckmäntelchen A.I. eher noch gelobt wird und Einige offensichtlich nicht einmal wissen, wie sich die Schweinereien im bewegten Bild äußern, dann dürfte der Druck auf die Gesamtkundschaft gegen Null gehen.

Also das musst DU mir mal näher erörtern! Deckmäntelchen??
Warum gibt es immer Leute, die in allem eine Verschwörung sehen....das ist ein wirklich ernstgemeinter Fred zur Aufklärung dieses Phänomens!
Egal in welchem Thread ich war, es wurde zumeist über AI abgelästert.....wie schlecht die Bildquali doch sei! Weil alle Benchmarkseiten mit eingeschaltetem AI testen, sind diese alle inkompetent, und und und!
Und jetzt, wo ich das alles mal aufklären will und versuche, gibt es wieder Stimmen die dagegen wettern.
Ich versteh manche Menschen nicht.....ihr seit so festgefahren in eurer Meinung!



Die neuen Catalyst bieten nur noch Support für PCIE-Karten und die neuen AGP-Versionen der aktuellen Generation, der Support wird einfach eingestellt... Schade.



.....also so wie ich das Verstanden habe, haben nur Leute ein Problem mit ATI AGP Karten, die noch einen nForce 2 Chipsatz haben.
2 Freunde von mir haben ne X1950 Pro AGP und die laufen auch mit neuestem Treiber tadellos bei ihnen!

Oder überfiltert. Je nach Lage.


Verschlechtert. Ich hab mal Max-Payne-2-Screenshots mit AI gesehen. Da sah man die Unterfilterung bereits im Standbild. Mit AI off hingegen waren die Texturen so wie sie sein sollten. Leider muss man bei Nvidia ebenfalls die ganzen angeblichen Optimierungen abschalten damit die Texturen wirklich optimal gefiltert werden.

wie weiss man, wann wie welche Texturen auszusehen haben? Sieht das nicht jeder anders? Ausserdem MP2 hat auch schon ein paar Jahre auf dem Buckel, was zählt ist wies jetzt aussieht!

Coda
2008-01-06, 16:49:32
PNG wird vom IE schlecht dargestellt, daher ist PNG auch nicht die beste Wahl.
Wird's nicht, wenn man den Gamma-Tag aus dem Header rausschmeißt. Und ansonsten brauchen wir ja kein Alpha, oder? ;)

4 Vitamins
2008-01-06, 18:17:15
!

wie weiss man, wann wie welche Texturen auszusehen haben? Sieht das nicht jeder anders? Ausserdem MP2 hat auch schon ein paar Jahre auf dem Buckel, was zählt ist wies jetzt aussieht!

Sehr gute frage, da es keine referenz zu vergleich gibt, ist diese disskusion
absurd. Auch wenn mal etwas flimmert oder angeblich zu scharff ausseht, wer kann mit 100% sicherheit sagen es liegt am treiber und nicht am spiel?
ATI`s A.I.ON filtert schlechter im vergleich zu was? Zu nvidia? ATI filtert anders, ob es schlechter ist muss noch bewiesen werden.
Wer sagt wie texturen auszusehen haben?
Es hat sich noch kein gameenwickler beschwert dass seine texturen auf ATI karten anders ausehen als geplant:biggrin:

Und paar games aus der mottenkiste interesieren niemanden da neue GPU generation und worallem die treiber nicht für angepast worden sind;).
Und anhand 1-2 games, wo 98% problemlos angezeigt wird, von filter- optimierungen zu sprechen ist etwas zu gewagt, milde gesagt.

gruss

Razor
2008-01-06, 18:38:19
Ati bittet "immer" (bis jemand das gegenteil beweisen kann) die volle qualität.
Vollkommen falsch... aber dass Du dieser Meinung noch immer bist, paßt zu Deinen bisherigen Kommentaren.

Per Default ist A.I. on und so ist ein Grundsatz Deiner Aussage schon mal dahin. Zudem bietet AMD mit den neuen Generationen auch mit A.I. off noch immer Optimierungen, die man eben nicht per Panel abschalten kann.

Insofern muss ich Dir leider die Fähigkeit des Lesens... zumindest aber die des Verstehens absprechen.
Aber ich kann natürlich verstehen, dass Du Dir Dein Phnatasie-Gebilde erhalten willst... auf "Deubel komm raus!".

A.I OFF = HQ AF ohne shader-replacement
A.I ON = HQ AF + shader-replacement

wo sehst du da verschlechterungen in der qualität?
Ich zitiere Dich mal... das paßt auf diesen Post.

Wie kann man das messen?
Oder haste soein "gefühl"?

---

Argh. Ich habe keinen Bock mehr. Einige hier sollten mal bitte die gefärbte Brille abnehmen ... und eventuell eine schärfende aufsetzen. Beide Hersteller kochen nur mit Wasser. Wenn hier noch gescheite Inhalte kommen, bin ich gerne bereit, weiter zu partizipieren. Vorerst EOD.
Ist besser so...

Ist ja nicht so, dass die Leutz das Flimmern nicht selbst bemerken... aber die denken offenbar, dass das 'normal' ist und gar nicht anders sein kann. Die meisten davon haben einfach keinen Vergleich... und wollen auch keinen.

Hier haben nun schon genug Leute versucht, klar zu stellen, was da eigentlich genau bei dem AMD/ATI-Treibern passiert und wie das zu beobachten ist. Ich habe gezeigt, dass die Unterschiede sich nicht nur in Bewegung zeigen lassen, sondern auch sehr schön an Standbildern erkennbar sein können, wie man am durch A.I. 'advanced' weich gespülten Bild den Beispieles Crysis gut sehen konnte.

Aber es wird einfach munter weiter geplappert, als ob all das gar nicht zählen würde...

...damit bin ich raus :)
Keine Antwort ist auch eine Antort.
Und tschüss...
:D

Razor

4 Vitamins
2008-01-06, 18:56:03
Zudem bietet AMD mit den neuen Generationen auch mit A.I. off noch immer Optimierungen, die man eben nicht per Panel abschalten kann.
Razor

Hier kannste die Optimierungen aufzählen:
1.
2.
3.
4.
5.

ich hoffe es reicht vom platz her.:biggrin: (LOL)

gruss

Nakai
2008-01-06, 19:31:59
Zudem bietet AMD mit den neuen Generationen auch mit A.I. off noch immer Optimierungen, die man eben nicht per Panel abschalten kann.


Und? Hat NV bei HQ auch.

mfg Nakai

Gast
2008-01-06, 19:40:30
Und? Hat NV bei HQ auch.

mfg Nakai

Nicht, daß ich wüsste. Kannst du deine Aussage belegen?

Coda
2008-01-06, 19:40:33
Aber nicht grundsätzlich ohne Profil bei allen Spielen.

Sentionline
2008-01-06, 19:47:21
Ich habe gezeigt, dass die Unterschiede sich nicht nur in Bewegung zeigen lassen, sondern auch sehr schön an Standbildern erkennbar sein können, wie man am durch A.I. 'advanced' weich gespülten Bild den Beispieles Crysis gut sehen konnte.
Weich gespült?:| Was denn so alles?

Und? Hat NV bei HQ auch.
Neeein...Wie kommste auf sowas? Niemals:eek:

Nicht, daß ich wüsste. Kannst du deine Aussage belegen?
Kannst du es denn? PCGH hat zuminderst so einiges schonmal ansatzweise aufgespürt. Ist ja auch das erste mal das sich Nvidia mit Ruhm bekleckert.:rolleyes:

Hier kannste die Optimierungen aufzählen:
1.
2.
3.
4.
5.

ich hoffe es reicht vom platz her.:biggrin: (LOL)
:up:

mfg

puntarenas
2008-01-06, 20:06:38
PCGH hat zuminderst so einiges schonmal ansatzweise aufgespürt.

PCGH hat leider dort abgebrochen, wo es interessant wurde:
Grafik-Qualitätsvergleich: Nfs: Carbon, Oblivion und Call of Duty 2

(...)

Das Ergebnis dieser Vergleiche finden Sie in unserer Galerie - auffällig ist, dass die verschiedenen Grafikkarten die selbe Szene auch wirklich unterschiedlich darstellen - Leistung ist nach wie vor nicht das einzige Argument für den Kauf einer Grafikkarte, auch die Qualitität der Ausgabe sollte bedacht werden. Allerdings: große Unterschiede ergeben sich nur zwischen Nvidia und AMD: die Radeon-Karten untereinander liefern ähnliche Bildqualitäten ab.
Quelle (http://www.pcgameshardware.de/?article_id=621293&page=11)

Insgesamt wird in der Fachpresse leider nur sehr knapp auf die Bildqualität eingegangen, aber in den kurzen Passagen spiegelt sich eindeutig wieder, dass die AF der R(V)6XX-Karten eben nur auf R5XX-Niveau agiert und NVidia ab dem G80 davongezogen ist.

In der aktuellen Generation wird sich AMD ausgezeichnetes AF aufgrund der Schachpunkte der Architektur auch nicht leisten können. Ich gehe davon aus, dass dieses Problem erst in kommenden Generationen beseitigt werden kann und wird. A.I. Standard mit seinen Leistungsoptimierungen wird sich als Defaulteinstellung also nicht vermeiden lassen. Dennoch wäre es angebracht mir als Kunde eine Möglichkeit an die Hand zu geben, die "Optimierungen" vollends zu deaktivieren, auch wenn man fürchtet, dass dann eventuell recht schnell Benchmarkbalken durchs Netz geistern, die "A.I. Off" mit NVidias HQ-Modus gegenüberstellen.

4 Vitamins
2008-01-06, 20:20:11
PCGH hat leider dort abgebrochen, wo es interessant wurde:

Quelle (http://www.pcgameshardware.de/?article_id=621293&page=11)

Insgesamt wird in der Fachpresse leider nur sehr knapp auf die Bildqualität eingegangen, aber in den kurzen Passagen spiegelt sich eindeutig wieder, dass die AF der R(V)6XX-Karten eben nur auf R5XX-Niveau agiert und NVidia ab dem G80 davongezogen ist.

In der aktuellen Generation wird sich AMD ausgezeichnetes AF aufgrund der Schachpunkte der Architektur auch nicht leisten können. Ich gehe davon aus, dass dieses Problem erst in kommenden Generationen beseitigt werden kann und wird. A.I. Standard mit seinen Leistungsoptimierungen wird sich als Defaulteinstellung also nicht vermeiden lassen. Dennoch wäre es angebracht mir als Kunde eine Möglichkeit an die Hand zu geben, die "Optimierungen" vollends zu deaktivieren, auch wenn man fürchtet, dass dann eventuell recht schnell Benchmarkbalken durchs Netz geistern, die "A.I. Off" mit NVidias HQ-Modus gegenüberstellen.

Toller vergleich, jeder idiot seht doch dass die pics nicht gleich sind.
Die wolken und das licht verändert sich vom pic zu pic bei CoD2. (bild 34)
Bei NFS Carbon das gleiche: andere schatten und licht.Toll gemacht.
Was für noobs.:biggrin:
Wenn man nicht im stande ist gleiche szene zu nehnen, vorallem eine wo sich nix verändert, sollte man die finger von lassen.

Also wer liefert ändlich einen beweis?:rolleyes:

gruss

gruss

Blaire
2008-01-06, 20:23:24
Zumindest bei dem NFS Screen sieht man das die GTX das sauberste Bild liefert.

4 Vitamins
2008-01-06, 20:24:37
Zumindest bei dem NFS Screen sieht man das die GTX das sauberste Bild liefert.

Du hast was vergessen: "deine meinung nach":wink:
Das einzige was sich da "verändert ist: "die wolken und das licht, bzw. schatten wandern" sonst gibt es absolut keine unterschiede in der qualität. Und die pics sind dazu sowie so nicht zu gebrauchen.

gruss

Raff
2008-01-06, 20:27:33
Lass mich raten: Du findest das Flimmerbanding/Moiré der Radeons schöner, weil es "schärfer" ist?

MfG,
Raff

Blaire
2008-01-06, 20:39:55
Du hast was vergessen: "deine meinung nach":wink:


Darüber gibt es keine zwei Meinungen , das Ergebnis ist eindeutig. ;)

4 Vitamins
2008-01-06, 20:53:38
Lass mich raten: Du findest das Flimmerbanding/Moiré der Radeons schöner, weil es "schärfer" ist?

MfG,
Raff

:biggrin: Ich finde garnix da die pics nicht die qualität haben und die umgebung verändert sich dynamisch! (wolken, schatten, licht, bei oblivion bewegt sich die "botanik im wind usw.)was das ganze adabsurdum stellt!

gruss