Archiv verlassen und diese Seite im Standarddesign anzeigen : AF-Vergleich inkl. Videos: Radeon HD 4000/5000 gegen Geforce GTX 200/400
Seiten :
1
2
3
[
4]
5
6
7
8
Dimon
2010-06-30, 19:56:21
http://www.megaupload.com/?d=MFT9PL8K
So bitte das Savegame :)
airbag
2010-06-30, 19:56:29
Dann würde ich es aber auch über andere Foren laufen lassen. Immerhin denke ich, dass es im 3dc recht klar ausfallen wird.
erstmal schauen, das müsste man dann eh anders aufbauen und da müsste ich mich auch nochmal schlau machen
also nochmal,
>=4 Samples, jeweils ATI,NV 16xAF
derguru
2010-06-30, 20:03:12
http://www.megaupload.com/?d=MFT9PL8K
So bitte das Savegame :)
kann ich nicht starten weil mir daten fehlen,stürzt sofort ab.hast du mods drauf?
naja egal,das nv´s af besser ist,ist nichts neues.mir gings eh nur wegen dem angeblichen geflimmer unter Fallout3 ATI + EDGE (24x) + AAA (Wiese).
Das was da flimmert liegt am Texturfilter, übel find ich die rot markierten Stellen hier beim Fallout3 Video, während NV dort fast sauber filtert.
http://www.abload.de/img/grieselacji.jpg
Hab mir die Vids angesehn... wem da nix auffällt?! hmm naja -.-
Monitor ?! xD
Dimon
2010-06-30, 20:36:38
kann ich nicht starten weil mir daten fehlen,stürzt sofort ab.hast du mods drauf?
naja egal,das nv´s af besser ist,ist nichts neues.mir gings eh nur wegen dem angeblichen geflimmer unter Fallout3 ATI + EDGE (24x) + AAA (Wiese).
Zu meinen Bedauern muss ich gestehen das ich den RAFO mod benutze und die DLC Pakete mit dazu...
Wie auch immer, sag mir wie ich das ganze einstellen soll damit der Treiber das ganze übernimmt. :)
Gruß
derguru
2010-06-30, 20:43:51
im treiber alles auf anwendegesteuert lassen inkl.box z.b.dann im game unter optionen 8aa+15af und in den erweiterten optionen tmsaa einschalten,fetig.
Dimon
2010-06-30, 21:17:20
Zwar glättet das game nun die Kanten, und die Bäume werden geglättet, aber AF sieht immernoch grausam aus..
Wenn du das ganze reproduzieren willst, lauf zum Super Mart und dann neben dem Bus auf die Wiese gucken, das ist dasselbe was ich mache....
Gruß
@Blaire
die Frage ist doch nicht ob du es siehst, sondern inwiefern dich das subjektiv stört
das ist kein "finde den Fehler"-Thread
wenn du allerdings sofort Augenschmerzen von dem Grieseln bekommst, tust du mir fast leid, ich habe ein ähnliches Problem mit mp3s
Also mal ganz ehrlich, ich kann mir beim besten willen nicht vorstellen, dass ein Mensch mit gesunden Augen bei dem Video nicht sofort einen Anfall bekommt. Ich bin mir auch ziehmlich sicher, dass ich da nicht überemfindlich bin. Also entweder gibt es ein massives Problem mit deinen Augen oder mit deinem Monitor. Ist auch absolut nicht böse gemeint, aber das Flimmern geht gar nicht und sollte jdem ins Auge springen.
Jeder Mensch mit gesunden Augen nimmt das kleinste Flimmern sofort war und guckt da ständig drauf, dass ist eine evolutionäre Errungenschaft, denn das Gehirn analysiert immer die differenz zwischen zwei Bildern. Somit kann man nämlich sich anschleichende Feinde schneller entdecken und die Leute bei denen das nicht funktioniert hatten meist keine Gelegenheit sich fortzupflanzen.
wir werden es sehen, Dimon schafft es vielleicht morgen ein paar Samples zusammenzustellen und dann werden wir feststellen, ob der Unterschied signifikant ist.
und andererseits stören mich an CG-Grafik ganz andere Sachen als Grieseln außerhalb meines (Spiel-)Fokus.
so sieht das aus mit den settings und nicht was du da fabriziert hast.;)
http://www.1filesharing.com/download/C5TJSYIJ/Fallout3%20ATI%208xAAA_Edge_16af.aviFallout3%20ATI%208xAAA_Edge_16af.avi
Die Kantenglättung ist ziemlich glatt, aber AF und Bugwelle durchaus verbesserungswürdig und das obwohl durch das viele Gras problematische Bodentexturen schon stark entschärft werden.
La Junta
2010-06-30, 22:44:08
Also mal ganz ehrlich, ich kann mir beim besten willen nicht vorstellen, dass ein Mensch mit gesunden Augen bei dem Video nicht sofort einen Anfall bekommt. Ich bin mir auch ziehmlich sicher, dass ich da nicht überemfindlich bin. Also entweder gibt es ein massives Problem mit deinen Augen oder mit deinem Monitor. Ist auch absolut nicht böse gemeint, aber das Flimmern geht gar nicht und sollte jdem ins Auge springen.
Es hat nix mit gesunden Augen zu tun , sondern eher mit Wahrnehmung und Enpfindung eines jeden . Das selbe gilt auch für Lautstärke und diverse andere Sachen . Ich seh in dem Movie auch kein Flimmern und zudem bin ich letzten Jahres von einer 4870iger auf ne 280er gewechselt weil ich mir eingebildet habe das es überall flimmert . Und siehe da , auf der 280iger wars so ziemlich ähnlich , bzw stört(nehme es nicht wahr) mich das flimmern nicht , weil ich nicht danach suche , sondern das Spiel einfach nur spiele und mich darauf konzentriere .
Bei NFS S sehe ichs z.B minimal flimmern bevor die Rennen losgehen , aber das wars auch schon .
Jeder Mensch mit gesunden Augen nimmt das kleinste Flimmern sofort war und guckt da ständig drauf, dass ist eine evolutionäre Errungenschaft, denn das Gehirn analysiert immer die differenz zwischen zwei Bildern. Somit kann man nämlich sich anschleichende Feinde schneller entdecken und die Leute bei denen das nicht funktioniert hatten meist keine Gelegenheit sich fortzupflanzen.
Sofern die Texture im Vordergrund , bzw im Fokus dessen was ich gerade im Game mache flimmern schon , aber ansonsten sehens 98% der Menschen nicht . Dafür muss es schon Blaire mit rot markieren ...
@Raff : Das was du mit den Schatten angesprochen hast , ist mir auch des öfteren aufgefallen (GTA4 , NFS S u.v.m). Das ganze sieht in etwa so aus wie die Schatten in Farcry 2 mit SSAO an . Und dies ist auch das einzieg was mich stört , wobei ich mir nicht sicher bin obs auf meiner GTX285iger nicht auch so war :( .
AwesomeSauce
2010-06-30, 22:50:29
Auch wenn es viele Nutzer nicht sehen (wollen?), ist der AMD-Filter natürlich Kritik würdig. Es geht hier um das Metier der Grafikkarte, nämlich mathematisch korrekten Output zu liefern, und genau hier versagt die AMD-Reihe. Sorry, aber anders kann man es einfach nicht beschreiben, sonst wird sich daran nie etwas ändern.
La Junta
2010-06-30, 23:00:44
Auch wenn es viele Nutzer nicht sehen (wollen?), ist der AMD-Filter natürlich Kritik würdig. Es geht hier um das Metier der Grafikkarte, nämlich mathematisch korrekten Output zu liefern, und genau hier versagt die AMD-Reihe. Sorry, aber anders kann man es einfach nicht beschreiben, sonst wird sich daran nie etwas ändern.
Ich bestreite es ja garnicht das es manche nicht sehen wollen , jedoch sage uich das es die meisten garnicht sehen . Ich finde die Kritik ok und würde es auch gut finden falls mal ATI was in der hinsicht macht . Aber dies wird kaum durch solche Threads zustande kommen wo die meistens garnicht wissen wie das Flimmern aussieht und sich bei Shaddern Flimmern denken wie scheisse doch AMD ist (hab ich z.B in Fear2 letztes Jahr gemacht nur um dann festzustellen das es auf der GTX280iger genauso ist) und hier zum xtausensten mal was wiederhollen wo sie mal was iwo gelesen haben ...
Ich bin auch weg aus diesem Thread , sonst kauf ich mir noch nen Fermi nur um festzustellen das es das selbe ist wie letztes Jahr und ich das Flimmern immer noch kaum wahrnehme :D .
MFG Junta
Es geht hier um das Metier der Grafikkarte, nämlich mathematisch korrekten Output zu liefern, und genau hier versagt die AMD-Reihe.
Da begibst du dich auf dünnes Eis, denn eine solche gibt es für winkelunabhängiges AF nirgends.
Das was NVIDIA macht nur eine - sehr gute - Approximation. Sie filtern so gut wie nur möglich mit einem trilinearen Grundfilter. Theoretisch müsste man Flächenintegral pro Pixel ausrechnen. Und zwar nicht eines von einem kleinen Quadrat, sondern von z.B. einem SINC.
Mir wäre es mir sehr recht, wenn Microsoft mit Direct3D 12 die Abtastung endlich standardisiert und mit WHQL erzwingt. Allerdings würde da auch NVIDIA nicht mitspielen, weil diese die Texturfilterung als "gelöstes Problem" betrachten, obwohl sie beispielsweise Probleme mit von 0 abweichenden LODs haben und die Genauigkeit der Positionsbestimmung der Samples und die Gradientenberechnung ungenauer ist bei ATI. Ersteres ist auch für die wahrgenommene Qualität ziemlich irrelevant (außer für Supersampling) und letzteres völlig.
AwesomeSauce
2010-07-01, 00:15:31
@Coda
Ich glaube, es wird jedem klar sein, dass absolute Korrektheit wahrscheinlich nie erreicht wird. Jedoch sollte es das Ziel der GPU-Hersteller sein, möglichst nahe an das Optimum heranzukommen, und da ist Nvidia einfach viel näher dran im Moment. Es ist nun wirklich die Hauptaufgabe einer Grafikkarte, anständige Bilder auf den Bildschirm zu zaubern, möglichst ohne irgendwelche sichtbare und störende Artefakte. Vernachlässigt ein Hersteller dieses Ziel zu Gunsten einer höheren Framerate, ist Kritik angemessen. Stattdessen wird dieser Mangel immer wieder mit anderen Defiziten wie z.B Stromverbrauch relativiert oder auf eine Waage gelegt. Ich frage mich langsam, was der Hauptzweck einer Grafikkarte einigen Usern nach sein soll... Strom sparen?
Naja, ich schweife wieder mal ab.
ich sage ja nur dass das was ATI derzeit macht nach den Regeln auch nicht "falsch" ist. Wir werden bessere Bildqualität nur sehen, falls die Entwickler es einfordern oder durch Druck der Community.
Immerhin sehen wir mit RV870 eine gewisse Verbesserung. Ich hoffe mal, dass sie es mit der nächsten "richtigen" Architektur endlich sauber machen.
derguru
2010-07-01, 02:13:26
Die Kantenglättung ist ziemlich glatt, aber AF und Bugwelle durchaus verbesserungswürdig und das obwohl durch das viele Gras problematische Bodentexturen schon stark entschärft werden.
darum ging es mir gar nicht,schau dir Dimon filmchen an was er als ATI + EDGE (24x) + AAA verkaufen wollte.
und dann kommt coda und sagt auch noch glaubt ihm doch einfach,wegen sowas glaub ich gar nichts auf die schnelle.X-D
http://www.megaupload.com/?d=PMTC4SC0
Byteschlumpf
2010-07-01, 03:07:28
Die ATI AF-Bugwelle ist mir erst bei Crysis aufgefallen, als ich im Hafen auf dem hinteren Teil des Schiffes war. Bei allen anderen Spielen und Situationen sowie diverser Benchmarks kam das nie so durch.
Auf dem Fallout3-Clip kann ich auch keine störende Bugwelle ausmachen.
Die ATI AF-Bugwelle ist mir erst bei Crysis aufgefallen, als ich im Hafen auf dem hinteren Teil des Schiffes war. Bei allen anderen Spielen und Situationen sowie diverser Benchmarks kam das nie so durch.
Auf dem Fallout3-Clip kann ich auch keine störende Bugwelle ausmachen.
Die sieht man auch nicht immer, aber sie is da
Iruwen
2010-07-01, 10:22:56
Ich bestreite es ja garnicht das es manche nicht sehen wollen , jedoch sage uich das es die meisten garnicht sehen.
Naja, jemandem der jeden Tag bei McDonalds isst schmeckts wahrscheinlich auch, bis er dann mal was vernünftiges bekommen hat...
Dimon
2010-07-01, 11:26:21
darum ging es mir gar nicht,schau dir Dimon filmchen an was er als ATI + EDGE (24x) + AAA verkaufen wollte.
und dann kommt coda und sagt auch noch glaubt ihm doch einfach,wegen sowas glaub ich gar nichts auf die schnelle.X-D
http://www.megaupload.com/?d=PMTC4SC0
Ich habe nur im Treiber die Einstellungen forciert mehr nicht, der treiber schaltet jeglichen AA/AAA/AF ab, ob ichs will oder nicht....
Wenn ich z.b die Einstellungen im Spiel auf 8xAA/AAA/16xAf Einstelle flimmert es genauso stark wie vorher....
Der Treiber ist ein Catalyst 10.6
@edit: lauf mal dort rum wo ich das gemacht habe, mit der Wiese beim Super Mart...
Iruwen und der Tipp des Tages!
Ich bin begeistert!
Musste auch wieder bei CSS feststellen, dass dort sogar meine GTX260 prima flimmert.
Also so einfach gesagt ist da nichts.
Klingone mit Klampfe
2010-07-01, 11:54:31
@Coda Ich frage mich langsam, was der Hauptzweck einer Grafikkarte einigen Usern nach sein soll... Strom sparen?
Im Jahr 2010 - warum eigentlich nicht? Man muss kein Öko-Freak sein, um zu erkennen, dass die Zeit der Heizkraftwerk-PCs irgendwann zu Ende gehen muss.
LovesuckZ
2010-07-01, 12:08:59
Im Jahr 2010 - warum eigentlich nicht? Man muss kein Öko-Freak sein, um zu erkennen, dass die Zeit der Heizkraftwerk-PCs irgendwann zu Ende gehen muss.
Deswegen gibt man auch >200€ für eine Grafikkarte aus, um am Ende mit einer AF Qualität leben zu müssen, die schlechter ist als bei einer 9 Jahre alten GF3.
Wer keinen Wert auf BQ legt, der kauft sich eine <200€ Karte. Die kann man noch verstehen, wenn sie einen Trade-Off zwischen BQ, Speed und Stromverbrauch haben wollen.
Alle anderen sind dagegen unverständlich. Vorallem, wenn man liest, dass sich Leute heute eine 450€ karten holen würden und dann auch noch zu akzeptieren, dass man weniger BQ und Features als bei der Konkurrenz hat. :rolleyes:
Iruwen
2010-07-01, 12:15:28
Naja, Prescott hatte 2004 'ne TDP von 115W, die schnellsten Core i7 haben heute eine TDP von 130W aber sind natürlich gnadenlos schneller. Solange wir mit der traditionellen Technik auf Basis von Transistoren und Silizium arbeiten wird sich an dem Trend wohl nichts ändern.
Die GTX 480 hats allerdings "etwas" übertrieben.
airbag
2010-07-01, 12:48:20
darum ging es mir gar nicht,schau dir Dimon filmchen an was er als ATI + EDGE (24x) + AAA verkaufen wollte.
und dann kommt coda und sagt auch noch glaubt ihm doch einfach,wegen sowas glaub ich gar nichts auf die schnelle.X-D
http://www.megaupload.com/?d=PMTC4SC0
Es kommt mir subjektiv gesehen nicht besser vor als auf dem Video von Dimon .
Naja, jemandem der jeden Tag bei McDonalds isst schmeckts wahrscheinlich auch, bis er dann mal was vernünftiges bekommen hat...
Wenn man jeden Tag bei McDonalds isst, stumpfen die Geschmacksnerven ab und weis gutes Essen nicht mehr zu schätzen. ^^
Wenn man jeden Tag bei McDonalds isst, stumpfen die Geschmacksnerven ab und weis gutes Essen nicht mehr zu schätzen. ^^
Ob Fielmann wohl Radeons empfiehlt? Auge passt sich dem OnScreen-Matsch an, Brille muss her, prima Geschäftsidee :freak:
Zum Video von derguru kann ich sagen, dass dort zwar weiterhin kleine Fehler vorhanden sind, man die aber wirklich nur sieht wenn man genau hin schaut. Ich kann mir schon vorstellen, dass diese Fehler beim Spielen einem großteil der Nutzer nicht auffallen werden.
Beim Video von Dimon kann ich hingegen echt nur mit dem Kopf schütteln. Ich kann mir nicht erklären, dass es überhaupt nur einen Menschen gibt, der das nicht sieht (es sei denn er ist wirklich blind). Daher muss ich entweder davon ausgehen, dass einige es wirklich nicht sehen wollen oder das es einen technischen Grund dafür gibt. Ist es möglich, dass TFTs mit zu hoher Reaktionszeit das flimmern vieleicht verschlucken, da sie diese schnellen Farbwechsel gar nicht darstellen können?
Nun wäre natürlich noch interessant, warum es bei Dimon so viel schlechter aussieht. Zuerst sollte derguru wirklich mal die gleiche Szene nehmen und dann wäre es mal interessant, wer was eingestellt hat.
airbag
2010-07-01, 13:10:49
Ob Fielmann wohl Radeons empfiehlt? Auge passt sich dem OnScreen-Matsch an, Brille muss her, prima Geschäftsidee :freak:
Unschärfe hilft gegen Flimmern. Was will man dann bei Fielmann?:freak:
Dimon
2010-07-01, 13:32:19
Kann es sein das Derguru Supersampling benutzt? Ich kann solche Einstellungen mit meiner Radeon 4890 nichtmal annähernd Simulieren...
airbag
2010-07-01, 13:35:30
Kann es sein das Derguru Supersampling benutzt? Ich kann solche Einstellungen mit meiner Radeon 4890 nichtmal annähernd Simulieren...
HD4ks AF ist ja noch eine Ecke schlechter als das der HD5ks.
@Coda
Ich glaube, es wird jedem klar sein, dass absolute Korrektheit wahrscheinlich nie erreicht wird. Jedoch sollte es das Ziel der GPU-Hersteller sein, möglichst nahe an das Optimum heranzukommen, und da ist Nvidia einfach viel näher dran im Moment.
Vorsicht , Vorsicht. Aber ich glaube das im Moment ATI näher am "mathematischen" Optimum liegt wie NVIDIA.
obwohl sie beispielsweise Probleme mit von 0 abweichenden LODs haben und die Genauigkeit der Positionsbestimmung der Samples und die Gradientenberechnung ungenauer ist bei ATI.
wird durch solche "ungenauigkeiten" nicht ein "minimaler" Blur erzeugt ?
Iruwen
2010-07-01, 13:56:25
Ist es möglich, dass TFTs mit zu hoher Reaktionszeit das flimmern vieleicht verschlucken, da sie diese schnellen Farbwechsel gar nicht darstellen können?
Ja, Schlammi hat z.B. so einen.
corvus
2010-07-01, 14:24:12
Ich habe nur im Treiber die Einstellungen forciert mehr nicht, der treiber schaltet jeglichen AA/AAA/AF ab, ob ichs will oder nicht....
Wenn ich z.b die Einstellungen im Spiel auf 8xAA/AAA/16xAf Einstelle flimmert es genauso stark wie vorher....
Der Treiber ist ein Catalyst 10.6
@edit: lauf mal dort rum wo ich das gemacht habe, mit der Wiese beim Super Mart...
Was meinst du denn mit "forciert"?
Du kannst mit ner ATI nix erzwingen, wenn das Spiel inGame AA Schalter hat, da kannst du nur auf Anwendungsgesteuert gehen.
Mit ner HD5 kannste noch SGSSAA dazu schalten oder und nen anderen Filter, dann würd ich aber inGame unter "erweitert" "Tranzpar." ausschalten :-) dann hörts auch auf zu flimmern.....
Wenn deine HD4 noch aktuell ist haste eh Pech mit dem Schrott... sorry...
Da kannste noch AAA einstellen und mal mit dem "tranzpar." Schalter inGame spielen obs was bringt.
Guru hat ne HD5 oder zwei.. was wollt ihr denn da vergleichen? Oder simuliert er jetzt ne HD4?
Bucklew
2010-07-01, 14:47:19
Ja, Schlammi hat z.B. so einen.
Behauptet er zumindest.
Vorsicht , Vorsicht. Aber ich glaube das im Moment ATI näher am "mathematischen" Optimum liegt wie NVIDIA.
Das würde ich jetzt auch nicht sagen.
wird durch solche "ungenauigkeiten" nicht ein "minimaler" Blur erzeugt ?
Nö.
derguru
2010-07-01, 16:24:54
Es kommt mir subjektiv gesehen nicht besser vor als auf dem Video von Dimon .
wenn du das von dir zitierte filmchen meinst kein wunder,denn das ist auch Dimons sein.
Kann es sein das Derguru Supersampling benutzt? Ich kann solche Einstellungen mit meiner Radeon 4890 nichtmal annähernd Simulieren...
nö kann nicht sein.
airbag
2010-07-01, 17:39:29
wenn du das von dir zitierte filmchen meinst kein wunder,denn das ist auch Dimons sein.
nö kann nicht sein.
Das erklärt so Einiges. ^^
Hab mir das Richtige jetzt mal gezogen und sieht wirklich besser aus.(ist aber leider wirklich nicht vergleichbar, weil die Stelle nicht die gleiche ist )
so sieht das aus mit den settings und nicht was du da fabriziert hast.;)
http://www.1filesharing.com/download/C5TJSYIJ/Fallout3%20ATI%208xAAA_Edge_16af.aviFallout3%20ATI%208xAAA_Edge_16af.avi
gib mal dein savegame,dann kann ich mir das mal ansehen.
Hallo,
die Kantenglättung der Bäume und Filterung der Transparenzen ist in deinem Video wirklich gut und deutlich besser als in Dimons Video.
Die Schwächen des anisotropen Filters treten in deinem Video an der Bodentextur jedoch wesentlich deutlicher in den Vordergrund!
Von der ersten Bewegung an war mein Blick auf den unruhigen Untergrund gelenkt.
Besonders stark sieht man die Bugwelle(n) und die Unruhe in der Bodentextur sobald man sich der ersten "Kante" nähert und darüber blicken kann. (kurz bevor die 2. Sekunde im Video beginnt)
Obwohl oder gerade weil der Rest des Bildes schon sehr ruhig gefiltert wird stört mich bei deinem Video die flimmernde, grieselige Bodentextur besonders.
Ich habe selber eine HD5770 aus Kostengründen und mich stört der anisotrope Filter regelmäßig!
Ich spiele gerade Mass Effect 2 und habe stellenweise Mühe das Banding und Grieseln (nicht mit dem Movie Griesel Filter verwechseln!) zu übersehen um mich auf den Spielinhalt zu konzentrieren.
Vielleicht stelle ich auch noch ein Video online...
Dr. Cox
2010-07-01, 21:49:19
Wenn man jeden Tag bei McDonalds isst, stumpfen die Geschmacksnerven ab und weis gutes Essen nicht mehr zu schätzen. ^^
Und wenn man zu lange mit ATI-Karten spielt stumpft langsam der Sehnerv ab und man weiß gute AF nicht mehr zu schätzen ;) :freak: :D
Dimon
2010-07-01, 22:01:28
wenn du das von dir zitierte filmchen meinst kein wunder,denn das ist auch Dimons sein.
nö kann nicht sein.
Mach mal die selbe Szene wie ich sie gemacht habe, dort fällt der AF Filter am meisten auf.
Gruß
Und wenn man zu lange mit ATI-Karten spielt stumpft langsam der Sehnerv ab und man weiß gute AF nicht mehr zu schätzen ;) :freak: :D
Irgendwie wäre das gut. ;) Ist aber nicht so, eben weil es in der Realität weder Banding noch einen grieselnden Weg zur Arbeit oder sonstwohin gibt. Die Realität ist die Referenz, das anzustrebende Vorbild, der Reference Rasterizer. Und an dem ist Nvidia momentan näher dran.
MfG,
Raff
Irgendwie wäre das gut. ;) Ist aber nicht so, eben weil es in der Realität weder Banding noch einen grieselnden Weg zur Arbeit oder sonstwohin gibt. Die Realität ist die Referenz, das anzustrebende Vorbild, der Reference Rasterizer. Und an dem ist Nvidia momentan näher dran.
MfG,
Raff
In der realen Welt gibt es durchaus üble Flimmer-Sachen fürs Auge. Achte bspw. mal auf Zäune mit filigranen Drähten (Maschendraht sollte gehen) wenn du durch zwei Zäune die nicht parallel zueinander laufen, also irgend ne Zaun-Ecke, schaust. Da gibt es Konstruktionen von denen mir persönlich schwindelig wird wenn ich es zu sehr provoziere.
Oder nimm Pappeln mit Wind und Sonnenschein... ;)
Das ist aber ein anderes Flimmern. Alles, was von der Realität abweicht, ist prinzipiell falsch.
MfG,
Raff
Das ist aber ein anderes Flimmern. Alles, was von der Realität abweicht, ist prinzipiell falsch.
MfG,
Raff
Absolut no! Aber das sprengt jetzt den Rahmen hier und für diesen Abend, vielleicht mal zu einer anderen Zeit ein extra Thread dazu :)
derguru
2010-07-01, 23:02:07
Mach mal die selbe Szene wie ich sie gemacht habe, dort fällt der AF Filter am meisten auf.
Gruß
ja ich hab die stelle gefunden,ich mache morgen dann mit einer nv und einer ati ein filmchen dazu.
mir ist dein nv vid dazu eh schon ein bissel zu ruhig für stinknormales aa.;)
corvus
2010-07-02, 07:09:27
Versteh ich jetzt nicht "zu ruhig"?
Irgendwie wäre das gut. ;) Ist aber nicht so, eben weil es in der Realität weder Banding noch einen grieselnden Weg zur Arbeit oder sonstwohin gibt. Die Realität ist die Referenz, das anzustrebende Vorbild, der Reference Rasterizer. Und an dem ist Nvidia momentan näher dran.
MfG,
Raff
Totaler Quatsch ! Zeige mir in der "freien" Natur eine "Ansicht" wo es mit der Entfernung "Schärfer" wird . Und schon mal "hitzeflimmern" gesehen ?
Gescheige denn aus dem fahrenden Auto mal auf den Asphalt unter dir gesehen ?
Also langsam werden hier abstruse Behauptungen aufgestellt.
Wird langsam wieder Zeit diese Scheiss Polemik abzustellen.
Junge, zeig mir in der Realität nur eine geteerte Straße, eine Wiese oder einen Kiesweg, auf dem man beim Laufen perfekt parallel ausgerichtete Banden vor sich herschiebt, die mehr oder minder vor einem herflimmern. So etwas gibt es nicht, da die Realität nicht zugunsten hoher Fps billig gefiltert wird. ;)
Was hat das mit Hitzeflimmern oder feinem Geäst zu tun? Diese Effekte gibt's in Spielen ebenfalls schon länger, völlig unabhängig von den Artefakten durch mangelhafte Texturfilterung. Flimmern ist nicht gleich Flimmern.
MfG,
Raff
corvus
2010-07-02, 09:37:06
Wenn hier 2/3 wüßten was "flimmern" ist, wären die Threads nur 1/3 so groß..... :-)
Iruwen
2010-07-02, 11:03:18
Wenn man besoffen vor 'ne Tür knallt flimmerts auch kurz :rolleyes:
derguru
2010-07-02, 11:46:19
Hallo,
die Kantenglättung der Bäume und Filterung der Transparenzen ist in deinem Video wirklich gut und deutlich besser als in Dimons Video.
Die Schwächen des anisotropen Filters treten in deinem Video an der Bodentextur jedoch wesentlich deutlicher in den Vordergrund!
Von der ersten Bewegung an war mein Blick auf den unruhigen Untergrund gelenkt.
Besonders stark sieht man die Bugwelle(n) und die Unruhe in der Bodentextur sobald man sich der ersten "Kante" nähert und darüber blicken kann. (kurz bevor die 2. Sekunde im Video beginnt)
Obwohl oder gerade weil der Rest des Bildes schon sehr ruhig gefiltert wird stört mich bei deinem Video die flimmernde, grieselige Bodentextur besonders.
Gruß
das liegt teilweise auch am spiel oder wahrscheinlich an den hd texturen das der boden unruhig ist,siehe das
HQAF16
http://www.megaupload.com/?d=H2YCVBHN
Mach mal die selbe Szene wie ich sie gemacht habe, dort fällt der AF Filter am meisten auf.
Gruß
einmal mit nv und einmal mit ati,
http://www.megaupload.com/?d=IAD0LAM2
http://www.megaupload.com/?d=AVDV2M68
Versteh ich jetzt nicht "zu ruhig"?
ganz einfach,dieses setting stimmt von dimon nicht denn das ist kein stinknormales AA siehe zitiertes,wenn man schon vergleicht sollten die settings zwischen den beiden karten identisch sein und nicht bei nv noch zusätzlich tmsaa haben um das bild ruhiger wirken zu lassen,selbst wenn das im grunde mit af nichts zutun hat,eigentlich sieht das so aus.http://www.megaupload.com/?d=5WO9BRZQ
Hier die Videos :rolleyes:
Fallout3 NV 4xFSAA + 16xAF (Wiese)
http://www.megaupload.com/?d=H6ES6U0Y
Megamember
2010-07-02, 11:47:46
Oh Mann wenn jetzt die Ati-Boys schon kommen und ihr "Flimmer" damit rechtfertigen das es in real auch Hitzeflimmern gibt und mit irgendwelchen Kieselsteinen kommen dann kann ich nur...
http://www.abload.de/img/upicard155h.gif (http://www.abload.de/image.php?img=upicard155h.gif)
ganz einfach,dieses setting stimmt von dimon nicht denn das ist kein stinknormales AA siehe zitiertes,wenn man schon vergleicht sollten die settings zwischen den beiden karten identisch sein und nicht bei nv noch zusätzlich tmsaa haben um das bild ruhiger wirken zu lassen,selbst wenn das im grunde mit af nichts zutun hat,eigentlich sieht das so aus.http://www.megaupload.com/?d=5WO9BRZQ
Da frag ich mich wozu macht er das? Da könnte man bei ATI ja die SGSSAA-Keule auspacken und behaupten es ist ganz normales AA.
corvus
2010-07-02, 12:44:50
ganz einfach,dieses setting stimmt von dimon nicht denn das ist kein stinknormales AA siehe zitiertes,wenn man schon vergleicht sollten die settings zwischen den beiden karten identisch sein und nicht bei nv noch zusätzlich tmsaa haben um das bild ruhiger wirken zu lassen,selbst wenn das im grunde mit af nichts zutun hat,eigentlich sieht das so aus.http://www.megaupload.com/?d=5WO9BRZQ[/QUOTE]
Nochmal?
Was vergleichst du denn jetzt überhaupt..ne HD4 mit ner HD5?
Oder ATI mit NV?
Soll ich denn jetzt, wenns überhaupt geht meine NV zum flimmern bringen nur damit es auch flimmert oder wie......so langsam gehts los.
Stell deine ATI bestmöglich ein damit es nicht flimmert und die NV Leute machen das auch.
Und wo es dann flimmert dann flimmerts eben... meine Herren echt.
corvus
2010-07-02, 12:51:14
Da frag ich mich wozu macht er das? Da könnte man bei ATI ja die SGSSAA-Keule auspacken und behaupten es ist ganz normales AA.
ja und?
Ne HD5 kann das eben in DX9, warum nicht nutzen und warum verheimlichen....genauso ein Blödsinn.
Ich stell doch meinen Kram bestmöglich ein was die Karte hergibt.
Da frag ich mich wozu macht er das? Da könnte man bei ATI ja die SGSSAA-Keule auspacken und behaupten es ist ganz normales AA.
Naja entweder war es Absicht oder einfach nur ein Fehler, da man das eine im Treiber und das andere im Spiel einstellt, hat er es vieleicht nur vergessen. Genauso kann man natürlich derguru fragen, warum er als erstes Video extra eine Szene gewählt hat, in der das schlechte AF aufgrund der Objektverteilung besonders wenig auffällt.
Das Gute ist allerdings, dass man nun ein sehr stimmiges Fazit ziehen kann. Selbst auf dem Video von derguru mit 4xMSAA und 16xHQ-AF bei Nv gibt es nicht das geringste AF-Flimmern alles ist 100%ig sauber gefiltert. Natürlich flimmern die Kanten alle wie verrückt, da 4xMSAA für dieses Spiel eindeutig zu wenig ist, dass entscheidende ist aber, es gibt nur Flimmern an Objektkanten und nirgendwo sonst.
Beim Ati Video mit 8xAAA und 16AF von derguru hingegen kann man ein deutliches Flimmern auf der Wiese erkennen und man sieht auch die Welle die man vor sich her schiebt. Im Vergleich zum Video von Dimon scheint sich das Flimmern auf der Wiese lediglich weiter nach hinten verschoben zu haben. Dadurch ist die flimmernde Fläche natürlich kleiner und es fällt nicht ganz so stark auf. Entweder liegt dies am offensichtlich fehlenden AAA bei Dimon oder daran, das die HD5xxx doch schon etwas besser filtern als die HD4xxx.
Insgesammt kann man festhalten, dass AAA hier keinesfalls das Flimmern beseitigt, wenn dann allenfalls verringert. Ich denke in einigen Szenen kann man dieses Flimmern wirklich übersehen, aber es gibt offenbar auch Szenen in denen man nicht drumherum schauen kann. Gerade da fängt das Problem an, denn wenn man es erstmal gesehen hat schaut man unbewusst immer wieder hin, dass ist genau wie bei Fehlerpixeln.
Captain Future
2010-07-02, 12:56:05
einmal mit nv und einmal mit ati,
http://www.megaupload.com/?d=IAD0LAM2
http://www.megaupload.com/?d=AVDV2M68
Das sind also vergleichbare Standardeinstellungen, samt gleicher in-Game-Settings?
DanielBeier44
2010-07-02, 12:57:28
Absolut no! Aber das sprengt jetzt den Rahmen hier und für diesen Abend, vielleicht mal zu einer anderen Zeit ein extra Thread dazu :)
mach dich mal nicht so wichtig noob
du bestimmst schon mal garnicht ob was wohin passt und man ein extra thread braucht
ja und?
Ne HD5 kann das eben in DX9, warum nicht nutzen und warum verheimlichen....genauso ein Blödsinn.
Ich stell doch meinen Kram bestmöglich ein was die Karte hergibt.
Ganz einfach ... weil die HD5xxx es in den meisten Spielen performancemäßig nicht schafft und man dann auch in Zukunft in allen Tests die Ati mit 4xRGSSAA und 16AF gegen eine NV mit 16CSAA und 16AF HQ antreten lassen müsste. Nur dann hätte Ati wohl nen größeres Problem mit der Balkenlänge.
corvus
2010-07-02, 12:59:47
Man kann doch ne HD5 nicht mit ner HD4 vergleichen...da liegen Welten dazwischen.
Und wenn man in F3 inGame Tranz.aktiviert dann flimmert das eh wie Hulle, wie oft denn noch?
Mit ne HD5 knall ich da SGSSAA rein und Ruhe ist bei "beiden" Flimmern.
ja und?
Ne HD5 kann das eben in DX9, warum nicht nutzen und warum verheimlichen....genauso ein Blödsinn.
Ich stell doch meinen Kram bestmöglich ein was die Karte hergibt.
Es geht hier aber um einen AF Vergleich. Da braucht man nicht, das eh schon bessere AF, noch zusätzlich durch einen Filter aufwerten.
Ich persönlich bin auch für ein besseres AF bei ATI. Ich nutze aber trotzdem ATI weil ich in der glücklichen lage bin, durch Crossfire, immer SGSSAA in DX 9 oder Downsampling in DX 10 oder höher nutzen zu können.
derguru
2010-07-02, 13:02:09
Nochmal?
Was vergleichst du denn jetzt überhaupt..ne HD4 mit ner HD5?
Oder ATI mit NV?
Soll ich denn jetzt, wenns überhaupt geht meine NV zum flimmern bringen nur damit es auch flimmert oder wie......so langsam gehts los.
Stell deine ATI bestmöglich ein damit es nicht flimmert und die NV Leute machen das auch.
Und wo es dann flimmert dann flimmerts eben... meine Herren echt.
er soll die settings schreiben die er auch gewählt hat und nicht so tun das mit stinknormalem aa so ein ruhiges bild zustande kommt.
Das sind also vergleichbare Standardeinstellungen, samt gleicher in-Game-Settings?
jep. 8TMSAA+16AF bei NV mit HQAF
corvus
2010-07-02, 13:02:53
Ganz einfach ... weil die HD5xxx es in den meisten Spielen performancemäßig nicht schafft und man dann auch in Zukunft in allen Tests die Ati mit 4xRGSSAA und 16AF gegen eine NV mit 16CSAA und 16AF HQ antreten lassen müsste. Nur dann hätte Ati wohl nen größeres Problem mit der Balkenlänge.
Was ein Quark ich hab zig Monate ne HD5 gehabt und kein Spiel gefunden wo die Karte mit SGSSAA einbricht.
Und wenns um Balken geht anstatt um BQ müßt ihr euch woanders unterhalten.
Und vorallem dann auch DX9 Games bei beiden mit SGSSAA vergleichen aber ohne AF sonst stimmt der Balken auch wieder nicht :-)
corvus
2010-07-02, 13:08:58
er soll die settings schreiben die er auch gewählt hat und nicht so tun das mit stinknormalem aa so ein ruhiges bild zustande kommt.
jep.
Irgendwie versteh ichs immer noch nicht :D der hat doch ne HD4 damit bekommt er doch eh nie ein ruhiges Bild....oder hat er jetzt ne andere Karte?
Naja auch wurst...mir wirds zu warm ich geh jetzt bei die Käseköppe in den Biergarten :-)
Ronny145
2010-07-02, 13:17:14
Irgendwie versteh ichs immer noch nicht :D der hat doch ne HD4 damit bekommt er doch eh nie ein ruhiges Bild....oder hat er jetzt ne andere Karte?
Es geht hier um den AF Vergleich, da sind vergleichbare Einstellungen unabdingbar. Erst recht nicht kann man das Video mit settings deklarieren, die gar nicht stimmen. Dass man mit der HD5000 SSAA nutzen kann, ist dabei gar nicht die Frage. Man könnte auch ein Fallout Video mit 8xSGSSAA erstellen, es als 8xFSAA deklarieren und mit NVIDIA ohne SSAA vergleichen, wäre dann genauso sinnfrei als AF Vergleich.
Captain Future
2010-07-02, 13:18:19
er soll die settings schreiben die er auch gewählt hat und nicht so tun das mit stinknormalem aa so ein ruhiges bild zustande kommt.
jep. 8TMSAA+16AF bei NV mit HQAF
(Transparenz-MS) AAA im Spiel oder im Treiber?
derguru
2010-07-02, 13:19:23
(Transparenz-MS) AAA im Spiel oder im Treiber?
AAA ingame ,16AF(HQ)treiber.
Was ein Quark ich hab zig Monate ne HD5 gehabt und kein Spiel gefunden wo die Karte mit SGSSAA einbricht.
Und wenns um Balken geht anstatt um BQ müßt ihr euch woanders unterhalten.
Und vorallem dann auch DX9 Games bei beiden mit SGSSAA vergleichen aber ohne AF sonst stimmt der Balken auch wieder nicht :-)
Dann hast du wohl nicht gerade eine hohe Auflösung. Allerdings ist es auch nicht relevant, denn es gibt ja auch noch Leute die nicht mit einer HD5870 oder HD5850 unterwegs sind und bei denen reicht es dann eben nicht mehr. Hinzu kommt, dass man bei DX10 und 11 nur noch Downsampling nutzen kann, was nochmal mehr Fps kostet.
Wenn du hier nun schreibst es geht um BQ und nicht um Balken, dann zeigt mir das, dass du eben gar nichts verstanden hast. Es geht nämlich immer indirekt um die Balken, da es immer nur darum geht wie ich die beste BQ erreiche ohne das mein Balken unter einen gewissen Schwellenwert fällt.
Tatsache ist zur Zeit, dass man bei Ati RGSSAA + 16AF braucht um an Nv 16AF-HQ heranzukommen. Da gibt es nun 2 Probleme, erstens kann man das gar nicht in jedem Game mit jeder Ati-Karte schaffen und zweitens kann man die für RGSSAA verschwendete Power oftmals sinnvoller Nutzen. Es gibt eben eine Menge Spiele bei denen man den Unterschied zwischen 4/8xAA und RGSSAA nicht sieht.
Captain Future
2010-07-02, 13:29:53
AAA ingame ,16AF(HQ)treiber.
Danke! Wollte nur nach den ganzen Mißverständnissen hier sichergehen, dass ich jetzt mal vergleichbare Videos ansehen kann. :)
Dann hast du wohl nicht gerade eine hohe Auflösung. Allerdings ist es auch nicht relevant, denn es gibt ja auch noch Leute die nicht mit einer HD5870 oder HD5850 unterwegs sind und bei denen reicht es dann eben nicht mehr. Hinzu kommt, dass man bei DX10 und 11 nur noch Downsampling nutzen kann, was nochmal mehr Fps kostet.
Wenn du hier nun schreibst es geht um BQ und nicht um Balken, dann zeigt mir das, dass du eben gar nichts verstanden hast. Es geht nämlich immer indirekt um die Balken, da es immer nur darum geht wie ich die beste BQ erreiche ohne das mein Balken unter einen gewissen Schwellenwert fällt.
Tatsache ist zur Zeit, dass man bei Ati RGSSAA + 16AF braucht um an Nv 16AF-HQ heranzukommen. Da gibt es nun 2 Probleme, erstens kann man das gar nicht in jedem Game mit jeder Ati-Karte schaffen und zweitens kann man die für RGSSAA verschwendete Power oftmals sinnvoller Nutzen. Es gibt eben eine Menge Spiele bei denen man den Unterschied zwischen 4/8xAA und RGSSAA nicht sieht.
Tatsache ist das SGSSAA, nicht nur dank des negativen LOD, nVidia in Sachen BQ überlegen ist.
Wenn du jetzt die Probleme mit CryEngine ansprichst OK. aber wie viele Spiele nutzen diese denn?
hakercin
2010-07-02, 13:46:02
Cryengine ist doch viel zu lastig
Tatsache ist das SGSSAA, nicht nur dank des negativen LOD, nVidia in Sachen BQ überlegen ist.
Das LOD kann man unter DX9 anpassen...
Das LOD kann man unter DX9 anpassen...
Ja, mit dem Ergebnis das es matscht.
Tatsache ist das SGSSAA, nicht nur dank des negativen LOD, nVidia in Sachen BQ überlegen ist.
Wenn du jetzt die Probleme mit CryEngine ansprichst OK. aber wie viele Spiele nutzen diese denn?
Das bestreitet auch keiner, solange er ne Lupe zur Hand hat.
Aber was hat das mit dem Thema zu tun? Ati kann kein flimmerfreies Bild darstellen und das sieht man ohne Lupe, dazu muss man sich nur einmal die Videos von derguru ansehen. Nun kann man nicht mit dem RGSSAA Argument kommen (wobei ich dazu noch keine Videos gesehen habe, ob damit wirklich jegliches Flimmern beseitigt wird), denn dann verschenkt man mindestens 30% der Fps und bei vielen Spielen erhält man dadurch eben keinen sichtbaren BQ-Vorteil (außer der Beseitigung des Flimmerns) und genau darum geht es. 30% weniger Fps für nichts, wer würde denn bitte noch eine Ati-Karte kaufen, wenn diese 30% schon im Test fehlen würden?
y33H@
2010-07-02, 14:05:21
Tatsache ist das SGSSAA, nicht nur dank des negativen LOD, nVidia in Sachen BQ überlegen ist.Kannst du bei NV auch, ergo Patt. Und worauf bezieht sich das "nicht nur"? AMD kann nicht mehr als NV, bei NV aber musst du für's AA-Forcen die Exe nicht renamen - bei AMD und Steam hast du nämlich verloren. Tatsache ist also, dass NV hier mehr bietet. Hinzu kommt OGSSAA, xS und HQ-AF sowie PhysX ...
Dimon
2010-07-02, 14:38:08
er soll die settings schreiben die er auch gewählt hat und nicht so tun das mit stinknormalem aa so ein ruhiges bild zustande kommt.
Was für ein Blödsinn, alle Einstellungen waren 4xAA (Ingame), 16xAF (Ingame) und AAA (Auch Ingame)
Übrigens Ruckelt dein ATI Video wie die Hölle (gesamtes Video 4 frames) (Achte auf die FPS !!!), das NV Video läuft bei mir dagegen einwandfrei ;)
Ich weiss nicht was du hast, aber deine ATI HD 58xx scheint besser zu filtern wie die gesamte HD 4xxx reihe, freu dich!
derguru
2010-07-02, 14:45:00
Was für ein Blödsinn, alle Einstellungen waren 4xAA (Ingame), 16xAF (Ingame) und AAA (Auch Ingame)
Übrigens Ruckelt dein ATI Video wie die Hölle (gesamtes Video 4 frames) (Achte auf die FPS !!!), das NV Video läuft bei mir dagegen einwandfrei ;)
wiederstand ist zweckslos. :ulol3:
Dimon
2010-07-02, 14:50:20
wiederstand ist zweckslos. :ulol3:
Ja bei dir :rolleyes:
derguru
2010-07-02, 14:56:27
@derguru
Hier die Videos :rolleyes:
Fallout3 ATI 4xFSAA + 16xAF (Wiese) 1*
http://www.megaupload.com/?d=G3I67RK4
Fallout3 NV 4xFSAA + 16xAF (Wiese) 2*
http://www.megaupload.com/?d=H6ES6U0Y
Fallout3 ATI + EDGE (24x) + AAA (Wiese) 3*
http://www.megaupload.com/?d=PMTC4SC0
Fallout3 NV 4xFSAA + TSAA + 16xAF (Wiese) 4*
http://www.megaupload.com/?d=ZVV48JC2
1* falsch sollten 4xTMSAA sein
2* das gleiche wie oben
3* hier greift absolut nichts
4*TSAA geht gar nicht also selbe wurst wie in 2*
wie gesagt wiederstand ist zweckslos. X-D
Dimon
2010-07-02, 15:01:08
1* falsch sollten 4xTMSAA sein
2* das gleiche wie oben
3* hier greift absolut nichts
4*TSAA geht gar nicht also selbe wurst wie in 2*
wie gesagt wiederstand ist zweckslos. X-D
Aha und deine sind absolut einwandfrei? Deine ATI filtert zu sauber in dem Spiel, AA ist deutlich höher wie bei NV....
Wie gesagt, die 2 ersten Videos sind alles ingame einstellungen, die 2 anderen sind per Treiber forciert :rolleyes:
Ich glaube das du hier ein wenig bescheißen willst :eek:
derguru
2010-07-02, 15:17:14
und wie meine absolut einwandfrei sind und lass deine billigen unterstellungen.lerne erstmal zu erkennen was du überhaupt im treiber oder ingame einstellst bevor du so ein murks postest und fehler einsehen ist wohl ein fremdwort für dich,ende der diskussion.
Dimon
2010-07-02, 15:24:31
Mir ist ein Rätsel wieso du jemanden was unterstellst absichtlich falsche Videos auszustellen und deinen gegenbeweis gleich dazu lieferst, meine Absicht war nur zu beweisen was ich behauptet habe, mehr nicht, deine absicht zielt darauf andere zu diskreditieren ....
Dimon
2010-07-02, 15:57:23
Alle Einstellungen sind im Ingame Eingestellt:
8xAA/16xAF/AAA
Video 1
http://www.megaupload.com/?d=QYK27Q7R
Video 2
http://www.megaupload.com/?d=6PO2KOB9
Nun beurteilt bitte die Videos, Pest wollte das ganze auswerten.
Gruß
boxleitnerb
2010-07-02, 16:13:40
1. Warum unterschiedliche Container/Dateigrößen? Die Videos sind neu, ja?
2. Stelle ist etwas ungeschickt für AF-Untersuchungen, weil links der Wagen steht und rechts die Büsche den Boden recht gut verdecken. In meiner Erfahrung fällt das Flimmern auf Bodentexturen am stärksten auf.
3. Video ist etwas kurz
4. 1=NV, 2=AMD
5. Kann es sein, dass da bei dir wirklich ein Treiberproblem ist? Bei guru flimmern die Hügel im Hintergrund nicht so heftig. Imo ist das auch eine ganz andere Art des Flimmerns wie die, die wir hier untersuchen wollen. Dass da was schiefläuft, scheint offensichtlich.
Dimon
2010-07-02, 16:54:45
1. Warum unterschiedliche Container/Dateigrößen? Die Videos sind neu, ja?
Ja die Videos sind neu, und ja eine ist eine MKV datei, das ganze wurde auf 2 verschiedenen PC´s aufgenommen.
2. Stelle ist etwas ungeschickt für AF-Untersuchungen, weil links der Wagen steht und rechts die Büsche den Boden recht gut verdecken. In meiner Erfahrung fällt das Flimmern auf Bodentexturen am stärksten auf.
Ok welchen Platz willst du haben, ich finde der Platz ist gut gewählt, da man das Flimmern doch recht deutlich sieht.
3. Video ist etwas kurz
Wie lang ungefähr solls sein?
5. Kann es sein, dass da bei dir wirklich ein Treiberproblem ist? Bei guru flimmern die Hügel im Hintergrund nicht so heftig. Imo ist das auch eine ganz andere Art des Flimmerns wie die, die wir hier untersuchen wollen. Dass da was schiefläuft, scheint offensichtlich.
Guru besitzt eine HD5850/5870 ich eine HD4890, Treiber sind absolut neu, grad aufgespielt (Catalyst 10.6), ich wüsste nicht wo der fehler sein sollte, das Spiel kann ich von mir aus neu Installieren, wird aber aufs selbe rauskommen, da ich das schon so erlebt habe...
Hat den keiner eine HD4xxx mit Fallout 3? Um mir zu bestätigen das ich keinen fehler habe...
Gruß
boxleitnerb
2010-07-02, 17:16:08
Ich denke, eine Stelle, wo man gute Sicht auf den Boden hat (auf breiterer Front), ist gut geeignet. Muss nicht unbedingt ganz flach sein, aber halt kaum Gräser oder sowas, die die Bodentextur verdecken.
Du meinst das Flimmern im Hintergrund, richtig? Weil ehrlich gesagt tu ich mich schwer, auf der Straße und dann links, wenn man am Waggon vorbei ist auf dem Boden Flimmern zu erkennen - da wo ich es eigentlich erwarten würde. Siehe Raffs Crysis Videos. Das im Hintergrund an den Hügeln ist meiner Meinung nach was anderes. Nur was...?
Also mindestens 10 Sekunden, besser 15. Und wenn möglich nur geradeaus laufen.
@Dimon
Ein Video ist sinnlos, wir brauchen eine größere Stichprobe (4 versch. Stellen), aber ich danke dir erstmal dafür
andererseits weiß ich nun selber nicht so richtig ob das was du tust korrekt ist :?
5-10 sek. reichen imo
@boxverleib, du sollst auch nicht sagen, was was ist, sondern was du besser findest :rolleyes:, das Sample ist damit im Eimer, da freut sich der Dimon
http://en.wikipedia.org/wiki/Blind_experiment
ich würde dann auch einen extra-Thread aufmachen
boxleitnerb
2010-07-02, 17:47:32
Wo ist denn der Unterschied? Ich weiß ja nicht mit Sicherheit, was was ist. Könnte ja theoretisch auch andersrum sein ;)
ja könnte, ist aber für den Test erstmal unerheblich, es würde einen Bias einfügen
und um dies zu vermeiden, macht man ja einen Blindtest
es geht mir auch nicht darum rauszufinden wer das bessere AF hat, sondern ob es statistisch signifikant ist
http://de.wikipedia.org/wiki/Statistische_Signifikanz
Also ich seh den Unterschied def. Da brauch ich keinen doppelten Blindtest dafür.
Also ich seh den Unterschied def. Da brauch ich keinen doppelten Blindtest dafür.
Wobei ich sowas wie bei ihm aufem AMD Video noch nie gesehen habe . Weder bei der HD4k , noch bei der HD5k Reihe , geschweige den bei Nvidia .
Iwas ist komisch da und das ist definitiv kein normales Flimmern worüber hier diskutiert wird ....
Also ich seh den Unterschied def. Da brauch ich keinen doppelten Blindtest dafür.
du wärst nur Teil einer Teststatistik :wink::tongue:
Du meinst nur weil es den Durchschnitt nicht juckt müssen die, die es ärgert darauf verzichten obwohl es optional wäre?
die die es juckt können dann etwas weniger laut schreien, aber ich seh schon...
ist wahrscheinlich eh sinnlos sowas durchzuführen, war grad schon daran mich einzulesen...
lassen wirs einfach @guru, @dimon
die die es juckt können dann etwas weniger laut schreien
Wieso? Und ich schreie nicht. Ich sage nur was ich denke und was mich seit Jahren ärgert.
Iwas ist komisch da und das ist definitiv kein normales Flimmern worüber hier diskutiert wird ....
Ich habe mir das gerade angeschaut und wüsste nicht was es sonst sein soll.
Das ist auch einfach zu überprüfen: Wenn es ohne AF an der Stelle nicht flimmert, ist es eindeutig.
Wieso? Und ich schreie nicht. Ich sage nur was ich denke und was mich seit Jahren ärgert.
ich habe nicht dich gemeint
mir ging es um die neutrale Frage ob man subjektiv ein Beispiel-Video von ATI signifkant schlechter findet, als eins von NV
da ich mir allerdings vorstellen kann, das die, die mitmachen dann eh mit der Nase vorm Monitor kleben bringt das wirklich nicht viel, nur mir mehr Arbeit
und ich sollte auch für meine Klausuren üben...danke ;)
OgrEGT
2010-07-02, 18:57:38
Also ich hab mir die Videos von derGuru angesehen, und ich muss euch recht geben, das NV Bild ist ein wenig besser als das der ATI.
Aber bitte der Unterschied ist nun wirklich nicht der Rede wert, bzw. sich deshalb derart die Köpfe einzuschlagen.
Das ist wirklich Rosinenpickerei auf allerhöchstem Niveau.
Da fällt mir wieder (ich glaube HQHQ's wars) das Zitat ein, dass man sich auch streiten könnte ob Lego oder Playmobil besser ist. :freak:
LovesuckZ
2010-07-02, 19:03:27
Quatsch. Wenn man mit Karte a Playmobil und Lego erhält und mit Karte b nur Playmobil, dann kann man doch nicht sagen: Da ja eigentlich Lego und Playmobil gleich gut sind, dann braucht man ja nur Playmobil...
N0Thing
2010-07-02, 19:05:52
mir ging es um die neutrale Frage ob man subjektiv ein Beispiel-Video von ATI signifkant schlechter findet, als eins von NV
da ich mir allerdings vorstellen kann, das die, die mitmachen dann eh mit der Nase vorm Monitor kleben bringt das wirklich nicht viel, nur mir mehr Arbeit
und ich sollte auch für meine Klausuren üben...danke ;)
Ich hoffe du kannst dich dich noch zu einer Auswertung motivieren. Daß hier im Grafikchips-Forum viele den Unterschied direkt sehen, macht meiner Meinung nach den gesamten Test nicht überflüssig, sondern wäre trotzdem mal seit langem eine Aktion, die auf einem hohen Niveau ablaufen könnte.
Vielleicht kann man die Aktion auch über die Hauptseite kommunizieren, dann fällt der Einfluß der Hardcore-Nerds ein wenig geringer aus, als eine reine Foren-interne Untersuchung.
Aber ich bin nachher nicht schuld, wenn deine Klausuren nicht so dolle waren. :wink:
Blaire
2010-07-02, 19:06:53
einmal mit nv und einmal mit ati,
http://www.megaupload.com/?d=IAD0LAM2
http://www.megaupload.com/?d=AVDV2M68
Auch da seh ich deutliche Unterschiede, der Hintergrund grieselt mehr auf Ati,die Straße im Vordergrund ebenso. Ob es störend ist oder nicht, man sieht es wenn man genauer hinsieht.
Captain Future
2010-07-02, 19:10:09
Ich kann das MKV leider gar nicht ansehen.
@Nothing
gut für einen kleinen Test habe ich noch Zeit, wir machen es etwas anders, und ich nehm die beiden Samples von Guru
N0Thing
2010-07-02, 19:15:22
Ich kann das MKV leider gar nicht ansehen.
Mit dem Codec Pack CCCP (http://www.cccp-project.net/) kann ich das Video abspielen, also müßte man mit FFDShow r3065 die MKV Datei abspielen können.
N0Thing
2010-07-02, 19:19:47
@pest
Prima, ich hoffe deine Mühen werden gewürdigt und vielleicht kann einer der mitlesenden 3dCenter-Member dafür sorgen, daß auch auf der Hauptseite der Test erwähnt und verlinkt wird.
nicht gleich übertreiben, wir spielen nur ;) - ich schreibe in den nächsten 2wo 6 klausuren
edit: Thread ist erstellt, bitte mitmachen :)
LovesuckZ
2010-07-02, 19:21:06
einmal mit nv und einmal mit ati,
http://www.megaupload.com/?d=IAD0LAM2
http://www.megaupload.com/?d=AVDV2M68
Welche AMD Karte ist das?
derguru
2010-07-02, 19:30:19
Auch da seh ich deutliche Unterschiede, der Hintergrund grieselt mehr auf Ati,die Straße im Vordergrund ebenso. Ob es störend ist oder nicht, man sieht es wenn man genauer hinsieht.
na sicher sieht man den unterschied,hat doch keiner das gegenteil behauptet aber lass das deutlich weg,das hat so ein bestimmten unterton.;)
richtig auffällig ist es eigentlich nur da.
http://www.abload.de/img/auffllighz40.png
Welche AMD Karte ist das?
5850 und bei der nv 8800gt.
LovesuckZ
2010-07-02, 19:34:36
Also das ist dann kein "Meckern auf höhstem" Niveau. Vorallem der Hintergrund ist abartig.
dann gib deine Wertung ab ;)
Byteschlumpf
2010-07-02, 20:15:44
Die "Abartigkeit" ist mir allerdings auch nur nach langem Hinsehen im blauen Kasten aufgefallen. ;) Im Fenstergitter nach dem Wagen links ist das Bild bei NV auch besser.
Blaire
2010-07-02, 20:20:46
Die "Abartigkeit" ist mir allerdings auch nur nach langem Hinsehen im blauen Kasten aufgefallen. ;) Im Fenstergitter nach dem Wagen links ist das Bild bei NV auch besser.
Achtet auf den Vordergrund das ist auch sehr deutlich.
Byteschlumpf
2010-07-02, 20:27:47
Es grieselt IMO mehr als bei NV.
derguru
2010-07-02, 23:18:54
nochmal serious sam hd
edit:gleich kommen die vids ohne namen.
http://www.megaupload.com/?d=V9LBW5FN
http://www.megaupload.com/?d=KA3JHD00
http://www.megaupload.com/?d=VFIBCGEZ
boxleitnerb
2010-07-02, 23:22:58
Warum mit Namen?
Shit, jetzt lad ich schon...abort, abort! :D
Edit: Hast die Reihenfolge wenigstens verändert? Zum Glück hab ich vorher nicht darauf geachtet, welche Dateigröße zu welcher Datei gehört hat :)
Blaire
2010-07-02, 23:31:47
nochmal serious sam hd
Die Stelle eignet sich nicht so gut, um etwaiges Grieseln auszumachen.
boxleitnerb
2010-07-02, 23:34:11
Weil zu hell und das Muster recht hochfrequent ist?
Blaire
2010-07-02, 23:35:47
Weil zu hell und das Muster recht hochfrequent ist?
Viel zu grell jo.
derguru
2010-07-02, 23:36:21
Die Stelle eignet sich nicht so gut, um etwaiges Grieseln auszumachen.
ist kein wunschkonzert hier;) wenn ich mir auch noch die besonderen stellen aussuchen muss dann kann es erst recht nicht so tragisch sein.:wink:
boxleitnerb
2010-07-02, 23:52:08
Bewertung:
1: 5 Heftige Bugwelle über die gesamte Front, kein Flimmern
2: 4 Bugwelle, nicht ganz so ausgeprägt wie bei 1, aber mit Konzentration auch an den Seiten noch sichtbar, kein Flimmern
3: 1.5 Mit Mühe Ansätze einer Bugwelle sichtbar, kein Flimmern
Hä, jetzt wieder in diesem Thread?
ich würde sagen, der andere Thread
boxleitnerb
2010-07-03, 00:20:22
Hat das ein Mod verschoben? Komisch. guru hatte im Signifikanztestthread gepostet oder hab ich zuviel gesoffen?
derguru
2010-07-03, 00:33:37
ne ich hatte das hier gepostet,
@boxleitnerb
und was tippst du welche karte zu welcher nr. gehört?
zur auswahl gibts nv 16af default,nvHQ und ati default.
boxleitnerb
2010-07-03, 00:40:41
Nicht dass ich hier andere noch beeinflusse:
1: AMD
2: NV Q
3: NV HQ
Richtig?
derguru
2010-07-03, 00:46:28
sie haben post. :cop:
Ich habe ein neues, besseres Bandenkrieg-Save für Gothic 3 erstellt: http://www.1filesharing.com/mirror/MRQI8OG9/Gothic%203%20Bandenkrieg%202.0.rar
So sieht das in Bewegung aus (HD 5870, PCGH Ultra-Ini, 1.920x1.200, 8x MSAA + AAA, 16:1 AF mit A.I. Standard):
http://www.multiupload.com/UB4QM3K5H1
Brrr. Supersampling hilft erwartungsgemäß nicht.
MfG,
Raff
Blaire
2010-07-03, 04:41:05
Was willsten hören? Klarer gehts ja kaum noch.
Ich wollte jeden Zweifel beseitigen, dass es auch an den Schatten liegen könnte. Richtig, eindeutiger als in diesem Fall geht's nicht. Leichte Steigungen wie diese sind prädestiniert, um das zu zeigen.
Ich habe das Spiel gestern Abend/Nacht bestimmt 8 Stunden gezockt (X-D), in 2.560x1.600 mit 4x SGSSAA, optisch umwerfend ... aber immer wieder wirft dieser Mist die Immersion über den Haufen. ;(
MfG,
Raff
Kann es sein, dass die Atis bei Shift vor allem bei der Strecke London River . Extremes Banding aufweisen ?
Kommt mir bei meiner HD4850 so vor.
Mir ist auf meiner HD 5870 im Kurztest gestern Abend nichts wirklich Böses auf der Strecke aufgefallen – abgesehen davon, dass die Schatten designbedingt hässlich und flimmrig sind.
MfG,
Raff
Ist bei den Schatten wirklich sehr komisch. Auf der HD4850 sieht man zumindestens, wenn man mal vor dem Schatten von Gittern hält deutliche regelmäßige weiß-schwarze Streifen, die schön flimmern und .
Zwar ist dies nur ein Bild und kein Video, aber so in etwas sieht es aus und flimmert durchgängig .
http://www.abload.de/thumb/nfsshift03e6.png (http://www.abload.de/image.php?img=nfsshift03e6.png)
Am Schattenflimmern sind die Entwickler schuld, nicht Ati.
MfG,
Raff
derguru
2010-07-16, 23:14:06
nach langem suchen hab ich was gefunden wo es ein bissel mehr als sonst auffällt.:wink:
Dragensang NV 16AF HQ (http://www.megaupload.com/?d=8AWTJR9C)
Drakensang ATI 16AF (http://www.megaupload.com/?d=4LYD6ORG)
horn 12
2010-07-17, 15:39:32
@derguru
Warum bist auf GTX 470/480 umgestiegen?
Echt schneller als deine HD5850/5870-er Karte vorher?
Hätt ich bei Dir nicht sooo schnell gedacht.
Wünsch Dir was!:wink:
derguru
2010-07-17, 16:19:21
schneller ist die sowieso unter normalen settings,mal mehr mal weniger.ich hatte eigentlich gar nicht mehr vor bis zum herbst was neues zu kaufen aber dann kam ein relative günstiges angebot und ich musste zuschlagen.
das beste an der karte ist einfach sgssaa überall,kann ich endlich mal riddick genießen ohne heftiges shadergeflimmer.
http://www.abload.de/thumb/darkathena2010-07-1701q4aq.png (http://www.abload.de/image.php?img=darkathena2010-07-1701q4aq.png)
y33H@
2010-07-17, 16:22:20
Läuft Riddick flüssig? Das mit der aktuellen Engine ist mit der GTX280 bei so 15 Fps rumgegurkt :usad:
derguru
2010-07-17, 16:42:23
also bissel oc ist noch pflicht.ich spiele unter 1920*1200 4xsgssaa/16af im durchschnitt von 40-50fps aber hab auch nicht durchgehend beobachtet.
das beste an der karte ist einfach sgssaa überall,kann ich endlich mal riddick genießen ohne heftiges shadergeflimmer.
War vor kurzem kein Argument für dich.
Bioshock
2010-07-17, 17:19:57
War vor kurzem kein Argument für dich.
irren is menschlich ;)
Mfg
Nicht wenn man das Forum vollflamet wie müllig der GF100 ist. =)
derguru
2010-07-17, 17:36:54
War vor kurzem kein Argument für dich.
zeig mal wo das stand wenn du das schon behauptest dann mit quelle,apropo das ssaa tool gibt es noch nicht mal 2 monate.:wink:
Gothic 4 verspricht übrigens, ein Texturfilter-Test par excellence zu werden. Das gezeigte Material stellt rattenscharfe, hochauflösende Texturen zur Schau. Wurde auch mal Zeit, dass sich nach dem ganzen HDR- und Shader-Gedöns auf diesem Gebiet mal wieder etwas tut. Ich bin echt gespannt.
MfG,
Raff
Gothic 4 verspricht übrigens, ein Texturfilter-Test par excellence zu werden.
Als Radeon-User sollte man das sowieso boykottieren. Erst GPU-PhysX, das überhaupt nichts bringt, und dann auch noch flimmernde Texturen, anstatt angenehm weichen Content zu produzieren. :weg:
Das Spiel wird zwar PhysX nutzen, laut Jowood aber nur die CPU-Version (http://www.pcgameshardware.de/aid,763717/Gothic-4-Arcania-im-Hands-On-Test-Technik-Optik-und-Gameplay-Artikel-des-Tages/Rollenspiel-Adventure/Test/) – wie beim Vorgänger. Meinst du Mafia 2? ;)
MfG,
Raff
Fetter Fettsack
2010-07-21, 14:29:27
Wird der PhysX-Grad auch in Detailstufen wählbar sein?
Dr. Cox
2010-07-21, 22:05:23
Als Radeon-User sollte man das sowieso boykottieren. Erst GPU-PhysX, das überhaupt nichts bringt, und dann auch noch flimmernde Texturen, anstatt angenehm weichen Content zu produzieren. :weg:
Dann solltest du dir vielleicht einmal eine vernünftige Grafikkarte zulegen, dann flimmert da auch nichts mehr... ;) :freak:
crux2005
2010-07-24, 17:54:11
Heute habe ich meine HD 5870 mit einer HD 4870 vom Kumpel verglichen. In Crysis oder auch im 3Dc AF Tester von Coda sieht man kein AF-Banding beim RV770 gegenüber dem RV870. Ist das bekannt? Haben es nämlich nicht gewusst.
Ich muss Abbitte leisten. Auch wenn ich auf der Arbeit öfters mal verglichen habe, so muss ich doch sagen, dass meine Meinung sich seit Einbau einer GTX460 im heimatlichen Rechner meine Meinung geändert hat. Bei 16x HQ AF sieht NV in der Texturfilterung wirklich besser aus und man merkt es sogar während des Spiels. (hatte vorher entweder ne ATI drinne oder bei NV nur HQ AF auf 8x)
Ich wünschte, jeder der "Ich seh nix und du bist ein Nvidia-Fanboy"-Leute käme zu einer ähnlichen Einsicht wie du. =)
MfG,
Raff
Man muss auch ehrlich sein können. Wobei ich wirklich sagen würde, dass es erst mit 16xAF offensichtlich wird. Bei 8xAF finde ich es nicht so offensichtlich.
Scheiße. Einige Videos wurden mittlerweile gelöscht. Gibt's denn keine vernünftigen File Hoster, die den Kram länger als 10 Minuten am Leben lassen?
MfG,
Raff
Schlammsau
2010-09-06, 21:24:37
Nutz doch http://www.multiupload.com/ da sind die chancen am grössten.....
Dr. Cox
2010-09-06, 23:05:07
Ich muss Abbitte leisten. Auch wenn ich auf der Arbeit öfters mal verglichen habe, so muss ich doch sagen, dass meine Meinung sich seit Einbau einer GTX460 im heimatlichen Rechner meine Meinung geändert hat. Bei 16x HQ AF sieht NV in der Texturfilterung wirklich besser aus und man merkt es sogar während des Spiels. (hatte vorher entweder ne ATI drinne oder bei NV nur HQ AF auf 8x)
Endlich hat es mal ein ATI-Fan erkannt, weshalb wir anderen so ein großes Brimborium um die AF-Qualität machen :wink:
Hast du noch deine alte ATI-Grafikkarte bei dir liegen?
DrFreaK666
2010-09-06, 23:14:56
Endlich hat es mal ein ATI-Fan erkannt, weshalb wir anderen so ein großes Brimborium um die AF-Qualität machen :wink:
Hast du noch deine alte ATI-Grafikkarte bei dir liegen?
Was heisst hier endlich???
Was heisst hier endlich???
naja es gibt hier sogar leute unter den testern die sowas nicht sehen wollen.
DrFreaK666
2010-09-07, 00:25:12
naja es gibt hier sogar leute unter den testern die sowas nicht sehen wollen.
Aber V2.0 ist nciht dere erste AMD-User, der es sieht
Dr. Cox
2010-09-07, 10:03:50
naja es gibt hier sogar leute unter den testern die sowas nicht sehen wollen.
Da muss ich dir leider recht geben :up:
Aber V2.0 ist nciht dere erste AMD-User, der es sieht
Wer ist denn der erste AMD-User der den Unterschied sieht, ihn wahrnimmt und dann nicht leugnet? Etwa Schlammsau? :ulol3:
Also V2.0 ist bisher der erste AMD/ATI-User (ATI gibt es ja nicht mehr:freak:) bei dem mir auffällt, dass er sich vom unobjektiven ATI-Fan (ich sehe da kein Flimmmern, weil mein Monitor zu schlecht ist, etc...;D) zum objektiven und sachlichen User entwickelt hat. Was ich im übrigen sehr positiv finde ;)
Also V2.0 ist bisher der erste AMD/ATI-User (ATI gibt es ja nicht mehr:freak:) bei dem mir auffällt, dass er sich vom unobjektiven ATI-Fan (ich sehe da kein Flimmmern, weil mein Monitor zu schlecht ist, etc...;D) zum objektiven und sachlichen User entwickelt hat. Was ich im übrigen sehr positiv finde ;)
Damit ist er dir mindestens zwei Schritte voraus. Vielleicht schaffst es du ja auch mal zu einem sachlichen und objektiven User zu werden.
DrFreaK666
2010-09-07, 10:22:10
@Dr. Cox Ich bin AMD-Fan, hatte aber schon eine 8800GT und GTX260+. Denkst ich hab den HQ-Modus nicht getestet??
Dr. Cox
2010-09-07, 11:28:55
Damit ist er dir mindestens zwei Schritte voraus. Vielleicht schaffst es du ja auch mal zu einem sachlichen und objektiven User zu werden.
Nun, das bin ich schon, klingt komisch, ist aber so.
Für dich wahrscheinlich nur sehr schwer zu verstehen, da jede berechtigte Kritik an AMD-Grafikkarten für Leute wie dich wie eine Beleidigung der eigenen Mutter ist.
Aber es ist nur legitim AMD für bestimmte Versäumnisse in der Vergangenheit zu kritisieren. Das betrifft halt vorrangig die Treiberkompatibilität zu älteren und nicht so bekannten/populären Spielen, den Grey-Screen und eben die schlechte AF-Qualität, sowie Bevormundungen im Treiber. Das mag für jemanden deines Schlages - von denen es mir hier eindeutig zu viele gibt - nicht so sehr auffallen, da jemand wie du nur Grafikkarten von einem Hersteller hat. Wodurch dir die Vergleichsmöglichkeiten fehlen. Mir hingegen fehlen diese Vergleichsmöglichkeiten jedoch nicht, denn ich hatte sowohl die letzten Nvidia-Karten, als auch die letzten ATI-Karten in meinem PC. Ich habe vor zwei Jahren sogar drei unterschiedliche HD 4870-Karten gehabt.
Mir sind also die Schwächen und Stärken beider Hersteller bestens bekannt. Auch die HD 5870 und die GTX 470 habe ich bereits getestet. Die HD 5870 hatte die üblichen Probleme, wie ich sie von der HD 4870 noch kenne. Also ging sie wieder zurück. Und die GTX 470 war mir viel zu laut und zu heiß. Also ging auch diese wieder zurück. Nun warte ich wie viele andere auf bessere Karten, die meinen Ansprüchen gerecht werden. Von wem diese Karte kommt ist mir vollkommen egal.
Sie muss leise, stromsparend sein, ein gutes P/L-Verhältnis bieten, und insgesamt eine gute Bildqualität liefern. natürlich sollte auch der Treiber gut sein und mit älteren Spielen klar kommen.
Aktuell kann mir dies jedoch keiner bieten, weder AMD noch Nvidia. Ich würde immer Kompromisse eingehen, egal welche Karte ich nehme. Entweder AMD schafft es mit den nächsten Karten endlich einmal die schon seit Jahren bestehenden Kritikpunkte zu beseitigen, oder aber es kommt noch eine Karte von Nvidia, die deutlich leiser ist. Ansonsten muss ich eben mit dem Kauf noch warten...
Es ist nur immer mühselig ständig auf solche "Gäste" wie dich und ihre abstrusen und lächerlichen Behauptungen antworten zu müssen. Vielleicht sollte man im 3dcenter endlich einmal die Gast-Funktion deaktivieren. Denn sie eröffnet nur angemeldeten Usern das freie Herumtrollen und Flamen, ohne dass sie Angst vor einer Bestrafung haben müssen.
@Dr. Cox Ich bin AMD-Fan, hatte aber schon eine 8800GT und GTX260+. Denkst ich hab den HQ-Modus nicht getestet??
Und zu welcher Erkenntnis bist du dabei gekommen?
Armaq
2010-09-07, 11:32:39
Wenn ich jetzt sage, dass der Unterschied beim Wechsel 9800GTX+ zu HD4870 so gut wie keine Rolle edit: spielt. Wenn ich auf das Geschehen achte, fällt mir da nichts auf.
zum objektiven und sachlichen User entwickelt hat.
objektiv ist sicherlich nicht eine neue Graka einzubauen und zu behaupten, man sehe einen Unterschied.
Wer ist denn der erste AMD-User der den Unterschied sieht, ihn wahrnimmt und dann nicht leugnet?
Objektiv kann man durchaus sagen , das NV ein "fitzelchen Zitron von Schal" besser filtert.
But Right - es muss ja als "vernichtend","den Boden aufgewischt", "blutige Augen","augenkrebs", "das kann mann nicht Kaufen" beschrieben werden.
es ist traurig das dass Hardwareforum zu einem Spielplatz für traurige Trolle verkommen ist. Es ist also jeder verpflichtet sich "eurer" SUBJEKTIVEN Meinung anzuschliessen.
und diese scheint eben Schlagworte zu brauchen.
KINDERGARTENNIVEAU ! , Die Computerbild freut sich sicher über sowas.
Dr. Cox
2010-09-07, 12:24:07
objektiv ist sicherlich nicht eine neue Graka einzubauen und zu behaupten, man sehe einen Unterschied.
Weshalb soll das nicht objektiv sein? Etwa weil es um den Wechsel von einer ATI-Karte zu einer Nvidia-Karte geht?
Objektiv kann man durchaus sagen , das NV ein "fitzelchen Zitron von Schal" besser filtert.
Objektiv bedeutet: "Nvidia filtert sauberer, fast ohne Flimmern". Dies ist auch mehrfach bewiesen wurden, unter anderem von PCGH.
But Right - es muss ja als "vernichtend","den Boden aufgewischt", "blutige Augen","augenkrebs", "das kann mann nicht Kaufen" beschrieben werden.
es ist traurig das dass Hardwareforum zu einem Spielplatz für traurige Trolle verkommen ist. Es ist also jeder verpflichtet sich "eurer" SUBJEKTIVEN Meinung anzuschliessen.
und diese scheint eben Schlagworte zu brauchen.
Nunja, sicherlich gibt es solche Äußerungen, allerdings sind sie auf beiden "Seiten" zu finden.
KINDERGARTENNIVEAU ! , Die Computerbild freut sich sicher über sowas.
Glaubst du jetzt deine Kommentar wäre deutlich besser gewesen?
@Mods: Ich bleibe dabei, die Gastfunktion sollte ein für alle mal deaktiviert werden, da sie ausschließlich zum Trollen und Flamen missbraucht wird! Jeder der sich am Forum beteiligen möchte kann sich schließlich kostenlos anmelden ;)
DrFreaK666
2010-09-07, 12:35:37
...
Und zu welcher Erkenntnis bist du dabei gekommen?
Spiele flimmern wirklich weniger.
Aber das war mich kein Grund nicht doch wieder eine AMD-Karte zu kaufen
@Mods: Ich bleibe dabei, die Gastfunktion sollte ein für alle mal deaktiviert werden, da sie ausschließlich zum Trollen und Flamen missbraucht wird! Jeder der sich am Forum beteiligen möchte kann sich schließlich kostenlos anmelden ;)
Registrierte User Trollen und Flamen hier genauso viel wie Gäste. Ich persönlich finde dieses ewige rumgehacke auf den Gästen unnötig. Gerade die Möglichkeit als Gast zu posten macht dieses Forum so interessant, weil die meisten Leute keine Lust haben sich zu registrieren. Durch die Gäste hat man hier eine viel breitere Meinungsgrundlage.
Aber oftmals wenn einem registriertem User die Argumente ausgehen, kommt so etwas wie sperrt doch die Gäste. Es gibt natürlich auch Gäste die nur Trollen, aber da rate ich dir diese einfach zu ignorieren bzw. zu melden damit der Müll gelöscht wird.
Zum Thema: Es gibt natürlich Szenen in denen man den unterschied überhaupt nicht sieht, aber mit AA ist es ja genauso. In einigen Szenen ist es dann aber wieder grausam. Da Bildqualität für mich keine Lotterie ist, kommt mir keine Ati-Karte in den Rechner.
Registrierte User Trollen und Flamen hier genauso viel wie Gäste. Ich persönlich finde dieses ewige rumgehacke auf den Gästen unnötig. Gerade die Möglichkeit als Gast zu posten macht dieses Forum so interessant, weil die meisten Leute keine Lust haben sich zu registrieren. Durch die Gäste hat man hier eine viel breitere Meinungsgrundlage.
Aber oftmals wenn einem registriertem User die Argumente ausgehen, kommt so etwas wie sperrt doch die Gäste. Es gibt natürlich auch Gäste die nur Trollen, aber da rate ich dir diese einfach zu ignorieren bzw. zu melden damit der Müll gelöscht wird.
Zum Thema: Es gibt natürlich Szenen in denen man den unterschied überhaupt nicht sieht, aber mit AA ist es ja genauso. In einigen Szenen ist es dann aber wieder grausam. Da Bildqualität für mich keine Lotterie ist, kommt mir keine Ati-Karte in den Rechner.
Sehr schön gesagt. Hoffen wir einfach mal das ATI dem Flimmern entgegenwirkt, dann wäre ATI mehr als eine Überlegung wert.
Dr. Cox
2010-09-07, 16:17:37
Zum Thema: Es gibt natürlich Szenen in denen man den unterschied überhaupt nicht sieht, aber mit AA ist es ja genauso. In einigen Szenen ist es dann aber wieder grausam. Da Bildqualität für mich keine Lotterie ist, kommt mir keine Ati-Karte in den Rechner.
Es gibt tatsächlich einige Spiele, in denen das Flimmern nicht so stark auffällt, weil die Texturen selbst nicht so hoch aufgelöst und nicht so Detailreich sind, das stimmt. Die Spiele die ich jedoch hauptsächlich spiele, nutzen allerdings jene Texturen, bei denen dir das AF-Geflimmer ständig in die Augen springt...
Sehr schön gesagt. Hoffen wir einfach mal das ATI dem Flimmern entgegenwirkt, dann wäre ATI mehr als eine Überlegung wert.
Darauf hoffe ich auch, den ich möchte mir nur sehr ungern die Staubsaugersimulation aka GTX 470/480 in den PC stecken...
OgrEGT
2010-09-07, 19:24:52
@Dr. Cox
Wie siehts denn dann mit einer GTX460 aus? Deutlich leiser, kühler, günstiger als GTX 470/480 Konsorten, dabei aber Performance genug, bei gleich guter BQ.
@Dr. Cox
Wie siehts denn dann mit einer GTX460 aus? Deutlich leiser, kühler, günstiger als GTX 470/480 Konsorten, dabei aber Performance genug, bei gleich guter BQ.
Von einer GTX 280 (OC) auf eine GTX 460 upzugraden, lohnt sich aus Fps-Sicht nur, wenn SGSAA aktiv ist. Ansonsten nehmen sich die beiden nicht viel (mit leichten Vorteilen für die 460).
MfG,
Raff
DrFreaK666
2010-09-07, 19:47:08
Entweder zocke ich Games, bei denen nichts flimmert oder ich sehs nicht,da SGSSAA aktiv ist :biggrin:
Zum Glück gibts aktuell kein DX10/11-Game, das mich interessiert, was sich allerdings mit Two Worlds 2 ändern könnte...
Ich warte auf The Witcher 2. Und da man beim 1. Teil schon starkes Flimmern auf ATI beobachten konnte, wirds beim 2. Teil nicht anders sein. Witcher 2 wird natürlich mehr Rechenleistung als der 1. Teil verschlingen, und ich schätze mal mit SGSSAA wirds ne Ruckelorgie. (Auf ner Radeon 5850/70).
y33H@
2010-09-07, 19:58:48
Teil 2 nutzt eine andere Engine ...
ATI muss aus meiner Sicht um interessant (für mich) zu werden dieses Flimmern beheben. Denn SGSSAA kostet auch Leistung und kaschieren kann man bei älteren Games gut, die neuen Games sind Hardwarefordernd.
Ich meinte gelesen zu haben es wäre die aufgebohrte Engine vom 1.Teil? Naja, kann mich auch täuschen. Wie dem auch sei, was ich gesehen habe wird richtig Leistung fressen;)
Weshalb soll das nicht objektiv sein? Etwa weil es um den Wechsel von einer ATI-Karte zu einer Nvidia-Karte geht?
:confused:
ich bezweifle einfach ganz stark das er das objektiv so wahrnimmt,
das ist ein placebo-effekt denn nv muss ja besser filtern.
das es einen objektiven unterschied gibt bezweifle ich keinesfalls
Der böse Wolf
2010-09-07, 22:55:22
:confused:
ich bezweifle einfach ganz stark das er das objektiv so wahrnimmt,
das ist ein placebo-effekt denn nv muss ja besser filtern.
Du kannst das sicher nicht beurteilen.
OgrEGT
2010-09-07, 23:25:52
Von einer GTX 280 (OC) auf eine GTX 460 upzugraden, lohnt sich aus Fps-Sicht nur, wenn SGSAA aktiv ist. Ansonsten nehmen sich die beiden nicht viel (mit leichten Vorteilen für die 460).
MfG,
Raff
Naja, immerhin bekommt er dann auch noch DX11 dazu :)
Iceman346
2010-09-08, 12:57:07
Um mal wieder zum eigentlichen Thema zurück zu kommen ;)
Kann ein Nvidia User ein hochauflösendes Video vom Marktplatz in Denerim in Dragon Age machen? Am besten ein kurzer Laufweg vom Eingang in Richtung der Marktstände.
Der Untergrund dort flimmert auf einer 5870 selbst mit 4xSSAA noch leicht und ohne SSAA ists sehr böse und mich würd mal interessieren wie groß da ein eventueller Unterschied ist.
Banshee18
2010-09-08, 20:11:50
Der Untergrund dort flimmert auf einer 5870 selbst mit 4xSSAA noch leicht und ohne SSAA ists sehr böse und mich würd mal interessieren wie groß da ein eventueller Unterschied ist.
Hast du JBtextures installiert? Iirc verstärken die das Flimmern sehr deutlich. Das kann man selbst mit 4x4SSAA nicht komplett eliminieren. :freak:
Iceman346
2010-09-08, 20:24:02
Nope, hab kein Texturpack drauf, diese Steinboden-Textur flimmert schon im Ursprungszustand höllisch.
Ich frage mich was hier eigentlich diskutiert wird bzw. vielleicht besser gesagt warum und mit welcher Zielführung hier diskutiert wird. Abgesehen davon das einigen wohl ein bisschen mehr Real-Life gut zu Gesicht stehen würde, kann man feststellen, dass es hier um ein Thema geht was 99% der Gamer überhaupt nicht interessiert. Man kann das ja gerne bedauerlich finden, aber so ist die Realität. Wäre dieses Thema nur halb so wichtig wie es hier gemacht wird, hätte AMD schon längst reagieren müssen oder hätte am Markt wesentlich weniger Erfolg.
Letzendlich ist es auch hier nur wieder die alte selbe Biased-Sch... wie überall sonst auch und das trotz des zweifellos vorhandenen technischen Verständnises vieler User.
Besonders amüsant finde ich dann z.B. die NV-User die sich dann unter das Deckmäntelchen der Objektivität flüchten und doch allen ernstes behaupten, dass es ihnen ja nur darum geht ein Beitrag zur Verbesserung der AMD Produkte zu leisten. In Wahrheit geht es doch nur darum, dass es sein kann das sich AMD durch eine Unterfilterung ein paar Frames ergaunert und so das geliebte Produkt schlechter dasteht. Gleichzeitig wird man aber nicht müde zu betonen wie unwichtig doch Balkenlängen sind (es sei denn es geht schlecht für das "eigene" Produkt aus). Fakt ist doch es gibt Leute die mit der AF-Qualität wie sie AMD anbietet nicht zufrieden sind. Das ist ok und sicher teilweise auch berechtigt, aber es gibt halt auch 2 große Hersteller von gamingtauglichen Grafikkarten. Man hat die Wahl man wird nicht gezwungen eine AMD-Karte zu kaufen. Also kauft man sich dann eine NV-Karte und an diesem Punkt wäre das Thema eigentlich erledigt.
Shakti
2010-09-09, 03:10:54
Gibt auch Leute die grad mal 1600 Euro (defekte Karte nicht ersetzt da PCTweaker bankrott, neue von Netzteil geplonkt, und 2te 5970 soll jetzt eine Weile halten) in eine funktionierende ATI Graka versenkt haben und jetzt drauf hoffen, das ein Bastler ein besseres AF hinbekommt, weil ATI ja seit vielen Jahren es nicht macht.
Jop, es geht nur darum. Deshalb hab ich meinen Treiber auch grundsätzlich auf High Quality ;)
Ich frage mich was hier eigentlich diskutiert wird....
ein Thema was 99% der Gamer überhaupt nicht interessiert.
Man hat die Wahl man wird nicht gezwungen eine AMD-Karte zu kaufen. Also kauft man sich dann eine NV-Karte und an diesem Punkt wäre das Thema eigentlich erledigt.
Dir ist aber schon klar das es sich hier um ein Fachforum handelt und das der Bildqualität von Grafikkarten dementsprechend auch diskussionstechnisch eine höhere Relevanz zukommt.
Ich frag mich da eher wie man sich in einem Fachforum derartige Fragen stellen kann.
Ich gehe auch nicht in ein Fachforum, wo ich weiß das viele AV Enthusiasten dort diskutieren und sage den Leuten das 99% aller TV Käufer detaillierte Diskussionen um Einzelfaktoren und Schwachpunkte in der Bildqualität von Flat-TV's überhaupt nicht interessieren würden.
Wenn du dich zu den 99% Gamern zählst, denen die Bildqualität ihrer Grafikkarte am Arsch vorbei geht, dann bist du hier im falschen Forum, aber ganz sicher im falschen Thread gelandet.;)
Ich frage mich was hier eigentlich diskutiert wird bzw. vielleicht besser gesagt warum und mit welcher Zielführung hier diskutiert wird.
BILDQUALITÄT ist das Ziel
Abgesehen davon das einigen wohl ein bisschen mehr Real-Life gut zu Gesicht stehen würde
Omg....
kann man feststellen, dass es hier um ein Thema geht was 99% der Gamer überhaupt nicht interessiert.
Was machtst du hier?
Man kann das ja gerne bedauerlich finden, aber so ist die Realität. Wäre dieses Thema nur halb so wichtig wie es hier gemacht wird, hätte AMD schon längst reagieren müssen oder hätte am Markt wesentlich weniger Erfolg.
Tja... Die hätten richtig Druck bekommen sollen....
...
kleine Zeitreise für dich:
http://alt.3dcenter.org/artikel/g70_flimmern/
http://alt.3dcenter.org/artikel/neue_filtertricks/
NVIDIA hat was gelernt daraus.....
Jetzt ist Ati dran...
Letzendlich ist es auch hier nur wieder die alte selbe Biased-Sch... wie überall sonst auch und das trotz des zweifellos vorhandenen technischen Verständnises vieler User.
Hast du auch sowas?
Besonders amüsant finde ich dann z.B. die NV-User die sich dann unter das Deckmäntelchen der Objektivität flüchten und doch allen ernstes behaupten, dass es ihnen ja nur darum geht ein Beitrag zur Verbesserung der AMD Produkte zu leisten.
Hättest du nen Schaden davon, endlich "gutes AF" zu bekommen?
Bist bist nen Ati Boy oder?
In Wahrheit geht es doch nur darum, dass es sein kann das sich AMD durch eine Unterfilterung ein paar Frames ergaunert und so das geliebte Produkt schlechter dasteht.
Tja wenn der Rest OK wäre.... deaktiviere doch mal bitte die "Unterfilterungs-Option.....
OH geht ja garnicht -.-
Gleichzeitig wird man aber nicht müde zu betonen wie unwichtig doch Balkenlängen sind (es sei denn es geht schlecht für das "eigene" Produkt aus).
Tja.... ich bin ja ma gespannt, sollte der neue Radeon Chip, bissl mehr an Tess- Power haben - die war ja immer so unwichtig...
Man hat die Wahl man wird nicht gezwungen eine AMD-Karte zu kaufen. Also kauft man sich dann eine NV-Karte und an diesem Punkt wäre das Thema eigentlich erledigt.
Na mal sehn, vielleicht schaffts Nvidia ja auch langsam mal ihre Treiber zu "optimieren"....
Denke da sind schon noch nen "paar" Frames unter dem "Deckmäntelchen der Objektivität" drin -.-
Schlammsau
2010-09-09, 09:13:20
Das G70 AF-Flimmern kann man nicht mal ansatzweise mit dem der HD Serie vergleichen. :rolleyes:
Es geht ums Prinzip. So schwer kann das echt nicht sein, einen HQ-Schalter (mit optischen Auswirkungen, nicht nur einen Dummy ;)) einzubauen.
MfG,
Raff
Ich würd mich freuen, wenn der 6K AMD Chip mal bissl was zulegt bzgl. AF
Das es schwer ist hat ja auch niemand behauptet.
Das wird schon kalkuliert sein von ATI, man würde definitiv mehr Käufer verlieren durch in der Summe schlechtere Benchmarks im Vergleich zu Nvidia, als man Kunden gewinnen würde durch HQ AF.
Hohe Qualität beim AF kostet Geschwindigkeit und solange die auflagenstarke Fachpresse in der Breite nicht deutlich Druck erzeugt ercheatet man sich bei ATI auf Kosten der Bildqualität bessere Benchmarks.
Das es schwer ist hat ja auch niemand behauptet.
Das wird schon kalkuliert sein von ATI, man würde definitiv mehr Käufer verlieren durch in der Summe schlechtere Benchmarks im Vergleich zu Nvidia, als man Kunden gewinnen würde durch HQ AF.
Hohe Qualität beim AF kostet Geschwindigkeit und solange die auflagenstarke Fachpresse in der Breite nicht deutlich Druck erzeugt ercheatet man sich bei ATI auf Kosten der Bildqualität bessere Benchmarks.
Kann ja sein das ATI/AMD ihre Käufer als n00bz sieht...
FULL-HQ / STANDARD XD
Lass doch mal Nvidia auf die "Idee" kommen was gleichwertiges zu basteln....
Wetten da würden die Frames auch hochklettern......
Und die Flames auch XDD
Benchmark kannst dann NV-Low vs. AMD-Low (ai-off) ausmachen...
Das sollte bei multi-Gpu böse was ausmachen....
Das es schwer ist hat ja auch niemand behauptet.
Das wird schon kalkuliert sein von ATI, man würde definitiv mehr Käufer verlieren durch in der Summe schlechtere Benchmarks im Vergleich zu Nvidia, als man Kunden gewinnen würde durch HQ AF.
Hohe Qualität beim AF kostet Geschwindigkeit und solange die auflagenstarke Fachpresse in der Breite nicht deutlich Druck erzeugt ercheatet man sich bei ATI auf Kosten der Bildqualität bessere Benchmarks.
Man würde überhaupt niemanden verlieren, wenn man so vorginge wie Nvidia:
- Billig-AF ("optimiert") als Treiberstandard
- HQ-AF als Extra-Optionen
Gewinn auf ganzer Linie. ;) Dass dann einige auf die Idee kommen werden, HQ-AF-Vergleichsbenchmarks zu machen, lässt sich nicht vermeiden.
MfG,
Raff
Bevor ich mehrere hundert € für Grafikkarten ausgebe, informiere ich mich aber so gut wie irgend möglich über die Stärken und Schwächen der in Frage kommenden Produkte. Das die AF-Q bei AMD nicht erst seit der HD5k schlechter ist als bei NV, sollte doch gerade Leuten die in Foren dieser Art unterwegs sind klar sein und erst recht PCGH-Redakteuren. Sich aber trotzdem eine AMD-Karte zu kaufen, obwohl man um diese Schwäche weiß um dann hier rumzujammern ist einfach nicht ernstzunehmen.
Es gibt auch keine internationale Verschwörung der Presse wie hier einige male sugeriert wurde, um dieses Thema klein und unwichtig zu halten, sondern es ist nun mal nicht so wichtig wie es viele gerne hätten. Warum platzen den nicht die HW-Foren dieser Welt aus Empörung über die mangelhafte AF-Filterqualität von AMD-Karten aus allen Nähten, weil es anscheinend Millionen von zufriedenen AMD-Nutzern gibt, die es nicht sehen oder denen es schlicht egal ist. Solange es einen Hersteller gibt der die von euch gewünschte AF-Q bietet kann es euch doch egal sein was AMD macht. Hier geht es nicht um das Prinzip, was mit Verlaub gesagt lächerlich ist, sondern es geht um die eigenen Ansprüche die man gerne zu den Ansprüchen aller machen will. Ich fühle mich nicht für die Ansprüche anderer zuständig. Jeder kann sich informieren und als mündiger Kunde entscheiden.
Man würde überhaupt niemanden verlieren, wenn man so vorginge wie Nvidia:
- Billig-AF ("optimiert") als Treiberstandard
- HQ-AF als Extra-Optionen
Gewinn auf ganzer Linie. ;) Dass dann einige auf die Idee kommen werden, HQ-AF-Vergleichsbenchmarks zu machen, lässt sich nicht vermeiden.
MfG,
Raff
Hehe die guten alten HQ - VS AI.off Diskussionen ;)
RoughNeck
2010-09-09, 10:16:00
Kann ich auch nicht nachvollziehen warum ATI oder jetzt AMD nicht einfach mal das AF überarbeitet. Die 1 oder 2FPS die besseres AF vielleicht kostet ist doch egal meiner Meinung nach.
N0Thing
2010-09-09, 10:18:35
Das es schwer ist hat ja auch niemand behauptet.
Das wird schon kalkuliert sein von ATI, man würde definitiv mehr Käufer verlieren durch in der Summe schlechtere Benchmarks im Vergleich zu Nvidia, als man Kunden gewinnen würde durch HQ AF.
Hohe Qualität beim AF kostet Geschwindigkeit und solange die auflagenstarke Fachpresse in der Breite nicht deutlich Druck erzeugt ercheatet man sich bei ATI auf Kosten der Bildqualität bessere Benchmarks.
Wenn man sich AF-Skalierungstests (http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-480/5/#abschnitt_skalierungstests) von CB anschaut, dann verlieren die Nvidia-Karten beim Schritt von Standard-AF zu HQ-AF grad mal ein Prozent bei den Frames.
Es macht für mich daher überhaupt keinen Sinn, wenn ATI auf HQ-AF wegen der Balkenlänge zu verzichten. Wenn zwei Grafikkarten von ATI und Nvidia so nahe beieinander liegen sollten, würde man immer von gleicher Leistung reden, egal ob eine der Karten einen Vorsprung von einem Prozent (was in den meisten Fällen weniger als ein Frame/s wäre).
Daß ATI weiß wie es geht, haben sie ja mit der X1xxx-Serie gezeigt.
Sich aber trotzdem eine AMD-Karte zu kaufen, obwohl man um diese Schwäche weiß um dann hier rumzujammern ist einfach nicht ernstzunehmen. omg, echt.... lass ihn doch kaufen was er mag.... bin mir sicher das hat nen Grund gehabt.... schau seine SIG an...
Es gibt auch keine internationale Verschwörung der Presse wie hier einige male sugeriert wurde, um dieses Thema klein und unwichtig zu halten, sondern es ist nun mal nicht so wichtig wie es viele gerne hätten.
Nee, gegen ATI gabs echt keine internationale Verschwörung...
Schade eig... Qualitätsbewusste User schauen jetzt inne Röhre wa.
Warum platzen den nicht die HW-Foren dieser Welt aus Empörung über die mangelhafte AF-Filterqualität von AMD-Karten aus allen Nähten, weil es anscheinend Millionen von zufriedenen AMD-Nutzern gibt, die es nicht sehen oder denen es schlicht egal ist.
ok
Ich fühle mich nicht für die Ansprüche anderer zuständig.
Wie egoistisch
Iruwen
2010-09-09, 10:32:46
Bevor ich mehrere hundert € für Grafikkarten ausgebe, informiere ich mich aber so gut wie irgend möglich über die Stärken und Schwächen der in Frage kommenden Produkte. Das die AF-Q bei AMD nicht erst seit der HD5k schlechter ist als bei NV, sollte doch gerade Leuten die in Foren dieser Art unterwegs sind klar sein und erst recht PCGH-Redakteuren. Sich aber trotzdem eine AMD-Karte zu kaufen, obwohl man um diese Schwäche weiß um dann hier rumzujammern ist einfach nicht ernstzunehmen.
Gleicher Gast hm? Eine GTX 470 hat für mich deutlich mehr Nachteile als eine 5870. Das AF-Problem kann ich zumindest in Spielen auf Basis der Source Engine, was für mich am meisten Relevanz hat, dank des genialen SGSSAA ausbügeln. Damit bekomm ich aber z.B. mit HL2 Cinematic Mod Performanceprobleme und hätte dann gerne die HQ AF Option. Das hat nichts mit Rumjammern zu tun sondern damit dass man bei einer 350€ Grafikkarte zumindest die Option haben sollte. Du hast eine ganz beschissene Einstellung, wenn alle so denken würden würde sich gar nichts ändern.
y33H@
2010-09-09, 10:34:07
@ N0Thing
1680 mit 4x MSAA und VH ... da limitiert dich nicht das AF ...
Exxtreme
2010-09-09, 10:36:24
Es geht ums Prinzip. So schwer kann das echt nicht sein, einen HQ-Schalter (mit optischen Auswirkungen, nicht nur einen Dummy ;)) einzubauen.
MfG,
Raff
Vielleicht kann es die Hardware nicht.
airbag
2010-09-09, 10:45:29
Wenn man sich AF-Skalierungstests (http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-480/5/#abschnitt_skalierungstests) von CB anschaut, dann verlieren die Nvidia-Karten beim Schritt von Standard-AF zu HQ-AF grad mal ein Prozent bei den Frames.
Es macht für mich daher überhaupt keinen Sinn, wenn ATI auf HQ-AF wegen der Balkenlänge zu verzichten. Wenn zwei Grafikkarten von ATI und Nvidia so nahe beieinander liegen sollten, würde man immer von gleicher Leistung reden, egal ob eine der Karten einen Vorsprung von einem Prozent (was in den meisten Fällen weniger als ein Frame/s wäre).
Daß ATI weiß wie es geht, haben sie ja mit der X1xxx-Serie gezeigt.
Es dürfte wahrscheinlich noch mehr sein, weil hierbei sicherlich wieder der Durschnitt gebildet wurde, wobei ein einziger Framedrop(an einer Stelle wo HQ AF wirklich zu Geltung kommt ) nicht so schwer ins Gewicht fällt.
Vielleicht kann es die Hardware nicht.
Dann sollte man Ende 2010 vielleicht endlich Hardware bauen, die es kann. Ein NV20 von 2001 kann's ja auch, wenn auch maximal 8:1 anisotrop.
MfG,
Raff
DX11 -Done right..... ja klar...
Ab der 3k wurden da doch nur zusätzliche Einheiten "drangepappt"
Das AF der 2K war sehr gut ;) Man hatte die Wahl mit nem Schalter ....
sehr nice... ab der 3er Serie ist es dann "optimiert" worden oder
Nein, ab der HD-Serie (2k) wurde das AF konsequent optimiert. Bis zur X1000-Serie war A.I. Off "clean". Das sah super aus (HQ-Niveau eben).
MfG,
Raff
Exxtreme
2010-09-09, 11:00:36
Dann sollte man Ende 2010 vielleicht endlich Hardware bauen, die es kann. Ein NV20 von 2001 kann's ja auch, wenn auch maximal 8:1 anisotrop.
MfG,
Raff
Der Meinung bin ich zwar auch aber sie haben sich wohl so entschieden kein perfektes AF anzubieten. Ist halt so, kann man nix ändern sondern nur anprangern.
Gleicher Gast hm? Eine GTX 470 hat für mich deutlich mehr Nachteile als eine 5870. Das AF-Problem kann ich zumindest in Spielen auf Basis der Source Engine, was für mich am meisten Relevanz hat, dank des genialen SGSSAA ausbügeln. Damit bekomm ich aber z.B. mit HL2 Cinematic Mod Performanceprobleme und hätte dann gerne die HQ AF Option. Das hat nichts mit Rumjammern zu tun sondern damit dass man bei einer 350€ Grafikkarte zumindest die Option haben sollte. Du hast eine ganz beschissene Einstellung, wenn alle so denken würden würde sich gar nichts ändern.
Also hast du dich aber bewusst für die HD5870 entschieden und ich nehme an, dass dir die schlechtere AF-Q der HD5870 bekannt war. Die Nachteile der GTX470 waren für dich aber in der Summe größer als der Nachteil der AF-Q der AMD-Karte.
Kein Feature was von den beiden Herstellern angeboten wird, weder Eyefinity noch PhysX oder die bessere AF-Q bei NV, werden nur aus dem Grund den eigenen Kunden was Gutes zu tun angeboten. Alles was in dieser Hinsicht getan wird, dient nur rein marktstrategischen und umsatzorientierten Gründen. Das ist ja gerade der Grund warum es immer wieder zu derart emotionalen Auseinandersetzungen kommt, weil man AMD und NV nicht als das sieht was sie sind, nämlich Großkonzerne mit dem einzigen Ziel der Gewinnmaximierung. AMD ist es sch...egal ob du besseres AF willst, solange der Markt in seiner Breite dies nicht verlangt wird man auch nicht reagieren.
N0Thing
2010-09-09, 11:23:12
1680 mit 4x MSAA und VH ... da limitiert dich nicht das AF ...
Bei allen drei Spielen steht nichts von 4xMSAA dabei, oder habe ich das übersehen?
Da bei CB bei die Frames geringer werden, wenn der AF-Grad erhöht wird und ebenso wenn HQ hinzu kommt, muß AF zumindest bei manchen Frames limitieren, sonst müßten die Frames konstant bleiben.
Abgesehen davon geht es mir nicht um den Einzelfall, bei dem das AF limitiert, sondern um die Behauptung/Vermutung, es würde wegen den Benchmarks kein HQ-AF geben, weil ATI dann schlecht aussehen würde.
Es dürfte wahrscheinlich noch mehr sein, weil hierbei sicherlich wieder der Durschnitt gebildet wurde, wobei ein einziger Framedrop(an einer Stelle wo HQ AF wirklich zu Geltung kommt ) nicht so schwer ins Gewicht fällt.
Falls es irgendwo einen Test gibt, der eine Szene verwendet, in der die AF-Leistung zum Falschenhals wird und dies mit einem Frameverlauf dokumentiert, bin ich daran sehr interessiert. ;)
Iruwen
2010-09-09, 13:07:57
Also hast du dich aber bewusst für die HD5870 entschieden und ich nehme an, dass dir die schlechtere AF-Q der HD5870 bekannt war. Die Nachteile der GTX470 waren für dich aber in der Summe größer als der Nachteil der AF-Q der AMD-Karte.
Kein Feature was von den beiden Herstellern angeboten wird, weder Eyefinity noch PhysX oder die bessere AF-Q bei NV, werden nur aus dem Grund den eigenen Kunden was Gutes zu tun angeboten. Alles was in dieser Hinsicht getan wird, dient nur rein marktstrategischen und umsatzorientierten Gründen. Das ist ja gerade der Grund warum es immer wieder zu derart emotionalen Auseinandersetzungen kommt, weil man AMD und NV nicht als das sieht was sie sind, nämlich Großkonzerne mit dem einzigen Ziel der Gewinnmaximierung. AMD ist es sch...egal ob du besseres AF willst, solange der Markt in seiner Breite dies nicht verlangt wird man auch nicht reagieren.
Absolut richtig. Aber daraus schlussfolgert nicht dass man nicht trotzdem immer und immer wieder gebetsmühlenartig einen Makel anprangern sollte sondern dass man dafür einfach mehr Leute braucht - die man dadurch gewinnt indem man jeden auf einen derartigen Mangel hinweist. Wenn das schlechte AF so massiv kritisiert würde wie der hohe Stromverbrauch des GF100 würde sich das in der Kasse auch entsprechend bemerkbar machen und dann würde man reagieren.
airbag
2010-09-09, 13:29:21
Falls es irgendwo einen Test gibt, der eine Szene verwendet, in der die AF-Leistung zum Falschenhals wird und dies mit einem Frameverlauf dokumentiert, bin ich daran sehr interessiert. ;)
Deswegen auch nur Konjungtiv .;)
Aber wenn ich mich richtig errinne haben die Jungs von PCGH von 5Prozent zwischen Q und HQ gesprochen. Also müsste es doch irgendwo eine derartige Szene geben?
DrFreaK666
2010-09-09, 13:57:44
Solange AMD mit deer AF-Blume werben kann wird sich nichts am AF ändern - imo
OgrEGT
2010-09-09, 19:30:10
AMD ist es sch...egal ob du besseres AF willst, solange der Markt in seiner Breite dies nicht verlangt wird man auch nicht reagieren.
Richtig. Deshalb gibt es diesen Thread um dies zu tun :) Ob dies ausreicht, wird man sehen. Dauert ja auch nicht mehr lange...
Langenscheiss
2010-09-09, 22:21:22
Ich glaube nicht, dass der breite Markt ein HQ AF von Nvidia verlangt, das machen die wohl eher, um auch die Enthusiasten zufriedenzustellen. AMD bietet SSAA per Treiber für DX9 (jaja, ich weiß, dass man mit Downsampling etc. alles auch auf Nvidia Karten haben kann, aber bei ATI isses unter DX9 komfortabler und imo auch schöner), was mir persönlich insbesondere bei Source-Engine Games sehr positiv auffällt, weil mich da auch das AF nicht stört. Krasses Gegenbeispiel ist da TrackMania UF: Mit Supersampling bekommt im Stadium Szenario fast alle Moiree-Effekte weg, aber damit fällt das Teils übelst krasse Banding nur noch mehr auf.
Lange Rede, kurzer Sinn: Bietet man schon derartige Enthusiasten-Features wie SSAA, ist es unverständlich, nicht auch HQ AF anzubieten. Das hat imo überhaupt nichts mit Gesetzen des Marktes zu tun, weil der weder das eine noch das andere verlangt, sondern viel mehr mit der Pflege des guten Images bei der anspruchsvolleren Kundschaft. In diesem Sinne kann ich dem Raff nur zustimmen! Und dass ein Konzern wie AMD sowas technisch umsetzen kann, darf nicht ernsthaft diskutiert werden.
RoughNeck
2010-09-09, 22:30:51
Ich finde zumindest die Option auf HQ AF sollte im Treiber vorhanden sein.
Würde in den ganzen Tests die es im Netz gibt, auch nur bei einem drittel auf die AF Unterschiede eingegangen würde AMD sicher etwas tun.
So wie es jetzt ist wird es ihnen egal sein.
AMD hat aber eine andere Firmenpolitik die sich eigentlich nicht an Enthusiasten richtet. AMD möchte Massenprodukte anbieten und den Erfolg dabei in erster Linie durch P/L erzielen. AMD ist auch nicht auf so wenige Geschäftsfelder fokussiert wie NV, weil man natürlich auch noch die CPU-Sparte hat mit allen dazugehörigen Untergruppen. Sie haben einfach ganz andere Prioritäten als NV und momentan den Kopf voll mit ganz anderen Baustellen. Das nächste Jahr wird ein ganz entscheidenes in der Firmengeschichte, warum muss ich wohl nicht erläutern.
Ich will damit sagen, dass AMD aus ihrem Selbstverständnis heraus Dinge wie HQ-AF oder die seit gefühlten Ewigkeiten versprochene PhysX Alternative mit Sicherheit sehr weit unten auf der Prioritätenliste hat. Man kann auch sagen, dass sich NV einfach mehr anstrengen muss um ihr Kernklientel zu sichern bzw. nach Möglichkeit noch Marktanteile zu gewinnen. NV ist das Chipsatzgeschäft weitesgehend weggebrochen, bei den Mobile-GPUs macht AMD starken Druck, aber vorallendingen Sandy Bridge und Fusion werden ihnen sehr weh tuen. Man prognostiziert mittelfristig das wohl komplette Aus für dezidierte LowEnd-GPUs und was das für NV für Folgen hat, ist glaube ich jedem klar. AMD hat all diese Probleme nicht und ist im Endeffekt nicht an Enthusiasten interessiert und braucht diese auch nicht. Ich glaube auch mit den HD6k wird sich in Sachen AF-Q nichts ändern, weil es einfach keine Priorität hat, weder für AMD noch für die Masse der Kunden. So Leid es mir für euch auch tut, aber Enthusiasten sind nicht der Nabel der Welt und prozentual für AMD vernachlässigbar.
Dr. Cox
2010-09-10, 00:10:35
So Leid es mir für euch auch tut, aber Enthusiasten sind nicht der Nabel der Welt und prozentual für AMD vernachlässigbar.
Nun, dann werde ich die HD6XX0-Karten auch nicht ins Sortiment aufnehmen und nur auf Kundenanfrage bestellen ;)
Emotionen und persönliche Präferenzen sollten nach Möglichkeit niemals Einfluss auf geschäftliche Entscheidungen haben. Ein guter Kaufmann bietet das an was die Leute haben wollen und spätestens wenn dir Kunden weglaufen, weil andere die Karten lagermäßig anbieten, solltest du reagieren. Ich wollte mit meiner Meinung AMD auch nicht kritisieren, sondern einmal nüchtern die Realität aufzeigen, so wie sie sich für mich darstellt.
Fetter Fettsack
2010-09-10, 12:32:59
Zitat von Raff
So schwer kann das echt nicht sein, einen HQ-Schalter (mit optischen Auswirkungen, nicht nur einen Dummy ) einzubauen.
Es wurde mancherort darüber spekuliert, dass das architekturbedingt schwer möglich sein könnte, ohne unverhältnismäßig große Performanceeinbußen hinnehmen zu müssen. Könnte eventuell eine Erklärung sein, warum es nicht implementiert wurde.
Labberlippe
2010-09-10, 23:19:29
Absolut richtig. Aber daraus schlussfolgert nicht dass man nicht trotzdem immer und immer wieder gebetsmühlenartig einen Makel anprangern sollte sondern dass man dafür einfach mehr Leute braucht - die man dadurch gewinnt indem man jeden auf einen derartigen Mangel hinweist. Wenn das schlechte AF so massiv kritisiert würde wie der hohe Stromverbrauch des GF100 würde sich das in der Kasse auch entsprechend bemerkbar machen und dann würde man reagieren.
Hi
Ich frage mich wieso die ganzen Printmedien nicht die Leute von AMD Nerven.
Die ganzen Zeitungen bekommen Testsamples und da frage ich mich, wieso die dann nicht ständig nachhacken weshalb das AF von AMD optimiert ist.
Gruss Labberlippe
DrFreaK666
2010-09-10, 23:25:15
Hi
Ich frage mich wieso die ganzen Printmedien nicht die Leute von AMD Nerven.
Die ganzen Zeitungen bekommen Testsamples und da frage ich mich, wieso die dann nicht ständig nachhacken weshalb das AF von AMD optimiert ist.
Gruss Labberlippe
Könnte ja sein, dass man Samples von neuen Karten erst viel später bekommt...
Hi
Ich frage mich wieso die ganzen Printmedien nicht die Leute von AMD Nerven.
Die ganzen Zeitungen bekommen Testsamples und da frage ich mich, wieso die dann nicht ständig nachhacken weshalb das AF von AMD optimiert ist.
Gruss Labberlippe
Weil sie vermutlich keinen wirklichen Kontakt zu AMD haben, sondern, wenn überhaupt, nur zu den Marketingabteilungen, die auch nur vorgefertigte Marketingphrasen liefern dürften.
Weil sie vermutlich keinen wirklichen Kontakt zu AMD haben, sondern, wenn überhaupt, nur zu den Marketingabteilungen, die auch nur vorgefertigte Marketingphrasen liefern dürften.
Schätze wenn Zeitung X über sowas berichtet (mal so richtig druck macht), wird sich der Hersteller (in diesem Fall ATI/AMD) irgendwie dafür rächen....
Zeitung X würde zb weniger Infos über neue HW bekommen....
Testsamples treffen später ein... usw...
nur son Gedanke....
Lg
Was würde es bringen, wenn PCGH & Co. noch mehr Druck machen? Die Probleme sind schon längst in aller Munde, nur pfeift der Großteil der Nutzer immer noch darauf, aus welchen Gründen auch immer. Erst, wenn die "Ich seh da keinen Unterschied"- bzw. überzeugten "Eine Radeon flimmert nicht, weil es eine Radeon ist!"-Leute in den Mecker-Chor einstimmen und gutes AF fordern, wachsen die Chancen, dass eine Besserung eintritt. Nur scheint fast niemand optional geiles AF zu wollen.
Kurz und fies: Die Nutzer sind das Problem.
Was fehlt euch? Noch mehr Beweise? Ab 10 Spielen wird das Problem akzeptiert? Müssen euch erste die Augen rausfallen? :biggrin:
MfG,
Raff
Mr. Lolman
2010-09-11, 09:23:36
Ich hätt auch gern besseres AF. Aber mir geht die Diskussion schon am Arsch, weil gerade die Leute, die dermaßen übers ATI-AF ablästern, gemeint haben, dass das was NV40/G70 in Q betrieben hat, völlig ok war - obwohls im Vergleich zu heute damals himmelschreiende Unterschiede gab (das weißt du auch selbst!) Außerdem gehts mir am Arsch als ATI Nutzer als Bestandteil des 'AF-Problems' bezeichnet zu werden.
Und wenn man sich diverse Screenshots mit default-AF ansieht, sieht man auch, dass es auch bei NV default stellenweise flimmriger wirkt. (siehe CB GTX470/480 Review, Oblivion bspw.)
-> HQ wär optional gut, ATi default AF ist alles andere als einwandfrei
-> default AF ist aber trotzdem bei weitem nicht so schlecht, wies gemacht wird.
-> solang die BQ passt, ist die Performance wichtiger. (Wer spielt denn noch aller Mafia2 in 3840x2400 auf ner SingleGPU Karte?)
-> wenn die BQ tatsächlich so mies wär, wären die Foren voll damit (analog zu G70-Shit, der aber von den Redakteuren bei den Reviews komischerweise nicht bemerkt wurde!)
-> Die Leute sind nicht alle blind oder dumm, oder fanboyish, bloß du bist, seitdem du weißt, wo du kucken musst, ein Sensibelchen geworden.
Klar, sieht man je nach Szene locker einen Unterschied zu NV HQ - jedoch bewegt sich ATi mit ihren Optimierungen in einem Bereich, wo sie sich den meisten Menschen nicht störend ins Bewußtsein drängen. Die Situation ist eigentlich so, wie bei einem Pixelfehler. Hat man den Pixelfehler mal entdeckt kuckt man immer drauf und ärgert sich furchtbar darüber. Vielleicht wollen auch deswegen die Nutzer nicht aus ihrem Schlaf gerissen werden.
Außerdem gibts je nach Spiel (Mafia2 bspw.) viel größere Irritationen, als die durch den Texturfilter verursachten. => Und da bin ich wieder froh, dass die Performance für 2x2 Downsampling reicht -> wobei ich natürlich gegen einen Schalter wirklich nix einzuwänden hätte -> aber mittlerweile glaub ich schon fast, dass der Cypress nicht besser filtern kann
RoughNeck
2010-09-11, 10:48:07
Klar flimmert es teils bei Nvidia auch, aber als ehemaliger ATI Nutzer sind die AF Unterschiede wie Tag und Nacht.
Speziell hervor zu heben ist der Cinematic Mod von HL2, da merkt man dann wie schlecht das AF bei ATI wirklich ist.
Wie sie wieder aus den Löchern gekrochen kommen um es schönzureden :rolleyes:
Mr. Lolman
2010-09-11, 11:44:14
Wen meinst du? Mich?
DrFreaK666
2010-09-11, 13:52:38
Wen meinst du? Mich?
Ja, ich denke Coda mein dich.
Auch ich hab dann was dazu zu sagen:
HQ wär optional gut, ATi default AF ist alles andere als einwandfrei
-> default AF ist aber trotzdem bei weitem nicht so schlecht, wies gemacht wird.
Es geht ja nciht um Default-AF, sondern das, was beide als Maximum anbieten
solang die BQ passt, ist die Performance wichtiger. (Wer spielt denn noch aller Mafia2 in 3840x2400 auf ner SingleGPU Karte?)
Solange die Performance passt, dann wäre schöneres AF kein Problem
wenn die BQ tatsächlich so mies wär, wären die Foren voll damit (analog zu G70-Shit, der aber von den Redakteuren bei den Reviews komischerweise nicht bemerkt wurde!)
Nur weils Computerbild-User nicht besser wissen, heisst es nicht, dass es ein sinnloses Feature ist
Die Leute sind nicht alle blind oder dumm, oder fanboyish, bloß du bist, seitdem du weißt, wo du kucken musst, ein Sensibelchen geworden.
Trotzdem hat Raff eine Radeon, weil ihm die Fermis zu laut und zu heiss sind. Glück für AMD.
Mir reicht meine HD5850 auch noch. Aber wenn NV mal wieder das bessere Angebot hat dann wechsle ich wieder rüber, wäre nicht das erste Mal (Radeon 9700Pro -> Geforce 6800GT -> Geforce 8800GT -> RadeonHD 4870 -> Geforce GTX260 -> RadeonHD 5850)
Dr. Cox
2010-09-12, 00:18:10
Emotionen und persönliche Präferenzen sollten nach Möglichkeit niemals Einfluss auf geschäftliche Entscheidungen haben. Ein guter Kaufmann bietet das an was die Leute haben wollen und spätestens wenn dir Kunden weglaufen, weil andere die Karten lagermäßig anbieten, solltest du reagieren. Ich wollte mit meiner Meinung AMD auch nicht kritisieren, sondern einmal nüchtern die Realität aufzeigen, so wie sie sich für mich darstellt.
Bei uns wollen die Kunden noch eine Empfehlung/Beratung zur Hardware. Somit ist es unseren Kunden egal, von welchem Hersteller die Karte kommt, genauso wie uns. Die Karte muss einfach nur den Anforderungen und Kaufmotiven gerecht werden. Wenn es also eine Nvidia und eine AMD-Karte gibt, die beide preislich und leistungsmäßig ungefähr gleich auf sind, würden ich aufgrund der besseren Bildqualität und dem größeren Feature-Angebot derzeit (es kann sich in Zukunft ja alles ändern) eher eine Nvidia-Karte anbieten und verkaufen ;)
DrFreaK666
2010-09-12, 00:46:33
Bei uns wollen die Kunden noch eine Empfehlung/Beratung zur Hardware. Somit ist es unseren Kunden egal, von welchem Hersteller die Karte kommt, genauso wie uns. Die Karte muss einfach nur den Anforderungen und Kaufmotiven gerecht werden. Wenn es also eine Nvidia und eine AMD-Karte gibt, die beide preislich und leistungsmäßig ungefähr gleich auf sind, würden ich aufgrund der besseren Bildqualität und dem größeren Feature-Angebot derzeit (es kann sich in Zukunft ja alles ändern) eher eine Nvidia-Karte anbieten und verkaufen ;)
Und wie hoch ist die prozentzahl der Kunden, die wissen was AA und AF ist und wo man es einstellt? Ich kenne einige, die am PC spielen, und noch nie von anisotroper Filterung gehört haben. Kantenglättung ist vergleichsweise leicht zu erklären, aber benutzt haben sie es auch noch nie
Bucklew
2010-09-12, 11:56:50
Und wie hoch ist die prozentzahl der Kunden, die wissen was AA und AF ist und wo man es einstellt?
Je teurer die Karte, desto prozentual höher ist der Kreis, der das weiß. Man kauft sich ja auch genau deshalb eine teure Karte, um die entsprechende Spiele mit diesen Einstellungen zu kaufen, sonst würde ja auch eine Performancekarte locker reichen.
AYAlf_2
2010-09-12, 13:26:26
Je teurer die Karte, desto prozentual höher ist der Kreis, der das weiß. Man kauft sich ja auch genau deshalb eine teure Karte, um die entsprechende Spiele mit diesen Einstellungen zu kaufen, sonst würde ja auch eine Performancekarte locker reichen.
keine einzige sogenannte performance karte reicht um in 1920x1080 (hd) zu zocken. und das ist nun mal die standard aufleosung heute.
dllfreak2001
2010-09-12, 13:31:10
Je teurer die Karte, desto prozentual höher ist der Kreis, der das weiß. Man kauft sich ja auch genau deshalb eine teure Karte, um die entsprechende Spiele mit diesen Einstellungen zu kaufen, sonst würde ja auch eine Performancekarte locker reichen.
Das ist eine eingeschränkte Sicht, es gibt einen Haufen sogenannter "Gamer" die
relativ teure Hardware kaufen, aber nicht genau wissen was AA und AF ist.
Da kennt man nur die Einstellung alles @max oder @high...
Gerade die Protzkarten sind prädestinierte Hinternstopfer für Neureiche.
System für 1500€ gesucht, da kauft man keine HD 5770 oder GTX 460.
airbag
2010-09-12, 13:48:57
keine einzige sogenannte performance karte reicht um in 1920x1080 (hd) zu zocken. und das ist nun mal die standard aufleosung heute.
Kommt drauf an was man zockt. ;)
Aber ich zocke mit meiner GTX260(heutzutage Mainstream) Shift mit 4*SGSSAA(mit 16xS bin ich sogar fast schon am VRAM Limit) auch im Fenster mit den Maßen 1680*1050, weil die Leistung sonst nicht reichen würde.
keine einzige sogenannte performance karte reicht um in 1920x1080 (hd) zu zocken. und das ist nun mal die standard aufleosung heute.
Falsch. Meine Karte (260 192) reicht auch heute noch für eben diese Auflösung. Ich spiele z.B. Dragon Age 1+2, Mass Effect 1+2, Starcraft 2, Modern Warfair 1+2. Mir reicht die Karte noch, und alles auf Max. (Ich spiele sogar 1920x1200)
AYAlf_2
2010-09-12, 14:10:06
Falsch. Meine Karte (260 192) reicht auch heute noch für eben diese Auflösung. Ich spiele z.B. Dragon Age 1+2, Mass Effect 1+2, Starcraft 2, Modern Warfair 1+2. Mir reicht die Karte noch, und alles auf Max. (Ich spiele sogar 1920x1200)
was dem einen eine diashow ist, ist dem anderen ein fluessiges zocken. ;)
Bucklew
2010-09-12, 14:29:56
keine einzige sogenannte performance karte reicht um in 1920x1080 (hd) zu zocken. und das ist nun mal die standard aufleosung heute.
Schön, wie du wieder mal zeigst, dass du eigentlich gar keine Ahnung hast :)
Solange man Crysis Warhead ausklammert schafft sogar eine HD5770 in HD problemlos (wohlgemerkt ohne AA/AF, das war ja eure Theorie!) jedes aktuelle Spiel. Und selbst Crysis wird gehen, denn es sind ja nur Durchschnittswerte und wem AA/AF egal ist, der wird sich auch nicht an dem einen oder anderen Ruckler stören.
was dem einen eine diashow ist, ist dem anderen ein fluessiges zocken. ;)
Ja genau, so ist der DAU. Keine Ahnung von AA/AF, aber das die fps-Zahl bei 24 ist, das merkt er sofort ;D ;D
Das ist eine eingeschränkte Sicht, es gibt einen Haufen sogenannter "Gamer" die
relativ teure Hardware kaufen, aber nicht genau wissen was AA und AF ist.
Da kennt man nur die Einstellung alles @max oder @high...
In den entsprechenden max/high Profilen von Spielen ist auch zu 99% AA/AF enthalten ;)
Gut. Ich muss noch dazu sagen, das meine 260 übertaktet ist. Ich stelle aber immer 16 AF HQ ein und 4fach AA. Und ne Diashow ist das mitnichten. Und eine 260 ist heutzutage unter Performance und ich würde sagen Mainstream.
AYAlf_2
2010-09-12, 19:58:17
Schön, wie du wieder mal zeigst, dass du eigentlich gar keine Ahnung hast :)
Solange man Crysis Warhead ausklammert schafft sogar eine HD5770 in HD problemlos (wohlgemerkt ohne AA/AF, das war ja eure Theorie!) jedes aktuelle Spiel. Und selbst Crysis wird gehen, denn es sind ja nur Durchschnittswerte und wem AA/AF egal ist, der wird sich auch nicht an dem einen oder anderen Ruckler stören.
man merkt, dass du wirklich ziemlich hart im nehmen bist. wie immer keinen plan und trotzdem am posten, mutig wie immer. ich bin ein fan :freak:
wenn einem die fachlichen argumente ausgehen kommt man mit frasen, du hast es drauf.
Ja genau, so ist der DAU. Keine Ahnung von AA/AF, aber das die fps-Zahl bei 24 ist, das merkt er sofort ;D ;D
ich weiss ja, dass ihr nvidia juenger keine hohen fps braucht um zu zocken. mafia2 und metro2033 (+physx) sind der beweiss dafuer. :rolleyes:
In den entsprechenden max/high Profilen von Spielen ist auch zu 99% AA/AF enthalten ;)
;D
ich lach dich nicht aus .. ich lache mit dir.
DrFreaK666
2010-09-12, 20:25:02
...ich lach dich nicht aus .. ich lache mit dir.
Das ist echt der Brüller. Wieviel Spiele hat er? 2?
Also 99% ist vielleicht übertrieben, aber die grafisch halbwegs fordernden Spiele haben normalerweise tatsächlich AF in ihren Einstellungen.
Bucklew
2010-09-12, 23:49:32
man merkt, dass du wirklich ziemlich hart im nehmen bist. wie immer keinen plan und trotzdem am posten, mutig wie immer. ich bin ein fan :freak:
wenn einem die fachlichen argumente ausgehen kommt man mit frasen, du hast es drauf.
Kannst du auch gern bei Computerbase nachlesen:
http://www.computerbase.de/artikel/grafikkarten/2010/test-10-grafikkarten-fuer-directx-11/
Bad Company 2: 42fps
Battleforge: 32
Dirt 2: 47
Metro 2033: 25,5
Stalker CoP: 36,6
(1920x1080, kein AA/AF)
Was wolltest du nochmal sagen? Das Performancekarten nicht schnell genug sind für aktuelle Spiele in HD? Tja, hiermit widerlegt.
btw: das Wort wird PHrase geschrieben, du hast es definitiv nicht drauf ;D
ich weiss ja, dass ihr nvidia juenger keine hohen fps braucht um zu zocken. mafia2 und metro2033 (+physx) sind der beweiss dafuer. :rolleyes:
Stimmt, wir verzichten zugunsten der Balkenlänge ungern auf vernünftige BQ. In diesem Falle hast du ausnahmsweise mal Recht.
Das ist echt der Brüller. Wieviel Spiele hat er? 2?
Lass mich raten: Wenn ich jetzt nachbohre werden mir Spiele wie Sims und Landwirtschaftssimulator genannt um nicht zugeben zu müssen, dass ich Recht habe, stimmts?
y33H@
2010-09-12, 23:50:18
Wie meint ihr das? Ich wähle das Preset "Maximale Details" und AF ist aktiv? Das ist zB bei FC2 oder Crysis der Fall.
DrFreaK666
2010-09-13, 01:02:01
...
Lass mich raten: Wenn ich jetzt nachbohre werden mir Spiele wie Sims und Landwirtschaftssimulator genannt um nicht zugeben zu müssen, dass ich Recht habe, stimmts?
Lol, das von jemandem zu behaupten, der schon 8,5 Jahre hier Mitglied ist ist ;D
Zocke aktuell Two Worlds: AA: ja, AF: nein
Langenscheiss
2010-09-13, 01:18:41
Klar flimmert es teils bei Nvidia auch, aber als ehemaliger ATI Nutzer sind die AF Unterschiede wie Tag und Nacht.
Speziell hervor zu heben ist der Cinematic Mod von HL2, da merkt man dann wie schlecht das AF bei ATI wirklich ist.
Also ich weiß jetzt zwar nicht, ob das HQ AF der 8800GTX gut war, aber der Unterschied, der mir persönlich bei der CM aufgefallen ist zur jetzigen hd5850 ist eher ein schlechterer verwaschenerer Filter als ein Flimmern sowie ein ganz leichtes banding. Generell find ich das Banding noch wesentlich störender als das Flimmern, und zwar deshalb, weil der Löwenanteil aller Flimmereffekte heutzutage vom Shaderflimmern kommt, und da hilft noch so gutes AF nichts. (Deswegen hoffe ich, dass die Entwickler in Zukunft entweder die Shader mit besserem selektivem AA Glättungsalgorithmen bestücken, oder mehr auf super-sampling setzen...ach wäre das schön, Crysis flüssig mit SGSSAA zu spielen).
Ich kann mir nicht vorstellen, dass einem bei Crysis, dass bedingt durch fluktuierende shader und foliage so stark flimmert, dass selbst die zahlreichen kleinen Grafikbugs des Spiels darin untergehen, wirklich noch das AF-Flimmern auffällt. Das banding allerdings fällt in manchen Situationen deutlich auf, weils es ein völlig anderer Effekt ist.
Banshee18
2010-09-13, 01:22:34
Lol, das von jemandem zu behaupten, der schon 8,5 Jahre hier Mitglied ist ist ;D
Zocke aktuell Two Worlds: AA: ja, AF: nein
Einige Spiele bieten zwar nicht explizit AF im Menu an, aktivieren es aber trotzdem bei höheren Details. IIRC sind z.B. Metro und Crysis solche Fälle.
Es gibt vielleicht noch mehr solche Spiele, aber da bei mir 16xAF immer per Treiber aktiv ist, kann ich nicht mehr dazu sagen.
Und bleibt bitte sachlich, ich möchte keine rote Karten verteilen müssen.
DrFreaK666
2010-09-13, 01:27:51
Einige Spiele bieten zwar nicht explizit AF im Menu an, aktivieren es aber trotzdem bei höheren Details. IIRC sind z.B. Metro und Crysis solche Fälle.
Es gibt vielleicht noch mehr solche Spiele, aber da bei mir 16xAF immer per Treiber aktiv ist, kann ich nicht mehr dazu sagen.
Und bleibt bitte sachlich, ich möchte keine rote Karten verteilen müssen.
ok
Vielleicht wäre ne Liste witzig, welche Spiele AA, AF oder beides anbieten.
Zwar nciht wirklich sinnvoll, aber dann wüssten wir wieviele Spiele es wirklich sind
shakal1
2010-09-13, 01:30:29
Dieses SGSSAA/AF hatte ich an für zwei tage und hab alle möglichen games damit getestet.meine meinung; für die katz.
sogar in uralten schinken wie Flatout ultimate carnage war ich gezwungen es abzustellen da die framerate so miserabel war.
Bucklew
2010-09-13, 01:31:16
Lol, das von jemandem zu behaupten, der schon 8,5 Jahre hier Mitglied ist ist ;D
Zocke aktuell Two Worlds: AA: ja, AF: nein
Sagt jetzt was genau aus?
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.