PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Gamestar attestiert der Radeon 5XXX: "bester anisotroper Filter"


=Floi=
2010-06-13, 05:20:36
lese gerade gamestar 06/10 und da ist bei der zusammenfassung zu lesen:
bei ati: "bester anisotropischer Filter" darunter "AF flimmert minimal" :ugly:
bei NV: "guter anisotroper Texturfilter" darunter "anisotroper Texturfilter winkelabhängig" :ugly:
das kommt davon, wenn man nur den AF-Tester ansieht. echt schade, dass da solche fazits verbreitet werden.

Deren rating ohne AA und mit maximal 4xAA finde ich für highend karten schon ein wenig schwach. das wäre ein weitere kritikpunkt. Ein altes game wie far cry 2 mit einer 5970 @ 1680x1050 ohne aa zu testen ist einfach mist. :frown: Auch geht so die idee hinter gutem AA/TAA/SSAA verloren. Da kann man gleich auf einer konsole spielen. irgendwie ein wenig diletantisch. ;(

Sentionline
2010-06-13, 05:46:27
Villeicht war Gunnar zur Besuch und hat eine runde springen lassen und die waren nicht ganz da :freak:

Solange wir wissen dass das alles nur falsche Propaganda ist, ist die Welt doch in ordnung. ;)

Tigerchen
2010-06-13, 07:13:41
Villeicht war Gunnar zur Besuch und hat eine runde springen lassen und die waren nicht ganz da :freak:

Solange wir wissen dass das alles nur falsche Propaganda ist, ist die Welt doch in ordnung. ;)
Klar. Die meisten Redakteure da nutzen ja privat Intel CPU`s und nV Grafikkarten. Kein Wunder daß die so Pro AMD/ATI berichten.

Captain Future
2010-06-13, 08:28:34
Was die Winkelabhängigkeit angeht, stimmt's ja auch, dass die HD5K Branchenprimus ist. Man will seine Leser halt nicht mit Dingen verwirren, die sich nicht in Schwarz/Weiß oder Schubladen pressen lassen.

Botcruscher
2010-06-13, 08:32:13
Bild deckt auf: Hartz4 Empfänger faul. :freak:

Einfach weiter gehen.

Gast
2010-06-13, 09:12:53
Bildqualität

AMDs Radeon HD 5000 bietet die beste Bildqualität aktueller Grafikkarten: Der anisotrope Texturfilter (AF) arbeitet vollkommen winkelunabhängig, kümmert sich also nicht nur um Texturen, die im 90- oder 180-Grad-Winkel zum Betracher liegen, sondern auch um Schrägen. Nur manchmal stört ein minimales Flimmern. Die Kantenglättung (AA) der HD 5000 ist ebenfalls Referenz, besonders durch den Supersampling-Modus, der nicht nur Polygonkanten, sondern auch Texturen verfeinert.

Um das zu kontern, gibt Nvidia der Geforce GTX 480 mit 32xCSAA einen neuen Kantenglättungsmodus mit auf den Weg. In der Praxis liefert diese Kombinationen aus normalem achtfachen Multisampling und so genannten Coverage-Samples eine ähnlich hohe Bildqualität wie das praktisch perfekte Supersampling der Radeon-HD-5000-Serie bei einer erheblich höheren Performance. Allerdings werden Texturen selbst mit hinzugeschaltetem 16fachen AF in der Tiefe längst nicht so sauber gezeichnet wie auf der Radeon-Hardware.
Daniel Visarius (dv) - Gamestar (http://www.gamestar.de/hardware/tests/grafikkarten/pcie/2313694/nvidia_geforce_gtx_480_p6.html#EL_12695200799171738339677)

Gouvernator
2010-06-13, 09:19:06
Daniel Visarius (dv) - Gamestar (http://www.gamestar.de/hardware/tests/grafikkarten/pcie/2313694/nvidia_geforce_gtx_480_p6.html#EL_12695200799171738339677)
Man soll sie mit den 32xSSAA Pics des SSAA_Tools erschlagen. :biggrin:

Exxtreme
2010-06-13, 09:22:08
Und ich wollte mir einen Fermi kaufen. Aber nach diesem Bericht werde ich doch zur 5xxx greifen müssen. ;(


X-D



Ja, die GS ist da nicht so fit. Der grösste Epic fail war als sie geschrieben haben, dass die Voodoo 5 die CPU durch Antialiasing entlastet.

Sonyfreak
2010-06-13, 09:31:53
Daniel Visarius (dv) - Gamestar (http://www.gamestar.de/hardware/tests/grafikkarten/pcie/2313694/nvidia_geforce_gtx_480_p6.html#EL_12695200799171738339677)Also manchmal frage ich mich wirklich. :facepalm:

mfg.

Sonyfreak

Aquaschaf
2010-06-13, 09:35:32
So etwas tut weh und macht den "Kampf" für gute Texturfilterung schwieriger. :(

dllfreak2001
2010-06-13, 09:43:59
Gamestar ist schon seit einiger Zeit auf dem Anti-NV-Trip, vielleicht stehen die ja schon auf deren schwarzen Liste.
Früher war das auch mal anders herum.

Ich meine, das hat alles so richtig angefangen als das Bashen gegen den Fermi los ging.

Vertigo
2010-06-13, 09:57:11
Test der GTX 280:
(http://www.gamestar.de/hardware/tests/grafikkarten/pcie/1946289/geforce_gtx_280_p9.html)
+ sehr gute Kantenglättung
+ perfekter anisotroper Texturfilter
- Kantenglättung minimal schlechter als Radeon


Test der GTX 480: (http://www.gamestar.de/hardware/tests/grafikkarten/pcie/2314319/zotac_geforce_gtx_480.html)

+ sehr gute Kantenglättung
+ guter anisotroper Texturfilter
- anisotroper Texturfilter winkelabhängig

Seltsamerweise haben beide 18 von 20 Punkten für die Bildqualität bekommen, so dass es für den technologischen Rückschritt, den GF100 in Sachen BQ mitbringt, keinen Punktabzug gab ...

Gast
2010-06-13, 10:06:22
Seltsamerweise haben beide 18 von 20 Punkten für die Bildqualität bekommen, so dass es für den technologischen Rückschritt, den GF100 in Sachen BQ mitbringt, keinen Punktabzug gab ...
Die neue Referenz in Sachen Texturfilter ist die Radeon 5000er-Reihe, da kann Nvidia mit dem in die Jahre gekommenen HQ-Modus nicht mehr mithalten. Dafür bietet man beim Anti-Aliasing etwas mehr als früher und kann das Punkteniveau der GTX280 mit Hängen und Würgen halten. :up:

:ulol:

Coda
2010-06-13, 11:59:19
Was die Winkelabhängigkeit angeht, stimmt's ja auch, dass die HD5K Branchenprimus ist
Der Unterschied ist praktisch nicht existent. Das sieht man nichtmal im bestmöglichen synthethischen Fall. Ganz im Gegenteil zur schlechteren Abtastung bei ATI.

Hört auf mit solchen Aussagen, weil genau deshalb kommt sowas zustande:
GTX 480: - anisotroper Texturfilter winkelabhängig

Das verursacht bei mir schon körperliche Schmerzen im Kopf.

Tesseract
2010-06-13, 12:25:09
"[...]so bearbeitet auch die Geforce GTX 480 keine Texturen in schrägen Winkeln."

http://blogs.discovermagazine.com/badastronomy/files/2008/09/thestupiditburns.jpg

V2.0
2010-06-13, 12:30:24
Ich sehe das positiv, Gamestar gibt endlich mal die Empfindung des normalen Käufers wieder. Das Flimmern wird oftmals als temporär angesehen, da es nur an stellenweise auftritt, während die vermeintlich höhere Schärfe den meisten Betrachtern positiv auffällt.

Odal
2010-06-13, 12:42:21
nun dann musste es den meisten betrachtern auch als positiv auffallen wenn die hardware am besten gar kein AA bietet und somit keins aktiviert werden kann für bildvergleiche

-> kantenflimmern aber "scharfe" konturen

Coda
2010-06-13, 12:57:20
Ich sehe das positiv, Gamestar gibt endlich mal die Empfindung des normalen Käufers wieder. Das Flimmern wird oftmals als temporär angesehen, da es nur an stellenweise auftritt, während die vermeintlich höhere Schärfe den meisten Betrachtern positiv auffällt.
Was hat das damit zu tun dass sie einen Unterschied in der Winkelabhängigkeit negativ bewerten, der praktisch nicht existent ist.

Und überhaupt ist das sehr debatierbar was du da von dir gibst.

Captain Future
2010-06-13, 12:59:47
Der Unterschied ist praktisch nicht existent. Das sieht man nichtmal im bestmöglichen synthethischen Fall. Ganz im Gegenteil zur schlechteren Abtastung bei ATI.
Gamestar ist auch Teil der Marketingmaschinerie - und da ist alles erlaubt, was keine Unwahrheit ist.

Fetter Fettsack
2010-06-13, 13:11:58
Hat es eigentlich einen rationalen Frund, warum man es bei Gamestar bei einer High-End-Karte als Manko ansieht, dass der Kühler einen PCI-Slot verdeckt?

V2.0
2010-06-13, 13:31:14
Was hat das damit zu tun dass sie einen Unterschied in der Winkelabhängigkeit negativ bewerten, der praktisch nicht existent ist.

Und überhaupt ist das sehr debatierbar was du da von dir gibst.

Das mit Winkelabhängigkeit ist natürlich auch Quatsch, aber das andere ist imho durchaus richtig, wenn man einem Konsolenspieler entscheiden lässt was besser aussieht.

Gast
2010-06-13, 13:39:28
"[...]so bearbeitet auch die Geforce GTX 480 keine Texturen in schrägen Winkeln."


Hammerhart...
Die Inkompetenz kennt keine Grenzen.
Da passt man sich wirklich dem Käufer an.

Gast
2010-06-13, 13:44:49
Das mit Winkelabhängigkeit ist natürlich auch Quatsch, aber das andere ist imho durchaus richtig, wenn man einem Konsolenspieler entscheiden lässt was besser aussieht.
Wo hat Gamestar die Schärfe erwähnt?

Fetter Fettsack
2010-06-13, 13:46:28
Ich weiß, dass ich mich jetzt aber sowas von monströs bloßstelle, aber was soll ich mir unter winkelabhängiger Texturfilterung vorstellen? Dass schiefe Flächen nicht gefiltert werden?

Spasstiger
2010-06-13, 13:46:58
Ich sehe das positiv, Gamestar gibt endlich mal die Empfindung des normalen Käufers wieder. Das Flimmern wird oftmals als temporär angesehen, da es nur an stellenweise auftritt, während die vermeintlich höhere Schärfe den meisten Betrachtern positiv auffällt.
Die minimal höhere Schärfe bei ATIs AF, die auch das Flimmern verursacht, kommt nicht von der besseren Gradientenberechnung.

Ich weiß, dass ich mich jetzt aber sowas von monströs bloßstelle, aber was soll ich mir unter winkelabhängiger Texturfilterung vorstellen? Das schiefe Flächen nicht gefiltert werden?
So ungefähr. Zur GeForce-7900-Zeiten war das noch relevant, heute ist die Winkelabhängigkeit auch bei NV nur minimal. Schau dir das an:

http://img47.imageshack.us/img47/3584/hqaf5tl.jpg

Quelle: Google Bilder

Die vertikale Wand ist auf beiden Karten gleichscharf, die schräge Wand dagegen matscht auf der GeForce 7800 GT. Ab der GeForce 8800 GTX musst du aber mit der Lupe suchen, um die Winkelabhängigkeit festzustellen.

Coda
2010-06-13, 13:47:22
Ich weiß, dass ich mich jetzt aber sowas von monströs bloßstelle, aber was soll ich mir unter winkelabhängiger Texturfilterung vorstellen? Das schiefe Flächen nicht gefiltert werden?
Nicht anisotrop. Gefiltert werden sie natürlich trotzdem, nur halt unschärfer.

Das Problem ist aber bei keinem Chip seit Radeon X1000 und GeForce 8 mehr vorhanden. Was Gamestar da schreibt zeugt einfach von Inkompetenz.

Die minimal höhere Schärfe bei ATIs AF, die auch das Flimmern verursacht, kommt nicht von der besseren Gradientenberechnung.
Danke. Wenigstens einer hat es verstanden.

Fetter Fettsack
2010-06-13, 14:06:03
@ Spasstiger und Coda

Danke euch beiden :) .

Gast
2010-06-13, 14:28:49
Das Problem ist aber bei keinem Chip seit Radeon X1000 und GeForce 8 mehr vorhanden. Was Gamestar da schreibt zeugt einfach von Inkompetenz.

Vielleicht hat die ATI Promotion für den deutssprachigen Raum bei der Gamestar etwas springen lassen? Es ist doch merkwürdig, dass gerade, wo der ATI- Saufilter in deutschen Foren und kompenten Zeitschriften wieder mal auf breiter Basis mit klaren Faktenvideos kritisiert wird, Gamestar daherkommt und dies als besten Filter auf dem Markt bezeichnet.
ATI wird wohl eine kleine Gegenkampagne fahren und da bietet sich die klamme Gamestar doch an, um billig gegenzusteuern. Auf Inkompetenz der Redakteure kann man es wohl kaum schieben, sonder auf wirtschaftliche Interessen. Gamestar soll mal die in ihren Augen nur geringe Flimmerneigung mal auf Videos festhalten. ;D

Iruwen
2010-06-13, 14:30:59
Da könnte die PCGH eigentlich grad mal prima kontern :D

Gast
2010-06-13, 14:36:18
R200 (Radeon 8500) AF > GT200 AF. Gamestar hat schon recht. :)

Gast
2010-06-13, 14:36:56
Vielleicht hat die ATI Promotion für den deutssprachigen Raum bei der Gamestar etwas springen lassen? Es ist doch merkwürdig, dass gerade, wo der ATI- Saufilter in deutschen Foren und kompenten Zeitschriften wieder mal auf breiter Basis mit klaren Faktenvideos kritisiert wird, Gamestar daherkommt und dies als besten Filter auf dem Markt bezeichnet.
ATI wird wohl eine kleine Gegenkampagne fahren und da bietet sich die klamme Gamestar doch an, um billig gegenzusteuern. Auf Inkompetenz der Redakteure kann man es wohl kaum schieben, sonder auf wirtschaftliche Interessen. Gamestar soll mal die in ihren Augen nur geringe Flimmerneigung mal auf Videos festhalten. ;D

Wenn du den Text mal liest, dann wirst du feststellen dass es an Inkompetenz liegt.
Ansonsten kann man sich das "Diesindehgeschmiert"-Gerede sparen, dadurch wirkt man noch unglaubwürdiger als die sogenannte "Hardwareredaktion".

Dr. Cox
2010-06-13, 14:41:29
Da könnte die PCGH eigentlich grad mal prima kontern :D

Wird sie aber nicht tun, da sich die Redakteure das verständlicher Weise nicht trauen. Denn sonst kommen wieder alle FanATIker auf ihrer AF-Bugwelle angesurft und flammen was das Zeug hält und unterstellen der PCGH wieder einmal die "Käuflichkeit" wie in der Vergangenheit oft genug geschehen.

Ich würde mich trotzdem freuen, wenn wenigstens einer der PCGH-Redakteure die Eier dazu hätte das Flimmer/Fake-AF von ATI mindestens so an den Pranger zu stellen wie es damals mit dem AF des G70/71 geschehen ist.

Am besten einen kompletten Artikel, der dieses gecheate komplett entlarvt, so dass es auch der letzte FanATIker endlich rafft, dass er Geld für etwas bezahlt, dass er nicht bekommt.

Ich weiß, dass Raffael und Marc solch einen Artikel verfassen könnten, nur ist die Frage, ob sie dies seitens ihres Chefs - gerade wegen der ATItrolle die dann flammen bis der Arzt kommt - dürfen....

Captain Future
2010-06-13, 14:42:24
Denn sonst kommen wieder alle FanATIker auf ihrer AF-Bugwelle angesurft…
ROFL! YMMD!

Dr. Cox
2010-06-13, 14:45:13
ROFL! YMMD!

Ich wüsste nicht, was daran so witzig ist, ich kann schon lange nicht mehr über diese Leute lachen, auch wenn sie noch so lächerlich sein mögen. Denn die sind mit daran schuld, dass ATI immer noch miesestes AF bietet.

BlackBirdSR
2010-06-13, 14:54:41
Das Problem ist doch, dass viele Redaktuere nicht die Zeit und den Background haben, um sich umfassend in solche Themen einzuarbeiten.

Dabe ist es egal, ob das jetzt SMT oder AF ist. Man greift unweigerlich auf die Informationen der Hersteller zurück, wird in Gesprächen durch diese beeinflusst und addiert dazu noch den ein oder anderen Happen, den man in Foren aufgeschnappt hat.

Das ist jetzt keine Rechtfertigung, sondern definitiv ein Problem aller Magaine ohne dedizierten HW-Bereich in dieser Richtung. Man sieht ja, wie oft es selbst die c't in dieser Richtung erwischt.

Gast
2010-06-13, 14:56:22
Ich wüsste nicht, was daran so witzig ist, ich kann schon lange nicht mehr über diese Leute lachen, auch wenn sie noch so lächerlich sein mögen. Denn die sind mit daran schuld, dass ATI immer noch miesestes AF bietet.

Und solche Übertreibungen sind daran schuld, dass man Nirgends mehr darüber etwas schreiben kann.
Plakative Beispiele wie das HL2-Beispiel gibt es einfach nicht mehr und die Threads quellen über mit Beispielen, die nicht zur Abbildung in einem Magazin taugen.
Würde man die so veröffentlichen, würden wohl die meisten Leser nur mit den Schultern zucken und weiterblättern.

Captain Future
2010-06-13, 14:56:58
Ich wüsste nicht, was daran so witzig ist, ich kann schon lange nicht mehr über diese Leute lachen, auch wenn sie noch so lächerlich sein mögen. Denn die sind mit daran schuld, dass ATI immer noch miesestes AF bietet.
Entschuldige. Ich fand das Wortspiel mit Bugwelle und surfen zu geil! :biggrin:

Dr. Cox
2010-06-13, 15:19:14
Entschuldige. Ich fand das Wortspiel mit Bugwelle und surfen zu geil! :biggrin:

Ach quatsch, dafür brauchst du dich nicht entschuldigen ;)

Mich regt einfach nur die Gesamtsituation auf. Vor allem, dass es immer noch Leute gibt, die das Flimmern schön reden können und nun auch noch die Redakteure einer vermeintlichen "Fachzeitschrift", die anscheinend alle einmal einen Termin beim Augenoptiker wahrnehmen sollten....



Und solche Übertreibungen sind daran schuld, dass man Nirgends mehr darüber etwas schreiben kann.


Wo bitte habe ich übertrieben, klär mich auf mein lieber "Gast".

PCGH_Raffael
2010-06-13, 15:24:29
Da könnte die PCGH eigentlich grad mal prima kontern :D

Kontern?

Wird sie aber nicht tun, da sich die Redakteure das verständlicher Weise nicht trauen. Denn sonst kommen wieder alle FanATIker auf ihrer AF-Bugwelle angesurft und flammen was das Zeug hält und unterstellen der PCGH wieder einmal die "Käuflichkeit" wie in der Vergangenheit oft genug geschehen.

Ich würde mich trotzdem freuen, wenn wenigstens einer der PCGH-Redakteure die Eier dazu hätte das Flimmer/Fake-AF von ATI mindestens so an den Pranger zu stellen wie es damals mit dem AF des G70/71 geschehen ist.

Am besten einen kompletten Artikel, der dieses gecheate komplett entlarvt, so dass es auch der letzte FanATIker endlich rafft, dass er Geld für etwas bezahlt, dass er nicht bekommt.

Ich weiß, dass Raffael und Marc solch einen Artikel verfassen könnten, nur ist die Frage, ob sie dies seitens ihres Chefs - gerade wegen der ATItrolle die dann flammen bis der Arzt kommt - dürfen....

Wir kritisieren das Ati-AF immer wieder und listen das bei Kaufberatung als Minuspunkt gegenüber Nvidia. Aber viel mehr als das zu tun ist nicht drin. Wir als Redaktion können nur gebetsmühlenartig auf die Schwachpunkte hinweisen, den Weg aufzeigen – den Weg gehen muss "das Volk" schon selbst. Wenigstens erkennt hier eine Minderheit, wer die Fakten darlegt und wer stattdessen Unfug verbreitet.

Ein AF-Artikel steht seit geraumer Zeit auf der Agenda, aber kein Termin. Eventuell zu Atis neuestem Coup, Southern Islands.

MfG,
Raff

Gast
2010-06-13, 15:31:27
Wird sie aber nicht tun, da sich die Redakteure das verständlicher Weise nicht trauen. Denn sonst kommen wieder alle FanATIker auf ihrer AF-Bugwelle angesurft und flammen was das Zeug hält und unterstellen der PCGH wieder einmal die "Käuflichkeit" wie in der Vergangenheit oft genug geschehen.

Ich würde mich trotzdem freuen, wenn wenigstens einer der PCGH-Redakteure die Eier dazu hätte das Flimmer/Fake-AF von ATI mindestens so an den Pranger zu stellen wie es damals mit dem AF des G70/71 geschehen ist.

Am besten einen kompletten Artikel, der dieses gecheate komplett entlarvt, so dass es auch der letzte FanATIker endlich rafft, dass er Geld für etwas bezahlt, dass er nicht bekommt.

Ich weiß, dass Raffael und Marc solch einen Artikel verfassen könnten, nur ist die Frage, ob sie dies seitens ihres Chefs - gerade wegen der ATItrolle die dann flammen bis der Arzt kommt - dürfen....


Das Problem ist das so Fanboys wie du jegliche Diskussion darüber versauen. Wo warst du eigentlich bei G7x? Achja da war es dir egal. Gerade PCGH stellt das AF immer und immer wieder sehr stark in den Vordergrund und tut so als ob man keine Grafikkarte mehr kaufen könnte die nicht von Nvidia kommt, das halte ich für übertrieben. Man braucht schon fast eine speziellen Trainer der eine darauf einschult um das überhaupt laufend wahrzunehmen. Ich habe damit kein Problem ganz einfach. Ansonsten gibt es dazu Artikel am laufenden Band. Das Gamestar wie gewohnt bei der Hardware inkompetent ist ist schon lange kein Geheimnis, das ist natürlich zu kritisieren.

pest
2010-06-13, 15:35:48
Wo bitte habe ich übertrieben

ich klär' dich auf...was soll diese Polemisierung niedrigsten Niveaus "miesestes AF" ?

ein Glück arbeiten Leute wie du nicht bei Gamemagazinen, jedenfalls...hoffe ich das

Dr. Cox
2010-06-13, 15:35:52
Wir kritisieren das Ati-AF immer wieder und listen das bei Kaufberatung als Minuspunkt gegenüber Nvidia. Aber viel mehr als das zu tun ist nicht drin. Wir als Redaktion können nur gebetsmühlenartig auf die Schwachpunkte hinweisen, den Weg aufzeigen – den Weg gehen muss "das Volk" schon selbst. Wenigstens erkennt hier eine Minderheit, wer die Fakten darlegt und wer stattdessen Unfug verbreitet.

Ein AF-Artikel steht seit geraumer Zeit auf der Agenda, aber kein Termin. Eventuell zu Atis neuestem Coup, Southern Islands.

MfG,
Raff


Hört sich zwar gut an, nur ist es fraglich, ob dieser Artikel dann vielleicht nicht zu spät ist. Immerhin könnte ATI jetzt noch die TMUs des kommenden Grafikchips auf besseres AF vorbereiten. Wenn Southern Island da ist, geht das leider nicht merh und wir müssen uns eine weitere Generation mit flimmerndem AF beim kauf einer ATI-Karte zufrieden geben...


ich klär' dich auf...was soll diese Polemisierung niedrigsten Niveaus "miesestes AF" ?


Hast du das Flimmern einer HD 4XX0, oder HD 5XX0-Karte schon einmal erlebt und dann mit dem AF einer Nvidia-Karte verglichen?

Sicherlich nicht, denn sonst würdest du mir diesbezüglich zustimmen.

Setz mal deine rote gefärbte Brille ab, oder überhaupt mal eine Brille auf, wenn du mit einer ATI-Karte 16xAF in Gothic 3, HL2, Crysis, etc.. zockst, dann wirst auch du das nervige Grieseln sehen! Das Flimmern und Grieseln, dass nicht nur mich zum Wahnsinn treibt, sondern auch viele andere hier, die seitdem - genauso wie - nur noch ATI-Karte kaufen können, weil Typen wie du dieses Flimmern auch noch schön reden, oder verteidigen :uclap:

Gast von vorhin
2010-06-13, 15:36:36
Wo bitte habe ich übertrieben, klär mich auf mein lieber "Gast".

Bei dem Vergleich mit G70/71.
Wäre es so schlimm, könnte man einfach wie Spasstiger ein Bild posten, Alle sehen es, fertig.
Solche plakativen Bilder sind eben nicht möglich und Beleidigungen und sontiges typisches Nerdgebashe, dass es auch gäbe wenn beide IHVs perfekte Karten hätten, helfen dabei auch kein Stück weiter.

Coda
2010-06-13, 15:40:29
Hört sich zwar gut an, nur ist es fraglich, ob dieser Artikel dann vielleicht nicht zu spät ist. Immerhin könnte ATI jetzt noch die TMUs des kommenden Grafikchips auf besseres AF vorbereiten. Wenn Southern Island da ist, geht das leider nicht merh und wir müssen uns eine weitere Generation mit flimmerndem AF beim kauf einer ATI-Karte zufrieden geben...
Das ist jetzt auch schon zu spät. Der Tape-Out für Southern Islands ist wahrscheinlich in den nächsten zwei Monaten oder sogar schon erfolgt.

Ich hoffe ja immer noch, dass sie endlich ein Einsehen haben mit SI.

AwesomeSauce
2010-06-13, 15:41:34
Das Flimmern manifestiert sich eher bei bewegten Bildern, einzelne Frames reichen oft nicht. Sich auf statische Bilder zu versteifen, ist überhaupt nicht förderlich.

Dr. Cox
2010-06-13, 15:44:56
Das ist jetzt auch schon zu spät. Der Tape-Out für Southern Islands ist wahrscheinlich in den nächsten zwei Monaten oder sogar schon erfolgt.

Ich hoffe ja immer noch, dass sie endlich ein Einsehen haben mit SI.

OK, dann können wir wohl nur noch hoffen, dass ATI die Kritik am AF tatsächlich ernst genommen hat und uns nun ein besseres AF bietet...

Fetter Fettsack
2010-06-13, 15:44:59
Wäre es so schlimm, könnte man einfach wie Spasstiger ein Bild posten, Alle sehen es, fertig.

Naja, Flimmern, zumal es ja nicht immer sonderlich auffällig ist, sieht man eher nur in Bewegung, nicht auf Standbildern.

Dr. Cox
2010-06-13, 15:46:57
Naja, Flimmern, zumal es ja nicht immer sonderlich auffällig ist, sieht man eher nur in Bewegung, nicht auf Standbildern.

Das verstehen diese Leute doch immer nicht :freak:

Gast
2010-06-13, 15:48:10
Hast du das Flimmern einer HD 4XX0, oder HD 5XX0-Karte schon einmal erlebt und dann mit dem AF einer Nvidia-Karte verglichen?


Ja, und es ist auf eine HD5xxx allemal besser als das extreme Banding auf NV_Q.


Setz mal deine rote gefärbte Brille ab, oder überhaupt mal eine Brille auf, wenn du mit einer ATI-Karte 16xAF in Gothic 3, HL2, Crysis, etc.. zockst, dann wirst auch du das nervige Grieseln sehen! Das Flimmern und Grieseln, dass nicht nur mich zum Wahnsinn treibt, sondern auch viele andere hier, die seitdem - genauso wie - nur noch ATI-Karte kaufen können, weil Typen wie du dieses Flimmern auch noch schön reden, oder verteidigen :uclap:

Nimm du mal deine grüne Brille ab dann könnte man dich vielleicht auch ernst nehmen.

Dr. Cox
2010-06-13, 15:50:56
Das Problem ist das so Fanboys wie du jegliche Diskussion darüber versauen. Wo warst du eigentlich bei G7x? Achja da war es dir egal.

Nö, egal war es mir nicht, nur hatte ich damals, einfach noch kein Internet und habe zu dem Zeitpunkt meine Abschlussprüfung geschrieben. Aber dafür entschuldige ich mich natürlich vielmals bei dir :freak:



Ja, und es ist auf eine HD5xxx allemal besser als das extreme Banding auf NV_Q.

Wer spielt denn bitteschön mit Q, wenn er auch mit dem viel besseren HQ spielen kann, welches kaum Leistung kostet? Man seid ihr mal wieder Lustig, ich schmeiße mich weg vor Lachen ;D


Nimm du mal deine grüne Brille ab dann könnte man dich vielleicht auch ernst nehmen.

FanATIker nehmen eh nur andere FanATIker ernst, dementsprechend interessiert es mich nicht, ob du mich ernst nimmst. Melde dich lieber mal an, oder logg dich wieder ein, wenn du etwas zu sagen hast ;)

La Junta
2010-06-13, 16:02:10
Das Problem ist das so Fanboys wie du jegliche Diskussion darüber versauen. Wo warst du eigentlich bei G7x? Achja da war es dir egal. Gerade PCGH stellt das AF immer und immer wieder sehr stark in den Vordergrund und tut so als ob man keine Grafikkarte mehr kaufen könnte die nicht von Nvidia kommt, das halte ich für übertrieben. Man braucht schon fast eine speziellen Trainer der eine darauf einschult um das überhaupt laufend wahrzunehmen. Ich habe damit kein Problem ganz einfach. Ansonsten gibt es dazu Artikel am laufenden Band. Das Gamestar wie gewohnt bei der Hardware inkompetent ist ist schon lange kein Geheimnis, das ist natürlich zu kritisieren.

In etwa so sehe ich das auch . Teilweisse sehe ichs , aber es ist so minimal das es mich nicht wirklich stört . Nichts desto trotz sehe ich Kritik seitens Redakteuren als willkommen , aber nur sofern sie nicht übertrieben ist . Ich hatte z.B mühe mir eine 5870iger zu kaufen , weil ich erwartet habe das sie so schlimm flimmert , so das ich es nicht ertragen kann (so wirds halt des öfteren dargestellt) . Eigendlich ist es manchmal sichtbar , aber beim normalen zocken wo mann nicht danach sucht kaum wahrnehmbar . Trotzdem ist das Bild auf den NV Karten ruhiger und da gibts nichts schönzureden . Ich bin mit der Karte trotzdem vollkommen zufrieden und würde sie auch nicht mehr tauschen .

@Topic: Wer liest schon Gamestar um sich über Hardware zu informieren ???

Reneeeeeee
2010-06-13, 16:05:47
Setz mal deine rote gefärbte Brille ab, oder überhaupt mal eine Brille auf, wenn du mit einer ATI-Karte 16xAF in Gothic 3, HL2, Crysis, etc.. zockst, dann wirst auch du das nervige Grieseln sehen! Das Flimmern und Grieseln, dass nicht nur mich zum Wahnsinn treibt, sondern auch viele andere hier, die seitdem - genauso wie - nur noch ATI-Karte kaufen können, weil Typen wie du dieses Flimmern auch noch schön reden, oder verteidigen :uclap:

Also mal ehrlich , wenn ich zocke schau ich jetzt nicht jedes Bild ab nach Flimmern oder Grieseln, bis jetzt ist mir bei meinen Games noch nichts derartiges aufgefallen, spiele aber auch keine Uralt-Games.

Ich glaube du nimmst das ganze bißchen zu ernst und solltest vielleicht mal bisl weniger zocken.

Ich bin aber auch keiner der jetzt ein perfektes Bild haben muss und bin nicht so ein Grafikfreak wie ihr, ich mach immer 16xAF und 8XAA MSAA rein und mehr nicht. Geflimmert hat es noch nicht 1x bei mir oder ich schau da nicht drauf , denke aber das es mir schon aufgefallen wäre. Mag vielleicht auch an meinen Spielen liegen, Lotro, BFBC2, GuildWars, WOW,AoC,BF2,ANNO1404 und paar andere . Dort ist mir bis jetzt noch nichts aufgefallen (5870) .

Ich bin super zufrieden mit meiner 5870 und würde die auch niemals gegen den Stromfresser tauschen. ^^

Gast
2010-06-13, 16:05:52
Und da wunderst du dich noch, dass man dich nicht Ernst nimmt?
Würdest du ein Magazin herausgeben, würde dann drinstehen: ATI flimmert schlimmer als Alles je Dagewesene und wer Das nicht so sieht ist ein schei.. ATI-Fanboy und soll sich verpi.....
Solche "Bildqualitätsthreads" kann doch kein Mensch ernst nehmen.

boxleitnerb
2010-06-13, 16:08:18
Wer nichtmal den Unterschied MSAA zu SSAA sieht, braucht hier gar nicht erst mitzureden.

Reneeeeeee
2010-06-13, 16:13:24
Wer nichtmal den Unterschied MSAA zu SSAA sieht, braucht hier gar nicht erst mitzureden.

mach mal wow drauf und kuck selber mal , da sieht man kaum ein unterschied ansonsten bitte ich um screens

Gast
2010-06-13, 16:15:13
OK, dann können wir wohl nur noch hoffen, dass ATI die Kritik am AF tatsächlich ernst genommen hat und uns nun ein besseres AF bietet...
Welche Kritik?
Mal ehrlich, auch abseits von dem Gamestargeraffel spürt man davon wenig. Im Gegenteil wurde die HD4 noch mehr als schon die HD4 gelobt.
Ich denke AMD hat gelernt, die bessere AF Blume war ein geringer Aufwand mit heftigem Lob.
Zumindest in den Foren ist die Stimmung sehr AMD positiv, in allen Belangen. Es gibt für AMD schlicht keinerlei Grund für einen Kurswechsel.
nVidia musste sich dem beugen, sie haben ihre Texturleistungreserven heftig abgebaut.

Gelassen kann man es wirklich nicht mehr sehen. Nicht nur Si, sondern auch NI werden da weitermachen wo wir heute stehen. Kein Schritt mehr nach vorne. Vor der HD4 dachte ich noch das es sich ändern könnte, jetzt sehe ich für mindestens 2 Jahre schwarz. Der Kampf ist verloren.
Bedanken kann ich mich gerne wiederholt bei den AMD Bots. Immer klein reden wenn man kritisiert. Immer sagen es sei ihnen unwichtig, was mir wichtig ist egal. Daüfr fett auf EDAA und 8xMSAA rumtrampeln.
Die Situation ist verkorkst und Gamestar ist gut dabei.

Die Frage die ich mir jetzt stelle ist, was ist mit nVidia? Belassen sie es bei wahlweise teurem Qualitäts AF? Zumindest billiges Qualitäts AF können wir die nächste Zeit vergessen.

Gast
2010-06-13, 16:19:04
Also mal ehrlich , wenn ich zocke schau ich jetzt nicht jedes Bild ab nach Flimmern oder Grieseln, bis jetzt ist mir bei meinen Games noch nichts derartiges aufgefallen, spiele aber auch keine Uralt-Games.

Schön für dich, jetzt geh in einen anderen Thread.
Genau durch Leute wie dich sind wir da wo wir jetzt sind. Filtercheats und zusätzliche Filtercheats in Crysis.
Freu dich das du es angeblich übersiehst.

Anderen sticht es ins Auge, Flimmern ist nunmal etwas was man ohne direktes hinsehen sieht.

Ich wunder mich bei Leuten wie dir immer in diesem Punkt:
Du legst weniger Wert auf Qualität. Das ist ok, respektiere ich.
Aber warum kaufst du dann 400€ Grafikkarten? Das will und kann ich nicht verstehen.

Dr. Cox
2010-06-13, 16:41:00
Also mal ehrlich , wenn ich zocke schau ich jetzt nicht jedes Bild ab nach Flimmern oder Grieseln, bis jetzt ist mir bei meinen Games noch nichts derartiges aufgefallen, spiele aber auch keine Uralt-Games.


Wenn du das Flimmern nicht siehst, dann geh zum Optiker, oder vergleiche mal das AF deiner HD 5870 mit dem AF einer Nvidia-Karte im gleichen Spiel bei den gleichen Settings falls es dir möglich ist. Dann wird auch dir das Flimmern der HD 5870 auffallen, wenn du nicht Blind wie ein Maulwurf sein solltest ;)


Und da wunderst du dich noch, dass man dich nicht Ernst nimmt?

Mich wundert das nicht im geringsten, dass FaATIker Kritik an den Produkten ihrer Religion nicht ernst nehmen und dann wie du als Gast in den Dschihad ziehen :freak:


Würdest du ein Magazin herausgeben, würde dann drinstehen: ATI flimmert schlimmer als Alles je Dagewesene und wer Das nicht so sieht ist ein schei.. ATI-Fanboy und soll sich verpi.....

Hast du das heute morgen geträumt, bevor du dich aus deiner roten ATI-Bettwäsche geschält hast?


Solche "Bildqualitätsthreads" kann doch kein Mensch ernst nehmen.

Gäste wie dich, die hier nur trollen, ohne sachlich auf die Argumente anderer User einzugehen, kann auch kein Mensch ernst nehmen ;)

Dimon
2010-06-13, 16:43:36
Also mal ehrlich , wenn ich zocke schau ich jetzt nicht jedes Bild ab nach Flimmern oder Grieseln, bis jetzt ist mir bei meinen Games noch nichts derartiges aufgefallen, spiele aber auch keine Uralt-Games.

Ich glaube du nimmst das ganze bißchen zu ernst und solltest vielleicht mal bisl weniger zocken.

Ich bin aber auch keiner der jetzt ein perfektes Bild haben muss und bin nicht so ein Grafikfreak wie ihr, ich mach immer 16xAF und 8XAA MSAA rein und mehr nicht. Geflimmert hat es noch nicht 1x bei mir oder ich schau da nicht drauf , denke aber das es mir schon aufgefallen wäre. Mag vielleicht auch an meinen Spielen liegen, Lotro, BFBC2, GuildWars, WOW,AoC,BF2,ANNO1404 und paar andere . Dort ist mir bis jetzt noch nichts aufgefallen (5870). Ich bin super zufrieden mit meiner 5870 und würde die auch niemals gegen den Stromfresser tauschen. ^^

Pack die Keule namens Fallout 3 raus, da Flimmern ATI´s sich zum Tode, NV´s dagegen kaum, so leid es mir tut :redface:

Schlammsau
2010-06-13, 16:44:05
Und ich dachte schon, dass ich der einzige bin, dem das flimmern kaum bis gar nicht auffällt. *Puh*

boxleitnerb
2010-06-13, 16:44:33
mach mal wow drauf und kuck selber mal , da sieht man kaum ein unterschied ansonsten bitte ich um screens

Du weißt schon, dass man die Vorzüge von SSAA am Besten in Bewegung genießt, oder?

y33H@
2010-06-13, 16:49:20
@ Schlammsau

Bei dir ist's ja angeblich auch der pööshe TFT ;)

Tesseract
2010-06-13, 17:04:59
mach mal wow drauf und kuck selber mal , da sieht man kaum ein unterschied ansonsten bitte ich um screens
lauf mal durch sindragosas raum und schau auf den boden. der schlägt ohne supersampling laolawellen.

wenn dir das nicht sofort ins auge sticht - ob du willst oder nicht - würde ich dir dringend raten einen augenarzt aufzusuchen.

Schlammsau
2010-06-13, 17:09:30
@ Schlammsau

Bei dir ist's ja angeblich auch der pööshe TFT ;)

Was soll das?
Ich habe nur gesagt, dass es sein kann bzw. das ich befürchte, dass das flimmern von bestimmten Monitoren verstärkt bzw abgeschwächt wird. Nicht mehr und nicht weniger! :P

Und ich bin wohl wirklich nicht der einzige auf dem Planeten, von dem das Flimmern stark subjektiv wahrgenommen wird. Es gibt extreme Situationen, wo das Flimmern auf ATis, mehr auffällt als auf nVidias unter HQ. Aber das beschränkt sich auf extrem Situationen und relativ wenige Games, wo man fast schon mit der Lupe suchen muss.

Dr. Cox
2010-06-13, 17:14:35
Und ich bin wohl wirklich nicht der einzige auf dem Planeten, von dem das Flimmern stark subjektiv wahrgenommen wird. Es gibt extreme Situationen, wo das Flimmern auf ATis, mehr auffällt als auf nVidias unter HQ. Aber das beschränkt sich auf extrem Situationen und relativ wenige Games, wo man fast schon mit der Lupe suchen muss.

Vielleicht musst du mit der Lupe suchen, alle anderen, die einen normalen Dioptrinwert haben brauchen das nicht, denen springt das Flimmern direkt ins Gesicht ;)

Schlammsau
2010-06-13, 17:16:00
Vielleicht musst du mit der Lupe suchen, alle anderen, die einen normalen Dioptrinwert haben brauchen das nicht, denen springt das Flimmern direkt ins Gesicht ;)

Glaub mir, ich habe mit meinen 29 Jahren noch die volle Sehstärke. Zumindest laut meinem letzten Sehtest vor einem Jahr! ;)

Nakai
2010-06-13, 17:17:31
Mich interessiert das Flimmern nicht die Bohne. Hab im Treiber alles auf Hohe Leistung und Hohe Performance gestellt. Mein Laptop mit ner HD3650 ist hald sehr leistungsschwach. ;)

...aber im Ernst. Wenn ich genug Performance hätte würde ich jeden Scheißdreck aktivieren. AF, MSAA, SSAA usw etc. Deswegen muss ATI soviele HQ-Schalter reinbaun wie es geht. Selbst NV muss da noch mehr reinhaun. ;)
Ich will die totale Kontrolle.

Dann wäre jeder hier zufrieden.
Und klar, endlich keine Fanboikriege wegen dem Scheiß hier.


mfg

Dr. Cox
2010-06-13, 17:19:48
Glaub mir, ich habe mit meinen 29 Jahren noch die volle Sehstärke. Zumindest laut meinem letzten Sehtest vor einem Jahr! ;)

Dann frage ich mich, wei du immer und immer wieder behaupten kannst, dass die ATI-Karten nicht flimmern würden?
Fehlen dir vielleicht die Vergleichsmöglichkeiten zu deiner HD 5850?
Hast du schon einmal die gleichen Spiele auf einer Nvidia-Karte mit HQ gespielt?

Black-Scorpion
2010-06-13, 17:20:01
Und klar, endlich keine Fanboikriege wegen dem Scheiß hier.


mfg

Ich sehe in dem Thread nur einen der sich reichlich austobt.

airbag
2010-06-13, 17:26:41
@Dr. Cox

Wenn er es nicht sieht dann lasse ihn doch. Es gibt genug Leute, die während des Spielens nicht auf die BQ achten geschweige ein Flimmern.

BTW
Ich bin kurzsichtig und es sehe es trotzdem ohne Brille. Soviel zu Sehschwäche und nicht sehen können. ^^

Tesseract
2010-06-13, 17:26:57
Hast du schon einmal die gleichen Spiele auf einer Nvidia-Karte mit HQ gespielt?
am besten einfach mit supersampling und dann wieder ausschalten.

das problem sind in den meisten fällen aber nicht die sinnesorgane sondern was das hirn draus macht. ein großteil der leute läuft nunmal mit abgestumpfen sinnen rum.
es schmecken 2 komplett verschiedene speisen/geränke "gleich", es sehen 2 verschiedene farben "gleich" aus, es hören sich 2 verschiedene boxen "gleich" an usw.
oft wird sogar das schlechtere als besser angesehen.

aber frag mich nicht woran das liegt, ich bin kein psychologe.

Wenn er es nicht sieht dann lasse ihn doch. Es gibt genug Leute, die während des Spielens nicht auf die BQ achten geschweige ein Flimmern.
das problem an der sache ist, dass man (zumindest ich) nicht extra auf die bildqualität achtet sondern einfach nur spielen will, die mängel einem aber ins gesicht springen und stören bzw. die immersion kaputt machen.
wenn ich durch einen gang laufe will ich durch einen gang laufen und nicht irgendwelchen artefakten beim tanzen zusehen. wenn die massive steinwand aber plötzlich auf disco macht stimmt das einfach nicht.

Dr. Cox
2010-06-13, 17:28:04
Ich sehe in dem Thread nur einen der sich reichlich austobt.

Komisch, ich sehe mehrere :uponder:

Raff
2010-06-13, 17:32:44
Wenn ich mich aus der Rolle des Bildqualitäts-Fetischisten löse und das Geschehen hier und woanders betrachte, will mir vor allem ein Blödsinn (natürlich) nicht in den Kopf: Hier wie da rennen unzählige Leute herum, die sich dem Fortschritt gegenüber verschließen. Leute, die sich (fast) jeden Mist gefallen lassen. Leute, die andere Leute dafür ankacken, dass sie eben nicht mit jedem Scheiß zufrieden sind und optional mehr wollen.

Kostenloses HQ-AF? Brauche ich nicht!
Supersampling? Drauf geschissen!
Mehr Grafikkarte für mein Geld? Schnickschnack!

Hä? :ulol:

MfG,
Raff

Gastechniker
2010-06-13, 17:44:10
Leute, die andere Leute dafür ankacken, dass sie eben nicht mit jedem Scheiß zufrieden sind und optional mehr wollen.

Kostenloses HQ-AF? Brauche ich nicht!
Supersampling? Drauf geschissen!
Mehr Grafikkarte für mein Geld? Schnickschnack!

Hä? :ulol:

MfG,
Raff

Klar, das ist die wahre Intention der ganzen NV-Jünger hier. Die wollen uns ATI-Freaks Bildqualität beibringen. Ist das nicht rührend?

Gerade bei ATI hat man in den letzten Jahren viel Grafikkarte fürs Geld bekommen. Bei der 5XXX-Reihe trifft das auf Juniper sogar noch immer zu.

Deine anfeindenden Verallgemeinerungen kannst Du Dir künftig bitte auch sparen. Das ist genauso entbehrlich wie deine Accountswitcherei.

y33H@
2010-06-13, 17:44:40
Du hast viele Fps bekommen. Das war alles.

frix
2010-06-13, 17:46:02
das bestätigt einmal mehr was gamestar für ein mist ist.

Captain Future
2010-06-13, 17:47:28
Es gibt extreme Situationen, wo das Flimmern auf ATis, mehr auffällt als auf nVidias unter HQ. Aber das beschränkt sich auf extrem Situationen und relativ wenige Games, wo man fast schon mit der Lupe suchen muss.
Nein, das ist in der Mehrzahl der Fälle so.

Gastechniker
2010-06-13, 17:50:13
Du hast viele Fps bekommen. Das war alles.

Sehe ich zwar nicht so, aber dennoch: Das reicht mir. Das ist mit großem Abstand das Wichtigste.

Was ist daran so verwerflich? Wem das nicht passt, der soll halt bei NV einkaufen, aber bitte ohne gleich noch das NV Missionarsseminar zu besuchen.

Dr. Cox
2010-06-13, 17:51:11
Klar, das ist die wahre Intention der ganzen NV-Jünger hier. Die wollen uns ATI-Freaks Bildqualität beibringen. Ist das nicht rührend?

Gerade bei ATI hat man in den letzten Jahren viel Grafikkarte fürs Geld bekommen. Bei der 5XXX-Reihe trifft das auf Juniper sogar noch immer zu.


:upicard:


Wenn du viel Frames für wenig Geld willst, dann nimm doch eine Onboardgrafikkarte und spiel wieder Pong, da hast du dann bestimmt nicht nur 60 Frames, nein du hast dann 60.000.000.000 Frames :ucatch:

airbag
2010-06-13, 17:52:36
Sehe ich zwar nicht so, aber dennoch: Das reicht mir. Das ist mit großem Abstand das Wichtigste.

Was ist daran so verwerflich? Wem das nicht passt, der soll halt bei NV einkaufen, aber bitte ohne gleich noch das NV Missionarsseminar zu besuchen.
Naja mehr als 60FPS braucht man im Normalfall doch nicht.
Immerhin ist Tearing schlimmer als AF Flimmern.

Tesseract
2010-06-13, 17:53:27
da hast du dann bestimmt nicht nur 60 Frames, nein du hast dann 60.000.000.000 Frames :ucatch:

viel mehr als ~1000-2000 fps wirst du damit nicht zusammen bekommen können weil der bufferswap/clear der graka einfach nicht schneller ist. :D

y33H@
2010-06-13, 17:57:33
Das ist mit großem Abstand das Wichtigste. Bildqualität ist ergo irgendwo unter Sonstiges? Genug Fps für aktuelle Spiele liefert auch eine 7800 GT. Halt in 640 x 480 und niedrigsten Details ohne AA/AF. Sieht grausam aus - aber hey, ich habe 50 Fps und das ist mit großem Abstand das Wichtigste ;D

Gastechniker
2010-06-13, 18:01:44
Schön, dass sich gleich so eine aggressive Technologiebremse ausloggt, in diesem Thread meldet und mich auf der persönlichen Schiene angreift. Vergiss es, der Kampf geht weiter.

MfG,
Raff

Na ja, wo Du da einen Angriff siehst, erschließt sich mir nicht, gebe aber gerne prophylaktisch ein dickes Sorry zum Besten. Es soll Dir an nichts fehlen.

Ob ich eine Technologiebremse bin, kann ich nicht beurteilen. Ich denke, die sitzen eher hinter den Konsolen. Mein PC verfügt seit 8 Monaten über 4 Kerne, DX11 in Hard- und Software. So gesehen bin ich sogar ein Technologie-Vorreiter.

Ausgeloggt bin ich nicht. Ich habe kein Konto hier.

Dr. Cox
2010-06-13, 18:01:47
Schön, dass sich gleich so eine aggressive Technologiebremse ausloggt, in diesem Thread meldet und mich auf der persönlichen Schiene angreift. Vergiss es, der Kampf geht weiter.


Das ist die richtige Einstellung :up:

Schlammsau
2010-06-13, 18:03:29
Dann frage ich mich, wei du immer und immer wieder behaupten kannst, dass die ATI-Karten nicht flimmern würden?
Fehlen dir vielleicht die Vergleichsmöglichkeiten zu deiner HD 5850?
Hast du schon einmal die gleichen Spiele auf einer Nvidia-Karte mit HQ gespielt?

Verdammt noch mal, ich habe nie gesagt, dass sie nicht mehr zum Flimmern neigen würden! Niemals! :P
Meine Meinung ist, dass es nur sehr sehr selten in extrem Situationen auffallen kann aber nicht muss! ATi hat die schlechtere Filterquali.
Aber von Augenkrebserzeugend bzw. "miesestes AF" kann keine Rede sein!

Mir scheint, ihr nVidia Fanboys lest nur das was ihr wollt! Vielleicht solltest du dir eine Lesebrille besorgen!

Gastechniker
2010-06-13, 18:05:45
Bildqualität ist ergo irgendwo unter Sonstiges? Genug Fps für aktuelle Spiele liefert auch eine 7800 GT. Halt in 640 x 480 und niedrigsten Details ohne AA/AF. Sieht grausam aus - aber hey, ich habe 50 Fps und das ist mit großem Abstand das Wichtigste ;D

Nein, das muss schon in der nativen Auflösung meines Monitors (1680*1050) möglich sein. AA nutze ich in der Regel 4x mit adaptiver Abtastung. SSAA habe ich erst 2-3 mal ausprobiert; nette Spielerei, aber gänzlich entbehrlich.

Dr. Cox
2010-06-13, 18:06:06
Verdammt noch mal, ich habe nie gesagt, dass sie nicht mehr zum Flimmern neigen würden! Niemals! :P
Meine Meinung ist, dass es nur sehr sehr selten in extrem Situationen auffallen kann aber nicht muss!


Schon klar und die Erde ist eine Scheibe :freak: ;D

Ob es dir auffällt oder aus irgendwelchen - nicht nachvollziehbaren - Gründen nicht auffällt, ist sowieso hinfällig, da das Flimmern bewiesener Maßen einfach da ist! Es flimmert einfach auf ATI-Karten unabhängig davon, ob es dir auffällt, oder nicht ;)


Nein, das muss schon in der nativen Auflösung meines Monitors (1680*1050) möglich sein. AA nutze ich in der Regel 4x mit adaptiver Abtastung. SSAA habe ich erst 2-3 mal ausprobiert; nette Spielerei, aber gänzlich entbehrlich.

Hey, wenn wir schon dabei sind, warum schmeißen wir da nicht einfach alles "Entbehrliche" raus?

Brauchen wir wirklich Shader und Lichteffekte? Nein, also raus mit dem "Entbehrlichen"!

Brauchen wir Texturen? Nein, also raus mit dem "Entbehrlichen"!

Brauchen wir eigentlich überhaupt 3D, oder gar PC-Spiele? Nein, das alles brauchen wir nicht, also raus mit dem "Entbehrlichen"!

Brauchen wir denn eigentlich einen Farbbildschirm? Also ehrlich gesagt ist auch dieser "entbehrlich", schließlich reicht doch "Schwarz-Weiß" vollkommen aus, nicht wahr? :freak:

OgrEGT
2010-06-13, 18:10:49
Um mal zusammenzufassen...

1. Das Fazit der Gamestar sollte man nicht ernst nehmen.
2. ATI's AF ist mit NV's AF gleich auf bzgl. Winkelunabhängigkeit.
3. AF Winkelunabhängigkeit ist bei beiden Herstellern seit einiger Zeit zufriedenstellend, da geringe Abweichungen in der Praxis (3D Games) nicht auffallen.
4. ATI's AF ist Flimmer-anfälliger als NV's AF.
5. Flimmern wird subjektiv wahrgenommen.
6. Flimmer-Anfälligkeit sollte bei beiden Herstellern weiter verbessert werden.
7. BQ soll generell weiter verbessert werden.
8. Es ist WM :smile:
9. Prost :ubeer:

Gastechniker
2010-06-13, 18:21:16
Phenom II X6 @ 3,0 GHz | Radeon HD 5870 Vapor-X OC/UV | 770TA-UD3 | 4 GiB | X-Fi Forte 7.1 | 30 Zoll
Phenom II X4 BE (Deneb) @ 3,6 GHz | Radeon HD 5750/1G @ 920/2.700 MHz | M3A78-T | 4 GiB | X-Fi Titanium
Core 2 Duo (Allendale) @ 3,6 GHz | GeForce GTX 280 @ 285+ (AC Xtreme) | EP45-DS3 | 2 GiB | X-Fi Prelude
Pentium-M (Dothan) @ 2,77 GHz | Radeon HD 3850/1.024 | P4GPL-X | 2 GiB | X-Fi Xtreme Music | Voodoo2 SLI
Athlon XP (Barton) @ 2,7 GHz | 3dfx Voodoo5 6000 128 MiB Rev. A-3700 | 8K5A3+ | 1 GiB | SB Live! 5.1 Digital

Dies ist mein Privat-Account, Sprachrohr meiner persönlichen Meinung


Gestatte mir bitte noch eine Anmerkung: Du hast erstaunlich viele Karten von ATI. Das erstaunt, angesichts deiner Kritik am Hersteller dieser Produkte, einigermaßen.

y33H@
2010-06-13, 18:22:01
Wieso? Bis auf die AF-Geschichte sind die Karten ja sehr gut, vor allem die HD5k.

Fetter Fettsack
2010-06-13, 18:25:09
Brauchen wir denn eigentlich einen Farbbildschirm? Also ehrlich gesagt ist auch dieser "entbehrlich", schließlich reicht doch "Schwarz-Weiß" vollkommen aus, nicht wahr?

Bei Shootern sicher, da sieht man Bewegungen besser :ulol:

Jungs, habt euch doch wieder lieb, es kann doch nicht sein, dass hier Hasstiraden abgelassen werden, weil irgendeiner in Sachen Grafikkarten (!) anderer Ansicht ist (wie auch immer die aussehen mag). Es gibt doch wohl kaum etwas anderes, das es dermaßen wenig rechtfertig sich gegenseitig an die Gurgel zu gehen. Da kann man ja auch gleich anfangen, sich darüber zu streiten, ob denn nun Playmobil oder Lego das bessere Spielzeug ist. :)

EDIT:

Das erstaunt, angesichts deiner Kritik am Hersteller dieser Produkte, einigermaßen.

Nein, ich finde nicht, dass das erstaunt. Er weiß somit bestens wovon er redet und das einzige, was ihm nicht an den Karten zu passen scheint, ist das AF. Weil man aber berechtigte Kritik nur hört, wenn sie laut genug ist, ist er eben lauter dabei. Du musst zwischen sachlicher und unsachlicher Kritik unterscheiden.

Gastechniker
2010-06-13, 18:26:02
Wieso? Bis auf die AF-Geschichte sind die Karten ja sehr gut, vor allem die HD5k.

Sorry, aber ich habe nicht Dich gefragt. Du bist konsequent und hast keine Radeon, sofern deine angegebene Konfiguration noch aktuell ist.

(Ich dachte, mehr als viele FPS liefern die Radeons nicht? Was stimmt den nun?)

OgrEGT
2010-06-13, 18:28:00
Da kann man ja auch gleich anfangen, sich darüber zu streiten, ob denn nun Playmobil oder Lego das bessere Spielzeug ist. :)

;D Das ist der Vergleich der mir ständig auf der Zunge lag ;D

y33H@
2010-06-13, 18:28:14
@ Gastechniker

Ich habe seit Wochen eine HD5870 PCS+ drin ... die GTX 280 ist tot. Und sobald es gescheite Kühler gibt, kaufe ich wohl eine GTX480, da die noch mehr Features als eine HD5870 bietet - mehr SGSSAA und HQ-AF. Und schneller :D
Ich dachte, mehr als viele FPS liefern die Radeons nicht? Was stimmt den nun?Bezog sich auf die HD4k. Und im Vergleich zu den GTX 2x0 lieferten diese nur teils mehr Fps, Feature-seitig aber durchgehend weniger.

OgrEGT
2010-06-13, 18:31:41
Ich habe seit Wochen eine HD5870 PCS+ drin ... die GTX 280 ist tot. Und sobald es gescheite Kühler gibt, kaufe ich wohl eine GTX480, da die noch mehr Features als eine HD5870 bietet - mehr SGSSAA und HQ-AF. Und schneller :D


Na bis es soweit ist, kannst Du auch gleich auf SI warten.

y33H@
2010-06-13, 18:36:38
Das Kühlblech des VF3000F samt einem HR-03GTX sollte reichen, schau ich mal die Woche.

OgrEGT
2010-06-13, 18:41:13
Das Kühlblech des VF3000F samt einem HR-03GTX sollte reichen, schau ich mal die Woche.

Stimmt, den hatte ich bei euch auf der Seite schon mal gesehen. Und ist der viel besser als der Stock?

y33H@
2010-06-13, 18:55:22
We'll see. Mir geht's nur um das Kühlblech für die VRMs, der VF3000F ist mir zu laut.

OgrEGT
2010-06-13, 19:17:31
Mach doch dann mal in euerem Labor einen Kurztest zur Lautstärke und Kühlleistung mit dieser Kombination, wäre bestimmt interessant.

y33H@
2010-06-13, 19:17:58
WIP =)

Captain Future
2010-06-13, 19:22:08
Meine Meinung ist, dass es nur sehr sehr selten in extrem Situationen auffallen kann aber nicht muss! ATi hat die schlechtere Filterquali.
Das mag deine Meinung sein, trifft die Tatsachen aber wohl nur ohne Lesebrille. Normalsichtige sehen den Unterschied eben nicht nur in sehr seltenen Extremsituationen sondern durchaus bei jedem kritischen Content.

Captain Future
2010-06-13, 19:24:26
- mehr SGSSAA und HQ-AF. Und schneller :D
Aber nicht gleichzeitig.

pest
2010-06-13, 19:28:51
Sicherlich nicht, denn sonst würdest du mir diesbezüglich zustimmen.


nur weil du diesbezüglich vorkonditioniert bist, muss ich dir oder sonstjmd. hier nicht zustimmen.

ich mache auch keinen thread auf und zeige euch wie schwerhörig ihr seid, nur weil ich artefakte in mp3s besonders gut höre...und jetzt warte, denke kurz über das nach was ich geschrieben habe :wink:


Setz mal deine rote gefärbte Brille ab, oder überhaupt mal eine Brille auf,


ich setzte keine ihv-brille auf, so leid es mir tut, und ich zocke mit einer nv-karte


weil Typen wie du dieses Flimmern auch noch schön reden, oder verteidigen

quote or it didn't happen ;)

versuch das ganze doch ein wenig differenzierter darzustellen, dann nehmen dich auch leute mit einem iq höher dem eines joghurtbechers ernst

y33H@
2010-06-13, 19:30:53
@ Captain Future

Da AMD kein HQ und kein SGSSAA @ DX10/11 kann, ist eine GTX4x0 selbst mit 1 Fps noch schneller *SCNR*

Fetter Fettsack
2010-06-13, 19:40:24
versuch das ganze doch ein wenig differenzierter darzustellen, dann nehmen dich auch leute mit einem iq höher dem eines joghurtbechers ernst

Welch leider viel zu selten anzutreffende sprachlich anspruchsvolle Gewandheit und inhaltlich Sinnhaftigkeit doch in diesen Worten steckt.

@ Dr. Cox

Ich finde ebenfalls, dass du gar etwas radikal in die Diskussion gehst und zum Teil auch nur die eigene Meinung als der Weisheit letzter Schluss darstellst. Das ist einem konstruktiven Diskussionsklima nicht unbedingt zuträglich, wie ich meine.

@ y33h@

DS .... ;D

Gast
2010-06-13, 19:53:59
@ Captain Future

Da AMD kein HQ und kein SGSSAA @ DX10/11 kann, ist eine GTX4x0 selbst mit 1 Fps noch schneller *SCNR*

NVs SGSSAA ist ja nicht mal gleichwertig da LoD-Bug. *SCNR*

airbag
2010-06-13, 19:59:13
Um mal zusammenzufassen...

1. Das Fazit der Gamestar sollte man nicht ernst nehmen.
2. ATI's AF ist mit NV's AF gleich auf bzgl. Winkelunabhängigkeit.
3. AF Winkelunabhängigkeit ist bei beiden Herstellern seit einiger Zeit zufriedenstellend, da geringe Abweichungen in der Praxis (3D Games) nicht auffallen.
4. ATI's AF ist Flimmer-anfälliger als NV's AF.
5. Flimmern wird subjektiv wahrgenommen.
6. Flimmer-Anfälligkeit sollte bei beiden Herstellern weiter verbessert werden.
7. BQ soll generell weiter verbessert werden.
8. Es ist WM :smile:
9. Prost :ubeer:
Wenn wir schon bei WM sind. Bei PES ist AF Flimmern scheinbar kein Problem.

y33H@
2010-06-13, 19:59:39
@ Gast

Unter DX9 kannst du es nach eigenen Wünschen per nHancer anpassen ... in der Praxis also flexibler als bei AMD *SCNR*

Dimon
2010-06-13, 20:00:02
NVs SGSSAA ist ja nicht mal gleichwertig da LoD-Bug. *SCNR*

Dagegen kann ich das ganze in DX9/10/11 das teil nutzen, und LOD passe ich notfalls auch an :biggrin:

Gast
2010-06-13, 20:03:05
@ Gast

Unter DX9 kannst du es nach eigenen Wünschen per nHancer anpassen ... in der Praxis also flexibler als bei AMD *SCNR*

Ist es nicht da der NV-Filter mit negativem LoD völlig abkackt. *SCNR*

y33H@
2010-06-13, 20:04:07
Wo soll der bitte "abkacken"? :confused:

Gast
2010-06-13, 20:05:37
Wo soll der bitte "abkacken"? :confused:

Vergleiche eine Radeon mit LoD -1 mit einer Geforce mit LoD -1 und du wirst dein blaues Wunder erleben. Traurig dass das jemand wie du noch nicht weiß.

Grey
2010-06-13, 20:07:36
Genug Fps für aktuelle Spiele liefert auch eine 7800 GT. Halt in 640 x 480 und niedrigsten Details ohne AA/AF. Sieht grausam aus - aber hey, ich habe 50 Fps und das ist mit großem Abstand das Wichtigste ;D

Vorsichtig, das stimmt nicht ;)

Blaire
2010-06-13, 20:08:03
Vergleiche eine Radeon mit LoD -1 mit einer Geforce mit LoD -1 und du wirst dein blaues Wunder erleben. Traurig dass das jemand wie du noch nicht weiß.

Nö wird man nicht. Haben wir schon verglichen.

Dimon
2010-06-13, 20:09:07
Vorsichtig, das stimmt nicht ;)

Wieso? Bestimmte Spiele wurden nicht genannt ;)

Gast
2010-06-13, 20:10:35
Nö wird man nicht. Haben wir schon verglichen.

Na dann zeige mal her.

Grey
2010-06-13, 20:11:33
Wieso? Bestimmte Spiele wurden nicht genannt ;)

Richtig, es wurden pauschal alle mit einbezogen ;)

Schlammsau
2010-06-13, 20:11:59
@ Gast

Unter DX9 kannst du es nach eigenen Wünschen per nHancer anpassen ... in der Praxis also flexibler als bei AMD *SCNR*
Bitte? Das Lod kannst du auch mit dem RadeonPro und den Tray Tools anpassen.
Sogar in 0,1 Schritten. Wo liegt also genau der Nachteil von ATis SGSSAA unter DX9?

Coda
2010-06-13, 20:13:18
Wo soll der bitte "abkacken"? :confused:
Der Gast hat schon recht. Der NV-Filter ist sehr schlecht mit negativem LOD-Bias.

Nö wird man nicht. Haben wir schon verglichen.
Dann habt ihr bei NVIDIA wahrscheinlich Clamp aktiviert gehabt. Das bilde ich mir garantiert nicht ein.

Dimon
2010-06-13, 20:15:28
Richtig, es wurden pauschal alle mit einbezogen ;)

Aber sicherlich keine Alten Spiele :biggrin:

Alle neuen Spiele werden nicht wirklich Spielbar sein :)

Gast
2010-06-13, 20:15:34
Der Gast hat schon recht. Der NV-Filter ist sehr schlecht mit negativem LOD-Bias.


Vielen Dank. Endlich mal jemand mit Ahnung. Ich spiele sehr viel mit dem LoD rum deshalb kann ich davon ein Lied singen. Sobald man bei NV negatives LoD einstellt ist das flimmern bei AMD ein Witz dagegen.

Blaire
2010-06-13, 20:17:21
Dann habt ihr bei NVIDIA wahrscheinlich Clamp aktiviert gehabt. Das bilde ich mir garantiert nicht ein.

Dann ist Ati aber genausoschlecht, weil es dort auch extrem flimmert.

Coda
2010-06-13, 20:18:29
Nein, es ist nicht genauso schlecht. ATI filtert auch mit negativem LOD auf gleichbleibendem Niveau, während NVIDIA auf einmal in die absolute Grottigkeit abrutscht.

Links ist das ist was NVIDIA mit -3 abliefert, rechts die Referrenz
http://mental-asylum.de/files2/nvneglod.png

Das sieht man ja schon auf dem Bild dass es absolut grausig ist. In Bewegung flimmert es schlimmer als jeder G70-Quality-Filter.

Das Verhalten hat meine 4870 nicht gehabt, und ich glaube kaum dass sie das mit RV8xx geändert haben.

pest
2010-06-13, 20:23:03
@Coda

heißt das umgekehrt das SGSSAA auf NV höher als 2x2 eher sinnfrei ist?

Gast
2010-06-13, 20:24:41
Dann ist Ati aber genausoschlecht, weil es dort auch extrem flimmert.

Falsch. Und du willst den AMD.Filter kritisieren? AMD ist bei negativen LoD um Welten besser, da sprechen wir nicht mehr von Nuancen. NV hat den Clamp eben nicht zum Spaß eingeführt. ;)

Coda
2010-06-13, 20:26:29
@Coda

heißt das umgekehrt das SGSSAA auf NV höher als 2x2 eher sinnfrei ist?
Ordered Grid ist davon aus Prinzip nicht betroffen.

Falsch. Und du willst den AMD.Filter kritisieren? AMD ist bei negativen LoD um Welten besser, da sprechen wir nicht mehr von Nuancen. NV hat den Clamp eben nicht zum Spaß eingeführt. ;)
Clamp geht auf G7x zurück. Ich denke mal nicht, dass die Filter noch viel gemein haben.

Eher scheint NVIDIA da Transistoren zu sparen. Auch positives LOD zeigt ein komisches Verhalten bei mir.

Gast
2010-06-13, 20:27:52
Erbärmlich ist höchstens dein unangebrachtes Nachtreten. Ich spiele maximal mit -1,0 bis -1,5 und dann auch nur mit SSAA.

Das sollte man sehen sorry, denn das fällt wirklich sehr deutlich auf. Gerade wenn man bei AMD ständig hin tritt.

y33H@
2010-06-13, 20:28:42
Ordered Grid ist davon aus Prinzip nicht betroffen.@ Gast

Tja, fail. Ich nutze eine GTX 280 und OGSSAA :P

pest
2010-06-13, 20:28:59
@Coda

ich meine das anders, oder habe es nicht richtig verstanden ;)
höhere SSAA-Modi auf GF100 erhöhen doch das Bluring, dem mit negativen LOD manuell entgegenwirkt wird
wenn jetzt negatives LOD auf NV stark flimmert hat man doch nichts gekonnt

Gast
2010-06-13, 20:31:12
@ Gast

Tja, fail. Ich nutze eine GTX 280 und OGSSAA :P

Es ist mit völlig schnuppe was du nutzt, du schriebst wie toll mit man dem nHancer nicht das LoD anpassen könne auf einer Geforce.

@Coda

ich meine das anders, oder habe es nicht richtig verstanden ;)
höhere SSAA-Modi auf GF100 erhöhen doch das Bluring, dem mit negativen LOD manuell entgegenwirkt wird
wenn jetzt negatives LOD auf NV stark flimmert hat man doch nichts gekonnt

So ist es. Eine LoD-Anpassung kannst du bei NV vergessen, ergo SGSSAA nur mit blur.

Blaire
2010-06-13, 20:32:52
Falsch. Und du willst den AMD.Filter kritisieren? AMD ist bei negativen LoD um Welten besser, da sprechen wir nicht mehr von Nuancen. NV hat den Clamp eben nicht zum Spaß eingeführt. ;)

Ich hab Vergleichsvideos hier. Die zeigen das es auf Ati genauso flimmert. Jedenfalls mit LOD -1

Coda
2010-06-13, 20:33:51
@Coda

ich meine das anders, oder habe es nicht richtig verstanden ;)
höhere SSAA-Modi auf GF100 erhöhen doch das Bluring, dem mit negativen LOD manuell entgegenwirkt wird
wenn jetzt negatives LOD auf NV stark flimmert hat man doch nichts gekonnt
Das ist tatsächlich ein Problem ja. Deshalb gibt es offensichtlich auch keine LOD-Anpassung wenn man bei NVIDIA Supersampling aktiviert.

Gast
2010-06-13, 20:33:55
@Coda

ich meine das anders, oder habe es nicht richtig verstanden ;)
höhere SSAA-Modi auf GF100 erhöhen doch das Bluring, dem mit negativen LOD manuell entgegenwirkt wird
wenn jetzt negatives LOD auf NV stark flimmert hat man doch nichts gekonnt

OG-SSAA und Downsampling sind davon natürlich nicht betroffen.

Ich hab Vergleichsvideos hier. Die zeigen das es auf Ati genauso flimmert. Jedenfalls mit LOD -1

Ja dann zeige endlich mal her und spuck nicht nur große Töne.

Gast
2010-06-13, 20:34:37
Es wird meiner Meinung nach wie fast immer bei diesem Thema zu stark pauschalisiert und schwarz/weiß polemisiert.

Ich hatte über ein Jahr eine GTX 280 im Rechner und habe jetzt seit 3 Monaten eine HD5770, Ich spiele nicht mehr so oft wie früher aber dennoch fällt mir das Flimmern in gewissen Titeln unangenehm auf.
Es hängt einfach sehr stark vom Spiel, dem Content und vor allem der Perspektive ab wie stark das Flimmern zum Ausdruck kommt.


Nicht wirklich störend (man sieht das Flimmern wenn man es sucht) empfinde ich das Ati AF bei fast allen Strategie oder Echtzeitspielen mit einer leicht erhöhten isometrischen Perspektive:

- Anno 1404
- Dawn of War 2
- Demigod
etc.

Leicht bis mittelmäßig störend (man sieht das Flimmern fast immer aber es lenkt nicht zu stark vom Spiel ab) empfinde ich es bei fast allen 3D Shootern aus der Egoperspektive:

- Crysis
- alle Spiele auf Basis der Source Engine
- die meisten Unreal Engine Spiele

Absolut auf den ersten Blick störend und irritierend springt mir bei allen Doom3 Engine Titeln wie Prey, Quake4 und eben Doom3 das extreme Mip Banding ins Auge. Das tritt übrigens auch bei GTA4 auf!


Das für mich am Meisten frustrierende ist einfach dass es speziell unter OpenGL KEINE Abhilfe für dieses Problem gibt.
SSAA unter DX9 ist schön und gut aber eben auch die Holzhammermethode.

Das Ati/AMD keinen HQ Schalter anbietet ist beim heutigen Leistungsniveau der Karten und den vielen Konsolenports die kaum die vorhandene Hardware fordern einfach ein Skandal.

Ich werde mich auf Dauer sicher nicht damit abfinden.

MfG,
Gast

Fetter Fettsack
2010-06-13, 20:37:01
@ Coda

Deshalb gibt es offensichtlich auch keine LOD-Anpassung wenn man bei NVIDIA Supersampling aktiviert.

Weil man nicht kann oder weil man nicht will (nVida)?

Gast
2010-06-13, 20:38:26
Weil man nicht kann oder weil man nicht will (nVida)?

Weil die Bildqualität dann baden geht ganz einfach.

Blaire
2010-06-13, 20:38:40
Ja dann zeige endlich mal her und spuck nicht nur große Töne.

Ati
http://www.file-upload.net/download-2584928/Filter-Tester-2010-06-09-00-48-28-33.rar.html

Nvidia:
http://www.file-upload.net/download-2586265/Filter-Tester-2010-06-09-03-38-34-37.avi.html

AwesomeSauce
2010-06-13, 20:56:31
Augenkrebs at its best, und zwar bei beiden:eek:

Blaire
2010-06-13, 20:57:45
Augenkrebs at its best, und zwar bei beiden:eek:

Eben.

Fetter Fettsack
2010-06-13, 20:57:46
Zitat von Gast

Weil die Bildqualität dann baden geht ganz einfach.


ATi bringt es doch auch zusammen, da müsste es also entweder eine schwerwiegende Designentscheidung oder eine höhere Kostenersparnis dahinterstecken. Meiner Logik nach halt. :-)

AwesomeSauce
2010-06-13, 21:02:08
@Blaire
Gibt es die Textur, die du in dem Tester verwendest, irgendwo zum Download? Die ist nämlich genial evil;)

EDIT: Ah mein Fehler, im Programmordner sind bereits welche, sorry :)

Blaire
2010-06-13, 21:02:51
@Blaire
Gibt es die Textur, die du in dem Tester verwendest, irgendwo zum Download? Die ist nämlich genial evil;)

Die ist bei Codas Filtertest mit dabei. Ground1 nennt die sich

Coda
2010-06-13, 21:15:44
Hätte nicht gedacht, dass die ATI bei -1 auch so mies filtert.

Da kann man tatsächlich keinen "Sieger" kühren X-D

Schlammsau
2010-06-13, 21:18:55
Wie wär es mit einem Ingame Video Vergleich mit negativen LOD?

Dimon
2010-06-13, 21:20:38
Habe mich auch irgendwie gewundert, meine HD4890 ist ggü. meiner alten 8800GTX kein bisschen besser :freak:

Coda
2010-06-13, 21:22:10
Wie wär es mit einem Ingame Video Vergleich mit negativen LOD?
Sinnlos. Wenn man es so isoliert nicht sieht, dann ist es auch Ingame nicht anders.


Habe mich auch irgendwie gewundert, meine HD4890 ist ggü. meiner alten 8800GTX kein bisschen besser :freak:
Bei -2 sollte man schon einen Unterschied sehen, wenn ich es nicht völlig falsch in Erinnerung habe.

Fetter Fettsack
2010-06-13, 21:23:05
Ein wunderbares Beispiel dafür, dass man nicht gleich auf andere übelst verbal einprügeln muss, nur weil kurzfristig etwas auftaucht, dass der eigenen Argumentation gut ins Gehege passt. Kann sich alles immer noch drehen :).

Schlammsau
2010-06-13, 21:25:45
Sinnlos. Wenn man es so isoliert nicht sieht, dann ist es auch Ingame nicht anders.



Bei -2 sollte man schon einen Unterschied sehen, wenn ich es nicht völlig falsch in Erinnerung habe.

Trotzdem wäre es interessant zu sehen wie es sich in echten Spielsituationen verhält.

y33H@
2010-06-13, 21:29:43
Wo ist der Gast, der mich vorhin geflamt hat? Er möge sich bei mir entschuldigen!

Gast
2010-06-13, 21:33:56
Wo ist der Gast, der mich vorhin geflamt hat? Er möge sich bei mir entschuldigen!

Muss er nicht. Ich sehe das immer wieder in einer Vielzahl von Spielen. Blaire lol, das ist doch ein NV-Fanboy schlechthin, bitte eine brauchbare Quelle, ansonsten selbst testen wenn du Augen hast.

AwesomeSauce
2010-06-13, 21:39:09
@Gast
Bring du doch den Gegenbeweis, wenn Blaire's Videos so getürkt sein sollten:unono:

Fetter Fettsack
2010-06-13, 21:43:38
Blaire lol, das ist doch ein NV-Fanboy schlechthin, bitte eine brauchbare Quelle, ansonsten selbst testen wenn du Augen hast.

Seine Vorliebe muss ihn aber nicht per se eingenommen machen. Solange hier keiner das Gegenteil darlegen (=beweisen) kann, sehe ich keinen sonderlichen Grund, an seiner Kompetenz zu zweifeln.

Wenn man das doch machen möchte, was ja jedem frei steht, warum geht dass nie ohne das man immer diesen abfälligen Unterton bemühen muss? Ist doch nicht nötig :) .

Gast
2010-06-13, 22:00:27
Mal im Ernst. Ich kenne das Geflimmer noch aus GF7xxx-Zeiten. Es war ein Graus. Aber zur damaligen Zeit hat das eigentlich schon niemanden wirklich interessiert. Die Leute haben die 7xxx-Reihe gekauft wie die bekloppten. Heute ist das Bild umgekehrt.

Jetzt frage ich mich: Haben sich die Leute, die die 7xxx-Reihe kauften und nutzten an das flimmern gewöhnt, sind sie einfach nur Fanboys gewesen oder aber haben sie wie heute das flimmern nicht wirklich wahrgenommen?

Ich tippe auf letzteres. Und da sind wir dann wieder dabei ob der Normalanwender überhaupt den AF-Schalter im Spiel oder in den Weiten des Controlpanels findet. Er findet den Schalter schlichtweg nicht und nimmt ohne AF auch kein extremes flimmern war.

Ich sehe das flimmern auch. Nur muss ich sagen, dass es mich, da ich eher schnelle Shooter spiele, nicht wirklich stört. Man nimmt es, wenn man sich auf das Wesentliche konzentriert, einfach nicht war. Das fällt dann halt bei einer Runde Anno oder einem Sightseeing durch die Welt von Half-Life auf.

Fetter Fettsack
2010-06-13, 22:00:45
@ y33h@

Steter Tropfen höhlt den Stein. Egal, wie hardcore jemand ist, irgendwann geh ich auch dem so auf die Nerven, dass er es sein lässt *überheblich und selbsteingenommen grins*.

Zumal die Verwendung von anspruchsvolleren Sätzen (in grammatikalischer und sprachlicher Sicht) die meisten Leute, die zu undifferenzierten Äußerungen neigen, unbewusst dazu bewegt, sich ebenso dieser Sprache zu bedienen, da man ja auch toll sein will. Durch das aber weiterhin bestehende Manko an Übung und Routine in diesem Gebiet ( und manchmal auch in Sachen Wortschatz) führt dies dann zumeist zu einer Hebung des Umgangstonniveaus (auch wenn sich dann so mancher beim Versuch klug zu klingen, äußerst lächerlich geriert [so wie ich jetzt z.B. ;D ]). Zumindest meiner Beobachtung nach.

hq-hq
2010-06-13, 23:01:09
@ y33h@

Steter Tropfen höhlt den Stein. Egal, wie hardcore jemand ist, irgendwann geh ich auch dem so auf die Nerven, dass er es sein lässt *überheblich und selbsteingenommen grins*.

Zumal die Verwendung von anspruchsvolleren Sätzen (in grammatikalischer und sprachlicher Sicht) die meisten Leute, die zu undifferenzierten Äußerungen neigen, unbewusst dazu bewegt, sich ebenso dieser Sprache zu bedienen, da man ja auch toll sein will. Durch das aber weiterhin bestehende Manko an Übung und Routine in diesem Gebiet ( und manchmal auch in Sachen Wortschatz) führt dies dann zumeist zu einer Hebung des Umgangstonniveaus (auch wenn sich dann so mancher beim Versuch klug zu klingen, äußerst lächerlich geriert [so wie ich jetzt z.B. ;D ]). Zumindest meiner Beobachtung nach.

fett, fetter fettsack! die meisten fangen als arme jüngling-trolle an und
nähren ihre farbige ausdrucksweise. sobald sie dann weiterführende schulen
besuchen wächst der troll langsam aus, wird fett und alles ist gut :freak:

ich glaube der HQ schalter ist nicht perfekt, es gibt da ein paar stellen mit weit entfernten wolkenkratzern wo die fensterchen bissl zum wabbern anfangen in just cause 2

Iruwen
2010-06-13, 23:02:20
Kontern?
[...]
Ein AF-Artikel steht seit geraumer Zeit auf der Agenda, aber kein Termin.

;)

Gast
2010-06-13, 23:11:19
Mal im Ernst. Ich kenne das Geflimmer noch aus GF7xxx-Zeiten. Es war ein Graus. Aber zur damaligen Zeit hat das eigentlich schon niemanden wirklich interessiert. Die Leute haben die 7xxx-Reihe gekauft wie die bekloppten. Heute ist das Bild umgekehrt.
Damals gabs 2 Links ins 3DCenter bei Geizhals. Sogar heute noch. http://geizhals.at/deutschland/a196609.html
Keine der HD2,3,4,5 hat nur einen einzigen Link ins 3DC oder sonstwohin betreffs AF.

Der einzig mögliche Schluss daraus ist: Die Presse ist gekauft, geizhals ist gekauft.

Diese Links haben innerhalb einer Generation gewirkt. So die HD Qualität bestaunen wir nun in der vierten Generation und auch deren Nachfolger wird mit Sicherheit nichts ändern.

Die GF7 wurde gekauft, weil sie billig war. Ja deshalb. Sie war anfangs schneller, die X1800 kam erst deutlich später. Dann war sie sparsamer und zumindest am Schluss noch billiger.
Ich könnte das G70 Flimmern relativieren, von wegen HQ Schalter gabs ja. Sicher ist das möglich, aber darum gehts mir nicht. Teilweise zeigt die HD5 ähnliche Vorteile wie die GF7. Über den billigeren Preis lässt sich streiten, die 5870 gehört jedenfalls nicht dazu. Mir fehlt jetzt eigentlich der Grund, warum AMDs vierte HD Generation immernoch nicht kritisiert wird.
Mein Fazit lautet: Ob GF7 oder HD5, beide verkauften sich gut. Erstere hatte den Nachteil der Presse am Bein. Das das fair ist kann ich nicht aktzeptieren.

Blaire
2010-06-13, 23:18:43
Muss er nicht. Ich sehe das immer wieder in einer Vielzahl von Spielen. Blaire lol, das ist doch ein NV-Fanboy schlechthin, bitte eine brauchbare Quelle, ansonsten selbst testen wenn du Augen hast.

Es kann jeder selber überprüfen. Passt schon.
PS: Ich bin kein NV Fanboy, ich kaufe nach Bildqualität und Features meine Grafikkarten und nicht nach irgend Firmennamen so war es immer, so wird es immer sein.

Fetter Fettsack
2010-06-13, 23:28:20
Zitat von hq-hq:

fett, fetter fettsack! die meisten fangen als arme jüngling-trolle an und
nähren ihre farbige ausdrucksweise. sobald sie dann weiterführende schulen
besuchen wächst der troll langsam aus, wird fett und alles ist gut

Ich will darauf hinaus, dass man einerseits schlechter trollen kann, wenn man sich akzeptabel (auch inhaltlich) ausdrücken will. Andererseits meine ich, dass man ohnedies nichts anderes machen kann als solchen Zeitgenossen bestimmt aber eben freundlich zu begegnen, da man ihnen ansonsten noch mehr Munition liefert für irgendein Gebashe.

Außerdem: fette Trolle sind auch faul. Von faul zu schreibfaul ist es dann hoffentlich nur ein kleiner Schritt. :D

Oder siehst du das diametral anders?

Gast
2010-06-13, 23:55:47
Ihr redet über Dinge, die vermutlich 95 % aller Spieler gar nicht interessiert. Ich habe mal einen allgemeinen Vortrag über GPUs gehalten, dazu auch über Filtermaßnahmen. Als ich anhand von Screenshots Anti-Aliasing gezeigt habe (was man wirklich SEHR deutlich sah), habe ich ihm Raum nur fragende Gesichter erblickt. Einen guten Freund kann ich bis heute nicht dazu überreden, AA oder AF einzuschalten. Der guckt mich nur mit gequältem Gesicht an, was ich denn schonwieder für Nerdigkeiten vorhabe. Wenn ich dann noch mit Flimmern oder Banding anfangen würde, was man ja nicht einmal auf Standbildern festhalten kann, dann gute Nacht.

Schrotti
2010-06-13, 23:58:28
Ihr redet über Dinge, die vermutlich 95 % aller Spieler gar nicht interessiert. Ich habe mal einen allgemeinen Vortrag über GPUs gehalten, dazu auch über Filtermaßnahmen. Als ich anhand von Screenshots Anti-Aliasing gezeigt habe (was man wirklich SEHR deutlich sah), habe ich ihm Raum nur fragende Gesichter erblickt. Einen guten Freund kann ich bis heute nicht dazu überreden, AA oder AF einzuschalten. Der guckt mich nur mit gequältem Gesicht an, was ich denn schonwieder für Nerdigkeiten vorhabe. Wenn ich dann noch mit Flimmern oder Banding anfangen würde, was man ja nicht einmal auf Standbildern festhalten kann, dann gute Nacht.

Dann habt ihr alle beide keine Ahnung.

Gast
2010-06-13, 23:59:06
Dann habt ihr alle beide keine Ahnung.

Was?

hq-hq
2010-06-14, 00:04:24
@fetter fettsack wir pflegen wohl eine äquivalente denkart, doch trolle gross oder klein, laden mich stets zum lachen ein... naja was soll ich sagen meine poetische seite ist kümmerlich.

eigentlich müsste man sich mehr mühe geben und trolle öfters in eine falle locken. das hilft nämlich.

Iruwen
2010-06-14, 00:06:04
Ich weiß gar nicht mehr wann es die letzte gesittete Diskussion gab.

Dann habt ihr alle beide keine Ahnung.

Dissoziative Persönlichkeitsstörung oder rhetorischer Durchfall?

PS: SCNR :cool: (http://www.googlefight.com/index.php?lang=en_GB&word1=ati+af+flimmern&word2=nvidia+af+flimmern)

Gast
2010-06-14, 00:08:04
Dissoziative Persönlichkeitsstörung oder rhetorischer Durchfall?

Ich verstehe gar nicht, was sein Beitrag mit meinem zu tun. Falsch zitiert?

Vertigo
2010-06-14, 00:17:57
Ihr redet über Dinge, die vermutlich 95 % aller Spieler gar nicht interessiert.
Guck dich nochmal genau um, in welchem Forum du gelandet bist. Natürlich hast du Recht, das interessiert global gesehen keine Sau - was auch den Erfolg von ATI trotz offenkundiger Mängel mit erklärt. Aber es interessiert die User hier und nur darauf kommt es hier an. Wer hier der Meinung ist, die Mängel kleinreden oder verteidigen zu müssen, ja sogar auf die hanebüchene Idee kommt, dass man doch bitte bei Vergleichen die Einstellungen auf nVidia-Karten so weit runterdrehen muss, bis das Geflimmer auf ATI-Niveau angekommen ist, nur um zu sehen dass es irgendwo fernab des Qualitätsoptimums eine Art Gleichstand in der Bildqualität gibt, der sollte nochmal genau überlegen, ob er nicht doch anderswo mehr Zustimmung erwarten kann.

Und fast alle, die hier als nVidia-Fanboys verunglimpft werden, legen Wert auf maximale Bildqualität. Sie loben, wenn es was zu loben gibt und sie kritisieren, wenn es was zu kritisieren gibt. Viele, die jetzt nVidia bevorzugen, haben vor einigen Jahren die X1800/X1900er Radeons den 7800/7900er Geforces wegen der besseren BQ vorgezogen. Das wird beim Einsatz des Fanboy-"Argumentes" gern übersehen.

y33H@
2010-06-14, 00:23:58
Korrekt, ich wurde anno der X1k noch als "Ati-Fanboy" tituliert [Area-AF!] :ulol: Wobei "Fanboy" damals noch eher unbekannt war ...

Stechpalme
2010-06-14, 00:37:45
Ich bin kein Optik Freak und auch ansonsten niemand der sich Grafik sehr genau betrachtet oder nach Fehlern sucht, AF kontrolliert oder viel mit den Einstellungen herum spielt.

Daher mal die Meinung eines Users der es eben nicht so eng sieht.

Das AF Flimmer fällt mir schon auf, hier und da. Störend? Ja, zumindest hin und wieder. Tragisch, für mich nicht besonders. Trotzdem wünsche ich mir hier Verbesserungen. Warum auch nicht. Gleiches gilt für AA besser als MSAA. Allerdings sind mir die Einstellungen hier oft zu umständlich (zumindest bis zur 4XXX Reihe). Allerdings habe ich bei letzterem das Problem zu wenig Leistung zu haben um dies wirklich nutzen zu können. Denn ich gebe keine 300€ für eine Karte aus. Das lohnt sich für mich nicht.

ICh finde es etwas frech die Leute als Technikbremse zu titullieren nur weil sie eben nicht derart Grafikfixiert sind. Wenn die Leistung im Mittleren Preissegment (für mich 100-200€) so hoch ist, das dies gut zu verwenden ist, werden es ale gerne mit nehmen. Es gibt aber auch viele die AF und AA auch ziemlich egal ist. Aber warum auf diesen herum hacken? Jder hat andere Ansprüche und Ansichten.
Tatsache ist, der Anteil der Leute die wirklich so extrem auf die Grafik schauen, gerade in Bezug auf AA und AF, ist sehr gering.

Das soll dies aber wiederum keines falls abwerten, es ist eben einfach so. Ich freu mich über neue Technik, ich hätte gerne eine bessere Bildqualität, aber am Ende ist mir ein guter Preis und mehr FPS wichtiger. Natürlich brauche ich keine 200FPS, aber bei aktuellen Spielen wie Metro und andere haben die meisten eben grade so mit mittleren bis hohen Einstellungen nur brauchbare FPS Leistungen.

Und im ernst, bei alten Spielen wo genug Leistung vorhanden wäre, fällt mir der Unterschied zwischen 8xAAA/16xAF und dem tollen neuen AA bei der 5XXX Reihe, kein wirklicher Unterschied auf. Da muss ich wirklich mit der Lupe suchen und ich will spielen und nicht im Standbild Bilder vergleichen.

Gast
2010-06-14, 00:42:31
Die die 300€, oder gar 400 oder mehr ausgeben kannst du nicht in die Ecke schieben, "Hauptsache es läuft".
Denen BQ egal ist, selbst da bezweifel ich den bewussten Kauf von 200€ Karten.
Ergo, Gamestar betreit eine arglistige Fehlinformationskampagne, seit Jahren. Mit welcher Arroganz dieses Magazin Käufer hintergeht kann man nicht schön reden.

Gast
2010-06-14, 00:50:34
Ich habe noch eine X1800 XT und die Texturen bei Fahrenheit "grieseln" deutlich sichtbar. Ist das normal bei dem Spiel? Tritt das bei HD 5xxx oder GTX 4xx auch auf? Oder ist das die überall erwähnte miese AF-Qualität von AMD?

Falls jemand das Spiel hat und testen kann: "Der Tag danach" heißt das Kapitel (ist das 3.). Wenn ihr mit Lucas aufsteht aus dem Bett, müsst ihr euch nicht einmal bewegen. Einfach aufstehen und so stehen. Die Wandtexturen, aber auch die Körpertexturen von Lucas sind überdeutlich am Grieseln. Ich lade mal gleich ein Video hoch, wenn ihr mir sagt, wie man das am Besten mit Fraps macht.

Coda
2010-06-14, 02:25:46
Schalt mal A.I. aus, dann sollte eine X1800 sehr sauber filtern.

Gast
2010-06-14, 02:49:00
Schalt mal A.I. aus, dann sollte eine X1800 sehr sauber filtern.

Kein Unterschied. AA und AF sind ingame aktiviert. Hier mal ein Screenshot, bis ich weiß, wie man ordentliche Videos erstellt:

http://s7.directupload.net/images/100614/temp/flpijtyx.png (http://s7.directupload.net/file/d/2190/flpijtyx_png.htm)

Auf einem Screenshot sieht man natürlich kaum etwas. In Bewegung "grieselt" es aber fürchterlich. Sowohl die Wand als auch der Körper. "Grieseln" ist wirklich das richtige Wort, imo.

Coda
2010-06-14, 02:49:57
Ich würde mal behaupten, dass das ein gewollter Effekt des Spiels ist.

Gast
2010-06-14, 02:56:54
Ich würde mal behaupten, dass das ein gewollter Effekt des Spiels ist.

Ich lade mal jetzt ein Video hoch. Vielleicht kannst du was dazu sagen? Um die Datei kleinzuhalten, nur 1 Sekunde, aber das genügt schon, wenn man mit dem Media Player auf "Dauerwiederholen" ist. Link kommt gleich.

Gast
2010-06-14, 03:01:21
So: http://rapidshare.com/files/398741882/Fahrenheit.avi.html

Wenn das ein Spieleffekt sein soll, ist der aber sehr ungewöhnlich. ;(

Gast
2010-06-14, 03:05:40
Schnellerer DL-Link: http://netload.in/dateiKp9MV1bKNm/Fahrenheit.avi.htm

ESAD
2010-06-14, 03:19:49
das ist afaik absicht. soll den filmlook verstärken

Gast
2010-06-14, 03:23:49
das ist afaik absicht. soll den filmlook verstärken

Grausam. ;( Aber dann kann AMD ihr low quality AF doch auch als "cinematic AF" bewerben. :ulol: ;(

Gast
2010-06-14, 09:11:28
Schalt mal A.I. aus, dann sollte eine X1800 sehr sauber filtern.
Das wurde leider mit einem der Sommer-Catalysts nach dem R600-Launch 2007 begraben.

Aquaschaf
2010-06-14, 09:27:21
Das wurde leider mit einem der Sommer-Catalysts nach dem R600-Launch 2007 begraben.

Das denke ich nicht, zu dem Zeitpunkt hatte ich noch eine 1900 XT; die Filterung bei A.I.-off war einwandfrei. Auch mit späteren Treibern. Ich erinnere mich sehr gut an die sichtbare Verschlechterung beim Wechsel später zur 4850.

corvus
2010-06-14, 09:55:17
Es macht nur reichlich wenig Sinn AI auszuschalten.....CF...Game Optimierungen etc.pp.....
Mach mal aus zb. in Mass2....
Und solange es AI gibt wird sich NICHTs ändern und das können nur die Käufer ändern aber denen ist es zu 90% wurst und von daher.....

Die 5er ATI Serie ist die perfekte Karte für DX9, sonst für nix :D und auch hier von daher :D zur Zeit völlig ausreichend.

Lightning
2010-06-14, 09:58:41
Grausam. ;( Aber dann kann AMD ihr low quality AF doch auch als "cinematic AF" bewerben. :ulol: ;(

Das flimmert aber nicht im Standbild. ;)
Bei Fahrenheit ist das halt ein einfacher Postfilter, der Filmkorn imitieren soll.

Grey
2010-06-14, 10:00:12
Grausam. ;( Aber dann kann AMD ihr low quality AF doch auch als "cinematic AF" bewerben. :ulol: ;(

Also wer 0815-Filmgrain-Effekte nicht mal von realen Fehlern unterscheiden kann... :rolleyes:

Gast
2010-06-14, 10:34:46
Also wer 0815-Filmgrain-Effekte nicht mal von realen Fehlern unterscheiden kann... :rolleyes:

Ich kann's nicht, weil Fahrenheit seit etwa 3 - 4 Jahren mein erstes neueres Spiel ist, das ich erst jetzt gespielt habe. Es ist nicht umsonst noch eine X1800 XT im Rechner. :D

hq-hq
2010-06-14, 12:40:15
als ich den ersten filmgrain grieseleffekt sah, glaub bei manhunt war das, dachte ich mir auch erst was ist das für ein bug...

Botcruscher
2010-06-14, 14:09:36
Imo eines der widerlichsten Elemente der Spieledesigner.

Gast
2010-06-14, 15:18:51
Solang's abschaltbar bleibt, können sie von mir aus auch rosa Plüschohren auf alle Spielfiguren programmieren.

y33H@
2010-06-14, 15:38:03
Kostet aber Zeit und Manpower, die man in sinnvollere Dinge investieren könnte ...

mapel110
2010-06-14, 15:47:07
hehe, das erinnert mich an die Smartshader, die ATI mal eingeführt hatte und die mittlerweile wieder verschwunden sind.

Gast
2010-06-14, 16:16:32
Dissoziative Persönlichkeitsstörung oder rhetorischer Durchfall?

PS: SCNR :cool: (http://www.googlefight.com/index.php?lang=en_GB&word1=ati+af+flimmern&word2=nvidia+af+flimmern)

Auch ein geiler Vergleich

http://www.googlefight.com/index.php?lang=en_GB&word1=ati+bluescreen&word2=nvidia+bluescreen

http://www.googlefight.com/index.php?lang=en_GB&word1=ati+bug&word2=nvidia+bug

http://www.googlefight.com/index.php?lang=en_GB&word1=ati+slow&word2=nvidia+slow

http://www.googlefight.com/index.php?lang=en_GB&word1=ati+problem&word2=nvidia+problem

Grey
2010-06-14, 16:34:22
als ich den ersten filmgrain grieseleffekt sah, glaub bei manhunt war das, dachte ich mir auch erst was ist das für ein bug...

Bist du damals auch ins 3DCenter und hast dich bei Filterdiskussionen über deine Grafikkarte beschwert? :|

Ist doch echt peinlich. Aber die Redakteure von der Gamestar sind doof...

kruemelmonster
2010-06-14, 16:48:00
...
Das AF Flimmer fällt mir schon auf, hier und da. Störend? Ja, zumindest hin und wieder. Tragisch, für mich nicht besonders. Trotzdem wünsche ich mir hier Verbesserungen. Warum auch nicht...

Schön dass es hier auch Radeon-Nutzer gibt die nach "Mehr" begehren. Genau genommen bist du der Erste, der mir über den Weg gelaufen ist, und gerne mehr möchte als von Kanada vorgegeben ist.

Man könnte fast meinen ein zusätzlicher HQ-Schalter im CCC verursacht schlimme Schmerzen, akuten PhysX-Ausschlag (:biggrin:) o.ä. wenn man danach geht wie hier seitens der Radeon-Nutzer gegen mehr BQ argumentiert wird.

Braucht und sieht man ja angeblich alles nicht...

Gast
2010-06-14, 17:02:03
Schön dass es hier auch Radeon-Nutzer gibt die nach "Mehr" begehren. Genau genommen bist du der Erste, der mir über den Weg gelaufen ist, und gerne mehr möchte als von Kanada vorgegeben ist.

Man könnte fast meinen ein zusätzlicher HQ-Schalter im CCC verursacht schlimme Schmerzen, akuten PhysX-Ausschlag (:biggrin:) o.ä. wenn man danach geht wie hier seitens der Radeon-Nutzer gegen mehr BQ argumentiert wird.

Braucht und sieht man ja angeblich alles nicht...

AF tötet jede Diskussion hier, deshalb gehört es bekämpft.

Iruwen
2010-06-14, 17:08:54
Auch ein geiler Vergleich

http://www.googlefight.com/index.php?lang=en_GB&word1=ati+bluescreen&word2=nvidia+bluescreen

http://www.googlefight.com/index.php?lang=en_GB&word1=ati+bug&word2=nvidia+bug

http://www.googlefight.com/index.php?lang=en_GB&word1=ati+slow&word2=nvidia+slow

http://www.googlefight.com/index.php?lang=en_GB&word1=ati+problem&word2=nvidia+problem

Bei Nvidias Markanteil sollte es logisch sein dass sie immer "gewinnen", umso schlimmer :D

LuXon
2010-06-14, 17:36:27
Was ich toll finde ist:

http://www.googlefight.com/index.php?lang=en_GB&word1=HD+5870&word2=GTX+480

Und die HD 5870 gibt es schon seit September :D

Fetter Fettsack
2010-06-14, 18:13:12
@ kruemelmonster

Ich bin Radeon-Nutzer und ich bin Befürworter von HQ-AF.

Unser Name ist Legion, denn wir sind viele :D.

AYAlf_2
2010-06-14, 20:12:20
Was ich toll finde ist:

http://www.googlefight.com/index.php?lang=en_GB&word1=HD+5870&word2=GTX+480

Und die HD 5870 gibt es schon seit September :D

sowas von einem gruenen forum ist echt der hammer....

so muss das ausschauen... wenn es nach den gruenen geht, da die gtx470 vs hd5870 zu vergleichen ist. (nvidia fanboygequatsche halt) http://www.googlefight.com/index.php?lang=en_GB&word1=HD+5870&word2=GTX+470

airbag
2010-06-14, 20:30:51
Hää irgendwie passen bei mir die Zahlen nicht. Der GTX470 Balken ist länger, obwohl es rund 300k weniger Treffer sind, ^^

Fetter Fettsack
2010-06-14, 20:44:07
@ LuXon

Wenn man spitzfindig wäre, könnte man aber auch sagen: bei der 5870 gab/gibt es kaum was zu bekritteln, bei der GTX480 für so manchen schon (und Problemmeldungen stellen ja zumeist ein Großteil der Resultate bei Suchen nach bestimmter Hardware). Kommt wie immer auf den Blickwinkel an, wie man eine Sache auslegt. ;)

Coda
2010-06-14, 21:11:32
Diese Google-Vergleiche sind natürlich nicht statistisch verwendbar. Ich bitte euch nicht darüber zu streiten.

BeeRockxs
2010-06-14, 21:29:59
Hat irgendwer denn den entsprechenden GameStar Redakteur auf seinen epic fail aufmerksam gemacht?

Fetter Fettsack
2010-06-14, 21:40:48
Wozu?

Ich mein, was will man da machen? Es besteht nämlich die Gefahr, dass das auch noch in die falsche Kehle kommt.

hq-hq
2010-06-14, 22:54:06
Bist du damals auch ins 3DCenter und hast dich bei Filterdiskussionen über deine Grafikkarte beschwert? :|

Ist doch echt peinlich. Aber die Redakteure von der Gamestar sind doof...

ne, damals war ich noch nicht angemeldet im 3d-center... erst als ich auf planet3dnow gebannt wurde kam ich hierher ;)
schätze das die meisten beim erstkontakt mit filmgrain an eine störung glauben :freak:

hey cuul, ich bin auf planet3dnow garnimmer gebannt ! -> http://www.planet3dnow.de/vbulletin/showthread.php?t=101359

V2.0
2010-06-15, 07:30:41
Hat irgendwer denn den entsprechenden GameStar Redakteur auf seinen epic fail aufmerksam gemacht?

EPIC Fail? Gut bei der Winkelabhäbgikeit kann man das so sagen, aber bei der optischen Bewertung des AF-Eindrucks ist die Meinung legitim. Technisch ist das Flimmern zwar ein klarer Fehler, bei der optischen Wahrnehmung hingegen muss man nicht zu der Meinung kommen, dass es störend ist.

Gast
2010-06-15, 07:40:35
EPIC Fail? Gut bei der Winkelabhäbgikeit kann man das so sagen, aber bei der optischen Bewertung des AF-Eindrucks ist die Meinung legitim. Technisch ist das Flimmern zwar ein klarer Fehler, bei der optischen Wahrnehmung hingegen muss man nicht zu der Meinung kommen, dass es störend ist.
Da sie stattdessen behaupten die Winkelunabhängigkeit sorge für bessere Bildqualität, die besser beweertet wird, ist es ein Epic Fail.

Du brauchst Gamestar nicht in Schutz nehmen. Wenn die sagen scheiss auf BQ, jegliche Performancesteigerungen der letzten Jahre sind unnötig (den wozu braucht man sonst schnellere Karten?) dann kann man das so stehen lassen.
Dann stünde dort statt BQ einfach nichts.

MadManniMan
2010-06-15, 07:55:41
EPIC Fail? Gut bei der Winkelabhäbgikeit kann man das so sagen, aber bei der optischen Bewertung des AF-Eindrucks ist die Meinung legitim. Technisch ist das Flimmern zwar ein klarer Fehler, bei der optischen Wahrnehmung hingegen muss man nicht zu der Meinung kommen, dass es störend ist.

V2.0,

der Autor hat sich gewiss einfach nicht genug mit der Materie auseinandergesetzt. Würde er tatsächlich kritische Spiele (Left 4 Dead 2!!!) direkt vergleichen, würde er wahrscheinlich verstehen, dass Flimmern keine BQ-Steigerung darstellt.


Das Problem ist doch, dass viele Redaktuere nicht die Zeit und den Background haben, um sich umfassend in solche Themen einzuarbeiten.

Dann dürfen sie nicht darüber schreiben.

V2.0
2010-06-15, 08:10:13
Wenn ich mich erst mit einem Problem beschäftigen muss um es zu sehen, dann dürfte es für den "Normalnutzer" kein Problem sein. Darum geht es mir schon lange. Die mesiten Spieler nehmen das Flimmern kaum war, da es nur in Bewegung sichtbar wird, bei der die meisten aber aktiv Spielen und daher abgelenkt sind.

Warum sie allerdings das AF von ATI besser bewerten ist mir auch nicht klar.

Sentionline
2010-06-15, 08:21:46
Bei der Qualität der Spielberichte sind die im Grunde nicht schlecht. Bei der Hardware allerdings sind deren Berichtserstattung mehr als mager. Das kann ich auch daran beurteilen wie ich meine Entwicklung gemacht habe.

Computerbild (-Spiele) -> Gamestar -> PCGames-> PCGH

Man wächst da schlicht raus und wendet sich den Ereignissen im Web zu, um einfach aktueller unterwegs zu sein. Für mich unverständlich das die Redakteure bei der Gamestar es nicht schaffen einen Rasierer zu kaufen, die Haare zu Stylen oder einfach kein Müll zu verbreiten. Allein schon mangels der Präsentation kann ich die Leute nicht ernst nehmen. Seiddem Gunnar nicht mehr da ist läuft der ganze Laden dort Amok und lässt sich hängen.

Die besten und vorbildlichsten in der Runde dort sind Christian Schmidt, Heiko Klinge, Fabian Siegismund (!) und Michael Graf. Die anderen baumeln so nebenher und wissen eigendlich nicht so recht was die da treiben.

Die Hardwareredaktion, bestehend hauptsächlich aus Daniel Visarius & Hendrik Weins, liefern seid Jahren schon keine wirklich guten Artikel mehr ab. Ich würde allerdings schon gerne den Grund verstehen wollen, warum man sich ignorant gibt und glaubt, die Leserschaft bestünde aus Anfängern die gerade 8 geworden sind und gerade mal 1+1 zusammenzählen können.

Ich würde mal sagen es wird höchte Zeit auch für Gamestar die Nase etwas fallen zu lassen und über den Tellerrand zu 3DCenter zu schauen. Wirklich heisse Themen sind auch über Monate hier aktuell. Und das mit der BQ der ATi Karten ist hier seid dem R600 eine neverending Story. Davor war der bösewicht die G7x, davon haben die auch nicht wirklich eine Notiz genommen.

Also was Hardware angeht ist PCGH für mich im mom Referenz. Zuminderst für den Gamer. Für alles darüber ist die eher professionell ausgelegte Ct zuständig, wobei ich auch da sagen muss, das dort niemals von BQ defiziten bei den Grafikkarten berichtet wird. Vor langer Zeit hatte ich mal einen Bericht gelesen (ich glaube zur GeForce 2 Zeit), wo die Signalqualität des Monitorausgangs gemessen wurde. Auch hier kein Fortschritt für mich sichtbar.

Auch macht die Gamestar keine Fortschritte was deren Videos angeht. Mal WMV, mal MOV, mal als AVI. Für mein Archiv vollkommen ungeeignet, da immer verschiedene Codecs eingesetzt werden. Ergo kennen die sich in Software auch nicht besonnders aus. Wie wärs mal mit global H.264?

Fazit: Als Spielemagazin ist die Gamestar zwar brauchbar, aber das berichten über Hardware sollten sie der erwachsenen Konkurrenz wie der PCGH überlassen. Das allerdings der reinen Gamestar Leserschaft zu übermitteln dürfte schwierig werden.

So, habe fertig, das war mein Senf des Tages. :smile:

=Floi=
2010-06-15, 12:01:44
als eine aflagenstarke zeitschrift sehe ich gerade die GS in der verantwortung. Wenn die leserschaft auch kritischer erzogen wird, dann wird man auch qualitativ höherwertigre artikel schreiben können...
So ein artikel führt auch den nutzen der zeitschrift gegen 0 und damit auch die notwendigkeit sie zu kaufen. Bei den spieletests kann man auch kritisieren, dass sie zu lasch sind und mit der kritik viel zu zurückhaltend. ich erinnere hier mal an NFS (der teil vor shift)

Sentionline
2010-06-15, 12:20:25
Vor Shift war doch Undercover? Den hat Heiko förmlich auseinandergenommen! Ausser natürlich man ist ein Leser / Videobetrachter von 14 Jahren, da wird man den unterschwelligen Ton kaum verstehen.

Gast
2010-06-15, 12:57:09
Vor Shift war Pro Street.

Grey
2010-06-15, 12:59:11
Vor Shift war Pro Street.

Nein, zwischen den beiden war Undercover.

AYAlf_2
2010-06-15, 13:28:06
V2.0,

der Autor hat sich gewiss einfach nicht genug mit der Materie auseinandergesetzt. Würde er tatsächlich kritische Spiele (Left 4 Dead 2!!!) direkt vergleichen, würde er wahrscheinlich verstehen, dass Flimmern keine BQ-Steigerung darstellt.




Dann dürfen sie nicht darüber schreiben.
mal davon ab, dass die gamestar recht hat, mit den unterschieden von nvidia zu ati af (nicht auf die qualitaet bezogen). bei mir flimmert da nix bei l4d1+2.

MadManniMan
2010-06-15, 14:10:56
mal davon ab, dass die gamestar recht hat, mit den unterschieden von nvidia zu ati af (nicht auf die qualitaet bezogen). bei mir flimmert da nix bei l4d1+2.

Ich habe von einer 3850 auf eine 8800 gewechselt - eigentlich wegen der leicht höheren Rohpower und der Stereoskopie, aber dann habe ich mir auch mal HQ-AF angesehen: für empfindsame Gemüter ein großer Unterschied.

urfaust
2010-06-15, 14:22:21
Also was Hardware angeht ist PCGH für mich im mom Referenz. Zuminderst für den Gamer.


bitte nicht HardwareLuxx (Print) vergessen, überwiegend an Bahnhöfen erhältlich.

Sentionline
2010-06-15, 14:57:14
Hab ich schon länger nicht mehr beachtet. Imho gings damals als ichs gelesen hatte (1 J. her) nur um Luxus Hardware, heavy Wasserkühlungen und die dicksten Grafikkarten etc. Zudem fand ichs überteuert und dann auch noch ohne DVD. Dafür fand ich die Papier & Druckqualität als Exzellent. Bringt mir aber nix bei einem Magazin das nur einmal im Monat erscheint, nur Luxushardware vorstellt, wenig ausschweifungen in die Praxis macht und zudem glaubt das ich 2000€ im Monat verdiene um das vorgestellte auch zu kaufen.

Nene, ich bleib bei meiner PCGH als Referenz. Spieletuning, Praxisberichte von den Usern oder einfach Hänner (ich liebe seine alberne und direkte Art) [Der Obstgarten (http://www.youtube.com/watch?v=K7wzyuAl0mg&feature=related)]. Ein innovativ seltener Typ wie Lena jetzt :freak:

Quasi der gegenspieler zu Fabian bei der Gamestar (http://www.youtube.com/watch?v=U61ND35_bsE).

Gast
2010-06-15, 15:16:24
mal davon ab, dass die gamestar recht hat
Nein.

mit den unterschieden von nvidia zu ati af (nicht auf die qualitaet bezogen).
Nein. Gamestar vebreitet Fehlinformationen. Arglistige Täuschung nenn ich das.
Die tolle AF Blume soll gleichbedeutend mit hoher Qualität sein.

Gamestar hat nicht geschrieben das es für AYAlf_2 keine Rolle spielt was die berechneten Bilder beinhalten. Gamestar hat geschrieben es sei besser, weil die AF Blume runder ist.

bei mir flimmert da nix bei l4d1+2.Wayne.

Gast
2010-06-15, 15:29:25
Nein.


Nein. Gamestar vebreitet Fehlinformationen. Arglistige Täuschung nenn ich das.
Die tolle AF Blume soll gleichbedeutend mit hoher Qualität sein.

Gamestar hat nicht geschrieben das es für AYAlf_2 keine Rolle spielt was die berechneten Bilder beinhalten. Gamestar hat geschrieben es sei besser, weil die AF Blume runder ist.

Wayne.

Ja und ? dafür wird immer schön auf LOD 0.5 geclampt , da kann natürlch nix flimmern. aber schmieren !

Gast
2010-06-15, 15:52:04
Ja und ? dafür wird immer schön auf LOD 0.5 geclampt , da kann natürlch nix flimmern. aber schmieren !
Leseschwäche nach dem Ritt auf der AF Bugwelle?
Gamestar stellt die rundere Blume mit höherer Qualität gleich und lobt dies enorm. Keine Ahnung wie du auf Flimmern kommst.

Iruwen
2010-06-15, 16:33:57
Die Sache mit dem LOD hat Schlammi doch gerade für nicht so wild (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8087489#post8087489) erklärt, also zumindest bei ATI nicht natürlich :freak:

Ich habe von einer 3850 auf eine 8800 gewechselt - eigentlich wegen der leicht höheren Rohpower und der Stereoskopie, aber dann habe ich mir auch mal HQ-AF angesehen: für empfindsame Gemüter ein großer Unterschied.

Die Kommentare von Alf bezüglich AF kannste ignorieren, der ist genauso objektiv wie Schlammi.

AYAlf_2
2010-06-15, 18:29:01
Ich habe von einer 3850 auf eine 8800 gewechselt - eigentlich wegen der leicht höheren Rohpower und der Stereoskopie, aber dann habe ich mir auch mal HQ-AF angesehen: für empfindsame Gemüter ein großer Unterschied.
zur 2xxx und 3xxx generation der ati kann ich nichts sagen, zu der zeit hatte ich das pendant von nvidia. bei der hd4xxx und hd5xxx generation ist es mir wohl nur nicht aufgefallen, weil ich laie (http://de.wikipedia.org/wiki/Laie) bin. :rolleyes:
oder vielleicht bin ich komplett unempfindlich - oder ich habe einen zu guten/schlechten monitor um sowas zu erkennen? :freak:


Die Kommentare von Alf bezüglich AF kannste ignorieren, der ist genauso objektiv wie Schlammi.
hehe, ich fuehle mich echt geehrt, dass du mich staendig namentlich erwaehnst, danke dafuer. ich moechte dir als dauerposter, der du bist, auch gerne deinen namen hier erwaehnen ...

hallo iruwen ich mag dich, auch wenn du nur ein mitlaeufer bist. :wink:

Fetter Fettsack
2010-06-15, 18:32:27
weil ich leihe bin.

Wer hat dich denn ausgeliehen? ;D

*der war leider aufgelegt :)

AYAlf_2
2010-06-15, 18:34:43
Wer hat dich denn ausgeliehen? ;D

*der war leider aufgelegt :)
danke fuer den hinweiss

€ wusste ich haette amateur schreiben sollen ^^

urfaust
2010-06-15, 21:54:58
Nene, ich bleib bei meiner PCGH als Referenz.

also ich lese die HardwareLuxx seit vorletzter Ausgabe und kann bestätigen,
dass Protzhardware nicht im Mittelpunkt steht. Offenbar hat sich das zwischenzeitlich geändert.

PCGH klar Referenz, aber das HardwareLuxx ist durchaus ernstzunehmend und kann prima co-existieren.

Monastyre
2010-06-18, 19:43:47
Ich finde die PCGH könnte sich von Layout und Papierqualität eine scheibe von HWLuxxPrinted abschneiden. Allerdings ist von den Test her und dem sonstigen drumherum die PCGH weiterhin mein Favorit.

y33H@
2010-06-18, 19:53:52
Das Papier ist sackteuer. Und so gerne ich Denis habe, mit 6k kommt er halt leider nicht weit ;(