PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu "ATIs Filtertricks"


Leonidas
2003-11-21, 19:44:20
Link (http://www.3dcenter.org/artikel/2003/11-21_a.php)

Endorphine
2003-11-21, 20:08:06
Sehr schön, endlich ist es mal für die Öffentlichkeit dokumentiert. Lob an aths :up:

Ob der Artikel wohl entstanden wäre, wenn sich Xmas keine R9800 gekauft hätte? :D

Edit:
Originally posted by aths
Dank geht an Demirug, [...] sowie ebenso an Ailuros, der unbeabsichtigt unsere "Forschungen" angestoßen hat :-). War das nicht Quasar, der alles angestossen hat, sowie André, der lange gemeckert hat, dass kein Gleichgewicht zwischen nV- und ATI-Kritik besteht? :kratz2:

Gast
2003-11-21, 20:11:34
Es stellt sich nur wirklich die Frage, was dem Kunden bei der derzeitigen Kartengeneration mehr bringt:

a) Genaue Texturfilter, dafür wesentlich langsammere Shader
oder
b) Praxisorientierte Bildqualität, mit deutlich besserem Antialiasing und guter Pixel Shader Leistung...

Mit nur 96 Pixel Shader Befehlen wird die Präzision eh fast nie zum Problem werden ...

Quasar
2003-11-21, 20:13:28
Seite 2, erster Absatz:
"welche unseres Wissens nach generell unter OpenGL wie auch unter Direct3D mit einer 8 Bit Präsision diese lineare Interpolation durchführen"

Präzision

Mr. Lolman
2003-11-21, 20:17:12
Leider setzt ATI andere Prioritäten, wie man auch an der Berechnung des MIP-Map-LODs sehen kann:


Wieso leider?

M.E. gehört diese Stelle dringend überarbeitet, da diese Ungenauigkeit beim bi-AF von Vorteil ist. Oder geht es darum, dass man möglichst schön die Mipmapübergänge beim bi-AF erkennen kann? In dem Fall steht natürlich NVidia besser da..... ?-)

Des weiteren stört mich, dass der Artikel etwas theoretisch gehalten ist, zumindest 2 Ingamevergleichsscreenshots zw. ATi und NV hätt ich mir gewünscht, da ja im Artikel der Eindruck erweckt wird, das die BQ auf NVidia GraKas im allgemeinen besser wäre, da weniger HW Restriktionen vorhanden seien.

Dies ist aber Humbug, da NV kein normales trilineares Filtering anbietet, und bei bestimmen Texturen selbst NVs 4xSAA und 8x Quality AF sich nicht sonderlich von ATis 16xbí-AF abhebt. (Tron 2.0)


Ansonsten fand ich den Artikel ganz gut....

Crushinator
2003-11-21, 21:03:10
:up: Klasse Artikel aths, ich habe ihn richtig genossen. *hoffend auf Besserung bei nächster Chip-Generation*

aths
2003-11-21, 21:56:38
Original geschrieben von Endorphine
Ob der Artikel wohl entstanden wäre, wenn sich Xmas keine R9800 gekauft hätte? :DJa.
Original geschrieben von Endorphine
Edit:
War das nicht Quasar, der alles angestossen hat, sowie André, der lange gemeckert hat, dass kein Gleichgewicht zwischen nV- und ATI-Kritik besteht? :kratz2: Nein.


Original geschrieben von Gast
Es stellt sich nur wirklich die Frage, was dem Kunden bei der derzeitigen Kartengeneration mehr bringt:

a) Genaue Texturfilter, dafür wesentlich langsammere Shader
oder
b) Praxisorientierte Bildqualität, mit deutlich besserem Antialiasing und guter Pixel Shader Leistung...

Mit nur 96 Pixel Shader Befehlen wird die Präzision eh fast nie zum Problem werden ... Bitte unterscheiden: FP24 ist für Farben gut genug, eigentlich schon mit Kanonen auf Spatzen geschossen. Für Textur-Koordinaten ist das je nach Textur-Größe schon grenzwertig. Das zieht vor allem einiges nach sich: Im Artikel wird gezeigt, dass FP24 bei den größten Texturen, die die HW beherrscht, "praktisch" bis zu 6 Bit "Nachkomma-Genauigkeit" geboten werden. Ebenjene 6 Bit begegnen uns beim bilinearem Filter wieder. Werden kleinere Texturen stark hochvergrößert, sind diese 6 Bit im bilinearem Filter (der ja aus 3 linearen Filtern besteht) jedoch zu wenig. In Spielen werden praktisch nie kleine Texturen dermaßen hoch vergrößert, das stimmt schon. Trotzdem eine Vereinfachung, die ich wenig toll finde.

Die Aussage des Artikels ist auch nicht: "Kauft Nvidia-Produkte", er soll nur über ATIs Filtertricks informieren. Andere Fragen werden in anderen Artikeln behandelt.

Quasar
2003-11-21, 21:57:19
Wollte vorhin noch was in meinen obigen Post reineditieren, aber dann spackte das Forum mal wieder ab.

Also, hier auf ein neues:
Guter Artikel, aths. Selten so eine neutrale und sachliche Betrachtung gelesen.

Xmas
2003-11-21, 22:04:03
Original geschrieben von Mr. Lolman
Wieso leider?

M.E. gehört diese Stelle dringend überarbeitet, da diese Ungenauigkeit beim bi-AF von Vorteil ist. Oder geht es darum, dass man möglichst schön die Mipmapübergänge beim bi-AF erkennen kann? In dem Fall steht natürlich NVidia besser da..... ?-)
Diese Ungenauigkeit ist keineswegs von Vorteil, aber auch praktisch nicht von Nachteil. Im Normalfall tritt dieses "Gegrissel" in viel schwächerer Form auf. Im Extremfall aber bekommst du nicht nur "Gegrissel", sondern auch gleich mehrere Linien auf einer Hälfte des Bildes.

Des weiteren stört mich, dass der Artikel etwas theoretisch gehalten ist, zumindest 2 Ingamevergleichsscreenshots zw. ATi und NV hätt ich mir gewünscht, da ja im Artikel der Eindruck erweckt wird, das die BQ auf NVidia GraKas im allgemeinen besser wäre, da weniger HW Restriktionen vorhanden seien.
Es war wohl die Absicht des Artikels, theoretisch zu sein, denn er bezieht sich auf die technischen Unterschiede. Bildvergleiche gibt es einige im Netz, aber die technischen Details sollten eben auch einmal öffentlich angesprochen werden. Und sei es nur um zu zeigen, welch vielfältige Möglichkeiten es beim Design von 3D-Chips gibt.
Dieser Zweck bleibt leider etwas im Hintergrund.

Mit der Meinung, die im Artikel geäußert wird, stimme ich übrigens zu einem großen Teil nicht überein. ATI hat in vielen Fällen Einschnitte gemacht, aber das meiste davon halte ich für "gelungen", im Sinne dass es keinen Qualitätsunterschied in der Praxis macht. Es ist offensichtlich, dass ATI hier gründlich experimentiert hat, um herauszufinden, wann man einen Unterschied wahrnimmt. Lediglich die Sparsamkeit beim AF kann mich nicht so ganz überzeugen.

NVidia ist mit einer ganz anderen Philosophie an das Chipdesign herangegangen, und es wird hier wirklich deutlich dass man viel mehr Wert auf den professionellen Markt gelegt hat als ATI. Wer höchste Genauigkeit will, wird mit NVidia-Chips besser bedient als mit ATI-Chips.

NVidia versucht nun, durch treiberseitige Einsparungen an ATI heranzukommen. Ist das besser oder schlechter? Keins von beidem, es kommt nur auf die resultierende Bildqualität an. (Bei treiberseitigen Limitierungen besteht noch die Hoffnung, sie umgehen zu können, insofern könnte man sie auch als "besser" bezeichnen. Ansonsten ist es völlig egal, ob eine Limitierung in Software oder in Hardware vorliegt).
Allerdings liegt ein leichter Vorteil bei ATI, weil man hier die Einsparungen scheinbar besser überdacht hat. Doch da will ich mir kein Urteil erlauben, wer weiß, ob NVidia das IntelliSample-System noch wie beworben (Analyse der Texturinhalte) zum laufen kriegt.

andr_gin
2003-11-21, 22:05:54
Es sind zwar hier wahrscheinlich viele anderer Meinung, aber ich finde diese Optimierung auf bessere Leistung sehr gut. Es gibt nämlich nicht nur Leute, die sich alle 6 Monate eine neue High End Grafikkarte um 500€ zulegen. Bei den meisten Käufern ist so eine Grafikkarte ca. 4 Jahre im Rechner und da zählt nicht, wie schön das Bild im ersten Jahr aussieht, sondern wielange man mit der Karte noch so halbwegs spielen kann. Mir persönlich ist es wichtiger, wenn ich statt Trilinearer Filterung lieber 15 statt 10 Frames habe, was den Spielspaß mehr fördert. Momentan kann man sogar aktuelle Spiele mit Mainstreamkarten um die 200€ nicht mit allen Details auf voller Auflösung nicht flüssig spielen (zumindest meistens) und die meisten haben nicht einmal diese Karten. Klar ist es nicht ganz egal, wie das Bild aussieht, aber wenn es nicht sehr störend ist, ziehe ich eine bessere Performance einer guten Bildqualität vor. Es hat schon seinen Grund, warum bei Tests meistens die Geschwindigkeit gemessen wird und nicht die Qualität.

aths
2003-11-21, 22:06:48
Original geschrieben von Mr. Lolman
Wieso leider?

M.E. gehört diese Stelle dringend überarbeitet, da diese Ungenauigkeit beim bi-AF von Vorteil ist.Rrr. Ist sie nicht. Diese Ungenauigkeiten sind auch beim TF noch da, und es kann ja nicht der Sinn sein, "LOD-Rauschen" zu erzeugen. Wenn du "Trilinear Dithering" magst, sei dir 'ne Voodoo ans Herz gelegt, die können erst gar kein echtes TF...
Original geschrieben von Mr. Lolman
Oder geht es darum, dass man möglichst schön die Mipmapübergänge beim bi-AF erkennen kann? In dem Fall steht natürlich NVidia besser da..... ?-)Die "Bugwellen" kann man so oder so erkennen. Bedenke dass das "LOD-Rauschen" auch in den Texturen vorhanden ist, und bei TF eine nicht positive Auswirkung hat, da das Bild leicht verrauscht wird. (Allerdings wirklich nur sehr leicht.)
Original geschrieben von Mr. Lolman
Des weiteren stört mich, dass der Artikel etwas theoretisch gehalten ist, zumindest 2 Ingamevergleichsscreenshots zw. ATi und NV hätt ich mir gewünscht, da ja im Artikel der Eindruck erweckt wird, das die BQ auf NVidia GraKas im allgemeinen besser wäre, da weniger HW Restriktionen vorhanden seien.Genau dieser Eindruck sollte auch erweckt werden, weil er richtig ist.
Original geschrieben von Mr. Lolman
Dies ist aber Humbug, da NV kein normales trilineares Filtering anbietet, und bei bestimmen Texturen selbst NVs 4xSAA und 8x Quality AF sich nicht sonderlich von ATis 16xbí-AF abhebt. (Tron 2.0)Meine Ti 4600 bietet perfektes TF nach strengster OpenGL-Definition und SGI-Implementierung :) Meine Karte kann (wie jede FX auch) in OpenGL mindestens 3DLabs-Qualität bieten, ATI-Karten können das wegen der limitierten Filter-Logik nicht. Man darf beim D3D Ref-Rast fragen, warum dieser nur 5 Bit LOD-Fraction nutzt: Zugeständnis an ATIs Radeon?

Ja, die FXe werden neuerdings in Direct3D auf "brilinear" limitiert, was ich davon halte (nämlich gar nichts) war mir neulich ein Artikel wert.

Die Texturqualität ist bei NV mit 4xS und 8° AF um Längen besser als bei ATI mit 16° biAF. (Um das zu sehen, muss man natürlich hinsehen. Die Leistung reicht auch oft nicht für 4xS mit 8° AF. Diese gebotene Qualität kann ATI jedoch mit 16x bi AF nicht erreichen.) Natürlich kommt es nicht nur auf die Qualität an, Auflösung und Framerate muss auch stimmen.

aths
2003-11-21, 22:15:20
Original geschrieben von andr_gin
Es sind zwar hier wahrscheinlich viele anderer Meinung, aber ich finde diese Optimierung auf bessere Leistung sehr gut. Es gibt nämlich nicht nur Leute, die sich alle 6 Monate eine neue High End Grafikkarte um 500€ zulegen. Bei den meisten Käufern ist so eine Grafikkarte ca. 4 Jahre im Rechner und da zählt nicht, wie schön das Bild im ersten Jahr aussieht, sondern wielange man mit der Karte noch so halbwegs spielen kann.Mit einer 4 Jahre alten Karte, die beim Kauf schon Mainstream war, kann man kaum vernünftig spielen. Ernsthafte Spieler wechseln ihre Karte spätestens nach 18 Monaten.
Original geschrieben von andr_gin
Mir persönlich ist es wichtiger, wenn ich statt Trilinearer Filterung lieber 15 statt 10 Frames habe, was den Spielspaß mehr fördert.Mit 15 fps würde bei mir überhaupt kein Spaß aufkommen. Bilineare Filterung halte ich für überholt. ATIs Radeon 9800 XT kann nicht mal bilineare Filterung in "Quasi-Perfektion", sondern optimiert hier schon rum. Da ist bei mir Schluss mit lustig.
Original geschrieben von andr_gin
Momentan kann man sogar aktuelle Spiele mit Mainstreamkarten um die 200€ nicht mit allen Details auf voller Auflösung nicht flüssig spielen (zumindest meistens) und die meisten haben nicht einmal diese Karten. Es ist ja auch ein Irrglaube, mit maximalen Details spielen zu müssen. Ich spiele nichts, was halbwegs modern ist, mit maximalen Details, weil man mit dem Opfern einiger Effekte gehörig Leistung herausschinden kann. Wenigstens bleibt da die Wahl zwischen Leistung und Qualität.
Original geschrieben von andr_gin
Klar ist es nicht ganz egal, wie das Bild aussieht, aber wenn es nicht sehr störend ist, ziehe ich eine bessere Performance einer guten Bildqualität vor. Es hat schon seinen Grund, warum bei Tests meistens die Geschwindigkeit gemessen wird und nicht die Qualität. Das darf keine Spirale werden, dass schrittweise mehr und mehr BQ gespart wird. Am Ende ist Turbo-Tex sinnvoll, nur weil das tatsächlich da Leistung bringt? Imo ist Hardware sinnvoll, die bestmögliche Grafik bei hinreichender Framerate bringt.

MadManniMan
2003-11-21, 22:44:24
Hm, aths... nur indirekt zum Artikel, aber mal zu dir: langsam entwickelst du eine Neuanschaffungsphobie sondersgleichen.
Was in drei Herrgottsnamen spielst du eigentlich, um z.B. vom Kauf einer FX der Radeon aus ideologischen Gründen abzusehen?
Die theorethischen Betrachtungen in allen Ehren, da hast du vollkommen Recht und wenn es um die Reputation der IHVs geht, kommt man an ihr kaum vorbei, aber denk auch mal an dich...

..naja, -,02€ halt.

aths
2003-11-21, 22:55:10
Original geschrieben von MadManniMan
Hm, aths... nur indirekt zum Artikel, aber mal zu dir: langsam entwickelst du eine Neuanschaffungsphobie sondersgleichen.Guck die Screenshots von Radeons an: Die gehen doch, oder? Kann man also kaufen.
Original geschrieben von MadManniMan
Was in drei Herrgottsnamen spielst du eigentlich, um z.B. vom Kauf einer FX der Radeon aus ideologischen Gründen abzusehen? Wenn man sich mit einer Neuanschaffung verbessern will, am liebsten doch in allen Bereichen.
Original geschrieben von MadManniMan
Die theorethischen Betrachtungen in allen Ehren, da hast du vollkommen Recht und wenn es um die Reputation der IHVs geht, kommt man an ihr kaum vorbei, aber denk auch mal an dich... Für mich ist es ein Schock, wenn NV dem FX-User in D3D den TF nimmt, und ATI dem Radeon-User nicht mal Lehrbuch-BF gönnt. Während man Brilinear auf Ingame-Screenshots ganz gut nachweisen kann (ich sehe auf UT2003-Standbildern durchaus die Bugwellen) ist es schwierig, ohne Tricks wie MIP-Einfärbungen etc. auf R3xx-Shots die ATI-Optimierungen zu zeigen. Xmas' Einlassung, ATI hätte bei den isotropen Filtern nur dort gespart wo es nicht weh tut, zieht ja erst mal.

Aber bei 8 Bit Auflösung pro Farbkanal finde es dumm, mit nur 6 Bit zu lerpen. Diese Blöckchen im Screenshot finde ich nicht toll. Ich meine, wir sind heute bei Füllraten jenseits von gut und böse. Die Shaderpower nimmt auch immer mehr zu. Da möchte ich Texturfilterung bitte auch in maximaler sinnvoller Qualität. 8 Bit Lerpfaktor-Auflösung ist imo sinnvoll. Ansonsten kommt es wegen diesem Faktor zu Blockbildung. Die "grobe" Blockbildung bei ATIs BF ist nun für mich gleich gänzlich unerklärlich. Das AF reicht aber für mich schon als Nichtkaufgrund. Das AA der FXen ist ebenso ein Nichtkaufgrund :)

Gast
2003-11-21, 23:12:15
Das Problem dabei ist nur, mehr als 110 Millionen Transistoren im 0.25 micron Prozess is wohl kaum drin.

Ich finde ATis Einschränkungen bei den Filtern ist bis auf den AF sehr gut zu verschmerzen, auch bei Lookups in Pixelshadern.
Das Gamma-correct AA verbessert das Bild ja wohl um Längen besser als 8 bit lerps für bilineare Filter.

Also meiner Meinung nach hat ATi genau an den richtigen Stellen gespart um ein für den Konsumenten ideales Verhältnis herzustellen.

KEINPLAN
2003-11-21, 23:13:38
GeForce-Karten gehörten zu den ersten Produkte
Produkten
es ist nicht Ordnung, bei bilinearer Filterung keine Lehrbuchqualität zu bieten
es ist nicht in Ordnung


Netter Artikel

Frage: Wofür steht das se?

Es ist somit sicher nicht per se falsch

aths
2003-11-21, 23:21:03
per se = an sich, oder = von selbst, im Kontext manchmal auch = von vornherein.

KEINPLAN
2003-11-21, 23:24:24
Original geschrieben von aths
per se = an sich Ahh

MadManniMan
2003-11-21, 23:26:30
Original geschrieben von aths
Guck die Screenshots von Radeons an: Die gehen doch, oder? Kann man also kaufen.

;D Nett gekont0rt :naughty:

Original geschrieben von aths
Wenn man sich mit einer Neuanschaffung verbessern will, am liebsten doch in allen Bereichen.

Wer will das nicht? Für mich hat als Argument von meiner GF3 aus die 9500Pro nur gereicht, weil das AA schneller und schöner geworden ist, weil AF ernsthaft nutzbar wurde, weil die Rohpower gereizt hat und DX9 auf meiner Strichliste stand.
Zu dir würde von daher IMHO rein von der Leistungs-Verbesserungs-Relation her ne 9800Pro passen... ;)

Was ich sagen will: klar wäre es toll, in allen Belangen Verbesserung, zumindest aber Beibehaltung des Standards zu erleben. Is aber nich alles toll im Leben, klar.
Daher sollte man sich aber drüber freuen, daß man MP2 nicht mehr in 1024 mit 2*/8* genieß0rn darf, sondern ohne große Sorgen 1280 mit 4*/16tapTri ( ;) ) und Spiegeln fahren kann.

Aber ehrlich gesagt würde ich mit deiner Ti4600 wohl auch noch ein wenig warten...

Original geschrieben von aths
Für mich ist es ein Schock, wenn NV dem FX-User in D3D den TF nimmt, und ATI dem Radeon-User nicht mal Lehrbuch-BF gönnt. Während man Brilinear auf Ingame-Screenshots ganz gut nachweisen kann (ich sehe auf UT2003-Standbildern durchaus die Bugwellen) ist es schwierig, ohne Tricks wie MIP-Einfärbungen etc. auf R3xx-Shots die ATI-Optimierungen zu zeigen. Xmas' Einlassung, ATI hätte bei den isotropen Filtern nur dort gespart wo es nicht weh tut, zieht ja erst mal.

Kommt IMHO im Artikel zu wenig rüber. Wo du beim Bri-Artikel noch als zu emotional eingestuft wurdest, bist du hier - um es nochmal zu sagen: IMHO - zu... naja, akademisch halt.

Original geschrieben von aths
(ich sehe auf UT2003-Standbildern durchaus die Bugwellen)

Dito. Wobei sie mich in der Praxis nicht stören würden, wenns nicht grade mit ohne AF laufen soll.

Original geschrieben von aths
Aber bei 8 Bit Auflösung pro Farbkanal finde es dumm, mit nur 6 Bit zu lerpen. Diese Blöckchen im Screenshot finde ich nicht toll. Ich meine, wir sind heute bei Füllraten jenseits von gut und böse. Die Shaderpower nimmt auch immer mehr zu. Da möchte ich Texturfilterung bitte auch in maximaler sinnvoller Qualität. 8 Bit Lerpfaktor-Auflösung ist imo sinnvoll. Ansonsten kommt es wegen diesem Faktor zu Blockbildung. Die "grobe" Blockbildung bei ATIs BF ist nun für mich gleich gänzlich unerklärlich.

Ethisch ist es einfach seltsam, was da abgeht. Praktisch aber... gelle?

Original geschrieben von aths
Das AF reicht aber für mich schon als Nichtkaufgrund. Das AA der FXen ist ebenso ein Nichtkaufgrund :)

NextGen ahoi, mal sehen, was da komme...

StefanV
2003-11-21, 23:26:30
Original geschrieben von Leonidas
Link (http://www.3dcenter.org/artikel/2003/11-21_a.php)

Netter Artikel, nur vermisse ich einen kleinen 'Seitenhieb' auf alle RVs (EInsparung an der Interpolation des TMDS Transmitters) sowie der gesamten R300 Serie (TV Out und sek. RAMDAC nicht gleichzeitig nutzbar)...

Allein schon, damit klar wird, daß ATI grundsätzlich spart, wo sie können ;)

Gast
2003-11-21, 23:37:17
Bei 16 Bit Mantisse gibt es somit 2^16 = 65536 unterschiedliche Stufen für den Bereich von 0,5 - 1,0
Stimmt eh nicht merk ich grad. Es gibt nämlich genauso negative Exponenten. Die Mantisse hat nur eine Aussage über die Anzahl der Stellen der Zahl die korrekt sind, ob du nun 2.0 oder 0.0002 in einer floating point Zahl speichert ist völlig egal. Es gibt deutlich mehr als 65536 Stufen für den Bereich 0,5 - 1,0.

aths
2003-11-21, 23:39:28
Original geschrieben von MadManniMan
Zu dir würde von daher IMHO rein von der Leistungs-Verbesserungs-Relation her ne 9800Pro passen... ;)Geh mir doch mit dieser lahmen Krücke weg! Unter 4 GT (trilinear, natürlich) brauchen wir gar nicht erst anzufangen.

Original geschrieben von MadManniMan
Daher sollte man sich aber drüber freuen, daß man MP2 nicht mehr in 1024 mit 2*/8* genieß0rn darf, sondern ohne große Sorgen 1280 mit 4*/16tapTri ( ;) ) und Spiegeln fahren kann.4x AA mit 4x4-EER wäre echt nett. Inzwischen fange ich an, 2x2-EER mehr und mehr zu hass0rn... 16x AF à la ATI ist letztlich nicht so gut wie 8x AF à la NV. Was soll ich mit diesem AF? In MP2 mag das noch angehen, weil da viele Winkel das 90°-Kriterium einhalten. Schön. Aber kauf' ich neue Hardware, um damit die "älteren" (an 90°-Architektur orientierten) Spiele zu spielen?

Die Diskussion geht mir jetzt allerdings zu sehr in den subjektiven Bereich. Der Artikel versucht ja, sachlich zu sein. ATI-HW wird dort nicht die Eignung als Spieler-3D-Graka abgesprochen, es werden einige Vereinfachungen der Filter-Logik gezeigt und welche Auswirkungen sie haben.


Original geschrieben von Stefan Payne
Netter Artikel, nur vermisse ich einen kleinen 'Seitenhieb' auf alle RVs (EInsparung an der Interpolation des TMDS Transmitters) sowie der gesamten R300 Serie (TV Out und sek. RAMDAC nicht gleichzeitig nutzbar)...

Allein schon, damit klar wird, daß ATI grundsätzlich spart, wo sie können ;) Das war nicht das Anliegen des Artikels. Es geht um Filter, also Texturfilter.

sth
2003-11-21, 23:40:20
Erstmal danke für den interessanten Artikel. Weiter so.

Zum Thema Shader-Präzision:
Momentan ist fp24 OK meiner Meinung nach, da in der jetzigen Generation erstmal überhaupt eine in der Praxis brauchbare PixelShader2-Leistung im Vordergrund steht.

Für die anderen "Optimierungen" habe ich jedoch kein Verständnis.

Hoffen wir mal, dass
- ATI in den nächsten Grafikkarten-Generationen anfängt (wieder?) Lehrbuchqualität zu liefern
und/oder
- NVidia in Zukunft gescheite Shader-Leistung abliefern wird und diese blöden Treiber-Optimierungen sein lässt

Sonst wird das hier ja bald wie in der Politik - Egal was du wählst: Es ist immer die falsche Entscheidung


PS: Mich würde mal interessieren, ob sich Radeon und FireGL in der Bildqualität 'was geben oder bei nVidia Unterschiede zwischen Detonator und Quadro-Treiber (der sich ja angeblich auch auf den Consumer-Karten verwenden lässt) bestehen. Ich kann es mir eigentlich kaum vorstellen, dass sich ATI und nVidia im professionellen Umfeld soetwas erlauben können...

aths
2003-11-21, 23:42:10
Original geschrieben von Gast
Stimmt eh nicht merk ich grad. Es gibt nämlich genauso negative Exponenten. Die Mantisse hat nur eine Aussage über die Anzahl der Stellen der Zahl die korrekt sind, ob du nun 2.0 oder 0.0002 in einer floating point Zahl speichert ist völlig egal. Es gibt deutlich mehr als 65536 Stufen für den Bereich 0,5 - 1,0. Na dann zeig doch mal, wie du die darstellen möchtest, bei einer normalisierten Mantisse.

Mr. Lolman
2003-11-21, 23:46:01
Original geschrieben von aths
Rrr. Ist sie nicht. Diese Ungenauigkeiten sind auch beim TF noch da, und es kann ja nicht der Sinn sein, "LOD-Rauschen" zu erzeugen. Wenn du "Trilinear Dithering" magst, sei dir 'ne Voodoo ans Herz gelegt, die können erst gar kein echtes TF...

Das dieses trilineare Dithering in Spielen Auffällt möchte ich erst einmal mittels einem Ingamescreenshot bewiesen bekommen.


Die "Bugwellen" kann man so oder so erkennen. Bedenke dass das "LOD-Rauschen" auch in den Texturen vorhanden ist, und bei TF eine nicht positive Auswirkung hat, da das Bild leicht verrauscht wird. (Allerdings wirklich nur sehr leicht.)

Naja bei tri nicht unbedingt, wohl eher schon bei bi ;), wenn man mal das Texturrauschen, was mir pesönlich ebenso wenig wie das 5bit TF LOD auffällt, ausser Acht lässt.


Genau dieser Eindruck sollte auch erweckt werden, weil er richtig ist.
Meine Ti 4600 bietet perfektes TF nach strengster OpenGL-Definition und SGI-Implementierung :) Meine Karte kann (wie jede FX auch) in OpenGL mindestens 3DLabs-Qualität bieten, ATI-Karten können das wegen der limitierten Filter-Logik nicht.

Fragt sich bei welcher Leistung. Aber du hast recht. Die BQ einer GF4 ist bei max AA/AF unerreicht.


Man darf beim D3D Ref-Rast fragen, warum dieser nur 5 Bit LOD-Fraction nutzt: Zugeständnis an ATIs Radeon?

Womöglich auch weil 5 Bit vollkommen ausreichen? (Genauso wie es viele Anwendungen gibt, bei denen bi-AF tatsächlich ausreicht) Allerding hast du bezüglich OpenGL nur tw. recht, da NVs briliniaren Filter bei neueren Treibern in OGL genauso vorhanden ist, nur mittels Reg Key abgeschaltet werden kann.


Ja, die FXe werden neuerdings in Direct3D auf "brilinear" limitiert, was ich davon halte (nämlich gar nichts) war mir neulich ein Artikel wert.

AFAIK nun auch schon in OpenGL..


Die Texturqualität ist bei NV mit 4xS und 8° AF um Längen besser als bei ATI mit 16° biAF. (Um das zu sehen, muss man natürlich hinsehen. Die Leistung reicht auch oft nicht für 4xS mit 8° AF. Diese gebotene Qualität kann ATI jedoch mit 16x bi AF nicht erreichen.) Natürlich kommt es nicht nur auf die Qualität an, Auflösung und Framerate muss auch stimmen.

Das mag stimmen, aber wie siehts denn bei 4xAA/16x(App)AF vs. 4xS und 8xQuality AF aus? (Klar auf deiner GF4 schöner, aber wie siehts denn bei den FXen aus?
Ich weiss, es gab einen Artikel darüber. Was mir jedoch fehlt, sind eindeutige Screenshotvergleiche, mit inkl. kurzer, Performancebetrachtung (einfach die fps, bei denen die Screenshots entstanden sind)

Original geschrieben von aths
Ernsthafte Spieler wechseln ihre Karte spätestens nach 18 Monaten.

Glaubst du echt? Manche haben die Radeon 9700pro schon etwas mehr als ein Jahr. Vielleicht ist sie sogar OCed, womöglich sogar auf 9800pro/XT Niveau, und solche Leute sind in deinen Augen keine 'ernsthaften Spieler' nur weil sie nicht vorhaben die Karte schon in einem halben Jahr wegzugeben* obwohl noch alles wunderbar läuft???

*(hab ich übrigens auch nicht, und meine GraKa ist auch schon mittlerweile 11 Monate alt)


Mit 15 fps würde bei mir überhaupt kein Spaß aufkommen. Bilineare Filterung halte ich für überholt. ATIs Radeon 9800 XT kann nicht mal bilineare Filterung in "Quasi-Perfektion", sondern optimiert hier schon rum. Da ist bei mir Schluss mit lustig.

Hmm, naja, mE sind diese Optimierungen trotz der Ungenauigkeit, im Zweifelsfall für den Spieler eher von Vorteil:

- Weniger Transistoren -> weniger Abwärme -> leiserer Lüfter
- höhere Geschwindigkeit

Und dann noch die Tatsache, dass diese Ungenauigkeit die Mipmapbandings zwar nicht eliminiert (Das konnte das Voodoo Dithering auch nicht), jedoch aber es zumindes zu einem (sehr) geringen Grad abschwächt. (Bei den Voodoos war der Effekt deutlicher)


Es ist ja auch ein Irrglaube, mit maximalen Details spielen zu müssen. Ich spiele nichts, was halbwegs modern ist, mit maximalen Details, weil man mit dem Opfern einiger Effekte gehörig Leistung herausschinden kann. Wenigstens bleibt da die Wahl zwischen Leistung und Qualität.
Das darf keine Spirale werden, dass schrittweise mehr und mehr BQ gespart wird. Am Ende ist Turbo-Tex sinnvoll, nur weil das tatsächlich da Leistung bringt? Imo ist Hardware sinnvoll, die bestmögliche Grafik bei hinreichender Framerate bringt.

Stimmt. Und m.E. sind das halt ATis, weil 4/6xAA schneller ist als 4xS und dazu noch besser aussieht, genauso wie es bei den 'schnellen' AF Modi, beider Hersteller der Fall ist. Sicher spiele ich auch gerne mit bestmöglicher BQ, und deswegen freuts mich, dass Max Payne in 1152x864 (meine Spielauflösung) mit 6xAA und 16x(App) AF einfach absolut geil läuft.

Grundsätzlich spiele ich erstmal alle Spiele MIT maximalen Details. Und dann halt noch je nach Möglichkeit AA/AF dazu.

Wenn die Leistung nicht mehr reicht muss man halt mit geringen 8x Stufen vorlieb nehmen. 8x(App)AF ist schon, je nach Situation, deutlich schneller, und immernoch ähnlich mit NVs max AF Qualität (bei den FXen !!!!). Die Winkelabhängigkeit ist bei den ATis zwar vorhanden, aber da lässt sich ja schön NVs pseudotrilineare Filtering gegenüberstellen.



Was bleibt übrig?

Zuersteinmal die Tatsache dass der ATi Chip (m.E. sogar in unveränderter Form) schon seit über einem Jahr am Markt ist.

ATis Highend Karten sind bei oft gebenchten DX7/8 im Durchschnitt auf NV Niveau, bzw. leicht darüber. (bis auf 1600x1200 4xAA wo die FX5950 in manchen Games deutliche Vorteile für sich verbuchen kann. - genau wie die ATis, bei anderen Spielen. Im Durchschnitt sind sie IMHO jedoch gleich schnell.
In OpenGL kann man sagen, das die FXen leicht im Vorteil sind, was aber auch stark von der jew. App abhängt, und sich tw. auch umkehren lässt (durch andere Timdemos).

Wenn denn dann irgendwann die Leistung nicht mehr für wunderbares App.AF reicht (sofern dieses dann überhaupt noch von den Treibern angeboten wird), dann muss man sich seitens ATi mit Quality bzw. Performance AF zufrieden geben, oder halt mit einer geringeren AF Stufe. Bei NV gibts noch Quality AF, (= App AF mit max.2x@TS>0)oder Performance AF, was auch bilinear ist, aber aber im Ggs. zur ATi Lösung in der Entfernung deutlich unschärfer wirkt.

Insofern halt ich ATis Palette für besser, da 8/16bixAF nahezu ohne Performanceverlust arbeitet, das Bild jedoch ggü, normalen trilinearem Filter deutlich verbessert, und die Spiele, bei denen bi-AF nicht ertragbar ist (z.B. Uru) momentan noch sehr rar gesät sind. Falls die irgendwann in Überzahl sind, werde ich 4xApp(bzw.Quality) AF verwenden, und sollte es tatsächlich mal nurmehr für 2x(oder zur Not 0x)AA/2xAppAF reichen, werde ich mich nach einer neuen Karte umsehen. Aber die nächsten 6 Monate wirds noch reichen.



BTW. Ich spiele das HDR RDK Demo in 1024x768 4xAA und 8xbi AF, und es läuft einfach g0il (ok ist schon mal auf 15fps runtergesunken aber im grossen und ganzen sehr flüssig (bei max 30fps - Enginelimitierung).

Wer weiss vielleicht läufts auch mit tri AF, noch gabs aber kein strörendes Banding, und deswegen hab ich mal auf 'bi' lassen (mach ich immer so).

Xmas
2003-11-21, 23:48:11
Original geschrieben von Gast
Stimmt eh nicht merk ich grad. Es gibt nämlich genauso negative Exponenten. Die Mantisse hat nur eine Aussage über die Anzahl der Stellen der Zahl die korrekt sind, ob du nun 2.0 oder 0.0002 in einer floating point Zahl speichert ist völlig egal. Es gibt deutlich mehr als 65536 Stufen für den Bereich 0,5 - 1,0.
Nein, gibt es nicht.

aths
2003-11-22, 00:29:08
Original geschrieben von Mr. Lolman
Das dieses trilineare Dithering in Spielen Auffällt möchte ich erst einmal mittels einem Ingamescreenshot bewiesen bekommen.Rrr. Ich schrieb: "Diese Ungenauigkeiten sind auch beim TF noch da", und "Bedenke dass das "LOD-Rauschen" auch in den Texturen vorhanden ist, und bei TF eine nicht positive Auswirkung hat, da das Bild leicht verrauscht wird. (Allerdings wirklich nur sehr leicht.)"

Ich schrieb nicht: "ATIs Vereinfachungen sind in Ingame-Shots gut zu sehen." Dann hätte es nicht dieses Artikels bedurft :)

Original geschrieben von Mr. Lolman
Naja bei tri nicht unbedingt, wohl eher schon bei bi ;), wenn man mal das Texturrauschen, was mir pesönlich ebenso wenig wie das 5bit TF LOD auffällt, ausser Acht lässt.Das LOD wird so oder so berechnet, egal ob BF oder TF genutzt wird. Eine ungenaue LOD-Berechnung beeinflusst TF auch. Das mit den 5 Bit LOD-Fraction ist eine andere Story. Vom ohnehin etwas ungenauen LOD werden nur 5 Bit für die lineare Interpolation der beiden BF-Samples genutzt.

Original geschrieben von Mr. Lolman
Womöglich auch weil 5 Bit vollkommen ausreichen? (Genauso wie es viele Anwendungen gibt, bei denen bi-AF tatsächlich ausreicht) Allerding hast du bezüglich OpenGL nur tw. recht, da NVs briliniaren Filter bei neueren Treibern in OGL genauso vorhanden ist, nur mittels Reg Key abgeschaltet werden kann.Soweit ich weiß, ist in OpenGL standardmäßig volle trilineare Filterung aktiv. Brilinear wird erst bei den Intellisample-Settings genutzt, wenn man was anderes als "Quality" wählt, zudem kann man diese Einstellung auch "overriden" und (per RivaTuner oder aTuner) die Dicke des TF-Bandes von Hand einstellen.

Die erste GeForce, DX7-Harware, kann meines Wissens "lehrbuchmäßig" bilinear und trilinear filtern. DX9-Hardware vom Schlage einer 9800 XT kann bilinear nur mit Artefakten filtern, und trilinear mit nur 32 Stufen (statt 256, wie GeForce.) Finde ich wenig toll.

Original geschrieben von Mr. Lolman
AFAIK nun auch schon in OpenGL..Mit welchem Treiber? (In OpenGL darf man gar nicht TF in Richtung "brilinear" "optimieren".)


Original geschrieben von Mr. Lolman
Das mag stimmen, aber wie siehts denn bei 4xAA/16x(App)AF vs. 4xS und 8xQuality AF aus? (Klar auf deiner GF4 schöner, aber wie siehts denn bei den FXen aus?
Ich weiss, es gab einen Artikel darüber. Was mir jedoch fehlt, sind eindeutige Screenshotvergleiche, mit inkl. kurzer, Performancebetrachtung (einfach die fps, bei denen die Screenshots entstanden sind)Bitte trennen :) Den Artikel interessiert Filterqualtität. Nicht Geschwindigkeit. Bessere Filter kosten erst mal nur mehr Transistoren, nicht mehr Leistung. Die Frage ist, ob ATI einen etwas größeren Chip auch auf diese Taktfrequenz bekommen hätte, ja. Aber ich würde mir wünschen wenn hier nichts durcheinander gewürfelt wird, was nicht durcheinander gewürfelt gehört: Dass Radeons "gleicher Klasse" meist schneller sind, als die GeForce-Konkurrenz, hat praktisch nichts mit der Filterqualität zu tun.

Du sagst im Prinzip, dass die Filterqualität der Radeons für Spiele ausreicht. Stimmt auch. Der Artikel zeigt, dass die Filter ungenauer arbeiten, als bei der Konkurrenz. Dazu gibts Screenshots.

Die Screenshots zum BF hast du ja gesehen. Ich finde sowas nicht in Ordnung, auch wenn solche Szenarien in Spielen praktisch nie vorkommen. (Als Verfechter der "reinen Lehre" bin ich nicht mal mit Nvidias 8x AF so ganz zufrieden...)

Original geschrieben von Mr. Lolman
Glaubst du echt? Manche haben die Radeon 9700pro schon etwas mehr als ein Jahr. Vielleicht ist sie sogar OCed, womöglich sogar auf 9800pro/XT Niveau, und solche Leute sind in deinen Augen keine 'ernsthaften Spieler' nur weil sie nicht vorhaben die Karte schon in einem halben Jahr wegzugeben* obwohl noch alles wunderbar läuft???

*(hab ich übrigens auch nicht, und meine GraKa ist auch schon mittlerweile 11 Monate alt)Da bist ja noch voll im 18-Monats-Zyklus :) Radeon 9700 ist ein seltener Glückfall btw. Wer die frühzeitig kaufte, hat Glück. Ich selbst werde die Ti 4600, das schnellste was es damals gab, auch länger als 18 Monate drin behalten. Aber das geht nur, weil ich abgehärtet bin und ohne mit der Wimper zu zucken Details und Auflösung reduziere. Ailuros z.B., der offenbar ernsthafter Gamer ist, jedenfalls ernsthafter als ich, wählte sich für diese Periode 'nen R300. Die richtige Entscheidung. Zumal ATI an anderer Stelle bekanntlich konkurrenzlos gute Qualität anbieten, siehe MSAA. Mir geht's im Artikel nicht um Empfehlungen für Spielerkarten, sondern mit der Entdeckung dass BF nicht immer aussieht, wie BF aussehen sollte, ATIs Filtertricks (die, was nur am Rande erwähnt wurde, lange Tradition haben) anzusprechen, und meine Meinung dazu zu äußern.

Original geschrieben von Mr. Lolman
Hmm, naja, mE sind diese Optimierungen trotz der Ungenauigkeit, im Zweifelsfall für den Spieler eher von Vorteil:

- Weniger Transistoren -> weniger Abwärme -> leiserer Lüfter
- höhere Geschwindigkeit

Und dann noch die Tatsache, dass diese Ungenauigkeit die Mipmapbandings zwar nicht eliminiert (Das konnte das Voodoo Dithering auch nicht), jedoch aber es zumindes zu einem (sehr) geringen Grad abschwächt. (Bei den Voodoos war der Effekt deutlicher)Es kann nicht der Sinn sein, BF-Artefakte durch Rauschen zu reduzieren. Rauschen führt einen Fehler ein. BF kann man nur durch TF wirklich bekämpfen, also so, dass das Bild besser wird. Ansonsten kommen wir noch dahin, Blurring als AA-Maßnahme zu akzeptieren...

Original geschrieben von Mr. Lolman
Stimmt. Und m.E. sind das halt ATis, weil 4/6xAA schneller ist als 4xS und dazu noch besser aussieht, genauso wie es bei den 'schnellen' AF Modi, beider Hersteller der Fall ist. Sicher spiele ich auch gerne mit bestmöglicher BQ, und deswegen freuts mich, dass Max Payne in 1152x864 (meine Spielauflösung) mit 6xAA und 16x(App) AF einfach absolut geil läuft. Schön.

Original geschrieben von Mr. Lolman
Grundsätzlich spiele ich erstmal alle Spiele MIT maximalen Details. Und dann halt noch je nach Möglichkeit AA/AF dazu.Mit maximalen Details zu spielen gehört für mich in die gleiche Kategorie der Irrwege, wie, dass eine hohe Auflösung FSAA vorzuziehen sein. Maximale Details sollten dafür sorgen, dass das Spiel auch in 2 Jahren noch die Hardware halbwegs ausreizen kann. Der Effekt des abnehmenden Betrages spielt hier mit rein, die letzten Detail-Stufen ziehen meist kräftig an der Leistung ohne viel zu bringen. Bei UT2003 hatte ich das mal getestet, man kann auf einige Details verzichten und die Spielbarkeit erheblich verbessern. Volle Details zogen dermaßen an der Performance, das machte kein Spaß mehr.

Original geschrieben von Mr. Lolman
Wenn die Leistung nicht mehr reicht muss man halt mit geringen Stufen vorlieb nehmen. 8x(App)AF ist schon, je nach Situation, deutlich schneller, und immernoch ähnlich mit NVs max AF Qualität (bei den FXen !!!!). Die Winkelabhängigkeit ist bei den ATis zwar vorhanden, aber da lässt sich ja schön NVs pseudotrilineare Filtering gegenüberstellen.8x AF ist bei ATI ja auch insgesamt schlechter als NVs 4x AF. Warum wird hier ständig AF verglichen, wo es da nichts zu vergleichen gibt? Zudem, winkelabhängige AF-Reduzierung ist was ganz anderes als "brilineare" Filterung. Wenn man anfängt das zu vergleichen, stellt man irgendwann noch MSAA mit AF gegenüber...

Zum Rest des Postings: ATIs Produktpalette ist nicht Thema des Artikels. Thema ist auch nicht, ob Radeons insgesamt gut sind, oder nicht. Nach dem bekannt werden von den 5 Bit LOD-Fraction wurde ja sofort ein Artikel gefordert, was ich ablehnte. Dieser Screenshot beim BF jedoch erzwang aus meiner Sicht umgehend ein Artikel. Natürlich nahm die Realisierung einige Tage in Anspruch. Im Forum werden ja weitere Vereinfachungen / Ungenauigkeiten von ATIs Berechnungen diskutiert, was allerdings nicht zum Artikel gehört, der sich auf die Texturfilter konzentiert.

Mr. Lolman
2003-11-22, 00:37:15
editiert

tb
2003-11-22, 01:18:37
Gibts die Programme irgendwo, micht denen die Screenshots gemacht wurden?


P.S. Vielleicht sollten man nicht nur den VPU Herstellern einen Vorwurf machen, sondern auch Microsoft, welche vielleicht zu lasch im Umgang mit Treibersignierungen etc. sind und die Qualitätskriterien vernachlässigen... (DCT DX9 QFE ...)

Thomas

Bokill
2003-11-22, 01:29:39
Danke, und schon wieder ein weiterer bemerkenswerter Artikel von aths.

Ich werde fast schon Fan von dir aths.

Es sind im Forum bestimmt weitere Freaks, die mindestens ganau so viel und mehr sagen könnten.
Mit dem Artikel ist aber das, in meinen Augen, wesentliche gesagt worden.

Dieser Artikel liegt auch wunderbar auf der Traditionslinie von 3DCenter, schon lange sind Spiele mit genügend Frameraten zu spielen.

Der Trend zu höherer Bildqualität wird schon länger von den Herstellern beworben, allerdings ist 3DCenter schon länger dabei, diese PR- Märchen zu hinterfragen.
Danke

Ich frage mich aber, wie weit Foren Meinungsbildend wirken, bzw. ob es irgendwelche Kursänderungen der Hersteller bewirken kann...

Da wäre ein Statement vom Forenbetreiber oder jemand von den 3DFreaks mit gewissen Verbindungen gefragt...
Zu hoffen ist, dass einige Hochglanzmagazine wenigstens hier mal ein Blick reinwerfen...

Es scheint so, dass zumindets die c`t mal hin und wieder reinschaut... auch wenn sie nicht schlechthin die 3D- Referenz sind...
von der anderen "grossen" Zeitschrift vermute ich dies eher weniger (*omputer*ild)

aths
2003-11-22, 01:30:29
Original geschrieben von tb
Gibts die Programme irgendwo, micht denen die Screenshots gemacht wurden?

Thomas Habe ausschließlich die Filtertester von Xmas und Demirug verwendet.

tb
2003-11-22, 01:45:04
Link?

Xmas
2003-11-22, 01:49:02
http://www.3dcenter.org/downloads/d3d-af-tester.php
http://www.3dcenter.org/downloads/texture-filter-testapp.php

Gast
2003-11-22, 02:07:55
Sehr guter Artikel! (Aber sprachlich... jedes dritte Wort ist "Lehrbuch").

Modulor
2003-11-22, 02:23:12
Original geschrieben von Xmas
http://www.3dcenter.org/downloads/texture-filter-testapp.php

@ Xmas:
Weißt Du wieso dein Programm nicht mit Kyro läuft? Weder unter XP mit Referenztreiber noch unter 98Se mit PixelPerfect Treiber startete das Programm - ein Bruchteil einer Sekunde öffnet sich wohl ein Fenster das dann aber sofort und ohne Meldung wieder verschwindet? Sonst laufen OGL Programme ohne Probleme...

MadManniMan
2003-11-22, 02:53:31
Original geschrieben von Bokill
Es scheint so, dass zumindets die c`t mal hin und wieder reinschaut... auch wenn sie nicht schlechthin die 3D- Referenz sind...
von der anderen "grossen" Zeitschrift vermute ich dies eher weniger (*omputer*ild)

Also der Chefredi der PCGH, Thilo Bayer, tjo der ist hier ziemlich oft. Schau dir nur mal seinen Thread für Wünsche zum Volaritest an.

MadManniMan
2003-11-22, 03:02:12
...hat das (*würg*) was mit der geminderten Filterquali der Rs zu tun? Ist ein Shot vom Wasser aus CoD. Habs ein wenig in Richtung Deutlichmachung erhellt...

Ich meine Natürlich die Blockbildung auf dem Wasser.

Bokill
2003-11-22, 03:43:43
Hmm...


Also der Chefredi der PCGH, Thilo Bayer, tjo der ist hier ziemlich oft. Schau dir nur mal seinen Thread für Wünsche zum Volaritest an.


Noch nicht reingeschaut... aber in der Zeitschrift habe ich einige kleine aber elementare Fehler häufig gesehen...

Was nützt ein Hardwaretest ohne Angabe des Revisionsstandes?
Auch der Stil vieler Artikel ist so Formuliert, als wenn die Ergebnisse für immer und ewig wie in Stein gemeisselt wären...

Ich weiss, sie wissen sehr wohl, dass ein Test nur eine Momentaufnahme ist... aber der Leser JOE SIXPACK erfasst solche Feinheiten (in der Regel) nicht...

soll hier aber keine Kritik an PCGH sein,. man wird ja nicht gezwungen die Zeitschrift zu kaufen... Da gibt es schlimmere Beispiele.

Xmas
2003-11-22, 04:00:40
Original geschrieben von Modulor
@ Xmas:
Weißt Du wieso dein Programm nicht mit Kyro läuft? Weder unter XP mit Referenztreiber noch unter 98Se mit PixelPerfect Treiber startete das Programm - ein Bruchteil einer Sekunde öffnet sich wohl ein Fenster das dann aber sofort und ohne Meldung wieder verschwindet? Sonst laufen OGL Programme ohne Probleme...
Hm, ehrlich gesagt, keine Ahnung wieso. Kyro unterstützt zwar die LOD Bias Extension nicht, aber das sollte nicht schlimm sein. Ansonsten erwartet das Programm lediglich OpenGL 1.2 Treiber. Fehlermeldungen hab ich mir clevererweise gespart...

OhneZ
2003-11-22, 08:08:50
guter Artikel @aths, ABER

beim nächsten GrafikkartenVergleich, würde bei Euch eine XGI Volari Duo V8 als Testsieger vervorgehen? Nur weil sie Lehrbuchmässig filtern, aber die Frameraten einer 9600 non Pro verfehlen ?? Wenn ja dann möchte ich gerne deine Erklärung sehen :) "XGI super Karte, erfüllt alle Anforderungen an sehr gute Filterqualität. Es gibt leider einen Haken ... ab der Auflösung von 1024*768 leider keine spielbaren Frameraten, aber dafür schön anzusehende StandbildOrgie. "

Ich gebe Dir recht ..... es ist trauig das so (an den falschen Stellen)gespart wird, aber es ist das gleiche wie bei Intel vs AMD ........ GHZ zählen ....nicht die Leistung pro MHZ...(Verkaufsstrategie??)

und mit Eurem Link zu diesem Artikel http://www.marketingblubber.ch/articles/20030306.htm
ist das meiste eigentlich doch schon geklärt !

Kosten sparen und Werbung machen

LovesuckZ
2003-11-22, 09:06:38
Original geschrieben von aths
Mit welchem Treiber? (In OpenGL darf man gar nicht TF in Richtung "brilinear" "optimieren".)


Seit dem 52.70 ist standardmaeßig unter OpenGL nun auch "brilinear" eingestellt.

ow
2003-11-22, 09:23:24
Original geschrieben von Xmas
Hm, ehrlich gesagt, keine Ahnung wieso. Kyro unterstützt zwar die LOD Bias Extension nicht, aber das sollte nicht schlimm sein. Ansonsten erwartet das Programm lediglich OpenGL 1.2 Treiber. Fehlermeldungen hab ich mir clevererweise gespart...


Ich schliesse mich Modulors Frage an. Habe selbige Erfahrung gemacht. Aber nur für die neueste Version deines Programms. Alle älteren laufen auf der Kyro. Vielleicht hilft dir das weiter.

Endorphine
2003-11-22, 10:32:51
Original geschrieben von OhneZ
guter Artikel @aths, ABER

beim nächsten GrafikkartenVergleich, würde bei Euch eine XGI Volari Duo V8 als Testsieger vervorgehen? Nur weil sie Lehrbuchmässig filtern, aber die Frameraten einer 9600 non Pro verfehlen ?? Wenn ja dann möchte ich gerne deine Erklärung sehen :) "XGI super Karte, erfüllt alle Anforderungen an sehr gute Filterqualität. Es gibt leider einen Haken ... ab der Auflösung von 1024*768 leider keine spielbaren Frameraten, aber dafür schön anzusehende StandbildOrgie." Bei Tests wird hauptsächlich die Performance gewertet. Dieser Artikel behandelt doch ganz ausdrücklich die Texturfilterschwächen von ATIs 3D-Spielebeschleunigern, nicht einen konkreten und dessen Performance.

Das schöne an solchen Artikeln ist doch, dass sie oft sogar noch über mehrere GPU-Generationen hinweg aktuell bleiben. Mit der nächsten ATI GPU-Inkarnation wird die Leistung wieder steigen, wenn dann aber weiterhin solche billigen Tricks angewandt werden, um noch einen Tick mehr Leistung herauszuholen hat der Anwender nicht wirklich viel davon. Wie es schon im Artikel steht: moderne 3D-Spielebeschleuniger haben Leistungswerte jenseits von gut und böse, da sind solche Taschenspielertricks kaum noch notwendig. Und wenn die Leistung nicht ausreicht, sollte man es dem User überlassen, die Qualität nachträglich zu reduzieren. Aber doch nicht bei vorhandener brachialer Leistung es dem User vorenthalten, eine einwandfreie Qualität nutzen zu können, nur weil man da in Benchmarks eine Idee besser dasteht. Das ist einfach nicht Sinn der Sache. Und genau das kreidet aths an. Du brauchst den Artikel nur zu lesen...

Original geschrieben von OhneZ
aber es ist das gleiche wie bei Intel vs AMD ........ GHZ zählen ....nicht die Leistung pro MHZ...(Verkaufsstrategie??) :eyes: Schade, dass du nicht merkst, dass "Leistung pro MHz" genau so ein Blödsinn ist, wie überhaupt die Leistung an der Taktfrequenz festmachen zu wollen. Beide pseudo-Bewertungsmaßstäbe engen die CPU-Konstrukteure in ihren Freiheitsgraden ein. Würde der Kunde nicht auf solchen Unsinn achten, sondern einfach nur nach Leistung kaufen könnten sich die CPU-Konstrukteure viel mehr auf insgesamt gute Technik konzentrieren und müssten nicht permanent irgendwelchen Marketingvorgaben hinterherlaufen.

Und im übrigen: ob ein Athlon nun bezogen auf sein Rating "ineffizient" ist oder ein P4 bezogen auf seine Taktfrequenz ist auch egal, wenn du schon das Argument anbringst. Als Kunde hat man aber weder von niedrigem Takt noch von hohem Takt etwas. Man nutzt keine Taktraten, sondern man nutzt Leistung. Und wie die zustande kommt kann einem als Kunde egal sein. Wenn mehr Leute so denken würden käme man ausserdem auch mal auf Zusammenhänge wie Verarbeitungsleistung zu elektrischer Leistungsaufnahme, das ist wirklich ein praxisrelevantes Verhältnis. Leider reiten immer noch alle auf dem für die Praxis völlig irrelevanten Takt rum, statt einfach auf die Leistung zu schauen. Man nutzt keinen Takt, man nutzt Verarbeitungsleistung.

nggalai
2003-11-22, 12:39:04
Hola,

sehr schöner Artikel, aths. Hat mir gut gefallen. Ich würd' auf der letzten Seite, erster Absatz statt "beweisen" eher "belegen" schreiben, aber das ist wohl geschmackssache.

Ich bin etwas überrascht, weshalb hier im Thread viele immer wieder mit "Performance" daherkommen. Darum ging's im Artikel nicht, sondern rein um Qualitätsbetrachtungen. Ist hier noch nie jemandem in den Sinn gekommen, dass nicht jeder Graka-Käufer Spieler ist? Dass es auch Leute gibt, die Echtzeit-Visualisierungen machen möchten oder HW-Rendering auf der Grafikkarte betreiben? Und mal abgesehen von Spielegrafik kann man mit modernen Shader-Architekturen auch noch andere Sachen machen, wie man z.B. an Retro (http://www.beyond3d.com/articles/shadercomp/results/index.php?p=1#4) schonmal angedeutet kriegt. An verschiedenen Unis und Instituten wird in die Richtung geforscht und gearbeitet, und je nach Einsatzzweck kann man halt mit "performance-optimierter" Qualität nicht arbeiten.

Es gibt nicht nur Spiele, Jungs. Schaut euch mal das hier an, z.B.: www.gpgpu.org . Eines der vorgestellten Projekte: "Interactive, GPU-Based Level Sets for 3D Brain Tumor Segmentation." Will man da echt auf Präzision verzichten? Ich denke nicht.

So oder so--das IST ein theoretischer Artikel. Hier jetzt nach Spiele-Screenshots zu schreien ist IMO etwas sinnlos.

Original geschrieben von Mr. Lolman
Womöglich auch weil 5 Bit vollkommen ausreichen? (Genauso wie es viele Anwendungen gibt, bei denen bi-AF tatsächlich ausreicht) Allerding hast du bezüglich OpenGL nur tw. recht, da NVs briliniaren Filter bei neueren Treibern in OGL genauso vorhanden ist, nur mittels Reg Key abgeschaltet werden kann.Dann rate mal, weshalb NV "nur" den 52.14er für Professionelle Anwendungen freigibt, und eben NICHT die neueren Treiber. ;)

93,
-Sascha.rb

Mr. Lolman
2003-11-22, 12:47:52
Original geschrieben von nggalai


Dann rate mal, weshalb NV "nur" den 52.14er für Professionelle Anwendungen freigibt, und eben NICHT die neueren Treiber. ;)

93,
-Sascha.rb

Eben, NV ist in dieser Hinsicht um überhaupt nix bessa, ausser das es halt Treiber gibt, die vernünftig filtern, was aber anscheineind bei den Treibernentwicklern schon länger nicht mehr vorrangig ist.

D.h. NV Karten sind gut für den professionellen Bereich sofern man den richtigen Treiber verwendet. (Verwenden die Quadros Detos, oder gibts da andere Treiber)


Kann man sich den sicher sein, dass auf der NV bei der "Simulation von Tumoren" FP32 verwendet?. Verfälscht da der Shadercompiler nich u.U. das Ergebnis?


...ok wahrscheinlich wird das ohnehin in OpenGL simuliert.

HOT
2003-11-22, 12:59:04
Danke, aths, für diesen Artikel. Die letzten Artikel von von dir zeigen eins ganz deutlich: Leistungsfähigkeit von Grafikkarten ist keine Zauberei. Wenn man vernünftige Leistung bieten will mit heutiger Tech´nologie muss man eben triksen. Denn: Wenn ATI diese Sparmassnahmen nicht ergriffen hätte, wär der Chip a.) pro Takt langsamer und b.) aufgrund des hohen Transitoraufkommens vom Takt her langsamer und damit schlechter auf Takt zu optimieren. Ein solcher Chip wäre von den Onlinemags in der Luft zerrissen worden (und ehrlichgesagt hätte ich mir den wahrscheinlich dann auch net geholt :D).
Leistung erreicht man nur durch optimierung. Das hat NV noch niemals interessiert, sie haben immer auf BruteForce gesetzt, auch wenn es teuer war. Dadurch hat NV natürlich den Vorteil, den professionellen Bereich mit den gelcihen Chips beliefern zu können. Ist die Frage was besser ist. ATI Chips jedenfalls sind für den professionellen Bereich eher ungeeignet, dafür sind NV Chips zum spielen eher suboptimal (stichwort brilinear und langsame Shader).
Ich denke von XXGI und S3 kann man von der Bildqualität her auch keine Wunder erwarten. Die einzigen denen ich einen Chip mit nahezu perfekter Filterqualität und AA zutraue sind PowerVR aufgrund des dTBR prinzips, dass theoretisch gleiche Leistung bei weniger Chipsakt ermöglicht ;)

aths
2003-11-22, 15:46:40
Original geschrieben von LovesuckZ
Seit dem 52.70 ist standardmaeßig unter OpenGL nun auch "brilinear" eingestellt. Wattn Shice!! http://www.aths.net/files/smilies/devil.gif Kriegt man das noch weg (via aTuner)?

aths
2003-11-22, 15:48:48
Original geschrieben von OhneZ
guter Artikel @aths, ABER

beim nächsten GrafikkartenVergleich, würde bei Euch eine XGI Volari Duo V8 als Testsieger vervorgehen? Nur weil sie Lehrbuchmässig filtern, aber die Frameraten einer 9600 non Pro verfehlen ?? Wenn ja dann möchte ich gerne deine Erklärung sehen :)Im Artikel steht: "Die Framerate ist nur eine Seite der Medallie" und nicht "Filterqualität ist das einzige Kriterium".

aths
2003-11-22, 15:51:02
Original geschrieben von HOT
Danke, aths, für diesen Artikel. Die letzten Artikel von von dir zeigen eins ganz deutlich: Leistungsfähigkeit von Grafikkarten ist keine Zauberei. Wenn man vernünftige Leistung bieten will mit heutiger Tech´nologie muss man eben triksen. Denn: Wenn ATI diese Sparmassnahmen nicht ergriffen hätte, wär der Chip a.) pro Takt langsamerNein, wäre er nicht. Er hätte lediglich mehr Transistoren.
Original geschrieben von HOT
Die einzigen denen ich einen Chip mit nahezu perfekter Filterqualität und AA zutraue sind PowerVR aufgrund des dTBR prinzips, dass theoretisch gleiche Leistung bei weniger Chipsakt ermöglicht ;) Das hielte ich ein bisschen für zu kurz gegriffen, Kyro allerdings hat soweit ich das weiß in der Tat "Lehrbuchqualität".

Quasar
2003-11-22, 15:56:14
Ja, mit dem 53.70 kriegt man's per aTuner noch weg.

Mr. Lolman
2003-11-22, 15:56:27
Original geschrieben von nggalai
Dann rate mal, weshalb NV "nur" den 52.14er für Professionelle Anwendungen freigibt, und eben NICHT die neueren Treiber. ;)

93,
-Sascha.rb


Dann ist ja NV um nix bessa. Verwenden die Quadros eigentlich auch die Detonatortreiber, oder haben die eigene?

Ausserdem ich ist der Shadercompiler in den >50er Detos auch ein nicht zu unterschätzender Ungenauigkeitsfaktor. Oder erkennt der Deto: "ok, das ist jetzt eine professionelle Anwendung, deswegen lass ich die Shader in Ruhe" ?

Naja, wahrscheinlich laufen die ohnehin in OpenGL, aber sollte sich NV da nicht ihrer "FX Wurzeln" besinnen, und die BQ der Karte so professionel wie möglich zu halten, um ihr den Status der Profikarte nicht absprechen zu müssen.

Das die FX eine Art Hybrid wird, war ja im vorhinein klar (Super Eignung für Games und gleichzeitig massgebend für den CAD Sektor), aber meiner Meinung nach sollte man dabei bleiben, und nicht Developer verärgern, in dem man andere Ergebnisse liefert als erwartet.


ATis R3x0 erhoben nie den Anspruch einer Eignung für den CAD Sektor. Dafür gibts die FireGLs. Wer weiss, vielleicht arbeiten die etwas genauer, und die Ungenauigkeit ist tatsächlich nur treiberbedingt? (hätte man nachprüfen müssen)

Für den Gamer selbst ist der Artikiel halt herzlich irrelevant, da er von den Optimiernugen, nüschts, aber auch überhaupt nüschts mitbekommt. (Wenn der Screenshot von MMM tatsächlich eine miese FQ bei ATi indiziert, dann ändere ich meine Meinung).

Aber momentan find ichs eher ärgerlich, dass den FXen eine gewisse Professionalität zugesprochen wird, während die ATis mit 'scheinbar' schlechterer BQ dastehen (scheinbar allgemein, auch wenn im Artikel nur AF zur Sprache kam), während dem Autor nichteimal(*) bekannt ist, dass NV seit dem 52.70 in OpenGL auch nicht mehr korrekt filtert, und das die anscheinend einen sh1ce darauf geben, ob man das jetzt darf, oder nicht.

Wirkliche CA Designer, ziehen einer R3x0 / FX ohnehin, eine Quadro, FireGL vor.

Also vermisse ich, trotz dessen Korrektheit, beim Artikel eine praktische Relevanz für den Gamer, zu dem sich wohl im 3dC min. 90% der R3x0/NV3x Besitzer im Forum zählen dürften...


* bitte nicht zu persönlich nehmen...

nggalai
2003-11-22, 15:58:39
Hola,
Original geschrieben von Mr. Lolman
Kann man sich den sicher sein, dass auf der NV bei der "Simulation von Tumoren" FP32 verwendet?. Verfälscht da der Shadercompiler nich u.U. das Ergebnis?

...ok wahrscheinlich wird das ohnehin in OpenGL simuliert. Ich glaube, wir reden hier aneinander vorbei.

Weshalb motzt hier jeder immer über einen IHV? Was zum Geier soll das? Meine Post hatte rein gar nix mit "ATI" oder "NV" zu tun, sondern mit der Intention hinter athss Artikel: Eben, Leute, hört auf, bei solchen theoretischen / technischen Betrachtungen über die Performance zu flennen oder den einen oder anderen IHV herzuziehen. Darum geht's bei solchen Artikeln nicht.

Und zum NV-Post wegen den freigegebenen Treibern hätte ich glaub' besser ein zweites Posting gemacht; scheint so, als ob jetzt alle meinen, die beiden Teile meines Postings gehören zusammen ... ich mach mal Sternchen oder so rein, vielleicht merkt man's dann besser.

93,
-Sascha.rb

Quasar
2003-11-22, 16:10:03
Original geschrieben von aths
Wattn Shice!! http://www.aths.net/files/smilies/devil.gif Kriegt man das noch weg (via aTuner)?
Ja, mit dem 53.70 kriegt man's per aTuner noch weg.

Original geschrieben von aths
[...] Kyro allerdings hat soweit ich das weiß in der Tat "Lehrbuchqualität".

Gab's da nicht ein 'Issue', wenn man Tri mit Texturkompression kombinieren wollte? Im Villagemark habe ich jedenfalls früher mal Mip-Banding auf der Kyro zu sehen geglaubt.

P.S.:
Den Beitrag hierüber bitte löschen, ich wollte editieren, aber die Funktion scheint momentan hier nicht zu gehen. Nach dem Klick auf 'ändern' passiert minutenlang nix.

Quasar
2003-11-22, 16:22:04
Original geschrieben von Mr. Lolman
Dann ist ja NV um nix bessa. Verwenden die Quadros eigentlich auch die Detonatortreiber, oder haben die eigene?

Ausserdem ich ist der Shadercompiler in den >50er Detos auch ein nicht zu unterschätzender Ungenauigkeitsfaktor. Oder erkennt der Deto: "ok, das ist jetzt eine professionelle Anwendung, deswegen lass ich die Shader in Ruhe" ?

Naja, wahrscheinlich laufen die ohnehin in OpenGL, aber sollte sich NV da nicht ihrer "FX Wurzeln" besinnen, und die BQ der Karte so professionel wie möglich zu halten, um ihr den Status der Profikarte nicht absprechen zu müssen.

Das die FX eine Art Hybrid wird, war ja im vorhinein klar (Super Eignung für Games und gleichzeitig massgebend für den CAD Sektor), aber meiner Meinung nach sollte man dabei bleiben, und nicht Developer verärgern, in dem man andere Ergebnisse liefert als erwartet.


ATis R3x0 erhoben nie den Anspruch einer Eignung für den CAD Sektor. Dafür gibts die FireGLs. Wer weiss, vielleicht arbeiten die etwas genauer, und die Ungenauigkeit ist tatsächlich nur treiberbedingt? (hätte man nachprüfen müssen)

Für den Gamer selbst ist der Artikiel halt herzlich irrelevant, da er von den Optimiernugen, nüschts, aber auch überhaupt nüschts mitbekommt. (Wenn der Screenshot von MMM tatsächlich eine miese FQ bei ATi indiziert, dann ändere ich meine Meinung).

Aber momentan find ichs eher ärgerlich, dass den FXen eine gewisse Professionalität zugesprochen wird, während die ATis mit 'scheinbar' schlechterer BQ dastehen (scheinbar allgemein, auch wenn im Artikel nur AF zur Sprache kam), während dem Autor nichteimal(*) bekannt ist, dass NV seit dem 52.70 in OpenGL auch nicht mehr korrekt filtert, und das die anscheinend einen sh1ce darauf geben, ob man das jetzt darf, oder nicht.

Wirkliche CA Designer, ziehen einer R3x0 / FX ohnehin, eine Quadro, FireGL vor.

Also vermisse ich, trotz dessen Korrektheit, beim Artikel eine praktische Relevanz für den Gamer, zu dem sich wohl im 3dC min. 90% der R3x0/NV3x Besitzer im Forum zählen dürften...


* bitte nicht zu persönlich nehmen...

Sorry für den Full Quote, aber den Post jetzt auseinanderzupflücken, danach steht mir nicht der Sinn.

Lolman,
(eigentlich standen hier Dinge, die wieder einen nV vs. ATi war ausgeartet wären, deswegen jetzt in Kurz):
Miß' doch mal mit einheitlichem Maße.

Ailuros
2003-11-22, 17:23:18
Ahhhh endlich nach 5 Minuten Wartezeit "darf" ich endlich antworten ;D (mensch ist das board langsam, ja ich weiss warum....)

Nun ich hatte wohl den Luxus einen Preview des Artikels lesen zu koennen in einer Debatte mit aths.

...sowie ebenso an Ailuros, der unbeabsichtigt unsere "Forschungen" angestoßen hat :-).

Unbeabsichtigt? Wie sicher bist Du? :D Ich hab Dir schon oefters gesagt dass ich gerne einen Artikel ueber zukuenftigen moegliche AF Algorithmen lesen wuerde. Als Vorwort war dieser sehr nett. Also frisch ans Werk...

Du weisst wie meine Meinung zum Thema ATI-AF aussieht, da aendert sich nichts; ich fand die Lektuere trotzdem ausgezeichnet und gratuliere Dir hiermit dafuer. :)

MfG
-AiL

MadManniMan
2003-11-22, 18:29:15
Sehr unterhaltsam, wie hier die Posts kommen und gehen ;D

...weiß nun jemand, ob das ein Problem des Shaders, oder des Chips ist, was da für Filtersh1c3 fabriziert wird?

aths
2003-11-22, 18:40:43
Original geschrieben von MadManniMan
Sehr unterhaltsam, wie hier die Posts kommen und gehen ;D

...weiß nun jemand, ob das ein Problem des Shaders, oder des Chips ist, was da für Filtersh1c3 fabriziert wird? Alles ist vernküpft. Die ungenauen Filter liegen natürlich in der Filterhardware begründet. Insofern verstehe ich deine Frage nicht so ganz.

aths
2003-11-22, 20:31:07
Original geschrieben von Mr. Lolman
ATis R3x0 erhoben nie den Anspruch einer Eignung für den CAD Sektor. Dafür gibts die FireGLs. Wer weiss, vielleicht arbeiten die etwas genauer, und die Ungenauigkeit ist tatsächlich nur treiberbedingt? (hätte man nachprüfen müssen)Es bringt keine Performance, Filterhardware treiberseitig ein paar Bits Genauigkeit zu nehmen. Das eigentliche Filtern ist Hardwaresache. Da braucht man nichts beim Treiber prüfen. Andere Vereinfachungen, wie das ungenaue MUL beim Alpha Blending, FP24 für Texture Ops und Koordinaten-Berechnungen, etc.: ATI hat alles für sich durchdacht und gespart, wo immer möglich. Jede Ungenauigkeit ist für sich wohl vertretbar. Wie das AM3-Problem zeigt, könnten sich diese Fehlerchen aber so weit aufaddieren, dass sie sichtbar werden.

Genauso bei den Filtern, hier ist keineswegs auszuschließen dass in Ingame-Shots die Bildqualität sinkt. Beim BF und TF zu sparen, finde ich angesichts der Shader und des MSAA für, nunja, sorry für das harte Wort, lächerlich. Das ist aber jetzt eine persönliche Meinung. Dem Artikel geht es darum, zu zeigen, und zu zeigen dass die Konkurrenz es besser kann. Es geht nicht darum, Kaufempfehlungen zu geben.

Für Fotorealistische Texturen sind ATIs Shader wohl gut genug. Aber Lookups aus Texturen werden für verschiedene Sachen genommen. Will man z.B. vorberechnete mathematische Funktionen nutzen, wäre präzise Filterung echt nett.

Original geschrieben von Mr. Lolman
Aber momentan find ichs eher ärgerlich, dass den FXen eine gewisse Professionalität zugesprochen wird, während die ATis mit 'scheinbar' schlechterer BQ dastehen (scheinbar allgemein, auch wenn im Artikel nur AF zur Sprache kam)Wieso "scheinbar"? Auf den Screenshots hat Nvidia doch nicht nur "scheinbar" die bessere Qualität, oder? Die Shots die mit einem R350 gemacht wurden (statt R300, wie dort steht, ist aber egal) zeigen Blöcke, wo keine hingehören. Filtertester können auch Dinge offenbaren, die man in Ingame-Shots erst mal nicht sieht. Die schlechtere BQ betrifft nicht nur AF, sondern auch TF (hier allerdings wirklich kaum nachweiswar) und sogar BF.
Original geschrieben von Mr. Lolman
während dem Autor nichteimal(*) bekannt ist, dass NV seit dem 52.70 in OpenGL auch nicht mehr korrekt filtert,Der Autor beachtet nur offizielle Versionen (http://www.nvidia.com/object/winxp_2k_52.16). Der Autor kann nicht jeder einzelnen geleakten Beta hinterherlaufen.

LovesuckZ
2003-11-22, 20:37:28
Original geschrieben von aths
Wattn Shice!! http://www.aths.net/files/smilies/devil.gif Kriegt man das noch weg (via aTuner)?

jap.

Xmas
2003-11-22, 22:03:35
Original geschrieben von ow
Ich schliesse mich Modulors Frage an. Habe selbige Erfahrung gemacht. Aber nur für die neueste Version deines Programms. Alle älteren laufen auf der Kyro. Vielleicht hilft dir das weiter.
Du hast Mail.

Modulor
2003-11-22, 23:12:33
Original geschrieben von Xmas
Du hast Mail.

:massa: Ich bitte auch (wenn es eine KYRO kompatible Version ist) ! :)

Gast
2003-11-23, 02:54:31
Da hier so ziemlich alle den Artikel begruessen (ausser Lolman), wuerde ich gerne mal gegenhalten. Konkret der angeblich unzureichende bilineare Filter: Unpraezise BF-Diskussionen haben eine lange Geschichte, und der Artikel waermt diesbezueglich im wesentlichen nur bekannte Argumente auf. Ich antworte daher mit den im wesentlichen bekannten Gegenargumenten. (Wiederholung schadet nicht, gilt fuer beide Seiten.)

Verschwendung misst sich nicht am Grad der Verschwendung bzw. am Aufwand den angeblichen Mangel zu beheben. (Den angeblichen "minimalen Aufwand" wuerde ich ebenfalls nicht als minimal ansehen.) Eine Erhoehung der Prazision ist sinnlos und die Pro-Argumentation nicht stichhaltig. Die erzeugten Zwischenfarben sind pure Fantasiewerte. Sie sind durch nichts vorgegeben, definiert oder erwuenscht. Sie verbesseren - ohne gesonderten Aufwand - das Bild bei geringer Vergroesserung, das Bild degradiert aber schnell bei zunehmender Vergroesserung (bevor die 6 bit zuschlagen) in einen "bilinearen Stern". In der Praxis stellt sich das Problem nicht (groessere Texturen) oder laesst sich mit Detailtexturen schon im Ansatz wesentlich besser loesen. Die Forderung nach 8 bit ist ebenso willkuerlich wie 10 bit (warum nicht? 8 bit Farben sind kein Grund) oder 6 bit. "Nach Lehrbuch" ist ebenfalls kein Argument. Der Grund "Mathematische Funktionen in Texturen" machen ebenfalls keinen Sinn, da die Funktionen nicht-linear sind. Lineare Interpolation ist falsch, unabhaengig von der Filterpraezision. Wenn die Filterung bei Vergrosserung verbessert werden soll, dann waere die Forderung nach einem programmierbaren Filterkernel wesentlich sinnvoller. Matrox/Parhelia bietet das schon seit langem an.

Zwei technische Bemerkungen: Eine Lookup-Table ist nicht noetig (wozu?). Es laesst sich daher auch nichts "wegrationalisieren". Das Schachbrettmuster des ersten Bildes koennte an der unterschiedlichen Skalierung der Texturkoordinaten liegen (Nachkomma vs. Vorkommagenauigkeit) bzw. die Interpolation der Texturekoordinaten und/oder Perpektivkorrektur ist "hart optimiert" (reduzierte Genauigkeit).

Ailuros
2003-11-23, 05:48:44
Interessant. Komischerweise bin ich jetzt neugierig wer ^^^der Herr Gast oben ist ;)

Ailuros
2003-11-23, 05:51:54
Dumme Frage: hat der P10 nicht auch einen programmierbaren Filterkernel? (ja ich bin zu faul nochmal darueber nachzulesen).

zeckensack
2003-11-23, 06:00:13
:|

Nachdem ich mich nun einige Stunden mit dem Artikel befasst (http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=107863) habe ... ist mir zu wirr geschrieben. Dem ganzen hätte es IMO gutgetan, noch zwei, dreimal von unten nach oben gelesen und sortiert zu werden. Ein rein strukturelles Problem, btw.

Paradebeispiel auf Seite 3:

"
Da winkelabhängig oftmals ein kleinerer AF-Grad appliziert wird, als eigentlich eingestellt, sampelt man hierfür ja aus einer geringer aufgelösten MIP-Map, so dass mögliche Genauigkeitsprobleme bei sehr großen Texturen entsprechend weniger oft auftreten. Für Effekte mit einer Komplexität, die einem Pixel Shader 2.0 angemessen sind, ist FP24 für Koordinaten-Berechnungen durchaus vertretbar, wenn auch bereits die GeForce3 bestimmte Pixel Shader 1.1 Texture Ops mit FP32 berechnet.

Die Block-Artefakte, die ATIs bilinearer Filter zeigt, äußern sich bei weniger starker Vergrößerung "nur" im minimalen Versatz der gesampelten Farben, was zunächst kaum wahrnehmbar ist. Jedoch bleibt es für das AF wichtig, die AF-Samples möglichst genau positionieren zu können. Doch die FP32-Genauigkeit für Textur-Zugriffe resultiert nach dem Stand unseres Wissens nicht in der Qualität, die andere anbieten.
"

Leider sind auch einige technische Überlegungen nicht ganz wasserdicht, zB wie schon angemerkt die "mathematischen Funktionen", oder die Nummer mit den Sample-Positionen für den bilinearen Kernel, die dann im folgenden Absatz wieder (IMO völlig zu Recht) über Haufen geworfen wird.

aths,
Wenn ich's nicht besser wüßte, würde ich sagen das ist die typische Diplom-Arbeits-Krankheit.
1)Size matters - möglichst lang, ohne Rücksicht auf Notwendigkeit oder Sinn
2)'gerusht' (viel Text in viel zu kurzer Zeit rausgehauen)

Nimm's mir bitte nicht übel ;(

Tigerchen
2003-11-23, 06:13:30
Original geschrieben von aths


Werden kleinere Texturen stark hochvergrößert, sind diese 6 Bit im bilinearem Filter (der ja aus 3 linearen Filtern besteht) jedoch zu wenig. In Spielen werden praktisch nie kleine Texturen dermaßen hoch vergrößert, das stimmt schon. Trotzdem eine Vereinfachung, die ich wenig toll finde.


Aha.Keinerlei Prxisrelevanz aber enorm wichtig.
:lolaway:

Tigerchen
2003-11-23, 06:21:24
Original geschrieben von aths
Bilineare Filterung halte ich für überholt. ATIs Radeon 9800 XT kann nicht mal bilineare Filterung in "Quasi-Perfektion", sondern optimiert hier schon rum. Da ist bei mir Schluss mit lustig.
[/SIZE][/QUOTE]

Hat ja auch nur 15 Monate gebraucht bis einer diese schlimme Sache bei ATI gemerkt hat.LOD-Rauschen also.Donnerwetter.

OhneZ
2003-11-23, 07:29:26
Original geschrieben von Endorphine
Bei Tests wird hauptsächlich die Performance gewertet. Dieser Artikel behandelt doch ganz ausdrücklich die Texturfilterschwächen von ATIs 3D-Spielebeschleunigern, nicht einen konkreten und dessen Performance.


:eyes: Schade, dass du nicht merkst, dass "Leistung pro MHz" genau so ein Blödsinn ist, wie überhaupt die Leistung an der Taktfrequenz festmachen zu wollen. Beide pseudo-Bewertungsmaßstäbe engen die CPU-Konstrukteure in ihren Freiheitsgraden ein. Würde der Kunde nicht auf solchen Unsinn achten, sondern einfach nur nach Leistung kaufen könnten sich die CPU-Konstrukteure viel mehr auf insgesamt gute Technik konzentrieren und müssten nicht permanent irgendwelchen Marketingvorgaben hinterherlaufen.

Man nutzt keinen Takt, man nutzt Verarbeitungsleistung.

Ich gebe Dir da Recht, auch mit dem Leistung pro MHZ.
Das meinte ich eigentlich auch ..... mal wieder nicht klar genug ausgedrückt:D

meine Frage war eigentlich mehr diese: Welche Gewichtung hat in zukünftigen Tests das Lehrbuchmässige Filtern ??

Das Bsp mit der XGI war ja nur gewählt, weil wir da zur Zeit noch keine Ergebnisse haben. Und nur für den Fall diese Karte würde lehrbuchmässig filtern, aber dadurch einer 9600 unterlegen sein (in den Frameraten) würde sie dann besser dastehen als eine 9600? oder nicht?
Ok ok mein Bsp... war mal wieder sehr überspitzt, vonwegen Standbildorgie, aber die Frage bleibt :)

ow
2003-11-23, 09:32:56
Original geschrieben von Modulor
:massa: Ich bitte auch (wenn es eine KYRO kompatible Version ist) ! :)


Ist es.
Und gleich einen dicken Bug im Kyro Treiber dadurch gefunden.:D
Multitexturing wird nicht über die OGL 1.2 Core-Funktionalität unterstützt sondern nur über die ARB-Extension.

ow
2003-11-23, 09:39:26
Original geschrieben von Ailuros
Dumme Frage: hat der P10 nicht auch einen programmierbaren Filterkernel? (ja ich bin zu faul nochmal darueber nachzulesen).


Weiss nicht, aber schau mal hier rein:

http://www.mitrax.net/phpBB2/viewtopic.php?t=3263

Das ist das schlimmste was ich bislang an AF-Implementierung (wenn man das überhaupt so nennen darf) gesehen habe.
Das lässt mich zweifeln, ob ein P10 überhaupt zu vernüftiger Filterung in der Lage ist.

nggalai
2003-11-23, 10:46:35
Original geschrieben von Tigerchen

Aha.Keinerlei Prxisrelevanz aber enorm wichtig.
:lolaway:
Fast--"keinerlei" Praxisrelevanz für die meisten Computerspiele. Wie schon häufiger in diesem Thread angedeutet hört's da aber nicht auf, kann man noch viel mehr machen mit als nur gamen.

Freund von mir arbeitet für einen grossen Grafikprogrammhersteller, dessen Namen ich hier nicht nennen darf, an einem Technology Preview für grafikkartenbeschleunigtes Bildbearbeiten. So Sachen wie bilineares und bikubisches Skalieren von Bildern, Kontrast- und Helligkeitsregeln, Bildfilter etc., alles über die 3D-Pipeline der Grafikkarte statt auf der CPU. Und ihm sind schon die 8bit Interpolationspräzision von NV nur als Notbehelf genug, er hätt' gern 10bit oder mehr ...

Ich habe athss Artikel so verstanden, dass er eben bei zukünftigen Produkten keine solchen Optimierungen mehr sehen möchte, resp. dass er ein wenig Angst hat, dass diese performance-steigernden Massnahmen noch einige Generationen lang mitgeschleppt werden könnten. Und eben, das wär dann nicht mehr so toll.

93,
-Sascha.rb

Tigerchen
2003-11-23, 11:49:30
Original geschrieben von nggalai

Freund von mir arbeitet für einen grossen Grafikprogrammhersteller, dessen Namen ich hier nicht nennen darf, an einem Technology Preview für grafikkartenbeschleunigtes Bildbearbeiten. So Sachen wie bilineares und bikubisches Skalieren von Bildern, Kontrast- und Helligkeitsregeln, Bildfilter etc., alles über die 3D-Pipeline der Grafikkarte statt auf der CPU. Und ihm sind schon die 8bit Interpolationspräzision von NV nur als Notbehelf genug, er hätt' gern 10bit oder mehr ...

Ist wie im wirklichen Leben.Will man in der Stadt fahren dann kauft man sich nen Kleinwagen.Will man Güter transportieren muß eben ein Laster ran.
Mit anderen Worten.Ich will das Produkt was mir als Gamer am meisten bringt.Und die hektischen Versuche einer anderen bekannten Firma irgendwie schneller zu werden zeigt mir daß eben ATI im Moment das liefert was Gamer wollen.
Wer arbeiten will soll sich doch gerne was von 3D-Labs kaufen.Die wollen ja auch leben.Was einige hier fordern ist doch die eierlegende Wollmilchsau.Und die wird es niemals geben.Es gibt auch bei anderen Firmen nur das jeweils beste Produkt für die jeweilige Einsatzsituation.




Ich habe athss Artikel so verstanden, dass er eben bei zukünftigen Produkten keine solchen Optimierungen mehr sehen möchte, resp. dass er ein wenig Angst hat, dass diese performance-steigernden Massnahmen noch einige Generationen lang mitgeschleppt werden könnten. Und eben, das wär dann nicht mehr so toll.

ATHS ist sowieso jemand der sowas wie die DIN 5008 lebt!Von mir aus kann er gerne Angst haben.Der ewig Fehlersuchende hier im Forum.:lolaway:

Wolfram
2003-11-23, 12:01:09
Habe nur eine praktische Frage, da ich die theoretischen Grundlagen eh nicht durchdringe: Verstehe ich es richtig, daß die gezeigten Blockartefakte nur mit bilinaerem Filter auftreten (können)?

Ansonsten: Ich finde es relativ müßig, wenn hier über "Praxisrelevanz" des Artikels gestritten wird. aths´ Intention ist doch klar genug dargelegt. Wer sich nicht dafür interessiert, braucht´s nicht zu lesen. Die inhaltliche Qualität kann ich nicht beurteilen. Wenn hier aber Hintergrundinformation geliefert wird, die man sonst nirgendwo oder nicht ohne weiteres bekommt, dann ist das IMO zehnmal mehr wert als Screenshotvergleiche.

HOT
2003-11-23, 12:06:14
Ich hab mal ne frage: wenn man ne fx zu ner quaddro modded (geht das überhaupt?), filtert die immernoch brilinear?

nggalai
2003-11-23, 12:12:51
Hi Tigerchen,
Ist wie im wirklichen Leben.Will man in der Stadt fahren dann kauft man sich nen Kleinwagen.Will man Güter transportieren muß eben ein Laster ran.
Mit anderen Worten.Ich will das Produkt was mir als Gamer am meisten bringt.Und die hektischen Versuche einer anderen bekannten Firma irgendwie schneller zu werden zeigt mir daß eben ATI im Moment das liefert was Gamer wollen.
Wer arbeiten will soll sich doch gerne was von 3D-Labs kaufen.Die wollen ja auch leben.Was einige hier fordern ist doch die eierlegende Wollmilchsau.Und die wird es niemals geben.Es gibt auch bei anderen Firmen nur das jeweils beste Produkt für die jeweilige Einsatzsituation.Nein, darum geht's nicht. ;) Die genannten Technologie-Arbeiten sollen bis in 2 Jahren in sämtliche Produkte der nicht-genannten Firma einfliessen, also eben auch auf Consumer-PCs und Spiele-Computern eingesetzt werden. Und die Firma steht mit dem Ansatz nicht alleine dar, Adobe z.B. arbeitet an was ganz ähnlichem für ihre Photoshop-Reihe.

Die Zeiten, wo ein 3D-Beschleuniger eigentlich nur für 3D-Spiele "benötigt" wurde, könnten bald vorbei sein--spätestens mit Longhorn. Selbst Sun arbeitet mit Partnern in die Richtung (Beispielfilm (http://thefro.homeunix.org/lgcommercial.mp4)). Über kurz oder lang werden Grafikkarten eben nicht mehr nur zum Spielen zu gebrauchen sein, sondern erledigen auch andere Sachen--einige davon nichtmal im "grafischen" Bereich, sondern eben: Grafikkarte als Co-Prozessor für andere Berechnungen.

Entsprechend kann ich die Forderung von aths, doch bitte aufzuhören, bei solchen "kleinen" Features wie bilinearem Filtering zu sparen, sehr gut nachvollziehen.

93,
-Sascha.rb

ram
2003-11-23, 12:32:45
Original geschrieben von Xmas
Doch da will ich mir kein Urteil erlauben, wer weiß, ob NVidia das IntelliSample-System noch wie beworben (Analyse der Texturinhalte) zum laufen kriegt.

Solche inhaltbasierende Optimierungen machen sie z.t auch (http://www.digit-life.com/articles2/behind-intellisample/). Oder meinst du was anderes?

Mr. Lolman
2003-11-23, 12:54:45
Original geschrieben von nggalai

Entsprechend kann ich die Forderung von aths, doch bitte aufzuhören, bei solchen "kleinen" Features wie bilinearem Filtering zu sparen, sehr gut nachvollziehen.

93,
-Sascha.rb

Wenn die Zeit so weit ist, wird auch sicher korrekt gefiltert. Oder glaubst du, dass ATi sich es u.U. gefallen lassen würde als die jenigen bezeichnet zu werden die im Longhorn eine schlechtere BQ am Desktop erreichen
(mal rein hypotetisch)

Der R300 ist schon seit über einem Jahr am Markt. Das Filtering des R200 war schlechter. Den NV30 gibts noch nicht so lang. Das Filtering vom NV20 war besser. Bei wem müsste man sich jetz also eher sogen machen, dass irgendwann in ferner Zukuinft die FP nicht mehr aussreicht um den 3D HW interessierten Gamer zufrieden zu stellen....

Tigerchen
2003-11-23, 14:16:03
Original geschrieben von nggalai
Hi Tigerchen,
Nein, darum geht's nicht. ;) Die genannten Technologie-Arbeiten sollen bis in 2 Jahren in sämtliche Produkte der nicht-genannten Firma einfliessen, also eben auch auf Consumer-PCs und Spiele-Computern eingesetzt werden. Und die Firma steht mit dem Ansatz nicht alleine dar, Adobe z.B. arbeitet an was ganz ähnlichem für ihre Photoshop-Reihe.

Die Zeiten, wo ein 3D-Beschleuniger eigentlich nur für 3D-Spiele "benötigt" wurde, könnten bald vorbei sein--spätestens mit Longhorn. Selbst Sun arbeitet mit Partnern in die Richtung (Beispielfilm (http://thefro.homeunix.org/lgcommercial.mp4)). Über kurz oder lang werden Grafikkarten eben nicht mehr nur zum Spielen zu gebrauchen sein, sondern erledigen auch andere Sachen--einige davon nichtmal im "grafischen" Bereich, sondern eben: Grafikkarte als Co-Prozessor für andere Berechnungen.

Entsprechend kann ich die Forderung von aths, doch bitte aufzuhören, bei solchen "kleinen" Features wie bilinearem Filtering zu sparen, sehr gut nachvollziehen.

93,
-Sascha.rb

Ne.Ihr habt ein völlig überzogenes Anspruchsdenken.Ich würde an ATI's Stelle auch das mit dem geringsten Aufwand produzieren was der Markt verlangt.Was später mal ist kann man dann bewerten wenn es denn mal da ist.Bis Longhorn erscheint ist es ohnehin 2006.Würde mich doch sehr wundern wenn dann diese nervigen Spielchen aus deinem Film dann nicht mit jeder halbwegs aktuellen Grafikkarte darstellbar wären.Aber wenn ihr Spaß am Erbsen zählen habt,nun ja, meinen Segen habt ihr.:)

Ailuros
2003-11-23, 14:24:11
Ich habe athss Artikel so verstanden, dass er eben bei zukünftigen Produkten keine solchen Optimierungen mehr sehen möchte, resp. dass er ein wenig Angst hat, dass diese performance-steigernden Massnahmen noch einige Generationen lang mitgeschleppt werden könnten. Und eben, das wär dann nicht mehr so toll.

Die Debatte von dem seine Idee fuer den Artikel originierte, ging es um naechster Generation Produkte, also liegt's Du aeusserst nahe an seiner Denkweise IMO.

Ich weiss zwar nicht genau was ATI in der naechsten Generation mit AF genau vorhat, aber um das Produkt worum es ging kommt Winkel-abhaengigkeit gar nicht in Frage.

Trotz allem ist die Winkel-abhaengigkeit bei der R3xx fuer mich persoenlich im normalen Alltagsgebrauch nur minimal stoerend. Noch ne Kleinigkeit: ich applaudiere solche Artikel aus einem Grund; IHVs sollen nicht nur die positiven Aspekte ihrer jeweiligen Architekturen zu lesen bekommen in Artikeln sonder auch deren Nachteile.

ATI verbesserte tatsaechlich ihre AF Qualitaet im Vergleich zu R2xx, und genauso erwarte ich dass NV ihre AA Qualitaet in der naechsten Generation erhoeht als Beispiele. Keiner aber wirklich keiner sollte von Kritik verschont bleiben.

MadManniMan
2003-11-23, 15:19:36
Was mich einzig am Artikel stört, ist der Begriff des "Lehrbuchs", da dieser imho schon viel zu oft fehlstrapaziert wurde.

Meines Erachtens würde es der Thematik gerechter, wäre gesagt worden, daß nV die bessere Lösung bietet.

Und was ist jetzt mit meinem Bild? Hat sich das überhaupt schon wer angesehen?

MasterElwood
2003-11-23, 21:58:56
http://www.3dcenter.de/artikel/r9500+9700+9800_vs_gffx5200+5600+5800/


Zitat: "Prinzipiell sollte man sich bei diesen Zahlen aber nochmals daran erinnern, daß ATi zumindestens beim 4x Anti-Aliasing speziell unter OpenGL-Spielen einen guten Bildqualitätsvorteil gegenüber nVidia hat. Sollten also ATi- und nVidia-Beschleuniger in diesem Setting auf gleiche Performance-Resultate kommen, wäre prinzipiell der ATi-Beschleuniger vorzuziehen."
----------------------------------------------------------

Stimmt das jetzt noch? Was ist wichtiger: Filter oder AA Quality?

Welche Karten sehen jetzt in Summe wirklich am besten aus? ?-)

aths
2003-11-23, 22:16:50
Original geschrieben von MadManniMan
Was mich einzig am Artikel stört, ist der Begriff des "Lehrbuchs", da dieser imho schon viel zu oft fehlstrapaziert wurde.

Meines Erachtens würde es der Thematik gerechter, wäre gesagt worden, daß nV die bessere Lösung bietet."Echte" Texturfilterung, die ein 100%-ig korrektes Ergebnis liefert, ist praktisch nicht zu machen. Da werden Vereinfachungen genutzt, dass einem schwindelig wird... Auf der anderen Seite sind Verfahren bekannt, die einerseits relativ wenig "kosten" (in Recheneinheiten gemessen) andererseits aber gute Bildqualität liefern. Trilinear selbst z.B. ist eine große Vereinfachungs-Orgie, von der man aber weiß, dass die BQ passabel ist. Mit Lehrbuchqualität meine ich Qualität, die ein "anerkanntes" Rechenverfahren liefert. Solche Berechnungen haben es ansich, dass die Bildqualität nur mit hohem Aufwand steigerbar ist. Die Grundzüge werden längst von allen IHVs genutzt. ATI spart nun beim BF-LERP und beim TF einige Bits in den Rechenwerken. Dabei sind es nur "Integer"-Rechenwerke. FP24 statt FP32 zu nehmen, spart eine Menge. Den BF-LERP mit 6-Bit-Gewichten statt 8-Bit-Gewichten zu machen, das spart kaum. Ich finde es, naja, "peinlich" bei einem DX9-Chip, der Pixelshader mit 64 arithmetischen Instruktionen rechnen kann, und der 6x sparsed, gamma-gegenkorrigiertes MSAA hat, dass beim BF nur eine grenzwertige Präzision geboten wird.

aths
2003-11-23, 22:31:12
Original geschrieben von zeckensack
Leider sind auch einige technische Überlegungen nicht ganz wasserdicht, zB wie schon angemerkt die "mathematischen Funktionen", oder die Nummer mit den Sample-Positionen für den bilinearen Kernel, die dann im folgenden Absatz wieder (IMO völlig zu Recht) über Haufen geworfen wird.Ja, das kommt davon, wenn man sich nicht ausdrücken kann... Eigentlich ist noch ein Artikel geplant, der tiefer in die Filter-Materie einsteigt, um darauf aufbauend was zum AF sagen zu können. Im Moment hat sich bei mir eine Menge gefährliches Drittelwissen angesammelt :| Zudem wurde dieser Artikel später noch ergänzt, als weitere Sachen zum Vorschein kamen, was der Struktur nicht wohl tat. Auf der anderen Seite muss ich hier ja nichts so glattes anbieten was auch der PCGH-Leser versteht :naughty: sondern "darf" (hoffentlich?) die Aufmerksamkeit des Lesers fordern.
Original geschrieben von zeckensack
1)Size matters - möglichst lang, ohne Rücksicht auf Notwendigkeit oder Sinn
2)'gerusht' (viel Text in viel zu kurzer Zeit rausgehauen)2) stimmt. Das Ding sollte fertig werden, da noch anderes zu tun ist. 1) stimmt eigentlich nicht, das Ding sollte angemessen kurz sein. Daher sparte ich bei einigen Dingen auch die Begründung bzw. eine nähere Erläuterung, was ja offenbar nun auch keine so gute Idee war.
Original geschrieben von zeckensack
Nimm's mir bitte nicht übel ;( Youuuu... son of a ...!!

MadManniMan
2003-11-23, 22:32:58
Hast Recht, ein Zeugnis von Stärke und Anmut ist es nicht :naughty:

BTW, was ist eigentlich Lerpen?

aths
2003-11-23, 22:33:11
Original geschrieben von MasterElwood
Stimmt das jetzt noch? Was ist wichtiger: Filter oder AA Quality?

Welche Karten sehen jetzt in Summe wirklich am besten aus? ?-) Diese Frage will ich in solchen Artikeln nicht beantworten, lediglich nach meinen Kräften einige Hintergrund-Informationen liefern. Was wer für wichtiger hält, ist seine Sache :)

aths
2003-11-23, 22:52:59
Original geschrieben von Gast
Verschwendung misst sich nicht am Grad der Verschwendung bzw. am Aufwand den angeblichen Mangel zu beheben. (Den angeblichen "minimalen Aufwand" wuerde ich ebenfalls nicht als minimal ansehen.) Eine Erhoehung der Prazision ist sinnlos und die Pro-Argumentation nicht stichhaltig. Die erzeugten Zwischenfarben sind pure Fantasiewerte. Sie sind durch nichts vorgegeben, definiert oder erwuenscht. Sie verbesseren - ohne gesonderten Aufwand - das Bild bei geringer Vergroesserung, das Bild degradiert aber schnell bei zunehmender Vergroesserung (bevor die 6 bit zuschlagen) in einen "bilinearen Stern". Die erzeugten Zwischenfarben sind das beste, was man angesichts der Situation machen kann, oder nicht? Der Farbverlauf ist mit 6 Bit Gewichts-Präzision bei genügend stark unterschiedlichen Farben und genügend großer Entfernung recht unschön, mit 8 Bit sind die Blockartefakte jedoch soweit reduziert, wie die Farb-Auflösung in der Textur / im Framebuffer zulässt.

Lineare Interpolation bei mathematischen Funktionen ist in der Regel falsch, das stimmt natürlich, allerdings ist das wohl besser, als grob quantisierte lineare Interpolation. Wenn man dein (für sich genommen ja richtiges) Argument, dass die interpolierten Werte ohnehin "falsch" sind, auf die Spitze treibt, würde man zu Point Sampling gelangen, da BF ohnehin "falsch" ist, oder nur noch mit bikubischem Filter (oder so) aus superhoch aufgelösten Texturen filtern, oder was die mathematischen Funktionen angeht, jene lieber mit einem 200 Instruktionen umfassenden Shader ausrechen...? Es ist klar, dass die derzeitig realisierbaren Techniken ohnehin nur approximieren, aber das macht die Frage nicht überflüssig, ob diese oder jede Vereinfachungen wünschenswert ist.

(Bi)lineare Interpolation ist leicht zu rechnen, und eine offensichtlich oft genügend gute Näherung. Jene Näherung zu vergröbern, kann in Artefakten enden, die durch die Quantisierungsschritte der Farbkanäle nicht mehr unterdrückt werden. Die komischen großen Block-Artefakte und das offenbar recht ungenau berechnete LOD kommen da noch hinzu. Es steht jedem frei zu entscheiden, wie weit ihn das beeindruckt, ich sehe keinen Grund, über sowas keinen Artikel zu schreiben. Bzw., hier meine ich nicht dich sondern "die Allgemeinheit" ist die Tenzenz unübersehbar, dass der Hersteller der Graka im eigenen PC eine Richtung vorgibt, wie diese oder jene Artikel bewertet werden, bzw. wie man mit nackten Fakten angeht (wsa wichtig und was unwichtig sei.) Ich versuche, die reinen Tatsachen zu sehen, und keinen IHV zu schonen.

aths
2003-11-23, 22:54:38
Original geschrieben von MadManniMan
BTW, was ist eigentlich Lerpen? Linear interpolieren. BF wird (sehr wahrscheinlich) in 2 Stages gemacht: Zunächst 2 LERPs die je 2 Farben verrechnen, dann ein LERP welches aus jenen Farben die entgültige Farbe berechnet. Dank Pipeline-Technik ist dann pro Takt ein BF-Sample fertig.

Gast
2003-11-24, 13:51:11
Die Frage ist doch wohl, wovon der Anwender (bei begrenzter Transistor-Anzahl der GPU) mehr hat:

Von perfektem AF oder von leistungsfähigen Pixel Shadern?

Ich halte die eingeschränkte Leistungsfähigkeit der ATI AF für nicht mal zweitrangig. Die Pixelshader sind wesentlich wichtiger.

Der Artikel überbewertet imo die AF-Mängel der ATI-Karten massiv und mißachtet ihre tatsächliche Bedeutung.

Gast
2003-11-24, 16:52:31
aths,
nenne irgendein Beispiel aus Theorie oder Praxis, dass 8 bit Interpolation sinnvoll oder erfoderlich macht. Im Text gibt's keins. Welchen Sinn macht es dann, eine 2x2 scharz/weiss Texture auf das 256fache zu vergroessern und nach aesthetischen Kriterien zu beurteilen. Bilineare Filterung ist nun mal kein einfallsloser Bildschirmschoner. Es ist die "Aesthetik" des Bildes, die dich dazu verleitet, 8 bit zu bevorzugen und dabei den Sinn und Zweck von BF zu ignorieren. Wer schreibt 8 bit vor (Direct3D, OpenGL)? Welche Begruendung wird gegeben?

Ich habe nicht geschrieben, dass man eine mathematische Funktion "korrekt" berechnen muesse. An "piecewise linear approximation" ist nichts auszusetzen. Es zeigt eben einmal mehr, das Genauigkeit nicht Selbstzweck ist oder "ueber alles" steht. Ich kann jetzt einfach nicht widerstehen, das naechste (natuerlich fiese und absurde) Argument hinzuschreiben, dass du vermutlich schon erahnst: Du verlangst also, den Aufwand oder die BF-Genauigkeit zu erhoehen, um eine Funktion ungenauer berechnen zu koennen?

Bzgl. der 2D-Bildbearbeitung: Ich kann mir nicht vorstellen, dass die gewuenschten mindestens 10 bit Genauigkeit auf den BF bezogen sind. Gemeint ist wahrscheinlich eine hoehere Farbaufloesung oder z.B. einen programmierbaren Filterkern mit hoeher Genauigkeit, Flexibilitaet und/oder Performance. Wenn aber doch: Es macht wenig Sinn, eine "fixed-function" Einheit entgegen ihrer Bestimmung versuchsweise zu missbrauchen und sich dann darueber zu beschweren, dass es Probleme macht. Vor wie vielen Jahren hat SGI eine umfangreiche Befehlssatz-Erweiterung zur 2D Bildbearbeitung in OpenGL eingefuehrt? Wenn es die in Direct3D immer noch nicht gibt, oder die PC-Hersteller diese in OpenGL nicht unterstuetzen, dann gibt es offensichtlich *bisher* noch keinen ausreichenden Bedarf.

Um das Ganze abzuschliessen: Natuerlich ist die ganze Diskussion hier irgendwo zwischen unwichtig und absurd anzusiedeln, aber es eignet sich ganz gut, um bestimmte Prinzipien oder Herangehensweisen zu verdeutlichen. In jedem Fall sinnvoller als das langweilige und unsachliche wie-du-mir-so-ich-dir Nvidia vs. ATI Geschrei.

Betatron
2003-11-25, 11:04:25
Eine interessante These:

vom Idealzustand abweichende AF-Darstellung definiert den Nichtkaufgrund!

Kann man ganz profan sehen:

Bei `nem R350 kann ich den anisotropen Filter auf 16x immer mitlaufen lassen, das AA auf 4x drehen und habe immer noch `ne bessere Framerate als der betagte NV25.

Sorry, nach meiner bescheidenen Meinung ist das R3xx Design die größte Innovation seit dem seeligen Voodoo1.

Ein Bekannter von mir fährt übrigens einen verottenden 450SEL 6.9. Würde sich aber nie einen neuen S600 kaufen, beim alten fällt die Tür satter ins Schloß

Aua

aths
2003-11-27, 18:51:44
Original geschrieben von Gast
Der Artikel überbewertet imo die AF-Mängel der ATI-Karten massiv und mißachtet ihre tatsächliche Bedeutung. Der Artikel beschäftigt sich mit dem Texturfilter. Pixelshader nutzen oft gefilterte Texturen (auch anisotrop gefilterte, je nach Shader) so dass ich nicht einsehe, die Filter zu vernachlässigen :)



Original geschrieben von Gast
aths,
nenne irgendein Beispiel aus Theorie oder Praxis, dass 8 bit Interpolation sinnvoll oder erfoderlich macht. Im Text gibt's keins. Welchen Sinn macht es dann, eine 2x2 scharz/weiss Texture auf das 256fache zu vergroessern und nach aesthetischen Kriterien zu beurteilen.>128x reicht aus :) Auch geringere Vergrößerung (von im Gegenzug größeren Texturen) reicht aus, um Artefakte zu erzeugen, siehe diese seltsamen groben Blöcke.

Ich frage mich, was du mit "ästhetischen Kriterien" meinst. Die interpolierten Farben beim BF seien ohnehin "falsch"? Sind sie das wirklich? Das hängt davon ab, wie man die Texturdaten interpretiert, man könnte die Texel auch als Stützstellen für die (bi-)lineare Interpolation betrachten. Selbst mit dem Ansatz, dass die Zwischenfarben nicht "echt" wären, kann es ja nicht der Sinn eines BFs ("bilinearer Filter", selbsterklärend) sein, grobe Zwischenstufen zu produzieren. Mit 8-Bit-Gewichten ist es garantiert so linear, wie im Rahmen der 8-Bit-Farbe möglich. Mit dem Ansatz, BF würde keine "echten" Werte liefern, käme man letztlich zu Pointsampling ('ist ja eh egal'), oder zum Zwang, nur superhoch aufgelöste Texturen nehmen zu dürfen ('auf keinen Fall "falsch" interpolieren'). ATIs HW funktioniert nur dann vernünftig, wenn hier gewisse Randbedingungen eingehalten werden, man kann die HW nicht nutzen, wie man lustig ist; jedenfalls gibts mit bestimmten Settings kein vernünftiges Bild mehr. Jede HW hat natürlich ihre Grenzen, an ATIs Grenzen stößt man filtertechnisch aber deutlich schneller als z. B. an NVs Grenzen.

Trilineare Filterung, das ist dir vermutlich bewusst, lässt noch aus Texeln Informationen einfließen, die z. T. weit außerhalb des in den Texture Space transformierten Pixels liegen. Das ist auch per se falsch. Wird aber ständig gemacht. Auch hier sehe ich keinen Grund, TF noch zu verschlechtern, man sollte es dann schon "so gut, wie sinnvoll möglich" machen. Zumal der Aufwand so hoch nicht ist.

Original geschrieben von Gast
Bilineare Filterung ist nun mal kein einfallsloser Bildschirmschoner. Es ist die "Aesthetik" des Bildes, die dich dazu verleitet, 8 bit zu bevorzugen und dabei den Sinn und Zweck von BF zu ignorieren. Wer schreibt 8 bit vor (Direct3D, OpenGL)? Welche Begruendung wird gegeben?In OpenGL nutzen Profi-Beschleuniger z.B. 8 Bit. Wäre das Transistor-Verschwendung, würden sie 6 oder 7 Bit nutzen. Meine Begründung habe ich schon gegeben: Erst mit 8-Bit-Gewichten werden die LERP-Artefakte so weit verkleinert, dass sie in die ohnehin existierende Farbauflösungs-Ungenauigkeit fallen. Klingt für mich sinniger, als den maximal sinnvollen Zoomfakter durch ungenaues Lerpen zu limitieren.

Die 5 Bit LOD-Fraction bei ATIs TF fallen in erster Linie dann auf, wenn man die MIP-Level einfärbt. Wer irgendwelche grafischen Experimente machen will, und dazu eingefärbte MIP-Maps braucht, der hat hier das Nachsehen. ATI hat ausgetestet, was für Spiele noch gerade so reicht (4 Bit LOD-Fraction wäre auf jeden Fall schon zu wenig.)

Was allgemeines: Angenommen man hat ein Video mit 16 Bit Farbe kodiert und möchte es gezoomt wiedergeben (weil die Monitor-Auflösung größer ist, als die Auflösung des Videos.) Es macht hier Sinn, die Farben auf 32 Bit zu interpolieren. Ebenso wie bei Texturkomprimierung die 16-Bit-Referenzfarben für vernünftige Qualität in den 32-Bit-Raum expandiert werden sollten. Das "durch nichts vorgegeben" zieht imo nicht: Die Zwischenfarben sind implizit vorgegeben, durch ihre Umgebung. Da wir die Umwelt im Alltag "analog" wahrnehmen (und nicht digital) macht es imo grundsätzlich Sinn, Zwischenfarben fein aufzulösen.

Original geschrieben von Gast
Ich habe nicht geschrieben, dass man eine mathematische Funktion "korrekt" berechnen muesse. An "piecewise linear approximation" ist nichts auszusetzen. Es zeigt eben einmal mehr, das Genauigkeit nicht Selbstzweck ist oder "ueber alles" steht. Ich kann jetzt einfach nicht widerstehen, das naechste (natuerlich fiese und absurde) Argument hinzuschreiben, dass du vermutlich schon erahnst: Du verlangst also, den Aufwand oder die BF-Genauigkeit zu erhoehen, um eine Funktion ungenauer berechnen zu koennen?Imo ist das kein Argument, da mit besserem (glätterem) BF die Funktion nicht ungenauer wird. BF ist wie gesagt imo unter den Umständen das beste, was man tun kann. (Quadratische Interpolation würde "etwas" mehr Transistoren kosten. Hättest du andere Vorschläge?) Da weiß ich nicht ob es sinnig ist, das 'beste, was man tun kann', etwas zu verschlechtern. Wobei mathematische Lookups wohl genügend hoch aufgelöst sind, da wirken höchstens noch ATIs "grobe" BF-Artefakte, während das 6-Bit-Lerpen hier unproblematisch sein dürfte. Aber auch jene "groben" BF-Artefakte sind ja nicht gerade wünschenswert.

Nun ist es auch richtig, dass man in Spielen ohnehin nicht zu nahe an die Texturen herangehen sollte, da sie z. B. sonst ihre aus der Ferne betrachtet dreidimensionale Wirkung verlieren. Andererseits, wenn man, wo auch immer, einen einfachen Farbverlauf braucht, ist der geringste Aufwand, eine 2x2-Textur zu nehmen. Sieht bei ATI im Zoom aber hässlich aus.

Der folgende Absatz geht offenbar nicht an mich, trotzdem einige Worte hierzu. Würden ATIs Vereinfachungen die Spiele-Tauglichkeit gefährden, hätte ich das auch so geschrieben. Nun kann man abwinken und sagen: "Beeinflusst die Spiele nicht wesentlich? Interessiert mich also nicht!" Das ist jedem selbst überlassen, inwieweit er sich interessiert oder nicht. Nur finde ich, ist es auch uns überlassen, was für Artikel wir bringen, "3DCenter" beinhaltet keineswegs nur Spiele. Von einigen finde ich es ziemlich kleinlich (geht nicht an dich) dass sie den Wert eines Artikels nur daran messen, was es ihnen für ihre Spielchen bringt. (Stichworte "Tellerrand", "Horizont", "Verteidigung der eigenen Investition")

Original geschrieben von Gast
Um das Ganze abzuschliessen: Natuerlich ist die ganze Diskussion hier irgendwo zwischen unwichtig und absurd anzusiedeln, aber es eignet sich ganz gut, um bestimmte Prinzipien oder Herangehensweisen zu verdeutlichen. In jedem Fall sinnvoller als das langweilige und unsachliche wie-du-mir-so-ich-dir Nvidia vs. ATI Geschrei. Leider ist die Bewertung von Artikeln (vergleiche Reaktion auf "brilinear" und auf diese "Filtertricks") erheblich mit davon abhängig, welche Graka der sich Äußerende selbst nutzt. Ailuros ist afaik der einzige mit R300, der sich positiv zum Artikel äußerten, während bekennende NV-Fans ohnehin pflichtbewusst Beifall klatschen. Wie du es schon erwähnt hast, ist es auch mir völlig Wurst, wie der betreffende IHV heißt. Lob und Tadel gibt's anhand der puren Fakten.

Und ich finde diese Diskussion ehrlich gesagt nicht unwichtig oder absurd. Würde man Spiele-Grafik nur à la 08/15-Reviewer bewerten, stünden den IHVs Tür und Tor offen, die Bildqualität zu senken wo es nur geht.



Original geschrieben von Betatron
Bei `nem R350 kann ich den anisotropen Filter auf 16x immer mitlaufen lassen, das AA auf 4x drehen und habe immer noch `ne bessere Framerate als der betagte NV25.Sicher hast du das, die Framerate ist um Längen besser, die Kantenglättung auch. Allerdings ist 16x AF auf Radeon nur teilweise besser als auf GeForce, es gibt Bereiche, die die GF mit 8x AF besser filtert.
Original geschrieben von Betatron
Sorry, nach meiner bescheidenen Meinung ist das R3xx Design die größte Innovation seit dem seeligen Voodoo1.Was ist mit GeForce3 zu ihrer Zeit? :naughty: Klar hat die mehr vom NV15 als mancher glaubt, aber R300 ist R200 in einigen Dingen ja auch noch recht ähnlich.

zeckensack
2003-11-27, 19:50:21
aths,
http://www.beyond3d.com/forum/viewtopic.php?t=9213

Ziemlich starker Gegenwind :weg:

Endorphine
2003-11-27, 20:21:27
Original geschrieben von zeckensack
aths,
http://www.beyond3d.com/forum/viewtopic.php?t=9213

Ziemlich starker Gegenwind :weg: Ja, stellenweise aber auch berechtigt IMHO :schleich:

Originally posted by zeckensack
*puts on patented Defender Of 3DC hat* :up:


Mal ein Auszug aus der B3D-Forum Kritik: [B]Originally posted by see colon
what got me about the article is this bit...

"This is somewhat disappointing: whatever area of R300 we were poking at, we've always found something that could have been done better, as demonstrated by the competition's textbook quality. It's likely that there are even more filtering simplifications on the Radeon, that we simply haven't found yet."


competitions textbook quality? huh... funny how that doesn't exactly mesh with...

"But enough rambling, "perfect" AF is virtually not available on any current hardware."


my only other gripe, is they assume that since bilinear is filtered incorrectly (or sloppy), that those irregularities will automaticly be passed on to trilinear and anisotropic filterings. while this may be the case, and it logicly and likely does occur, they offer no proof. what if ati's bilinear optimazations are only applied when blinear filtering is requested by the software, and when trilinear filtering is requested, different optimization are performed.
Und damit hat er recht... :sick:

Lehrbuchqualität für NV in Anspruch nehmen und ein paar Zeilen weiter schreiben, dass diese (derzeit) so gar nicht in Hardware implementiert wird - nirgendwo. Das passt nicht so recht zusammen. Und der Beweis, dass die Optimierung auf auf TF & AF wirkt fehlt ebenfalls. Auch das stimmt :X

<OT>
Originally posted by zeckensack
I should buy an FX5700 for testing purposes I think but they didn't yet come down to 100€ - which is exactly what they are worth, IMO. Derzeit sind FX5700 ab ~150 EUR zu haben -> http://www.geizhals.at/eu/a71164.html Ich denke es sollte keine Ewigkeiten dauern, bis welche für rund 100 EUR zu haben sind :-)
Willst du wirklich nur testen? Dann würde es ja auch eine "NV34 super-light 16-Bit Speicher" tun IMHO. Die FX5700 ist da als Mainstreamkarte zum testen etwas teuer finde ich.
</OT>

zeckensack
2003-11-27, 21:09:44
<OT> :D
Original geschrieben von Endorphine
<OT>
Derzeit sind FX5700 ab ~150 EUR zu haben -> http://www.geizhals.at/eu/a71164.html Ich denke es sollte keine Ewigkeiten dauern, bis welche für rund 100 EUR zu haben sind :-)
Willst du wirklich nur testen? Dann würde es ja auch eine "NV34 super-light 16-Bit Speicher" tun IMHO. Die FX5700 ist da als Mainstreamkarte zum testen etwas teuer finde ich.
</OT> Die 5200 ist mir ehrlich gesagt einfach zu sch***e =)

Ich habe nur 'echte' Mainstream-Karten, bzw Karten die irgendwann mal attraktive Mainstream-Karten waren.

Wer Low-Cost kauft, kriegt auch Low-Cost-Performance. Ich will aber beim Testen auch eine realistische Performance-Einschätzung kriegen, und nicht nur die Lauffähigkeit feststellen. Würde ich jetzt mit High End-Ware testen, dann würde mir evtl nicht auffallen, wenn ich Ressourcen verschwende.

Der IMO einzig sinnvolle Kompromiß ist eben Mainstream zu kaufen.
PS: zur Diagnose von algorithmischen Optimierungen schalte ich auch mal gerne den L2-Cache ab :naughty:
</OT>

Endorphine
2003-11-27, 21:33:02
<immer noch OT="
Original geschrieben von zeckensack
<OT> :-D
Die 5200 ist mir ehrlich gesagt einfach zu sch***e :-)

Ich habe nur 'echte' Mainstream-Karten, bzw Karten die irgendwann mal attraktive Mainstream-Karten waren.

Wer Low-Cost kauft, kriegt auch Low-Cost-Performance. Ich will aber beim Testen auch eine realistische Performance-Einschätzung kriegen, und nicht nur die Lauffähigkeit feststellen. Würde ich jetzt mit High End-Ware testen, dann würde mir evtl nicht auffallen, wenn ich Ressourcen verschwende.

Der IMO einzig sinnvolle Kompromiß ist eben Mainstream zu kaufen.
[...] Ziemlich teure Testhardwarepolitik. Aber wenn du es dir leisten kannst ist es natürlich ein schöner Luxus :)


Original geschrieben von zeckensack
PS: zur Diagnose von algorithmischen Optimierungen schalte ich auch mal gerne den L2-Cache ab :naughty_:
</OT> :o
Damit habe ich auch schon mal experimentiert. Gibt es da nicht mittlerweile irgendwelche Software, dass man solchen Aufwand nicht treiben muss? Glücklicherweise sinkt die Leistung ja ohne L2-Cache noch nicht in's bodenlose. Schalte doch mal den L1-Cache ab, perfekter Code läuft auch ohne L1-Cache wie Schmidts Katze. :P :naughty:

" />

Um noch alibihaft etwas on-topic hinterherzuschieben: schade, dass von den B3D-Jungs niemand hier diskutiert. ;( Es fehlt wohl ein Link aus dem übersetzten Artikel zum Englischforum... Den könntet ihr ja noch einpflegen.

aths
2003-11-28, 00:19:32
Original geschrieben von Endorphine
Mal ein Auszug aus der B3D-Forum Kritik: Und damit hat er recht... :sick:

Lehrbuchqualität für NV in Anspruch nehmen und ein paar Zeilen weiter schreiben, dass diese (derzeit) so gar nicht in Hardware implementiert wird - nirgendwo. Das passt nicht so recht zusammen. Und der Beweis, dass die Optimierung auf auf TF & AF wirkt fehlt ebenfalls. Auch das stimmt :XEs wird zumindest an anderer Stelle konkretisiert, dass isotrope Filterung bei NV-HW in "Lehrbuchqualität" geboten wird, natürlich ausgenommen den neuerlichen Zwang zu bri bei den FXen. Das NV-AF ist nicht perfekt, das wurde ja im Artikel auch geschrieben, aber 8° AF ist auf GF nunmal deutlich besser als 8° bei ATI. ATIs 16° ist nur partiell besser als Nvidias 8°.

Ich würde mich freuen, wenn der Artikel insgesamt gesehen wird, und man nicht nur einzelne Sätze rausreißt.

Was mich traurig stimmt: NV-Fans klatschen, ATI-Fans halten den Artikel für Stuss, aber kaum jemand lässt sich auf meinen Ansatz ein: Die puren, nackten Fakten, und die Forderung nach besserer Hardware. Die Verteidigung der eigenen Investition scheint einige blind genug zu machen, ihre HW im heutigen Zeitrahmen als nicht wirklich verbesserungswürdig anzusehen. Und auch auf B3D glauben einige, dass genauere Filterung die GPU langsamer machen würde :eyes:

MadManniMan
2003-11-28, 00:27:10
Original geschrieben von aths
Ailuros ist afaik der einzige mit R300, der sich positiv zum Artikel äußerten, während bekennende NV-Fans ohnehin pflichtbewusst Beifall klatschen.

Falsch erinnert =)

Ich finde den Artikel - wenn man denn die Intention beachtet, was kaum jemand tut - wunderbar, meine Kritik bezog sich nur darauf, daß du dir keine R3X0 oder NV3X gönnst, also mehr oder minder OffTopic :eyes:

BTW find ich das Satz-aus-dem-Kontext-Reißen bei B3D recht albern...

Mr. Lolman
2003-11-28, 00:32:41
Original geschrieben von Mr. Lolman
Ansonsten fand ich den Artikel ganz gut....

...eigentlich in Anbetracht der techn. Aspekte sogar sehr gut, nur fehlt mir ein Vergleich der Wertigkeiten der unterschiedlichen Optimierungen von ATI und NV.

Aber, was ich nicht gut fand, und warum hab ich schon erläutert, und aufgrund meiner gebrachten Argumente finde ich es diffamierend mich in die maulende ATi Fanboy Ecke zu schieben.

aths
2003-11-28, 00:56:50
Das ging auch weniger gegen dich =)

zeckensack
2003-11-28, 01:26:22
Original geschrieben von MadManniMan
BTW find ich das Satz-aus-dem-Kontext-Reißen bei B3D recht albern... Ja, ist allerdings auch bis zu einem gewissen Grad selbstverschuldet. Eine klarere Struktur (!=Inhalt) hätte diesen Artikel besser verdaulich gemacht. Die Intention wäre einfach besser rübergekommen, wären nur ein paar (Ab-)Sätze hier und da vertauscht worden. Dann hätte es IMO auch weniger auf die Fresse gegeben http://www.forum-hardtecs4u.com/yabbse/YaBBImages/new_3.gif

:weg:

...
Klick mich, ich bin ein Walross (http://www.beyond3d.com/forum/viewtopic.php?t=9213&postdays=0&postorder=asc&start=21)
While I think that the whole thing could have been structured better - and that the issues mentioned really don't affect me - it's only fair to point out the facts.

Crushinator
2003-11-28, 12:52:08
Original geschrieben von aths
(...)
Ailuros ist afaik der einzige mit R300, der sich positiv zum Artikel äußerten, während bekennende NV-Fans ohnehin pflichtbewusst Beifall klatschen. Herzlichen Glückwunsch, daß Du meinen Kommentar einfach ignoriert hast. ;(

Betatron
2003-11-28, 13:54:33
aths schrieb:
>>Was ist mit GeForce3 zu ihrer Zeit? Klar hat die mehr vom NV15 als mancher glaubt, aber R300 ist R200 in einigen Dingen ja auch noch recht ähnlich<<

Mit Sicherheit auch ein Meilenstein des Hardwaredesigns.
Von mir lediglich nicht benannt, weil die Dominanz bei DX7 gegenüber dem Vorgänger 2 Ultra nicht ansatzweise so ausfiel wie beim R300 -> R200

Dein Wunsch und Aufruf nach Verbesserung bleibt aus deinem Blickwinkel durchaus verständlich.

Von mir subjektiv betrachtet ist die Entwicklung im Bereich Grafikchips (Komplexizität, Rohleistung, Füllrate) auf einem deutlich höheren Niveau als das der übrigen Komponenten.

Gruß Betatron

MadManniMan
2003-11-28, 14:44:36
Original geschrieben von crushinator
Herzlichen Glückwunsch, daß Du meinen Kommentar einfach ignoriert hast. ;(

Dito. Naja, irgendwie fühlst dich in eine Ecke gedrängt und gequängelt, kann das sein, aths?
Teilweise ists aber auch schon seltsam, wie sehr einige auf ihn einprügeln. Richtige Fanboys erkennt man deutlich auf B3D, die schreien: "Ja... äh... BLUBB! BLUBBERUB! Das machen die nur, weil die schon nV gebash0rt(god bless 'em!) haben und jetz Popoklatsche gekriegt haben und außerdem und sowieso und erst Recht haben die jedes Detail rausgesucht und so..."

:kotz:

Endorphine
2003-11-28, 17:00:25
Eigentlich gerät aths nur etwas zwischen die Fronten, mitten in die Schusslinie hinein. Sein Nickname steht gewissermaßen unter dem Artikel, letztendlich hat er aber mehr öffentlich sauber dokumentiert, als wirklich neues Diskussionsmaterial zu liefern. Die Fakten geistern jetzt nicht mehr nur in den Communities dieser Welt herum, sondern sind öffentlich für jeden nachzulesen.

Das beim derzeitigen Trend zur absoluten ATI-Glorifizierung Gegenwind nicht ausbleibt sollte klar sein. IMHO muss sich aths aber für nichts rechtfertigen. Der Artikel ist vielleicht nicht perfekt, aber er dokumentiert doch Wissen für die Öffentlichkeit, welches bis jetzt nirgendwo niedergeschrieben wurde. Die Diskussion teilweise auf ihn zu beziehen halte ich nicht für richtig...

Die paar Mätzchen in dem Artikel sollten in der Diskussion IMHO lieber aussen vor bleiben, es sollte sich mehr um den Inhalt drehen. Wahrscheinlich bricht diese Dokumentation doch zu sehr Zacken aus der Krone von ATI als unangefochtenen Liebling der Gemeinschaft. ;) Sowohl bei B3D als auch hier.

p.s. Ich hab den Artikel auch gelobt. Oder zähle ich etwa zu den NV-Fanboys (als ATI-Nutzer? :kratz2: )? ;(

Gast
2003-11-28, 23:03:43
Ok, dann gebe ich mal Auskunft, warum ich geantwortet habe. Ich halte ATI und deren jetzige Chip-Generation fuer "besser" als NV. Ich hatte den Eindruck beim Lesen, dass aths der NV Kritik/Schelte eine ATI Kritik/Schelte entgegensetzen wollte, da der Artikel recht aggressiv geschrieben und (wie andere bereits kommentierten) ueberzogen in seiner Bewertung/Forderung ist. (Darauf komme ich spaeter noch mal zurueck.) Aths' Intention spiegelt sich jedenfalls im Artikel kaum wieder, und es ist nicht nur eine Frage der Struktur. Ich teile zwar ebenfalls nicht die ueberzogene und teilweise unsinnige Kritik an NV, aber das aendert nichts an meiner ATI-Praeferenz. Beide Hersteller verdienen Kritik, aber die Gleichung ATI=NV ist mir dann doch zu simpel.

Mein definitiv letztere Beitrag zur 6-bit BF-Diskussion. Eine gute Frage (wenn auch prinzipiell eine Sekundaer-Argumentation) ist aths' Frage, warum andere IHV 8 bit benutzen. Einfachste Antwort: "Kleinigkeiten" werden eben nicht optimiert. Interessantere Antwort: Die Genauigkeit des BF-Filters wird von der Verkleinerung bestimmt. Das Rechenwerk ist dasselbe: 8 bit ist fuer Verkleinerung sinnvoll und notwendig, die Nutzung fuer Vergroesserung ist quasi ein sinnvoller "Nebeneffekt". Alternative Antwort: Die Archtektur oder andere Features fordern 8 bit.

"Grafische Experimente" mit LOD und Mipmaps ist nicht Sinn und Zweck von LOD und Mipmaps. Sie stellen eine spezifische technische Loesung zu einem Problem dar (Texture-Aliasing). Wer das Verfahren kennt, *kann* mittels API damit experiementieren auch wenn das nie beabsichtigt oder erwuenscht war (analog: massive BF-Vergroesserung). Interessant: DX9-Chips koennen Mipmaps selbst erzeugen.

Fuer Video laessst sich (bei einem vernuenftigen Vergroessrungsfaktor) das resultierende Bild mit einem programmierbaren Filterkern frei definieren und qualitativ verbessern. Bei massiver Vergroesserung bringt das jedoch (ebenso wie beim "zufaellig vorgegebenen" BF-Filter) nichts. Dazu fehlt es schlicht an Informationen.

Allgemein: Es gibt eine Unmenge Moeglichkeiten, die begrenzte Praezision einer HW mit (unsinnigen) Extremfaellen blosszustellen. Ich koennte z.B. problemlos den Z-buffer als Artefakt-Katastrophe "diffamieren" oder die Perspektiv-Korrektur dazu bringen, Texturen verzerrt ("wabbernd") darzustellen.

Gast
2003-11-28, 23:11:15
Nachtrag: Die gelegentlich geausserte Behauptung (auch im B3D-Forum), dass die Transitor-Anzahl (oder besser Chip-Groesse) *nur* durch Beschneidung der Praezision bestimmt wird, ist sehr sehr fragwuerdig.

Xmas
2003-11-29, 02:13:02
Original geschrieben von Gast
"Grafische Experimente" mit LOD und Mipmaps ist nicht Sinn und Zweck von LOD und Mipmaps. Sie stellen eine spezifische technische Loesung zu einem Problem dar (Texture-Aliasing). Wer das Verfahren kennt, *kann* mittels API damit experiementieren auch wenn das nie beabsichtigt oder erwuenscht war (analog: massive BF-Vergroesserung). Interessant: DX9-Chips koennen Mipmaps selbst erzeugen.
BF-Vergrößerung ist ein klar beabsichtigter Zweck, und wird auch für diverse Nebel-/Rauch-/Noise-/Glow-Effekte verwendet. Nicht umsonst kann man den Magnification-Filter getrennt einstellen.
Jeder Chip mit BF kann Mipmaps "selbst erzeugen".

Gast
2003-11-29, 10:41:20
wisst ihr schon was ihr mit diesem artikel ausdrücken wollt?
wollt ihr reinfach nur mal motzen?
wenn ihr selber sagt, dass es nur sichtbar wird, wenn man extrem ins bild hineinzoomt, dann dürfte doch eigentlich schon klar sein, dass die quali, wie sie hier geboten wird völlig ausreichend ist. Bleibt doch mal aufm Teppich.Immerhin sind die Optimierungen wie sie hier von ATI betrieben werden im allg. nicht nur für Benchmarks performancesteigernd was im Gegensatz zu NV ja schonmal nen gewisser Vorsprung ist.
Wenn ATI in best. Bildbereichen auf 4 oder 2fach AF zurückschaltet, weil mans halt einfach nicht sieht, dann weiss ich nicht, was daran so falsch sein soll.

LovesuckZ
2003-11-29, 12:42:25
Original geschrieben von Gast
Wenn ATI in best. Bildbereichen auf 4 oder 2fach AF zurückschaltet, weil mans halt einfach nicht sieht, dann weiss ich nicht, was daran so falsch sein soll.

Man sieht es.
Doch genau so koennte man mit allen Bildeinschneidungstechniken agumentieren: Man sieht es im Spiel nicht also ist es eine gute Methode mehr Leistung zu erreichen...

Endorphine
2003-11-29, 12:57:07
Ich halte ATI und deren jetzige Chip-Generation fuer "besser" als NV.
[...]
wisst ihr schon was ihr mit diesem artikel ausdrücken wollt?
wollt ihr reinfach nur mal motzen? :kotz:
*restliches Posting zurückgezogen*

aths
2003-11-29, 19:29:31
Original geschrieben von Gast
Ok, dann gebe ich mal Auskunft, warum ich geantwortet habe. Ich halte ATI und deren jetzige Chip-Generation fuer "besser" als NV. Ich hatte den Eindruck beim Lesen, dass aths der NV Kritik/Schelte eine ATI Kritik/Schelte entgegensetzen wollte, da der Artikel recht aggressiv geschrieben und (wie andere bereits kommentierten) ueberzogen in seiner Bewertung/Forderung ist. (Darauf komme ich spaeter noch mal zurueck.)Wenn ich schon kritisiere, dann eigentlich immer im harschen Tonfall. Das trifft dann den einen IHV wie den anderen.
Original geschrieben von Gast
Ich teile zwar ebenfalls nicht die ueberzogene und teilweise unsinnige Kritik an NV, aber das aendert nichts an meiner ATI-Praeferenz. Beide Hersteller verdienen Kritik, aber die Gleichung ATI=NV ist mir dann doch zu simpel.Diese Gleichung stelle ich nirgendwo auf. So oder so versuche ich, keine IHV-Präferenzen zu haben.

Beim BF die 6 Bit hin oder her, es gibt noch den anderen Artefakt. Auf BF bauen TF und AF auf, so dass ich beim BF eben "maximal sinnvolle" Genauigkeit fordere. Das bringt ATI aus meiner Sicht nicht.

aths
2003-11-30, 02:26:02
Zecke,
Originally posted by zeckensack
I should buy an FX5700 for testing purposes I think but they didn't yet come down to 100€ - which is exactly what they are worth, IMO.Glaubst du das eigentlich wirklich, oder willst du hier nur flamen? Imo ist die 5700 U noch so ziemlich die attraktivste Karte (gerade in bezug auf das Preis/Leistungs-Verhältnis) der FX-Reihe.

zeckensack
2003-11-30, 13:18:13
aths,
Original geschrieben von aths
Zecke,
Glaubst du das eigentlich wirklich, oder willst du hier nur flamen? Imo ist die 5700 U noch so ziemlich die attraktivste Karte (gerade in bezug auf das Preis/Leistungs-Verhältnis) der FX-Reihe. ich sprach von der Version ohne "U" :)
Das ist die richtige MX der NV3x-Reihe, so wie die Gf2MX eben die MX der ... ähh ja.
Und für 'ne MX zahle ich keine 150 Flocken (http://www.geizhals.at/deutschland/?fs=5700&x=0&y=0) (schon garnicht beim aktuellen Dollarkurs).

Tigerchen
2003-11-30, 14:41:43
Original geschrieben von LovesuckZ
Man sieht es.
Doch genau so koennte man mit allen Bildeinschneidungstechniken agumentieren: Man sieht es im Spiel nicht also ist es eine gute Methode mehr Leistung zu erreichen...

Man sieht es "fast" nie.
Alles andere ist Wunschdenken deinerseits.

aths
2003-11-30, 18:19:46
Original geschrieben von zeckensack
aths,
ich sprach von der Version ohne "U" :)Die ist ja auch shice. Die U hingegen imo 'ne passende Mid-End. Im Gegensatz zu den armen, die eine 5600 (U) haben. Offenbar haben die bei der FX die Schwelle angehoben, wann AF überhaupt erst einsetzt. Das sollte man auch mal testen.

LovesuckZ
2003-11-30, 18:22:36
Original geschrieben von aths
Die ist ja auch shice.

Warum?

zeckensack
2003-12-01, 13:47:03
Original geschrieben von LovesuckZ
Warum? Weiß ich auch nicht :kratz2:

Sowohl auf dem Papier als auch im echten Leben ist die 5700 non-U der Geforce 3 'vanilla' in allen Bereichen überlegen. Das ist doch schick.

Die Ultra bringt ggü der non-U gerade mal 10% höhere Füllrate und einen obszön gesteigerten Speichertakt, denn ich allerdings in dieser Leistungsklasse für komplett sinnlos halte, wenn ich darf :)

Die non-U ist für mich auf alle Fälle das attraktivere Angebot, die U würde ich überhaupt nicht Erwägung ziehen - da kann man gleich zu einer kleinen NV35-Version greifen.

LovesuckZ
2003-12-01, 14:37:05
Original geschrieben von zeckensack
Sowohl auf dem Papier als auch im echten Leben ist die 5700 non-U der Geforce 3 'vanilla' in allen Bereichen überlegen. Das ist doch schick.


Hm, nicht ganz :D

Gast
2003-12-12, 12:17:08
Es ist zwar schön zu sehen, wie jemand sein Fachwissen dazu einsetzt die Internas heutiger Grafikkarten offenzulegen, jedoch scheint mir der Autor nicht in der Lage zu sein, Anerkennung für die zu zeigen, die diese Hardware erst ermöglichen.
Anstatt froh über die Optimierungen zu sein, wird sinnlos Lehrbuch-Genauigkeit gefordert. Er erkennt zwar, dass diese in der Praxis nicht sichtbar sind und auch keine Standards brechen, aber sieht nicht, dass Nvidia eben solche Optimierungen ausgelassen hat. Ähnlich könnte man auch den Athlon mit dem Pentium vergleichen und den Athlon in den höchsten Tönen loben, aber immer mit der Aussage, dass er der schlechtere Prozessor wegen der geringeren Taktung sei. Wozu sollte dies gut sein? Es fehlt ein faires Fazit am Ende seiner Untersuchungen wodurch der Eindruck entsteht, der Autor wollen keine objektive Betrachtung der aktuellen Technik, sondern lediglich ATI aus unerklärlichen Gründen kritisieren - nur am Rande angemerkt, Optimierungen sind Teil des Geschäfts.

Um ein Fazit zu geben: ATI hat dort an Transitoren gespart, wo es keinem auffällt (von wenigen, talentierten Ausnahmen mal abgesehen) und dadurch nicht nur an Platz in ihrem Design gespart sondern auch den Stromverbrauch und damit die Wärmeentwicklung gesenkt. Hier könnte selbst die Konkurrenz noch etwas lernen.

Gast

Gast
2004-04-06, 13:36:57
erstma vorweg sehr guter bericht :D
hab n kleinen fehler gefunden hier
http://www.3dcenter.de/artikel/2003/11-21_a.php
is der text abgeschnitten. ;)

MfG Leon

Leonidas
2004-04-06, 22:44:39
... nö. Kann keinen Fehler erkennen.

Gast
2004-04-13, 09:15:38
hmm dann lags wohl am schönen linux Konqueror
bin gerade im lehrgang. sorry :D

MfG Leon

sth
2004-04-13, 16:46:57
Mein Konqueror schneidet da nix ab. Kein Fehler zu erkennen.