Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zum Artikel "ATi & nVidia im Optimierungs-Wettstreit"
Leonidas
2003-07-26, 01:53:51
Hier ist der Link. (http://www.3dcenter.org/artikel/ati_nvidia_treiberoptimierungen/)
Dank an Exxtreme für die Hinweise zur Lösung des ATi-Rätsels.
Dank an Demirug für den nVidia-Nachtrag.
PS: Die Arbeit an diesem Artikel wurde lange vor der Veröffentlichung der Artikeln von HardOCP, AMDMB und ExtremeTech begonnen.
nur ein Gast
2003-07-26, 03:31:17
Mir geht dieses alberne angebliche gescheate tierisch auf die nerven.
seid doch einfach froh das die games/benchmarks schneller laufen ohne geld dafür zu bezahlen.
auf anderen systemen ist das gang und gäbe treiber für spiele und anwendungen zu optimieren damit sie schneller und sogar stabiler laufen. man sieht den unterschied mit dem blossen auge nicht mal annähernd im 3dmark03 benchmarktest.
ich habe es lieber flüssig anzugucken als das elendige rumgezucke während die demo abläuft, nur weil mal wieder welche rumheulen das es etwas mit cheating anstatt mit optmierung zu tun hat.
durch solche ansteller wie euch zuckt mein benchmarktest nämlich wieder mit meiner radeonkarte.
ATI hört nicht auf solche unreife erwachsenen (unentwickelte) und optimiert mir die treiber wieder, denn die leute hier geben lieber tausende euros aus damit das system schneller rennt.
früher haben alle gejammert das die grafikkarten nicht annähernd ausgereizt werden. heute ist es das gegenteil.
MfG
ich bleibe lieber gast...
Raver
2003-07-26, 03:39:27
Nachdem Artikel bin ich doch froh wieder Nvidia Graka gekauft zu haben....
Original geschrieben von nur ein Gast
Mir geht dieses alberne angebliche gescheate tierisch auf die nerven.
seid doch einfach froh das die games/benchmarks schneller laufen ohne geld dafür zu bezahlen.Ich für mein Teil möchte nicht nur mehr Geschwindigkeit, sondern diese Geschwindigkeit auch, ohne Bildqualität opfern zu müssen.
BQ zu opfern sollte immer nur ein Angebot sein. Dass ein anderer festlegt, in einer bestimmten Anwendung nicht mehr volle Qualität haben zu können, halte ich für schlicht inakzeptabel.
princess.mononoke
2003-07-26, 04:50:50
hmm das bei ati generell nicht trilenear anisotropisch gefiltert wird find ich sehr schade, war voher andrer meinung ( kannte das rtool nich...jetzt kann ichs mal selber testen).
jedoch was nvidia speziel bei 3dmark an "optimierungen" vornimmt halte ich schlicht für betrug am kunden, weil viele leute beim kauf einer neuen graka erstma gucken wieviel punkte in diesem benchmark die jeweilige karte erreicht. Die unterschiede sind dort einfach zu gross nur leider würd dieser benchmark für die meisten das nonplusultra bleiben.
3dmark kann man auf jedenfall erstma vergessen wenn die beiden führenden graka hersteller(auch ati) so drann rumpfuschen.
...trozdem bin ich von ati entäuscht ich dachte meine r9700pro steht auf der guten seite der macht ;)
Moin,
hier mal meine Vorschläge, wie ihr eure nächsten Benchmarks durchziehen könntet:
zum 3DMark: Finger weg! (auch von allen anderen theoretischen Benchmarks)
Hier wird deutlich zu heftig "optimiert", so das man keine Vergleiche zwischen den Grafikkarten mehr anstellen kann. Geschweige denn von Vergleichen zu realen Spielen, welche nicht annähernd so "optimiert" werden.
zu NVidia: Anti-Cheat Script benutzen!
Was da in UT2003 gemacht wird, geht definitiv mit Bildqualitäts-Einbußen einher und hat für einen richtigen Vergleich deaktiviert zu werden. Dass die Anwendung anhand ihres Dateinamens erkannt wird (und Demirugs Tool explizit versucht zu täuschen) ist einfach nur frech (jaaa, ein Cheat). Hier sollte UT2003 mit aktiviertem Anti-Cheat Script und allen Konsequenzen für NVidia durchgebencht werden (eventuelle Deaktivierung "sinnvoller" Optimierungen). Sie fordern einen ja schließlich geradezu heraus, das Spiel zu benchen... also UT2003 bitte nicht rausnehmen, könnte positive Konsequenzen haben, wenn andere nachziehen!
zu ATI: AF nur noch mit externem Tuner!
Obwohl generell für alle Anwendungen der trilineare Filter für Texturstages > 0 deaktiviert wird, ist dies nicht im Sinne des Erfinders. Wenn der Programmierer meint, der trilineare Filter ist bei Detail-Texturen z.B. nicht nötig, kann er den trilinearen Filter für die entsprechende Stage ausdrücklich deaktivieren. Angenommen, die Basistextur liegt in Stage 1 und z.B. eine Cube-Map für Spiegelungen in Stage 0. Nun stellt der Programmierer triliniearen Filter in Stage 1 und bilinearen Filter in Stage 0 ein und blendet die Texturen entsprechend zusammen. Das Ergebnis wäre rein bilinear, was sicherlich nicht dem gewünschten Ergebnis entspricht. Ergo, die Anwendung sollte über verwendete Filter entscheiden und nicht der Treiber (zumindest im Qualitätsmodus).
Unterschiedliche Hardware kann man nur im Qualitätsmodus der Treiber testen (was schon hinreichend schwierig ist), da die Performancemodi zu unterschiedlich sind. Also sollten alle Benchmarks mit aktivierten Anti-Cheat Scripts und richtigen Filtern getestet werden, da sonst ein Vergleich nur noch schwieriger wird. (Hoffentlich ist das bei neueren Treibern noch möglich, hier mach ich mir besonders Sorgen um NVidia)
Fazit:
Benchmarks mit höchstmöglicher Bildqualität durchführen und etwaige Unterschiede zwischen den Karten extra im Text analysieren und besprechen. (was sich dann natürlich bei größeren Abweichungen auf die endgültigen Wertungen niederschlagen sollte) Einfach ausgedrückt, ich will eine Performance- und Bildqualitäts-Analyse aller Karten bei jeweils höchstmöglicher Bildqualität auf Seiten der Anwendungen und der Treiber (natürlich mit den Parametern Auflösung, AA und AF) Da man die Performance ja einfach mit den fps messen kann, würde mir noch ein Bewertungssystem für die erreichte Bildqualität gefallen (natürlich möglichst objektiv, 10er System oder so)
Exxtreme
2003-07-26, 05:35:04
Original geschrieben von KiBa
zu ATI: AF nur noch mit externem Tuner!
Obwohl generell für alle Anwendungen der trilineare Filter für Texturstages > 0 deaktiviert wird, ist dies nicht im Sinne des Erfinders. Wenn der Programmierer meint, der trilineare Filter ist bei Detail-Texturen z.B. nicht nötig, kann er den trilinearen Filter für die entsprechende Stage ausdrücklich deaktivieren. Angenommen, die Basistextur liegt in Stage 1 und z.B. eine Cube-Map für Spiegelungen in Stage 0. Nun stellt der Programmierer triliniearen Filter in Stage 1 und bilinearen Filter in Stage 0 ein und blendet die Texturen entsprechend zusammen. Das Ergebnis wäre rein bilinear, was sicherlich nicht dem gewünschten Ergebnis entspricht. Ergo, die Anwendung sollte über verwendete Filter entscheiden und nicht der Treiber (zumindest im Qualitätsmodus).
Ähhhm, ich glaube, das siehst du leicht falsch. Wenn du den AF im Controlpanel erzwingst, dann setzt sich der Treiber dadurch eh' über alle Spiele-Einstellungen hinweg. Das Erzwingen per Controlpanel ist eher als ein Notnagel zu sehen.
Wenn du aber im Controlpanel den AF auf "Standardeinstellung" stellst und den AF im Spiel einschaltest, dann filtert der Treiber so wie es die Programmierer gedacht haben. Wenn also die Programmierer so schlau waren und die Lightmaps nur blinear gefiltert sehen wollten, dann tut der Treiber das auch.
ATi geht wohl davon aus, daß wenn ein Spiel keinerlei Möglichkeit zum Einschalten des AF hat, dann waren die Programmierer zu blöd/nicht in der Lage auch selektive Filterung der Texturen einzubauen. Und das stimmt leider in 80% der Fälle ja auch. ;)
Und noch eins vorweg: das rTool erzwingt volle trilinear-anisotrope Filterung nicht. Es setzt diese Einstellung lediglich auf "Stendardeinstellung". :)
princess.mononoke
2003-07-26, 05:46:18
[QUOTE][SIZE=1]Original geschrieben von Exxtreme
Wenn du aber im Controlpanel den AF auf "Standardeinstellung" stellst und den AF im Spiel einschaltest, dann filtert der Treiber so wie es die Programmierer gedacht haben. Wenn also die Programmierer so schlau waren und die Lightmaps nur blinear gefiltert sehen wollten, dann tut der Treiber das auch.
ATi geht wohl davon aus, daß wenn ein Spiel keinerlei Möglichkeit zum Einschalten des AF hat, dann waren die Programmierer zu blöd/nicht in der Lage auch selektive Filterung der Texturen einzubauen. Und das stimmt leider in 80% der Fälle ja auch. ;)
na dann sind die optimierungen bei ati noch im bereich des erträglichen, aber bei nvidia fehlen mir die worte...
@Exxtreme: ok, aber Benchmarks werden ja auch unter anderem ohne AF durchgeführt, da ist das Verhalten der ATI-Treiber nicht in Ordnung...
edit: ne halt, bei augeschaltetem AF wird ja trilinear gefiltert. Dann hast du natürlich recht, Exxtreme. Im Artikel kam nicht so recht rüber, dass das Verhalten der ATI Karten korrekt ist, wenn die Anwendung AF einstellt. Und bei erzwungenem AF hat sich ATI halt die Freiheit rausgenommen, nur eine Stage korrekt zu behandeln. Ist dann also ähnlich wie der Performance-Modus, bloß mit umgedrehtem Vorzeichen (verbesserte Bildqualität, aber nicht korrekt)
Ist aber trotzdem nicht in Ordnung, idealerweise sollte man den User entscheiden lassen, ob er alle Stages anisotrop filtern möchte, wenn er dieses Feature schon vom Treiber her erzwingt.
Frage: Hat man denn jetzt nun bei ATI die Möglichkeit, bei einem Spiel ohne direkte Einstellungsmöglichkeiten, AF zu erzwingen und trotzdem korrekten trilinearen Filter auf allen Stages zu bekommen? Wenn ja (wie im Artikel erklärt), dann macht das rTool ja doch irgendwas anderes, als im Control-Panel die entsprechende Option zu setzen...
LovesuckZ
2003-07-26, 07:59:58
Original geschrieben von KiBa
Frage: Hat man denn jetzt nun bei ATI die Möglichkeit, bei einem Spiel ohne direkte Einstellungsmöglichkeiten, AF zu erzwingen und trotzdem korrekten trilinearen Filter auf allen Stages zu bekommen? Wenn ja (wie im Artikel erklärt), dann macht das rTool ja doch irgendwas anderes, als im Control-Panel die entsprechende Option zu setzen...
Bei Spiele, wo man nicht per *.ini oder im Menue AF einstellen kann, hat man ohne ein externes Tool oder Regedit Erfahrung keine Chance das best moeglichste AF zu bekommen
Razor
2003-07-26, 08:32:06
Also ich finde den Artikel außerordentlich gelungen.
Auch gehe ich mit den dort getroffenen Absolut absolut konform !
(bis auf eine Ausnahme ;-)
So sind mir synthetische Benchmarks völlig wurscht. Nicht unbedingt die SpecViewPerf's dieser Welt, erlauben sie doch eine Aussage über das Performen einer GraKa in einer (speziellen) professionellen Anwendung, nicht aber in heutigen Games...
Diese Murkser (und dieser Meinung war ich schon immer !) sind schlicht unfug, da auch hier nur die Aussage getroffen wird, wie eine GraKa bei diesem Bench performt, nicht aber, wie sich das mit realer Spiele-Performance verhält. Allerdings hat der Murks genau diesen Anspruch und ist so per se schlicht überflüssig.
So ist es mir egal, ob ATI ein bissel und nVidia 'ein bissel' mehr darin herum optimiert oder meinetwegen diesen Bench völlig 'zercheatet'. Er ist einfach nur überflüssig und führt dazu, das aufgrund der Ergebnisses dessen schlicht Tatsachen 'verdreht' werden.
-
Das, was da mit UT veranstaltet wurde, auch das, was ATI mit dem AF treibt, ist definitiv nicht tolerabel. So hat sich UT2003 wohl nun endgültig erledigt, es sei denn, man akzeptiert, dass beide großen IHV's hier gezeigt haben, wozu sie in der Lage sind... mal davon abgesehen, dass von dem 'optimiertem' AF ATI's gleich (nahezu) alle Games 'profitieren' (aber lange nicht überall optisch zum Tragen kommt)...
Sorry, Optimierung ist OK, wenn sie keine BQ kostet. Wenn, dann soll der (mündige) Nutzer die Wahl haben, welchen Grad an Qualität er haben will. So ist es bei nVidia nicht OK, wenn bei UT2003 (und nur da !) das reguläre 'quality' AF verweigert wird, wie es auch bei ATI nicht OK ist, dies generell nicht zu bekommen (Winkelabhängigkeit und Stages > 1).
Schöne neue Welt.
Bin mal gespannt, wie man zukünftig überhaupt noch Leistung vergleichen willl...
Man bedenke, dass Leo immerhin einige Wochen (!) brauchte, um einen solchen Artikel auf die Beine zu stellen. Vielleicht aber 'animiert' er andere Tester dazu, die festgestellte Auffälligkeiten zumindest zu überprüfen, bevor sie Ihre 'Krone' verteilen.
-
Wenn ich das richtig sehe, gibt es heute nur noch eine einzige Möglichkeit, die Karten/Technologien miteinander zu vergleichen:
- AA bis max 2x
- nur trilineare Filterung, AF gar nicht
- Murks01/Murks03/UT2003 'meiden'
Ist das nun der Weisheit letzter Schluß ?
???
Razor
P.S.: richtig 'witzig' finde ich, dass die nVidia-Progger an Demirug's AF-Tester gedacht haben... zeigt es doch, dass die Leutz bei nVidia sehr genau wissen, was die Community so veranstaltet...
P.P.S.: wo kann man die 'neue' Version des AF-Testers bekommen ?
*unbedingthabenwill*
;-)
Razor
2003-07-26, 08:40:37
Original geschrieben von aths
BQ zu opfern sollte immer nur ein Angebot sein. Dass ein anderer festlegt, in einer bestimmten Anwendung nicht mehr volle Qualität haben zu können, halte ich für schlicht inakzeptabel.
Hmmm...
Und generell BQ zu opfern ist also OK ?
???
Razor
BlackBirdSR
2003-07-26, 09:00:24
@Leonidas:
Ich glaube ich weiss warum die ATI Benchmarks im 3DMark2001 mit dem rTool höher waren.
Die Einstellung die durch das rTool verändert wird, sorgt zwar dafür, dass alle Stages gefiltert werden, das AF orientiert sich allerdings ausschließlich am Filtering der Application.
Da 3Dmark2001 ausschließlich Bilineares Filtering einsetzt, wird durch das rTool eben Bi. AF erzwungen.
Die Benchmarks fallen so aus wie es mit Perf. AF der Fall wäre.
Das kann man sehr schön am Nature Bench testen.
Dort sieht man das Bi.AF sehr deutlich, und auch den Frameeinbruch bei Tri AF.
mapel110
2003-07-26, 09:09:27
Original geschrieben von Razor
Hmmm...
Und generell BQ zu opfern ist also OK ?
???
Razor
nö
bleibt zu hoffen, dass ATI das registry setting mit ins control panel aufnimmt mit dem die ursprüngliche qualität wieder kommt.
Aqualon
2003-07-26, 09:20:01
@Leonidas:
Die Balken zu 3DMark 03 (44.03) unter http://www.3dcenter.de/artikel/ati_nvidia_treiberoptimierungen/index4.php sind falsch (beide zu lang).
Und auch die Balken bei UT2003 stimmen nicht ganz. UT2003 (44.03) Anticheat ist trotz höherer Werte kürzer als UT2003 (44.65) und der ist trotz gleicher Werte kürzer als UT2003(44.90).
Zwar nur je ein Pixel aber bei genauem hinsehen doch erkennbar ;)
Aqua
Aqualon
2003-07-26, 09:21:19
Original geschrieben von Razor
Hmmm...
Und generell BQ zu opfern ist also OK ?
???
Das sagt doch aths gar nicht. Er hat gesagt, dass er sich nicht von anderen vorschreiben lassen will, wie die BQ zu sein hat. Und dieses Vorschreiben wärs ja bei ner generellen BQ-Opferung.
Aqua
Quasar
2003-07-26, 09:32:49
Dieser Artikel geht damit allerdings davon aus, daß die AntiCheat-Scripte von Digit-Life ihre Funktion der Deaktivierung vom Applikations-spezifischen Optimierungen einwandfrei erfüllen und keine unerwünschten Nebenwirkungen haben.
Das ist m.E. zu kurz gedacht. Es ist laut Vorodyev auch durchaus möglich, dass "nützliche" Optimierungen oder Bugfixes (merke: nicht immer ist ein Bug auch sichtbar!) die keinerlei negative Auswirkungen auf die Bildqualität haben, hiervon eliminiert werden.
Im Bestreben, nVs Cheating zu unterbinden, wird hier zu weit gegangen, insbesondere, da offenbar selbiges bei ATi nicht durchgängig zu gewährleisten ist.
Anzumerken wäre noch, daß unsere 3DMark03-Benchmarks natürlich mit dem Build 330 vorgenommen wurden, welcher von Futuremark eigentlich nur deshalb veröffentlicht wurde, um den Treiber-"Optimierungen" von ATi und nVidia ein Ende zu setzen. Leider hat man bei Futuremark dabei offenbar nicht alle "Optimierungen" von nVidia entdeckt - und die "Optimierungen" im 3DMark2001 offenbar überhaupt nicht.
a) Ein gutes Beispiel für Optimierungen & Ungleichbehandlung, wie oben angesprochen...
b) Wie soll ein Patch für den 3DMark03 Optimierungen für 3DMark2001SE unterbinden?? ;)
[...]nicht den normalen trilinearen Filter ein, sondern offenbar einen prinzipiellen bilinearen Filter mit einem geringen Anteil an trilinearer Filterung, ergo ein pseudo-trilinearer Filter.
Sehr gut!!! Endlich mal jemand, der den Performance-Modus nicht als "bilinear" bezeichnet, sondern korrekt erklärt! Super ! :kicher: (Nein, bin wirklich begeistert davon, da man sich im Forum ja die Tastatur blankschreiben kann, es wird trotzdem jedesmal wieder falsch dargestellt).
Die Applikations-spezifische Optimierung des 3DMark2001 ist allerdings weiterhin in den aktuellen ATi-Treibern enthalten - inklusive der Treiber-Version 03.5 und aller Wahrscheinlichkeit auch der derzeit neuesten Treiber-Version 03.6.
Stop! So nun auch wieder nicht.... im Zweifel für den Angeklagten. Allein das Vorhandensein von Optimierungen in der Vorgängerversion ist nicht hinreichend, auch die aktuellen 3.6er vorzuverurteilen!
Dennoch muß die Frage in den Raum gestellt werden, ob sich diese generelle Optimierung für den anisotropen Filter wirklich "trilinearer Filter" nennen darf und ob das ganze nicht möglicherweise in Richtung unerlaubter Optimierung tendiert. Denn wirklich sauber erscheint diese generelle Optimierungs-Methode zumindestens uns nicht.
ATi nennt dies auch nicht offiziell "trilinearer Filter", sondern Quality-AF, welches nur erzwungen werden sollte, wenn die Applikation selbst keine Möglichkeit zur Einstellung des AF bietet. Wenn sie dies tut, filtert auch ATi korrekt alle Texturstages und wenn sie dies nicht tut, ist es ATis Angelegenheit, wie sie das Quality-AF implementieren.
Dass sie jedoch ab einer gewissen Treiberrevision damit angefangen haben, dem User via CP mögliche Bildqualität vorzuenthalten, wurde an anderer Stelle von anderer Firma schon ziemlich bös' beschrien.
Razor
2003-07-26, 09:35:33
Original geschrieben von Aqualon
Das sagt doch aths gar nicht. Er hat gesagt, dass er sich nicht von anderen vorschreiben lassen will, wie die BQ zu sein hat. Und dieses Vorschreiben wärs ja bei ner generellen BQ-Opferung.
Lies bitte genau, Aqua !
(ist bei aths wirklich wichtig ;-)
Zitat:
BQ zu opfern sollte immer nur ein Angebot sein. Dass ein anderer festlegt, in einer bestimmten Anwendung nicht mehr volle Qualität haben zu können, halte ich für schlicht inakzeptabel.
Insofern meine Frage einzig und alleine darauf zielte, ob das mit der "bestimmten Anwendung" eine bewußte Einschränkung war, das Verhalten von nVidia damit verurteilt (weil er so viel für die ti4600 bezahlte ;-) und das von ATI geduldet wird.
Razor
Quasar
2003-07-26, 09:48:03
Somit gilt es als erwiesen, daß die Applikations-spezifische Optimierung von Unreal Tournament 2003 seitens nVidia eine definitiv schlechtere Bildqualität mit sich bringt, auch wenn der Unterschied recht gering ist.
hm...
Wenn ich mir dann das nV-trilineare Filtering anschaue
http://www.3dcenter.org/artikel/ati_nvidia_treiberoptimierungen/screenshot10.php
und dagegen mal das von ATI
http://www.3dcenter.org/artikel/ati_nvidia_treiberoptimierungen/screenshot24.php
dann frage ich mich, was diese "Artefakte" in den angeblich korrekt trilinear gefilterten Bereichen bedeuten?
Wird da zugunsten der Performance an Textursamples gespart?
edit:
Die zweite URL berichtigt
Aqualon
2003-07-26, 09:49:20
Original geschrieben von Razor
Insofern meine Frage einzig und alleine darauf zielte, ob das mit der "bestimmten Anwendung" eine bewußte Einschränkung war, das Verhalten von nVidia damit verurteilt (weil er so viel für die ti4600 bezahlte ;-) und das von ATI geduldet wird.
Das artet ja schon in Korinthenk... aus. ;)
So wie ich das verstanden habe, bezog sich dass auf die "Optimierung" von Nvidia in UT2003, die so nicht in Ordnung ist, weil sie schlechtere Qualität bietet wie ne FX bieten könnte.
Auf ATI hätte ich das jetzt nicht bezogen, vorallem weil er kein ATI-User ist.
Für mich ist das ATI-Verfahren zwar auch nicht 100%ig in Ordnung, aber akzeptierbar, da der Fall des nur teilweisen trilinearen Filterungs nur dann auftritt, wenn die Game-Programmierer geschlampt haben. Und ausserdem ist es ja per Rtool umgehbar.
Von daher nicht schön, aber auch nichts, wo ich groß Cheat schreien würde.
Aqua
Aqualon
2003-07-26, 10:02:42
Original geschrieben von Quasar
dann frage ich mich, was diese "Artefakte" in den angeblich korrekt trilinear gefilterten Bereichen bedeuten?
Wird da zugunsten der Performance an Textursamples gespart?
Meinst du den Bereich rechts unten wo "Now Viewing Player" steht?
Aqua
LovesuckZ
2003-07-26, 10:11:45
Original geschrieben von Aqualon
Meinst du den Bereich rechts unten wo "Now Viewing Player" steht?
Aqua
Ja, und auch die restlichen komischen Übergaenge.
Sieht man schoen, wenn von Gruen auf Schwarz gewechselt oder (Vergleich zu Nvidia) von Blau in Gruen.
Quasar
2003-07-26, 10:15:11
Ja, z.B.. Diese Artefakte sind überall in den Bereichen der Mip-Übergänge zu finden.
Das ist mir gestern schon aufgefallen, als ich die R9600p einbaute. In 640x480 sieht man extremst. Dasselbe ist mir bei RtCcW auch aufgefallen.
Mad-Marty
2003-07-26, 10:18:34
Original geschrieben von Quasar
Das ist m.E. zu kurz gedacht. Es ist laut Vorodyev auch durchaus möglich, dass "nützliche" Optimierungen oder Bugfixes (merke: nicht immer ist ein Bug auch sichtbar!) die keinerlei negative Auswirkungen auf die Bildqualität haben, hiervon eliminiert werden.
Im Bestreben, nVs Cheating zu unterbinden, wird hier zu weit gegangen, insbesondere, da offenbar selbiges bei ATi nicht durchgängig zu gewährleisten ist.
a) Ein gutes Beispiel für Optimierungen & Ungleichbehandlung, wie oben angesprochen...
b) Wie soll ein Patch für den 3DMark03 Optimierungen für 3DMark2001SE unterbinden?? ;)
Sehr gut!!! Endlich mal jemand, der den Performance-Modus nicht als "bilinear" bezeichnet, sondern korrekt erklärt! Super ! :kicher: (Nein, bin wirklich begeistert davon, da man sich im Forum ja die Tastatur blankschreiben kann, es wird trotzdem jedesmal wieder falsch dargestellt).
Stop! So nun auch wieder nicht.... im Zweifel für den Angeklagten. Allein das Vorhandensein von Optimierungen in der Vorgängerversion ist nicht hinreichend, auch die aktuellen 3.6er vorzuverurteilen!
ATi nennt dies auch nicht offiziell "trilinearer Filter", sondern Quality-AF, welches nur erzwungen werden sollte, wenn die Applikation selbst keine Möglichkeit zur Einstellung des AF bietet. Wenn sie dies tut, filtert auch ATi korrekt alle Texturstages und wenn sie dies nicht tut, ist es ATis Angelegenheit, wie sie das Quality-AF implementieren.
Dass sie jedoch ab einer gewissen Treiberrevision damit angefangen haben, dem User via CP mögliche Bildqualität vorzuenthalten, wurde an anderer Stelle von anderer Firma schon ziemlich bös' beschrien.
Wow, Quasar wird unparteiisch ;-)
Find ich richtig gut.
btw, Warum sind denn heutige Spieleprogrammierer, ja selbst richtige gurus, zu dämlich Antialiasing und Aniso funktionsfähig zu implementieren.
Siehe HL2, den idioten fällt natürlich kurz vor veröffentlichung auf das ihre 1.3er shader nicht mit AA klarkommen.
Clever wärs gewesen wenn sie noch für DX9 karten einen 2.0er shader für die effekte bereitstellen würden - da würden sich sicher viele drüber freuen und sie müssten nicht auf dieses centroid sampling getrickse ausweichen.
Aber nicht nur das, unsere sogenannten Programmierer sind nicht nur zu dämlich AA & AF auswahl einzubauen, geschweige denn selektives AF (man könnte damit wohl extrem leistung sparen ...),
nein, sie scheitern schon an der RefreshRate, wo es immernoch recht oft vorkommt das ein spiel keine Auswahl bietet.
Dafür haben wir aber auch wieder spiele wie TRAOD wo man sich um die thematik gekümmert hat, die allerdings dafür so verbuggt sind das es wieder daneben ist ;-)
Was ich damit sagen will : solange sich die Programmierer kaum um AF/AA/ Refresh kümmern, finde ich dennoch AF optimierungen bei ATi und nvidia ok, (die allgemeinen stage optimierung im speziellen - nur für einen Benchmark kann man da schon von betrug sprechen ....) da sie für verhältnismässig wenig leistung viel qual bieten.
Habe bei nvidia auch immer die stages wegoptimiert. ;-)
Aqualon
2003-07-26, 10:29:44
leicht OT:
Wie zuverlässig ist eigentlich die Anzeige der eingefärbten MipMaps in UT2003? Kann es sein, dass man nen Fehler dem Graka-Treiber anlastet, der aber in Wirklichkeit durch falsches Einfärben seitens der Engine entstanden ist?
Aqua
Demirug
2003-07-26, 10:32:37
Original geschrieben von Quasar
Ja, z.B.. Diese Artefakte sind überall in den Bereichen der Mip-Übergänge zu finden.
Das ist mir gestern schon aufgefallen, als ich die R9600p einbaute. In 640x480 sieht man extremst. Dasselbe ist mir bei RtCcW auch aufgefallen.
9600P = RV350 . Da meldet sich doch mein unterbewustsein. Ich habe gehört das die RV350 Chips auch so eine Art Pseudo Tri beherschen und UT2003 ein Kanidat dafür sein soll. Allerdings von keiner verlässlichen Quelle bestätigt.
Mad-Marty
2003-07-26, 10:32:45
Original geschrieben von Aqualon
leicht OT:
Wie zuverlässig ist eigentlich die Anzeige der eingefärbten MipMaps in UT2003? Kann es sein, dass man nen Fehler dem Graka-Treiber anlastet, der aber in Wirklichkeit durch falsches Einfärben seitens der Engine entstanden ist?
Aqua
durchaus möglich, speziell beim Kyro renderverfahren sind die eingefärbten mip's immer gescheitert.
Demirug
2003-07-26, 10:38:28
Original geschrieben von Mad-Marty
durchaus möglich, speziell beim Kyro renderverfahren sind die eingefärbten mip's immer gescheitert.
Weil die Kyros ein Tri Sample aus nur einer Mip-Map erzeugen. Da kann man die Mipmaps so viel einfärben wie man will man wird den Tri-Filter niemals sehen.
Ich muss aber auch sagen das ich noch nicht so ganz verstanden haben was den nun bei UT2003 wirklich eingefärbt wird. Und in wie fern zum Rendern dann auch andere Pixelshader zu einsatz kommen.
LovesuckZ
2003-07-26, 10:39:36
Original geschrieben von Quasar
Ja, z.B.. Diese Artefakte sind überall in den Bereichen der Mip-Übergänge zu finden.
Diese Artefakte sind auch beim AF vorhanden....
Nvidia - 8AF (http://www.3dcenter.de/artikel/ati_nvidia_treiberoptimierungen/screenshot18.php)
ATi - 8AF (http://www.3dcenter.de/artikel/ati_nvidia_treiberoptimierungen/screenshot25.php)
Quasar
2003-07-26, 11:03:43
Original geschrieben von Demirug
9600P = RV350 . Da meldet sich doch mein unterbewustsein. Ich habe gehört das die RV350 Chips auch so eine Art Pseudo Tri beherschen und UT2003 ein Kanidat dafür sein soll. Allerdings von keiner verlässlichen Quelle bestätigt.
Gehört habe ich davon auch schon, aber dafür soll man ja am Texturregler rumfummeln müssen (meine Screenies sind mit max. Texturqualität entstanden und zeigen dasselbe Bild).
Die Frage ist, auf welchem ATi-Chip Leo die Screens gemacht hat, denn ich denke, dass sich die einzelnen Chips da nicht viel geben oder nehmen.
Seit wann findest du B3D nicht zuverlässig? ;)
Quasar
2003-07-26, 11:07:23
Original geschrieben von Mad-Marty
Wow, Quasar wird unparteiisch ;-)
Find ich richtig gut.
Echt? Kewl, aber groß geändert hab' ich mich eigentlich nicht... ;)
Original geschrieben von Mad-Marty
Habe bei nvidia auch immer die stages wegoptimiert. ;-)
Macht ja auch in vielen Fällen Sinn (auch bei ATi), aber mir geht's eigentlich darum, sowas den User entscheiden zu lassen, wenn er mehr Performance wünscht, soll er's halt selber abschalten (auch bei nV!)
Demirug
2003-07-26, 11:11:34
Original geschrieben von Quasar
Gehört habe ich davon auch schon, aber dafür soll man ja am Texturregler rumfummeln müssen (meine Screenies sind mit max. Texturqualität entstanden und zeigen dasselbe Bild).
Die Frage ist, auf welchem ATi-Chip Leo die Screens gemacht hat, denn ich denke, dass sich die einzelnen Chips da nicht viel geben oder nehmen.
Seit wann findest du B3D nicht zuverlässig? ;)
Falsche Formulierung von mir. Ich meinte damit das es noch keine Bestätigung aus einer zweiten zuverlässigen Quelle gibt.
Crazy_Bon
2003-07-26, 11:14:18
Ich gebe auch mal meinen Senf ab, also es ist doch gaaar nicht so schlimm, dass Nvidia und ATi cheaten...
Aber!! Die Herabsetzung der BQ sollte nicht unter Quality-Settings im Treiber geschehen, das ist eine falsche Bezeichnung und eine Lüge.
"Quality" ist daher nur "Performance", und "Performance" dann "very Performance" quasi.
Alles andere ist arglistige Täuschung.
Quasar
2003-07-26, 11:15:41
Das wäre dann dasselbe, wie es auch schon die RV250 konnten. Schau mal in den Archmark-Thread und suche nach Stefan Paynes RV250, wo er meinte, den Dingern Tri-TMUs attestieren zu können.
Bei Einstellung des Reglers (Texturqualität) von Max-1 konnte schon der RV250 single-cycle "tri-samples" erzeugen.
Trilineares Dithering an sich ist ja nichts neues ;)
RedB@ron
2003-07-26, 11:29:16
ich finde die "optimierungen" in ut2003 sind eigentlich ganz nützlich, da man die minimalen bildqualitätsunterschiede beim spielen wohl eh kaum bemerkt, wohl aber die höhere framerate.
natürlich wäre es besser, es dem user freizustellen ober diese optimierungen haben will, oder ob lieber alles "richtig" dargestellt werden soll. aber prinzipiell finde ich das schon ok.
für benchmarkvergleiche zwischen grakas ist das ganze dann wieder was anderes, weil ja die bedingungen gleich sein sollten.
beim 3dmark ist mir wurst ob der drache mitgerendert wird, oder gar nix. halt nix davon.
mfg
Demirug
2003-07-26, 11:33:02
Original geschrieben von Quasar
Das wäre dann dasselbe, wie es auch schon die RV250 konnten. Schau mal in den Archmark-Thread und suche nach Stefan Paynes RV250, wo er meinte, den Dingern Tri-TMUs attestieren zu können.
Bei Einstellung des Reglers (Texturqualität) von Max-1 konnte schon der RV250 single-cycle "tri-samples" erzeugen.
Trilineares Dithering an sich ist ja nichts neues ;)
Ja wobei wir hier aber ganz klar zwischen "Trilineares Dithering" und "clamped Trilinear" unterscheiden sollten.
Wenn ich dirch richtig verstanden haben vermutest du beim RV250 "Trilineares Dithering"?
Demirug
2003-07-26, 11:36:12
So damit man mal noch was visuelles hat:
NV3X:
UT2003 Qualität gegen normale Qualität
http://demirug.bei.t-online.de/IMAGE/UT2003/UT2003AFCompare1.jpg
UT2003 Qualität gegen normal Leistung
http://demirug.bei.t-online.de/IMAGE/UT2003/UT2003AFCompare2.jpg
Auf der UT Seite (links) ist oben die Stage 0 und darunter Stage 1-7 alles 8xAF
Auf der "normalen" Seiten (rechts) ist oben 8xAF und unten 2xAF
Die grünen streifen sind die Tribändern. In diesem Bereich wird tri gefiltert.
Man erkennt also das die UT-Optimierung ein breiteres Band als der normale Leistungsmodus hat aber nicht voll durchfiltert.
EDIT: Text vergessen :D
Mertsch
2003-07-26, 11:36:59
An die Autoren des Artikels ...
Also erstmal dickes + für die mühe ... was mcih aber noch interessieren würde ... der neue 45.20 is bei 3Dmark2k1SE um einige schelchter als der 44.90
ist das auf entfernen von cheats zurückzuführen oder auf etwas anderes ... zumindest bei einer Ti4200
Quasar
2003-07-26, 11:41:01
Original geschrieben von Demirug
Ja wobei wir hier aber ganz klar zwischen "Trilineares Dithering" und "clamped Trilinear" unterscheiden sollten.
Wenn ich dirch richtig verstanden haben vermutest du beim RV250 "Trilineares Dithering"?
Nein, ich habe nur nicht zwischen den beiden unterschieden. Was der RV250 macht, weiss ich nicht, da ich nur mit höchste Qualitätsstufe getestet habe (und dort IIRC ordentlich trilinear gefiltert wurde).
Die "Entdeckung" mit dem Archmark, nachdem Stefan Payne die TriTMUs postulierte, war eher Zufall, da ich beim einmaligen Durchlaufen ursprgl. vergessen hatte, die OpenGL-Texturqualität von den default Max-1 auf Max zu stellen und mich wunderte, dass es mit den alten Ergebnissen nicht übereinstimmte.
Ich müsste nochmal nachschauen, was der RV250 da genau macht.
Mad-Marty
2003-07-26, 11:43:53
Original geschrieben von Mertsch
An die Autoren des Artikels ...
Also erstmal dickes + für die mühe ... was mcih aber noch interessieren würde ... der neue 45.20 is bei 3Dmark2k1SE um einige schelchter als der 44.90
ist das auf entfernen von cheats zurückzuführen oder auf etwas anderes ... zumindest bei einer Ti4200
Wohl eher was anderes, genaugenommen ist es nvidia typisch das die vorletzte Generation federn lässt bei der optimierung auf die aktuelle.
Kann sein das es zufall ist oder ich mir einbilde das nv damit mehr abstand zur neuen schaffen will, jedenfalls brauchen alle gf4 besitzer nicht mehr auf bessere performance zu hoffen, ausser in bug-ausnahmefällen-
LovesuckZ
2003-07-26, 12:00:36
Original geschrieben von Mad-Marty
Wohl eher was anderes, genaugenommen ist es nvidia typisch das die vorletzte Generation federn lässt bei der optimierung auf die aktuelle.
ich wusste nicht, dass die FX schon zur "vorletzte[n] Generation zaehlt"... :)
@Demirug,
sind diese Artefakte bei ATi eine Hardwarelimitierung?
Demirug
2003-07-26, 12:16:04
Original geschrieben von LovesuckZ
@Demirug,
sind diese Artefakte bei ATi eine Hardwarelimitierung?
sehr schwer zu sagen da ich wie gesagt noch nichtmal genau weiss wie dieses Einfärben abläuft.
Leonidas
2003-07-26, 13:02:23
Original geschrieben von nur ein Gast
Mir geht dieses alberne angebliche gescheate tierisch auf die nerven.
seid doch einfach froh das die games/benchmarks schneller laufen ohne geld dafür zu bezahlen.
auf anderen systemen ist das gang und gäbe treiber für spiele und anwendungen zu optimieren damit sie schneller und sogar stabiler laufen. man sieht den unterschied mit dem blossen auge nicht mal annähernd im 3dmark03 benchmarktest.
ich habe es lieber flüssig anzugucken als das elendige rumgezucke während die demo abläuft, nur weil mal wieder welche rumheulen das es etwas mit cheating anstatt mit optmierung zu tun hat.
durch solche ansteller wie euch zuckt mein benchmarktest nämlich wieder mit meiner radeonkarte.
ATI hört nicht auf solche unreife erwachsenen (unentwickelte) und optimiert mir die treiber wieder, denn die leute hier geben lieber tausende euros aus damit das system schneller rennt.
früher haben alle gejammert das die grafikkarten nicht annähernd ausgereizt werden. heute ist es das gegenteil.
MfG
ich bleibe lieber gast...
Du bist ein bißchen zu warm gebadet worden, richtig?
Warum soll ich froh sein, daß ein Benchmark wie 3DMark03 schneller läuft? Wenn interessiert der 3DMark überhaupt? Kann man den Spielen?
Leonidas
2003-07-26, 13:07:06
Original geschrieben von KiBa
zu NVidia: Anti-Cheat Script benutzen!
Auf keinen Fall! Das AntiCheat-Script zeigt nur an, daß hier Optimierungen vorliegen. Wieviel davon erlaubt und unerlaubt sind, ist nicht feststellbar - man kann diese Optimierungen nur zusammen ein- oder ausschalten.
Das ist bei weitem zu riskant - hier könnte man Sachen disablen, die man gar nicht disablen will. Zudem vertraut man damit völlig auf diese Scripte - was aber in die Hose gehen kann. Für unseren Artikel haben wir die Scripte nur als Hinweis benutzt, daß ist ein Unterschied! Aber nicht für vergleichende Benchmarks!
Klasse Artikel! :up:
Wobei ich hier eh noch keinen Schlechten gelesen habe. :D
Leonidas
2003-07-26, 13:10:22
Original geschrieben von KiBa
Im Artikel kam nicht so recht rüber, dass das Verhalten der ATI Karten korrekt ist, wenn die Anwendung AF einstellt.
Das ist richtig. Aber ehrlicherweise sind mir derzeit nur 3 Spiele bekannt, welche AF wirklich sauber ansteuern können (Sam 1+2 und EF2). Der Rest hat meist nur einen AF-Ein/Aus-Schalter, was lächerlich ist. Insofern gehe ich nicht davon aus, daß derzeit AF vorwiegend über das Spiel selber eingestellt wird, sondern wohl mit übergroßer Mehrheit über das CP.
Letztlich kann sich ATi speziell bei Spielen ohne eigene AF-Einstellung definitiv nicht damit herausretten, daß sie voll trilinear anisotrop filtern würden, wenn es das Spiel so anfordert: Denn bei Spielen ohne eigene AF-Einstellung kann das Spiel nun einmal nix anfordern, damit wird der Treiber zur Maßgabe und zu dem, was zu bewerten ist. Daß dies zudem auf die meisten derzeitigen Spiele zutrifft, erhöht die Bedeutung des CPs noch einmal :-).
Exxtreme
2003-07-26, 13:13:38
Original geschrieben von Leonidas
Das ist richtig. Aber ehrlicherweise sind mir derzeit nur 3 Spiele bekannt, welche AF wirklich sauber ansteuern können (Sam 1+2 und EF2). Der Rest hat meist nur einen AF-Ein/Aus-Schalter, was lächerlich ist. Insofern gehe ich nicht davon aus, daß derzeit AF vorwiegend über das Spiel selber eingestellt wird, sondern wohl mit übergroßer Mehrheit über das CP.
Wobei das früher aber eher ein Notnagel war.
Leider bauen es die Spieleprogrammierer gar nicht ein gerade weil man es per Controlpanel einstellen kann. So spart man sich Arbeit.
*edit*
Original geschrieben von Leonidas
Letztlich kann sich ATi speziell bei Spielen ohne eigene AF-Einstellung definitiv nicht damit herausretten, daß sie voll trilinear anisotrop filtern würden, wenn es das Spiel so anfordert: Denn bei Spielen ohne eigene AF-Einstellung kann das Spiel nun einmal nix anfordern, damit wird der Treiber zur Maßgabe und zu dem, was zu bewerten ist. Daß dies zudem auf die meisten derzeitigen Spiele zutrifft, erhöht die Bedeutung des CPs noch einmal :-).
Es wird wohl eine neue Option in das ATi-CP reinkommen, mit dem man es sich's aussuchen können wird. :)
Leonidas
2003-07-26, 13:13:54
Original geschrieben von Razor
Diese Murkser (und dieser Meinung war ich schon immer !) sind schlicht unfug, da auch hier nur die Aussage getroffen wird, wie eine GraKa bei diesem Bench performt, nicht aber, wie sich das mit realer Spiele-Performance verhält. Allerdings hat der Murks genau diesen Anspruch und ist so per se schlicht überflüssig.
So ist es mir egal, ob ATI ein bissel und nVidia 'ein bissel' mehr darin herum optimiert oder meinetwegen diesen Bench völlig 'zercheatet'. Er ist einfach nur überflüssig und führt dazu, das aufgrund der Ergebnisses dessen schlicht Tatsachen 'verdreht' werden.
Mir ganz ehrlich auch. Eigentlich wollte ich nur meine Benchmark-Spiele durchbenchen. Doch allein wegen der Aussage am Schluß "werft die 3DMarks weg" hab ich diese dann doch mit durchgebencht ;-).
Leonidas
2003-07-26, 13:15:21
Original geschrieben von Razor
P.S.: richtig 'witzig' finde ich, dass die nVidia-Progger an Demirug's AF-Tester gedacht haben... zeigt es doch, dass die Leutz bei nVidia sehr genau wissen, was die Community so veranstaltet...
Fand ich auch ziemlich extrem. Ein Treiber-Cheat nur um einen anderen Cheat zu verdecken. Die sollten bei der CIA anfangen ...
Leonidas
2003-07-26, 13:16:01
Original geschrieben von BlackBirdSR
@Leonidas:
Ich glaube ich weiss warum die ATI Benchmarks im 3DMark2001 mit dem rTool höher waren.
Die Einstellung die durch das rTool verändert wird, sorgt zwar dafür, dass alle Stages gefiltert werden, das AF orientiert sich allerdings ausschließlich am Filtering der Application.
Da 3Dmark2001 ausschließlich Bilineares Filtering einsetzt, wird durch das rTool eben Bi. AF erzwungen.
Die Benchmarks fallen so aus wie es mit Perf. AF der Fall wäre.
Das kann man sehr schön am Nature Bench testen.
Dort sieht man das Bi.AF sehr deutlich, und auch den Frameeinbruch bei Tri AF.
Gute Erklärung. Kommt wohl in einen Nachtrag zum Artikel mit rein.
Leonidas
2003-07-26, 13:18:41
Original geschrieben von Aqualon
@Leonidas:
Die Balken zu 3DMark 03 (44.03) unter http://www.3dcenter.de/artikel/ati_nvidia_treiberoptimierungen/index4.php sind falsch (beide zu lang).
Und auch die Balken bei UT2003 stimmen nicht ganz. UT2003 (44.03) Anticheat ist trotz höherer Werte kürzer als UT2003 (44.65) und der ist trotz gleicher Werte kürzer als UT2003(44.90).
Zwar nur je ein Pixel aber bei genauem hinsehen doch erkennbar ;)
Aqua
Nein, ist korrekt. Alle Benchmarks beziehen sich darauf, daß der originale Treiber-Wert 100% sind. Check die X-Skala!
Exxtreme
2003-07-26, 13:20:04
Original geschrieben von Leonidas
Gute Erklärung. Kommt wohl in einen Nachtrag zum Artikel mit rein.
Ja, die Erklärung ist wirklich gut. Das, was das rTool einstellt ist tri-AF ausser das Spiel fordert was anderes an.
Die neue Version des rTools, die bald rauskommt, wird leicht andere Bezeichnungen haben wobei auch die alten stimmen wenn man den 3DMark ausklammert.
Leonidas
2003-07-26, 13:20:24
Original geschrieben von Quasar
Das ist m.E. zu kurz gedacht. Es ist laut Vorodyev auch durchaus möglich, dass "nützliche" Optimierungen oder Bugfixes (merke: nicht immer ist ein Bug auch sichtbar!) die keinerlei negative Auswirkungen auf die Bildqualität haben, hiervon eliminiert werden.
Im Bestreben, nVs Cheating zu unterbinden, wird hier zu weit gegangen, insbesondere, da offenbar selbiges bei ATi nicht durchgängig zu gewährleisten ist.
Deshalb benutzte ich die Scripte auch ja auch nur als Hinweis und nicht als Beweis! Ok, bis auf die 3DMarks ... aber ansonsten gab es in beiden Fällen noch Screenie-Vergleiche, weil mir klar ist, daß die Scripte unsicher sein können.
Leonidas
2003-07-26, 13:22:38
Original geschrieben von Quasar
a) Ein gutes Beispiel für Optimierungen & Ungleichbehandlung, wie oben angesprochen...
b) Wie soll ein Patch für den 3DMark03 Optimierungen für 3DMark2001SE unterbinden?? ;)
Zu kurz gedacht von Dir. Ich meinte: "Leider hat man bei Futuremark dabei bei dieser Gelegenheit, als man generell die eigenen Benchmarks auf Optimierungen hin überprüfte offenbar nicht alle "Optimierungen" von nVidia entdeckt - und die "Optimierungen" im 3DMark2001 offenbar überhaupt nicht."
Das ein 3DMark03-Patch keine Änderungen für 3DMark2001 mitbringen kann, war für mich so offensichtlich, daß ich dieses Thema nicht so genau ausgeführt habe, wie obenstehend.
Demirug
2003-07-26, 13:25:44
Original geschrieben von Leonidas
Fand ich auch ziemlich extrem. Ein Treiber-Cheat nur um einen anderen Cheat zu verdecken. Die sollten bei der CIA anfangen ...
Wobei man sagen muss das sie gut aufgepasst haben. Die erste öffentliche Version wurde hier im Forum am 7.3 zum Download zur Verfügung gestellt. Im Treiber von 02.05 (44.03) wird er erkannt.
Zu diesem Zeitpunkt war er AFAIK noch nicht über die deutsprachige Grenze hinaus bekannt. Also schöne Grüsse an die nVidia Mitarbeiter die das Forum hier mitlesen. ;)
Leonidas
2003-07-26, 13:27:08
Original geschrieben von Quasar
Stop! So nun auch wieder nicht.... im Zweifel für den Angeklagten. Allein das Vorhandensein von Optimierungen in der Vorgängerversion ist nicht hinreichend, auch die aktuellen 3.6er vorzuverurteilen!
Doch. Denn aufgrund Faulheit und der Tatsache, daß sich dieser Artikel eigentlich nicht um die 3DMarks drehen sollte, habe ich folgende eigentlich logische Erklärung weggelassen:
Normal AntiCheat
03.4 11701 11202
03.5 11729 11212
03.6 11778 ?
Da das Normal-Ergebnis von 03.6 zu den Normal-Ergebnissen von 03.4 und 03.5 gleich ist und ansonsten auch eine sehr hohe Konstanz bei diesem Benchmark zu beobachten ist, sollte das (angenommene) Anti-Cheat Ergebnis von 03.6 auch bei ca. 11200 Pts. liegen, womit auch beim 03.6 eine Differenz zwischen Normal- und AntiCheat liegt.
Leonidas
2003-07-26, 13:29:38
Original geschrieben von Aqualon
da der Fall des nur teilweisen trilinearen Filterungs nur dann auftritt, wenn die Game-Programmierer geschlampt haben.
Das würde ich nicht so sehen. Man muß praktisch konstatieren, daß dies nun einmal in 90% aller Games so ist.
Leonidas
2003-07-26, 13:34:32
Original geschrieben von Mad-Marty
btw, Warum sind denn heutige Spieleprogrammierer, ja selbst richtige gurus, zu dämlich Antialiasing und Aniso funktionsfähig zu implementieren.
Man muß hier auch allerdings folgendes sehen:
Für Refreshraten ist der Treiber zuständig! Warum soll man für jedes Spiel da immer wieder extra was einstellen müssen?! Je nach Auflösung wäre diese Einstellung doch immer gleich - und gehört damit an einen zentralen Punkt, sprich den Treiber.
Bei Anti-Aliasing würde ich mich als Programmierer auch zurückhalten: Da gibt es so viele Chips, die so viele unterschiedliche Arten von AA können - wie will man das alles einbauen. Und was ist mit neu auf den Markt kommenden Chips?
Bei anisotroper Filterung magst Du Recht haben: Hier kann die App einfach nur das Level anfordern, wie das dann gelöst wird, ist Sache des Treibers. Doch auch hier wird weiterhin im Treiber ein genereller Filtermodus festgelegt, wenn dies nicht die App tut. Ich würde als Programmierer hier auch lieber komplett auf den Treiber setzen und im Spiel eine AF-Einstellung weglassen.
Als Benchmarker sind mir sowieso die Einstellungen von AF und AA per Tool oder CP tausendmal lieber, weil schneller realisierbar. Am dummsten sind dann noch Spiele, die selber in diesen Einstellungen herumändern, die mag ich nicht.
Original geschrieben von aths
Ich für mein Teil möchte nicht nur mehr Geschwindigkeit, sondern diese Geschwindigkeit auch, ohne Bildqualität opfern zu müssen.
BQ zu opfern sollte immer nur ein Angebot sein. Dass ein anderer festlegt, in einer bestimmten Anwendung nicht mehr volle Qualität haben zu können, halte ich für schlicht inakzeptabel.
Das unterschreib ich voll und ganz! =)
BTW: Also entweder hatte Leonidas das selbe Wort im Kopf oder wir haben das irgendwo anders gehört, vielleicht wurde es aber auch so schon mal im Forum erwähnt, aber das Wort "Pseudo-trilineare Filterung" bei NV war genau das, was auch ich im Sinn hatte. :D
Wirklich guter Artikel @ Leonidas, Exxtreme und Demirug! (und alle, die sonst noch irgendwie daran beteiligt waren, z.B. die Autoren von rtool, atuner usw.)
Leonidas
2003-07-26, 13:36:44
Original geschrieben von Quasar
Die Frage ist, auf welchem ATi-Chip Leo die Screens gemacht hat, denn ich denke, dass sich die einzelnen Chips da nicht viel geben oder nehmen.
Selber Chip, der in den Benchmarks benutzt wurde: R300 auf R9700Pro.
Quasar
2003-07-26, 13:38:23
Ok, keine weiteren Einwände von mir :)
Daß ich den Artikel gut fand, brauch' ich ja wohl nicht extra zu erwähnen, bzw. hab' es ja schon impliziert...
Leonidas
2003-07-26, 13:42:35
Original geschrieben von Demirug
Also schöne Grüsse an die nVidia Mitarbeiter die das Forum hier mitlesen. ;)
Feind liest mit!
PS: Nicht angegriffen fühlen, liebe nVidia-Mitarbeiter, ist nur ein harmloser Gag.
Demirug
2003-07-26, 13:46:25
Original geschrieben von Leonidas
Man muß hier auch allerdings folgendes sehen:
Für Refreshraten ist der Treiber zuständig! Warum soll man für jedes Spiel da immer wieder extra was einstellen müssen?! Je nach Auflösung wäre diese Einstellung doch immer gleich - und gehört damit an einen zentralen Punkt, sprich den Treiber.
Ja, es macht bei 3d Spielen keinen Sinn es bei jedem Spiel wieder einzustellen.
Bei Anti-Aliasing würde ich mich als Programmierer auch zurückhalten: Da gibt es so viele Chips, die so viele unterschiedliche Arten von AA können - wie will man das alles einbauen. Und was ist mit neu auf den Markt kommenden Chips?
Mhm das wurde ja bei DX9 für die programmier so weit vereinfacht das man einfach nur noch einen Schieberegler einbauen muss von kein AA bis maximale Qualität. Die Anzahl der zwischenschritte teilt der Treiber mit. Das sollte bis in alle Ewigkeit funktionieren.
Bei anisotroper Filterung magst Du Recht haben: Hier kann die App einfach nur das Level anfordern, wie das dann gelöst wird, ist Sache des Treibers. Doch auch hier wird weiterhin im Treiber ein genereller Filtermodus festgelegt, wenn dies nicht die App tut. Ich würde als Programmierer hier auch lieber komplett auf den Treiber setzen und im Spiel eine AF-Einstellung weglassen.
Aus sicht der Faulheit gebe ich dir recht aber aus der Sicht der Performance ist es eine schlechte Idee die Fillrate mit der Gieskanne auf alle Texturen zu verteilen. Jede Texture profitiert unterschiedlich gut vom AF und tri.
Als Benchmarker sind mir sowieso die Einstellungen von AF und AA per Tool oder CP tausendmal lieber, weil schneller realisierbar. Am dummsten sind dann noch Spiele, die selber in diesen Einstellungen herumändern, die mag ich nicht.
Zweischneidiges Schwert. Man sollte wählen können ob das Spiel seine eigenen einstellungen nimmt oder die aus dem Panel übernimmt.
Mad-Marty
2003-07-26, 13:53:43
Original geschrieben von Leonidas
Man muß hier auch allerdings folgendes sehen:
Für Refreshraten ist der Treiber zuständig! Warum soll man für jedes Spiel da immer wieder extra was einstellen müssen?! Je nach Auflösung wäre diese Einstellung doch immer gleich - und gehört damit an einen zentralen Punkt, sprich den Treiber.
Bei Anti-Aliasing würde ich mich als Programmierer auch zurückhalten: Da gibt es so viele Chips, die so viele unterschiedliche Arten von AA können - wie will man das alles einbauen. Und was ist mit neu auf den Markt kommenden Chips?
Bei anisotroper Filterung magst Du Recht haben: Hier kann die App einfach nur das Level anfordern, wie das dann gelöst wird, ist Sache des Treibers. Doch auch hier wird weiterhin im Treiber ein genereller Filtermodus festgelegt, wenn dies nicht die App tut. Ich würde als Programmierer hier auch lieber komplett auf den Treiber setzen und im Spiel eine AF-Einstellung weglassen.
Als Benchmarker sind mir sowieso die Einstellungen von AF und AA per Tool oder CP tausendmal lieber, weil schneller realisierbar. Am dummsten sind dann noch Spiele, die selber in diesen Einstellungen herumändern, die mag ich nicht.
Leonidas, da bin ich anderer meinung, laut MS DX programming guides gehört es zur app, das sie das window erstellt, und damit auch Auflösung, Farbtiefe und RefreshRate anfordert (afaik).
Die Idee ist ja nicht schlecht, und bei 9x hat es ja wunderbar geklappt (3D Refreshrate = 2D Refreshrate) aber wie gesagt, es ist von ms definiert das die app das festlegt.
Ahem, der Programmierer der dem Treiber nicht mitteilen kann er solle jetzt dieses AA tun, ist schlicht und ergreifend unfähig !
ER soll nicht alle einbauen, aber MultiSampling slider von 2x-6x wäre wohl kein unendlich grosses hindernis, odeR ?
zum AF: Nein, das ist genau das, was uns die scheiss bugs beschert, frei nach dem motto "Wozu sollen wir das testen, wird schon irgendwie vom treiber funktionieren - naja gehen halt 30% performance verloren ... wer AF will braucht halt ne schnelle GraKa"
Ich will ja auch nur das jede app sliders / auswahlfelder bekommt.
Dann kann man je nach app seine Qualität definieren.
Aqualon
2003-07-26, 14:12:26
Original geschrieben von Leonidas
Nein, ist korrekt. Alle Benchmarks beziehen sich darauf, daß der originale Treiber-Wert 100% sind. Check die X-Skala!
Ok, dann hab ich das falsch interpretiert. Ich hab die 100% auf den Maximalwert innerhalb eines Benchmarks bezogen und nicht auf den Maximalwert innerhalb einer Treiberversion.
Aqua
Leonidas
2003-07-26, 14:14:13
Mmh.
Zu AA: Wenn, dann würde ich als Programmierer zwingend alle vorhandenen Modi einbauen wollen, also auch 4xSS, egal ob nutzvoll. Wenn das geht, würde ich es tun - wenn nicht, würde ich es auch komplett lassen.
zu AF: Ok, sehe ich ein. Ergo sollte man bei Spielen, welche AF selber erzwingen können (mit Anwahl des Levels!) dies auch über das Spiel selber nutzen.
Andererseites: Wieviele der Leute, die AF generell nutzen (wie ich), bemühen umständlich die Settings eines Spiels, wenn im CP sowieso schon 8xAF für alles eingestellt ist?! Wenn man generell überall Af nutzt und jetzt für ein spezielles Spiel das Spiel-eigene AF nutzen will, muß man ja das AF generell deaktivieren, damit das Spiel-eigene AF zum tragen kommt?! Wäre höchst unpraktikabel.
Razor
2003-07-26, 14:16:30
Original geschrieben von Aqualon
Das artet ja schon in Korinthenk... aus. ;)
So wie ich das verstanden habe, bezog sich dass auf die "Optimierung" von Nvidia in UT2003, die so nicht in Ordnung ist, weil sie schlechtere Qualität bietet wie ne FX bieten könnte.
Auf ATI hätte ich das jetzt nicht bezogen, vorallem weil er kein ATI-User ist.
Für mich ist das ATI-Verfahren zwar auch nicht 100%ig in Ordnung, aber akzeptierbar, da der Fall des nur teilweisen trilinearen Filterungs nur dann auftritt, wenn die Game-Programmierer geschlampt haben. Und ausserdem ist es ja per Rtool umgehbar.
Von daher nicht schön, aber auch nichts, wo ich groß Cheat schreien würde.
Aqua
Der Artikel hat doch sehr schön heraus gestellt, dass ATI die so verwerfliche Quali von nVidia 'einfach so' erreicht, also ironischer Weise damit beide Karten schon wieder vergleichbar sind.
Und nun kommst Du und sagst, dass das bei nVidia verwerflich und bei ATI OK ist ?
Benenne die UT2003.EXE einfach um, und Du bekommst allerfeinste trilineare Filterung.
KEIN Registery-Hack oder ähnliches notwendig...
Sorry, aber für mich habe hier beide 'Dreck' am Stecken.
nVidia in diesem Fall, ATI ganz allgemein bei aktiviertem AF.
Und ich denke, dass sich aths wohlweißlich in dieser Form ausdrückte...
Razor
Exxtreme
2003-07-26, 14:17:31
Original geschrieben von Leonidas
Als Benchmarker sind mir sowieso die Einstellungen von AF und AA per Tool oder CP tausendmal lieber, weil schneller realisierbar. Am dummsten sind dann noch Spiele, die selber in diesen Einstellungen herumändern, die mag ich nicht.
Gebe ich dir recht. Nur bei den Spielen, die die Render-to-texture-Technik nutzen um Full-Screen-Effekte zu realisieren, bekommst du Schwierigkeiten wenn du AA per Treiber erzwingst.
Demirug
2003-07-26, 14:21:20
Original geschrieben von Leonidas
Mmh.
Zu AA: Wenn, dann würde ich als Programmierer zwingend alle vorhandenen Modi einbauen wollen, also auch 4xSS, egal ob nutzvoll. Wenn das geht, würde ich es tun - wenn nicht, würde ich es auch komplett lassen.
Man kann nur die Modis unterstützen die der Treiber zur verfügung stellt. Aber dann im Prinzip alle.
zu AF: Ok, sehe ich ein. Ergo sollte man bei Spielen, welche AF selber erzwingen können (mit Anwahl des Levels!) dies auch über das Spiel selber nutzen.
Andererseites: Wieviele der Leute, die AF generell nutzen (wie ich), bemühen umständlich die Settings eines Spiels, wenn im CP sowieso schon 8xAF für alles eingestellt ist?! Wenn man generell überall Af nutzt und jetzt für ein spezielles Spiel das Spiel-eigene AF nutzen will, muß man ja das AF generell deaktivieren, damit das Spiel-eigene AF zum tragen kommt?! Wäre höchst unpraktikabel.
Deaktivieren ist normal nicht notwendig. Die Treiber sind in der Regel so gebaut das solange die Applikation AF nicht anfordert gilt die Panel einstellung. Wird aber AF angefordert übernimmt die Applikation die Kontrolle.
Demirug
2003-07-26, 14:23:21
Original geschrieben von Razor
Der Artikel hat doch sehr schön heraus gestellt, dass ATI die so verwerfliche Quali von nVidia 'einfach so' erreicht, also ironischer Weise damit beide Karten schon wieder vergleichbar sind.
Und nun kommst Du und sagst, dass das bei nVidia verwerflich und bei ATI OK ist ?
Benenne die UT2003.EXE einfach um, und Du bekommst allerfeinste trilineare Filterung.
KEIN Registery-Hack oder ähnliches notwendig...
Sorry, aber für mich habe hier beide 'Dreck' am Stecken.
nVidia in diesem Fall, ATI ganz allgemein bei aktiviertem AF.
Und ich denke, dass sich aths wohlweißlich in dieser Form ausdrückte...
Razor
Razor wenn man die Exe bei UT 2003 umbenennt läuft es irgendwie nicht mehr.
Leonidas
2003-07-26, 14:24:46
Original geschrieben von Demirug
Razor wenn man die Exe bei UT 2003 umbenennt läuft es irgendwie nicht mehr.
Jap. Ist ein großes Problem, da es so nicht möglich ist, bei NV & UT2003 eine volltrilineare Filterung hinzubekommen.
Razor
2003-07-26, 14:27:20
Original geschrieben von Exxtreme
Leider bauen es die Spieleprogrammierer gar nicht ein gerade weil man es per Controlpanel einstellen kann. So spart man sich Arbeit.
Wus ?
Hast Du Dir den Config-Dialog von SS mal angeschaut ?
Damit sind selbst erfahrene Gamer hoffnungslos überfordert !
DAS ist der einzige Grund, warum das nicht eingebaut wird und wenn überhaupt nur über 'ne INI eingesetellt werden kann.
Razor
Exxtreme
2003-07-26, 14:30:32
Original geschrieben von Razor
Wus ?
Hast Du Dir den Config-Dialog von SS mal angeschaut ?
Damit sind selbst erfahrene Gamer hoffnungslos überfordert !
DAS ist der einzige Grund, warum das nicht eingebaut wird und wenn überhaupt nur über 'ne INI eingesetellt werden kann.
Razor
Komm schon Razor,
SerSam (politisch korrekter :D ) ist eine Ausnahme. Und ich denke nicht, daß die Zocker mit zwei Slidern (AA + AF) überfordert wären. Die möglichen Modi kann man per DX-Caps abfragen und diese dann zur Verfügung stellen.
Razor
2003-07-26, 14:41:53
Original geschrieben von Demirug
Razor wenn man die Exe bei UT 2003 umbenennt läuft es irgendwie nicht mehr.
Echt ?
Hab's noch nicht ausprobiert...
*ausprobier*
Hmmm... stimmt...
:D
Razor
P.S.: Los, tommti, her mit dem neuen 3DA !!!
Razor
2003-07-26, 14:46:02
Original geschrieben von Exxtreme
Komm schon Razor,
SerSam (politisch korrekter :D ) ist eine Ausnahme. Und ich denke nicht, daß die Zocker mit zwei Slidern (AA + AF) überfordert währen. Die möglichen Modi kann man per DX-Caps abfragen und diese dann zur Verfügung stellen.
Das mit der 'political correctness'... OK !
;-)
Vielleicht fällt es den Entwicklern mit DX9 ja jetzt einfacher, den Benutzern so etwas wie automatisch und mit dem Treiber korrelierende 'Slider' zuzumuten.
Razor
Mad-Marty
2003-07-26, 14:56:54
Original geschrieben von Razor
Das mit der 'political correctness'... OK !
;-)
Vielleicht fällt es den Entwicklern mit DX9 ja jetzt einfacher, den Benutzern so etwas wie automatisch und mit dem Treiber korrelierende 'Slider' zuzumuten.
Razor
Razor, ich habe SerSam nicht als zumutung empfunden, imho eines der wenigen spiele die einen auch alles setzen lässt ohne notepad anzuwerfen !!!
Desweiteren sind 2 dropdown listen für AA & AF grad nun wirklich nicht zuviel verlangt.
Naja jedenfalls find ich das PS design schon ganz schön dämlich, das das mit AA auf probleme stösst, quasi sich gegenseitig behindernde features ....
foenfrisur
2003-07-26, 15:25:40
Original geschrieben von Raver
Nachdem Artikel bin ich doch froh wieder Nvidia Graka gekauft zu haben....
wie kann man denn sowas verstehen...
hast du dir den artikel überhaupt durchgelesen??
die optimierung bei ati kosten so gut wie nix an bildquali...bei nv siehts doch viel schlechter aus oder wie??
da bin ich doch lieber froh ne ati zu haben...
aber egeal...
mfg
Exxtreme
2003-07-26, 15:26:35
Original geschrieben von Razor
Das mit der 'political correctness'... OK !
;-)
Vielleicht fällt es den Entwicklern mit DX9 ja jetzt einfacher, den Benutzern so etwas wie automatisch und mit dem Treiber korrelierende 'Slider' zuzumuten.
Razor
AFAIK war das schon mit DX7 möglich. :)
Die Programmierer sind schlicht zu faul oder unfähig diese Einstellungsmöglichkeiten einzubauen. :(
Quasar
2003-07-26, 15:29:32
Original geschrieben von Mad-Marty
Naja jedenfalls find ich das PS design schon ganz schön dämlich, das das mit AA auf probleme stösst, quasi sich gegenseitig behindernde features ....
Wie? Ich denke, mittels der PS2.0 gibt es eine Möglichkeit, das MSAA doch noch mit "centroid Sampling" zum laufen zu kriegen?
Kannst du mir das mal näher erklären?
foenfrisur
2003-07-26, 15:30:14
Original geschrieben von Aqualon
Das artet ja schon in Korinthenk... aus. ;)
So wie ich das verstanden habe, bezog sich dass auf die "Optimierung" von Nvidia in UT2003, die so nicht in Ordnung ist, weil sie schlechtere Qualität bietet wie ne FX bieten könnte.
Auf ATI hätte ich das jetzt nicht bezogen, vorallem weil er kein ATI-User ist.
Für mich ist das ATI-Verfahren zwar auch nicht 100%ig in Ordnung, aber akzeptierbar, da der Fall des nur teilweisen trilinearen Filterungs nur dann auftritt, wenn die Game-Programmierer geschlampt haben. Und ausserdem ist es ja per Rtool umgehbar.
Von daher nicht schön, aber auch nichts, wo ich groß Cheat schreien würde.
Aqua
dem kann ich mich bloß komentarlos anschliessen, genau wie dem hübschen bild von dir ;)
mfg
Demirug
2003-07-26, 15:32:06
Original geschrieben von Quasar
Wie? Ich denke, mittels der PS2.0 gibt es eine Möglichkeit, das MSAA doch noch mit "centroid Sampling" zum laufen zu kriegen?
Kannst du mir das mal näher erklären?
"centroid Sampling" geht erst ab PS 3.0. Man kann sich mit den PS 2.0 aber in bestimmten Grenzen dieses Feature nachbauen. Für das AA Problem bei HL2 aber aureichend.
Quasar
2003-07-26, 15:38:41
JA, soweit die Lösung, aber inwieweit jetzt der Pixelshader für das Problem bei HL2 verantwortlich sein soll, erschliesst sich mir nicht.
foenfrisur
2003-07-26, 15:40:13
aber was is denn an einer "af-optimierung" so schlimm, wenn man keine bildquali opfert???
WIRKLICH NICHTS!!!
wie ich finde...wieso auch?? es bekommt doch keiner mit...das bei nvidia doch schon oder was...??
es wird doch überall optimiert und in allen möglichen bereichen...
das wichtigste is doch hierbei nur, das man die entscheidenden aspekte nicht verschlechtert und das ist ati doch bestens gelungen oder watt??
mfg
Exxtreme
2003-07-26, 16:00:03
Original geschrieben von Leonidas
Mmh.
Zu AA: Wenn, dann würde ich als Programmierer zwingend alle vorhandenen Modi einbauen wollen, also auch 4xSS, egal ob nutzvoll. Wenn das geht, würde ich es tun - wenn nicht, würde ich es auch komplett lassen.
Der Programmierer kann nur die Modi einbauen, die der Treiber meldet. Alles andere wäre ins Blaue schießen und es könnte sein, daß es nicht funktioniert.
Quasar
2003-07-26, 16:14:12
Original geschrieben von foenfrisur
aber was is denn an einer "af-optimierung" so schlimm, wenn man keine bildquali opfert???
WIRKLICH NICHTS!!!
Nein, da hast du recht.
Original geschrieben von foenfrisur
wie ich finde...wieso auch?? es bekommt doch keiner mit...das bei nvidia doch schon oder was...??
es wird doch überall optimiert und in allen möglichen bereichen...
das wichtigste is doch hierbei nur, das man die entscheidenden aspekte nicht verschlechtert und das ist ati doch bestens gelungen oder watt??
mfg
Nein, da hast du nicht recht. Klar kriegen es Leute mit, mir ist's einmal sogar während eines laufenden Timedemos vom Antalus Botmatch ins Auge gefallen.
Und auch Leonidas schrieb:
Sieht man auf den Rand zum Abgrund ziemlich am rechten Rand des Abgrundes, so sind zwischen beiden Bilder minimale Differenzen zugunsten des rTool-Screenshots zu sehen. Da alle anderen von uns aufgenommen Screenshots inklusive jener mit eingefärbten MipMaps jedoch keine weiteren Unterschiede aufzeigten, kann man grob davon sprechen, daß es wohl keinen Bildqualitäts-Unterschied bezüglich statischer Elemente zwischen der bilinearen/trilinearen anisotropen Filterung per Control Panel und der reinen trilinearen anisotropen Filterung per rTool gibt. Davon ausgenommen ist natürlich der Effekt des Mip-Bandings, welcher sich nur in Bewegung zeigen kann.
(meine Hervorhebung)
Aqualon
2003-07-26, 16:14:57
Im Prinzip hat sich doch nur gezeigt, dass beide standardmäßig nicht die Qualität liefern, die sie optimal gesehen liefern könnten.
Was in dem Fall jetzt besser ist oder schlechter kann und will ich anhand von ein paar eingefärbten Screenshots nicht beurteilen (und das war ja auch nicht das Ziel des Artikels).
Aqua
LovesuckZ
2003-07-26, 17:03:24
Original geschrieben von Aqualon
Im Prinzip hat sich doch nur gezeigt, dass beide standardmäßig nicht die Qualität liefern, die sie optimal gesehen liefern könnten.
Nein, das ist so nicht richtig. In 99% erreicht nvidia die bestmoegliche Qualitaet, die man mit der Karte erreichen kann ohne ein externes Tool zu benutzen.
Bei ATi sind es max. 20% (OpenGL Games und Spiele, wo man AF einstellen kann).
Leonidas
2003-07-26, 17:30:38
Original geschrieben von LovesuckZ
Bei ATi sind es max. 20% (OpenGL Games und Spiele, wo man AF einstellen kann).
Da ATi auch unter OGL genauso filtern dürfte (bei ATi gab es bisher nie einen Unterschied zwischen OGL und D3D), dürften diese Aussagen auch für OGL gelten ...
LovesuckZ
2003-07-26, 17:47:45
Original geschrieben von Leonidas
Da ATi auch unter OGL genauso filtern dürfte (bei ATi gab es bisher nie einen Unterschied zwischen OGL und D3D), dürften diese Aussagen auch für OGL gelten ...
Nope, diese AF Optimierung gilt nur für D3D Applicationen.
Original geschrieben von Razor
Lies bitte genau, Aqua !
(ist bei aths wirklich wichtig ;-)Aqua hat genau gelesen.
Mad-Marty
2003-07-26, 18:17:27
Original geschrieben von Quasar
Wie? Ich denke, mittels der PS2.0 gibt es eine Möglichkeit, das MSAA doch noch mit "centroid Sampling" zum laufen zu kriegen?
Kannst du mir das mal näher erklären?
Aber ist denn bei der definition von 1.1, 1.3, 1.4, 2.0 niemand aufgefallen das das mit AA kollidiert ?
EDIT : Antwort removed, da Demirug schon geantwortet hat ...
EDIT2 :
Das Problem, ist wohl, wenn ich es richtig verstanden habe, das der Pixelshader die Polygonkanten in verbindung mit AA ändert oder sowas, jedenfalles würde das dann weisse randartefakte hervorrufen.
Ich glaube dazu sagt Demirug & co besser was.
Demirug
2003-07-26, 18:24:16
Original geschrieben von Mad-Marty
Aber ist denn bei der definition von 1.1, 1.3, 1.4, 2.0 niemand aufgefallen das das mit AA kollidiert ?
Das hat nichts mit den PS zu tun. Das Problem tritt auch bei der Verwendung der DX7 Pipeline oder mit jeder anderen Render-API auf. Valve hat sich das Ei selbst gelegt indem sie eine Render-Technik einsetzten die nicht mit MSAA kompatibel ist.
EDIT: Das hatten wir aber alles schon zu genüge dort: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=83025
Quasar
2003-07-26, 18:29:13
...danke.
Und Centroid-Sampling ist eine Möglichkeit, diese Problem zu umgehen. Da dieses aber PS3.0-Spec ist, es die R3xx-Karten aber schon unterstützen könnten, reicht hier ein Treiberupdate, der dieses Cap verfügbar macht.
Bei nV2x+ ist es möglich, diese Geschichte via PS2.0 zu umgehen, dummerweise eben auf Kosten der ohnehin schon nicht berauschenden Pixelshader-Gesamtleistung der nV3x-Reihe.
Ein Chelm, wer pöses dapei tenkt!
Demirug
2003-07-26, 18:35:20
Original geschrieben von Quasar
...danke.
Und Centroid-Sampling ist eine Möglichkeit, diese Problem zu umgehen. Da dieses aber PS3.0-Spec ist, es die R3xx-Karten aber schon unterstützen könnten, reicht hier ein Treiberupdate, der dieses Cap verfügbar macht.
Bei nV2x+ ist es möglich, diese Geschichte via PS2.0 zu umgehen, dummerweise eben auf Kosten der ohnehin schon nicht berauschenden Pixelshader-Gesamtleistung der nV3x-Reihe.
Ein Chelm, wer pöses dapei tenkt!
Nix Cap Quasar:
Die Fähigekeit "Centroidsample" ist ein PS 3.0 Pflicht-Feature das aber nicht für PS 2.x über ein Capbit gemeldet werden kann. Da hat ATI wohl MS nicht genügend bearbeitet.
Exxtreme
2003-07-26, 18:40:03
Original geschrieben von Demirug
Da hat ATI wohl MS nicht genügend bearbeitet.
Die Buchstaben a und b sind zwar schon verbraucht aber es sind noch sooo viele übrig. ;)
Demirug
2003-07-26, 18:46:02
Original geschrieben von Exxtreme
Die Buchstaben a und b sind zwar schon verbraucht aber es sind noch sooo viele übrig. ;)
Nein so funktioniert das hier leider nicht. 2_a und 2_b sind nur profile für den Shadercompiler. Will man zusätzliche Features für 2.X ergänzen muss die DX-Runtime + SDK + DDK geändert werden. Dafür wäre DX 9.1 notwendig.
Exxtreme
2003-07-26, 18:46:45
Original geschrieben von Demirug
Nein so funktioniert das hier leider nicht. 2_a und 2_b sind nur profile für den Shadercompiler. Will man zusätzliche Features für 2.X ergänzen muss die DX-Runtime + SDK + DDK geändert werden. Dafür wäre DX 9.1 notwendig.
Eigentlich meinte ich DX9c... DX9d... aber egal. :D
Demirug
2003-07-26, 18:49:30
Original geschrieben von Exxtreme
Eigentlich meinte ich DX9c... DX9d... aber egal. :D
Gleiche Spiel. Ändert sich nur der Buchstabe hinter der Nummer wird am D3D SDK und DDK nichts verändert weil dafür eine neue Nummer erforderlich ist. Die Buchstaben geben nur den Stand der Runtime an (Bugfixes, Performance).
Quasar
2003-07-26, 18:51:21
Original geschrieben von Demirug
Nix Cap Quasar:
Die Fähigekeit "Centroidsample" ist ein PS 3.0 Pflicht-Feature das aber nicht für PS 2.x über ein Capbit gemeldet werden kann. Da hat ATI wohl MS nicht genügend bearbeitet.
Kann nicht = darf nicht?
D.H., man müsste im Treiber von ATi eine böse, applikationsspezifische Optimierung einbauen? ;)
Razor
2003-07-26, 18:51:56
Original geschrieben von Mad-Marty
Razor, ich habe SerSam nicht als zumutung empfunden, imho eines der wenigen spiele die einen auch alles setzen lässt ohne notepad anzuwerfen !!!
Desweiteren sind 2 dropdown listen für AA & AF grad nun wirklich nicht zuviel verlangt.
Ich schon... vor allem, wenn man vergleichbare Ergebnisse erzielen möchte und dann so 60 Parameter überprüfen muss. Die beiden Dropdown-Listen sind wirklich nicht schlimm, wenn man sie erst einmal gefunden hat...
:D
Original geschrieben von Mad-Marty
Naja jedenfalls find ich das PS design schon ganz schön dämlich, das das mit AA auf probleme stösst, quasi sich gegenseitig behindernde features ....
Wie bitte ?
Du spielst jetzt auf das AA-Problem bei HL2 an ?
Das liegt wohl einzig und allein an der Dämlichkeit der Progger, die nicht in der Lage waren, dieses Feature - obwohl es ja nun schon fast 3 Jahre existiert - mit ihrer neuen Engine zu testen. Schließlich gibt es per se unter DX8 (!) keine Möglichkeit, dieses normal zu bewerkstelligen. Und hätten sie auf PS2.0 gesetzt (was sicherlich noch größerer Unsinn gewesen wäre) gäbe es gar keine Probleme.
Ergo: API OK, GraKa's OK, Treiber OK, Spiele-Engine scheiße !
:D
Razor
Demirug
2003-07-26, 18:58:52
Original geschrieben von Quasar
Kann nicht = darf nicht?
D.H., man müsste im Treiber von ATi eine böse, applikationsspezifische Optimierung einbauen? ;)
2.0 und 2.X wird bei DX 9 niemals centroid sampling offiziel unterstüzen.
ATI wird also entweder HL2 erkennen müssen oder eine Lücke in der DX Spec suchen die sie nutzen können um eine Austausch der information welche Texture Centroid sampling braucht durchzuführen. Es einfach für alle Texturen einzuschalten ist nämlich keine gute Idee.
Razor
2003-07-26, 19:00:49
Original geschrieben von Quasar
D.H., man müsste im Treiber von ATi eine böse, applikationsspezifische Optimierung einbauen? ;)
So habe ich das jetzt auch verstanden...
Ergo:
Valve baut ein Game, bei welchen (MS)AA nicht funktioniert, bzw. nach DX-Specs gar nicht funktionieren kann. ATI hat da aber ein Feature, welches aufgrund der sonst ungenügenden Features nicht an die API gemeldet werden kann. Nun baut ATI eine 'Optimierung' in den Treiber, der dann wieder (MS)AA ermöglicht (und vermutlich noch eine Menge anderer Schmuddelleien tut ;-).
Da hat Valve mal richtigen Bockmist gebaut, würd' ich sagen !
(ob absichtlich oder nicht, lassen wir jetzt mal dahin gestellt)
:down:
Razor
Gast_Troll ;)
2003-07-26, 19:04:47
Toller Artikel;
stellt die Probleme wirklich gut dar. Hochachtung! Besser als 95% von dem was man auf anderen Seiten lesen kann. Wann kommt die englische Version? [ Ich weiß, das das bei euch problematisch ist, aber dieser Artikel hat es wirklich verdient ]. Außerdem wenn Nvidia schon das Forum liest und Demirugs Test-Utility so nett berücksichtigt, dann sollte man ihnen auch einen netten Artikel gönnen ;D
Für mich ist hier die R9700Pro überraschend die "Siegerin" im Vergleich. Mit rTool und unter UT2003 ist die Karte in den Flybys um ca. 15% schneller als die FX5800Ultra incl. AntiCheat. Respekt. Ich hatte erwartet, das die Karte mit 100%igem Tri-AF wesentlich schlechter abschneidet. ( Ich hab dafür einfach alle fps zusammengezählt und durch die Anzahl der Flyby-Benches geteilt ;) )
Gast_Troll ;)
2003-07-26, 19:10:52
Original geschrieben von Quasar
Kann nicht = darf nicht?
D.H., man müsste im Treiber von ATi eine böse, applikationsspezifische Optimierung einbauen? ;)
Wird wohl so sein. ATi arbeitet ja anscheinend schon daran. Zumindest die Mac-Treiber haben bereits SSAA(!) und Anwendungs-Spezifische Einstellungen, die über das CP geändert werden können. So ähnlich macht das ja auch Matrox.
Finde ich gut. Wesentlich besser als das ganze irgendwo im Treiber zu verstecken.
Razor
2003-07-26, 19:23:17
Original geschrieben von Gast_Troll ;)
Toller Artikel;
<...>
Für mich ist hier die R9700Pro überraschend die "Siegerin" im Vergleich. Mit rTool und unter UT2003 ist die Karte in den Flybys um ca. 15% schneller als die FX5800Ultra incl. AntiCheat. Respekt. Ich hatte erwartet, das die Karte mit 100%igem Tri-AF wesentlich schlechter abschneidet. ( Ich hab dafür einfach alle fps zusammengezählt und durch die Anzahl der Flyby-Benches geteilt ;) )
Du hättest echt besser lesen müssen, Troll...
Es ging hier nicht um einen GraKa-Vergleich, sondern einfach um bestimmte Fakten. Auch zweifelte man an, dass sowohl auf nVidia's wie auch (und vor allem) auf ATI's Seite alle Optimierungen deaktiviert wurden und das u.U. auch gar nicht gewünscht ist.
Bei dem Test ist einzig und alleine heraus gekommen, dass die Murkser endgültig nicht mehr zum Vergleich unterschiedlicher Hardware heran gezogen werden sollten und die BQ unter UT2003 bei beiden Kontrahenten so dermaßen mies ist, dass diese (ohne AntiCheat !) schon fast wieder verglichen werden können. Oder man machts wie mit den Murksern: einfach weglassen...
Ich hoffe, dass dies nun klarer für Dich wurde. Ansonsten bitte ich Dich, Dir zumindest die Einleitung und auch den Schlußsatz vollständig zu lesen un nicht nur die hübschen Bildchen anzustarren !
:D
Razor
Leonidas
2003-07-26, 19:48:40
Original geschrieben von Gast_Troll ;)
[ Ich weiß, das das bei euch problematisch ist, aber dieser Artikel hat es wirklich verdient ].
Alle unsere Versuche mit englischen Übersetzungen haben gezeigt, daß es das nicht bringt. Man kann den deutschen Link in diversen englischen Foren posten, das bringt wesentlich mehr als eine regelrechte englische Übersetzung, die leider keine der englischsprachigen Seiten beachtet.
Wenn ich jetzt Zeit hätte, würde ich wirklich eine Tour durch die englischen Foren machen und versuchen, den Link publik zu machen. Diese Information muß geshart werden! Aber Zeit hab ich dato leider keine ...
PS @ Razor: War Deine Antwort nicht "etwas" brutal?
Ich halte den Sinn von Benchmarks generell irgendwie ad absurdum geführt. Eigentlich sollten man sowas blockieren. Denn ich kauf meine Grafikkarte doch nach Leistung - der Leistung der HARDWARE. Was die Treiber draus machen, ist zwar wichtig, aber beim Vergleich eigentlich mehr oder weniger egal.
Und was da nVidia und ATi abziehen, ist irgendwie frech. Mal ne Frage: Könnt ihr das auch mal mit anderen Grafikkarten machen? Vielleicht gibt's ja auch Tweaks seitens Matrox, PowerVR, SIS, VIA und Intel.
Darüber würd ich mich mal freuen.
-huha
Aqualon
2003-07-26, 21:49:44
Original geschrieben von huha
Mal ne Frage: Könnt ihr das auch mal mit anderen Grafikkarten machen? Vielleicht gibt's ja auch Tweaks seitens Matrox, PowerVR, SIS, VIA und Intel.
Darüber würd ich mich mal freuen.
Das macht aber keinen Sinn, solange nur ATI und Nvidia konkurrenzfähige Grafikchips bauen. Da können die anderen soviel tweaken wie sie wollen, langsam bleibt langsam.
Höchstens die Parhelia taugt teilweise noch zum Spielen.
Aqua
Leonidas
2003-07-26, 22:38:07
Original geschrieben von huha
Und was da nVidia und ATi abziehen, ist irgendwie frech. Mal ne Frage: Könnt ihr das auch mal mit anderen Grafikkarten machen? Vielleicht gibt's ja auch Tweaks seitens Matrox, PowerVR, SIS, VIA und Intel.
Darüber würd ich mich mal freuen.
Es gibt keine AntiCheat-Scripte für diese Firmen.
Jedoch: SiS und Trident sind schon des Cheatings überführt, die Bildqualität der Intel-Chips ist gleich per default elendig. Nur von Matrox und PowerVR sind solche Sachen dato nicht bekannt.
Original geschrieben von Leonidas
Auf keinen Fall! Das AntiCheat-Script zeigt nur an, daß hier Optimierungen vorliegen. Wieviel davon erlaubt und unerlaubt sind, ist nicht feststellbar - man kann diese Optimierungen nur zusammen ein- oder ausschalten.
Nun, meine Meinung ist halt, dass NVidia sich das selbst eingebrockt hat, also sollte man die Benchmarks mit diesem Script durchziehen, bis sie es gelernt haben, und dann, weil sie es gelernt haben... ;)
Deine Einwände sind natürlich auch richtig, dann sollte man aber als Konsequenz UT2003 gar nicht mehr zum benchen benutzen, da die Ergebnisse ohne Anti-Cheat Script genauso wenig aussagekräftig sind wie mit...
Razor
2003-07-27, 08:47:27
Wenn Du ATI da mit einschließt, Kiba, full Ack !
;-)
Original geschrieben von Leonidas
PS @ Razor: War Deine Antwort nicht "etwas" brutal?
Ja, war sie... sorry@Troll !
(ich hab's nur langsam satt...)
Razor
Gast_Troll ;)
2003-07-27, 10:04:48
Original geschrieben von Razor
Wenn Du ATI da mit einschließt, Kiba, full Ack !
;-)
Ja, war sie... sorry@Troll !
(ich hab's nur langsam satt...)
Razor
Kein Problem. Ich bin hart im nehmen; und speziell von Dir so einiges gewöhnt.
KiBu;
Der zweite Teil meines ersten Postings war ja auch als Provokation gedacht ;D . Die Reaktion von Razor habe ich also genau so erwartet. Was auch sonst; schließlich schießt der immer scharf wenn jemand auch nur andeutet, das seine geliebten NV3x-Karten nicht ganz so gut sind. ;) Also nix für ungut.
mapel110
2003-07-27, 10:36:32
Original geschrieben von Gast_Troll ;)
Wird wohl so sein. ATi arbeitet ja anscheinend schon daran. Zumindest die Mac-Treiber haben bereits SSAA(!) und Anwendungs-Spezifische Einstellungen, die über das CP geändert werden können. So ähnlich macht das ja auch Matrox.
Finde ich gut. Wesentlich besser als das ganze irgendwo im Treiber zu verstecken.
w00t ?
ATI hat SSAA beim rx3xx ?
stimmt das ?
=)
Gast_Troll ;)
2003-07-27, 10:55:25
Original geschrieben von mapel110
w00t ?
ATI hat SSAA beim rx3xx ?
stimmt das ?
=)
Zumindest bei den MAC's. Mich wundert, das Exxtreme das noch nicht gepostet hat :
http://www.rage3d.com/board/showthread.php?s=&threadid=33699358&perpage=30&pagenumber=1
http://www.xlr8yourmac.com/Graphics/9800pro_Mac/mac_9800_pro_faq.html
(im CP sieht man sehr schön das Menü für die "Application Profile" Settings)
Razor
2003-07-27, 11:12:32
Original geschrieben von Gast_Troll ;)
Der zweite Teil meines ersten Postings war ja auch als Provokation gedacht ;D . Die Reaktion von Razor habe ich also genau so erwartet. Was auch sonst; schließlich schießt der immer scharf wenn jemand auch nur andeutet, das seine geliebten NV3x-Karten nicht ganz so gut sind. ;) Also nix für ungut.
Hmmm...
Ich hoffe, dass dies nun klarer für Dich wurde.
Offensichtlich nicht passiert...
Ansonsten bitte ich Dich, Dir zumindest die Einleitung und auch den Schlußsatz vollständig zu lesen un nicht nur die hübschen Bildchen anzustarren !
Was Du wohl noch immer nicht getan hast...
Zudem scheinst Du ebensowenig den Sinn meines Postings verstanden zu haben.
(was auch nicht weiter verwunderlich war)
Razor
Bringhimup
2003-07-27, 11:51:54
Was sagt eigentlich Epic dazu, daß auf dem Rücken ihres Spieles so viel "Schindluder" getrieben wird?
Eigentlich sollte denen das nicht gefallen.
mapel110
2003-07-27, 11:55:57
Original geschrieben von Bringhimup
Was sagt eigentlich Epic dazu, daß auf dem Rücken ihres Spieles so viel "Schindluder" getrieben wird?
Eigentlich sollte denen das nicht gefallen.
die werden schön die klappe halten. wollen ja schliesslich noch das eine oder andere exemplar verkaufen.
Exxtreme
2003-07-27, 12:07:41
Original geschrieben von Gast_Troll ;)
Zumindest bei den MAC's. Mich wundert, das Exxtreme das noch nicht gepostet hat :
Der Mac interessiert mich nicht die Bohne, deswegen. :D
Endorphine
2003-07-27, 13:32:19
Bin jetzt auch mal dabei, den Artikel richtig in der Tiefe zu lesen :)
Seite eins, Absatz Nummer zwei: Der hauptsächliche Auflöser für diese Unsicherheit Das müsste wohl "Auslöser" heissen.
Seite vier: Dies wäre ansich kein Problem "an sich"
Der Devastation Demo Screenshot ist IMHO auch nicht sonderlich webtauglich. Bei meinem Monitor sehe ich in meiner Tageslichteinstellung von Helligkeit & Kontrast einfach nur eine schwarze Fläche mit einem Fadenkreuz. Bei ungünstigen Lichtbedingungen beim Leser oder gar schlechten Monitoren, die schon am Anschlag laufen erkennt man gar nichts.
Dann möchte ich noch etwas anmerken: im Artikel wird bei den ATI-Cheats permanent nur von einer AF-Optimierung gesprochen. Dabei wird doch auch schon ohne jegliche Anisotropie (= "1°" AF) mit der Optimierung nur die texture stage null trilinear gefiltert und der Rest maximal bilinear. Das Verhalten ist unabhängig vom Einsatz des anisotropen Filters. Es wirkt sich zwar auch beim Einsatz auf diesen aus, hat aber mit der Anisotropie der Filterung an sich nichts zu tun.
Unter dem Gesichtspunkt müssten recht viele Textstellen noch einmal überarbeitet werden, da sie einen falschen Fakt vermitteln.
LovesuckZ
2003-07-27, 14:05:48
Original geschrieben von Endorphine
Dann möchte ich noch etwas anmerken: im Artikel wird bei den ATI-Cheats permanent nur von einer AF-Optimierung gesprochen. Dabei wird doch auch schon ohne jegliche Anisotropie (= "1°" AF) mit der Optimierung nur die texture stage null trilinear gefiltert und der Rest maximal bilinear. Das Verhalten ist unabhängig vom Einsatz des anisotropen Filters. Es wirkt sich zwar auch beim Einsatz auf diesen aus, hat aber mit der Anisotropie der Filterung an sich nichts zu tun.
Koenntest du das bitte mal dem AF Tester von Demirug testen?
http://demirug.bei.t-online.de/D3DAFTester.zip
Endorphine
2003-07-27, 14:07:16
Original geschrieben von LovesuckZ
Koenntest du das bitte mal dem AF Tester von Demirug testen?
http://demirug.bei.t-online.de/D3DAFTester.zip Hab ich bereits. So naiv bin ich nun auch wieder nicht.
LovesuckZ
2003-07-27, 14:10:54
Original geschrieben von Endorphine
Hab ich bereits. So naiv bin ich nun auch wieder nicht.
Ich trau mich gar nicht zu fragen, ob du auch 2 Bilder mit deiner Behauptung erstellen und hochladen koenntest.
Endorphine
2003-07-27, 14:20:04
Original geschrieben von LovesuckZ
Ich trau mich gar nicht zu fragen, ob du auch 2 Bilder mit deiner Behauptung erstellen und hochladen koenntest. Moment...
Leonidas
2003-07-27, 14:33:07
Original geschrieben von Endorphine
Der Devastation Demo Screenshot ist IMHO auch nicht sonderlich webtauglich. Bei meinem Monitor sehe ich in meiner Tageslichteinstellung von Helligkeit & Kontrast einfach nur eine schwarze Fläche mit einem Fadenkreuz. Bei ungünstigen Lichtbedingungen beim Leser oder gar schlechten Monitoren, die schon am Anschlag laufen erkennt man gar nichts.
Devastaion ist deswegen so wichtig, weil es dieselbe Engine wie UT2003 ist und man somit nachweisen kann, daß die Funktion firstcoloredmip=1 prinzipiell funktioniert.
Leonidas
2003-07-27, 14:35:01
Original geschrieben von Endorphine
Dann möchte ich noch etwas anmerken: im Artikel wird bei den ATI-Cheats permanent nur von einer AF-Optimierung gesprochen. Dabei wird doch auch schon ohne jegliche Anisotropie (= "1°" AF) mit der Optimierung nur die texture stage null trilinear gefiltert und der Rest maximal bilinear. Das Verhalten ist unabhängig vom Einsatz des anisotropen Filters. Es wirkt sich zwar auch beim Einsatz auf diesen aus, hat aber mit der Anisotropie der Filterung an sich nichts zu tun.
Das hab ich gar nicht überprüft, aber Du hast Recht: Ich hätte es tun sollen.
Endorphine
2003-07-27, 14:35:57
So - bei Texture Stage null wie erwartet TF. >0 bis 7 ist BF mit Einsatz der "Optimierung".
Ohne Optimierung (siehe rTool):
http://home.t-online.de/home/falkorichter/Forum/rTool_application.png
mit TS-Optimierung (siehe rTool):
http://home.t-online.de/home/falkorichter/Forum/rTool_TS-opimization.png
Nicht auf dem Screenshot, aber die rTool-Einstellungen sind wirklich erfolgreich übernommen, der AF-Tester wurde erst danach gestartet. Der Texture Stage Slider lässt sich frei bewegen und das Verhalten bleibt reproduzierbar.
Demirug
2003-07-27, 14:37:05
Hat sich erldigt.
Leonidas
2003-07-27, 14:41:06
Original geschrieben von Endorphine
So - bei Texture Stage null wie erwartet TF. >0 bis 7 ist BF mit Einsatz der "Optimierung".
Nicht auf dem Screenshot, aber die rTool-Einstellungen sind wirklich erfolgreich übernommen, der AF-Tester wurde erst danach gestartet. Der Texture Stage Slider lässt sich frei bewegen und das Verhalten bleibt reproduzierbar.
Nein. Wenn Du mit rTool arbeitest, dann umgehst Du ja das CP. Es geht darum, was das CP macht, nicht was rTool macht.
PS: CP erst nach Restart verwenden, da CP und rTool sich behindern.
Endorphine
2003-07-27, 14:47:47
Original geschrieben von Leonidas
Nein. Wenn Du mit rTool arbeitest, dann umgehst Du ja das CP. Es geht darum, was das CP macht, nicht was rTool macht. Die "Optimierung" ist aber auch mit dem rTool aktivierbar und deaktivierbar. Und sie ist offensichtlich unabhängig vom Grad der Anisotropie des Filters, mehr sage ich ja gar nicht.
Warum sollte das Verhalten mit dem CPL anders sein? Das rTool verändert ja nichts anderes als das CPL, es schreibt nur Registryeinträge.
Ich stelle nur die Information zur Diskussion, dass die Optimierung offensichtlich nicht an AF gebunden ist, wo der Artikel doch klar nur von AF-Optimierung spricht. Ich stelle nicht den Anspruch, alle möglichen Kombinationen von Einstellungen getestet zu haben und Ursachenforschung betrieben zu haben.
LovesuckZ
2003-07-27, 14:50:06
Dies duerfte in Applicationen doch gar nicht auftreten, da die meisten Spiele und Anwendungen wohl eine Einstellungen haben für trilinear. Oder überschreibt der Treiber diese?
Leonidas
2003-07-27, 15:01:40
Original geschrieben von Endorphine
Die "Optimierung" ist aber auch mit dem rTool aktivierbar und deaktivierbar. Und sie ist offensichtlich unabhängig vom Grad der Anisotropie des Filters, mehr sage ich ja gar nicht.
Warum sollte das Verhalten mit dem CPL anders sein? Das rTool verändert ja nichts anderes als das CPL, es schreibt nur Registryeinträge.
Mag sein. Ich will zur absoluten Sicherheit wissen, wie es rein mit dem CP nach einem Neustart aussieht. Vorher kann ich mir nicht wirklich sicher sein.
Leonidas
2003-07-27, 15:18:32
Ok, hab mir das selber angesehen.
Endo: Du hast Unrecht. Benutzt Du das CP, wirst Du im non-anisotrop Modus keinen Unterschied zwischen Stages 0-7 feststellen.
Endorphine
2003-07-27, 15:35:24
Original geschrieben von Leonidas
Du hast Unrecht. Die Bilder stehen =) Ich sehe das übrigens nicht so wild. Das CPL nutze ich praktisch gar nicht, nur noch rTool (schneller, kleiner etc.).Original geschrieben von Leonidas
Benutzt Du das CP, wirst Du im non-anisotrop Modus keinen Unterschied zwischen Stages 0-7 feststellen. Same here. Hab jetzt seit Monaten mal wieder das CP (mit Neustarts) genutzt und dort auf tri-AF gestellt und AF dann deaktiviert (application). Dann wieder Neustart und im D3D AF-Tester geschaut, wie sich die Filterung verhält.
Mit meinem installierten Cat 3.6 kann ich demnach ohne das rTool anzufassen gar keine texture Stage Optimierung (Begrenzung auf BF ab TS >0) mehr feststellen. Kann das jemand reproduzieren? Gab es die Optimierung aus dem CPL heraus also nur bei älteren Catalysts?
Und @ Leonidas: welche Cheat-Einstellung hattest du denn im rTool , bevor du getestet hast? Ich hab den Verdacht, dass es vielleicht auch im Zusammenspiel von rTool und CPL haken könnte. Der andere Schluß wäre, dass ATI die Optimierung im CPL des Cat 3.6 einfach nicht mehr verwendet, sie aber noch über das rTool nutzbar bleibt.
Endorphine
2003-07-27, 15:37:37
Original geschrieben von LovesuckZ
Dies duerfte in Applicationen doch gar nicht auftreten, da die meisten Spiele und Anwendungen wohl eine Einstellungen haben für trilinear. Oder überschreibt der Treiber diese? Da ich komplett auf TF gestellt habe (siehe Screenshots) offensichtlich mit eingeschalteter "Optimierung": ja.
Leonidas
2003-07-27, 16:43:10
Original geschrieben von Endorphine
Und @ Leonidas: welche Cheat-Einstellung hattest du denn im rTool , bevor du getestet hast?
Cheat-Einstellungen? Was meinst Du?
Endorphine
2003-07-27, 17:41:09
Original geschrieben von Leonidas
Cheat-Einstellungen? Was meinst Du? Steht der D3D-AF-Slider bei dir in der Mitte oder rechts? In der mittigen Position ist die texture stage optimization ja aktiviert, rechts nicht.
Leonidas
2003-07-27, 18:05:48
Hab die 0.9.9.6d benutzt, da gibt es nur 2 Stufen: bilinear oder trilinear.
Majestic
2003-07-27, 20:48:55
also ich find die ganze sache von wegen "cheating" lächerlich....immerhin wird der benchmark doch nicht verändert oder?..d.h. ddie treiber wurden nur optimiert und das ist doch auch gut?...denn nur so kann die graka doch ihre wirklichen leistungen zeigen...denn graka hin oder her...sie muss wohl schnell genug sein um die punkte zu schaffen oder nicht?...d.h. bei den "anti-cheat" treibern kann die graka ihr volles potential gar nicht ausreitzen....bei den optimierten allerdings schon....
ausserdem ist die ganze 3dmark scheiße sowieso für den arsch!...denn es ist doch höchst unglaubwürdig, dass eine ati 9500 mehr als doppelt so schnell ist, als eine "alte" gf 4 ti 4600...wie man an spiele-benches ja sieht...
die leistungen der karten kann man eh erst sehen, wenn endlich dx 9 games auf den markt kommen..denn welches spiel kann derzeit die neuesten karten schon ausreizen?!
Original geschrieben von Majestic
also ich find die ganze sache von wegen "cheating" lächerlich....immerhin wird der benchmark doch nicht verändert oder?..d.h. ddie treiber wurden nur optimiert und das ist doch auch gut?...denn nur so kann die graka doch ihre wirklichen leistungen zeigen...denn graka hin oder her...sie muss wohl schnell genug sein um die punkte zu schaffen oder nicht?...d.h. bei den "anti-cheat" treibern kann die graka ihr volles potential gar nicht ausreitzen....bei den optimierten allerdings schon....
Oh, da hat wohl jemand den Artikel entweder überhaupt nicht gelesen oder nur bruchstückhaft verstanden.
Wer übernimmt es, ihm das alles nochmal zu erklären? :D
Hmm, obwohl, muss ja eigentlich keiner machen, der Artikel führt die Argumente ja eigentlich schon auf...
(oder Majestic ist ein mitlesender NV-Mitarbeiter, der die "Optimierungen" rechtfertigen will ;D)
mapel110
2003-07-27, 21:12:31
Original geschrieben von Majestic
es geht darum, dass bildqualität geopfert wurde, um leistung zu erbringen. bei den einen mehr, bei den anderen weniger.
Jetzt weiß ich endlich auch, warum Giants auf meiner neuen Radeon 9700 so häßlich aussieht, danke :)
Wer's selber ausprobieren will: Der Effekt ist sehr deutlich auf der Multiplayer-Map Mecc vs. Mecc 1 zu sehen.
Wilma
2003-07-28, 15:18:26
Erstmal einen RIESEN-Dank an die Verfasser des höchst interessanten Artikels, mich würde mal interessieren, ob die
"Optimierungen" sich auch im Omega-Driver wiederfinden...
Exxtreme
2003-07-28, 15:21:46
Original geschrieben von Wilma
Erstmal einen RIESEN-Dank an die Verfasser des höchst interessanten Artikels, mich würde mal interessieren, ob die
"Optimierungen" sich auch im Omega-Driver wiederfinden...
Zwangsläufig ja. :)
foenfrisur
2003-07-30, 14:50:59
Original geschrieben von Keel (oder Majestic ist ein mitlesender NV-Mitarbeiter, der die "Optimierungen" rechtfertigen will ;D)
das glaube ich auch :)
einfach mal drüber nachdenken, was du da schreibst majestic
mfg
foenfrisur
2003-07-30, 14:54:24
Original geschrieben von mapel110
es geht darum, dass bildqualität geopfert wurde, um leistung zu erbringen. bei den einen mehr, bei den anderen weniger.
bei nvidia geht da ja einiges...
bei ati isses ja offenbar in den unbewegten bildern fast nicht zu erkennen...
das mit dem aa bei hl2 könnte ich mir auch mit ati abgesprochen vorstellen...
denn dumm sind die doch eigentl. nich...das mit dem ps2.0 und demm aa wissen die bestimmt, aber sie wussten vielleicht auch, das es bei nv-karten nicht zu fixen geht, aufgrund fehlender features (wahrscheinl.)
mfg
Quasar
2003-08-14, 17:35:36
Hm, OpenGL sei davon nicht betroffen kann ich nicht so ganz glauben. Bei mir wurde RtCW auf einer R9600p mit 2xAA/4xAF per rTool deutlich langsamer als wenn ich es mit dem CP eingeschaltet habe.
zeckensack
2003-08-14, 17:41:32
Original geschrieben von Quasar
Hm, OpenGL sei davon nicht betroffen kann ich nicht so ganz glauben. Bei mir wurde RtCW auf einer R9600p mit 2xAA/4xAF per rTool deutlich langsamer als wenn ich es mit dem CP eingeschaltet habe. Hattest du dabei die AF-Kontrollen in der .ini gesetzt?
edit: Offenbar bin ich doch etwas blöder als nötig :sulkoff:
mapel110
2003-08-14, 18:26:41
hm, kann man vielleicht mal ut2003 mit opengl testen ?
das würde mich mal interessieren.
Quasar
2003-08-14, 18:37:35
Original geschrieben von zeckensack
Hattest du dabei die AF-Kontrollen in der .ini gesetzt?
Mein RtCW hat keine .ini....
Einmal eben mit Control Panel und einmal mit rTool, nix ini, nix cfg.
Und die Settings sind angewandt worden, per Screenshot nachgeprüft.
LovesuckZ
2003-08-14, 18:46:53
Original geschrieben von Quasar
Mein RtCW hat keine .ini....
Einmal eben mit Control Panel und einmal mit rTool, nix ini, nix cfg.
Und die Settings sind angewandt worden, per Screenshot nachgeprüft.
Wie ist denn das Ergebnis per rTool und per CP?
Quasar
2003-08-14, 19:12:05
Auflösung - Control Panel - rTool
640x480 142,5 136,4
1024x768 69,8 66,2
edit:
Axo: mit 2xAA und 4xAF, 3DCenter-Benchregeln.
mapel110
2003-08-14, 19:18:24
Original geschrieben von Quasar
Auflösung - Control Panel - rTool
640x480 142,5 136,4
1024x768 69,8 66,2
edit:
Axo: mit 2xAA und 4xAF, 3DCenter-Benchregeln.
hm, jetzt müsste exxtreme dazu mal was sagen, ob er wirklich ein setting auch bei opengl ändert. anbieten tut ers nicht extra im tool. nur bei d3d. wäre schon merkwürdig, wenn er es vorenthalten würde.
Exxtreme
2003-08-14, 19:25:37
Original geschrieben von Quasar
Auflösung - Control Panel - rTool
640x480 142,5 136,4
1024x768 69,8 66,2
edit:
Axo: mit 2xAA und 4xAF, 3DCenter-Benchregeln.
Das ist aber sehr merkwürdig. :|
Quasar
2003-08-14, 19:28:35
Ich check's gleich nochmal gegen, vielleicht habe ich auch Mist gebaut...
mapel110
2003-08-14, 19:30:32
Original geschrieben von Quasar
Ich check's gleich nochmal gegen, vielleicht habe ich auch Mist gebaut...
halte ich für wahrscheinlich :D
gerade mit quake3 nachgeprüft. keine änderung bei 1280 und 16 AF genauso wie bei 640er und 16xAF =)
alles im rahmen von 1-2 fps messtoleranz.
Quasar
2003-08-14, 20:05:33
In einer Beziehung hab' ich auf jeden Fall Mist gebaut: Die Wert oben sind gar nicht von RtCW, hatte sie falsch aufgeschrieben.
AF unter OpenGL ist nicht weiter optimiert, sry!
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.