Archiv verlassen und diese Seite im Standarddesign anzeigen : THG: Uns steht ein heisser Sommer bevor...
Quasar
2003-07-02, 00:49:51
Dieses (http://www.tomshardware.de/column/20030702/nv_cheating-12.html) und die folgende Seite habe ich bei THG gelesen.
Es scheint, als würden die Tage noch einige Sensationsstories auf uns zukommen.... seid also gewappnet.
In diesem Falle halte ich THG für recht verläßlich, da sie allein aufgrund ihrer Größe und Marktbedeutung sicherlich viele Einblicke und Informationen bekommen, die wir normalen User niemals zu Gesicht bekommen würden.
Danke an Borsti für diesen Artikel.
Es liegen uns auch Informationen vor, dass es bei ATI eine Liste gibt, in der alle derzeit bekannten "Sünden" von NVIDIA aufgelistet sind. Diese Liste wird derzeit unter der Presse verteilt. Es wird also zu neuen Enthüllungs-Storys kommen, die von fleißigen Redakteuren "aufgedeckt" werden. Wahrscheinlich findet bereits jetzt im Hintergrund "ein Rennen" statt, wer die neue Sensation zuerst veröffentlicht. Die Schlammschlacht ist vorprogrammiert. Auch bei NVIDIA gibt es eine entsprechende Liste, die nach derzeitigen Plänen aber wohl nicht veröffentlicht werden soll, da solche Vorgänge letztlich der ganzen Branche immens schaden würden.
edit:
Es ist an der Zeit, ATI und NVIDIA unter Druck zu setzen, endlich detaillierte Informationen zu ihren Produkten zu veröffentlichen, wie es in anderen Hardware-Bereichen längst üblich ist. Erst dieses Verhalten macht das "Dirty Marketing" beider Seiten überhaupt erst möglich. Der Anwender hat ein Recht darauf zu erfahren, wenn ein Produkt Fehler hat oder wie hier im Beispiel NVIDIA umstrittene Berechnungen ausführt. Aber die Autoren sollten dabei etwas weniger sensationell denken und den Lesern auch deutlich klarmachen, wo diese Informationen herkommen. Auch darauf hat der Leser ein Recht. Beide Hersteller halten Informationen gezielt zurück und verkaufen ihre Produkte nach außen hin so, wie es in ihre Marketingpläne passt. Danach wird der Presse eine gezielte Information zugespielt, um einen Misstand beim Konkurrenten anzuprangern oder ein spezielles Feature des eigenen Produkts herauszustellen. Danach geht es dann in die nächste Runde. Es liegt an der Presse, sich nicht für ihre Zwecke benutzen zu lassen und endlich den ausufernden Kreislauf zu durchbrechen. Die Geschäftsgebaren der großen Grafikchiphersteller gegenüber der Presse haben groteske Züge erreicht, in dem der Kunde auf der Strecke bleiben kann.
lol gerade nvidia wollen sowas nicht rausbringen weils der branche schadet? na darauf kann man sich verlassen, sie waren in der vergangenheit schon immer absolut sündenfrei :D
Exxtreme
2003-07-02, 00:53:31
LOL,
das ausgerechnet von Borsti. :lol:
Gerade er sollte ruhig sein im Bezug auf "Whitepapers ungeprüft abschreiben".
Ehrlich gesagt, habe ich gegen solche "Listen" nichts, wenn...
Nvidias Anti-Kyro-Dokument z.B. empfand ich als Frechheit. Hier liegt der Fall jedoch anders, meine ich. Nvidia cheatet, ATI wahrscheinlich auch. ATI wird sich eine solche Liste nur leisten können, wenn man ihnen keine oder nur wesentlich geringere Vergehen nachweisen können wird (man beachte die Formulierung.) Im Wettbewerb halte ich es für richtig, dass Cheats der Gegner thematisiert werden, solange man selbst insgesamt deutlich besser dasteht, solange die Vorwürfe reproduzierbar sind, und solange sich die Gehässigkeit in Grenzen hält.
edit: Imo sind die Anspielungen auf Borst1s Vergangenheit nicht ganz grundlos: So, wie er (genau wie viele andere) unbesehen das tolle Quincunx etc. schluckte, genauso versiert erklärte er (Jahre später) Anti-Aliasing.
Quasar
2003-07-02, 00:55:31
Vielleicht könnten alle Poster edit: ausser aths, sein Posting war noch nicht da, die hier in diesem Thread schon etwas von sich gegeben haben, einmal aufhören mit dem Bashing und entweder konstruktiv einen Beitrag leisten oder einfach mal still lesen, was andere denken.
Exxtreme
2003-07-02, 01:05:35
Quasar,
sicherlich hat Borsti recht mit dem, was er schreibt. Nur das aus seiner Feder zu lesen ist Ironie pur.
Zum Thema:
Ich finde eine derartige Entwicklung nicht gut. :(
Die Firmen sollen sich an Produkten messen und nicht wer die tollere FUD-Kampagne hat.
Quasar
2003-07-02, 01:12:14
Original geschrieben von Exxtreme
Zum Thema:[...]
Danke, geht doch.
Von wem das Ganze kommt ist doch völlig irrelevant. Fakt ist, dass du diese Informationen nicht in dem Umfang hast, ich habe sie nicht und Leo hat sie wahrscheinlich auch nicht.
Ich finde, es wäre langsam an der Zeit, dass sich die Publikationen mal zusammenschließen und gemeinsam eine Protestnote an die Grafikchiphersteller senden.
Schließlich macht Mundpropaganda aus der und durch die 3D-Community mehr aus, als viele vermuten würden.
Mehrpack
2003-07-02, 01:15:46
hi,
naja das gebaren der firmen errinnert langsam immer mehr an ihren treusten fans, den Kindergarten der Geistigen ergüsse.
Die Entwicklung ist auf keinen Fall positiv, denn sollte sich es zu einer Schlammschlacht kommen, dann werden auch die Foren von Threads zu dem Thema nur so überquellen und was dann los geht kann man sich leicht ausmalen ....
Ausserdem denke ich das sich die Hersteller in dem Fall eher selber Schaden als nützen.
Mehrpack
Fakt ist imo leider auch, dass viele User gar nicht wissen wollen, welche Nachteile ihre HW im Vergleich hat, bzw. wo überall gecheatet wird. Jedenfalls erlebe ich in Kreisen von Amateur-Astronomen, wie in der Regel die bauartbedingten Schwächen "ihrer" Teleskope konsequent klein geredet werden, während die jeweiligen Vorteile unterstrichen werden.
Artikel, die sich gezielt gewissen Schwächen widmen (GF4 Ti AF-Bug) bewirken praktisch nichts. Unter uns, ich hoffte irgendwie doch, dass Nvidia in einer Form darauf reagiert, ihre Kunden zu beruhigen. Nix. Denen ist es völlig Wurst, was wer "aufdeckt", wozu gibt es Themenabende oder "Interviews", da kann man ja wieder mit Halbwahrheiten die eigenen Produkte über den grünen Klee loben.
Und was die Hardware nicht schafft, ercheatet man sich in den geläufigen Benchmarks...
Mehrpack
2003-07-02, 01:22:30
hi,
ich hab ja in dem sinne nix darüber wenn über fehler gesprochen wird, bloss auf eine art der schlammketcherei kann man doch am ende locker verzichten.
das einzige zu was das führt ist das sich die dann alle gegenseitig die köpfe einschlagen, kunden wie firmen, imho.
Mehrpack
Original geschrieben von Mehrpack
hi,
ich hab ja in dem sinne nix darüber wenn über fehler gesprochen wird, bloss auf eine art der schlammketcherei kann man doch am ende locker verzichten.
das einzige zu was das führt ist das sich die dann alle gegenseitig die köpfe einschlagen, kunden wie firmen, imho.Ohne ein Bewusstsein beim Kunden, was cheaten ist, haben die entsprechenden Firmen (Mehrzahl!) ein Ticket, dieses Spielchen beliebig weiter zu treiben. Natürlich ist es fragwürdig wenn ausgerechnet der Hauptkonkurrent die "Journalisten" mit "Informationen" versorgt.
BTW, der Artikel auf THG ist in der Tat gar nicht mal so ganz übel geschrieben. Allerdings weiß ich nicht, was ATI da "aufrundet". Außerdem renderte Voodoo nicht intern mit 22 Bit, sondern natürlich mit 32 Bit. Dann würde ich auch gerne wissen wieso die unkomprimierten Bilder als BMP vorliegen und nicht als PNG.
mapel110
2003-07-02, 01:51:50
gibts irgendwas neues ?
imo fasst dort der thg artikel halt nochmal alles zusammen. ist doch in dem futuremark thread alles gesagt worden, oder irre ich da ?!
ausserdem, wie sollen denn die graka hersteller mehr einblick gewähren ?
die einzigen, die was tun können und sollten, sind die tester.
möglichst selten gebenchte spiele einsetzen, eigene timedemos usw usw....
solche schlammschlachten gibts doch in allen branchen.
das fängt schon morgens an, wenn ich mir brötchen bei bäcker A kaufe, der mir natürlich gleich sagt, wie schlecht die brötchen des bäckers B sind.
/edit
hab da nämlich ne spezielle konkurrenzsituation fast direkt vor meiner haustür gehabt :)
Einen komischen Bäcker hast du.
Das ATI-PDF auf das THG im Artikel verlinkt, arbeitet jedenfalls nicht sauber. Das meiste stimmt, aber hier und da verschweigen sie die ganze Wahrheit.
Crushinator
2003-07-02, 02:06:06
Meine perönliche Meinung: Gerade Borsti sollte sich einwenig an die Nase fassen. Die Schlammschlacht selbst fände ich absolut in Ordnung, zumal sie in anderen Branchen auch stattfindet und mehrheitlich dazu führt, daß u.A. auch die Kunden manch schmutziges Spielchen durchschauen, so what. =)
Demirug
2003-07-02, 07:49:12
Glaubt hier wirklich ernsthaft jemand das sich dadurch etwas am Optimierungverhalten der IHVs ändert? Es wird nur darauf hinaus laufen das man die Dinge eben besser verstecken muss. Die Treiber werden dann eben noch ein bischen grösser und noch ein bischen undurchsichtiger.
Das alles ist ein Spiel und das Ziel heist mehr Punkte. Es ist eine Grenzsuche nach dem Punkt der makiert wie weit man gehen kann.
Bei einer Schlammschlacht gewinnt keiner. Es mag ja nett sein sich das Popcorn zu nehmen sich zurückzulehnen und einfach zu zuschaune. So wie es eben in der Natur des Menschen liegt. Aber das ist das echte Leben und da gibt es nichts umsonst. Jeder müde $, €, £, ¥ welche diese Aktionen kosten wird zahlt am Ende doch nur der Kunde.
Wir man wirklich will das jemand aufhört eine Strasse zu befahren dann muss man ihm diese Strasse wegnehmen. Die Strasse für die Grafikboliden heisen nun mal Benchmarks. Jeder IHV wird einen solchen Bench so langen reiten wie er kann und sich einen Vorteil davon verspricht.
"Grafikkartenschlammschlacht 2003"
In den Hauptrollen ATI und nVidia. Nebenrollen Futuremark und diverese Spielehersteller. In Gastrollen erleben sie John Carmack und Tim Sweeney.
schauen und geniessen sie jetzt. zahlen sie später.
seahawk
2003-07-02, 08:08:07
Bin mal gespann, was ATI da aufdecken wird. Ich hoffe das kommt schnell raus.
nggalai
2003-07-02, 08:25:49
Hi there,
Original geschrieben von Demirug
Glaubt hier wirklich ernsthaft jemand das sich dadurch etwas am Optimierungverhalten der IHVs ändert? Es wird nur darauf hinaus laufen das man die Dinge eben besser verstecken muss. Die Treiber werden dann eben noch ein bischen grösser und noch ein bischen undurchsichtiger.
Das alles ist ein Spiel und das Ziel heist mehr Punkte. Es ist eine Grenzsuche nach dem Punkt der makiert wie weit man gehen kann.
Bei einer Schlammschlacht gewinnt keiner. Es mag ja nett sein sich das Popcorn zu nehmen sich zurückzulehnen und einfach zu zuschaune. So wie es eben in der Natur des Menschen liegt. Aber das ist das echte Leben und da gibt es nichts umsonst. Jeder müde $, €, £, ¥ welche diese Aktionen kosten wird zahlt am Ende doch nur der Kunde.
Wir man wirklich will das jemand aufhört eine Strasse zu befahren dann muss man ihm diese Strasse wegnehmen. Die Strasse für die Grafikboliden heisen nun mal Benchmarks. Jeder IHV wird einen solchen Bench so langen reiten wie er kann und sich einen Vorteil davon verspricht.
"Grafikkartenschlammschlacht 2003"
In den Hauptrollen ATI und nVidia. Nebenrollen Futuremark und diverese Spielehersteller. In Gastrollen erleben sie John Carmack und Tim Sweeney.
schauen und geniessen sie jetzt. zahlen sie später. Sorry für die Full Quote, aber da stimme ich 100% mit überein. Solche Schlammschlachten sind genau der Grund, dass ich "modernes Marketing" nicht ab kann und entsprechend heftig dagegen wettere. Blöderweise wird diese Form des Marketings sogar unterrichtet, mitlerweilen--kurz gesagt: "Wenn Du bei deinem Produkt keine USPs zeigen kannst, klatsch die Konkurrenz runter. Da nicht in allen Ländern direkt-vergleichende Werbung erlaubt ist, mach's über die P.R. Abteilung, Redaktionelle Beiträge in den Medien, und Guerilla-Taktiken mit 'geleakten' Informationen an den richtigen Stellen." Und die P.R.- und Kommunikations-Leute dürfen's dann wieder ausbaden, weil sie wie die dummen dastehen. :(
Das einzige, was man mit solchen Kleinkriegen erreicht, ist eine generelle Verunsicherung der Käufer. Leute wie die Regs dieses Forums können sich mehrheitlich zurücklehnen und die Show "geniessen", aber dem Markt als gesamtes kann das nicht guttun.
*Gummistiefel anzieh*
*Mistgabel in die Hand nehm*
Naja, ich bin vorbereitet.
:D
93,
-Sascha.rb
PCGH_Thilo
2003-07-02, 09:24:36
Original geschrieben von Exxtreme
LOL,
das ausgerechnet von Borsti. :lol:
Gerade er sollte ruhig sein im Bezug auf "Whitepapers ungeprüft abschreiben".
nana, da wirfst du aber jetzt zwei zutaten in den kochtopf. ich persönlich finde es BEACHTLICH, dass borsti den scheiß nicht mehr mit macht und diese papiere anprangert. das hat ja nix damit zu tun, dass er in den augen einiger 3d-götter nicht die "richtige" (welche ist das?) meinung zu bestimmten technologien geäußert hat.
Exxtreme
2003-07-02, 09:38:59
Hallo Thilo,
Original geschrieben von PCGH_Thilo
nana, da wirfst du aber jetzt zwei zutaten in den kochtopf. ich persönlich finde es BEACHTLICH, dass borsti den scheiß nicht mehr mit macht und diese papiere anprangert. das hat ja nix damit zu tun, dass er in den augen einiger 3d-götter nicht die "richtige" (welche ist das?) meinung zu bestimmten technologien geäußert hat.
das Abschreiben aus Whitepapers habe ich Borsti schon vor 2 Jahren angeprangert. Wie aths schon schrieb, er lobte Quincunx in den Himmel und war auch schon der Meinung, daß MSAA die Texturen unscharf macht (wohl aus dem Smoothvision-Whitepaper abgeschrieben :lol: ).
Die Whitepapers der Hersteller taugen heutzutage sowieso zu gar nichts und sind eigentlich mit Werbebroschüren vergleichbar.
Aber du hast recht, es ist wirklich gut, daß er es gemerkt hat und er nichts mehr ungeprüft abschreibt.
Original geschrieben von Exxtreme
Aber du hast recht, es ist wirklich gut, daß er es gemerkt hat und er nichts mehr ungeprüft abschreibt. Naja doch, sein Artikel enthält ja einige Fehler.
Demirug, nggalai,
ich sehe das so: Sicherlich sind solche Taktiken keine gute Methode. Andererseits ist Cheating auch unfein. Jetzt den Teufel mit dem Beelzebub auszutreiben ist doch immerhin einen Versuch wert. "Die wollen und werden cheaten, also lassen wir sie doch" — diese Quintessenz, die ich Demirugs Posting zu entnehmen können glaube, ziehe ich nicht.
ShadowXX
2003-07-02, 09:52:49
full ack zu Demirug.
Und wie schon nggalai bemerkt, wird der Leidtragende der 'normale' Kunde sein.
Ich lese inzwischen überhaupt keine PR-Dokumente/Seiten/Whitepaper etc. der IHV's mehr.
Das was da drauf steht ist entweder so wischiwaschi das die angeprisene Technik eigentlich alles kann oder die 'nackten' Zahlen sind so übertreiben das man schon sehr leichtgläubig sein muss um diese zu glauben.
Wenn also neue Karten rauskommen warte ich erst mal mindestens 3-4 Tests von halbwegs vernünftigen Seiten ab, bevor ich mich entscheide....
Man wird die IHV's und auch die Vertreiber der GraKas allerdings bestimmt nicht davon überzeugen können das weniger manchmal mehr ist......Bin gespannt wann sie endlich nackte Frauen vor den Werbekarren spannen, es gilt ja bekanntlich 'Sex Sells'. (Dann brauchen sie auch die ganzen theoretischen Zahlenangaben mehr ;D )
(Und wer weiss...vielleicht war die doom3.exe dawn ja schon mal der erste Test...)
J.S.Shadow
PCGH_Thilo
2003-07-02, 09:55:44
Original geschrieben von aths
Naja doch, sein Artikel enthält ja einige Fehler.
Demirug, nggalai,
ich sehe das so: Sicherlich sind solche Taktiken keine gute Methode. Andererseits ist Cheating auch unfein. Jetzt den Teufel mit dem Beelzebub auszutreiben ist doch immerhin einen Versuch wert. "Die wollen und werden cheaten, also lassen wir sie doch" — diese Quintessenz, die ich Demirugs Posting zu entnehmen können glaube, ziehe ich nicht.
da unterschätzt du etwas die wirkung von webseiten. nicht jeder bildet sich über das internet. da sehe ich vor allem die magazine mit ihren millionenauflagen in der pflicht.
Demirug
2003-07-02, 10:15:50
Original geschrieben von aths
Demirug, nggalai,
ich sehe das so: Sicherlich sind solche Taktiken keine gute Methode. Andererseits ist Cheating auch unfein. Jetzt den Teufel mit dem Beelzebub auszutreiben ist doch immerhin einen Versuch wert. "Die wollen und werden cheaten, also lassen wir sie doch" — diese Quintessenz, die ich Demirugs Posting zu entnehmen können glaube, ziehe ich nicht.
Was bringt es diverse Optimierungen zu erkennen und zu unterbinden?
Null nix Zero
Im nächsten Treiber wird fröhlich weitergemacht.
Das würde nur eines geben. Wettrüsten. Und das Wettrüsten teuer ist dürften wir alle wissen.
Auf diese Art und Weise kann man das nicht abstellen.
Abstellen kann man das nur in dem man es unatraktiv werden läst was wiederum nur möglich ist wenn die IHVs vorher keine Ahnung haben was zur Leistungsbewertung herangezogen wird.
ShadowXX
2003-07-02, 10:25:02
@PCGH_Thilo
Original geschrieben von PCGH_Thilo
da unterschätzt du etwas die wirkung von webseiten. nicht jeder bildet sich über das internet. da sehe ich vor allem die magazine mit ihren millionenauflagen in der pflicht.
ja, da stimme ich dir zu...gerade die Magazine sollten etwas dafür tun das Ihre Leser besser aufgeklärt werden.....
Das Problem ist leider das gerade in den Magazinen, die eine grosse Zahl der (Mainstream/HighEnd)Grafikkarten-Käufer als Leserschaft haben, die 'Tests' und 'Reviews' der GraKas mehr schlecht als recht sind (->meistens von den Whitepapern bzw. PR-Web-Seiten der IHV's/GraKa-Hersteller abgeschrieben...).
Zum grössten Teil steht darin Müll, falsche Angaben und völlig schwachsinnige Benchmarks...
Ohne mich einschleimen zu wollen hat die PCHG allerdings die Qualität der Tests der Konkurenz (etwas, eigentlich eher minimal, aber besser ein kleines bisserl als überhaupt nichts...) Verbessert, aber insgesamt gesehen sind ein Grossteil der Tests/Reviews nur weitere PR der IHV's über die Medien....
J.S.Shadow
Nun, prinzipiell begrüße ich dieses Verhalten von den Marktführern. Wie könnte man sich besser eine eigene Meinung bilden, als durch das Betrachten beider Extreme? Sicherlich werden beide auch weiterhin cheaten aber zweifelsohne in geringerem Ausmaß, da es ab jetzt etwas schwieriger zu verstecken sein wird. Und was bringt mir der schönste 3DMark-Score, wenn ich dafür eine Titelstory auf einem renomierten Computer-Magazin bekomme, die mich für's Cheaten beim 3DMark basht? *mit Anglizismen um sich werf*
PCGH_Thilo
2003-07-02, 10:36:54
Original geschrieben von ShadowXX
@PCGH_Thilo
ja, da stimme ich dir zu...gerade die Magazine sollten etwas dafür tun das Ihre Leser besser aufgeklärt werden.....
Das Problem ist leider das gerade in den Magazinen, die eine grosse Zahl der (Mainstream/HighEnd)Grafikkarten-Käufer als Leserschaft haben, die 'Tests' und 'Reviews' der GraKas mehr schlecht als recht sind (->meistens von den Whitepapern bzw. PR-Web-Seiten der IHV's/GraKa-Hersteller abgeschrieben...).
Zum grössten Teil steht darin Müll, falsche Angaben und völlig schwachsinnige Benchmarks...
Ohne mich einschleimen zu wollen hat die PCHG allerdings die Qualität der Tests der Konkurenz (etwas, eigentlich eher minimal, aber besser ein kleines bisserl als überhaupt nichts...) Verbessert, aber insgesamt gesehen sind ein Grossteil der Tests/Reviews nur weitere PR der IHV's über die Medien....
J.S.Shadow
wäre schön, wenn sich die anderen mags mal etwas mehr mühe bei den tests geben. sehe gerade wieder ein schreckensbeispiel auf meinem tisch mit einer 1A-benchmarkauswahl: 3d winmark 200, 3d mark 2001, 3d mark 2003, aquamark 2.3 (muaahaa), q3a, villagemark und spec viewperf. natürlich kein aa oder af =)
allerdings geht mir manches "verbessern" zu weit. so finde ich in einem bestimmten heft regelmäßig 1:1 unsere ideen wieder.
Original geschrieben von aths
Ohne ein Bewusstsein beim Kunden, was cheaten ist, haben die entsprechenden Firmen (Mehrzahl!) ein Ticket, dieses Spielchen beliebig weiter zu treiben. Natürlich ist es fragwürdig wenn ausgerechnet der Hauptkonkurrent die "Journalisten" mit "Informationen" versorgt.
BTW, der Artikel auf THG ist in der Tat gar nicht mal so ganz übel geschrieben. Allerdings weiß ich nicht, was ATI da "aufrundet". Außerdem renderte Voodoo nicht intern mit 22 Bit, sondern natürlich mit 32 Bit. Dann würde ich auch gerne wissen wieso die unkomprimierten Bilder als BMP vorliegen und nicht als PNG. Also es waren nicht 32 bit intern bei den V3 sondern 24 ich glaube sogar 8 bit davon waren so ein filter!
ShadowXX
2003-07-02, 10:42:12
@Demirug
Original geschrieben von Demirug
Abstellen kann man das nur in dem man es unatraktiv werden läst was wiederum nur möglich ist wenn die IHVs vorher keine Ahnung haben was zur Leistungsbewertung herangezogen wird.
Könnte man sowas (zumindest im kleinen Rahmen nicht hier bzw. auf 3dcenter) nicht mal durchführen???
Wir haben hier doch DX und OGL programmierer.
Wenn jeder davon ein kleinen Programmteil (also Teilbench) zu diesem Benchmark schreibt, ist es auch nicht so viel Arbeit (relativ gesehen).
Da 'unsere' Programmierer auch die 'kleinen' Schwächen der jeweiligen GraKas kennen, könnte man auch speziell darauf bestimmte Teilbenches realisieren.
Zumindest beim 'allerersten' mal wo dieser Bench genommen wird, sollten die Ergebnisse ziemlich genau stimmen und man muss diesen 'speziellen Bench' ja auch nicht sofort bei erscheinen laufen lassen, sondern könnte warten bis die Treiber als 'Fertig/Gut/Schnell' gelten.
Nur so eine Idee...bin zwar nur Oberflächen/Systemprogrammierer (Win2k/XP) aber eine hübsche Oberfäche würde ich auch freiwillig dazuprogrammieren...
J.S.Shadow
PCGH_Thilo
2003-07-02, 10:43:51
Original geschrieben von Gast
Also es waren nicht 32 bit intern bei den V3 sondern 24 ich glaube sogar 8 bit davon waren so ein filter!
es waren 32 Bit intern (!), da hat aths schon recht =)
extern waren es dann "22" Bit.
Exxtreme
2003-07-02, 10:46:16
Original geschrieben von PCGH_Thilo
extern waren es dann "22" Bit.
Das wurde zwar "22-Bit" genannt, es waren aber 16-Bit. Man hat die Artefakte des 16-Bit-Ditherings mit dem Postfilter unterdrückt.
ShadowXX
2003-07-02, 10:56:38
Original geschrieben von PCGH_Thilo
allerdings geht mir manches "verbessern" zu weit. so finde ich in einem bestimmten heft regelmäßig 1:1 unsere ideen wieder.
das ist mir auch schon aufgefallen......
Original geschrieben von Exxtreme
Das wurde zwar "22-Bit" genannt, es waren aber 16-Bit. Man hat die Artefakte des 16-Bit-Ditherings mit dem Postfilter unterdrückt. Da war was mit sonem filter nicht wahr? Konnte aber auf die schnelle nichts finden, und wäre dankbar über einen link wo das mit den 32 bit nachlesbar ist ich habe nur quellen die von 24 bit nichtmal von 22 sprechen 16 bit plus 8 bit post filter macht halt 24
PCGH_Thilo
2003-07-02, 14:42:12
Original geschrieben von Exxtreme
Das wurde zwar "22-Bit" genannt, es waren aber 16-Bit. Man hat die Artefakte des 16-Bit-Ditherings mit dem Postfilter unterdrückt.
deshalb auch mein anführungszeichen ;-)
Original geschrieben von PCGH_Thilo
da unterschätzt du etwas die wirkung von webseiten. nicht jeder bildet sich über das internet. da sehe ich vor allem die magazine mit ihren millionenauflagen in der pflicht. Ja, die immer schön den Anspruch an den Leser gering halten. Und die zu faul oder inkompetent sind, über Cheats aufzuklären. (Man will ja auch keine Anzeigenkunden verlieren...) Die Pflicht die Chef-Reds sehen ist meistens nur, möglichst viele Hefte zu verkaufen. Da ist dann eine GeForce4 Ti 4200 auch schon mal besser als 'ne Radeon 9700...
Original geschrieben von Gast
Also es waren nicht 32 bit intern bei den V3 sondern 24 ich glaube sogar 8 bit davon waren so ein filter! 8 Bit pro Kanal, 4 Kanäle (RGBA) = 32 Bit. 3dfx schrieb auf der Packung auch was von 32-Bit-Pipeline. Der Postfilter rekonstruiert aus je 4 Werten à 16 Bit einen 22-Bit-Wert, jedoch nur, wenn die Unterschiede in den Farbwerten gering genug ist (sonst würde man ja allgemeine Unschärfe haben.)
Original geschrieben von Gast
habe nur quellen die von 24 bit nichtmal von 22 sprechen 16 bit plus 8 bit post filter macht halt 24 Ja, aber 24 Bit sind nicht 22 Bit. Und intern mit nur 16 Bit zu rendern wäre eine sehr schlechte Idee.
ow@work
2003-07-02, 16:13:43
Original geschrieben von aths
8 Bit pro Kanal, 4 Kanäle (RGBA) = 32 Bit. 3dfx schrieb auf der Packung auch was von 32-Bit-Pipeline. Der Postfilter rekonstruiert aus je 4 Werten à 16 Bit einen 22-Bit-Wert, jedoch nur, wenn die Unterschiede in den Farbwerten gering genug ist (sonst würde man ja allgemeine Unschärfe haben.)
?? wieso wuerde ??
die unschaerfe hat man.
der postfilter arbeitet sicher nicht selektiv sondern macht das ganze bild unscharf.
Original geschrieben von ow@work
der postfilter arbeitet sicher nicht selektiv sondern macht das ganze bild unscharf.
Wieso sollte er?
Original geschrieben von ow@work
?? wieso wuerde ??
die unschaerfe hat man.
der postfilter arbeitet sicher nicht selektiv sondern macht das ganze bild unscharf. ow, das stimmt nicht. Nvidias Quincunx macht das ganze Bild unscharf, der 3dfx'sche 22-Bit-Postfilter nicht. Dieser reduziert (eliminiert) lediglich die Raster-Artefakte die man bei 1 oder 2 Ditherings bekommt (und glättet dementsprechend natürlich auch sehr schwachkontrastige Texturen.) Wird ein Schwellwert überschritten, findet keine Filterung statt. Dieses Verfahren ist adaptiv und ob geglättet wird oder nicht, wird für jedes Frame für jedes Pixel neu entschieden. Das wurde doch inzwischen schon oft genug geklärt :|
Xmas und ich hatten diese Eigenschaft (mit Vergleich Monitorbild-Screenshot) schon vor einiger Zeit am 'lebenden Objekt' untersucht. Der große 22-Bit-Postfilter-Artikel auf beyond3d hat die gleiche Quintessenz.
mapel110
2003-07-02, 22:33:17
http://babelfish.altavista.com/babelfish/urltrurl?lp=ru_en&url=http%3A%2F%2Fwww.ixbt.com%2Fvideo2%2Fantidetect.shtml
hellbinder und sein anti detector
ati verliert ca 385 points bei 3dmark01 und nvidia 1243.
O_o
http://www.warp2search.net/article.php?sid=12918&mode=thread&order=0
meldung dazu
Razor
2003-07-02, 22:37:39
Original geschrieben von mapel110
http://babelfish.altavista.com/babelfish/urltrurl?lp=ru_en&url=http%3A%2F%2Fwww.ixbt.com%2Fvideo2%2Fantidetect.shtml
hellbinder und sein anti detector
ati verliert ca 385 points bei 3dmark01 und nvidia 1243.
O_o
http://www.warp2search.net/article.php?sid=12918&mode=thread&order=0
meldung dazu
Und wo wir schon dabei sind, hier das stark verkleinerte Differenzchen von nVidia:
(auf die nächste Seite verschoben ;-)
Razor
2003-07-02, 22:38:03
Und gleich noch das von ATI:
Razor
2003-07-02, 22:38:45
Und nochemal von nVidia (der neuen Seite wegen ;-):
mapel110
2003-07-02, 22:44:54
tja, so wies schaut, hat nvidia die besseren treiber ;) aber das wussten wir ja schon vorher :D
Exxtreme
2003-07-02, 22:50:29
Original geschrieben von mapel110
http://babelfish.altavista.com/babelfish/urltrurl?lp=ru_en&url=http%3A%2F%2Fwww.ixbt.com%2Fvideo2%2Fantidetect.shtml
hellbinder und sein anti detector
Du meinst Unwinder und nicht Hellbinder. ;)
Hellbinder ist jemand gaaaanz anderes. :D :D :D
mapel110
2003-07-02, 23:04:55
Original geschrieben von Exxtreme
Du meinst Unwinder und nicht Hellbinder. ;)
Hellbinder ist jemand gaaaanz anderes. :D :D :D
naja, soweit liegen die auch nicht auseinander. beides freaks ;)
Razor
2003-07-03, 06:29:24
Original geschrieben von mapel110
tja, so wies schaut, hat nvidia die besseren treiber ;) aber das wussten wir ja schon vorher :D
Witzig finde ich eigentlich, dass beide IHV's die gleichen Bildschirmbereiche angegangen sind.
Aber ja, nVidia hat da mehr Performance raus geholt... *eg*
Razor
Exxtreme
2003-07-03, 08:54:57
Original geschrieben von mapel110
naja, soweit liegen die auch nicht auseinander. beides freaks ;)
Sie liegen meilenweit ausseinander... glaub's mir. ;)
StefanV
2003-07-03, 12:42:18
Original geschrieben von Exxtreme
Du meinst Unwinder und nicht Hellbinder. ;)
Hellbinder ist jemand gaaaanz anderes. :D :D :D
War Unwider nicht derjenige, der aths mitm aTuner geholfen hat und derjenige, der den Rivatuner samt der Patchscripte verbrochen hat??
DrumDub
2003-07-03, 12:53:55
exakt der. hellbinder dagegen ist ein fanATIc... ;)
Exxtreme
2003-07-03, 12:55:24
Original geschrieben von Stefan Payne
War Unwider nicht derjenige, der aths mitm aTuner geholfen hat und derjenige, der den Rivatuner samt der Patchscripte verbrochen hat??
Genau. :)
Demirug
2003-07-03, 13:47:40
Da ihr hier schon damit angefangen habt mache ich mal keinen eigenen Thread dafür auf.
Den Artikel gibt es jetzt auch in Englisch: http://www.digit-life.com/articles2/antidetect/index.html
Quasar
2003-07-03, 14:40:35
q.e.e. (sorry für das kurze Statement).
Keiner ist unschuldig...
edit:
@Demirug: Ja, quod erat expectandum
Demirug
2003-07-03, 14:53:41
Original geschrieben von Quasar
q.e.e. (sorry für das kurze Statement).
Keiner ist unschuldig...
q.e.e. = quod erat expectandum ?
Mein Latein ist leider nicht das beste und bei Akkürzungen hört es dann meist ganz auf.
DrumDub
2003-07-03, 15:46:07
genau:
Quod Erat Expectandum = Was zu erwarten war!
mapel110
2003-07-03, 16:32:15
Original geschrieben von DrumDub
genau:
Quod Erat Expectandum = Was zu erwarten war!
ack
qed quod erat demonstrandum = was zu beweisen war
hatte zwar kein latein, aber das steht bei mir meist unter den mathemitschriften :D
Razor
2003-07-03, 17:11:35
Und damit ist es dann auch amtlich.
nVidia verliert...
ATI verliert...
...von wegen 'starke' Shader-Performance beim R200.
*pah*
Schande über alle !
:D
Razor
Razor
2003-07-03, 17:15:50
Original geschrieben von Ikon
Wie arm, Razor.
Warum ?
Die IHV's sind alle gleich !
Was soll daran 'arm' sein ?
???
Razor
mapel110
2003-07-03, 17:17:48
Original geschrieben von Razor
Warum ?
Die IHV's sind alle gleich !
Was soll daran 'arm' sein ?
???
Razor
naja, sagen wirs so "nvidia ist ärmer als ATI" :D
Razor
2003-07-03, 17:23:37
Original geschrieben von mapel110
naja, sagen wirs so "nvidia ist ärmer als ATI" :D
Willst hier tatsächlich noch differenzieren ?
Genauso könnte man behaupten, dass die ATI-Treiber-Progger einfach nicht zu mehr fähig waren...
(was ich hiermit nicht tun möchte !)
Sorry, das ist ein Armutszuegnis für die GraKa-Industrie.
Bin ja mal echt gespannt, wie weit das noch gehen wird und ob nach dieser 'Schlammschlacht' überhaupt noch jemand Interesse für neue Technologie (dieser Art) aufbringt.
ALLE haben sie Deck am Stecken !
Matrox vielleicht nicht, begnügen Sie sich ja auch so ziemlich mit dem letzten Platz...
(und sind noch immer nicht tot)
Neee...
Mal schaun', was da noch so kommt.
Razor
P.S.: Interessant auf jeden Fall, dass ja hier der Murk01 behandelt wurde... nix niegel-nagel-neuer Murks, nein... der alte... und Unwinder hat einen ganzen Tag gebraucht, um diesen Mißstand aufzudecken... ganz ohne Source-Code !
Wie war das noch gleich mit dem Beta-Programm der Zwiebel-Jungens ?
???
Quasar
2003-07-03, 17:25:27
Original geschrieben von mapel110
naja, sagen wirs so "nvidia ist ärmer als ATI" :D
Die Ti4600 verliert ~43% und die R9500(Pro) verliert ca. 29%.
So gesehen ist nV tatsächlich ärmer...
Aber man sollte nicht übersehen, welche Karten dort verglichen wurden.
Demirug
2003-07-03, 18:34:04
Original geschrieben von Razor
Wie war das noch gleich mit dem Beta-Programm der Zwiebel-Jungens ?
???
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=73086
*scnr*
Razor
2003-07-03, 19:54:45
Original geschrieben von Demirug
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=73086
*scnr*
Kenn' ich doch schon läääääängst *eg*
Wie schnell die Realität doch von der Phantasie eigeholt werden kann !
(oder umgekehrt ;-)
Aber wirklich lesenswert !
Razor
Exxtreme
2003-07-03, 22:14:36
Ein seeehr interessanter Thread @ B3D:
http://www.beyond3d.com/forum/viewtopic.php?p=137300
LovesuckZ
2003-07-03, 22:23:47
http://www.beyond3d.com/forum/viewtopic.php?t=6719&postdays=0&postorder=asc&start=0
Also sind auch Nvidia's UT2003 AF Werte "gefaked" ?
/edit: hm, zu langsam...
Razor
2003-07-03, 22:34:38
Original geschrieben von LovesuckZ
http://www.beyond3d.com/forum/viewtopic.php?t=6719&postdays=0&postorder=asc&start=0
Also sind auch Nvidia's UT2003 AF Werte "gefaked" ?
/edit: hm, zu langsam...
Wie mann's nimmt...
Klar sind sie gefaket !
Aber wie hier auch schon nach dem Verursacher-Prinzip geurteilt wird:
"nVidia faket hier nicht ganz so stark, wie ATI !"
:lol:
Ich denke, dass hier jeder versteht, wie ich das meine...
(ist auf den Inhalt anderer Threads bezogen)
:D
Razor
Demirug
2003-07-03, 22:40:48
mhm irgendwie bekomme ich da Bauchschmerzen. Die beiden "Vergleichshots" haben doch eine gewisse Abweichung in der Bildlage und auch Jpeg Fragmente.
Und auf eingefärbte Mip-Maps gebe ich bei den FXen nicht mehr allzu viel. ;)
LovesuckZ
2003-07-03, 22:43:43
Grad mal getestet mit dem AntiCheat Script:
Pyramid Demo faellt von 47 -> 39 mit 8QAF
Und nun der Hammer:
Nature (01) faellt von 119 -> 66 ohne AA/AF ... <-- :schlag:
Exxtreme
2003-07-03, 22:46:37
LovesuckZ,
mach büdde noch mehr Tests. =)
LovesuckZ
2003-07-03, 22:47:38
Original geschrieben von Exxtreme
LovesuckZ,
mach büdde noch mehr Tests. =)
Morgen, außer jemand übernimmt dies.
Razor
2003-07-03, 22:49:06
Original geschrieben von Exxtreme
LovesuckZ,
mach büdde noch mehr Tests. =)
Aber bitte nur, wenn Du auch welche mit Deinem
"konkrett krasse System (http://www.nethands.de/pys/show.php4?user=Exxtreme)"
machst, oder ?
;-)
Razor
Razor
2003-07-03, 22:50:10
Original geschrieben von LovesuckZ
Grad mal getestet mit dem AntiCheat Script:
Pyramid Demo faellt von 47 -> 39 mit 8QAF
Und nun der Hammer:
Nature (01) faellt von 119 -> 66 ohne AA/AF ... <-- :schlag:
Aber bitte schau auch auf die BQ... meine, ob sich da was verändert, oder nicht...
:D
Razor
Exxtreme
2003-07-03, 22:52:38
Original geschrieben von Razor
Aber bitte nur, wenn Du auch welche mit Deinem
"konkrett krasse System (http://www.nethands.de/pys/show.php4?user=Exxtreme)"
machst, oder ?
;-)
Razor
Morgen abend. :)
Ich geh' gleich penn0rn.
Original geschrieben von Razor
Wie mann's nimmt...
Klar sind sie gefaket !
Aber wie hier auch schon nach dem Verursacher-Prinzip geurteilt wird:
"nVidia faket hier nicht ganz so stark, wie ATI !"
:lol:
Ich denke, dass hier jeder versteht, wie ich das meine...
(ist auf den Inhalt anderer Threads bezogen)
:D
Razor
Bist du wirklich so dumm?! Erst besingst du hier tagelang den Qualitätsvorteil von Nvidia beim AF und dann soll dir das nichtmal aufgefallen sein. :schlag:
Und jetzt spielst du es runter, war ja nichst. :rofl: Und wenn nVidia cheatet ist das eh ok.
Quasar
2003-07-04, 11:10:47
Original geschrieben von Gast
[zensiert, um den Mods Arbeit zu ersparen]
Du, lieber "Gast", wenn du denn wirklich einer bist (meine Gäste verhalten sich anders...), und nicht nur zufällig deinen Keks vermisst, bist ein richtig gutes Beispiel dafür, warum immer mehr Foren Individuen wie dir nur nach vorheriger Anmeldung das Posten gestatten:
Nichts konstruktives beizutragen, aber aus der Anonymität heraus Leute anpöbeln.
Mal sehen, wie lange sich Leonidas noch für das Posten von Unregs durchringt.
Exxtreme
2003-07-04, 11:57:20
Original geschrieben von Gast
Bist du wirklich so dumm?! Erst besingst du hier tagelang den Qualitätsvorteil von Nvidia beim AF und dann soll dir das nichtmal aufgefallen sein. :schlag:
Und jetzt spielst du es runter, war ja nichst. :rofl: Und wenn nVidia cheatet ist das eh ok.
Ey Freundchen,
lies dir konkrett die Forumsregeln durch. Falls du den Link nicht findest, hier isser:
http://www.3dcenter.org/vbulletin/eigenes/regeln.php
Mr. Lolman
2003-07-04, 12:45:34
Hmm, so ein schlimmer Flame war das doch nicht. Mann erinnere sich an Posts von manchen Regs. OK die Formulierung war wohl etwas schlechtgewählt. Aber die Grundaussage hätte früher oder später auch als Frage aufgeworfen.
IMHO wars nggalai der als erstes von Trickserei beim NV AF sprach. (und das nur anhand der erzielten Leistungssteigerung ggü. des. Vorgeängerdeto) Trotzdem wars NV AF so gut wie perfekt, und die Winkelabhängigkeit von ATis AF extrem sh1ce. Mann sieht halt die Sachen immer gerne so, wie mans sehen will.
Da könnte jetzt auch der Spruch aus Madkillers Sig. ganz gut passen.
Omnicron
2003-07-04, 13:01:13
Original geschrieben von Mr. Lolman
IMHO wars nggalai der als erstes von Trickserei beim NV AF sprach. (und das nur anhand der erzielten Leistungssteigerung ggü. des. Vorgeängerdeto) Trotzdem wars NV AF so gut wie perfekt, und die Winkelabhängigkeit von ATis AF extrem sh1ce. Mann sieht halt die Sachen immer gerne so, wie mans sehen will.
Da könnte jetzt auch der Spruch aus Madkillers Sig. ganz gut passen.
Wenn darunter die BQ nicht leidet, ist NVs Optimierung ja auch nicht so schlecht, du sagst ja selber man kann die Optimierung nur durch die Leistungsteigerung erkennen.
Bei ATi wurde ja so gemeckert, da die BQ durch die Optimierung schlechter war als vorher.
Quasar
2003-07-04, 13:03:15
Hm,
Also wirkliche bilineare Mipübergänge sehe ich nach wie vor beim optimierten nV-AF nicht (es ist zwar nicht durchgehend korrekt trilinear gefiltert, aber besser als ein bilinearer Übergang sieht es schon aus, da keine separate "Stufe" in der Texture, sondern ein kurze "Rampe", wenn man so will). Bei ATi hingegen schon. Hinzu kommt dessen Winkelabhängigkeit.
Mr. Lolman
2003-07-04, 13:25:26
Original geschrieben von Omnicron
Wenn darunter die BQ nicht leidet, ist NVs Optimierung ja auch nicht so schlecht, du sagst ja selber man kann die Optimierung nur durch die Leistungsteigerung erkennen.
Bei ATi wurde ja so gemeckert, da die BQ durch die Optimierung schlechter war als vorher.
Dann hätte schon beim Catalyst 3.1 gemeckert werden müssen. (Denn seit dem ist die Optimierung vorhanden) Da wars aber auch nur anhand der Leistungssteigerung erkennbar.
BTW: Bei NV wurde die BQ auch schlechter.
Und ob es jetzt schlechter ist, Texturstages > 0 nur bilinear zu filtern, dafür der Stage 0 volles tri-AF zu gönnen, oder ob man überhaupt kein vernünftiges tri-AF verwendet sondern nur eine Approximation dessen, ist IMHO von Fall zu Fall unterschiedlich.
LovesuckZ
2003-07-04, 13:35:18
Exxtreme wollte ja noch nen paar tests haben. Spiele folgen irgendwann heut abend.
Syn 44.65 44.65 ACS %
Aquamark 86.8 77.6 12
ChameleonMark
Glass 155.567 155.648 0
Real 227.896 227.723 0
Shiny 154.362 154.362 0
codecreatures 40.6 31.7 28
gunmetal B1 27.3 24.78 10
D3DFableMark 52.5 52.5 0
3DMark2001 14417 12533 15
GameTest1 LQ 206.4 209.8 -1.2
GameTest1 HQ 67.5 68.2 -1.2
GameTest2 LQ 254.5 208 22
GameTest2 HQ 144.9 120.1 20
GameTest3 LQ 191.9 168.2 14
GameTest3 HQ 85.6 83.3 2
GameTest4 96.5 53.1 81
3DMark2003 320 4673 3280 42
GameTest1 161.7 144.4 12
GameTest2 31.2 20.4 52
GameTest3 26.1 18.6 40
GameTest4 28.7 13.5 112
====================================================================
Syn 8QAF 44.65 44.65 ACS %
Aquamark 63.1 61.7 2
ChameleonMark
Glass 68.1093 68.3429 0
Real 56.2771 56.447 0
Shiny 64.8731 64.859 0
codecreatures n/A n/A
gunmetal B1 n/A n/A
D3DFableMark 49.9 49.9 0
3DMark2001 13098 10513 24
GameTest1 LQ 183 169.4 8
GameTest1 HQ 65.7 65.6 0
GameTest2 LQ 231.2 169.9 36
GameTest2 HQ 125.1 101.8 22
GameTest3 LQ 186.3 153.3 21
GameTest3 HQ 82.6 76.7 7
GameTest4 81.3 35.4 130
3DMark2003 3897 2319 68
GameTest1 123.1 102.2 20
GameTest2 28.8 15.2 89
GameTest3 24.2 13.4 77
GameTest4 20.6 9.9 108
Demirug
2003-07-04, 13:58:41
@LovesuckZ: hast du es auch mal mit dem uncheatbaren 330 Patch ausprobiert?
Omnicron
2003-07-04, 14:06:05
Original geschrieben von Demirug
@LovesuckZ: hast du es auch mal mit dem uncheatbaren 330 Patch ausprobiert?
Der 44.65 hat doch wieder Optimierungen gegen den 330, also was sollte daran anders sein ?
LovesuckZ
2003-07-04, 17:23:16
Nun mit nen paar Spielen:
Spiele 44.65 44.65 ACS %
UT 2003 FlyBy Low FPS
antalus 73.010353 75.167908 -3
asbestos 83.140541 76.305328 9
citadel 41.166924 39.216076 5
face3 31.005919 34.201611 -9
inferno 59.586781 47.453365 25
phobos2 56.025185 49.072212 14
suntemple 69.550919 64.218826 8
UT2003 - BotMatch Score
antalus 50.335499 51.372158 -2
anubis 70.687866 73.497307 -4
asbestos 72.166069 73.848671 -3
citadel 49.950191 49.862488 0
inferno 62.610737 52.114643 20
suntemple 67.405525 68.34922 -2
Splinter Cell
1_1_1
TbilisiDemo 36.492035 36.48568 0
1_1_2
TbilisiDemo 37.688291 37.706962 0
2_2_1
KalinatekDemo 46.802031 46.899933 0
1_3_2
CaspianOil
Refinery 32.178979 32.357116 0
Comanche 4 49.3 50.06 -3
Breed Fraps 145.935 150.366 -3
F1 Racing
Championship
Fraps 48 47 2
========================================================
Spiele 8QAF 44.65 44.65 ACS %
UT 2003 FlyBy Low FPS
antalus 69.876823 35.826508 95
asbestos 59.430618 34.588367 71
citadel 50.73811 21.71438 133
face3 31.707783 24.929848 27
inferno 46.484715 20.511559 126
phobos2 44.30801 26.033367 70
suntemple 51.011024 30.654459 66
UT2003 - BotMatch Score
antalus 50.131626 41.808224 20
anubis 70.478241 59.656761 18
asbestos 71.91729 69.359428 3
citadel 49.63765 40.606686 22
inferno 53.732952 29.93684 80
suntemple 62.892448 43.012344 46
Splinter Cell AVERAGE FPS
1_1_1
TbilisiDemo 28.083833 28.097608 0
1_1_2
TbilisiDemo 32.473027 32.476036 0
2_2_1
KalinatekDemo 30.977881 30.996506 0
1_3_2
CaspianOil
Refinery 24.768212 24.961424 0
Comanche 4 47.32 46.5 2
Breed Fraps 119.417 120.595 -1
F1 Racing
Championship
Fraps 47 47 0
Karte war ne 5800 auf 400/800.
Radeonator
2003-07-04, 18:42:32
Ich seh das so : Mir egal, wenns richtig zwischen beiden abgeht, heisst das gute preise und schnellere Entwicklung.
Wer wann erster ist, war mir immer schon scheissegal, hauptsache ich kann die GPU/VPU (whatever) mal test00rn...btw hoffentlich kommt morgen meine Bestellung ;)
Denniss
2003-07-04, 23:55:07
Hmmm - sind ja teils recht heftige Verluste bei NV
Jetzt bräuchten wir ncch jemanden der diese Test mit 'ner Radeon 9700 oder besser durchziehen kann ...
Razor
2003-07-05, 08:19:42
Original geschrieben von Quasar
Hm,
Also wirkliche bilineare Mipübergänge sehe ich nach wie vor beim optimierten nV-AF nicht (es ist zwar nicht durchgehend korrekt trilinear gefiltert, aber besser als ein bilinearer Übergang sieht es schon aus, da keine separate "Stufe" in der Texture, sondern ein kurze "Rampe", wenn man so will). Bei ATi hingegen schon. Hinzu kommt dessen Winkelabhängigkeit.
Eben.
Vergleiche, die ich früher zwischen der R300 und der gf3 machte, haben auch nur ergeben, dass die Texture-Filterung bei beiden in etwa gleich ist (was die Schärfe angeht), die ATI-Karte aber ein leichtes Banding aufwies (im 'Quality'-Mode !) und in Scenen mit 'ungünstigen' Winkeln um einiges schlechter filterte. Auch heute noch kann ich kein Banding mit der FX5200 im 'Quality'-Mode erkennen (auch unter UT2003 nicht ;-).
Hmmm...
Razor
Razor
2003-07-05, 08:20:30
Original geschrieben von Mr. Lolman
BTW: Bei NV wurde die BQ auch schlechter.
Wo ?
???
Razor
Razor
2003-07-05, 08:24:32
Original geschrieben von Denniss
Hmmm - sind ja teils recht heftige Verluste bei NV
Jetzt bräuchten wir ncch jemanden der diese Test mit 'ner Radeon 9700 oder besser durchziehen kann ...
Vor allen Dingen wäre doch interessant, ob auch die BQ unterschiedlich ist.
Wenn nicht, dann ist diese ganze Betrachtung hinfällig...
Razor
Mr. Lolman
2003-07-05, 09:07:53
Original geschrieben von Razor
Wo ?
???
Razor
Bei UT2003 kann man Rampen sehen (wenn man will)
Razor
2003-07-05, 10:06:14
Original geschrieben von Mr. Lolman
Bei UT2003 kann man Rampen sehen (wenn man will)
Kein Banding (oder 'rampen') mit FX5200 und Deto43.45...
Vielleicht werd' ich nachher nochmal mit dem 44.65 testen.
Razor
So es hies immer eine gpu ist nix ohne das treiber team gut nv hat mehr leistung rausgeholt als ati wenn nun die qualität gleich bleibt kann man drauf kacken!
Aber Warum kann man bei ner 128 mb ati karte keine 256 mb agp dazugeben (d3d spiele laufen überhauptnicht mehr cat3.5 mit hotfix)
es war eine 9500 pro und ne 9600 pro. Sidebandadressibg ohh wie würde da fruher auf nv rumgehackt bitte bei ati weitermachen denn dagehts auch nicht ohne textur fehler und sponntane freezes!
Warum hat ein GF4ti 4600 den komischen effekt das ich in denn cpu und sound tests mehr frames habe als mit den atis?
Pixel fehler im pixelshader 2.0 test an den beinen.
postal2 texturen der bäume sind ja grausam egal was ich an af aa oder textur einstellungen mache.
Q3 spielen nach diablo oder andersherum geht nicht neustarten na toll.
d3d menus immer wenn man einen menupunkt anwählt sieht man weise streifen oder kästen unterlegt.
hervoragend ist allerdings die kantenglatung aber irgendwie scheinen die texturen bei postal2 sehr verschiedene helligskeitswerte haben man sieht wie sie übereinander liegen.
splinter cell licht (feuer und nachtsichtgerät)ihh was is denn das?
Mr. Lolman
2003-07-05, 12:34:54
Original geschrieben von Gast
So es hies immer eine gpu ist nix ohne das treiber team gut nv hat mehr leistung rausgeholt als ati wenn nun die qualität gleich bleibt kann man drauf kacken!
Die Qualität kann nicht gleichgeblieben sein, da z.B. für UT2003 bei den FX Karten einfach die Einstellungen überschrieben werden und nur eine Approximation statt echtem Tri-AF verwendet wird.
Deswegen sind die AF-Werte für die Tonne
Aber Warum kann man bei ner 128 mb ati karte keine 256 mb agp dazugeben (d3d spiele laufen überhauptnicht mehr cat3.5 mit hotfix)
es war eine 9500 pro und ne 9600 pro. Sidebandadressibg ohh wie würde da fruher auf nv rumgehackt bitte bei ati weitermachen denn dagehts auch nicht ohne textur fehler und sponntane freezes!
Reichen dir 128MB nicht? Ich spiele alle Spiele mit min. 4xAA.
FW und SBA sind bei mir an.
Warum hat ein GF4ti 4600 den komischen effekt das ich in denn cpu und sound tests mehr frames habe als mit den atis?
Dürfte an der CPULast der GraKa Treiber liegen. Aber keine Sorge, bei den FXen ist die CPU Last noch höher.
Pixel fehler im pixelshader 2.0 test an den beinen.
Hast du den Test schon mal auf einer FX Karte gesehen?
postal2 texturen der bäume sind ja grausam egal was ich an af aa oder textur einstellungen mache.
Liegt am Alphatest. Am besten eine FX5900 Ultra kaufen 8xS AA anmachen und danndie Grafik geniessen. Die Bäume sind dann ca. so gut geglättet wie bei einer Voodoo5 mit 2xAA.
Q3 spielen nach diablo oder andersherum geht nicht neustarten na toll.
Kann sein. Wäre aber in der Tat etwas seltsam. Hast du schon einen anderen Treiber probiert?
d3d menus immer wenn man einen menupunkt anwählt sieht man weise streifen oder kästen unterlegt.
Ist garantiert nicht IMMER. Falls es doch auftritt - bei den Kompatibiltätseinstllungen "alternatives Pixelzentrum" aktivieren.
hervoragend ist allerdings die kantenglatung aber irgendwie scheinen die texturen bei postal2 sehr verschiedene helligskeitswerte haben man sieht wie sie übereinander liegen.
Du meinst Detailtexturing, das liegt am Spiel selbst und hat nix mit der Kantenglättung zu tun.
splinter cell licht (feuer und nachtsichtgerät)ihh was is denn das?
Was soll da nicht stimmen? Das AA nicht geht, liegt an der Technik des Spieles... ...falls du das meinst. Ansonsten sollte alles in Ordnungsein.
LovesuckZ
2003-07-05, 12:55:24
Original geschrieben von Mr. Lolman
Die Qualität kann nicht gleichgeblieben sein, da z.B. für UT2003 bei den FX Karten einfach die Einstellungen überschrieben werden und nur eine Approximation statt echtem Tri-AF verwendet wird.
Deswegen sind die AF-Werte für die Tonne
Aha, bei Nvidia sind die AF Werte fuer die Tonne, bei ATi nicht. naja stimmt: Wenn Nvidia in einem Game cheatet, ist es ein Weltuntergang, macht es ATi in jedem D3D Game, dann interessiert es keinen.
Und zur Qualitaet der Treiber: Wie lange bestand der Stutteringbug bei ATi?
Selbst mit dem 2. FX Treiber (44.03) hat Nvidia mehr erreicht, als ATi in ganzen 6 Monaten...
Exxtreme
2003-07-05, 12:56:51
Original geschrieben von Gast
Aber Warum kann man bei ner 128 mb ati karte keine 256 mb agp dazugeben (d3d spiele laufen überhauptnicht mehr cat3.5 mit hotfix)
Läuft bei mir ohne Probleme. :)
Original geschrieben von Gast
es war eine 9500 pro und ne 9600 pro. Sidebandadressibg ohh wie würde da fruher auf nv rumgehackt bitte bei ati weitermachen denn dagehts auch nicht ohne textur fehler und sponntane freezes!
Läuft bei mir auch ohne Probleme.
Original geschrieben von Gast
Warum hat ein GF4ti 4600 den komischen effekt das ich in denn cpu und sound tests mehr frames habe als mit den atis?
Spielst du oft diese Sound- und CPU-Tests?
Original geschrieben von Gast
Pixel fehler im pixelshader 2.0 test an den beinen.
Habe ich auch. Aber den PS2.0-Test spiele ich nicht so oft. ;)
Original geschrieben von Gast
postal2 texturen der bäume sind ja grausam egal was ich an af aa oder textur einstellungen mache.
Alpha-Testing? Da versagt MSAA total da es keine Alpha-Texturen glättet. Dagegen hilft nur SSAA.
Original geschrieben von Gast
d3d menus immer wenn man einen menupunkt anwählt sieht man weise streifen oder kästen unterlegt.
Spiel mal an der Option "alternative Pixelcenter". Kann sein, daß es verschwindet.
Original geschrieben von Gast
hervoragend ist allerdings die kantenglatung aber irgendwie scheinen die texturen bei postal2 sehr verschiedene helligskeitswerte haben man sieht wie sie übereinander liegen.
Detailtexturen?
Original geschrieben von Gast
splinter cell licht (feuer und nachtsichtgerät)ihh was is denn das?
Das haben die Entwickler des Spiels verbockt.
ja ne fx habe ich da schon gesehn selbst mit der 4600 kannst u den shader 2.0 emulieren! (Nein ut 2003 habe ich nicht hatte aber nichts mit dem post vorher zu tun aber egal wie siehts den da mit fp aus nv und ati beide auf fp32?)
Selbst emuliert gibts dort keine pixelfehler (weise flimmernden punkte an den beinen hinten ele und rino!
Es geht nicht darum ob sie mir reichen oder nicht aber wenn man 512 mb hauptspeicher hat kann man der karte ja 256 mb anstat 128 mb agp dazu geben das wird dan mit nem schwartzen bildschirm gedankt.
Also fast writes an ja funzt in games aber der 3d 03 bleibt stehen immer an einer anderen stelle (denke das das nicht 100 pro in ordnung ist kann sein das spiele bei ner bestimten routine auch abkacken)!
cpu last bei den fx ist nicht so wie mit en atis habe da mit ner 5600 ultra die höchsten werte!
Ahh das mit den bäumen sieht auf der ti 4600 als standart besser aus klar und egal ob du bei ati höchste quali oder gerringste quali einstellst und dann af oder aa oder af und aa mischmodie dazu gibst. Heist die baum textur (rinde/borke) ist einfach schlechter.
Ja treiber alle mal gescheckt auch die mega immer neues sys ohne alt last.
das mit dem pixel zentrum ist sehr interesant für den murks denn das aktiviert und er läust mit viel glück auch 1 MAL mit fast writes an. Ja un dann der tolle weise streifen unten rechts in der ecke!
Du meinst Detailtexturing, das liegt am Spiel selbst und hat nix mit der Kantenglättung zu tun.
Nö meine ich nicht man sieht das es zwei übereinander gepapte texturen sind aa aus und sie ist verschwiúnden 6 aa ein und es ist auch futsch.
der bildschirm wird weis und grün weis ok aber woher und wuzu Grün (und so dreieckige fragmente in gewissen winkeln ihh)
Aber warum sagst du nichts hierzu
So es hies immer eine gpu ist nix ohne das treiber team gut nv hat mehr leistung rausgeholt als ati wenn nun die qualität gleich bleibt kann man drauf kacken!
Original geschrieben von Exxtreme
Läuft bei mir ohne Probleme. :)
Läuft bei mir auch ohne Probleme.
Spielst du oft diese Sound- und CPU-Tests?
Lol@ati aber dann braucht ati wohl mehr cpu power das ist ja ganz super schonmal einer auf die idee gekommen die werte bei identischem systemem nur halt einmal nv ainmal ati sogar egal welche von mit aus die 9800 pro gegen ne 5800 non ultra ich schätze mal das die ati zwar in gesammt punkten vorne liegt aber die restlichen ergebnisse cpu sound (Filrate) und so weiter werden zu gunsten der nv geht.
Habe ich auch. Aber den PS2.0-Test spiele ich nicht so oft. ;)
Ne echt ist nicht wahr dann sollte mann aber nicht über die tolle shader performence reden da sieh felrhaft ist das ist ein schi argument.
Alpha-Testing? Da versagt MSAA total da es keine Alpha-Texturen glättet. Dagegen hilft nur SSAA.
Spiel mal an der Option "alternative Pixelcenter". Kann sein, daß es verschwindet.
ne tut es nicht
Detailtexturen?
Das haben die Entwickler des Spiels verbockt
sos0 und nur für nv nicht oder wie
.
Mr. Lolman
2003-07-05, 13:17:38
Lad mal ein paar Bilder auf www.ystart.de hoch (100kb Limitation), (am besten die Bäume,die auf einer GF4 besser aussehen und einen Beweisshot, dass du mit der Fx5600 Ultra wirlich bessere Werte bekommst) und poste sie in diesem (http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=79241) oder diesem (http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=75527) Thread. Oder am Besten gleich in den "Offiziellen Catalyst 3.5 Thread (http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=78445)".
Und glaub mir mit 512 MB bist du am besten beraten der GraKa garnix abzugeben. Selbst bei 1GB wird die GraKa (der Rest des Systems dafür nichtmehr)langsamer, da AGP Texturing grundsätzlich arschlahm ist (auf NV Karten sogar noch lahmer). FW genauso nutzlos, und SBA sollte eigentlich standardmässig aktiv sein. Welches Tool nutzt du,um die Einstellungen zu überprüfen ?
P.S. Das mit den übereinandergepappten Texturen kann ich nicht nachvollziehen genausowenig wie deine unverständliche Fragmentgeschichte (Screenshots plz)
Idiom hinundher, die Rechtschreibung ist trotzdem kein Hund, den man mit den Füssen treten sollte.
(Die Antwort ist in einem der oben gelinkten Threads besser aufgehoben)
Original geschrieben von Mr. Lolman
Lad mal ein paar Bilder auf www.ystart.de hoch (100kb Limitation), (am besten die Bäume,die auf einer GF4 besser aussehen und einen Beweisshot, dass du mit der Fx5600 Ultra wirlich bessere Werte bekommst) und poste sie in diesem (http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=79241) oder diesem (http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=75527) Thread. Oder am Besten gleich in den "Offiziellen Catalyst 3.5 Thread (http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=78445)".
Und glaub mir mit 512 MB bist du am besten beraten der GraKa garnix abzugeben. Selbst bei 1GB wird die GraKa (der Rest des Systems dafür nichtmehr)langsamer, da AGP Texturing grundsätzlich arschlahm ist (auf NV Karten sogar noch lahmer). FW genauso nutzlos, und SBA sollte eigentlich standardmässig aktiv sein. Welches Tool nutzt du,um die Einstellungen zu überprüfen ?
P.S. Das mit den übereinandergepappten Texturen kann ich nicht nachvollziehen genausowenig wie deine unverständliche Fragmentgeschichte (Screenshots plz)
Idiom hinundher, die Rechtschreibung ist trotzdem kein Hund, den man mit den Füssen treten sollte.
(Die Antwort ist in einem der oben gelinkten Threads besser aufgehoben) ja word ist nich drauf :)
werde ich machen.
Kannt ja mal nach (sichüberatitreiberaufreg) suchen
ahhm ich glaube hier versteht mich niemand so richtig :)
Nee meine nur damit das die treiber nicht in ordnung sind und es ist egal ob nun 128 mb oder 256 mb aber funzen sollte es trotzdem.
tools rtool riva tuner und das connect 3d tool
Original geschrieben von Gast
... wie siehts den da mit fp aus nv und ati beide auf fp32?)
GFFX: FP16, FP32
R(V)3xx: FP24
Original geschrieben von Gast
der bildschirm wird weis und grün weis ok aber woher und wuzu Grün (und so dreieckige fragmente in gewissen winkeln ihh)
Klingt ja schmerzhaft. Es ist übrigens keine gute Idee bei den Radeons FastWrites zu aktivieren (war zumindest bis R200 so).
Original geschrieben von Gast
Aber warum sagst du nichts hierzu
So es hies immer eine gpu ist nix ohne das treiber team gut nv hat mehr leistung rausgeholt als ati wenn nun die qualität gleich bleibt kann man drauf kacken!
Wenn wir immernoch vom 3DMark sprechen: die Qualität bleibt eben nicht gleich, das ist ja das Problem.
Und bitte: Zumindest ein paar Satzzeichen würden das Lesen deiner Posts enorm erleichtern.
Original geschrieben von Ikon
GFFX: FP16, FP32
R(V)3xx: FP24
danke sagt schon genug
Klingt ja schmerzhaft. Es ist übrigens keine gute Idee bei den Radeons FastWrites zu aktivieren (war zumindest bis R200 so).
jep übrigens habe ich jetzt gerade, wenn der doppel pfeil beim leistenende (startleiste) kommt, ist der pfeil blau mit nem grün schrafierten viereck ca 1*1 cm gross.
Wenn wir immernoch vom 3DMark sprechen: die Qualität bleibt eben nicht gleich, das ist ja das Problem.
ja also die 3d tests knicken! Den rest vergleichen und ein gänzlich anderes tool nutzen.
Bzw ne art demo wie sie von farbrausch kommen nehmen oder den mandelbröter.
Und bitte: Zumindest ein paar Satzzeichen würden das Lesen deiner Posts enorm erleichtern.
CPU 2400+ 33Grad unter last 38 Grad alpha 8045 ys tech 80 mm 2800 rpm
9500 pro wird von dx9 als 9700 erkannt kein mod nix übertaktet
orginal ATI
512 mb 266 cl2 apacer 350 watt ennermax
dvd brenner dvd rom
msi board kt 266a
sb audigy 1
4 gehäuse lüfter temp des gehäuses 22- 25 grad
also an der thermik kanns nicht liegen
Mr. Lolman
2003-07-05, 14:01:35
Original geschrieben von LovesuckZ
Aha, bei Nvidia sind die AF Werte fuer die Tonne, bei ATi nicht. naja stimmt: Wenn Nvidia in einem Game cheatet, ist es ein Weltuntergang, macht es ATi in jedem D3D Game, dann interessiert es keinen.
ATi erschummelt sich keine 120% Leistungsteigerung (30 war maximum) Vorallem, dass der Einbrauch beim Botmatch (Inferno) so heftig ist, zeigt wo NV ohne Schummelei überhaupt stehen würde. Da ist eine FX5800 bei 8xQAF bei der Hälfte der Maps im unspielbaren Bereich.
Und zur Qualitaet der Treiber: Wie lange bestand der Stutteringbug bei ATi?
Der Stutterbug war nie ein Prob bei mir. Trat nur bei 'zugemüllten' Systemen mit vielen offenen Hintergrundtasks auf. Nur den Cat.3.0 Q3a Stutterbug machte sich auch bei mir bemerkbar, aber das wurde sowieso relativ schnell mit dem Cat. 3.0a gefixt.
Andere Frage: Wie lang hatten NV Karten das AA Problem?
Selbst mit dem 2. FX Treiber (44.03) hat Nvidia mehr erreicht, als ATi in ganzen 6 Monaten...
Bezüglich "Cheats" auf jeden Fall!! :bigl2::bigl2:
Razor
2003-07-05, 17:06:36
Original geschrieben von Mr. Lolman
Die Qualität kann nicht gleichgeblieben sein, da z.B. für UT2003 bei den FX Karten einfach die Einstellungen überschrieben werden und nur eine Approximation statt echtem Tri-AF verwendet wird.
Deswegen sind die AF-Werte für die Tonne
Du hast einen Bildvergleich (ohne Einfärbung ;-) ?
Na dann mal her mit den Bildchen !
:D
Razor
Razor
2003-07-05, 17:18:33
Original geschrieben von Ikon
Klingt ja schmerzhaft. Es ist übrigens keine gute Idee bei den Radeons FastWrites zu aktivieren (war zumindest bis R200 so).
Ist zumindest bei dem R300 (R9500 Referenz) noch immer so...
Original geschrieben von Ikon
Wenn wir immernoch vom 3DMark sprechen: die Qualität bleibt eben nicht gleich, das ist ja das Problem.
Der Murks ist wurscht... mich würden aber noch immer Shot's von UT2003 interessieren, die zeigen, dass die BQ nun schlechter ist, als bei anderen IHV's. Kann sein, dass es generell besser gehen könnte, aber solange keiner ein besseres Bild abgibt, ist das doch ziemlich wurscht, oder ?
Was mich nur an dieser Sache wundert, ist schlicht die Tatsache, dass hier beide IHV's fast gleich cheaten (ATI wohl ein bissel mehr, als nVidia) und das auch noch mit der gleichen Methode... sprechen die sich etwa ab ?
???
Hmmm...
Razor
Exxtreme
2003-07-05, 17:23:32
Original geschrieben von Razor
Ist zumindest bei dem R300 (R9500 Referenz) noch immer so...
Razor
Jein. ;)
Meine erste R9700Pro ist immer abgesemmelt wenn FW und/oder AGP 8x aktiv war.
Die jetzige macht in dieser Hinsicht keinerlei Mucken.
Muss wohl am neueren MoBo-BIOS liegen. ;)
Demirug
2003-07-05, 17:24:40
Original geschrieben von Razor
Was mich nur an dieser Sache wundert, ist schlicht die Tatsache, dass hier beide IHV's fast gleich cheaten (ATI wohl ein bissel mehr, als nVidia) und das auch noch mit der gleichen Methode... sprechen die sich etwa ab ?
???
Hmmm...
Razor
Meinst du jetzt die Blätter im GT4? Das man sich diese sowohl bei ATI und nVidia vorgenommen hat ist verständlich. Bei diesem Effekt hat man es wohl mit einer absoluten überlastung der Vertexshader zu tun so das der Rest der Karte verhungert.
Razor
2003-07-05, 17:27:57
Original geschrieben von Exxtreme
Jein. ;)
Meine erste R9700Pro ist immer abgesemmelt wenn FW und/oder AGP 8x aktiv war.
Die jetzige macht in dieser Hinsicht keinerlei Mucken.
Muss wohl am neueren MoBo-BIOS liegen. ;)
Also auf dem nForce2 gab's nur Probleme mit aktiviertem FW... und auch in dem Rechner von dem Kollegen (ist 'nen P4 irgendwas) mussten wir das erst deaktivieren (Mobo, Treiber hatte keinen Einfluß), bevor es zumindest damit keine Prob's mehr gab.
Razor
Razor
2003-07-05, 17:29:37
Original geschrieben von Demirug
Meinst du jetzt die Blätter im GT4? Das man sich diese sowohl bei ATI und nVidia vorgenommen hat ist verständlich. Bei diesem Effekt hat man es wohl mit einer absoluten überlastung der Vertexshader zu tun so das der Rest der Karte verhungert.
Eigentlich meinte ich die AF-Optimierungen unter UT2003...
(hätte ich vielleicht dazu schreiben sollen ;-)
...trifft aber natürlich auch auf den GT4 zu.
(da ist die Vorgehensweise aber nachvollziehbar, wie Du ja schon geschrieben hast)
Razor
DrumDub-nixlogin
2003-07-05, 17:49:27
hab auf meinen k7s5a das cheepobios drauf mit fastwrites an... keinerlei probleme mit meiner radeon 9700... :D
LovesuckZ
2003-07-05, 18:30:09
Original geschrieben von Mr. Lolman
ATi erschummelt sich keine 120% Leistungsteigerung (30 war maximum) Vorallem, dass der Einbrauch beim Botmatch (Inferno) so heftig ist, zeigt wo NV ohne Schummelei überhaupt stehen würde. Da ist eine FX5800 bei 8xQAF bei der Hälfte der Maps im unspielbaren Bereich.
Aha, nun gehen wir schon nach dem erschummeln bei der Leistung (wenn wir in jedem Game die erschummelte Leistung durch's AF bei ATi zusammen rechnen würden, dann waeren sie unangefochten an der Spitze...). :bonk:
Es ist egal, ob 30 oder 120%, beide großen erschummeln sich auf Kosten der Qualitaet Leistung. Nvidia nur in UT2003, ATi in fast jedem D3D Game, wo man AF nicht im Spiel einstellen kann.
Das du das wieder herunterspielst und Nvidia den schwarzen Peter in die Hand drueckst, haette ja jedem klar sein muessen...
Mr. Lolman
2003-07-05, 19:36:46
Original geschrieben von Mr. Lolman
Bis jetzt wurde nur UT2003 überprüft. Angeblich hat NVidia für ~70 Spiele solche oder ähnliche Optimierungen eingebaut.
LovesuckZ
2003-07-05, 19:45:18
aha, naja, was sind 70 Spiele in Gegensatz zu allen D3D Games. Schade, dass die ATi Verfechter ATi's Verhalten nicht anprangern, jedoch bei nvidia dadraus nen Glaubenskrieg machen...
Zur FastWrites-Diskussion:
Wenn ich als Hersteller ein "supported"-Kreuzchen bei FastWrites machen will, sollte diese Funktion zumidest mit einem Großteil der Mainboards problemlos laufen. Da das aber sehr stark differiert, kann man IMHO nicht von FastWrites-Support bei den Radeons sprechen. Allerdings sehe ich darin aufgrund der weitestgehenden Nutzlosigkeit dieses "Features" keinen wirklichen Nachteil.
@LovesuckZ & Mr. Lolman
Bitte lasst doch die Flames. Es ist wohl völlig irrelevant, wer "mehr" cheatet oder wessen Cheats mehr bewirken.
Iceman346
2003-07-05, 21:57:31
Original geschrieben von LovesuckZ
aha, naja, was sind 70 Spiele in Gegensatz zu allen D3D Games. Schade, dass die ATi Verfechter ATi's Verhalten nicht anprangern, jedoch bei nvidia dadraus nen Glaubenskrieg machen...
Ich sags mal so auch wenns keine Entschuldigung ist:
Diese AF Optimierung von ATi ist offensichtlich seit dem 3.0er Catalyst drin. Wann ist es dem ersten aufgefallen? Mit dem 3.5er Catalyst ist es Piffan in UT2k3 und MMM in Battlefield 1942 aufgefallen. Das ist eine lange Zeit die diese Optimierung unentdeckt blieb dementsprechend kann der Verlust an Bildqualität nicht wirklich deutlich sein.
LovesuckZ
2003-07-05, 22:31:52
Original geschrieben von Iceman346
Diese AF Optimierung von ATi ist offensichtlich seit dem 3.0er Catalyst drin. Wann ist es dem ersten aufgefallen? Mit dem 3.5er Catalyst ist es Piffan in UT2k3 und MMM in Battlefield 1942 aufgefallen. Das ist eine lange Zeit die diese Optimierung unentdeckt blieb dementsprechend kann der Verlust an Bildqualität nicht wirklich deutlich sein.
Und? Sry, aber Nvidia's AF Optimierung wuerde in UT2003 auch niemanden auffallen, trotzdem ist dies nicht gut zuheißen. Und so wie es aussieht, ist es sogar leicht besser als das, was ATi als Optimierung anbietet.
Man sieht in vielen Threads auf den unterschiedlichsten Boards, dass Nvidia's AF Verhalten als Cheat angesehen wird, doch bei ATi man immer nur versucht eine Ausrede zu finden. Es scheint so als ob man es nicht glauben will, dass ATi ein bisschen ihrer "überlegenden Bildqualitaet" opfert, um vor Nvidia zu stehen.
ATi erschummelt sich keine 120% Leistungsteigerung (30 war maximum)
Nur ein Beispiel, um ATi die Schuld des "cheatens" abzunehmen und dies auf nvidia zu übertragen. Denn ob 30% oder 120% bei gleichbleibener Konkurenzqualitaet, beides sind unlaute Methoden, um sich vor den Konkurenten zu setzen.
Razor
2003-07-06, 09:44:31
Original geschrieben von Iceman346
Ich sags mal so auch wenns keine Entschuldigung ist:
Diese AF Optimierung von ATi ist offensichtlich seit dem 3.0er Catalyst drin. Wann ist es dem ersten aufgefallen? Mit dem 3.5er Catalyst ist es Piffan in UT2k3 und MMM in Battlefield 1942 aufgefallen. Das ist eine lange Zeit die diese Optimierung unentdeckt blieb dementsprechend kann der Verlust an Bildqualität nicht wirklich deutlich sein.
Das Problem ist aber, dass ein Unterschied schon immer ersichtlich war und nicht einmal heute von so einigen Leuten hier 'erkannt' wird. Keine Ahnung, warum das so ist, aber mir ist es sofort aufgefallen, als ich AF das erste mal bei der R9500 aktivierte...
Keine Ahung, ob man sich tatsächlich daran gewöhnt, wenn man nichts anderes kennt, aber das und noch so einige Punkte mehr haben bei mir dazu geführt, dass für mich eine R3x0 erst einmal vom Tisch war. Und gerade weil so viel darüber geredet wurde und ein klarer Faden (ausser bei Quasar) nicht ersichtlich war, habe ich mal 'eben' 600 Märker für Test-Hardware raus geschmissen (jetzt werden wohl noch ca. 500€ dazu kommen ;-), um beide Kontrhenten bei neuester Technologie direkt in meinem System (!) gegenüber zu stellen.
Sehr gut gefallen hat mit das AA bei ATI, welches ich gerne so auch bei nVidia (und allen anderen IHV's) sehen würde...
Razor
Iceman346
2003-07-06, 13:05:02
Original geschrieben von Razor
Das Problem ist aber, dass ein Unterschied schon immer ersichtlich war und nicht einmal heute von so einigen Leuten hier 'erkannt' wird. Keine Ahnung, warum das so ist, aber mir ist es sofort aufgefallen, als ich AF das erste mal bei der R9500 aktivierte...
Razor
Bei welchen Spielen war dir das denn sofort ersichtlich? Ich habe es bisher nur in UT2k3 und Battlefield 1942 wahrgenommen. Abgesehen von diesen Spielen wirkt das AF durchgehend perfekt in meinen Augen.
Quasar
2003-07-06, 13:46:02
Original geschrieben von Iceman346
Bei welchen Spielen war dir das denn sofort ersichtlich? Ich habe es bisher nur in UT2k3 und Battlefield 1942 wahrgenommen. Abgesehen von diesen Spielen wirkt das AF durchgehend perfekt in meinen Augen.
Mir (auch wenn ich nicht Razor bin) ist es z.B. in Ultima IX, MBTR, JK2 und besonders Alice aufgefallen (neben UT2003).
Es ist, wie gesagt, sicher nicht schlecht, und bis zur GeForceFX, als nV nur besseres, aber leider viel langsameres AF anzubieten hatte, für die meisten sicher auch die bessere Alternative gewesen.
Iceman346
2003-07-06, 14:05:38
Original geschrieben von Quasar
Mir (auch wenn ich nicht Razor bin) ist es z.B. in Ultima IX, MBTR, JK2 und besonders Alice aufgefallen (neben UT2003).
Es ist, wie gesagt, sicher nicht schlecht, und bis zur GeForceFX, als nV nur besseres, aber leider viel langsameres AF anzubieten hatte, für die meisten sicher auch die bessere Alternative gewesen.
Benutzen Ultima 9 und JK2 überhaupt Multitexturing? Es geht jetzt nicht um die Winkelabhängigkeit sondern darum das nur eine Texturstage trilinear gefiltert wird und die anderen bilinear.
Quasar
2003-07-06, 15:14:06
Klar nutzen die das.
Aber wenn es dir nur auf die bilinearen Detailtexturen ankommt, so ist mir dies hauptsächlich bei UT2003 und Aquanox aufgefallen.
Original geschrieben von Quasar
Mir (auch wenn ich nicht Razor bin) ist es z.B. in Ultima IX, MBTR, JK2 und besonders Alice aufgefallen (neben UT2003).
Ich habe selbst nur Ultima9 mal ausprobiert und bis auf das Problem mit den Bäumen ist mir bei aktivierten AF nichts negatives aufgefallen. So weit ich das verstehe, hängt dieses Problem nicht mit der Art des AF zusammen.
Welches Problem meinst du?
Quasar
2003-07-06, 15:47:13
s.o.
Ich kann nicht erkennen, ob nun die Winkelabhängigkeit oder bilineare Detailtexturen gemeint sind.
Mr. Lolman
2003-07-06, 16:28:42
Ich bin mir sicher, dass es in UT2003 Szenen gibt, wo ATis Cheat AF besser aussieht als NVs Cheat AF. Dadurch dass bei ATi die TS0 immer volles tri-AF bekommt, braucht man einfach eine Szene, wo ein stark kontrastierte regelmässige Musterung (Fliesen) in einem flachen Winkel zu sehen ist (so wie es Böden standardmässig sind)
Das Flimmern von manchen Texturen auf ATi Karten kann man leicht unterbinden wenn man im rTool (im CP dürfte da ein Bug vorhanden sein) das LOD auf 2. niedrigste Stufe stellt.* Nutzt man dann noch das AF vom rTool (wann kommt endlich die Wahlmöglichkeit - Exxtreme??) nutzt, hat man überhaupt alle Texturstages voll gefiltert.
:bigl2: :bigl2:
*im ATi Forum gibts von Pervert einen Thread dazu.
Quasar
2003-07-06, 17:08:27
Original geschrieben von Axel
Ich habe selbst nur Ultima9 mal ausprobiert und bis auf das Problem mit den Bäumen ist mir bei aktivierten AF nichts negatives aufgefallen. So weit ich das verstehe, hängt dieses Problem nicht mit der Art des AF zusammen.
Welches Problem meinst du?
Winkelabhängigkeit.
Demirug
2003-07-06, 17:24:53
Original geschrieben von Mr. Lolman
Ich bin mir sicher, dass es in UT2003 Szenen gibt, wo ATis Cheat AF besser aussieht als NVs Cheat AF. Dadurch dass bei ATi die TS0 immer volles tri-AF bekommt, braucht man einfach eine Szene, wo ein stark kontrastierte regelmässige Musterung (Fliesen) in einem flachen Winkel zu sehen ist (so wie es Böden standardmässig sind)
Am besten schwarze und weise Fliesen abwechselnd und relative klein?
Falls ja das bekommst du auch nicht mit vollständiger Tri-Filterung in den Griff. Es sieht immer sch... aus.
Mr. Lolman
2003-07-06, 17:32:35
@Demi:
Nein, Fliessen mit die mit deren Fugen in einem starkem Kontrast stehen, welchen die 1. Mipmapstufe schon nicht mehr so stark herausbringen kann. Es gibt sicher ein paar Texturen in UT2003 bei deinen der gesetzte Fall in zumindest ähnlicher Ausführing gegeben wär.
Eine solche Szenerie künstlich zu erzeugen, dürfte kein Prob sein, mir ging es aber eher darum, dass man auch mit natürlichen Gegebenheiten durchaus eine Szenerie finden könnte, bei denen die Tri-AF Approximation von NV schlechter aussieht als die AF Optimierung von ATi.**
Genauso wie man Szenerien finden kann, bei denen der sichtbare Unterschied von biAF zu TriAF gegen Null tendiert. (Schwach kontrastierte Texturen )
Aquaschaf
2003-07-06, 18:58:04
Auf der Map DM-Ironic (im DE-Bonuspack enthalten) gibts einen Fliesenboden, an dem vielleicht ein Unterschied auffallen könnte.
Razor
2003-07-06, 19:03:40
@Quasar
Danke !
@Lolman
Dir ist aber klar, dass auch ATI bei UT2003 eine AF 'approximation' durchführt ?
(siehe dazu auch den B3D-Thread...)
Auch geht es hier nicht darum entweder die eine AF-Optimierung oder die andere zu betrachten (TS>0 bil, Wilkelabhängigkeit), da je nach Situation beides oder eines von beiden negativ auffällt.
Razor
Demirug
2003-07-06, 19:24:38
Original geschrieben von Mr. Lolman
@Demi:
Nein, Fliessen mit die mit deren Fugen in einem starkem Kontrast stehen, welchen die 1. Mipmapstufe schon nicht mehr so stark herausbringen kann. Es gibt sicher ein paar Texturen in UT2003 bei deinen der gesetzte Fall in zumindest ähnlicher Ausführing gegeben wär.
Reicht dir eine 14*14 Pixel grosse Kachel mit einer 2 Pixel breiten Fuge dazwischen? Bei dieser Konfiguartaion kann ich nicht mal einen unterschied zwischen zwischen tri und bi finden.
Ich werde es mal mit grösseren Kacheln Testen.
EDIT: Das wird so nix. Ich bekomme so einfach ein Banding erzwungen.
PS: Wer es noch nicht gesehen hat ich habe mir diese AF-Optimierung welche nv betreibt mal etwas genauer angesehen: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=80787
Exxtreme
2003-07-06, 21:17:54
CATALYST 3.5 Benchmarks mit Unwinders ATiAntiDetect-Skripten:
http://www.elitebastards.com/page.php?pageid=1551&head=1&comments=1
LovesuckZ
2003-07-06, 21:48:49
Original geschrieben von Exxtreme
CATALYST 3.5 Benchmarks mit Unwinders ATiAntiDetect-Skripten:
http://www.elitebastards.com/page.php?pageid=1551&head=1&comments=1
Wobei natuerlich die Frage bleibt, wie gut kennt sich Unwinder mit den ATi Treibern aus.
Asuka
2003-07-06, 22:13:25
Original geschrieben von Exxtreme
CATALYST 3.5 Benchmarks mit Unwinders ATiAntiDetect-Skripten:
http://www.elitebastards.com/page.php?pageid=1551&head=1&comments=1 Ist ja kraß, im 2001er Nature nur noch etwa die Hälfte der fps! :freak:
Exxtreme
2003-07-06, 23:06:04
Original geschrieben von LovesuckZ
Wobei natuerlich die Frage bleibt, wie gut kennt sich Unwinder mit den ATi Treibern aus.
Unwinder hat die Treiber disassembliert und die Erkennungsroutinen leicht umgebogen. Ich denke, wenn er zu sowas in der Lage ist, dann weiß er was er tut.
Original geschrieben von Asuka
Ist ja kraß, im 2001er Nature nur noch etwa die Hälfte der fps! :freak:
Ich finds eher krass, daß sich in den Standard-Benchmarks fast gar nichts tut.:bäh2:
Es sieht fast so aus, als versuchen die bei ATI DEN Treiber zu schreiben, der mit allem schnell läuft und Nvidia nimmt sich mit grossem Personalaufwand jede wichtige App/Game vor und baut dafür einen optimierten Path, Anpassung LOD/Aniso usw. ein.
War es der DetonatorXp der damals released wurde als die R8500, zugegeben mit ziemlich buggy Treibern, auf den Markt kam? Die Benches von damals würd ich gern nochmal mit solch einem Skript sehen.:D
Megatron
2003-07-07, 03:12:34
Wow ATI hat sich da ja echt richtiggehend Skandalöse Vorteile ercheatet....
Öhm - wenn es einigen so wichtig ist, dass keine Cheats/Optimierungen irgendeiner Art auftreten - wie wärs mit einer Investition in eine Parhelia ;)
Btw. @ den mit den vielen Fehlern (Bin zu faul Namen rauszusuchen)
Wenn dein System bei Benchmarks aussteigt versuch doch mal 1. die original Chip/Speichertakte der Graka bzw. den Originaltakt der CPU oder gib der CPU halt mal etwas mehr Saft. Ach ja - eigentlich mal deine Spannungswerte während des Benchmarks aufgezeichnet? - Nicht dass dein NT einfach nur eingebrochen ist....
Ach ja - und dieser "AGP 12x"-Trick diverser Zeitungen ist auch nicht unbedingt zu empfehlen....
Natürlich war/ist es von ATI genaus wie von NVIDIA und allen anderen Konkurrenten (ich erinnere hier mal an den XABRE) Zahlenwerte vor die Bildqualität zu setzen, denn der User sollte noch immer selbst entscheiden können ob er bereit ist BQ zu opfern oder nicht.
Allerdings hat ATI mit den Cat 3.5 zumindest einen Anfang gemacht und damit die Karten zur wahren RAW-Power offen gelegt. Die Konkurrenz muss nur nachziehen.
Nochwas zu den allgemein so schlimm verbugten Treibern bei ATI:
Ich glaub ich hab nen Wunderrechner - bei mir laufen doch glatt Detonator und Cat in friedlicher Koexistenz - natürlich ohne Instabilitäten - auf nem Win2k. Ach ja - ich entschlacke mein Win übrigens ab und an mal von unnützen Programmen, die da teilweise doch zusammen genommen arg Ressourcen fressen.
Ach ja CPU ist ein 1800+@2,1GHz auf nem ENMIC 8TTX3+ mit 512MB Samsung PC400 und einer R9700 Pro (zuvor war ne GF2GTS drin)
Demirug
2003-07-07, 07:17:57
Original geschrieben von Exxtreme
Unwinder hat die Treiber disassembliert und die Erkennungsroutinen leicht umgebogen. Ich denke, wenn er zu sowas in der Lage ist, dann weiß er was er tut.
Ja aber er meinte auch das er sich nicht sicher ist ob er wirklich alles gefunden hat. Bei nv soll es einfacher gewessen sein weil dort alles über eine zentrale Rountine läuft.
ActionNews
2003-07-07, 07:44:20
Hmm...ich hab jetzt nicht den gesammeten Thread gelesen, aber jetzt verstehe ich warum eine KyroII beim 3DMark immer so schlecht gegenüber Nvidia und Ati ausgesehen hat, wobwohl sie in den meisten Spielen der Konkurrenz doch ebenbürtig waren.
Ich weiß jetzt aber nicht ob PowerVR auch solche "Optimierungen" hat. Hat das schon gemand getestet? Oder funktioniert der Rivatunertest nur bei ATi und Nvidia-Karten?
CU ActionNews
Demirug
2003-07-07, 08:01:06
Original geschrieben von ActionNews
Hmm...ich hab jetzt nicht den gesammeten Thread gelesen, aber jetzt verstehe ich warum eine KyroII beim 3DMark immer so schlecht gegenüber Nvidia und Ati ausgesehen hat, wobwohl sie in den meisten Spielen der Konkurrenz doch ebenbürtig waren.
Ich weiß jetzt aber nicht ob PowerVR auch solche "Optimierungen" hat. Hat das schon gemand getestet? Oder funktioniert der Rivatunertest nur bei ATi und Nvidia-Karten?
CU ActionNews
Damit es funktioniert müsste sich ja jemand den Treiber auf Assemblerebene anschauen und untersuchen ob es da erkennugsroutinen gibt und diese deaktivieren.
cl55amg
2003-07-07, 09:33:55
einfach weg!
die ganzen ati verteidiger,die sich an den nvidia optimierungen aufgegeilt haben,posten aufeinmal nicht mehr...
also mr. lolman,was sagst du jetzt?
ach weisst du was?wayne interessierts...
Original geschrieben von ActionNews
Hmm...ich hab jetzt nicht den gesammeten Thread gelesen, aber jetzt verstehe ich warum eine KyroII beim 3DMark immer so schlecht gegenüber Nvidia und Ati ausgesehen hat, wobwohl sie in den meisten Spielen der Konkurrenz doch ebenbürtig waren.
Ich weiß jetzt aber nicht ob PowerVR auch solche "Optimierungen" hat. Hat das schon gemand getestet? Oder funktioniert der Rivatunertest nur bei ATi und Nvidia-Karten?
CU ActionNews
Hoer doch mit diesem Maerchen auf. Es reicht fuer ATi/NV auch ohne Optimierungen locker, die Kyros im 3DMark zu schlagen.
und btw. duerfte auch PVR solchen Optimierungen nicht abgeneigt sein.
Original geschrieben von cl55amg
einfach weg!
die ganzen ati verteidiger,die sich an den nvidia optimierungen aufgegeilt haben,posten aufeinmal nicht mehr...
also mr. lolman,was sagst du jetzt?
ach weisst du was?wayne interessierts...
Also, in dem Artikel den ich gelesen hab fallen die FPS nur bei 3DMark01 im Nature test nach unten - sonst ist alles gleich geblieben.
Natürlich ist das auch nicht positiv, aber es ist halt nur in diesem einen Test so.
Wobei ein BQ vergleich zwischen noch aussteht.
Wenn die BQ bei normalen Spielen nicht abnimmt (sowohl bei ATi als auch bei NVIDIA), ist das imo kein Problem. Bei Benches hingegen schon, da man dann nicht mehr richtig die Karten vergleichen kann, sondern vielmehr die Optimierungen im Treiber.
AlexanderBehm
2003-07-07, 11:39:44
Aber gehört der treiber nicht auch zur Grafikkarte, wenn die Bildqualität nicht sichtbar leidet ist das doch gut. Viele übertackten ihre GRAKAs für ein paar Frames und holt man einiges mehr durch Optimierungen heraus regt ihr euch auf. Und das auch nur bei NV. Ich streite nicht ab, dass einige "Optimierungen" von NVIDIA unter die Kategorie Cheats fallen, aber bei NVIDIA immer gleich rumzuhacken und ATIs "Optimierungen" totzuschweigen ist nicht ganz fair. ATI optimiert vielleicht beim 3DMARK weniger stark als NVIDIA, aber sie optimieren auch, das ist das entscheidende, wer sagt denn, das es beim nächsten 3DMURKS nicht umgekehrt ist. ODer das es jetzt in anderen GAMES nicht schon so ist. Weiters hat ATI Zugang zum Beta Programm usw, es könnte auch sein, das ATI schon so viel cheatet, dass aber nicht auffällt und ATI ohne diese versteckten (da durch FUTUREMARK gedeckten) Optimierungen bei 1000 Punkten im 03er rumgurken würde (rein hyphotethisch, ich weiß das das nicht so ist!!!)
Ich wäre schön langsam dafür die Hersteller zu zwingen nur mehr ihre Grafikkarten zur verfügung zu stellen und die treiber für beide von einer neutralen Firma programmieren zu lassen (ohne jegliche Optimierungen, auch wenn die Bildqualität gleich bleibt) Da bin ich mir sicher die meisten würden schreien weil die Frameraten teils drastisch in die Knie gehen würden und es sich überlegen ob Optimierungen bei denen die Bildqualität nicht sichtbar leidet doch nicht so schlecht wären und nicht bei allem sofort auf NVIDIA rumhacken, ist das jetzt Volkssport oder was, das böse NVIDIA und das so perfekte ATI. Allein wegen diesem losgehen auf NVIDIA würde ich sofort bei jeder Sache für NVIDIA halten. Ich war knapp davor mir eine ATI Radeon 9800 Pro zu kaufen aber jetzt nehm ich lieber ne GeForce 5900 Ultra. Ich sehe das so, die ATI User sehen endlich ihre Zeit gekommen es NVIDIA heimzuzahlen, weil NVIDIA immer die besseren Karten und Treiber hatte und ATI schlicht unfähig war etwas gescheites zu programmieren und bis jetzt keine gescheiten Firmen zum verkauf ihrer KArten hat, bis auf Hercules (und die sind auch nicht wirklich so überragend) kann man alles vergessen. Was interessieren mich synthetische Benchmarks und wenn ein Spiel besser läuft ohne das ich eine verringerung der Bildqualität merke ist das doch gut.
ShadowXX
2003-07-07, 12:22:06
Original von AlexanderBehm:
bei denen die Bildqualität nicht sichtbar leidet doch nicht so schlecht wären und nicht bei allem sofort auf NVIDIA rumhacken, ist das jetzt Volkssport oder was, das böse NVIDIA und das so perfekte ATI. Allein wegen diesem losgehen auf NVIDIA würde ich sofort bei jeder Sache für NVIDIA halten. Ich war knapp davor mir eine ATI Radeon 9800 Pro zu kaufen aber jetzt nehm ich lieber ne GeForce 5900 Ultra.
womit du genau das tust, was die Leute die 'Flamen', wollen.....
Man sollte sich keine HW nur aus 'Zuneigung' bzw. 'mögen/nicht mögen' kaufen...und wenn doch, dann sollte man zumindest versuchen diese Vorlieben nicht ins Extreme hervorzuheben...
(Damit meine ich beide Richtungen....)
J.S.Shadow
Exxtreme
2003-07-07, 13:32:37
Original geschrieben von AlexanderBehm
Aber gehört der treiber nicht auch zur Grafikkarte, wenn die Bildqualität nicht sichtbar leidet ist das doch gut. Viele übertackten ihre GRAKAs für ein paar Frames und holt man einiges mehr durch Optimierungen heraus regt ihr euch auf. Und das auch nur bei NV.
Also ich sehe applikationsspezifische Optimierungen normalerweise als sehr gut an ausser bei Benchmarks und Timedemos.
Und "übertakten" schreibt man ohne "ck", danke.
Original geschrieben von AlexanderBehm
Ich streite nicht ab, dass einige "Optimierungen" von NVIDIA unter die Kategorie Cheats fallen, aber bei NVIDIA immer gleich rumzuhacken und ATIs "Optimierungen" totzuschweigen ist nicht ganz fair.
Wer schweigt ATis "Optimierungen" tot? Mein Statement zum Thema habe ich schon in anderen Threads abgegeben.
Original geschrieben von AlexanderBehm
ATI optimiert vielleicht beim 3DMARK weniger stark als NVIDIA, aber sie optimieren auch, das ist das entscheidende, wer sagt denn, das es beim nächsten 3DMURKS nicht umgekehrt ist. ODer das es jetzt in anderen GAMES nicht schon so ist.
Wie gesagt, bei Games sehe ich eine Optimierung als legitim an solange die BQ nicht darunter leidet. Bei Benchmarks sehe ich die Sache anders.
Und ja, es kann sein, daß beim nächsten Wasweissich-Mark wieder gecheatet wird.
Aber im Endeffekt geben ATi und NV dem Kunden genau das, was der Kunde will:
hohe Zahlen in den Benches. :)
Denkt' mal drüber nach.
Original geschrieben von AlexanderBehm
Weiters hat ATI Zugang zum Beta Programm usw, es könnte auch sein, das ATI schon so viel cheatet, dass aber nicht auffällt und ATI ohne diese versteckten (da durch FUTUREMARK gedeckten) Optimierungen bei 1000 Punkten im 03er rumgurken würde (rein hyphotethisch, ich weiß das das nicht so ist!!!)
Auch Nvidia hat die Möglichkeit beim Beta-Programm teilzunehmen. Sie sind freiwillig ausgestiegen, ergo selber schuld. :)
Original geschrieben von AlexanderBehm
Ich wäre schön langsam dafür die Hersteller zu zwingen nur mehr ihre Grafikkarten zur verfügung zu stellen und die treiber für beide von einer neutralen Firma programmieren zu lassen (ohne jegliche Optimierungen, auch wenn die Bildqualität gleich bleibt) Da bin ich mir sicher die meisten würden schreien weil die Frameraten teils drastisch in die Knie gehen würden und es sich überlegen ob Optimierungen bei denen die Bildqualität nicht sichtbar leidet doch nicht so schlecht wären und nicht bei allem sofort auf NVIDIA rumhacken, ist das jetzt Volkssport oder was, das böse NVIDIA und das so perfekte ATI.
Ich glaube nicht, daß du weißt, was du da verlangst. Ich will nicht wissen, wie shice die Spiele laufen werden ohne spezielle Optimierungen. Ich schätze sogar, daß einige überhaupt nicht laufen werden vor lauter Bugs.
Original geschrieben von AlexanderBehm
Allein wegen diesem losgehen auf NVIDIA würde ich sofort bei jeder Sache für NVIDIA halten. Ich war knapp davor mir eine ATI Radeon 9800 Pro zu kaufen aber jetzt nehm ich lieber ne GeForce 5900 Ultra. Ich sehe das so, die ATI User sehen endlich ihre Zeit gekommen es NVIDIA heimzuzahlen, weil NVIDIA immer die besseren Karten und Treiber hatte und ATI schlicht unfähig war etwas gescheites zu programmieren und bis jetzt keine gescheiten Firmen zum verkauf ihrer KArten hat, bis auf Hercules (und die sind auch nicht wirklich so überragend) kann man alles vergessen.
Biste ja voll der Experte. :lol:
Hast ja einige nette Behauptungen geliefert aber leider keine Fakten.
Original geschrieben von AlexanderBehm
Was interessieren mich synthetische Benchmarks und wenn ein Spiel besser läuft ohne das ich eine verringerung der Bildqualität merke ist das doch gut.
Sehe ich auch so. :)
cl55amg
2003-07-07, 13:42:16
um beim beta programm von futuremark teilzunehmen muss man 100.000 $
bezahlen.
ati tat dies, und konnte mit futuremak ihre hardware und software auf 3d mark optimieren...
ich denke mal nvidia wollte sich nicht an die für games unrealistischen shader bestimmungen von futuremark halten.
nvidia hat halt ein eigenes konzept...z.B. die eigenwillige pipeline architektur usw.
nv hat einfach 100.000$ in der aufwendungen bilanz gespart!
und hat das geld hoffentlich in die entwicklungs kosten für den nv 35
gesteckt!
ShadowXX
2003-07-07, 13:52:36
@cl55amg,
ich glaube nicht das nv die $100.000 Dollar gestört haben......(die dürften noch weit unter Ihrer 'Portokasse' liegen...)...
Eher das Futuremark diesmal nicht zu 100% auf nv optimieren wollte, bzw. das das Konzept welches Futuremark beim Programmieren des Benches vorlegte/betrieb nicht in nv's Konzept passte. (Warum, sei dahingestellt und soll nicht dazu beitragen das weiter geflamt wird..)
J.S.Shadow
P.S.
ich will auch nicht bestreiten, dass ATI vielleicht von nv's ausstieg aus dem Beta-Programm (etwas) profitiert hat.....
Demirug
2003-07-07, 13:57:26
Original geschrieben von ShadowXX
@cl55amg,
ich glaube nicht das nv die $100.000 Dollar gestört haben......(die dürften noch weit unter Ihrer 'Portokasse' liegen...)...
Eher das Futuremark diesmal nicht zu 100% auf nv optimieren wollte, bzw. das das Konzept welches Futuremark beim Programmieren des Benches vorlegte/betrieb nicht in nv's Konzept passte. (Warum, sei dahingestellt und soll nicht dazu beitragen das weiter geflamt wird..)
J.S.Shadow
P.S.
ich will auch nicht bestreiten, dass ATI vielleicht von nv's ausstieg aus dem Beta-Programm (etwas) profitiert hat.....
Wer etwas bezahlt will dafür auch eine Gegenleistung. Für nichts und wieder nicht wirft keiner jemandem Geld in den Rachen. Und was hat Futuremark als Gegenleistung für die Kohle anzubieten? ;)
PS: Es war übrigens auch schon von Summen um $300.000 die rede.
Exxtreme
2003-07-07, 14:04:36
Original geschrieben von Demirug
Wer etwas bezahlt will dafür auch eine Gegenleistung. Für nichts und wieder nicht wirft keiner jemandem Geld in den Rachen. Und was hat Futuremark als Gegenleistung für die Kohle anzubieten? ;)
PS: Es war übrigens auch schon von Summen um $300.000 die rede.
Tja, die Frage ist ob diese "Gegenleistung" auch eine Optimierung auf eine bestimmte Architektur enthielt oder nicht. ;)
Ich denke, dass alles damit anfing als NV den Detonator 20.xx rausbrachte um dem R200 was entgegensetzen zu können.
In folgen Treiberversionen waren immer wieder grosse Sprünge in der Performance von Nature aufgefallen.
Beide Hersteller cheaten. Ich denke dass ist spätestens seit digit-life und dem beyond3d Thread absolut offensichtilich und nachgewiesen.
Für mich ist es dabei unerheblich, ob das gecheate bei 3Dmark net auffällt, die schaut sich ja eh keine deswegen an. Fakt ist, dass man sich dadurch einen Vorteil verschafft hat. Ich seh das mal so, dass ATI hier nur reagiert hat (was trotzdem Inakzeptabel ist). Das sieht man auch an den Leistungsunterschieden, die diese Optimierungen hervorrufen. Und die sind bei ATI weniger ausgeprägt als bei NV (UT2003).
Ich kann nur jedem an Herz legen dieses AntiCheat skript zu installieren.
cl55amg
2003-07-07, 14:06:14
genau!
wenn futuremark nicht auf nvidias konzept optimieren will,
wieso sollten sie ihnen dann 100.000-300.000$ in den rachen schieben?
nv und futuremark sind nicht auf den selben nenner gekommen und haben sich erst mal getrennt...
umso verwunderter war futuremark,wie nvidia es geschafft hat trotzdem ihre treiber so effizient auf 3dmark zu optimieren(ohne zu bezahlen, wie ati!)
ati hat sich auch bestimmt gefragt für was sie so viel bezahlt haben,
sie hätten es genau so machen können wie nvidia...
also war futuremark im zugzwang...!und das wort treiber cheating haben sich viele daus dann auf die stirn tätowirt...:-)
cl55amg
2003-07-07, 14:09:13
Original geschrieben von HOT
Ich denke, dass alles damit anfing als NV den Detonator 20.xx rausbrachte um dem R200 was entgegensetzen zu können.
In folgen Treiberversionen waren immer wieder grosse Sprünge in der Performance von Nature aufgefallen.
Beide Hersteller cheaten. Ich denke dass ist spätestens seit digit-life und dem beyond3d Thread absolut offensichtilich und nachgewiesen.
Für mich ist es dabei unerheblich, ob das gecheate bei 3Dmark net auffällt, die schaut sich ja eh keine deswegen an. Fakt ist, dass man sich dadurch einen Vorteil verschafft hat. Ich seh das mal so, dass ATI hier nur reagiert hat (was trotzdem Inakzeptabel ist). Das sieht man auch an den Leistungsunterschieden, die diese Optimierungen hervorrufen. Und die sind bei ATI weniger ausgeprägt als bei NV (UT2003).
Ich kann nur jedem an Herz legen dieses AntiCheat skript zu installieren.
nein!
ich habe nichts gegen optimierungen die die bildqualität nicht beeinflussen.in realen spielen,versteht sich!
benchmarks sind nach der ganzen affaire irrelevant...
Original geschrieben von cl55amg
nein!
ich habe nichts gegen optimierungen die die bildqualität nicht beeinflussen.in realen spielen,versteht sich!
benchmarks sind nach der ganzen affaire irrelevant...
Schön für dich ^^ bleibt trotzdem für mich inakzeptabel, da es das reale Bild der Leistungsfähigkeit der Hardware untergräbt.
Lolman
2003-07-07, 15:02:13
Arg, ich hab bei einigen Forenkollegas wohl Nagusstatus.
Ich habe nie irgendwelche ATi Optimierungen totgeschwiegen. Ich war sogar der Erste im 3dcenter, der ATis Texturstage Optimierung/Cheat bei UT2003 überprüft hat, und Benchmarkergebnisse vorgelegt hat.
Und ja, ATi erschummelt sich durch die TS Optimierung bis zu 30% Leistung. Und das seit dem Catalyst 3.1. Aber: diese 30% Mehrleistung sind real vorhanden, und JEDES Spiel das mehrere TSs benutzt ist davon betroffen. (eigentlich jedes Spiel, da jedes Spiel zumindest eine Textur und eine Lightmap verwendet.)
Gut, diese 30% Mehrleistung kämen natürlich nicht zustande, wenn die BQ gleichbleiben würde. Sowas gibts einfach nicht. Weder bei ATi noch bei NV. In (geschätzten) 95% der Spielen wird man jedoch keinen Unterschied ausmachen können, da es oft schon schwer fällt ATi bi-AF von ATi tri-AF zu unterscheiden. Wenn jemand wirklich bemerkt, dass die TS1 nurmehr bi-AF bekommt, hat er die Möglichkeit sich zu informieren, und Exxtremes rTool zu nutzen, welches automatisch (*wink@Exxtreme* ;)) dann das bessere AF verwendet. Dies ist natürlich kein Service von ATi, sondern von Forenteilnehmern, welche sich zur Aufgabe machten, manche Einstellungen benutzerfreundlicher und schneller ereichbar zu machen. Die Möglichkeit ist jedoch grundsätzlich vorhanden.
Bei NV läuft der Hase so, dass genauso optimiert/gecheatet wird. Wenn jemand nettes Application AF bei UT2003 nutzen will, dann bekommt er balanced AF serviert. (Na ihr App. AF Fans, ist euch denn von selbst garnichts aufgefallen??). Die einzige Möglichkeit, zu App. AF zu kommen, ist einen älteren Treiber zu nutzen (welcher bei UT2003 wieder 25% langsamer ist, kein MSAA beherrscht, und Probs. beim Overlay hat. Die älteren, Prä-Detonator FX Treiber sind bei den FX Karten noch langsamer), oder man verwendet das Unwinderscript welches die Perfomance enorm sinken lässt.
Zu den Timedemo cheats: Sind noch verwerflicher, da sie wirklich Leistung vortäuschen, zB. durch HSR, die tatsächlich nicht vorhanden ist. Sie wurden zwar noch von niemandem nachgewiesen, existieren aber mit ziemlicher Sicherheit, da Customdemos die ganzen GraKas wieder in einer komplett anderen Reihung dastehen lassen. (auch mal Vergleiche von 3dcenters UT2003 Pyramiddemo im Benchmarkthread angucken).
3dmarkcheat: Beim 3dmark ist es am ehesten wahrscheinlich dass hier getrickst wird. Der Ablauf ist immer gleich, Firmen haben Zugang zu Betaversionen... ...und eigentlich hätte jeder schon vor 2 Jahren stutzig werden sollen, wie neue Treiberreleases ausschliesslich mehr Speed im 3dmark brachten... Wer jetzt mehr cheatet ist eigentlich egal. Anhand der ungecheateten Leistung kann man erkennen, wie gut eine GraKa mit unoptimierten Shadern/Engines zurechtkommt. Das ist beim 3dmark03 jedoch nicht fair, da die HLSL compilierten Shader ATi Karten generell mehr liegen dürften, was u.U. auch ein Grund für NVs Ausstieg aus dem Betaprogramm gewesen sein könnte, aber Futuremark nicht anzulasten ist, da MS die HLSL anhand ATis Technik entwickelte, einfach aus dem Grund, da ATi Erster mit DX9 Karten waren...
Original geschrieben von cl55amg
einfach weg!
die ganzen ati verteidiger,die sich an den nvidia optimierungen aufgegeilt haben,posten aufeinmal nicht mehr...
also mr. lolman,was sagst du jetzt?
ach weisst du was?wayne interessierts...
Easy; it's a feature, not a cheat
Im Ernst, ATi hat sich bei D3D darauf festgelegt, das die Base-Texture Trilinear gefiltert wird und alle anderen Texturen nur Bilinear; wenn das Spiel nichts anderes spezifiziert. Das war eine grundsätzliche Designentscheidung. Also ist es kein Cheat sondern ein Feature (so wie auch das schlechte AF des R200 ein Feature war/ist und kein Cheat).
Exxtreme
2003-07-07, 15:12:46
Original geschrieben von Gast
Easy; it's a feature, not a cheat
Im Ernst, ATi hat sich bei D3D darauf festgelegt, das die Base-Texture Trilinear gefiltert wird und alle anderen Texturen nur Bilinear; wenn das Spiel nichts anderes spezifiziert. Das war eine grundsätzliche Designentscheidung. Also ist es kein Cheat sondern ein Feature (so wie auch das schlechte AF des R200 ein Feature war/ist und kein Cheat).
Naja, als "Feature" sehe ich die TS-Optimierung eher nicht an. Wenn sie mir die Wahl gelassen hätten, dann würde ich es als Feature ansehen aber so nicht.
LovesuckZ
2003-07-07, 15:28:53
Original geschrieben von Lolman
[...] Die einzige Möglichkeit, zu App. AF zu kommen, ist einen älteren Treiber zu nutzen (welcher bei UT2003 wieder 25% langsamer ist, kein MSAA beherrscht, und Probs. beim Overlay hat. Die älteren, Prä-Detonator FX Treiber sind bei den FX Karten noch langsamer
lässt)[...]
Und bei ATI muss man, um sicher zu gehen, auf den CAT 3.0 zurueckgreifen. Und ich moechte nicht wissen, wie die Spiele mit diesem Treiber laufen (Stutterbug usw.).
Exxtreme
2003-07-07, 15:30:51
Original geschrieben von LovesuckZ
Und bei ATI muss man, um sicher zu gehen, auf den CAT 3.0 zurueckgreifen. Und ich moechte nicht wissen, wie die Spiele mit diesem Treiber laufen (Stutterbug usw.).
Oder das rTool nehmen. :)
Dieses deaktiviert garantiert diese unsägliche TS-Optimierung.
Und einige Gerüchte besagen, daß ATi einen Schalter dafür in zukünftige Treiber einbaut. :)
Demirug
2003-07-07, 15:33:59
Original geschrieben von Lolman
Bei NV läuft der Hase so, dass genauso optimiert/gecheatet wird. Wenn jemand nettes Application AF bei UT2003 nutzen will, dann bekommt er balanced AF serviert. (Na ihr App. AF Fans, ist euch denn von selbst garnichts aufgefallen??). Die einzige Möglichkeit, zu App. AF zu kommen, ist einen älteren Treiber zu nutzen (welcher bei UT2003 wieder 25% langsamer ist, kein MSAA beherrscht, und Probs. beim Overlay hat. Die älteren, Prä-Detonator FX Treiber sind bei den FX Karten noch langsamer), oder man verwendet das Unwinderscript welches die Perfomance enorm sinken lässt.
Ist auch wirklich nicht ganz einfach zu sehen. Den Unterschiede zwichen bi- und tri AF erkennt man wenn überhaupt in der Regel nur am Banding in der Übergangszone zwischen zwei Mip-Maps und gerade dieser Bereich wird beim balanced AF besonders gut gefiltert.
Beschiess ist es irgendwie aber trotzdem. Nur da es keine Vorschriften gibt wie bei tri-AF zu filtern ist durchaus legal.
Original geschrieben von HOT
Schön für dich ^^ bleibt trotzdem für mich inakzeptabel, da es das reale Bild der Leistungsfähigkeit der Hardware untergräbt.
wie definierst du denn 'das reale Bild der Leistungsfaehigkeit'?
zeckensack
2003-07-07, 19:24:02
Original geschrieben von Razor
Und wo wir schon dabei sind, hier das stark verkleinerte Differenzchen von nVidia <...>
Die Methodik ist falsch:To demonstrate the difference we used Adobe Photoshop to calculate the per-pixel difference between them and then intensified it using the Auto Contrast function:
Lesen, staunen, weinen (http://www.digit-life.com/articles2/antidetect/index.html).
Damit wir uns richtig verstehen, 'Auto Contrast' ist adaptiv und richtet sich nach der Helligkeit der bereits vorhandenen Pixel. Die Bilder aus dem Review wurden ergo unterschiedlich stark aufgeblasen.
Ich habe sie mir jetzt mal runtergeladen, und nach folgendem reproduzierbaren (via PSP) Verfahren einen 'fairen' Vergleich gemacht:
1)Zwei Bilder laden, eins kopieren
2)'Paste as new layer', ins andere Bild einfügen
3)Layer properties -> Blend mode -> Difference auswählen
4)Layers -> merge -> flatten
(diese Schritte für den zweiten Bildersatz wiederholen)
5)Eins der Bilder 'vergrößern', sodaß das zweite daneben paßt (BG color auf schwarz setzen, Image -> Canvas size -> 2048/832).
6)das zweite Bild kopieren und als 'New selection' in das vergrößerte erste einfügen (STRG+C, STRG+E)
Jetzt kann ich anfangen die Sichtbarkeit zu verbessern, denn erst jetzt kann ich garantieren daß beide Hälften gleich behandelt werden. Ich habe folgendes gemacht:
1)Color -> Histogram -> Stretch Contrast (entspricht "Auto contrast")
2)Color -> adjust -> Gamma, 2.0 (sonst sieht man immer noch zu wenig, gerade auf'm CRT)
Das ganze habe ich auf 50% runterskaliert und dann als JPEG (Kompressionsstärke 18 von 100) gespeichert.
Und das sieht dann so aus:
http://home.t-online.de/home/zsack/mememe.jpg
Links NV25, rechts R300, mit den Originalbildern von XBit.
2B-Maverick
2003-07-07, 19:35:43
DANKE!
sehr aufschlussreich... da könnte man ja wieder böse Absicht vorwerfen... aber ich tippe mal einfach auf unwissenheit..
haste die Autoren mal benachrichtigt???
zeckensack
2003-07-07, 19:48:40
Die wollten IMO vor allem darstellen, daß auf beiden Karten das Ergebnis vom Treiber 'verschönert' wird. Das ist ja auch gelungen. Nur für den Vergleich der 'Bösartigkeit' zwischen den beiden Herstellern taugt das so eben nichts.
Vielleicht haben sie daran ja auch nicht gedacht.
Meine Motivation ist vor allem, so Leuten wie Razor und ein paar anderen, die Propaganda nur dann hinterfragen, wenn sie aus der gegnerischen Ecke kommt das Totschlagargument "ATI cheatet genauso schlimm/viel/böse" wegzunehmen. Geb' ich offen zu :)
Leonidas
2003-07-07, 20:26:37
Mal eine dumme Frage: Editiert Ihr die nv4disp.dll direkt im system32-Verzeichnis drin oder editiert ihr diese in einer Treiber-Kopie und installiert dann diesen gemoddeten Treiber? Ersteres verhindert bei mir dauerhaft die System File Protection, welche ich nicht schaffe, abzuschalten oder zu umgehen.
StefanV
2003-07-07, 21:11:03
Original geschrieben von Leonidas
Mal eine dumme Frage: Editiert Ihr die nv4disp.dll direkt im system32-Verzeichnis drin oder editiert ihr diese in einer Treiber-Kopie und installiert dann diesen gemoddeten Treiber? Ersteres verhindert bei mir dauerhaft die System File Protection, welche ich nicht schaffe, abzuschalten oder zu umgehen.
Hast du es schonmal im abgesicherten Modus versucht??
Dabei wird eigentlich unter anderem auch die File Protection abgeschaltet...
Razor
2003-07-07, 21:48:17
Original geschrieben von Leonidas
Mal eine dumme Frage: Editiert Ihr die nv4disp.dll direkt im system32-Verzeichnis drin oder editiert ihr diese in einer Treiber-Kopie und installiert dann diesen gemoddeten Treiber? Ersteres verhindert bei mir dauerhaft die System File Protection, welche ich nicht schaffe, abzuschalten oder zu umgehen.
Im abgesicherten Modus starten (oder eben ein anderes OS), im Verzeichnis 'dllcache' die Datei zuerst ersetzen und dann im 'system32'. Funzt eigentlich immer... und wenn Windoof nachfragt (Installations-CD einlegen oder so ;-) einfach die entsprechende Warnmeldung übergehen.
That's it !
Razor
Razor
2003-07-07, 21:49:36
Original geschrieben von Stefan Payne
Hast du es schonmal im abgesicherten Modus versucht??
Dabei wird eigentlich unter anderem auch die File Protection abgeschaltet...
Nein, wird sie nicht...
(aber der Treiber wird nicht aktiviert und kann 'manipuliert' werden ;-)
Razor
Leonidas
2003-07-07, 21:51:21
Original geschrieben von Stefan Payne
Hast du es schonmal im abgesicherten Modus versucht??
Da hab ich ein kleines Problem - da kommt dieser seltsame ICQ-less-equal-wie-auch-immer Error. Im normalen Windows-Betrieb ist der nicht da.
Razor
2003-07-07, 21:54:10
Original geschrieben von zeckensack
Meine Motivation ist vor allem, so Leuten wie Razor und ein paar anderen, die Propaganda nur dann hinterfragen, wenn sie aus der gegnerischen Ecke kommt das Totschlagargument "ATI cheatet genauso schlimm/viel/böse" wegzunehmen. Geb' ich offen zu :)
Auch wenn wenn Du mir vermutlich Blindheit unterstellst... ich sehe nur, dass beide schmuen... wie stark ist mir absolut wurscht. Und wenn man sieht, dass auch ATI fast 50% an Performance verliert, wenn dieser 'Cheat' abgeschaltet wird, ist es mir absolut wurscht, wie sehr oder wie sehr sie nicht die BQ verändern.
Wer beim Bench cheatet will entweder betrügen oder diesen ad absurdum führen.
Und da ich schon immer gegen den Murks war: Weg mit dem Murks !!!
:D
In diesem Sinne
(und in keinem anderen ;-)
Razor
Razor
2003-07-07, 21:56:14
Original geschrieben von Leonidas
Da hab ich ein kleines Problem - da kommt dieser seltsame ICQ-less-equal-wie-auch-immer Error. Im normalen Windows-Betrieb ist der nicht da.
Dann empfehele ich Dir ein 2. OS... Dos6.22 mit WinNT4 kann ich im Kombo einer 2GB-Partition (512MB reichen zur not auch ;-) nur wärmsens empfeheln.
Viel Erfolg !
Razor
MadManniMan
2003-07-08, 00:21:59
Wie Iceman ganz richtig vor ein paar Seiten berichtete, hab ich einzig in BF42 diesen Effekt erkannt.
Zudem werfen stets und ständig alle mit Differenzbildern um sich, um überhaupt(!) etwas erkennen zu können.
----
Was sagt uns das? Zum Einen, daß Cheats vorhanden sind, Performance geben und im Endeffekt keinem wirklich auffallen. Gut für die IHVs, denn selbst wenn Freaks wie wir erst nach einer solchen Zeitspanne dahinter steigen und auf diese Art und Weise mit der Problematik konfrontiert werden - dem Norm-User kann man immernoch vorhalten, wie massig Performance frei wird und wie irrelevant der optische Unterschied im Endeffekt doch ist. Zum Anderen wäre daher wohl für alle die Optimale Lösung ein kleiner offizieller(!) Schalter, der dem User die Wahl zwischen Rohtreiber und Optimierungen läßt. Womit wir aber auch wieder erkennen, daß wir voll und ganz unter der Fichtel der IHVs stehen, denn dann würde optimiert ohne Ende und ein absoluter Informationsoverkill würde entstehen. Im Endeffekt würden die sog. "Fach"presse resignieren und kaum ein Freak würde nicht zum DAU. Im Endeffekt bringt unser Einsatz rein gar nichts...
Original geschrieben von Razor
Wer beim Bench cheatet will entweder betrügen oder diesen ad absurdum führen.
Und da ich schon immer gegen den Murks war: Weg mit dem Murks !!!Weg mit dem Cheating!
Original geschrieben von aths
Weg mit dem Cheating!
Grünau! In den Benchmarks sehe ich absolut nicht den Bösewicht - solange sie nicht als alleinige Entscheidungsgrundlage dienen.
----------------------------------------------------------------------
Was sollen eigentlich diese Differenzbilder zeigen? Ich kann noch einen gewissen Sinn darin erkennen, z.B. bei einem Vergleich mehrerer Video-Codecs Differenzbilder oder auch das PSNR zu Rate zu ziehen. Aber beim Rendering? Das einzige was da IMO herauskommen kann, ist zu Erkennen, wo im Bild bzw. der Szene etwas verändert wurde. Mit diesen Infos kann ein Profi möglicherweise ein wenig zu raten anfangen, aber als Laie -> ??? . Mir entzieht sich der Sinn, warum soetwas gepostet wird.
Razor
2003-07-08, 06:19:40
Original geschrieben von MadManniMan
Im Endeffekt bringt unser Einsatz rein gar nichts...
Leider ein sehr wahres Wort...
Razor
Razor
2003-07-08, 06:29:31
Original geschrieben von aths
Weg mit dem Cheating!
Original geschrieben von Ikon
Grünau! In den Benchmarks sehe ich absolut nicht den Bösewicht - solange sie nicht als alleinige Entscheidungsgrundlage dienen.
Solange es Leute gibt, für die es eine Ersatzbefriedigung ist, sich an synthetischen Benchmarks aufzugei..., wird's auch immer Versuche geben, diese ein weinig schneller laufen zu lassen.
Allerdings sehe ich bei der ganzen Sache eigentlich gar nicht das Problem, zeigt es doch letztlich nur, wie blöde eigentlich der Konsument ist. Da werden die Leistungskronen vom einen IHV zum anderen gereicht und schon sagt die Masse "Määäääähhhhhhhhh....." und trottet gemächlich zum anderen... plötzlich ist es wieder anders herum und schon gibt's ein "Mu ? Määääähhhhhhhhhh....." und die andere Rcihtung wird eingeschlagen.
Und das nicht bei den High-End-Chips (die diese Massenbewegungen ja auslösen), nein, bei den Mainstream-Ultra-Low und Low-End-Varianten, die aber auch rein gar nichts mit der Lesitungsfähigkeit der High-End-Boliden zu tun haben.
-
Wenn Ihr mich fragt, dann haben die Konsumenten 'schuld', die Printmedien und natürlich die Reviewer des Internets (wie auch diverse Fanboys, die in den vielfältigen Foren ihr Unwesen treiben ;-). Aber die Diskussion ist schon so dermaßen alt und trifft diese ja nicht nur den GraKa-Markt, wie sich ja jeder vorstellen mag.
Insofern sollte man nicht sagen oder fragen was Die IHV's anders machen sollen, sondern man sollte sich darüber gedanken machen, wie man es bewerkstelligen kann, dass sich das Kaufverhalten des (Massen-) Konsumenten ändert. Nur wenn dieser kritischer wird (was selbst jetzt aufgrund der jetzt aufgekommenen Vorkommnisse vollkommen an denen vorbei geht) wird sich was ändern.
Ansonsten kann ich hier Manni nur noch mal zitieren:
"Im Endeffekt bringt unser Einsatz rein gar nichts... "
In diesem Sinne
Razor
Leonidas
2003-07-08, 10:42:04
Ich gieße mal noch ein bißchen Öl ins Feuer:
P4/2533, GFFX5900U (300/450), 10x7, 8xAF, Quality, 44.65, UT2003 v2225
normal ACS
Timedemo Pyramid2003 39,8 40,7 :-)
FlyBy Antalus 89,8 40,4
LovesuckZ
2003-07-08, 10:51:27
Hm, mit meiner 5800 auf 500MHZ Core fiel der Pyramid bench von 47-> 39 fps mit 8QAF...
Pathfinder
2003-07-08, 11:57:35
Die Frage ist nicht ob und wann ATI/NVidia ihre illegalen/illegalen "Optimierungen" freiwillig entfernen werden, den keiner wird den ersten Schritt tun, sondern wie die Benchmarker mit den Cheats/Optimierungen umgehen werden, um ATI/NVidia zur Aufgabe illegaler Optmierungen zu bewegen! :)
Neben schwer "cheatbaren" Benchmark-Methoden sollte bei jedem Review zu einem Treiber das passende Anticheat-Script eingesetzt werden, welches nur echte anwendungsspezifische Optimierungen und keine Timedemo-Cheats mehr zuläßt. Erst dann wird dann ATI/NVidia einfach sinnlos erscheinen, weiterhin illegale "Optimierungen", also Cheats, in die Treiber einzubauen. Damit käme endlich den Reviewer auch der Anteil an Verantwortung für das Dilemma zu, den sie zu tragen hätten, denn ebenso wie die IHVs haben auch manche Reviewer allzu NVidia-/ATI-gefärbte Brillen auf. Cheat-Benches sind für eine einseitige Graka-Weltsicht doch sehr von Vorteil!
Die Frage ist nur, wer wird die Anticheat-Scripts erstellen/warten? Nur eine unabhängig Instanz käme hier in Betracht und gezielte (per Engine/Spiel) aber legale Treiber-Optimierungen müßten zur Validierung angemeldet werden. Vielleicht läßt sich hiermit ein neues Geschäfts(modell) für die verrückten Zwiebeln aufbauen, wenn ihnen denn wirklich viel an neutraler Performance-Messung liegt. Zumindest könnte man damit den offensichtlich zu großen Gestaltungs-Freiraum auf legale Optimierungen reduzieren.
Das Problem der bestmöglichen Shader für eine Architektur bei absolut identischem Ergebnis bezogen auf die unoptimierte Referenz ließe sich damit anschaulich gerecht lösen. Das AF/AA Problem allerdings bleibt zunächst bestehen bis sich die Architekturen bezüglich gundlegender Verfahren angenähert haben.
Pathfinder
Original geschrieben von Leonidas
Ich gieße mal noch ein bißchen Öl ins Feuer:
P4/2533, GFFX5900U (300/450), 10x7, 8xAF, Quality, 44.65, UT2003 v2225
normal ACS
Timedemo Pyramid2003 39,8 40,7 :-)
FlyBy Antalus 89,8 40,4
Das interessanteste an diesem Beitrag ist für mich, daß Leonidas im Besitz einer 5900ultra mit nur 300MHz Chiptakt ist. :| Wann kommt der Test? :D
Original geschrieben von Pathfinder
Die Frage ist nicht ob und wann ATI/NVidia ihre illegalen/illegalen "Optimierungen" freiwillig entfernen werden, den keiner wird den ersten Schritt tun, sondern wie die Benchmarker mit den Cheats/Optimierungen umgehen werden, um ATI/NVidia zur Aufgabe illegaler Optmierungen zu bewegen! :)
Pathfinder
Bei Nvidia wird das jetzt unmöglich/schwierig werden, da Nvidia jetzt seine Treiber verschlüsselt und erst zur Laufzeit entschlüsselt.
Die "Cheats" bei ATi sind ein Feature, und kein Cheat, da alle D3D-Spiele immer und bei allen Leveln ( und nicht nur in speziellen Bechmarks ) von der Tri/Bi AF-Optimierung profitieren. Das einzige schlechte dabei ist, das man diese Optimierung nicht direkt im Treiber-Panel abschalten kann, sondern ein Zusatztool wie rTool braucht. Wenn ATi diesen Schalter noch implementiert ist imho alles i.O.
Bleibt bei ATi also nur noch der olle 3DMark01 als Fleck auf der Weste übrig. Schaun wir mal, beim viel wichtigeren und aktuelleren 3DMark03 haben sie ja auch schnell reagiert.
Was aber, wenn jetzt Nvidia weiter cheated und ATi nicht, kaufen wir dann alle wieder Nvidia-Karten weil diese ja soo viel schneller sind oder wie oder was...
Ich fände mal ein Review mit Anti Cheat Scripts interessant :)
Wer da wohl besser abschneidet würd mich echt mal interessieren.
LovesuckZ
2003-07-08, 12:27:10
Original geschrieben von Gast
Die "Cheats" bei ATi sind ein Feature, und kein Cheat, da alle D3D-Spiele immer und bei allen Leveln ( und nicht nur in speziellen Bechmarks ) von der Tri/Bi AF-Optimierung profitieren.
Wenn es ein Feature waere, haette es schon von Anfang so sein muessen. Da ATi es aber erst mit dem CAT3.1 eingesetzt hat, hat man sich auf Kosten der Bildqualitaet Leistung erschummelt -> Cheat.
Pathfinder
2003-07-08, 12:38:43
Original geschrieben von Gast
Bei Nvidia wird das jetzt unmöglich/schwierig werden, da Nvidia jetzt seine Treiber verschlüsselt und erst zur Laufzeit entschlüsselt.
Die "Cheats" bei ATi sind ein Feature, und kein Cheat, da alle D3D-Spiele immer und bei allen Leveln ( und nicht nur in speziellen Bechmarks ) von der Tri/Bi AF-Optimierung profitieren. Das einzige schlechte dabei ist, das man diese Optimierung nicht direkt im Treiber-Panel abschalten kann, sondern ein Zusatztool wie rTool braucht. Wenn ATi diesen Schalter noch implementiert ist imho alles i.O.
Bleibt bei ATi also nur noch der olle 3DMark01 als Fleck auf der Weste übrig. Schaun wir mal, beim viel wichtigeren und aktuelleren 3DMark03 haben sie ja auch schnell reagiert.
Was aber, wenn jetzt Nvidia weiter cheated und ATi nicht, kaufen wir dann alle wieder Nvidia-Karten weil diese ja soo viel schneller sind oder wie oder was...
Bei mangelnder Bereitschaft zur Kooperation, werden weiterhin ältere Treiber verwendet. Legale Optimierungen muß man nicht verbergen. Sollten ATI/NVidia Treiber nicht zur Zertifizierung einreichen wollen, dann ist das bereits ein Eingeständnis der Schuld. Ich frage mich, ob man wirklich noch Hardware verkaufen kann, wenn jeder weiß (und es spricht sich langfristig herum), daß die Benchmarks nichts mit der Realität zu tun haben. Für den Fall nicht zertifizierter Treiber sollten Reviewer großzügig annehmen: RealFPS = TimedemoFPS/2
Käufer-Unsicherheit führt ganz sicher nicht zu mehr Absatz!
Pathfinder
Leonidas
2003-07-08, 13:04:38
Original geschrieben von Axel
Das interessanteste an diesem Beitrag ist für mich, daß Leonidas im Besitz einer 5900ultra mit nur 300MHz Chiptakt ist. :| Wann kommt der Test? :D
Dauert noch eine ganze Weile. Erstmal verträgt mein NT nicht den vollen Takt der Karte, deswegen der niedrige Takt. Desweiteren fehlen noch die 9800er Karten - 128 und 256 MB - denn wenn, dann soll der Test natürlich komplett sein (alle HighEnd-Karten).
Omnicron
2003-07-08, 13:06:11
Original geschrieben von LovesuckZ
Wenn es ein Feature waere, haette es schon von Anfang so sein muessen. Da ATi es aber erst mit dem CAT3.1 eingesetzt hat, hat man sich auf Kosten der Bildqualitaet Leistung erschummelt -> Cheat.
Da kann ich LovesuckZ wirklich einmal zustimmen, wenn es wirklich ein Feature wäre, sollte man es ganz leicht im Treiber an/austellen können, aber das ist von Ati nicht so vorgesehen.
-> Erhöhung der FPS auf Kosten der BQ gegen den Willen des Users ist kein Feature für mich
Omnicron
2003-07-08, 13:08:51
Original geschrieben von Axel
Das interessanteste an diesem Beitrag ist für mich, daß Leonidas im Besitz einer 5900ultra mit nur 300MHz Chiptakt ist. :| Wann kommt der Test? :D
300 Mhz ist der Standardwert für den 2D Modus, vielleicht hat die 2D / 3D Umschaltung nicht geklappt.
*Edit:* Ups, Leonidas hat ja schon geantwortet, liegt am Netzteil.
Leonidas
2003-07-08, 13:22:16
Original geschrieben von HOT
Ich fände mal ein Review mit Anti Cheat Scripts interessant :)
Wer da wohl besser abschneidet würd mich echt mal interessieren.
Kommt entscheidend auf die Benchmark an, die man einsetzt. Ich habe für unseres nächstes Review alle D3D-Benchmarks mit den AntiCheat-Scripten gegengeprüft - keiner meiner Benchmarks war betroffen. Nur wer die üblichen 3DMark und UT2003 FlyBy Benchmarks einsetzt, hat das Problem.
Leonidas
2003-07-08, 13:23:29
Original geschrieben von Omnicron
300 Mhz ist der Standardwert für den 2D Modus, vielleicht hat die 2D / 3D Umschaltung nicht geklappt.
*Edit:* Ups, Leonidas hat ja schon geantwortet, liegt am Netzteil.
Hehe, Problem ist gelöst. Einfach ein anderes Kabel genommen, wo keine anderen Geräte dran hingen. Das alte 250-Watt-OEM-Netzteil rulez!
Original geschrieben von Gast
Die "Cheats" bei ATi sind ein Feature, und kein Cheat, da alle D3D-Spiele immer und bei allen Leveln ( und nicht nur in speziellen Bechmarks ) von der Tri/Bi AF-Optimierung profitieren. Das einzige schlechte dabei ist, das man diese Optimierung nicht direkt im Treiber-Panel abschalten kann, sondern ein Zusatztool wie rTool braucht. Wenn ATi diesen Schalter noch implementiert ist imho alles i.O.
:rofl::rofl:
aber ja doch, wenn generell in allen Applikationen gecheatet wird dann nennt man das jetzt feature.... ich lach mich tot :lol:
MadManniMan
2003-07-08, 16:22:24
Original geschrieben von Gast
:rofl::rofl:
aber ja doch, wenn generell in allen Applikationen gecheatet wird dann nennt man das jetzt feature.... ich lach mich tot :lol:
nun, wenn man nach der einen aussage von lovesuckz geht, sind diese wurschtelungen für mich kein cheat, da ich erst mit dem cata 3.4 angefangen habe... ^^ kleiner scherz...
nun, was die winkelabhängigkeit betrifft, gilt das selbe wie für das aa von NV: es ist halt wie es ist, die HW beschränkt und niemand verstößt gegen normen. solange 4*aa 4 samples nutzt, ists auch das, wie es heißt und solange auch nur irgend mit 16tap anisotrop gefiltert wird, ist 16tap anisotroper filter, da der begriff der anisotropie auch immer gleich für adaptivität steht.
wie das mit den stage-optimierungen ist... tja, darüber entscheide jeder selbst! wohl aber befinden sich die IHVs in der aufklärungspflicht (der eigenen dinge, nicht der des opponenten), was, wie, wann, wo und warum verändert wird.
Iceman346
2003-07-08, 16:39:14
Original geschrieben von LovesuckZ
Wenn es ein Feature waere, haette es schon von Anfang so sein muessen. Da ATi es aber erst mit dem CAT3.1 eingesetzt hat, hat man sich auf Kosten der Bildqualitaet Leistung erschummelt -> Cheat.
Du weisst doch, seit dem Futuremark Statement gibts keine Cheats mehr nur noch Optimierungen.
LovesuckZ
2003-07-08, 17:02:44
Original geschrieben von Iceman346
Du weisst doch, seit dem Futuremark Statement gibts keine Cheats mehr nur noch Optimierungen.
Das gilt aber nur fuer nvidia :D
LovesuckZ
2003-07-08, 17:18:26
No chance of AntiDetector being run on these - Thanks to Unwinder for the info:
'NVIDIA prepared to launch new 44.67 drivers, that have heavily encrypted D3D driver which decrypts itself in runtime (to tangle disassembling) and internal code checksums calculations that emulate visual artifacts if at least one byte of code is patched. Currently the company acts exactly as I've assumed in the conclusion of the article. Shame.'
http://www.warp2search.net/article.php?sid=13004&mode=thread&order=0
StefanV
2003-07-08, 20:09:08
Original geschrieben von LovesuckZ
No chance of AntiDetector being run on these - Thanks to Unwinder for the info:
'NVIDIA prepared to launch new 44.67 drivers, that have heavily encrypted D3D driver which decrypts itself in runtime (to tangle disassembling) and internal code checksums calculations that emulate visual artifacts if at least one byte of code is patched. Currently the company acts exactly as I've assumed in the conclusion of the article. Shame.'
http://www.warp2search.net/article.php?sid=13004&mode=thread&order=0
Hm, da frag ich mich doch glatt, was NV zu verbergen hat :|
Anhand der Reaktion muss es sehr viel sein...
Razor
2003-07-08, 20:38:40
Nö...
Das hier könnte der Grund sein:
Original geschrieben von HOT
Ich fände mal ein Review mit Anti Cheat Scripts interessant :)
Wer da wohl besser abschneidet würd mich echt mal interessieren.
Was für einen Sinn soll es machen, diese AntiCheat-Scripts von Unwinder gegeneinander laufen zu lassen, wenn er sich nicht einmal selber sicher ist, ob er bei ATI überhaupt alles erwischt hat ? Bei nVidia soll es 'sehr einfach' gewesen sein, die selektiven Optimierungen gefunden zu haben, bei ATI scheint es effektiver versteckt... mit diesem Mißstand hat nVidia nun aufgeräumt, denn offenbar dürfte es in zukünftigen Treiber-Releases 'etwas' schwieriger werden, solche 'Optimierungen' zu lokalisieren oder gar zu deaktivieren.
Ich muss ganz ehrlich sagen, dass ich dies auch überhaupt nicht verwerflich finde, zumal Treiber ja auch 'ne Menge über die Hardware 'wissen'. Zumal halte ich es nicht für eine sinnvolle Methode, einfach alle 'Optimierungen' zu deaktivieren, ohne zu wissen, ob all dies zu einer schlechteren BQ führt.
Derzeit weiss man eigentlich nur eines:
- beim Murks01 haben beide gecheatet (der eine mehr, der andere weniger - wenn auch ungesichert)
- beim Murks03 haben beide gecheatet
- bei UT2003 haben beide gecheatet
Von anderen Dingen habe ich weder von der einen, noch von der anderen Seite 'gehört', oder gibt's da schon was Neues. Und wer mir jetzt damit kommt, dass nVidia aber mehr und... dem rate ich wirklich eindringlich, sich diesen Post noch einmal genau durchzulesen.
Bis denne
Razor
Exxtreme
2003-07-08, 23:38:33
Original geschrieben von LovesuckZ
No chance of AntiDetector being run on these - Thanks to Unwinder for the info:
'NVIDIA prepared to launch new 44.67 drivers, that have heavily encrypted D3D driver which decrypts itself in runtime (to tangle disassembling) and internal code checksums calculations that emulate visual artifacts if at least one byte of code is patched. Currently the company acts exactly as I've assumed in the conclusion of the article. Shame.'
http://www.warp2search.net/article.php?sid=13004&mode=thread&order=0
Das trägt nicht unbedingt dazu bei, Vertrauen zu gewinnen oder zu stärken. :down:
Quasar
2003-07-08, 23:50:44
Ich kann dem nichts negatives abgewinnen, wenn eine Firma versucht ihr IP zu schützen, wenn die geltenden Lizenzverträge so offensichtlich umgangen werden.
Es würde mich nicht wundern, wenn Unwinder auch 'nen Anruf von einem nV-Anwalt bekäme.
MadManniMan
2003-07-09, 00:05:21
Original geschrieben von Quasar
Ich kann dem nichts negatives abgewinnen, wenn eine Firma versucht ihr IP zu schützen, wenn die geltenden Lizenzverträge so offensichtlich umgangen werden.
Es würde mich nicht wundern, wenn Unwinder auch 'nen Anruf von einem nV-Anwalt bekäme.
Auch wenns wohl an die Öffentlichkeit nachher als Rechtsschutz verkauft wird - wer glaubt denn wirklich, daß nV einfach nur die gesamte Aktion kleintreten will?
Quasar
2003-07-09, 01:15:54
Original geschrieben von MadManniMan
Auch wenns wohl an die Öffentlichkeit nachher als Rechtsschutz verkauft wird - wer glaubt denn wirklich, daß nV einfach nur die gesamte Aktion kleintreten will?
Reverse Engineering ist in allen mir bekannten Lizenzveträgen, denen man bei Benutzung zustimmen muss (ausser bei gewissen OpenSource-Projekten) ausdrücklich verboten.
Unabhängig von den Skripts, die Unwinder da eingefügt hat, können so auch Informationen an die Öffentlichkeit gelangen, die als Betriebsgeheimnis gelten.
Keine Firma der Welt, die noch irgendwie am Fortkommen ihrer Produkte interessiert ist, würde anders handeln.
Vergesst nicht: Der Graka-Markt ist nicht die Wohlfahrt oder eine Sonderausgabe von Wünsch' dir was, sondern schlicht und einfach ein Geschäft. (Ja, ich weiss, ich klinge wie Richthofen. Aber wo er recht hat, hat er recht.)
Original geschrieben von Exxtreme
Das trägt nicht unbedingt dazu bei, Vertrauen zu gewinnen oder zu stärken. :down:
Da gibt es auch ein fettes :down: von mir, eine derart schnelle Reaktion ist absolut suspekt. Zu Quasars Bemerkung bezüglich "Reverse Engineering" muss ich fragen: bestand diese Gefahr nicht schon immer? -> Nein, dieser "verschlüsselte" Treiber kann praktisch nur eine Reaktion auf das AntiCheat-Skript sein. Nicht dass ich das nicht verstehen könnte, wer lässt sich schon gerne beim schummeln über die Schulter blicken? Wenigstens haben die FanATiker wieder einen Grund mehr zu flamen, zumindest solange ATi nicht auch einen "verschlüsselten" Treiber bringt =)
Original geschrieben von Quasar
Ich kann dem nichts negatives abgewinnen, wenn eine Firma versucht ihr IP zu schützen, wenn die geltenden Lizenzverträge so offensichtlich umgangen werden.
Reverse Engineering ist legal auch wenn gerne immer das Gegenteil behauptet wird, solange du es dazu verwendest um Inkompatibilitäten zwischen versch. Software zu umgehen (Das ist die Lage in .de, .us kann wieder anders aussehen). Da nvidia erwiesenermassen Dinge in anderer Leute Software verändert, dürfte das darunter fallen: wenn unwinder diese Dinge nicht rückgängig machen darf, warum darf es dann nvidia? Unwinder hat aber weder eine Grafikkarte gebaut, noch einen eigenen Treiber. Wenn nvidia jetzt allerdings seine Treiber verschlüsselt ist das reverse engineering in der EU und den US grundsätzlich verboten (neues Copyrightgesetz und der DMCA)
Unwinder hat einen russischen Namen, und in .ru ist reverse engineering aber noch völlig legal (warum sind wohl nen Haufen crack seiten .ru?)
Was die Lizenzverträge angeht: die sind null und nichtig, oder hast du Nvidia eine rechtsgültige Unterschrift geleistet beim Download (elektronisch oder mit Tinte)? Clickthrough Lizenzverträge sind nicht rechtswirksam. Damit gilt das Standard-Copyright, sogar in den meisten US Staaten. UCITA in der USA will das ändern, aber bisher haben nur max 4-5 Staaten das Gesetz beschlossen.
Es würde mich nicht wundern, wenn Unwinder auch 'nen Anruf von einem nV-Anwalt bekäme.
Das ist sehr unwahrscheinlich, auch wenn nvidia es gerne tun würde: In Russland sind sogar cracks legal.
Alles in allem ist das verschlüsseln von Treibern ein PR Debakel und wird Sie nichtmal wirklich schützen. Jedes neue Spiel ist verschlüsselt mit Safedisc2 oder Securom. Wie lange dauert es bis die Verschlüsselung gebrochen ist? Verschlüsselung ohne Hardwareunterstützung ist für die Tonne. Wenn Sie im Speicher während der Laufzeit ver- und entschlüsseln bekommen wir keine "interaktiven Filme" als Spiele sondern "interaktive Standbilder".
Ein Ausweg währe ein Crypto-Chip auf den Videokarten, aber: schonmal nachgesehen was die kosten? Viel Spass mit deiner 1000 tEURO Karte...
Demirug
2003-07-09, 07:59:49
Original geschrieben von Gast
Reverse Engineering ist legal auch wenn gerne immer das Gegenteil behauptet wird, solange du es dazu verwendest um Inkompatibilitäten zwischen versch. Software zu umgehen (Das ist die Lage in .de, .us kann wieder anders aussehen). Da nvidia erwiesenermassen Dinge in anderer Leute Software verändert, dürfte das darunter fallen: wenn unwinder diese Dinge nicht rückgängig machen darf, warum darf es dann nvidia? Unwinder hat aber weder eine Grafikkarte gebaut, noch einen eigenen Treiber. Wenn nvidia jetzt allerdings seine Treiber verschlüsselt ist das reverse engineering in der EU und den US grundsätzlich verboten (neues Copyrightgesetz und der DMCA)
Unwinder hat einen russischen Namen, und in .ru ist reverse engineering aber noch völlig legal (warum sind wohl nen Haufen crack seiten .ru?)
Was die Lizenzverträge angeht: die sind null und nichtig, oder hast du Nvidia eine rechtsgültige Unterschrift geleistet beim Download (elektronisch oder mit Tinte)? Clickthrough Lizenzverträge sind nicht rechtswirksam. Damit gilt das Standard-Copyright, sogar in den meisten US Staaten. UCITA in der USA will das ändern, aber bisher haben nur max 4-5 Staaten das Gesetz beschlossen.
Gerade weil man ja keine einheitlichen rechtlichen Grundlagen hat geht man solche Wege. Ob das nun gut oder schlecht für den Endkunden ist sei jetzt mal dahingestellt die Mehrheit wird davon sowieso nichts merken. Einem weiteren grossen Teil der Kunden wird es einfach egal sein und der Rest wird in den Bereich der ewigen Nörgler eingeordnet.
Das ist sehr unwahrscheinlich, auch wenn nvidia es gerne tun würde: In Russland sind sogar cracks legal.
Alles in allem ist das verschlüsseln von Treibern ein PR Debakel und wird Sie nichtmal wirklich schützen. Jedes neue Spiel ist verschlüsselt mit Safedisc2 oder Securom. Wie lange dauert es bis die Verschlüsselung gebrochen ist? Verschlüsselung ohne Hardwareunterstützung ist für die Tonne. Wenn Sie im Speicher während der Laufzeit ver- und entschlüsseln bekommen wir keine "interaktiven Filme" als Spiele sondern "interaktive Standbilder".
Ein Ausweg währe ein Crypto-Chip auf den Videokarten, aber: schonmal nachgesehen was die kosten? Viel Spass mit deiner 1000 tEURO Karte...
Schützen nicht. Aber bremsen. Mit Safedisc und Securom darf man das aber nun nicht in einen Topf werfen. Die Verfahren sind mehr oder minder bekannt und deswegen leicht zu umgehen. Jedesmal wenn ein neues Kopierschutzverfahren auf den Mark kommt dauert es etwas länger bis man es umgehen kann.
Ein Crypto-Chip kostet ca 20€ wenn man das ganze direkt mit in den eigentlichen Grafikchip einbauen würde gehen die Mehrkosten unter. Das wäre also gar nicht das Problem. Aber was bringt es? Der Code muss auch in diesem Fall irgendwann dekodiert werden und liegt dann in normaler Form im Speicher vor. Mit einem Crypto-Chip sind die dekodier Routinen sogar leichter aufzuspüren weil sie eine Hardwareinteraktion enthalten müssen. Das gleiche trift aber auch auf Softwarelizenzsysteme zu weil an irgendeiner Stelle eine Identifikation benötigt wird die in welcher Form auch immer eine Hardwareinteraktion erfordert.
nv geht es hier aber ja gar nicht um das verhindern von illegaler Nutzung sondern in letzer Konsequenz um eine Modifikationsschutz. Solche Massnahmen sind etwas komplizierter zu beseitigen aber unmöglich ist das nicht. Man setzt eben die technologische Herausforderung höher.
Exxtreme
2003-07-09, 09:30:05
Original geschrieben von Quasar
Ich kann dem nichts negatives abgewinnen, wenn eine Firma versucht ihr IP zu schützen, wenn die geltenden Lizenzverträge so offensichtlich umgangen werden.
Es würde mich nicht wundern, wenn Unwinder auch 'nen Anruf von einem nV-Anwalt bekäme.
Unwinder wohnt in Russland. Dort ist AFAIK Reverse Engineering legal und ob Lizenzverträge dort eine Gültigkeit haben weiss ich nicht. Von daher können die Anwälte gar nichts machen.
Exxtreme
2003-07-09, 09:35:51
Original geschrieben von Demirug
Gerade weil man ja keine einheitlichen rechtlichen Grundlagen hat geht man solche Wege. Ob das nun gut oder schlecht für den Endkunden ist sei jetzt mal dahingestellt die Mehrheit wird davon sowieso nichts merken. Einem weiteren grossen Teil der Kunden wird es einfach egal sein und der Rest wird in den Bereich der ewigen Nörgler eingeordnet.
Der Schuss könnte aber nach hinten losgehen. :)
Ich glaube nicht, daß die Computerfreaks zufrieden sein werden, wenn die allseits beliebten Patch-Skripte nicht mehr funktionieren.
Und genau diese Freaks sind es, bei denen sich die DAUs den Rat zum nächsten Computerkauf holen.
Original geschrieben von Quasar
Ich kann dem nichts negatives abgewinnen, wenn eine Firma versucht ihr IP zu schützen, wenn die geltenden Lizenzverträge so offensichtlich umgangen werden.
Es würde mich nicht wundern, wenn Unwinder auch 'nen Anruf von einem nV-Anwalt bekäme.
Wenn Nvidia ab morgen überhaupt keine Treiber mehr herausgeben würde, fändest du das auch ok. Würde mich nicht mal wundern, da bin ich mir sicher.
Es kommt bei dir halt immer drauf an, welcher Name drauf steht.
Jetzt wirst du zwar wieder lamentieren über dies und das und sowieso, aber die Aussagen, die zu dieser Erkenntnis führen, ziehen sich wie ein roter Faden durch deine Posts.
Mr. Lolman
2003-07-09, 11:54:31
Original geschrieben von Razor
Derzeit weiss man eigentlich nur eines:
- beim Murks01 haben beide gecheatet (der eine mehr, der andere weniger - wenn auch ungesichert)
- beim Murks03 haben beide gecheatet
- bei UT2003 haben beide gecheatet
ATi hat in UT2003 nicht gecheatet. Bitte auch diesen Thread dazu durchlesen:
http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=81049
Razor
2003-07-09, 17:38:23
Original geschrieben von Mr. Lolman
ATi hat in UT2003 nicht gecheatet. Bitte auch diesen Thread dazu durchlesen:
http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=81049
Vorhin war da nur ein einziger Psot von Leo zu sehen, der nach weiteren Meinungen fragt...
;-)
Razor
Mr. Lolman
2003-07-09, 17:41:37
Original geschrieben von Razor
Vorhin war da nur ein einziger Psot von Leo zu sehen, der nach weiteren Meinungen fragt...
;-)
Razor
Musste wirklich erst InsaneDruid was dazu schreiben, damit das Ganze glaubhaft ist?
Razor
2003-07-09, 17:53:32
Original geschrieben von Ikon
Da gibt es auch ein fettes :down: von mir, eine derart schnelle Reaktion ist absolut suspekt. Zu Quasars Bemerkung bezüglich "Reverse Engineering" muss ich fragen: bestand diese Gefahr nicht schon immer? -> Nein, dieser "verschlüsselte" Treiber kann praktisch nur eine Reaktion auf das AntiCheat-Skript sein. Nicht dass ich das nicht verstehen könnte, wer lässt sich schon gerne beim schummeln über die Schulter blicken? Wenigstens haben die FanATiker wieder einen Grund mehr zu flamen, zumindest solange ATi nicht auch einen "verschlüsselten" Treiber bringt =)
Versteh' ich nicht... was soll bitte eine Verschlüsselung eines neuen Treibers bringen ?
(der sich zudem hinsichtlich der Performance als absolut identisch zum unverschlüsselten 44.65 verhält)
Übrigens wird dieses Thema schon in dem 'anderen' (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=81358) Thread behandelt...
;-)
Razor
Was es bringt, ist das man nicht mehr so einfach den Treiber disassemblieren kann um rauszufinden wie und wo nvidia cheatet. Ich bin mir sicher daß nividia eine völlig plausible Erklärung für die Vershlüsselung hat, aber wer die glaubt dem ist wirklich nicht mehr zu helfen...
Razor
2003-07-09, 17:59:01
Original geschrieben von Mr. Lolman
Musste wirklich erst InsaneDruid was dazu schreiben, damit das Ganze glaubhaft ist?
Nein...
Und geklärt ist das Ganze noch lange nicht.
;-)
Razor
Original geschrieben von Gast
Was es bringt, ist das man nicht mehr so einfach den Treiber disassemblieren kann um rauszufinden wie und wo nvidia cheatet. Ich bin mir sicher daß nividia eine völlig plausible Erklärung für die Vershlüsselung hat, aber wer die glaubt dem ist wirklich nicht mehr zu helfen...
Diese Diskussion findet in dem von Razor verlinkten Thread statt (der existierte zum Zeitpunkt meines Posts noch nicht).
LovesuckZ
2003-07-09, 18:27:03
ich schieb das mal hier rein.
http://www.digit-life.com/articles2/gffx/gffx-13.html
Keine gute Werbung für Futuremark...
Original geschrieben von LovesuckZ
ich schieb das mal hier rein.
http://www.digit-life.com/articles2/gffx/gffx-13.html
Keine gute Werbung für Futuremark...
Was hat Futuremark damit zu tun? Ich sehe in diesem Review nur, dass der 44.65 Detonator den .330 Patch des 3DMarks wieder aushebelt (und alle "Optimierungen" reaktiviert). Wenn überhaupt, dann ist das wohl schlechte Presse für nVidia ...
Demirug
2003-07-09, 18:43:52
Original geschrieben von Ikon
Was hat Futuremark damit zu tun? Ich sehe in diesem Review nur, dass der 44.65 Detonator den .330 Patch des 3DMarks wieder aushebelt (und alle "Optimierungen" reaktiviert). Wenn überhaupt, dann ist das wohl schlechte Presse für nVidia ...
Warum den? Die Bildqualität leidet ja nicht (mehr).
LovesuckZ
2003-07-09, 18:44:11
Original geschrieben von Ikon
Was hat Futuremark damit zu tun? Ich sehe in diesem Review nur, dass der 44.65 Detonator den .330 Patch des 3DMarks wieder aushebelt (und alle "Optimierungen" reaktiviert). Wenn überhaupt, dann ist das wohl schlechte Presse für nVidia ...
ach du meinst wohl, dass ATi auch im 3dmark2003 groß cheatet und der "cheatsichere" 330 dagegen nichts unternimmt, sei eine gute Presse?
Original geschrieben von Demirug
Warum den? Die Bildqualität leidet ja nicht (mehr).
Bitte beachte das "wenn überhaupt" zu Beginn dieses Satzes.
Original geschrieben von LovesuckZ
ach du meinst wohl, dass ATi auch im 3dmark2003 groß cheatet und der "cheatsichere" 330 dagegen nichts unternimmt, sei eine gute Presse?
Zitat Al Bundy: "Beschissen hast du nur, wenn du erwischt wirst.", nVidia hatte einfach Pech zu diesem Zeitpunkt nicht in der Gunst von Futuremark gestanden zu haben.
Aber mein Hauptanliegen war, warum das schlechte Presse für Futuremark sein sollte ???
Razor
2003-07-09, 19:01:33
Original geschrieben von Ikon
Aber mein Hauptanliegen war, warum das schlechte Presse für Futuremark sein sollte ???
Weil dieser Bench in keinster Weise 'vertrauenswürdig' ist.
(die IHV's, die mit diesem Bench 'getestet' werden, natürlich auch nicht ;-)
Razor
Original geschrieben von Ikon
Was hat Futuremark damit zu tun? Ich sehe in diesem Review nur, dass der 44.65 Detonator den .330 Patch des 3DMarks wieder aushebelt (und alle "Optimierungen" reaktiviert).
Schau dir lieber mal die Screenshots an und dann überdenkst du das von dir geschriebene nochmals.
Original geschrieben von ow
Schau dir lieber mal die Screenshots an und dann überdenkst du das von dir geschriebene nochmals.
Nun, zumindest werden jetzt keine Bildfehler mehr produziert, die Unterschiede zum Referenz-Renderer bleiben.
Demirug
2003-07-09, 19:22:31
OK jetzt auch hier nochmal. :D
Bitte auf die Bildvergleiche zwischen R3xx Chips und Refrast nicht so viel geben. Refrast rechnet immer mit FP32.
Razor
2003-07-09, 19:24:13
Original geschrieben von Ikon
Nun, zumindest werden jetzt keine Bildfehler mehr produziert.
Bildfehler wurden auch vorher nicht produziert...
Es wurde vorher wohl in einem anderen Wertebereich gerehnet (int12, fp16 ?), was aber jetzt nicht mehr der Fall zu sein scheint. Die Performance ist allerdings 'geblieben'.
Und irgendwie hat sich bei ATI trotz Betezerung nichts getan...
Somit scheint es derzeit, dass ATI zumindest im Nature weiterhin cheatet, nVidia aber nur noch 'optimiert', ohne die BQ zu verändern.
Kann natürlich auch Unsinn sein, was ich hier schreibe, aber so stellt es sich mir derzeit dar.
Razor
Razor
2003-07-09, 19:25:22
Original geschrieben von Demirug
OK jetzt auch hier nochmal. :D
Bitte auf die Bildvergleiche zwischen R3xx Chips und Refrast nicht so viel geben. Refrast rechnet immer mit FP32.
Ich war schon wieder zu langsam...
Aber mal ganz ehrlich: Wer will das wissen ?
:D
Razor
P.S.: nicht ganz ernst gemeint... ;-)
Original geschrieben von Demirug
OK jetzt auch hier nochmal. :D
Bitte auf die Bildvergleiche zwischen R3xx Chips und Refrast nicht so viel geben. Refrast rechnet immer mit FP32.
Danke, manchmal wünschte ich, ich könnte alle Threads und Posts lesen :)
Damit wurde wohl der schmale Grat zwischen ultrabösem Cheat und "legaler" Optimierung überschritten (im positiven Sinne).
Original geschrieben von Razor
Aber mal ganz ehrlich: Wer will das wissen ?
:D
Mal ganz ehrlich: ich :)
Razor
2003-07-09, 19:28:46
"P.S.: nicht ganz ernst gemeint... ;-)"
:D
Razor
Original geschrieben von Razor
"P.S.: nicht ganz ernst gemeint... ;-)"
:D
Schon klar *spam*
Original geschrieben von Ikon
Nun, zumindest werden jetzt keine Bildfehler mehr produziert,
...womit deine obige Aussage bzgl. ("und alle "Optimierungen" reaktiviert") widerlegt wäre.
Mr. Lolman
2003-07-09, 19:44:36
Naja, der GT1 Screenshot sieht bei der FX mit dem neuem Treiber irgendwie schlechter aus.
Razor
2003-07-09, 19:49:47
Original geschrieben von Mr. Lolman
Naja, der GT1 Screenshot sieht bei der FX mit dem neuem Treiber irgendwie schlechter aus.
Und gegenüber dem Ref-Rast sehen die ATI-Bildchen schlechter aus, als der 'geblockte' 44.03...
Cheatet ATI also auch im GT1 ?
???
Razor
Original geschrieben von ow
...womit deine obige Aussage bzgl. ("und alle "Optimierungen" reaktiviert") widerlegt wäre.
Nicht so schnell -> die Performance legt nahe, dass die Optimierungen (man beachte: diesmal ohne Anführungszeichen) wieder aktiv sind. Das schließt Bugfixing nicht aus.
Razor
2003-07-09, 19:54:25
Original geschrieben von Ikon
Nicht so schnell -> die Performance legt nahe, dass die Optimierungen (man beachte: diesmal ohne Anführungszeichen) wieder aktiv sind. Das schließt Bugfixing nicht aus.
Du meinst also, dass die schlechtere BQ bei nVidia 'nur' ein Bug war ?
Und damit die gesamte Diskussion, die angestoßen wurde, auf einer falschen Annahme basierte ?
(auch wenn sie zur tatsächlichen Ursache führten ;-)
Razor
Original geschrieben von Razor
Du meinst also, dass die schlechtere BQ bei nVidia 'nur' ein Bug war ?
Und damit die gesamte Diskussion, die angestoßen wurde, auf einer falschen Annahme basierte ?
(auch wenn sie zur tatsächlichen Ursache führten ;-)
Razor
Man mag unterscheiden ob es sich um einen Cheat oder einen Bug handelt, das Endergebnis bleibt gleich -> er wurde entfernt und seltsamerweise änderte sich die Performance auch nicht.
So, nu iss aber genug mit Erbsenzählerei hier, ich bin doch nicht ow :)
Original geschrieben von Ikon
Nicht so schnell -> die Performance legt nahe, dass die Optimierungen (man beachte: diesmal ohne Anführungszeichen) wieder aktiv sind. Das schließt Bugfixing nicht aus.
aha, früher cheat, jetzt auf einmal bug? :|
Original geschrieben von Ikon
So, nu iss aber genug mit Erbsenzählerei hier, ich bin doch nicht ow :)
Wenn du ein Problem mit korrekten Aussagen hast, dann ist das alleine dein Problem.:D
Mr. Lolman
2003-07-09, 20:02:09
!!!!! Ganz Wichtig !!!!!
Könnte bitte jemand mit seiner Geforce FX einen UT2003 Screenshot (F9) mit High Performance AF und Colormipmaps ([Tab]firstcoloredmip 1) machen, und einen unverkleinerten Ausschnitt des Bildes posten ?
Ich hab da eine Theorie bezüglich Mimapbanding beim bilinearem AF
!!!!!! Dankeschön !!!!!!
Original geschrieben von Razor
Und gegenüber dem Ref-Rast sehen die ATI-Bildchen schlechter aus, als der 'geblockte' 44.03...
Cheatet ATI also auch im GT1 ?
???
Razor
Du solltest die Differenzbilder nicht untereinander vergleichen. (wegen Autokontrast undso)
Original geschrieben von Mr. Lolman
*Screenshot einer GF-FX haben will*
Razor, plz?
Original geschrieben von ow
Wenn du ein Problem mit korrekten Aussagen hast, dann ist das alleine dein Problem.:D
Mein Problem ist es nur, wenn manche Leute zehnmal nachfragen, obwohl sie den Kern der Aussage schon beim erstenmal verstanden haben.
Iceman346
2003-07-09, 20:15:07
Original geschrieben von Razor
Und gegenüber dem Ref-Rast sehen die ATI-Bildchen schlechter aus, als der 'geblockte' 44.03...
Cheatet ATI also auch im GT1 ?
???
Razor
Nope. 24bit FP <---> 32bit FP
Razor
2003-07-09, 20:24:26
Original geschrieben von Iceman346
Nope. 24bit FP <---> 32bit FP
Beim GT1 ?
???
Razor
Razor
2003-07-09, 20:27:41
Original geschrieben von Ikon
Razor, plz?
Hat er zwar nicht 'orginal geschrieben' aber vielleicht nachher...
(bin gerade am StarGate schaun'... und die Pause ist gleich zuende ;-)
Razor
Iceman346
2003-07-09, 20:29:50
Original geschrieben von Razor
Beim GT1 ?
???
Razor
Zitat Demiurg (aus dem Verschlüsselungs Thread):
"Nein leider nicht. Das beste ist ja das der DX9 Refrast auch alle 1.X Shader mit FP32 rechnet."
LovesuckZ
2003-07-09, 20:30:09
Original geschrieben von Mr. Lolman
Du solltest die Differenzbilder nicht untereinander vergleichen. (wegen Autokontrast undso)
Auch wenn man die Bilder nicht untereinander vergleichen koennte, weichen ATi's Bilder deutlich von den Referenzbildern ab, was wohl nicht nur durch FP32 bei den Referenzbilder hervorgerufen wird.
LovesuckZ
2003-07-09, 20:30:36
Original geschrieben von Iceman346
Zitat Demiurg (aus dem Verschlüsselungs Thread):
"Nein leider nicht. Das beste ist ja das der DX9 Refrast auch alle 1.X Shader mit FP32 rechnet."
GT1 ist aber DX7...
Original geschrieben von Ikon
Mein Problem ist es nur, wenn manche Leute zehnmal nachfragen, obwohl sie den Kern der Aussage schon beim erstenmal verstanden haben.
mir war/ist nicht ganz klar, ob sich deine obige Aussage jetzt auf Optimierungen, Cheats oder Bugs bezieht, wobei die Grenze da ja durchaus fliessend ist...:D
für mich las sich das so, als hätte sich mit dem 44.65 deto nix geändert im vergleich zu den früheren Detos und 3DM03 Versionen.
dies ist aber nicht der fall. die BQ ist jetzt teils identisch zu der von ATi....
Original geschrieben von LovesuckZ
GT1 ist aber DX7...
nö, da hier auch VS1.1 eingesetzt werden.
ist nix mit dx7-funktionen only.
LovesuckZ
2003-07-09, 20:35:54
Original geschrieben von ow
nö, da hier auch VS1.1 eingesetzt werden.
ist nix mit dx7-funktionen only.
Danke.
Razor
2003-07-09, 20:49:53
Dann frage ich mich aber ernsthaft, wozu der Ref-Rast gut sein soll...
Bedeutet dies im Endeffekt, dass nur NV3x in der Lage sind rin Bild zu erzeugen, welches dem RefRast entspricht ?
???
Razor
Razor
2003-07-09, 20:52:26
Original geschrieben von ow
nö, da hier auch VS1.1 eingesetzt werden.
ist nix mit dx7-funktionen only.
Wieso werden bei einem DX7-Test, der auch auf allen DX7-Karten läuft VS1.1 eingesetzt ?
Und inwiefern kann sich ein in fp32 rechnender VS(1.1) auf das Eregbnis auswirken ?
Bei einem fp32-PS kann ich mir das ja noch vorstellen, aber bei einem (durch eine CPU emulierbaren) VS ?
???
Frage über Fragen...
Razor
Razor
2003-07-09, 20:53:57
Da fällt mir noch was ein...
Wäre denn ein Vergleich der Karten untereinander zulässig, wenn software-VS benützt würden ?
???
Razor
Demirug
2003-07-09, 20:54:38
Original geschrieben von Razor
Dann frage ich mich aber ernsthaft, wozu der Ref-Rast gut sein soll...
Bedeutet dies im Endeffekt, dass nur NV3x in der Lage sind rin Bild zu erzeugen, welches dem RefRast entspricht ?
???
Razor
Der Refrast ist ein Entwicklertool mit folgenden Aufgaben:
Ausprobieren von Dingen welche die eingebauten Grafikkarte nicht kann bzw noch keine Karte kann.
Debugging von Shaderprogrammen.
Gegentesten wenn man glaubt einen Treiberbug gefunden zu haben.
Bei all diesen Dingen kommt es nicht so sehr darauf an das die Pixelfarbe auf das Bit genau stimmt.
LovesuckZ
2003-07-09, 21:15:29
Original geschrieben von Mr. Lolman
Könnte bitte jemand mit seiner Geforce FX einen UT2003 Screenshot (F9) mit High Performance AF und Colormipmaps ([Tab]firstcoloredmip 1) machen, und einen unverkleinerten Ausschnitt des Bildes posten ?
8AF:
High Performance (http://www.bigsmedia.de/ut1.png)
Performance (http://www.bigsmedia.de/ut2.png)
Quality (http://www.bigsmedia.de/ut3.png)
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.