Archiv verlassen und diese Seite im Standarddesign anzeigen : Ultra Shadow II in DOOM 3 aktivieren
Hellknight[FA]
2004-08-19, 19:35:08
Angeblich lautet der Befehl:
r_useDepthBoundsTest 1 (Konsole)
oder
seta r_useDepthBoundsTest "1" (doomconfig.cfg)
Kann das mal jemand chegg0rn?
Grüße
Timo
(del676)
2004-08-19, 19:52:26
ohne: 65.1
mit: 65.3
1600 könnt ich noch testen
edit:
1600
ohne 51.1
mit 51.9
Kladderadatsch
2004-08-19, 19:54:20
sieht man einen unterschied?
Hellknight[FA]
2004-08-19, 20:01:32
sieht man einen unterschied?
^^ dass es jetzt schattiger aussieht :D ;) ?
Nö ich erkenn keinen Unterschied (grafisch) :D
bei 1024 x768 high details 4 x AA
ohne 54,1
mit 54,5
Also Messtoleranz :D ;)
Greetings
Timo
p.s. übrigens passt meine Posting-Zahl zum Spiel :) :D
Kladderadatsch
2004-08-19, 20:10:00
hm..dann lohnt sich das ja richtig;)
Laut Carmack ist die US1/2-Technologie derzeit gar nicht aktiv, von daher kann das Aktivieren dieses Features auch nichts bringen.
KOKOtm
2004-08-20, 14:11:55
ist bei mir genauso ... +1,5 fps in 1024er Auflösung, in 1600er 0,5fps ... naja für umsonst...
BvB123
2004-08-20, 14:14:55
']
bei 1024 x768 high details 4 x AA
ohne 54,1
mit 54,5
Also Messtoleranz :D ;)
Nein das ist keine Messtoleranz bei jedem 6800Besitzer gehen die fps um ca. 0,5 Hoch aber immer Hoch
Gruß
Hellknight[FA]
2004-08-20, 14:22:14
Nein das ist keine Messtoleranz bei jedem 6800Besitzer gehen die fps um ca. 0,5 Hoch aber immer Hoch
Gruß
Laut 3dgpu.com wird UltraShadow II durch den "Tweak" tatsächlich aktiviert (kann man angeblich mit ner Wireframe-Darstellung - k. A. wie das geht - von Doom 3 rausfinden).
Naja - habe er mit 10 - 20 % gerechnet :D ;). Aber scheinbar spielen bei Doom 3 viele Variablen eine Rolle so daß USII nicht oder kaum ins Gewicht fällt :(
Grüße
Timo
BvB123
2004-08-20, 14:30:30
Guck mal auf www.computerbase.de :D
1024*768 High 8xAF
104,3 FPS Ohne
105,7 FPS mit
Gasthaus
2004-08-20, 14:45:18
Whoaaah!!! Ich werd' verrückt, ein wahnsinns Performancegewinn!!!!!!11111
0,3 bis 1,4 FPS...... O_o;
BvB123
2004-08-20, 14:52:08
Hey besser als gar nix :)
wenn es ohne Qualitäts verlust ist.... kostet doch nix :P
Gruß
xL|Sonic
2004-08-20, 16:58:55
Trotzdem sehr enttäuschend, nachdem man von seiten nvidia so sehr damit geworben hat :/
Wiedermal viel Lärm um nix, leider :(
Showtime
2004-08-20, 21:15:15
Alle Tests mit 4xAA, 8xAF. System ist ein A64 3000+, 1GB DDR400 RAM, EPoX 8KDA3+, MSI 6800GT (350/1000). Ich habe jede Auflösung vier mal getestet und den Durchschnitt der letzten 3 Tests als Wert genommen.
r_useDepthBoundsTest "0"
640* 480 = 74.93fps
1024* 768 = 52.26fps
1600*1200 = 30.76fps
r_useDepthBoundsTest "1"
640* 480 = 75.06fps (+ 0.173%)
1024* 768 = 53.56fps (+ 2.487%)
1600*1200 = 31.26fps (+ 1.625%)
Also nicht sonderlich berauschend ;)
Hellknight[FA]
2004-08-20, 21:24:00
Trotzdem sehr enttäuschend, nachdem man von seiten nvidia so sehr damit geworben hat :/
Wiedermal viel Lärm um nix, leider :(
Der Performance-Gewinn ist zwar marginal - dafür - im Gegensatz zu ach so tollen 40% Performance-Zuwachs-Patch für ATi-Grakas - garantiert :D
Ist denn Ultra Shadow I auf einer Geforce FX aktiv?
MechWOLLIer
2004-08-21, 09:20:36
Ist denn Ultra Shadow I auf einer Geforce FX aktiv?
US, egal ob 1 oder 2, sollte nirgends von HAus aus aktiviert sein. Es scheint ja auch nicht wirklich etwas zu bringen.
BvB123
2004-08-21, 11:04:26
Bei ner 5800 bringts mehr
glaube Quasar hatte 4 fps mehr?
Gruß
James Ryan
2004-08-21, 11:30:35
Bei ner 5800 bringts mehr
glaube Quasar hatte 4 fps mehr?
Gruß
Eine FX 5800 unerstützt aber gar kein US, das wurde erst mit der FX 5900 eingeführt. :|
MfG :cool:
Mr. Lolman
2004-08-21, 13:09:55
']Der Performance-Gewinn ist zwar marginal - dafür - im Gegensatz zu ach so tollen 40% Performance-Zuwachs-Patch für ATi-Grakas - garantiert :D
ROFL ja klar, da gibt man sich lieber mit einem garantiertem Prozent zufrieden, als mit 40 ungarantierten. Im Übrigen kann ich mir gut vorstellen, dass mit AA/AF die 40% auf R420 Karten keine Unmöglichkeit sind.
Selbst mit meiner alten R300 hab ich ~19% Zuwachs bei 1024, H/UQ, 2xAA / 4xtriAF(CP). Nämlich 39.3fps anstatt 33.1fps. Wenn ich 8xtriAF übers CP force dann sinds schon mehr als 26% (38.6fps vs 30.5fps)
SKYNET
2004-08-21, 14:51:27
habe auch auf USII "gepatcht" und muss sagen es sieht besser aus(evtl. einbildung ?!).
ROFL ja klar, da gibt man sich lieber mit einem garantiertem Prozent zufrieden, als mit 40 ungarantierten. Im Übrigen kann ich mir gut vorstellen, dass mit AA/AF die 40% auf R420 Karten keine Unmöglichkeit sind.
Selbst mit meiner alten R300 hab ich ~19% Zuwachs bei 1024, H/UQ, 2xAA / 4xtriAF(CP). Nämlich 39.3fps anstatt 33.1fps. Wenn ich 8xtriAF übers CP force dann sinds schon mehr als 26% (38.6fps vs 30.5fps)
ja, und wie wir mittlerweile alle wissen hat ATI die BQ noch weiter abgedreht damit sie ein paar frames mehr bekommen.
sehr toll, bei NV wird die BQ durch USII sogar besser und man bekommt mehr speed, na was fällt auf ?
genau, NV = mehr speed + bessere BQ, ATI = mehr speed und ne BQ die aussieht als wenns durch den mixer gejagt wurde.
Mr. Lolman
2004-08-21, 15:08:40
Du hast selbst geschrieben, dass es ev. nur einbildung ist. Andererseits, gibts irgendwelche Belege dafür, dass ATi (schon wieder) an der BQ was gedreht hat? Der Humus Patch erhöht nur die fps, bringt aber in der aktuellen Version keine BQ verschlechterung
Quasar
2004-08-21, 15:18:22
Bei ner 5800 bringts mehr
glaube Quasar hatte 4 fps mehr?
Gruß
Nope, sry. Ich kann mich nicht erinnern, daß ich gl_ext_depthbounds mal öffentlich probiert hätte. Und, wie schon gesagt, der nV30 unterstützt diese Extension auch nicht (obwohl ich zugegebenermaßen den Verdacht hegte, daß er's doch tut).
habe auch auf USII "gepatcht" und muss sagen es sieht besser aus(evtl. einbildung ?!).
Ich fürchte, das bildest du dir wirklich nur ein - denn durch USII wird nur Bereichs-Culling betrieben, an dem, was gerendert wird, ändert sich nichts.
Du hast selbst geschrieben, dass es ev. nur einbildung ist. Andererseits, gibts irgendwelche Belege dafür, dass ATi (schon wieder) an der BQ was gedreht hat? Der Humus Patch erhöht nur die fps, bringt aber in der aktuellen Version keine BQ verschlechterung
Ist Shaderreplacement nicht von sich aus böse? ;)
Mr. Lolman
2004-08-21, 15:20:52
...und ne BQ die aussieht als wenns durch den mixer gejagt wurde.
Tatsächlich?
http://img19.exs.cx/img19/8482/shot00028.th.jpg (http://img19.exs.cx/my.php?loc=img19&image=shot00028.jpg)
Tigerchen
2004-08-21, 15:38:45
habe auch auf USII "gepatcht" und muss sagen es sieht besser aus(evtl. einbildung ?!).
ja, und wie wir mittlerweile alle wissen hat ATI die BQ noch weiter abgedreht damit sie ein paar frames mehr bekommen.
sehr toll, bei NV wird die BQ durch USII sogar besser und man bekommt mehr speed, na was fällt auf ?
genau, NV = mehr speed + bessere BQ, ATI = mehr speed und ne BQ die aussieht als wenns durch den mixer gejagt wurde.
Ja mal wieder ein paar wilde Behauptungen in den Raum gestellt um einen kleinen Krieg vom Zaun zu brechen?
xL|Sonic
2004-08-21, 15:51:10
Hehe, naja das kennen wir doch von gewissen Leuten, dass die bei gewissen Features ihres Herstellers ihrer Wahl Dinge sehen, die besser sein sollen, aber gar nicht vorhanden sind :)
Ich finds jedenfalls sehr schade, dass es so wenig bringt, hab mir halt mehr davon versprochen.
Blaire
2004-08-21, 15:57:01
Hat jemand mal ohne FSAA und AF getestet wieviel Prozent es dort Speedzuwachs gibt?
MechWOLLIer
2004-08-21, 16:11:53
Hat jemand mal ohne FSAA und AF getestet wieviel Prozent es dort Speedzuwachs gibt?
Es bringt zahlenmäßig genausowenig Gewinn wie mit AA/AF.
Aber es funktioniert einwandrei, also was spricht gegens aktivieren?
Bringt zwar gerade mal 1-2FPS mehr, aber das ist immerhin besser als gar nichts.
SKYNET
2004-08-21, 16:50:32
Tatsächlich?
http://img19.exs.cx/img19/8482/shot00028.th.jpg (http://img19.exs.cx/my.php?loc=img19&image=shot00028.jpg)
mach es doch mal bitte als .PNG
als .JPG ist die qualität noch schlechter als ohnehin schon auf den ATI karten.
Hellknight[FA]
2004-08-21, 16:53:01
ROFL ja klar, da gibt man sich lieber mit einem garantiertem Prozent zufrieden, als mit 40 ungarantierten.
Genau! Zumal der "40 % Patch" ;D ;D ;D auf ATi Karten bei manchen sogar langsamer ist ;D ;D ;D als kein Patch.
Und dass der Patch bei vielen Leuten Fehldarstellungen zur Folge hat, wird von den FanATikern hier nur allzugern verschwiegen. Was nützt mir (als Spielehersteller) eine supergeile Optimierung, welche ein Spiel "40%" ;D ;D beschleunigt, wenn's nur eine Minderheit von Usern benutzen kann.
Und wenn Du eins und eins zusammenzählst, wirst auch Du verstehen warum Carmack diese "Optimierung" (eigentlich eher "Hack") dann doch lieber zugunsten der Spielbarkeit über Bord geschmissen hat.
Grüße
Timo
p.s. Jetzt sage bitte nicht, daß Carmack mit nVidia unter einer Decke steckt
Jesus
2004-08-21, 17:06:48
']Genau! Zumal der "40 % Patch" ;D ;D ;D auf ATi Karten bei manchen sogar langsamer ist ;D ;D ;D als kein Patch.
Und dass der Patch bei vielen Leuten Fehldarstellungen zur Folge hat, wird von den FanATikern hier nur allzugern verschwiegen. Was nützt mir (als Spielehersteller) eine supergeile Optimierung, welche ein Spiel "40%" ;D ;D beschleunigt, wenn's nur eine Minderheit von Usern benutzen kann.
Und wenn Du eins und eins zusammenzählst, wirst auch Du verstehen warum Carmack diese "Optimierung" (eigentlich eher "Hack") dann doch lieber zugunsten der Spielbarkeit über Bord geschmissen hat.
Grüße
Timo
p.s. Jetzt sage bitte nicht, daß Carmack mit nVidia unter einer Decke steckt
...
Von fehlerhafter Darstellung kann ich allerdings nichts berichten ( mit Humus Tweak ), sollte es auch nicht mehr geben mit der neuesten Version. Wer natürlich zu blöd ist das ding zu installiern könnte dann schon probleme bekommen ;)
mach es doch mal bitte als .PNG
als .JPG ist die qualität noch schlechter als ohnehin schon auf den ATI karten.
von Dir kommen immer die besten, logischsten und aussagekräftigsten Kommentare, das muss man dir lassen...
Mr. Lolman
2004-08-21, 17:08:41
mach es doch mal bitte als .PNG
als .JPG ist die qualität noch schlechter als ohnehin schon auf den ATI karten.
Geh bitte, das ist JPG80.
/edit: Aber meinetwegen:
http://img53.exs.cx/img53/9652/shot00028.th.png (http://img53.exs.cx/my.php?loc=img53&image=shot00028.png)
SKYNET
2004-08-21, 17:18:20
Geh bitte, das ist JPG80.
/edit: Aber meinetwegen:
http://img53.exs.cx/img53/9652/shot00028.th.png (http://img53.exs.cx/my.php?loc=img53&image=shot00028.png)
danke, sieht schon besser aus, vorher sah der farbübergang unter der treppe ja zum :kotz:
mache heute abend mal nen screen mit der 6800er.
da wirste augen machen. ;)
Mr. Lolman
2004-08-21, 17:22:03
danke, sieht schon besser aus, vorher sah der farbübergang unter der treppe ja zum :kotz:
mache heute abend mal nen screen mit der 6800er.
da wirste augen machen. ;)
Ich glaub, mein Monitor ist kaputt. Oder ich bin schasaugat. Jedenfalls erkenn ich zw. beiden Bildern keinen Unterschied. Vielleicht ists auch nur ne ATi Krankheit :ugly:
Hellknight[FA]
2004-08-21, 17:29:12
mach es doch mal bitte als .PNG
als .JPG ist die qualität noch schlechter als ohnehin schon auf den ATI karten.
:uclap:
[TMP]Peds X-ing
2004-08-21, 17:29:31
Ich seh auch keinen ...
Und ich hab schon immer NV ... :wink:
Mr. Lolman
2004-08-21, 17:45:59
']Genau! Zumal der "40 % Patch" ;D ;D ;D auf ATi Karten bei manchen sogar langsamer ist ;D ;D ;D als kein Patch.
Wo?
']
Und dass der Patch bei vielen Leuten Fehldarstellungen zur Folge hat, wird von den FanATikern hier nur allzugern verschwiegen. Was nützt mir (als Spielehersteller) eine supergeile Optimierung, welche ein Spiel "40%" ;D ;D beschleunigt, wenn's nur eine Minderheit von Usern benutzen kann.
Entweder hatten die Leute die Shader eigenhändig gepatcht, oder mit der Datei irgendein Schindluder betrieben. Wenn man Humus _aktuellen_ Patch (http://esprit.campus.luth.se/~humus/temp/doom3PerformanceTweak.rar) einfach ins "base\glprogs" Verzeichnis kopiert, gibts keine Fehldarstellungen.
']
Und wenn Du eins und eins zusammenzählst, wirst auch Du verstehen warum Carmack diese "Optimierung" (eigentlich eher "Hack") dann doch lieber zugunsten der Spielbarkeit über Bord geschmissen hat.
Grüße
Timo
p.s. Jetzt sage bitte nicht, daß Carmack mit nVidia unter einer Decke steckt
Erklärs du mir lieber nochmal.
P.S: Ich glaub sehr wohl, das Carmack mit NV unter einer Decke steckt, oder warum Spinnt bei DoomIII als einziges OpenGL spiel das App.AF auf ATis so rum? Warum gibts dafür direkt in der D3 Engine einen Workaround?
Warum musste Humus die interaction.vfp neu schreiben, damits ATi User in den Genuss der vollen Geschwindigkeit kommen.
Warum gönnen NV Fans ATi Usern den Patch nicht und behaupten, dass dadurch die BQ den Bach runter gehe.
Warum wunderts mich nicht, dass ich die vorige Frage schon mal in einen anderem Forum entdeckt habe? ;)
mache heute abend mal nen screen mit der 6800er.
da wirste augen machen. ;)
Aber bitte mit vergleichbaren Settings, also nicht 1600x1200 mit 8xS AA max AF und deaktivertem Framecounter. Zumindest die gleiche Auflösung und einen aktiven Framecounter würd ich mir wünschen...
Mr. Lolman
2004-08-21, 17:57:26
Ist Shaderreplacement nicht von sich aus böse? ;)
War ein nackter Busen im TV vor 25 Jahren nicht auch per se böse? Jetzt quellt das TV nur so über vor lauter Titten...
Quasar
2004-08-21, 18:01:23
War ein nackter Busen im TV vor 25 Jahren nicht auch per se böse? Jetzt quellt das TV nur so über vor lauter Titten...
Korrekt hätte deine Gegenfrage lauten müssen:
Haben die Öffentlich-Rechtlichen nicht auch nackte Busen vor 20 Jahren bei den Privaten kritisiert und quillt jetzt nicht auf das öffentlich-rechtliche Programm über vor baren Brüsten?
;)
edit:
Aber deine ausweichende Antwort zeigt schon, woher der Wind weht.... ... ... *prost*
Hellknight[FA]
2004-08-21, 18:02:54
Wo?
Entweder hatten die Leute die Shader eigenhändig gepatcht, oder mit der Datei irgendein Schindluder betrieben. Wenn man Humus _aktuellen_ Patch (http://esprit.campus.luth.se/~humus/temp/doom3PerformanceTweak.rar) einfach ins "base\glprogs" Verzeichnis kopiert, gibts keine Fehldarstellungen.
Erklärs du mir lieber nochmal.
P.S: Ich glaub sehr wohl, das Carmack mit NV unter einer Decke steckt,...
Ab da hab' ich aufgehört zu lesen... (Tip: Es gibt ein Forum wo auch ATi-Fanboys gerne gesehen sind :D)
* :unono: Denk an dein Punktekonto! *
Mr. Lolman
2004-08-21, 18:07:42
Gut ichs habs falsch formuliert:
Aufgrund der "bekannten" Tatsachen wär es sehr wohl anzunehmen, das JC mit NV unter einer Decke steckt, auch wenn ich nicht 100% dran glaub.
P.S.: Hinundwieder muss ich mir einfach Ansehen wie sich die NV Fanboys im Dreck suhlen ;)
Jesus
2004-08-21, 18:08:04
Korrekt hätte deine Gegenfrage lauten müssen:
Haben die Öffentlich-Rechtlichen nicht auch nackte Busen vor 20 Jahren bei den Privaten kritisiert und quillt jetzt nicht auf das öffentlich-rechtliche Programm über vor baren Brüsten?
;)
edit:
Aber deine ausweichende Antwort zeigt schon, woher der Wind weht.... ... ... *prost*
Um mal auf eurem Niveau zu bleiben:
natürlich sind shader replacements scheisse, deshalb machts NV ja bei D3. :wink: Allerdings ist der Unterschied dass es nicht von ATI im Treiber gemacht wird, sondern von ein paar Usern, die die auf NV Karten zugeschnittenen Shader umgemodelt haben, damit sie dort besser laufen ( was JC anscheinend 5 Jahre lang nicht "gesehen" hat... ( komisch, komisch )
/EDIT: Zurück zum Thread: Mit US II ist also das zweite NV exklusive Super Feature verpufft ? Wär schade drum ... :|
Mr. Lolman
2004-08-21, 18:14:59
Korrekt hätte deine Gegenfrage lauten müssen:
Haben die Öffentlich-Rechtlichen nicht auch nackte Busen vor 20 Jahren bei den Privaten kritisiert und quillt jetzt nicht auf das öffentlich-rechtliche Programm über vor baren Brüsten?
;)
edit:
Aber deine ausweichende Antwort zeigt schon, woher der Wind weht.... ... ... *prost*
Ui ich habs heute irgendwie mit meinen Formulierungen.
*gelöscht*
/edit: Jesus' Antwort war besser und bietet gleichzeitig nicht soviel OT Angriffsfläche ;)
Ich glaub, mein Monitor ist kaputt. Oder ich bin schasaugat. Jedenfalls erkenn ich zw. beiden Bildern keinen Unterschied. Vielleicht ists auch nur ne ATi Krankheit :ugly:
keinen unterschied??
Das erste bild ist wesentlich heller als das zweite!
Quasar
2004-08-21, 18:26:23
Um mal auf eurem Niveau zu bleiben:
Wie gütig, daß du dich zu uns herabläßt, oh Heiland. =)
natürlich sind shader replacements scheisse, deshalb machts NV ja bei D3. :wink:
Oha! Das ist ja ein starkes Stück - wo kann ich mich da mal einlesen? Irgendwie muss das an mir vorbeigegangen sein.
Pfui, nVidia!!
Allerdings ist der Unterschied dass es nicht von ATI im Treiber gemacht wird, sondern von ein paar Usern, die die auf NV Karten zugeschnittenen Shader umgemodelt haben, damit sie dort besser laufen ( was JC anscheinend 5 Jahre lang nicht "gesehen" hat... ( komisch, komisch )
Stimmt, ein paar User, von denen der eine zufällig bei ATi arbeitet und mit 40% Performance-Verbesserung warb.... ;)
Das ist in der Tat marketingtechnisch schlauer, als es in die Treiber zu integrieren - man macht sich nicht angreifbar und jeder jubelt vor sich hin.
/EDIT: Zurück zum Thread: Mit US II ist also das zweite NV exklusive Super Feature verpufft ? Wär schade drum ... :|
Wieso verpufft? US und USII sorgen dafür, daß eine 300EUR-3,9GPix-GF6800 der XTPE, dem eingestellten Flaggschiff aus Kanada, das Leben in D3 schwer macht. =)
Mr. Lolman
2004-08-21, 18:27:14
keinen unterschied??
Das erste bild ist wesentlich heller als das zweite!
Hoppla. Nun ists raus. Ich hab die Bilder bearbeitet *schäm*
Nö, ich hab Helligkeit und Kontrast angepasst. Weil die Screenshots viel dünkler sind als die eigentliche Spielgrafik, und man nix davon hat, wenn ich einen schwarzen Screenshot ins Netz stell. Anscheinend hab ich unglücklicherweise leicht unterschiedliche Werte genommen. Hängt mich deswegen bitte nicht...
Mr. Lolman
2004-08-21, 18:29:17
Wie gütig, daß du dich zu uns herabläßt, oh Heiland. =)
Wieso verpufft? US und USII sorgen dafür, daß eine 300EUR-3,9GPix-GF6800 der XTPE, dem eingestellten Flaggschiff aus Kanada, das Leben in D3 schwer macht. =)
Automatisch, also auch deaktiviert? Oder meinst du das dieses 1fps dran Schuld ist...
Ich würd trotzdem mal gerne einen vernünftigen Vergleich mit Humus aktuellenTweak sehen. Und auch einen Vergleich wo alle Karten der letzten (zumindest R300 vs R350 vs R360) und der aktuellen Generation taktvereinigt gegeneinander antreten.
/edit: Ist die Produktion jetzt tatsächlich eingestellt worden?
Hoppla. Nun ists raus. Ich hab die Bilder bearbeitet *schäm*
Nö, ich hab Helligkeit und Kontrast angepasst. Weil die Screenshots viel dünkler sind als die eigentliche Spielgrafik, und man nix davon hat, wenn ich einen schwarzen Screenshot ins Netz stell. Anscheinend hab ich unglücklicherweise leicht unterschiedliche Werte genommen. Hängt mich deswegen bitte nicht...
kauf dir einen neune monitor;)
Jesus
2004-08-21, 18:34:45
Oha! Das ist ja ein starkes Stück - wo kann ich mich da mal einlesen? Irgendwie muss das an mir vorbeigegangen sein.
Pfui, nVidia!!
hier (http://www.beyond3d.com/forum/viewtopic.php?p=346332#346332)
allerdings kenne ich die genaue Quelle nicht , deshalb darfst du es für ein Gerücht halten :wink: ( bitte Smileys in meinen Posts beachten ! :biggrin: )
Mr. Lolman
2004-08-21, 18:36:16
kauf dir einen neune monitor;)
Hast ja eh recht. Bin nur noch am überlegen ob eine GF6800GT oder einen neuen Monitor. Naja, hier gibts den unbearbeiteten Screenshot:
http://img44.exs.cx/img44/5130/shot00029.th.png (http://img44.exs.cx/my.php?loc=img44&image=shot00029.png)
Quasar
2004-08-21, 18:45:18
Automatisch, also auch deaktiviert?
Ja, aber selbstverständlich.
Ich würd trotzdem mal gerne einen vernünftigen Vergleich mit Humus aktuellenTweak sehen.
Natürlich möchtest du das.
hier (http://www.beyond3d.com/forum/viewtopic.php?p=346332#346332)
Ahhh - du erwähnst, daß jemand erwähnt, daß JC sowas sagte?
[...]On the other hand, the Nvidia drivers have been tuned for Doom's primary light/surface interaction fragment program, and innocuous code changes can "fall off the fast path" and cause significant performance impacts, especially on NV30 class cards.[...]
http://www2.hardocp.com/article.html?art=NjQy
Dann nehmen wir doch lieber gleich das Original - und was sehen wir? Wie aus einer untendenziellen Äußerung ein Shaderreplacement-Vorwurf wird...
[...]allerdings kenne ich die genaue Quelle nicht , deshalb darfst du es für ein Gerücht halten :wink: ( bitte Smileys in meinen Posts beachten ! :biggrin: )
Danke, das brauche ich ja jetzt nicht mehr.
Und nein, ich nehme mir mal die Freiheit heraus, deine Smileys nicht zu beachten, denn allzuoft verstecken sich böse Absichten hinter einem freundlichen Lächeln.
edit:
Bevor ich's vergesse, verweise ich mal auf meine Sig...
Mr. Lolman
2004-08-21, 18:49:02
Ja, aber selbstverständlich.
Also ist Ultrashadow auch aktiv, wenns deaktiviert ist. Klingt ein wenig unsinnig.
Natürlich möchtest du das.
Ist das denn so verwerflich?
Jesus
2004-08-21, 18:55:10
http://www2.hardocp.com/article.html?art=NjQy
Dann nehmen wir doch lieber gleich das Original - und was sehen wir? Wie aus einer untendenziellen Äußerung ein Shaderreplacement-Vorwurf wird...
edit:
Bevor ich's vergesse, verweise ich mal auf meine Sig...
danke , das original kannte ich doch bereits :) gefällt mir eigentlich noch besser als das vorige, da kann man noch viel mehr hineininterpretieren :rolleyes:
EDIT:
allerdings liegt es doch nahe NV sowas zu unterstellen, denn schliesslich haben sie genau das ja bereits getan ( 3dmark ). Ausserdem würde es erklären wieso nur noch ein Renderpfad genügt ( wo doch die Performance für FX karten anfangs nicht sehr toll ausgesehen hat ) und trotzdem FX Karten plötzlich so gut performen.
:wink:
btw Quote Futuremark nachdem NV wieder im Boot war:
“Further discussions have shown that under some circumstances (that we're trying to define at the moment) shader replacements can be accepted. ”
Quasar
2004-08-21, 18:58:28
Also ist Ultrashadow auch aktiv, wenns deaktiviert ist. Klingt ein wenig unsinnig.
Nur USII, nicht US, wie ich oben schrieb. Sorry.
SKYNET
2004-08-22, 04:08:39
Wo?
Entweder hatten die Leute die Shader eigenhändig gepatcht, oder mit der Datei irgendein Schindluder betrieben. Wenn man Humus _aktuellen_ Patch (http://esprit.campus.luth.se/~humus/temp/doom3PerformanceTweak.rar) einfach ins "base\glprogs" Verzeichnis kopiert, gibts keine Fehldarstellungen.
Erklärs du mir lieber nochmal.
P.S: Ich glaub sehr wohl, das Carmack mit NV unter einer Decke steckt, oder warum Spinnt bei DoomIII als einziges OpenGL spiel das App.AF auf ATis so rum? Warum gibts dafür direkt in der D3 Engine einen Workaround?
Warum musste Humus die interaction.vfp neu schreiben, damits ATi User in den Genuss der vollen Geschwindigkeit kommen.
Warum gönnen NV Fans ATi Usern den Patch nicht und behaupten, dass dadurch die BQ den Bach runter gehe.
Warum wunderts mich nicht, dass ich die vorige Frage schon mal in einen anderem Forum entdeckt habe? ;)
Aber bitte mit vergleichbaren Settings, also nicht 1600x1200 mit 8xS AA max AF und deaktivertem Framecounter. Zumindest die gleiche Auflösung und einen aktiven Framecounter würd ich mir wünschen...
16x AA / 16x AF in 1600*1200 wollte ich reinsetzen. ^^
mache ich aber nachher muss erstmal pennen gehn.
betasilie
2004-08-22, 04:16:41
Hast ja eh recht. Bin nur noch am überlegen ob eine GF6800GT oder einen neuen Monitor. Naja, hier gibts den unbearbeiteten
Beides!!!
http://search.ebay.de/p260
Ich habe meinen bei Delwi gekauft und bin sehr zufrieden. Ist wirklich eine absolute Empfehlung, da günstig, sehr gutes Bild, groß und Garantie.
Aber aufpassen, die von Delwi für ~80€ sind zweite Wahl (mit Kratzern), die für ~115€ sind erste Wahl.
Und auf meine 6800GT will ich noch viel weniger verzichten! Ein besseres Spielzeug kann ich mir zur Zeit echt nicht vorstellen. http://www.mainzelahr.de/smile/liebe/mushy.gif
tombman
2004-08-22, 05:33:38
@lolman,
was tust du dir die Mühe überhaupt an um die skynet-hellknight Doppelconference zu überzeugen? Bilder posten hat da keinen Sinn, denn diese 2 Jungs würden für nv töten ;)
Und das D3 NICHT wegen ultrashadow schneller auf der nv rennt hab ich vor langem schon bewiesen - jetzt wirds eben nur direkt bestätigt ;) (Gott, bin ich gut :D)
Irgendwie witzig wie die tollen superfeatures geom-instancing (hat ati auch :D) und jetzt us2 (bringt nix) nv nicht helfen sich vor ati zu positionieren ...
Ich bezweifle, daß überhaupt ein Spiel, welches nicht wie D3 geproggt ist, auf nv40 schneller rennt als auf r420-16.
@skynet, vergiß bei deinem 16xAA screenshot aber nicht den framecounter mit einzublenden :D:D
Tigerchen
2004-08-22, 06:39:03
Gut ichs habs falsch formuliert:
Aufgrund der "bekannten" Tatsachen wär es sehr wohl anzunehmen, das JC mit NV unter einer Decke steckt, auch wenn ich nicht 100% dran glaub.
P.S.: Hinundwieder muss ich mir einfach Ansehen wie sich die NV Fanboys im Dreck suhlen ;)
Was gibts da nicht zu glauben. nV gibt ganz offen zu daß sie Shader "optimieren".
Bei nVIDIA haben wir für jeden PC-Titel einen Grafikspezialisten abgestellt.Dieser arbeitet mit dem jeweiligen Spieleentwickler zusammen um die Grafikengine zu optimieren und die Leistung der Shader zu verbessern.
(Jens Neuschäfer, nVIDIA)
Was ist also so verwerflich daran wenn Humus ähnliches tut?
Geh bitte, das ist JPG80.
/edit: Aber meinetwegen:
http://img53.exs.cx/img53/9652/shot00028.th.png (http://img53.exs.cx/my.php?loc=img53&image=shot00028.png)Sage mal, lolman...
Wo sind denn bei Dir die Schatten vom Hover hingekommen und irgendwie ist's bei Dir viel zu hell.
Sage mir doch einmal, was Du da alles verändert hast, bevor ich hier versuche ein annähernd vergleichbares Bild zu generieren...
Razor
War ein nackter Busen im TV vor 25 Jahren nicht auch per se böse? Jetzt quellt das TV nur so über vor lauter Titten...Also ist Shader-Replacement (vergeichbare IQ voraus gesetzt) nun also doch für Dich OK?
Ich frage nur, weil Du damals einer der Verfechter der 'reinen Lehre' warst und sich bei Dir offenbar jetzt so einiges geändert hat. Konstatieren wir also nochmal:
"Shader-Replacement ist OK (auch wenn er wie hier direkt von ATI kommt), wenn die BQ nicht beeinträchtigt wird!
gez. Lolman"
Bitte quote mir das, denn das werde ich auf jeden Fall 'sichern'.
Nur für den Fall, dass es dann bei HL2 wieder anders aussehen sollte...
:D
Razor
<snup>
der Unterschied dass es nicht von ATI im Treiber gemacht wird, sondern von ein paar Usern
<snap>Du weißt aber hoffentlich schon, dass Humus für ATI arbeitet?
Insofern kommt das Shader-Replacement direkt von ATI!
Und auf den Rest des von Dir geposteten und durch nicht belegten Nonsens reagiere ich lieber nicht...
Razor
Hoppla. Nun ists raus. Ich hab die Bilder bearbeitet *schäm*
Nö, ich hab Helligkeit und Kontrast angepasst. Weil die Screenshots viel dünkler sind als die eigentliche Spielgrafik, und man nix davon hat, wenn ich einen schwarzen Screenshot ins Netz stell. Anscheinend hab ich unglücklicherweise leicht unterschiedliche Werte genommen. Hängt mich deswegen bitte nicht...Wenn Du keine reproduzierbaren Shots posten kannst, dann lass es bitte ganz.
So etwas ist einfach nur sinnlos...
Razor
Hast ja eh recht. Bin nur noch am überlegen ob eine GF6800GT oder einen neuen Monitor. Naja, hier gibts den unbearbeiteten Screenshot:
http://img44.exs.cx/img44/5130/shot00029.th.png (http://img44.exs.cx/my.php?loc=img44&image=shot00029.png)Viiieeeellll besser.
Und?
Wie sieht's mit den Treiber-/Ingame- und generell Quality-Einstellungen aus?
:confused:
Nun laß Dir nicht alles aus der Nase zeihen...
Ich weiß, dass Du es besser kannst!
:D
Razor
Um mal auf eurem Niveau zu bleiben:
natürlich sind shader replacements scheisse, deshalb machts NV ja bei D3. :wink: Allerdings ist der Unterschied dass es nicht von ATI im Treiber gemacht wird, sondern von ein paar Usern, die die auf NV Karten zugeschnittenen Shader umgemodelt haben, damit sie dort besser laufen ( was JC anscheinend 5 Jahre lang nicht "gesehen" hat... ( komisch, komisch )
/EDIT: Zurück zum Thread: Mit US II ist also das zweite NV exklusive Super Feature verpufft ? Wär schade drum ... :|
Aehhmmm... Die Kausal-kette sieht IMO etwas anders aus :
A) Ati hat einen Bug? im Treiber, der beim setzen des anisotropen Filters Mist baut.
B) Wegen (A) setzen viele User das AF im CP statt in der Anwendung.
C) Wegen (B) werden jetzt ALLE Texturen Anisotrop gefiltert, auch die Look-up Table.
D) Wegen (C) bringt das Ersetzen des Textur-Lookups durch eine mathematische Funktion auf Ati-Karten einen Performance-Vorteil.
Ein Ati-Mitarbeiter hat also die schlimmsten Folgen(performance-mäßig) eines Bugs im Ati-Treiber beseitigt. Was das jetzt mit auf NV zugeschnittenen Shadern oder der Unfähigkeit Carmacks das 5 Jahre lang zu erkennen zu tun hat, hätte ich gerne von dir erklärt.
Ach ja, US-II .... beinhaltet einige Funktionalität die nicht explizit aktiviert werden muss. D.h., die Auswirkungen davon sind möglicherweise schon zum Teil für den Vorsprung der 6800er verantwortlich.
Edit : Wort vergessen.
Hellknight[FA]
2004-08-22, 10:25:05
@lolman,
was tust du dir die Mühe überhaupt an um die skynet-hellknight Doppelconference zu überzeugen? Bilder posten hat da keinen Sinn, denn diese 2 Jungs würden für nv töten ;)
Nanana! In meinem PC verrichtete sowohl eine 9800pro (welche ich überzeugend fand) und eine X800pro VIVO (welche ich überhaupt nicht überzeugend fand - nicht nur wg. der Bildquali). Ich denke nicht dass dies die Aufrüst-Laufbahn eines nv-Fanboys ist...
Also werf' mir nicht vor für nv zu töten :D ;)
Außerdem geht es hier um ULTRA SHADOW II und nicht um Futuremark und auch nicht um "wer hat die bessere Bildquali" (wo ich übrigens überhaupt keine Unterschiede zwischen ATi und NV sehe).
Also Tombman: Keep cool and get lässig :usweet: :usweet:
Grüße
Timo
Geist
2004-08-22, 11:29:46
Für einige hier scheint die Wahl des Grafikchipherstellers schon eine Religion zusein! Wie kann man nur so fanatisch sein, das ist doch kindisch!
Jeder soll mit dem glücklich werden, wo von er denkt das es für ihr das richtige ist, aber deswegen braucht man andere die anderer Meinung sind nicht zu missionieren.
Sorry wenn ich da jemand auf den Fuß trete, aber diese ständigen Streitereien zwischen ATI und nVidia Anhängern bringen absolut nix und sind nervig.
Jesus
2004-08-22, 12:55:23
A) Ati hat einen Bug? im Treiber, der beim setzen des anisotropen Filters Mist baut.
B) Wegen (A) setzen viele User das AF im CP statt in der Anwendung.
C) Wegen (B) werden jetzt ALLE Texturen Anisotrop gefiltert, auch die Look-up Table.
D) Wegen (C) bringt das Ersetzen des Textur-Lookups durch eine mathematische Funktion auf Ati-Karten einen Performance-Vorteil.
Das Filtering von D3 ist so gewollt. Es gibt auch auf NV Karten qualitative Unterschiede zwischen CP AF und Ingame AF ( CP AF sieht auch hier besser aus ).
Allerdings gibt es durch diesen Tweak ( der nur ein paar instruktionen austauscht ) auch ganz ohne AF einen Performancegewinn für ATI Karten, weil diese die Shaderinstruktionen in dieser Folge/Art schneller abarbeiten können.
Showtime
2004-08-22, 13:15:16
Und das D3 NICHT wegen ultrashadow schneller auf der nv rennt hab ich vor langem schon bewiesen - jetzt wirds eben nur direkt bestätigt ;)
Wieso läuft es dann bei mir 1-2% schneller, wenn ich es aktiviere? Ist zwar nur marginal, aber deine Aussage ist so falsch :)
Jesus
2004-08-22, 13:27:43
glaube er meinte damit schneller als auf ner Radeon Karte...
Nochmal eine Frage zum Befehl "r_useDepthBoundsTest 1".
Anfangs wurde hier geschrieben, daß dieses Commando Ultra Shadow 2 auf NV40 Boards aktivieren würde. Ich denke aber eher, daß dies für Ultra Shadow allgemein gültig sein müsste, denn ich habe einen winzigen Perfomance Unterschied bei meiner FX Karte.
Kaum der Rede wert, da meine Karte aber nur Ultra Shadow 1 unterstützt, ist es wohl nur so zu erklären!
Das Filtering von D3 ist so gewollt.
Die Filterung die von D3 gewünscht wird, bekommst du mit APP-AF. (So der Treiber den funktioniert.)
Es gibt auch auf NV Karten qualitative Unterschiede zwischen CP AF und Ingame AF ( CP AF sieht auch hier besser aus ).
Richtig. Bei App-AF bekommen nur die Texturen AF, bei denen es vom Designer vorgesehen war.
Allerdings gibt es durch diesen Tweak ( der nur ein paar instruktionen austauscht ) auch ganz ohne AF einen Performancegewinn für ATI Karten, weil diese die Shaderinstruktionen in dieser Folge/Art schneller abarbeiten können.
Die Unterschiede die ich ohne CP-AF gesehen habe lagen bei 0-2fps...
Ich warte aber immer noch auf eine Antwort auf meine Frage :
Was das jetzt mit auf NV zugeschnittenen Shadern oder der Unfähigkeit Carmacks das 5 Jahre lang zu erkennen zu tun hat, hätte ich gerne von dir erklärt.
Oder ist jeder Shader (in einem für alle IHVs gleiche Render-Pfad), der nicht zu 100% auf Ati optimiert ist automatisch auf NV zugeschnitten? Was ist mit den anderen IHVs?
Mr. Lolman
2004-08-22, 14:33:41
Was gibts da nicht zu glauben. nV gibt ganz offen zu daß sie Shader "optimieren".
Das ist mir klar, das NV shader optimiert. Es geht nur darum, ob D3 bewusst so geproggt hat, das ATi Karten in div. Engpässe gezwungen werden, oder anders ausgedrückt, dass D3 optimal für NV Karten geproggt wurde, ohne Rücksicht auf die Eigenheiten der ATi Karten zu nehmen.
Was ist also so verwerflich daran wenn Humus ähnliches tut?
Nix. Es ist sogar gut.
Hellknight[FA]
2004-08-22, 14:53:20
Das ist mir klar, das NV shader optimiert. Es geht nur darum, ob D3 bewusst so geproggt hat, das ATi Karten in div. Engpässe gezwungen werden, oder anders ausgedrückt, dass D3 optimal für NV Karten geproggt wurde, ohne Rücksicht auf die Eigenheiten der ATi Karten zu nehmen.
Hat jemand bei der vorigen Generation von GraKas drauf geachtet ob GeForce FX (NV 3X) - Karten in diverse "Engpässe" gezwungen werden? Nein - denn es wurde nach den ATi/MS-Konsortium gemäß den DirectX9 Vorgaben (welche keine Ganzzahloperationen zuliessen) programmiert.
Und jetzt schreien die ganzen ATi-Fanboys rum, wenn mal ein Spiel langsamer läuft bzw. auf nVidias (zukunftsweisender) Technologie aufbaut?
Dies wird aufgrund des voranschreitenden technischen Fortschritts leider immer häufiger der Fall sein...
Kommt schon Leute, nur weil noch einige Leute ein Disketten-Laufwerk im Rechner haben erscheint FarCry oder Doom 3 nicht auf Disketten! :D
Grüße
Timo
Grestorn
2004-08-22, 15:36:08
Aehhmmm... Die Kausal-kette sieht IMO etwas anders aus :
A) Ati hat einen Bug? im Treiber, der beim setzen des anisotropen Filters Mist baut.
B) Wegen (A) setzen viele User das AF im CP statt in der Anwendung.
C) Wegen (B) werden jetzt ALLE Texturen Anisotrop gefiltert, auch die Look-up Table.
D) Wegen (C) bringt das Ersetzen des Textur-Lookups durch eine mathematische Funktion auf Ati-Karten einen Performance-Vorteil.
Ein Ati-Mitarbeiter hat also die schlimmsten Folgen(performance-mäßig) eines Bugs im Ati-Treiber beseitigt. Was das jetzt mit auf NV zugeschnittenen Shadern oder der Unfähigkeit Carmacks das 5 Jahre lang zu erkennen zu tun hat, hätte ich gerne von dir erklärt.
Ach ja, US-II .... beinhaltet einige Funktionalität die nicht explizit aktiviert werden muss. D.h., die Auswirkungen davon sind möglicherweise schon zum Teil für den Vorsprung der 6800er verantwortlich.
Edit : Wort vergessen.Dieser Abschnitt enthält so viele Dinge, die ich selbst schreiben wollte, dass ihn einfach nochmal vollständig quote. Auf das ihn vielleicht auch die Leute lesen, die diese Fakten sonst immer wieder gerne ignorieren...
z3ck3
2004-08-22, 16:37:43
Ich glaub, mein Monitor ist kaputt. Oder ich bin schasaugat. Jedenfalls erkenn ich zw. beiden Bildern keinen Unterschied. Vielleicht ists auch nur ne ATi Krankheit :ugly:
tse, sag jetzt net du erkennst net den unterschied zwischen JPG und PNG? Bei dem JPG Müll sieht man doch eindeutig alle möglichen Artefakte. Tse... bei manchen menschen glaub ich echt, das Dinge wie AF, AA und Tri statt bi echt nicht nötig sind... wenn man schon den echt extrem krassen unterschied nicht erkennt... *kopfschüttel*
Mr. Lolman
2004-08-22, 18:09:59
16x AA / 16x AF in 1600*1200 wollte ich reinsetzen. ^^
mache ich aber nachher muss erstmal pennen gehn.
Aber bitte mit Framecounter...
...und zum besseren Vergleich, wär 1024x768 auch ganz nett, denn dass ein 1600x1200 Bild besser aussieht, als 1024x768 glaub ich dir auch ungesehen.
Was gibts da nicht zu glauben. nV gibt ganz offen zu daß sie Shader "optimieren".
Sollen sie auch. Mir ging es eher darum, ob DoomIII bewusst so gebastelt wurde, dass es NV Karten schmeckt und ATi Karten nicht so gut.
Was ist also so verwerflich daran wenn Humus ähnliches tut?
Garnix. Ich finds sogar gut so.
Sage mal, lolman...
Wo sind denn bei Dir die Schatten vom Hover hingekommen und irgendwie ist's bei Dir viel zu hell.
Sage mir doch einmal, was Du da alles verändert hast, bevor ich hier versuche ein annähernd vergleichbares Bild zu generieren...
Razor
Ist halt ein dynamischer Schatten. Der ist schon da, aber grad nach hinten gewandert.
Also ist Shader-Replacement (vergeichbare IQ voraus gesetzt) nun also doch für Dich OK?
Ich frage nur, weil Du damals einer der Verfechter der 'reinen Lehre' warst und sich bei Dir offenbar jetzt so einiges geändert hat. Konstatieren wir also nochmal:
"Shader-Replacement ist OK (auch wenn er wie hier direkt von ATI kommt), wenn die BQ nicht beeinträchtigt wird!
gez. Lolman"
Bitte quote mir das, denn das werde ich auf jeden Fall 'sichern'.
Nur für den Fall, dass es dann bei HL2 wieder anders aussehen sollte...
:D
Razor
Kommt immer drauf an. Wenn Shader in einem Benchmark ersetzt werden, der dazu da ist, die Geschwindigkeit bestimmter Shader zu testen, find ich das weitaus verwerflicher, als wenn Shader in einem Spiel durch welche ersetzt werden, die besser an bestimmte Eigenheiten einer HW angepasst sind - und ganz wichtig - das gleiche Ergebnis bringen, wie die Originalshader. Optimalerweise sollte das der intime Compiler des Treibers erledigen.
Wenn Du keine reproduzierbaren Shots posten kannst, dann lass es bitte ganz.
So etwas ist einfach nur sinnlos...
Razor
Jetz mach doch nicht so ein Wetter deswegen. 100% reproduzierbar sind die Shots ohnehin nicht, das ATi und NV mit unterschiedlicher Helligkeit arbeiten, und ausserdem bei DoomIII sicher schon jeder mit den Helligkeits/Gamma Werten herumgespielt hat.
Viiieeeellll besser.
Und?
Wie sieht's mit den Treiber-/Ingame- und generell Quality-Einstellungen aus?
:confused:
Nun laß Dir nicht alles aus der Nase zeihen...
Ich weiß, dass Du es besser kannst!
:D
Razor
9700pro 400/350, 2xAA, 4xtriAF(CP), Cat. 4.8, Humus Tweak, High Quality, Precompressed Textures "0"
Anscheinend interessierts hier aber eh niemanden. Ich hab auch noch kein Review gesehen, wo auf den neuesten Humus Tweak eingegangen wird, obwohl bis 25% Leistungsgewinn (bei Chips der Vorgängergeneration) ja ein gefundenes Fressen sein müssten. Das berichtet man in den News lieber über Ultrashadow und den 1%igen Gewinn...
Mr. Lolman
2004-08-22, 18:18:39
tse, sag jetzt net du erkennst net den unterschied zwischen JPG und PNG? Bei dem JPG Müll sieht man doch eindeutig alle möglichen Artefakte. Tse... bei manchen menschen glaub ich echt, das Dinge wie AF, AA und Tri statt bi echt nicht nötig sind... wenn man schon den echt extrem krassen unterschied nicht erkennt... *kopfschüttel*
Hast du dir vielleicht auch mal überlegt, dass ein CRT solche pixelfeinen Unterschiede bei dunklen Brauntönen nicht so herauststellt. Ich bin nicht der Einzige der beide Bilder für gleich befunden hat. Jetzt am TFT seh ich natürlich auch den Unterschied, aber bei dem sieht auch das 3DCenter Logo zum kotzen aus.
P.S.: Versucht du mit deinem Poststil deinem Namen gerecht zu werden? *kopfschüttel*
Mr. Lolman
2004-08-22, 18:19:44
Dieser Abschnitt enthält so viele Dinge, die ich selbst schreiben wollte, dass ihn einfach nochmal vollständig quote. Auf das ihn vielleicht auch die Leute lesen, die diese Fakten sonst immer wieder gerne ignorieren...
Lies das was Jesus dazu geschrieben hat. Denn hätts der nicht schon gemacht, würden die Argumente jetzt von mir kommen.
Mr. Lolman
2004-08-22, 18:44:58
']Hat jemand bei der vorigen Generation von GraKas drauf geachtet ob GeForce FX (NV 3X) - Karten in diverse "Engpässe" gezwungen werden? Nein - denn es wurde nach den ATi/MS-Konsortium gemäß den DirectX9 Vorgaben (welche keine Ganzzahloperationen zuliessen) programmiert.
Und wenn schon. Solang NV dahingehend optimiert, dass letztenendes die BQ gleichbleibt ist das ja auch kein Problem, solangs nicht ein Benchmark ist, der die Geschwindigketi von genau solchen Shadern misst.
']
Und jetzt schreien die ganzen ATi-Fanboys rum, wenn mal ein Spiel langsamer läuft bzw. auf nVidias (zukunftsweisender) Technologie aufbaut?
Niemand schreit herum. Was mir auffällt, sind es meistens selbst Fanboys, die sich über das Gehabe anderer, scheinbarer Fanboys beschweren. Ich perönlich, bin eher bemüht eine sachliche Diskussion zu führen.
']
Dies wird aufgrund des voranschreitenden technischen Fortschritts leider immer häufiger der Fall sein...
Glaub ich nichtmal. Bei HL2 siehts genau konträr aus. Ausserdem hab ich noch keinen einzigen Benchmark mit dem Humus Tweak vs Ultra Shadow und aktivertem CP AF gesehen. soooo viel langsamer ist Ati das jetzt auch nicht, als dass man das noch grossartig ausschlachten könnte.
Mich wunderts idF eher sogar, dass ATi seine ganzen eindeutigen Siege bei Painkiller, CMR4, Thief3 oder Ut2004 nicht besser ausgeschlachtet hat.
Demirurg selbst was es i.Ü. der meinte, dass DoomIII sich in eine technologische Sackgasse bewegt. Sicher werden noch einiges Spiele auf Basis dieser Engine erscheinen, aber grad die so gehypte Schattentechnik wird der Engine über kurz oder lang eine Strich durch die Rechnung machen.
Sein wir einmal ehrlich. 2002 war der Grafikstil genial. Jetzt ist die Grafik 'nur' mehr stimmig, was aber zum Hauptteil an den Contentartists liegt, weniger an der Engine. Denn spätestens seit Tenebrae ist die Doom3 Technik nicht mehr revolutionär. Und hinsichtlich HDR find ich Tenebrae sogar noch besser als Doom. Der nächste grosse Schritt wird das konsequente Verwenden von Offsetmaps sein, was Doom nochmal pushen könnte, soferns nicht allzuschwer zu implementieren ist. Dynamische Softshadows werden wir mit der D3 Engine wohl nichtmehr erleben, und gerade die sind ein weiterer wichtiger Schrtt in der Grafikentwicklung. Deswegen kann ich deiner Aussage erst zustimmen, wenn die ersten UE3 Benchmarks erscheinen, und ATi dabei dann auch wirklich abkackt, so wie das von Einigen hier prophezeit wird.
']
Kommt schon Leute, nur weil noch einige Leute ein Disketten-Laufwerk im Rechner haben erscheint FarCry oder Doom 3 nicht auf Disketten! :D
Grüße
Timo
Wär bei 'anständiger' Programmierung kein Problem ;)*kkrieger_betahervorkram*
Deswegen kann ich deiner Aussage erst zustimmen, wenn die ersten UE3 Benchmarks erscheinen, und ATi dabei dann auch wirklich abkackt, so wie das von Einigen hier prophezeit wird.
Ach, bis die kommt hat ATI doch auch PS 3.0 -mit den Lowcost Karten 2006 (NV4X und R4XX) musste dann doch ohnehin alle Details runterschrauben (2006)
Was gibts da nicht zu glauben. nV gibt ganz offen zu daß sie Shader "optimieren".
Bei nVIDIA haben wir für jeden PC-Titel einen Grafikspezialisten abgestellt.Dieser arbeitet mit dem jeweiligen Spieleentwickler zusammen um die Grafikengine zu optimieren und die Leistung der Shader zu verbessern.
(Jens Neuschäfer, nVIDIA)
Was ist also so verwerflich daran wenn Humus ähnliches tut?
Wieso vergleichst du hier zwei Dinge die nichts miteinander zu tun haben?
Das ist mir klar, das NV shader optimiert. Es geht nur darum, ob D3 bewusst so geproggt hat, das ATi Karten in div. Engpässe gezwungen werden, oder anders ausgedrückt, dass D3 optimal für NV Karten geproggt wurde, ohne Rücksicht auf die Eigenheiten der ATi Karten zu nehmen.Wo soll denn das so sein?
Schließlich wurde nach ARB2 geproggt und so nicht einmal auf die 'Eigenheiten' von FX-Chips eingegangen. Die Engpässe entstehen doch erst durch den Bug in den ATI-Treibern, die massiv Performance verlieren, wenn CP-AF erzwungen wird. Klar, auch die nVidia-Chips verlieren Performance, aber lange nicht im gleichen Verhältnis wie bei ATI...
Kommt immer drauf an. Wenn Shader in einem Benchmark ersetzt werden, der dazu da ist, die Geschwindigkeit bestimmter Shader zu testen, find ich das weitaus verwerflicher, als wenn Shader in einem Spiel durch welche ersetzt werden, die besser an bestimmte Eigenheiten einer HW angepasst sind - und ganz wichtig - das gleiche Ergebnis bringen, wie die Originalshader. Optimalerweise sollte das der intime Compiler des Treibers erledigen.Du relativierst Dinge, die nicht zu relativieren sind.
Der "Gamers Bench" soll nicht die Geschwindigkeit bestimmter Shader 'messen', sondern schlicht eine Aussage über die Taglichkeit von Hard- und Software in Spielen liefern. Nicht mehr und auch nicht weniger. Insofern Deine Aussage gegen Null geht, denn wenn eine Optimierung - err ein Shader-Replacement - in Spielen erlaubt ist, dann ist sie auch in Benches erlaubt, die eine Aussage über diese liefern soll.
Got it?
:confused:
Jetz mach doch nicht so ein Wetter deswegen. 100% reproduzierbar sind die Shots ohnehin nicht, das ATi und NV mit unterschiedlicher Helligkeit arbeiten, und ausserdem bei DoomIII sicher schon jeder mit den Helligkeits/Gamma Werten herumgespielt hat.Soweit ich weiß, bleiben die Screenies aber davon unberührt, weswegen sie nachher auch so dunkel sind. Und wenn man schon etwas mit Screenies 'beweisen' möchte, dann bitte auch mit solchen, die vergleichbar sind und nicht mit welchen, die mit Bildbearbeitungsprogrammen nachbearbeitet wurden... aber Du hast dies ja korrigiert... nur leider war's ja nicht das erste mal.
Übrigens... hast Du Dir schon mal das 'wunderschöne' AA der Radeon angeschaut, wenn Du den Gamma-Wert in der Weise bei Doom3 anpassen würdest? Offenbar nicht... sonst...
Aber Schwamm drüber!
Danke auf jeden Fall für den unkomprimierten, unveränderten Shot.
Auf den ersten Bilck unterscheidet der sich nicht von meinem mit 2xAA und 4xApp-AF...
(werde das aber noch genauer prüfen, wenn ich dazu Zeit finde)
9700pro 400/350, 2xAA, 4xtriAF(CP), Cat. 4.8, Humus Tweak, High Quality, Precompressed Textures "0"Jo Thx.
Sind im übrigen die Textures bei HQ nicht immer unkomprimiert?
Anscheinend interessierts hier aber eh niemanden. Ich hab auch noch kein Review gesehen, wo auf den neuesten Humus Tweak eingegangen wird, obwohl bis 25% Leistungsgewinn (bei Chips der Vorgängergeneration) ja ein gefundenes Fressen sein müssten. Das berichtet man in den News lieber über Ultrashadow und den 1%igen Gewinn...Die 25% Leistungsgewinn gibt's nur mit CP-AF und das ist vom Game ja so gar nicht vorgesehen...
Nochmal zur Wiederholung:
- App-AF auf ATI = Scheiße
- CP-AF auf ATI = schön, aber langsam
-> beides ein Treiber-Problem bei ATI
- Humus-Tweak behebt das Problem "CP-AF auf ATI = langsam"
- Humus ist Mitarbeiter von ATI
-> ATI behebt (inoffiziell) Treiber-Problem
Warum sollte jetzt diese "Wurschtelei" ATIs näher eingangen werden?
Sollen sie beide Probleme im Treiber beheben und dann wird man auch entsprechend reagieren.
Dieses Versteckspielen ist doch derzeit 'eh nur lästig und für viele kaum nachzuvollziehen...
Razor
Mr. Lolman
2004-08-22, 21:27:06
Wo soll denn das so sein?
Schließlich wurde nach ARB2 geproggt und so nicht einmal auf die 'Eigenheiten' von FX-Chips eingegangen. Die Engpässe entstehen doch erst durch den Bug in den ATI-Treibern, die massiv Performance verlieren, wenn CP-AF erzwungen wird. Klar, auch die nVidia-Chips verlieren Performance, aber lange nicht im gleichen Verhältnis wie bei ATI...
Siehe unten...
Du relativierst Dinge, die nicht zu relativieren sind.
Der "Gamers Bench" soll nicht die Geschwindigkeit bestimmter Shader 'messen', sondern schlicht eine Aussage über die Taglichkeit von Hard- und Software in Spielen liefern. Nicht mehr und auch nicht weniger. Insofern Deine Aussage gegen Null geht, denn wenn eine Optimierung - err ein Shader-Replacement - in Spielen erlaubt ist, dann ist sie auch in Benches erlaubt, die eine Aussage über diese liefern soll.
Got it?
:confused:
Wir reden an einander vorbei. Ich hab in meinem Post nicht vom 3dmark gesprochen.
Soweit ich weiß, bleiben die Screenies aber davon unberührt, weswegen sie nachher auch so dunkel sind. Und wenn man schon etwas mit Screenies 'beweisen' möchte...
Ist ja schon gut. Mach lieber mal den Screenshot.
Übrigens... hast Du Dir schon mal das 'wunderschöne' AA der Radeon angeschaut, wenn Du den Gamma-Wert in der Weise bei Doom3 anpassen würdest? Offenbar nicht... sonst...
Aber Schwamm drüber!
Ich hab mich eher darüber gewundert, dass die Gammakorrektur beim ATi AA anscheinend nicht fix ist. Ich spiels mit Gamma 1.5 und find die Kanten eigentlich ganz gut geglättet...
...im Gegensatz zu den Specularmaps.
Sind im übrigen die Textures bei HQ nicht immer unkomprimiert?
Nein. Die Diffuse Map(Haupttextur) ist komprimiert. Allerdings hab ich precompresses ausgeschalten (keine Ahnung obs was bringt) use_imagecompression ist allerdings immernoch auf "1"
Die 25% Leistungsgewinn gibt's nur mit CP-AF und das ist vom Game ja so gar nicht vorgesehen...
Nochmal zur Wiederholung:
- App-AF auf ATI = Scheiße
- CP-AF auf ATI = schön, aber langsam
-> beides ein Treiber-Problem bei ATI
- Humus-Tweak behebt das Problem "CP-AF auf ATI = langsam"
- Humus ist Mitarbeiter von ATI
-> ATI behebt (inoffiziell) Treiber-Problem
Warum sollte jetzt diese "Wurschtelei" ATIs näher eingangen werden?
Sollen sie beide Probleme im Treiber beheben und dann wird man auch entsprechend reagieren.
Dieses Versteckspielen ist doch derzeit 'eh nur lästig und für viele kaum nachzuvollziehen...
Razor
Mit 8x App. AF (1024 High und 2xAA)ist der neue Humus Tweak immernoch 8% schneller. Ausserdem wurde in den meisten Reviews das AF wohl ohnehin mittels CP eingestellt.
P.S.: Wie oft hat den NV schon inoffiziell ein Treiberproblem behoben? ;)
Grestorn
2004-08-22, 21:52:34
P.S.: Wie oft hat den NV schon inoffiziell ein Treiberproblem behoben? ;)Ja, wie oft?
Ich kann mich in letzter Zeit eigentlich nur an das FarCry Problem erinnern (AA über CP).
Wo gabs sonst Probleme mit den nVidia Treibern in den letzten 12 Monaten?
OT:
Goldstatus! :)
Glaub ich nichtmal. Bei HL2 siehts genau konträr aus. HL2 ist offenbar Texturfüllraten-limitiert. Ich wage die Prognose, dass der Anteil von Arithmetik im Pixelshader zunimmt (und die Texturfüllrate damit in den Hintergrund tritt.)
Demirurg selbst was es i.Ü. der meinte, dass DoomIII sich in eine technologische Sackgasse bewegt. Sicher werden noch einiges Spiele auf Basis dieser Engine erscheinen, aber grad die so gehypte Schattentechnik wird der Engine über kurz oder lang eine Strich durch die Rechnung machen. ... wobei alternative Verfahren, die qualitatäv besser sind als das von Doom3, auf dem NV40 ggü. R420 wahrscheinlich noch besser performen. Über kurz oder lang ist jede Engine eine Sackgasse.
Deswegen kann ich deiner Aussage erst zustimmen, wenn die ersten UE3 Benchmarks erscheinen, und ATi dabei dann auch wirklich abkackt, so wie das von Einigen hier prophezeit wird.Bei X800 vs 6800 auf jeden Fall. Natürlich wird ATI bis dahin moderneres (als den NV40) anzubieten haben.
Sollen sie auch. Mir ging es eher darum, ob DoomIII bewusst so gebastelt wurde, dass es NV Karten schmeckt und ATi Karten nicht so gut.Was war zuerst da? JCs Vorstellungen von der Engine, oder NV40? NV40 wurde bewusst so gebastelt, dass Doom3 der Karte schmeckt, während man sich bei ATI den Entwicklungsaufwand und die Transistoren dafür sparte.
Das ist mir klar, das NV shader optimiert. Es geht nur darum, ob D3 bewusst so geproggt hat, das ATi Karten in div. Engpässe gezwungen werden, oder anders ausgedrückt, dass D3 optimal für NV Karten geproggt wurde, ohne Rücksicht auf die Eigenheiten der ATi Karten zu nehmen.Du meinst, JC (oder ein anderer bei id) hätte den ATI-Treiber auf Bugs untersucht, die man irgendwie ausnutzen könne??
arcanum
2004-08-23, 07:37:59
Sollen sie auch. Mir ging es eher darum, ob DoomIII bewusst so gebastelt wurde, dass es NV Karten schmeckt und ATi Karten nicht so gut.
Na klar
JC hat mal eben seine Zeitmaschine (sponsored by nvidia) angeworfen und sich ne 6800/X800 aus unserer Zeit besorgt, bevor er mit der entwicklung angefangen hat.
Phoenix03
2004-08-23, 09:07:40
@ ahts
Schön das sich auch mal jemand zuwort meldet der Ahnung hat und eins und eins zusammen zählen kann.
Zwei grüde warum ich immer NV wähle die tatsache das die karte immer auf die meist genutzte engine zugeschnitten wird(Q3/D3) und die konkurenzlos guten Treiber.
@ Tombman
was soll das denn brüsten mit man sei so toll, das soll nix bringen ist ja wohl bock mist wenn ich da 2,5% mehr leistung bekomme dann ist zwar nicht viel aber immer hin Performance zu wachs für nix
(naja was soll man bei dem bild und der signatur auch anderes erwarten...)
Mr. Lolman
2004-08-23, 10:59:12
Na klar
JC hat mal eben seine Zeitmaschine (sponsored by nvidia) angeworfen und sich ne 6800/X800 aus unserer Zeit besorgt, bevor er mit der entwicklung angefangen hat.
Ich glaub nicht, das JC 2 Jahre lang an der interaction.vfp geschrieben hat.
Mr. Lolman
2004-08-23, 11:00:12
Was war zuerst da? JCs Vorstellungen von der Engine, oder Du meinst, JC (oder ein anderer bei id) hätte den ATI-Treiber auf Bugs untersucht, die man irgendwie ausnutzen könne??
Nein, er hat einfach gewusst was ATi schmeckt und was nicht, und hat sich dann halt eher um NV gekümmert.
Phoenix03
2004-08-23, 11:07:23
@ Lohman schon mal was programmiert? in C/++ oder vielleicht VB? Was ich damit sagen will wie zur Hölle kannst du auch nur Ansatzweise wissen, was wie lang dauert beim Programmieren einer Engine !
und was ist an dem Satz "der NV40 wurde von nVidia an D³ angepast" denn unverständlich oder unlogisch?
Seit jeher passt NV seine Hardware an die Gegebenheiten von der ID-Engine weshalb natürlich die Karten mit der Engine sehr gut laufen. zB die
Q3-Engine lief immer scheller auf NV produkten wieso sollte es also anders mit Id's neuster Engine sein, glaubst du NV wir sich da untreu.
Nein, er hat einfach gewusst was ATi schmeckt und was nicht, und hat sich dann halt eher um NV gekümmert.
Falsch!
Du VERMUTEST das er wusste was Ati schmeckt und was nicht, und du GLAUBST das er sich eher um NV gekümmert hat.
Falls du allerdings JC unter Synonym sein solltest, entschuldige ich mich schon mal vorsorglich.
Mr. Lolman
2004-08-23, 11:40:35
@ Lohman schon mal was programmiert? in C/++ oder vielleicht VB? Was ich damit sagen will wie zur Hölle kannst du auch nur Ansatzweise wissen, was wie lang dauert beim Programmieren einer Engine !
Zufälligerweise schon (C++/VB.NET) . Ich rede auch nicht von der ganzen Engine, sondern nur von den Shadern. Und Humus hat die innerhalb von 2 Tagen komplett umgeschrieben gehabt. Davor hat nur einen kleinen Fix gegeben, der tw nach Vorschlägen aus dem Forum von Demi noch verbessert wurde, bis Humus was ganz was Neues nachgelgegt hat. Die Entwicklungszeit bei DoomIII hat auch nicht die Engineprogrammierung ausgemacht, sondern das Content Design. Bis auch ein paar "waber" Effekte schaut die aktuelle D3 Enginge auch nicht sooo viel besser aus, als die 0.2alpha vom October 2002. Die Performance ist auch fast genau die gleiche, fast fragt man sich, was JC die letzten 2 Jahre gemacht hat. (Denn fürs Contentdesign waren andere Leute zuständig)
Bei X800 vs 6800 auf jeden Fall. Natürlich wird ATI bis dahin moderneres (als den NV40) anzubieten haben.
Mit was modernerem als NV40 ist bei ATi nicht vor 2006 zu rechnen, so gross ist mittlerweile deren technologischer Rueckstand.
Was war zuerst da? JCs Vorstellungen von der Engine, oder NV40? NV40 wurde bewusst so gebastelt, dass Doom3 der Karte schmeckt, während man sich bei ATI den Entwicklungsaufwand und die Transistoren dafür sparte.
Das einzige was ATi wirklich kann: Transistoren (und damit Bildqualitaet oder Performance) einsparen.
Ich glaub nicht, das JC 2 Jahre lang an der interaction.vfp geschrieben hat.
Und ich glaube nicht, dass du irgendwelche Ahnung von 3D Technik und Algorithmen hast.
Warum ATi unter Doom3 so schwach ist kannst du uebrigens in einem 3DCenter Artikel lesen.
Zufälligerweise schon (C++/VB.NET) . Ich rede auch nicht von der ganzen Engine, sondern nur von den Shadern. Und Humus hat die innerhalb von 2 Tagen komplett umgeschrieben gehabt.
Na, das zeigt doch nur wie tief ATi geschlafen hat.
Stichwort: Developer-Support. Kannst du bei ATi naemlich vergessen.
DrumDub
2004-08-23, 14:21:08
hier was zu ultra shadow und wies was bringt:
The benefit from “r_useDepthBoundsTest 1” will be greatest when you turn up multisampling and increase your screen resolution and turn down (or simply leave alone) things that affect shading speed (aniso, texture detail).
This is because “r_useDepthBoundsTest 1” improves the stenciled shadow volume rendering performance portion of Doom3’s rendering workload (but can’t help the shading portion).
You can SEE the benefit of “r_useDepthBoundsTest 1” by also enabling “r_showShadows 1” (that renders the shadow volumes in wireframe to visualize the shadow volumes that are otherwise rendered invisibly). If you toggle betweeen “r_useDepthBoundsTest” on an off, you’ll see less wireframe shadow stuff is rendered. This is indicative of the kind of pixel update savings going on when “r_useDepthBoundsTest” is enabled.
The wireframe shadow volume pixels you no longer see being rendered when “r_useDepthBoundsTest” is on are for pixels that are NOT going to be in shadow for a particular occluder. UltraShadow is effectively saving this pixel update work.
http://3dgpu.com/archives/2004/08/20/how-ultrashadow-ii-affects-doom-3/
Und Humus hat die innerhalb von 2 Tagen komplett umgeschrieben gehabt.
Komplett? Er hat 3 Zeilen geändert. Und desweiteren kommt hinten im gegensatz zu allen anderen Renderpfaden nicht mehr das gleiche Ergebnis raus.
Das hätte Carmack eh nicht gemacht.
Mr. Lolman
2004-08-23, 19:22:21
Komplett? Er hat 3 Zeilen geändert. Und desweiteren kommt hinten im gegensatz zu allen anderen Renderpfaden nicht mehr das gleiche Ergebnis raus.
Das hätte Carmack eh nicht gemacht.
In der neuesten Version sind AFAIK weitaus mehr als 3 Zeilen anders, und es kommt das Gleiche raus. Muss ich erst Demi quoten, oder glaubt ihr das endlich einmal.
@all: Was braucht denn der Programmiergott JC einen Dev Support? :lol:
Einerseits darf man seine Progfähigkeiten nicht in Frage stellen (will ich ja garnicht), andererseits, ist dann wieder der Dev support Schuld, wenns dann doch nicht hinhaut. Also was jetzt.
Und ich glaube nicht, dass du irgendwelche Ahnung von 3D Technik und Algorithmen hast.
Warum ATi unter Doom3 so schwach ist kannst du uebrigens in einem 3DCenter Artikel lesen.
Dich kenn ich doch, oder? Wenn ja, warum hast du all deine Posts editiert?
Ausserdem ein bisschen Ahnung hab ich schon. Und das bisschen Ahnung hätt JC scheinbar auch gebraucht, um zu wissen das dependent Texturreads ATi Karten z.T. überhaupt nicht schmecken, und man deswegen einen anderen Weg hätte gehen können. (Da wär ein extra NV30/NV40 und R300/R420 Pfad noch besser gewesen als ein ARB2 Pfad, der auf ATi Karten AF Bildfehler erzeugt und mit angezogener Handbremse läuft)
LovesuckZ
2004-08-23, 19:31:27
Lustig, wie sich ein ATi user im Nvidiaforum ueber ein ATi spezifisches Problem in einem Thread ueber ein Feature der NV40 karten aufregt.
Aber ist okay, ich hoffe er wird auch bei HL2 diesen Pfad der Gerechtigkeit weiterfuehren, wenn es keinen optimierten NV40 Pfad geben wird.
Hellknight[FA]
2004-08-23, 20:09:05
Lustig, wie sich ein ATi user im Nvidiaforum ueber ein ATi spezifisches Problem in einem Thread ueber ein Feature der NV40 karten aufregt.
Aber ist okay, ich hoffe er wird auch bei HL2 diesen Pfad der Gerechtigkeit weiterfuehren, wenn es keinen optimierten NV40 Pfad geben wird.
:uclap:
* 1 Punkt *androhe* für unsinnigen Spam. *
Mr. Lolman
2004-08-23, 21:06:49
*doppelpost*
Mr. Lolman
2004-08-23, 21:09:10
']:uclap:
:lol:
Ich rofl mich weg. :ulol3:
Ne im Ernst, schreibts ihr da zuerst falsche Sachen, und schimpfts mich dann ATi Fanboy, sobald ichs richtig stelle. Ich finds nur lustig. :ulol:
* 1x ernste Verwarnung für flamige Antwort auf unsinnigen Spam. :D *
LovesuckZ
2004-08-23, 21:11:59
Ne im Ernst, schreibts ihr da zuerst falsche Sachen, und schimpfts mich dann ATi Fanboy, sobald ichs richtig stelle. Ich finds nur lustig. :ulol:
Du hast den Smiley hinter seinem Kommentar gesehen und diesen als Sarkasmus entlarvt?
Mr. Lolman
2004-08-23, 21:17:07
Du hast den Smiley hinter seinem Kommentar gesehen und diesen als Sarkasmus entlarvt?
Lol, das wird ja immer besser :ulol3: :ulol4: :ulol5:
Jetzt sollten wir aber aufhören, die Punktemafia kommt sicher bald... :eek:
* Diesmal gibts halt auch für dich einen Punkt. *
Mr. Lolman
2004-08-23, 21:29:12
Um nicht gar so kontraproduktiv zu sein:
HL2 ist offenbar Texturfüllraten-limitiert.
Ich wage die Prognose, dass der Anteil von Arithmetik im Pixelshader zunimmt (und die Texturfüllrate damit in den Hintergrund tritt.)
... wobei alternative Verfahren, die qualitatäv besser sind als das von Doom3, auf dem NV40 ggü. R420 wahrscheinlich noch besser performen.
Das würde aber nur so sein, falls seitens NV, der Großteil der Shader schneller laufen würde.
Über kurz oder lang ist jede Engine eine Sackgasse.
Klar, aber die Technik dahinter wird eher weiter entwickelt, oder verworfen.
Bei X800 vs 6800 auf jeden Fall. Natürlich wird ATI bis dahin moderneres (als den NV40) anzubieten haben.
Und du glaubst das sich bis dahin noch signifikante PS Vorteile für NV auftun werden?
LovesuckZ
2004-08-23, 21:30:15
Lol, das wird ja immer besser
Jetzt sollten wir aber aufhören, die Punktemafia kommt sicher bald... :eek:
Trotzdem sehr enttäuschend, nachdem man von seiten nvidia so sehr damit geworben hat :/
Wiedermal viel Lärm um nix, leider
]
Der Performance-Gewinn ist zwar marginal - dafür - im Gegensatz zu ach so tollen 40% Performance-Zuwachs-Patch für ATi-Grakas - garantiert :D
ROFL ja klar, da gibt man sich lieber mit einem garantiertem Prozent zufrieden, als mit 40 ungarantierten. Im Übrigen kann ich mir gut vorstellen, dass mit AA/AF die 40% auf R420 Karten keine Unmöglichkeit sind.
Tjo, noch was zu sagen?
Mr. Lolman
2004-08-23, 21:35:49
Tjo, noch was zu sagen?
ok, so hast du das gemeint. Ich dachte du hast die Antwort auf mein Post an Hellknight gerichtet. :rolleyes:
Was war zuerst da? JCs Vorstellungen von der Engine, oder NV40? NV40 wurde bewusst so gebastelt, dass Doom3 der Karte schmeckt, während man sich bei ATI den Entwicklungsaufwand und die Transistoren dafür sparte.
Wie würdest du argumentieren, wenn JC nach Humus Weise geproggt hätte?
Du meinst, JC (oder ein anderer bei id) hätte den ATI-Treiber auf Bugs untersucht, die man irgendwie ausnutzen könne??
Nein, aber er musste doch wissen, was den Karten architekturbedingt mehr liegt, und was weniger...
betasilie
2004-08-23, 21:36:00
Tjo, noch was zu sagen?
Nein, bitte nicht.
:ulol5: :uattack4: :ulol5:
Manche Leute merken echt garnix mehr. :-/
* Findest du? Auch hierfür hätte ich ein Pünktchen übrig. *
@Lolman: Wo gibt's denn den neusten Tweak. Würd ich gern mal anschaun.
Und bevor das hier so munter weitergeht und ich noch tiefer in die Punktetüte greifen muß --> Closed.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.