Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia Forceware 78.03
Blaire
2005-09-02, 15:32:10
http://nzone.com/object/nzone_downloads_rel70betadriver.html
ForceWare Release 75
Version: 78.03
Release Date: September 2, 2005
BETA Driver
Alternativ-DL-Link: http://downloads.guru3d.com/downloadget.php?id=1168&file=5&evp=9837b5addd054403c1fb54a52d7f0d38
http://www.nzone.com/object/nzone_downloads_winxp_2k_78.03.html
Hmm ... da geht wirklich noch nichts. Mal abwarten.
Da ist aber einer gut informiert. ;)
MfG,
Raff
Ich geb mal drüben bei den Amis bescheid :D :eek:
Kleiner Scherz ;) :)
Dragon
2005-09-02, 15:52:05
Mirror 3 geht.
Edit: Jetzt nicht mehr...
Mirror 3 geht.
Edit: Jetzt nicht mehr...
Bei mir auch nicht (International) -- aber der Hauptlink. :)
MfG,
Raff
Dragon
2005-09-02, 15:55:46
Mirror 2 geht aber ganz gut bis jetzt.
Chronicle
2005-09-02, 15:58:30
also Nr1 ist auch schnieke
Der Treiber ist datiert auf den 25.08.2005, also wirklich brandneu. Interessant wären BQ-Vergleiche und Benchmarks von G70-Usern!
MfG,
Raff
DrFreaK666
2005-09-02, 16:09:46
Hää? Wie jetzt?
2 treiber??
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=245957
mapel110
2005-09-02, 16:13:04
NFSU2 schmiert immernoch ab. Also sowas armes. Derzeit hat ATI doch wieder Chancen bei mir.
Hää? Wie jetzt?
2 treiber??
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=245957
78.01 mit WHQL und 78.03 ohne WHQL.
Hab ihn unten aber warte noch auf euch .. Ladies first :D Ob sich evtl. auch was für die 68er geändert hat in Sachen BQ ?? Hehe wohl eher nicht ... naja träumen darf man ja noch :(
Blaire
2005-09-02, 16:16:00
Der Treiber ist datiert auf den 25.08.2005, also wirklich brandneu. Interessant wären BQ-Vergleiche und Benchmarks von G70-Usern!
MfG,
Raff
Also Battlefield 2 hab ich gerade mal nach "Grieseln" untersucht. Es ist deutlich besser als mit den alten Treibern! Aber an die Qualität der alten 71.xx Treibern reicht die Qualität bei weitem nicht heran. Aber es ist wirklich erträglich geworden. :) Läuft auch soweit ich das bisher sehn kann mit mit den gleichen FPS.
Diese seltsame "Pfeiloptimierung" ist auch verschwunden!
(del676)
2005-09-02, 16:16:12
BF2 grieselt bei mir noch immer - zwar längst nicht so stark wie vorher, aber immer noch ein bisl
BF2 grieselt bei mir noch immer - zwar längst nicht so stark wie vorher, aber immer noch ein bisl
Wird sich auch niemals ändern .. leider :( Es wurde auch bei meiner ein wenig besser jedoch zu 100% wenn man es haben möchte musst du auf eine .. hmm wart mal ... hmm es gibt keine die 100% BQ bietet :D
Also Battlefield 2 hab ich gerade mal nach "Grieseln" untersucht. Es ist deutlich besser als mit den alten Treibern! Aber an die Qualität der alten 71.xx Treibern reicht die Qualität bei weitem nicht heran. Aber es ist wirklich erträglich geworden. :) Läuft auch soweit ich das bisher sehn kann mit mit den gleichen FPS.
Diese seltsame "Pfeiloptimierung" ist auch verschwunden!
Stimmt das eigentlich, dass Vsync mit einem SLI Gespann nicht funzt ??
DrFreaK666
2005-09-02, 16:20:20
Haben wir NV40-User überhaupt noch was von neuen Treibern oder konzentriert sich nvidia auf die neuen 78er?
Wieso bitent die Grafikkartenhersteller dann nicht einen eigenen "Full"-Mode?
Auch wenn die Leistung dadurch auch sehr stark und einbricht und dann halt "Nur für ultra-spezielle Zwecke, ja nicht zum Benchmarken" ist, wenigstens hätte ich dann volles AA und AF, wofür ich die Leistung meiner Grafikkarte bei alten Spielen einsetzen möchte...
Der Treiber ist datiert auf den 25.08.2005, also wirklich brandneu. Interessant wären BQ-Vergleiche und Benchmarks von G70-Usern!
MfG,
RaffKommt sobald ich zuhause bin ;)
Wird sich auch niemals ändern .. leider Es wurde auch bei meiner ein wenig besser jedoch zu 100% wenn man es haben möchte musst du auf eine .. hmm wart mal ... hmm es gibt keine die 100% BQ bietet Ich denke da ist auch der Content dran schuld. Ich habe bei einem Kumpel genauso ein Flimmern auf ner 9600 in Battlefield gesehen.
Vieles davon ist doch reiner Anti-NV-Hype. Z.B. ist die GeForce 6 in HQ absolut mit jeder Radeon vergleichbar und jetzt wohl auch die 7.
Blaire
2005-09-02, 16:23:58
Stimmt das eigentlich, dass Vsync mit einem SLI Gespann nicht funzt ??
Ja mit SLI-AFR Mode glaube ich. Da ich eh immer ohne Vsync zocke , ist das eigentlich kein Problem für mich. Aber es wäre trotzdem besser wenn NV da nachbessert.
DrFreaK666
2005-09-02, 16:24:01
... hmm es gibt keine die 100% BQ bietet :D
Was gibt es da zu lachen??
Ich finde diese tatsache eher traurig als witzig
mapel110
2005-09-02, 16:26:36
Haben wir NV40-User überhaupt noch was von neuen Treibern oder konzentriert sich nvidia auf die neuen 78er?
Wenn jetzt die nächsten SM3-Spiele anstehen, werden sicher auch noch die NV4x-Chips von kommenden Treibern profitieren können.
So unterschiedlich sind da 7800 und 6x00 nicht, was die Technik angeht.
Z.B. ist die GeForce 6 in HQ absolut mit jeder Radeon vergleichbar und jetzt wohl auch die 7.
Nope kann ich dir leider nicht zustimmen vorallem bei Spielen wie GTA San Andreas oder die neue Auflage von Falcon 4.0. No way hier flimmert eine 68er gegenüber einer X800 gnadenlos. Ist leider so und wird sich auch in Zukunft nie was ändern mit keinem Treiber dieser Welt !
Release Notes:
Improved High Quality performance setting on GeForce 7 series to reduce shimmering artifacts.
Man beachte hier das to reduce ;)
xL|Sonic
2005-09-02, 16:37:23
Gibts davon auch nen Ableger für Windows XP x64?
doom1
2005-09-02, 16:43:45
mal schnell inst.zum Gamen hab ich keine Zeit im mom aber die BQ in 2D meine Herren allererster Sahne "gestochen scharfe Buchstaben (1600x1200)"hatte ich schon lange nicht mehr (nein auch mit meiner ATI nicht)wenn es in den Games genau so verbessert wurde........
Arschhulio
2005-09-02, 16:48:15
Nope kann ich dir leider nicht zustimmen vorallem bei Spielen wie GTA San Andreas oder die neue Auflage von Falcon 4.0. No way hier flimmert eine 68er gegenüber einer X800 gnadenlos. Ist leider so und wird sich auch in Zukunft nie was ändern mit keinem Treiber dieser Welt !
Das kommt ja auch immer drauf an, welcher Hersteller unterstützt wird, siehe HL2 @ ATI ;)
mal schnell inst.zum Gamen hab ich keine Zeit im mom aber die BQ in 2D meine Herren allererster Sahne "gestochen scharfe Buchstaben (1600x1200)"hatte ich schon lange nicht mehr (nein auch mit meiner ATI nicht)wenn es in den Games genau so verbessert wurde........
Der Spruch kam schon bei etwa 65 Treibern. Ernsthaft: Wäre jeder Treiber etwas schärfer, hätten wir alle schon zerschnittene Augen. ;) Das nennt man "Placebo-Effekt". Oder Du hast einen Monitor, der bei viel Hz ein matschigeres Bild liefert und nun fährst Du mit 60 Hz und freust Dich über die Schärfe.
MfG,
Raff
Ein wenig OT:
@Blair: Hast Du eigentlich Deine beiden GTX7800 von Gigabyte mit dem neuen BIOS am Laufen (das die Taktfrequenzen erhöht, erhältlich über die Gigabyte Website und als "Beta" ausgezeichnet, obwohl das eigentlich Quatsch ist).
Ich frage, weil ich heute meine zweite bekommen habe und etwas unschlüssig bin, ob ich beide damit laufen lasse oder zum Originalbios zurück kehre. Laut einem Mitarbeiter aus dem Gigabyte-Forum ist das Flashen legitim (ist für eine Version, die sich hardware-mässig nicht unterscheidet und hier in D nicht auf den Markt kommt) und die erhöhte Taktfrequenz macht bei mir mit einer Karte keinerlei Probleme.
Das kommt ja auch immer drauf an, welcher Hersteller unterstützt wird, siehe HL2 @ ATI ;)
Meinen Post richtig gelesen ?? Anscheinend wohl nicht...
xL|Sonic
2005-09-02, 17:03:06
Das kommt ja auch immer drauf an, welcher Hersteller unterstützt wird, siehe HL2 @ ATI ;)
Blöd nur das GTA:SA ein NTWIMTBP Spiel ist :rolleyes:
doom1
2005-09-02, 17:04:19
Der Spruch kam schon bei etwa 65 Treibern. Ernsthaft: Wäre jeder Treiber etwas schärfer, hätten wir alle schon zerschnittene Augen. ;) Das nennt man "Placebo-Effekt". Oder Du hast einen Monitor, der bei viel Hz ein matschigeres Bild liefert und nun fährst Du mit 60 Hz und freust Dich über die Schärfe.
MfG,
Raff
Quark ich bin Blind und Fahre Mercedes :biggrin: und meinen Moni schon immer mit 60Hz (TFT)und wenn mir das auffällt dann schreibe ich es und wenn das Dir nicht in den Kram paßt kann ich es auch nicht ändern ist mir allerdings auch wurst.
Und es sieht saugut aus!!!!!!!!!! :tongue:
Nope kann ich dir leider nicht zustimmen vorallem bei Spielen wie GTA San Andreas oder die neue Auflage von Falcon 4.0. No way hier flimmert eine 68er gegenüber einer X800 gnadenlos. Ist leider so und wird sich auch in Zukunft nie was ändern mit keinem Treiber dieser Welt !Das liegt daran, dass das AF von nVIDIA nicht mit mipmap-losen Texturen funktioniert und hat mal primär nichts mit dem Texturfilter an sich zu tun.
Im Übrigen ist das auch teilweise die Schuld der Entwickler, weil NV4x könnte im Gegensatz zu der Radeon auch für non-pow-2-texturen mipmaps verarbeiten.
Aber ich gebe dir recht. Daran wird sich mit neueren Treibern nichts ändern. Aber vielleicht mit Patches für die Spiele.
Blaire
2005-09-02, 17:05:39
Ein wenig OT:
@Blair: Hast Du eigentlich Deine beiden GTX7800 von Gigabyte mit dem neuen BIOS am Laufen (das die Taktfrequenzen erhöht, erhältlich über die Gigabyte Website und als "Beta" ausgezeichnet, obwohl das eigentlich Quatsch ist).
Ich frage, weil ich heute meine zweite bekommen habe und etwas unschlüssig bin, ob ich beide damit laufen lasse oder zum Originalbios zurück kehre. Laut einem Mitarbeiter aus dem Gigabyte-Forum ist das Flashen legitim (ist für eine Version, die sich hardware-mässig nicht unterscheidet und hier in D nicht auf den Markt kommt) und die erhöhte Taktfrequenz macht bei mir mit einer Karte keinerlei Probleme.
Nein, hab ich immer noch mit Asbach Uralt Bios am Laufen. Ich bin auch kein Freund vom Übertakten von Grafikkarten. :)
Daher lass ich es auch sein, ein neues Bios zu flashen. Never change a running System. ;)
MfG
doom1
2005-09-02, 17:07:24
Ein wenig OT:
@Blair: Hast Du eigentlich Deine beiden GTX7800 von Gigabyte mit dem neuen BIOS am Laufen (das die Taktfrequenzen erhöht, erhältlich über die Gigabyte Website und als "Beta" ausgezeichnet, obwohl das eigentlich Quatsch ist).
Ich frage, weil ich heute meine zweite bekommen habe und etwas unschlüssig bin, ob ich beide damit laufen lasse oder zum Originalbios zurück kehre. Laut einem Mitarbeiter aus dem Gigabyte-Forum ist das Flashen legitim (ist für eine Version, die sich hardware-mässig nicht unterscheidet und hier in D nicht auf den Markt kommt) und die erhöhte Taktfrequenz macht bei mir mit einer Karte keinerlei Probleme.
Die Bios zu Leadtek sind vollkommen gleich und ich habe keine probs damit.
reunion
2005-09-02, 17:08:20
Laut nVidia soll sich der Leistungsrückgang unter hoher Qualität auf zwei bis vier Prozent belaufen, das nervige Flimmern jedoch der Vergangenheit angehören, wobei der Hersteller allerdings lediglich von einer das Flimmern reduzierenden Verbesserung der HQ-Performance-Settings spricht.
http://www.computerbase.de/news/treiber/grafikkarten/nvidia/2005/september/forceware_7803/
Nein, hab ich immer noch mit Asbach Uralt Bios am Laufen. Ich bin auch kein Freund vom Übertakten von Grafikkarten. :)
Daher lass ich es auch sein, ein neues Bios zu flashen. Never change a running System. ;)
MfG
Naja, ich bin generell auch kein OC-Freak, aber ich werd's mal wagen (die eine Karte ist ja eh schon geflasht), da es ja eine Übertaktung mit Wahrung der Garantie und ein offizielles Gigabyte-BIOS ist ;) Temperaturmässig ist bei mir bei der einen Karte auch nichts angestiegen.
reunion
2005-09-02, 17:08:54
Release Notes:
http://download.nvidia.com/Windows/78.03/78.03_ForceWare_Release_Notes.pdf
es ist schon ziemlich steinzeitlich 2005 ein spiel auf den markt zu bringen welches kein mipmapping nutzt, aber nVidia ist auch ein klein wenig mitschuldig daran, weil sie sehr wohl wissen müssten daß ohne mipmapping kein AF geht und das ganze dann scheiße aussieht (ok, scheiße aussehen tut GTA:SA ja sowieso :D), sie hätten den entwickler darauf ansprechen sollen bevor sie dem spiel das TWIMTBP logo vergeben (ich weiß nicht ob das spiel tatsächlich TWIMTBP ist, sagt aber jemand hier im thread, darauf beruht meine aussage)
mapel110
2005-09-02, 17:12:59
Laut nVidia soll sich der Leistungsrückgang unter hoher Qualität auf zwei bis vier Prozent belaufen, das nervige Flimmern jedoch der Vergangenheit angehören, wobei der Hersteller allerdings lediglich von einer das Flimmern reduzierenden Verbesserung der HQ-Performance-Settings spricht.
http://www.computerbase.de/news/treiber/grafikkarten/nvidia/2005/september/forceware_7803/
O_o haben die in der News glatt meinen RL-Namen angegeben.
O_o haben die in der News glatt meinen RL-Namen angegeben.
Wenigstens wissen nun alle, wie Dein Nick zustande kommt. :D
MfG,
Raff
BlackArchon
2005-09-02, 17:27:07
Wenigstens wissen nun alle, wie Dein Nick zustande kommt. :D
MfG,
Raff
Mensch, das wollte ich gerade schreiben. ;(
Macht da Leonidas jetzt ein Update zum Flimmerartikel hier auf 3DC?
Nope kann ich dir leider nicht zustimmen vorallem bei Spielen wie GTA San Andreas oder die neue Auflage von Falcon 4.0. No way hier flimmert eine 68er gegenüber einer X800 gnadenlos. Ist leider so und wird sich auch in Zukunft nie was ändern mit keinem Treiber dieser Welt !
AF im treiber auf anwendungsgesteuert und höchste details im spiel einstellen, was automatisch 16xAF aktiviert. dann gibt es in GTA SA mit dem NV40 kein flimmern mehr, außer bei AT-texturen und texturen ohne mips, was aber auch auf der radeon nicht anders sein kann.
dann ist selbst der unterschied zwischen Q und HQ kaum mehr sichtbar, wenn du AF allerdings über den treiber steuerst flimmert es auch in HQ ziemlich stark.
dr_AllCOM3
2005-09-02, 17:48:09
hab den grad mal mit WoW getestet. die bq ist echt merklich besser geworden. grieselt nur noch bei extremen texturen. bisher noch nirgendwo so "stark" wie im nvzone video.
svenska
2005-09-02, 17:55:29
in HL2 ist das flimmern aber noch stark vorhanden (n)
mal gucken wie es bei den anderen games ist.
papercut
2005-09-02, 18:00:30
ich habe bei hl2 kein flimmern mehr
7800gtx
Eigentlich geht mir diese ganze Flimmerscheisse schon seit Kauf der 68er aufn Sack. Aber die Hoffnung hielt mich bei dieser Karte. Heute weiss ich , dass ich mit ner X800 wesentlich besser gefahren wäre. I dont give a damn auf SM 3.0 .. braucht kein Mensch naja bisher zumindest. Ich hoffe nur das der R520 was taugt und meinetwegen die selbe Art und Weise für die Texturen aller Art anwendet wie eine x8XX, das reicht mir für einen Umstieg völlig aus.
nVidia ... the way it´s meant to be cheated :D ;)
Ich hau den 78.03 aus neugier jetzt trotzdem mal drauf ... auch wenns vermutlich für den Popo sein wird.
Frank1974
2005-09-02, 18:03:58
Hallo
@Blaire
Wie ist es mit den Pfeiloptimierungen in Halflife2 beim Fahrstuhl,wo wir den Videovergleich gemacht haben. :smile:
Und in Farcry da hatte ich auch starke Pfeile in einigen Levels...
Und wie ist deine Persönliche Meinung,ist es jetzt NV40 HQ ?
MFG
Frank
NeoTiger
2005-09-02, 18:06:39
Im Moment scheint man über die offiziellen Seiten überhaupt nicht mehr zur Download-Seite zu gelangen (überlastet?)
Aber es geht zumindestens über diesen direkten Link bei mir:
http://download.nvidia.com/Windows/78.03/78.03_winxp2k_international.exe
Blaire
2005-09-02, 18:07:23
Hallo
@Blaire
Wie ist es mit den Pfeiloptimierungen in Halflife2 beim Fahrstuhl,wo wir den Videovergleich gemacht haben. :smile:
Und in Farcry da hatte ich auch starke Pfeile in einigen Levels...
MFG
Frank
Du kannst wohl hellsehn? Hab ich vor 5min getan, Link folgt gleich.
Hier das Video von der gewissen Stelle aus deinem Savegame. (Knapp über 16mb groß)
http://rapidshare.de/files/4646239/HL2_7803.avi.html
Wie man sieht ist es deutlich besser als vorher, aber man sieht leider ein minimale Bugwelle vor sich herwandern.
Die Pfeiloptimierung ist verschwunden@Farcry und HL2!
Aber an die Qualität vom HQ der 71.xx Treiber reichen die neuen Treiber jedoch nicht heran.
Ich bin noch nicht sicher , ob ich mich darüber freuen oder ärgern soll. Vieleicht hab ich auch nur ein zu große Erwartungshaltung gehabt.
svenska
2005-09-02, 18:20:10
bei mir kackt der in BF2 beim ladebildschirm nach sounds bei "animations/animation systems" immer ab. jetz hab ich testweise dem 77.77 raufgemacht und BF2 funzt. :consufed:
ich mach jetzt nochmal den 78.03, wenn es dann wieder an der selbe stelle rausfliegt, weis ich auch nicht weiter.
ps: hatte zu vor alle treiberreste mit drivecleaner weggemacht.
black-bird
2005-09-02, 18:22:42
Hab mir den Treiber auch runtergeladen und muss sagen dass das Flimmern wesentlich besser geworden ist, wenn auch nicht ganz verschwunden.
Ist mir zwar vorher auch nur aufgefallen wenn ich drauf geachtet habe aber jetzt muss man schon genau hinschauen und die "Texturkandidaten" kennen die für das Flimmern besonders anfällig sind. Also ganz weg isses nicht - war/ist aber glaub ich bei der 6x00 Reihe auch nicht so...
Die Performance ist fast gleichgeblieben:
3DMark05 - Quality: 8305
3DMark05 - High-Quality: 8219
MSI 7800GTX @ 450/1300
Frank1974
2005-09-02, 18:24:31
Du kannst wohl hellsehn? Hab ich vor 5min getan, Link folgt gleich.
Hier das Video von der gewissen Stelle aus deinem Savegame. (Knapp über 16mb groß)
http://rapidshare.de/files/4646239/HL2_7803.avi.html
Wie man sieht ist es deutlich besser als vorher, aber man sieht leider ein minimale Bugwelle vor sich herwandern.
Die Pfeiloptimierung ist verschwunden@Farcry und HL2!
Aber an die Qualität vom HQ der 71.xx Treiber reichen die neuen Treiber jedoch nicht heran.
Ich bin noch nicht sicher , ob ich mich darüber freuen oder ärgern soll. Vieleicht hab ich auch nur ein zu große Erwartungshaltung gehabt.
Ok vielen Dank,Nvidia hat ja auch glaube ich in den Notes geschrieben ,das es reduziert wurde aber wohl noch nicht vollständig behoben,ist ja nur eine Beta, ich bin sicher sie arbeiten weiter daran :rolleyes:
Aber wie sieht es jetzt mit dem Speed aus,wieviel kostet es im Gegensatz zum 77.77 Treiber,hast du da auch schon Ergebnisse?
MFG
Frank
svenska
2005-09-02, 18:25:33
bei mir funzt BF2 nicht mit den treibern und ich weis nicht wieso. beim laden immer CTD, mit anderen treibern ist alles ok. hülfäää.... :(
Eigentlich geht mir diese ganze Flimmerscheisse schon seit Kauf der 68er aufn Sack. Aber die Hoffnung hielt mich bei dieser Karte. Heute weiss ich , dass ich mit ner X800 wesentlich besser gefahren wäre. I dont give a damn auf SM 3.0 .. braucht kein Mensch naja bisher zumindest. Ich hoffe nur das der R520 was taugt und meinetwegen die selbe Art und Weise für die Texturen aller Art anwendet wie eine x8XX, das reicht mir für einen Umstieg völlig aus.
nVidia ... the way it´s meant to be cheated :D ;)
Ich hau den 78.03 aus neugier jetzt trotzdem mal drauf ... auch wenns vermutlich für den Popo sein wird.
hast recht,wenn die r520 kommt is die 7800gtx reif für ebay
Blaire
2005-09-02, 18:26:28
Ok vielen Dank,Nvidia hat ja auch glaube ich in den Notes geschrieben ,das es reduziert wurde aber wohl noch nicht vollständig behoben,ist ja nur eine Beta, ich bin sicher sie arbeiten weiter daran :rolleyes:
Aber wie sieht es jetzt mit dem Speed aus,wieviel kostet es im Gegensatz zum 77.77 Treiber,hast du da auch schon Ergebnisse?
MFG
Frank
Der Speed ist gleich geblieben gegenüber dem 77.77 , soweit ich das bisher beurteilen kann. Timedemos hab ich aber bisher nicht getestet.
Blaire
2005-09-02, 18:27:12
bei mir funzt BF2 nicht mit den treibern und ich weis nicht wieso. beim laden immer CTD, mit anderen treibern ist alles ok. hülfäää.... :(
Seltsam , ich hab keine Probleme mit BF2. Vieleicht liegt ein anderes Problem bei dir vor?
Frank1974
2005-09-02, 18:30:00
Damn
@RapidShare->Zu viele Benutzer laden grade Dateien runter. Bitte später nochmal versuchen :rolleyes:
svenska
2005-09-02, 18:32:06
Seltsam , ich hab keine Probleme mit BF2. Vieleicht liegt ein anderes Problem bei dir vor?
nö, dna 77.77 wieder installiert und es geht. 78.03 geinsted geht nicht, wieder zurück DNA geht. häääääää?
DjDino
2005-09-02, 18:32:10
bei mir funzt BF2 nicht mit den treibern und ich weis nicht wieso :(
Weil du vielleicht einer dieser 3 Punkte nicht beachtet hast ? : http://www.nvidia.de/docs/CP/4731/driver_installation_hints_de.html
Hab 0 Probleme mit dem 78.03+7800GTX, auch nicht mit BF2 (Demo).Das Flimmern scheint tatsächlich weniger geworden zu sein jedoch nicht komplett weg (wobei ´wohl schwer zu beurteilen, ist ja son subjektiver Eindruck)
Frank1974
2005-09-02, 18:32:12
Der Speed ist gleich geblieben gegenüber dem 77.77 , soweit ich das bisher beurteilen kann. Timedemos hab ich aber bisher nicht getestet.
Ich habe ein paar gute Timedemos von HL2,wenn du sie zum Testen haben möchtes kann ich sie dir schicken?
Gruss
Frank
BlackArchon
2005-09-02, 18:32:36
bei mir funzt BF2 nicht mit den treibern und ich weis nicht wieso. beim laden immer CTD, mit anderen treibern ist alles ok. hülfäää.... :(
Tja, da hat der Driver Cleaner wohl wieder einmal ein Windows zerstört. :)
Keine Probleme mit BF2 hier.
black-bird
2005-09-02, 18:33:02
BF2 hab ich auch schon ausprobiert - auch keinerlei Probs...
Performancemäßig würd ich sagen fast gleich zum 77.77 (3DMark05 77.77 = 8300 / 78.03 = 8219 / beides HQ)
DjDino
2005-09-02, 18:34:39
Tja, da hat der Driver Cleaner wohl wieder einmal ein Windows zerstört. :)
...da nicht im abgesicherten Modus ausgeführt.(oder da überhaupt ausgeführt :D)
misterh
2005-09-02, 18:34:49
Bei BF2 Demo mit 6600GT und diesen Treiber (4xAA/16xAF/Quality+Opt) ist diese Bug immer noch vorhanden.
Lade grade nämlich Video hoch. Wenn fertig ist, werde ich hier link bekannt geben.
The_Invisible
2005-09-02, 18:38:17
hast recht,wenn die r520 kommt is die 7800gtx reif für ebay
klar, weil man jetzt ja schon weiß welche BQ die zukünftigen ATI karten bieten werden :rolleyes:
mfg
misterh
2005-09-02, 18:39:55
klar, weil man jetzt ja schon weiß welche BQ die zukünftigen ATI karten bieten werden :rolleyes:
mfg
Jo, der ist ein Hellseher. :rolleyes:
(3DMark05 77.77 = 8300 / 78.03 = 8219 / beides HQ)interessant, das ist ziemlich genau die Differenz b.z.w. Verlust welcher sich bei gleichbleibenden Treiber mit HQ statt Quality ergibt ?
Frank1974
2005-09-02, 18:44:12
@Blaire
Hab mir jetzt auch das HL2 Video geladen,sieht mir immer noch Optimiert aus,zwar nicht wie vorher seitlich Pfeilartig,sondern anders,aber aufkeinen Fall so wie es sein müsste...
MFG
Frank
black-bird
2005-09-02, 18:46:58
interessant, das ist ziemlich genau die Differenz b.z.w. Verlust welcher sich bei gleichbleibenden Treiber mit HQ statt Quality ergibt ?
Is mir auch aufgefallen... klingt komisch iss aber so - vielleicht is es auch nur Zufall..
trollkopf
2005-09-02, 19:05:06
wenn ihr weniger flimmern wollt, ist die performance wahrscheinlich wieder auf 6800GT niveau.
Verdacht: Nvidia hat gar keine neue karte entwickelt , sondern einfach neue treiber ?
auch mal ne idee :biggrin:
Battlefield2 macht eigentlich immer nen Crash to Desktop wenn was mit der Bildwiederholrate nicht stimmt, sie im Spiel anders ist als im Windows.
Im Profil in der Video.con kann man manuell was einstellen dazu, oder per Treiber+Coolbits mal alle Bildwiederholfrequenzen (Refreshrates) einstellen.
Grestorn
2005-09-02, 19:12:01
Stimmt das eigentlich, dass Vsync mit einem SLI Gespann nicht funzt ??
VSync funktioniert nur mit SFR, nicht mit AFR
Frank1974
2005-09-02, 19:12:11
wenn ihr weniger flimmern wollt, ist die performance wahrscheinlich wieder auf 6800GT niveau.
Verdacht: Nvidia hat gar keine neue karte entwickelt , sondern einfach neue treiber ?
auch mal ne idee :biggrin:
HaHa,die Theoretische Rohleistung liegt deutlich über 6800Ultra oder GT,die Treiber sind noch nicht 100% ausgereift ,aber das ist bei allen neuen Karten so,es scheint als ob Nvidia die Treiber noch nicht 100% im Griff hat,aber das wird schon noch.
Gruss
Frank
doom1
2005-09-02, 19:18:15
event.sollten Sie zwei Treiber entwickeln 1x für SLI und 1x für ne Solo Karte wenn ich so an das Farcry prob denke....
ich bin es zufrieden wenn man vorher schon danach bei einigen Games an bestimmten Stellen suchen mußte seh ich jetzt garnix mehr,ich spiele aber auch uns suche nicht :wink:
Bei BF2 Demo mit 6600GT und diesen Treiber (4xAA/16xAF/Quality+Opt) ist diese Bug immer noch vorhanden.
Lade grade nämlich Video hoch. Wenn fertig ist, werde ich hier link bekannt geben.
schon klar ^^,
mach die Optimierungen aus und HQ,dann gibts kein Flimmern :D
Oder meinst du was anderes?
svenska
2005-09-02, 19:35:45
also bf2 läuft jetzt auch. habe die mipmap im rivatuner verstellt und abgespeichert. ich glaube der DNA treiber war schuld, denn bei dem lief alles. der hat bestimmt wieder irgendwo reingefuscht.
Majestic
2005-09-02, 20:08:30
Also wie es eurer Zwischen-Resumee? Ist die BQ jetzt wirklich auf einem Niveau was man akzeptieren kann?
svenska
2005-09-02, 20:08:52
testet mal nen paar andere games. bei bf2 siehts ja recht ordentlich aus, aber HL2 flimmert immernoch volle lotte.
svenska
2005-09-02, 20:18:30
Also wie es eurer Zwischen-Resumee? Ist die BQ jetzt wirklich auf einem Niveau was man akzeptieren kann?
is ok, aber in HL2 siehts kagge aus. der Q modues ist unter aller sau. voll kaputtoptimiert, den kannste vergessen. die haben da bestimmt nix gemacht.
Wen interessiert der Qualitätsmodus Q *g
HQ darum geht es, High Quality, vieleicht sollten sie einen "Highest Quality" Mode einführen QGTX...
svenska
2005-09-02, 20:40:07
Wen interessiert der Qualitätsmodus Q *g
HQ darum geht es, High Quality, vieleicht sollten sie einen "Highest Quality" Mode einführen QGTX...
nö, der Q modus bringt auch noch mal performance, je nach situation sogar recht viel. wenn die filterung etwas besser wäre, dann würde es selbst für mich als 78er besitzer gut sein, dann kan man mehr andere features dazuschalten.
black-bird
2005-09-02, 20:52:09
wurde ja gesagt dass nur der HQ-Modus verbesserungen bringt - ich hab noch Guild Wars, CSS und Juiced angezockt und finde das die BQ überall besser geworden ist (mal mehr mal weniger)
Das Spiel will ich sehen in dem die 7800GT nicht für HQ "langt", wenn man halt mit 100fps spielen muss, muss man auf der anderen seite halt abstriche machen aber das ist bei jedem Anbieter so *g
Btw sehe ich in Guild Wars mit meiner 7800GTX leider keinen Unterschied, spiele in 1280 und 8xS.
Mit 8xS wirste eh auch vorher kaum flimmern gehabt haben durch den SS-Anteil.
Winter[Raven]
2005-09-02, 21:40:58
Mit 8xS wirste eh auch vorher kaum flimmern gehabt haben durch den SS-Anteil.
Wenn es so wäre ... meine NV40 @ HQ @ 1280x1024 @ 16x AF + 8xS, Flimmert so derart stark, dass ich bald ne Loch in meinen Augen bekomme...! :mad:
Scheiß Nvidia...
BvB123
2005-09-02, 22:00:21
Das Glaubste doch selber nicht ;)
mindfaq
2005-09-02, 22:01:23
Da haste wohl irgendwas falsch konfiguriert oder du bist pervers empfindlich.
Anders kann ich mir das nicht erklären.
Frage: Flimmert eine ATI-Karte genauso ?
']Wenn es so wäre ... meine NV40 @ HQ @ 1280x1024 @ 16x AF + 8xS, Flimmert so derart stark, dass ich bald ne Loch in meinen Augen bekomme...! :mad:
Scheiß Nvidia...
Das hat wenig mit NV zu tun, schalt mal den Postfiltereffekt ab, dann gehts auch mit dem Flirren ;)
Winter[Raven]
2005-09-02, 23:09:48
Das Glaubste doch selber nicht ;)
Doch doch ... :|
Da haste wohl irgendwas falsch konfiguriert oder du bist pervers empfindlich.
Anders kann ich mir das nicht erklären.
Naja, das Flimmern tritt derzeit soweit ich auf meiner Ultra beurteilen kann, EXTREM im neuem GTA, EF II sieht man es etwas aber nicht SO stark...
Bei allen anderen Games ist alles in Ordnung ... egal welches ...
//EDIT:
WOW ... :( ... Flimmerkasten ...
Hab doch schon gesagt, dass das eher das Problem von GTA als von den nVIDIA Karten ist. Im Jahr 2005 keine Mipmaps zu benützen ist einfach behindert.
winter
2005-09-02, 23:58:28
']Doch doch ... :|
Naja, das Flimmern tritt derzeit soweit ich auf meiner Ultra beurteilen kann, EXTREM im neuem GTA, EF II sieht man es etwas aber nicht SO stark...
Bei allen anderen Games ist alles in Ordnung ... egal welches ...
//EDIT:
WOW ... :( ... Flimmerkasten ...
Habe es auch festgestellt. GTA SA flimmert egal mit welchem Setting übelst. Das wird allerdings am Spiel liegen, SSSE flimmert kein bisschen, und das is eigentlich immer ein guter indikator.
misterh
2005-09-03, 00:05:45
Lade grade nämlich Video hoch. Wenn fertig ist, werde ich hier link bekannt geben.
http://rapidshare.de/files/4647166/BF2_78.03.avi.html
derominöseGast
2005-09-03, 00:27:49
Habe es auch festgestellt. GTA SA flimmert egal mit welchem Setting übelst. Das wird allerdings am Spiel liegen, SSSE flimmert kein bisschen, und das is eigentlich immer ein guter indikator.
bei gta unbedingt treibersetting des AF auf anwendungsgesteuert stellen... ist auch dann nicht schön aber mit AF im treiber kriegt man echt gesundheitliche probleme...
mapel110
2005-09-03, 00:31:51
http://rapidshare.de/files/4647166/BF2_78.03.avi.html
wirklich gutes Video, da sieht man endlich mal was recht deutlich. Am besten wäre jetzt noch ein Video von einer ATI-Karte von der selben Stelle.
:usweet:
wirklich gutes Video, da sieht man endlich mal was recht deutlich. Am besten wäre jetzt noch ein Video von einer ATI-Karte von der selben Stelle.
:usweet:
Öhm ... wo ist da nun etwas besonderes? Das typische Quality-Artefakt im Extremfall. Auf einer 6600GT. Sollte nicht nur auf einem G70 etwas geändert werden?
In HQ dürfte das völlig ok aussehen.
MfG,
Raff
mapel110
2005-09-03, 00:47:59
Öhm ... wo ist da nun etwas besonderes? Das typische Quality-Artefakt im Extremfall. Auf einer 6600GT. Sollte nicht nur auf einem G70 etwas geändert werden?
In HQ dürfte das völlig ok aussehen.
MfG,
Raff
Das hab ich überlesen; dachte, das wäre vom G70 (und HQ). ;(
Dann dürfte das bei HQ wirklich Okay aussehen, der Rest interessiert mich nicht wirklich.
misterh
2005-09-03, 01:02:20
Das hab ich überlesen; dachte, das wäre vom G70 (und HQ). ;(
Dann dürfte das bei HQ wirklich Okay aussehen, der Rest interessiert mich nicht wirklich.
Morgen wird Video von mir geben mit G70. Kein Problem :biggrin:
P.S.: Bei HQ mit 6600GT könnte ich auch minimal erkennen. War nicht komplett weg.
Yop, glaube ich dir. Da gibt's noch paar Fälle. Wenn Bedarf besteht, kann ich mal ein Video von HL2 an einer Stelle machen, wo auch HQ auf einem NV40 flimmert. Man sieht fast noch die Übergänge wie mit Q -- Frechheit!
MfG,
Raff
svenska
2005-09-03, 01:44:15
Hab doch schon gesagt, dass das eher das Problem von GTA als von den nVIDIA Karten ist. Im Jahr 2005 keine Mipmaps zu benützen ist einfach behindert.
konsole lässt grüßen :|
Rrichtig. Aber NV4x und G7x würden ja auch Mipmaps for np2 texturen unterstützen, nur wird das bei GTA:SA auch nicht gemacht.
svenska
2005-09-03, 02:08:20
Rrichtig. Aber NV4x und G7x würden ja auch Mipmaps for np2 texturen unterstützen, nur wird das bei GTA:SA auch nicht gemacht.
tjo, das hatten sich schon so einige reviewer aufgeregt. zumal mimaps zu integrieren bzw. bei der umsetzung des games nicht viel aufwand beudeutet hätte. wäre nach meine auffassung eine leichtigkeit.
mindfaq
2005-09-03, 03:34:27
Hmm, im Optionsmenü kann man Mip-Mapping aber aktivieren.
Zeigt das keine Wirkung ?
Doch, aber nur auf power-of-2 texturen, was ziemlich wenige sind in dem Spiel.
Das ist jetzt überhaupt kein Benchmark, sondern nur eine Beobachtung:
Die Szene am Anfang von "A Red Letter Day", wo man an Maschendrahtzäunen entlang läuft, habe ich mir zweimal mit "Transparency Antialiasing" angeschaut. zuerst Multisampling, dann Supersampling.
Supersampling sieht *viel* besser aus, schon richtig angenehm.
Das Sys ist ein P-640 mit 7800GT, Treiber natürlich der 78.03.
Gespielt wurde unter echten Zock-Bedingungen, nämlich 1024x768, 4xAA, 8xAF, HQ, V-Sync on, 85Hz.
In beiden Fällen lagen die fps meist zwischen 75 und 80 (fraps), wenn der Blick auf die Züge kam, ging es auf 42 runter.
Also beim echten Zocken führte Supersampling nicht zu Geschwindigkeitseinbußen, aber die Qualitätsverbesserung gegenüber Multisampling ist erheblich.
svenska
2005-09-03, 05:18:04
Das ist jetzt überhaupt kein Benchmark, sondern nur eine Beobachtung:
Die Szene am Anfang von "A Red Letter Day", wo man an Maschendrahtzäunen entlang läuft, habe ich mir zweimal mit "Transparency Antialiasing" angeschaut. zuerst Multisampling, dann Supersampling.
Supersampling sieht *viel* besser aus, schon richtig angenehm.
Das Sys ist ein P-640 mit 7800GT, Treiber natürlich der 78.03.
Gespielt wurde unter echten Zock-Bedingungen, nämlich 1024x768, 4xAA, 8xAF, HQ, V-Sync on, 85Hz.
In beiden Fällen lagen die fps meist zwischen 75 und 80 (fraps), wenn der Blick auf die Züge kam, ging es auf 42 runter.
Also beim echten Zocken führte Supersampling nicht zu Geschwindigkeitseinbußen, aber die Qualitätsverbesserung gegenüber Multisampling ist erheblich.
naja kommt druff an, wenn in BF2 bsp. viel action ist, dann kannt in vollen details SS vergessen, weil die frame runtergehen und deine maus schwammig wird. brauch nur mal einer eine rauchgranate zu werfen und paar leute bissel ballern und schon haste nen üblen fps drop. daher für mich/bf2 -> MS.
Fetza
2005-09-03, 06:23:54
klar, weil man jetzt ja schon weiß welche BQ die zukünftigen ATI karten bieten werden :rolleyes:
mfg
schlechter als die alte wird sie mit sicherherheit nicht sein.
Gruss
Fetza
Razor
2005-09-03, 06:51:07
Ist zwar schon etwas her und aus dem anderen Thread... aber sei's drum.
Da das Grieseln nicht bei allen Spielen auftritt, und selbst bei den meisten "empfindlichen" Spielen auch nur in bestimmten Situationen, ist diese Aussage von Dir schlicht falsch.
Du besitzt keine G70, stimmts?Muss man etwas 'besitzen' (i.e. selber dafür das Geld aus dem Fenster geworfen haben ;-), um es ausprobieren zu 'dürfen'? Schon recht interessant, dieser Einwurf von Dir...
Sagen wir einfach, dass ich jederzeit eine oder auch zwei zum Testen haben kann... inkl. zugehörigem System auf Basis eines ASUS SLI Premium Baords. Und zuletzt habe ich mir den 77.77 auf dieser Basis angeschaut... nix gut.
Reicht das?
:confused:
Was willst Du jetzt damit sagen...Einfach den Post nochmal lesen, doom...
Du hast die die FPS-Vergleiche auf der verlinkten Forenseite aber mal angeguckt, oder?Ja... und Du hast meinen Post gelesen?
:confused:
Razor
Razor
2005-09-03, 06:58:16
mal schnell inst.zum Gamen hab ich keine Zeit im mom aber die BQ in 2D meine Herren allererster Sahne "gestochen scharfe Buchstaben (1600x1200)"hatte ich schon lange nicht mehr (nein auch mit meiner ATI nicht)wenn es in den Games genau so verbessert wurde........Das ist jetzt ein Witz, oder?
"Gestochen scharfe Buchstaben" (auch in 1600) hab' ich schon seit Ewigkeiten...
(ja, auch mit 'ner 6800 ;-)
Und es sieht saugut aus!!!!!!!!!! :tongue:Vielleicht 'ne neue Brille auf der Nase?
:biggrin:
Razor
Razor
2005-09-03, 07:06:07
AF im treiber auf anwendungsgesteuert und höchste details im spiel einstellen, was automatisch 16xAF aktiviert. dann gibt es in GTA SA mit dem NV40 kein flimmern mehr, außer bei AT-texturen und texturen ohne mips, was aber auch auf der radeon nicht anders sein kann.Laß ihn doch einfach... den crab.
Er ist halt der Meinung, hier keinerlei Beweise antreten zu müssen und redet offenbar nur um des Redens willen.
Hilfen nimmt er nicht an und andere Meinungen läßt er nicht gelten.
Offenbar geht es ihm einfach um einen privaten Feldzug gegen nVidia...
Ich lehne es mittlerer weile ab, auf ihn zu reagieren.
Razor
Razor
2005-09-03, 07:11:33
nö, dna 77.77 wieder installiert und es geht. 78.03 geinsted geht nicht, wieder zurück DNA geht. häääääää?"DNA" und "DriverCleaner", ja?
Du lernst es echt nicht...
:nono:
Razor
Razor
2005-09-03, 07:19:50
Also wie es eurer Zwischen-Resumee? Ist die BQ jetzt wirklich auf einem Niveau was man akzeptieren kann?Dazu habe ich bisher KEINE Aussage wahrnehmen dürfen!
Und mich interessiert hier eigentlich weniger das 'griseln'.
Hmmm...
Razor
Razor
2005-09-03, 07:20:03
Ich bin noch nicht sicher , ob ich mich darüber freuen oder ärgern soll. Vieleicht hab ich auch nur ein zu große Erwartungshaltung gehabt.Hast Du wirklich geglaubt, dass es nur ein "Bug" in den Treibern war?
Ist jetzt nicht Dein ernst, oder?
:confused:
Da ich vor meinem Urlaub (beginnt heut' nacht ;-) ganz sicher nicht dazu komme, das selber zu testen: kann man hier nicht mal ein paar Bildvergleiche solch "vorher mächtig flimmernd und jetzt nur noch schwach" Scenen machen? Würde mich echt mal interessieren, ob nur das "Griseln" weniger geworden ist, oder...
Wär echt nett.
Razor
Razor
2005-09-03, 07:21:02
NFSU2 schmiert immernoch ab. Also sowas armes. Derzeit hat ATI doch wieder Chancen bei mir.Schmeiß das zugehörige Profil einfach raus...
Ist ein Konflik zwischen SLI- und nichtSLI-Hardware und kann eigentlich gar nicht aufgleöst werden.
Wenn schon müsstest Du dsagen:
Noch immer keine Wahloption für SLI-Profile!
:D
Razor
P.S.: war jetzt erst mal der letzte Post... jetzt... und in diesem Thread... ;)
doom1
2005-09-03, 07:57:53
höhö wo ist meine Ironie???
doom1
2005-09-03, 08:00:00
Hast Du wirklich geglaubt, dass es nur ein "Bug" in den Treibern war?
Ist jetzt nicht Dein ernst, oder?
:confused:
Da ich vor meinem Urlaub (beginnt heut' nacht ;-) ganz sicher nicht dazu komme, das selber zu testen: kann man hier nicht mal ein paar Bildvergleiche solch "vorher mächtig flimmernd und jetzt nur noch schwach" Scenen machen? Würde mich echt mal interessieren, ob nur das "Griseln" weniger geworden ist, oder...
Wär echt nett.
Razor
Hör auf und mach die Pferde nicht scheu!!!!!
Ist kein Hardwarefehler sonst würde es mit den älteren Treibern nicht gehen..
oder meinst Du noch mehr optimierungen???
Schlingel!
Kauft Euch SLI und alle probs sind wech... :tongue:
Vorsicht "Ironie"
Manche stellen sich echt doof an, türlich wirds langsamer wenn man "mehr" filtert als vorher, sonst hätte mans ja gleich von anfang an so eingestellt das es gut ausschaut und schnell ist...
Aber gute Filterung verlangt nunmal nach Füllrate und drückt damit die Benchmarkbalken, scheinen aber nur wenige hier zu erkennen.
Der neue Treiber zeigt zumindest das man an den "Problem" arbeitet, und das man auf die Community mal hört!
Ich nenne es einfach generell "Problem" da alle anderen näheren Überlegungen REINE Spekulation sind. Bei einem so programmierbaren Texturefilter (wie die Experten meinen) kann man sicher vieles anstellen...
naja kommt druff an, wenn in BF2 bsp. viel action ist, dann kannt in vollen details SS vergessen, weil die frame runtergehen und deine maus schwammig wird. brauch nur mal einer eine rauchgranate zu werfen und paar leute bissel ballern und schon haste nen üblen fps drop. daher für mich/bf2 -> MS.
Zur Darstellung einer Rauchgranate wird "Transparency Antialiasing" genutzt?
http://www.3dcenter.org/artikel/g70_theoretische_benchmarks/index7.phpWie der Name dieser speziellen Anti-Aliasing Art es schon sagt, trifft dies auf die Verwendung transparenter Texturen zu. Diese werden gern bei Geländern, Leitern, Zäunen, Treppen oder ähnlichem eingesetzt. Beispielsweise ein Geländer wird in der Regel nicht vollständig ausmodelliert (was einen immensen Geometrie-Aufwand ergeben würde), sondern besteht normalerweise aus einer Textur mit der simplen Abbildung des Geländers. An den leeren Stellen, wo das Geländer also durchsichtig ist, wird die Textur dann als transparent definiert, womit ein Geländer letztlich mit doch recht einfachen Rechenaufwand erstellbar ist.
CompEx
2005-09-03, 10:31:33
Ich hatte mal 30 Spiele getestet und Q mit HQ verglichen. Dabei war der Geschwindigkeitsverlust bei WoW am größten. Deshalb hab ich jetzt mal WoW zum vergleichen genommen, 1600x1200 4xAA/8xAF kein TRAA.
WoW
77.77: 54 FPS
78.03: 50 FPS
Schon etwas mehr als die von nVidia erwähnten 2-4%. Aber für die Verbesserung der BQ ist das voll ok, finde ich. Und: Wann hatten wir zuletzt einen Treiber, der die BQ auf Kosten der FPS erhöht (normalerweise doch eher umgekehrt)? ALso ich bin sehr zufrieden!
misterh
2005-09-03, 11:03:07
so 7800GT ist angekommen vor kurzem.
Teste gleich bei BF2 mit 4xAA/16xAF mit HQ. Nehme vielleicht Video auf.
doom1
2005-09-03, 11:33:46
Was habt Ihr nur andauernd mit eurem 16xAF :confused:
Was habt Ihr nur andauernd mit eurem 16xAF :confused:
Stimmt, in Wahrheit ist's nur 2-4x mit vereinzelten 8x und 16x-Flächen. X-D
Ernst beiseite: Mit 16xAF sieht man am meisten, da dort ja vorwiegend die Optimierungen greifen.
MfG,
Raff
Laß ihn doch einfach... den crab.
Er ist halt der Meinung, hier keinerlei Beweise antreten zu müssen und redet offenbar nur um des Redens willen.
Hilfen nimmt er nicht an und andere Meinungen läßt er nicht gelten.
Offenbar geht es ihm einfach um einen privaten Feldzug gegen nVidia...
Ich lehne es mittlerer weile ab, auf ihn zu reagieren.
Razor
Beweise gibt es genügend und auch wenn Coda und du sagen es liegt an den Texturen des Spiels ist das ja alles schön und gut aber Fakt ist auch bei diesen Texturen flimmert eine x800 so minimal, dass ich ne Lupe benötige um es zu entdecken. Das mag was heissen bei meiner Empfindlichkeit was das Flimmern anbelangt !
Hilfen habe ich übrigens alle ausprobiert, jedoch konnte ich bis heute (also ein Jahr später) das Flimmern nicht vollständig beseitigen. Ja HQ schaut ziemlich gut aus mal abgesehen von AT Texturen aber es verbindet gute Qualität nur mit starken Leistungseinbrüchen. Eine X800 hingegen kann beides bieten, eine gute Quali mit guter Leistung.
Ich möchte hier nicht in den Feldzug ziehen gegen nVidia und auch nicht für ATi sprechen, aber wenn ich mich nochmal ein Jahr zurück katapultieren könnte, würde ich mich mit Sicherheit diesmal für eine x800xtpe entscheiden.
Nur wer den Unterschied gesehen hat, kann dies beurteilen. Und auch Aths hat dies in seinem Artikel getan.
Ausschnitt aus dem Fazit:
ATI zeigt mit der Radeon X800, dass es selbst bei aktivierten "Optimierungen" (sprich: Qualitätsverschlechterungen) nicht gleich flimmern muss.
Ich bin damals von ner 9700pro auf die 68er gewechselt und als ich mit dieser das erste mal Dark Age of Camelot spielte, bin ich aus allen Wolken gefallen als mir das Flimmern die Augen verbrannte. Und egal in welchen Spiel kann ich es reproduzieren nur DooM³ scheint davon ausgeschlossen.
Wie auch immer ich möchte mich nicht mit dir streiten. Jeder Mensch ist ein Individum für sich und fasst nunmal gewisse Dinge anders auf als andere. Die Frage ist ob das der andere aktzeptieren kann oder möchte....
misterh
2005-09-03, 13:24:49
Lade grade Video hoch zu Battlefield 2 Demo und 7800GT
mit 4xAA 16xAF + HighQuality
Franky-Boy
2005-09-03, 13:31:46
Ernst beiseite: Mit 16xAF sieht man am meisten, da dort ja vorwiegend die Optimierungen greifen.
Wie groß ist eigentlich der optische Unterschied zwischen 8XAF und 16xAF? Markant, spürbar oder vernachlässigbar?
Ciao Frank
misterh
2005-09-03, 13:33:47
Es ist soweit
Download hier : http://rapidshare.de/files/4675259/78.03_7800GT.rar.html
HOMBRE2005
2005-09-03, 14:44:49
Es ist soweit
Download hier : http://rapidshare.de/files/4675259/78.03_7800GT.rar.html
geht nicht
Majestic
2005-09-03, 14:48:38
geht nicht
und der http://dl4.rapidshare.de/files/4675259/75663896/78.03_7800GT.rar ? (Ging bei mir eben noch...)
Edit: Geht auch nicht mehr.... (ist das so ne Art Sessionlink?) Komisch...
misterh
2005-09-03, 14:55:34
KA was da los ist. :frown:
desperado2000
2005-09-03, 15:02:47
Such nen FTP oder mal torrent draus
collapse
2005-09-03, 15:04:48
bei mir gehter glaubich 20 seks dan sag ichs euch = ):P
timer läuft runter aber der startet nich den download :/ mal guckne wei lang es dauert
edit:// rapidshare hat glaubich probs = )
Beweise gibt es genügend und auch wenn Coda und du sagen es liegt an den Texturen des Spiels ist das ja alles schön und gut aber Fakt ist auch bei diesen Texturen flimmert eine x800 so minimal, dass ich ne Lupe benötige um es zu entdecken. Das mag was heissen bei meiner Empfindlichkeit was das Flimmern anbelangt !Es wird auf diese Flächen in GTA:SA gar kein AF appliziert, wodurch es ohne Mipmaps eben flimmert.
Das ist auch ein Problem von NV40, dass er ohne Mipmaps kein AF kann, aber das hat jetzt nichts mit der eigentlichen Flimmerproblematik von G70 zu tun.
Mr.Magic
2005-09-03, 15:26:55
Wie groß ist eigentlich der optische Unterschied zwischen 8XAF und 16xAF? Markant, spürbar oder vernachlässigbar?
Ciao Frank
Da kaum Bereiche 16xAF abbekommen ist der optische Mehrwert relativ gering. Szenen bei denen der Unterschied mit bloßem Auge (sofort) auffällt sind eher selten. Dafür ist aber auch die Geschwindigkeit fast mit 8xAF identisch.
Bei 4xAF sieht es bei einigen Spielen, und/oder in bestimmten Szenen, deutlich schlechter aus.
Wobei ich zugegebenermaßen nicht unbedingt der Geeignetste bin dies zu beurteilen, in 90% der Fälle ist bei mir Supersampling aktiv.
svenska
2005-09-03, 15:28:41
"DNA" und "DriverCleaner", ja?
Du lernst es echt nicht...
:nono:
Razor
das war doch nur aus der not heraus. :redface: :tongue:
svenska
2005-09-03, 15:33:32
Zur Darstellung einer Rauchgranate wird "Transparency Antialiasing" genutzt?
http://www.3dcenter.org/artikel/g70_theoretische_benchmarks/index7.php
wenn TA mit SS arbeitet gehen die FPS auf jeden fall zurück, bei rauch ist es fast egal ob MS oder SS, drückt immer die performance runter. ich bin kein techniker, ich vermute bzw. hatte das gefühl, dass es mit SS noch bissel heftiger war.
KA was da los ist. :frown:
Hm, ich konnte es laden, kurz nachdem Du es hochgeladen hast. Aber die Datei war ein korruptes Schwein (CRC-Error) ... X-D
MfG.
Raff
Ernst beiseite: Mit 16xAF sieht man am meisten, da dort ja vorwiegend die Optimierungen greifen.
nicht wirklich. die Q-optimierungen auf dem NV40 flimmern bei 2xAF genauso stark wie bei 16x (zumindest bei mir)
wenn TA mit SS arbeitet gehen die FPS auf jeden fall zurück, bei rauch ist es fast egal ob MS oder SS, drückt immer die performance runter. ich bin kein techniker, ich vermute bzw. hatte das gefühl, dass es mit SS noch bissel heftiger war.
rauch wird normalerweise mit alpha-blendig realisiert, was ne menge bandbreite verbraucht und damit auch einen haufen performance kostet. TAA ist bei alpha-blending allerdings nicht aktiv und sollte deshalb keinen einfluss darauf haben.
svenska
2005-09-03, 15:58:25
rauch wird normalerweise mit alpha-blendig realisiert, was ne menge bandbreite verbraucht und damit auch einen haufen performance kostet. TAA ist bei alpha-blending allerdings nicht aktiv und sollte deshalb keinen einfluss darauf haben.
TAA ist doch genau für alpha texturen.
TAA ist doch genau für alpha texturen.
AFAIK nur für Alpha-Testing und nicht Blending. Denn ersteres wird von MSAA nicht erfasst.
Oder verschwendet TAA Ressourcen, indem auch Blending geglättet wird?
MfG,
Raff
GGf. ist das auch ein Battlefield- oder Treiber-Bug. Ich habe selbst mit SLI (GTX7800) bei TSAA merklich spürbare Einbrüche in BF2 (egal ob unter Q oder HQ). Bei HL2, F.E.A.R. und Doom3 bemerkt davon so gut wie gar nichts (mehr ist momentan nicht auf der Platte). Zuerst dachte ich, dass sei ein Problem mit Dualcore, dem ist aber nicht so.
misterh
2005-09-03, 16:23:56
hier neuer versucht mit neue video
http://rapidshare.de/files/4680210/78.03_BF2_7800GT.avi.html
TAA ist doch genau für alpha texturen.
aber nicht für alpha-blending.
TAA ist nur für alpha-testing aktiv.
hier neuer versucht mit neue video
http://rapidshare.de/files/4680210/78.03_BF2_7800GT.avi.html
Thx. :)
Ist doch "wunderbar". Schaut aus wie NV40-HQ. Minimales Flimmern/Grieseln eben -- lässt sich prima mit etwas OGSS killen.
MfG,
Raff
wenn TA mit SS arbeitet gehen die FPS auf jeden fall zurück, bei rauch ist es fast egal ob MS oder SS, drückt immer die performance runter. ich bin kein techniker, ich vermute bzw. hatte das gefühl, dass es mit SS noch bissel heftiger war.
In dem 3dc-Test kostet die Aktivierung von TA bei FC 40, bei HL aber nur 3 Prozent Geschwindigkeit.
Wie BF auf TA reagiert weiß ich nicht.
Möglicherweise haben die fps-Einbrüche gar nichts mit TA zu tun, denn Rauch kann schon an sich ziemlich die Geschwindigkeit drosseln, siehe AM.
Jinie
2005-09-03, 18:55:36
hier neuer versucht mit neue video
http://rapidshare.de/files/4680210/78.03_BF2_7800GT.avi.html
Hmm also bei mir geht das Video nicht. Habs schon auf 2 PC's probiert. Höre zwar Ton aber habe kein Bild? Welcher Codec wird dafür denn benötigt?
MfG
Blaze
2005-09-03, 18:58:02
Hmm also bei mir geht das Video nicht. Habs schon auf 2 PC's probiert. Höre zwar Ton aber habe kein Bild? Welcher Codec wird dafür denn benötigt?
MfG
same here :/
Nichmal VLC zeigt was an ;(
Ich hab' DivX 6.0 samt Media Player 10 -- klappt wunderbar.
MfG,
Raff
HOMBRE2005
2005-09-03, 19:35:35
Mal Klartext......ist die 7800GTX nun eine Kaufempfehlung Wert oder nicht, oder ist die Bildqualität wirklich so schlecht, das man damit nicht Leben kann!
Frage deshalb weil ich meine 6800GT vor 2 Wochen Verkauft habe, um mir eben ne 7800GTX zu hohlen, dann aber zwischenzeitlich das mit dem Texturflimmern gelesen habe, und ich erst mal abwarten wollte, was der neue Treiber bewirkt.
Auf ATI zu warten habe ich glaube ich keinen Bock mehr, da der Release langsam nicht mehr absehbar ist, und dann erst die Verfügbarkeit........doch alles mist......
Was tun leute?
Mal Klartext......ist die 7800GTX nun eine Kaufempfehlung Wert oder nicht, oder ist die Bildqualität wirklich so schlecht, das man damit nicht Leben kann!Ich hab absolut keine Probleme damit.
Das schlimmste war immer das Flimmern in UT2004 selbst auf HQ auf meiner 6800. Da wurde wohl einfach immer nur Quality benützt.
Auf der 7800 fand ich HQ auch schon vor dem flimmer-fix ertragbar (ich muss dazu sagen, dass ich nen TFT hab, der das ganze durch die leicht bewegungsunschärfe wohl etwas verschleiert). Jetzt ist es nun wirklich nicht mehr schlechter als auf der 6800.
Dass ATi eine bessere BQ als nVIDIA mit HQ hat, halte ich übrigens für ein Gerücht. Das hab ich schon mehrmals gegengecheckt mit Kumpels.
Dass ATi eine bessere BQ als nVIDIA mit HQ hat, halte ich übrigens für ein Gerücht. Das hab ich schon mehrmals gegengecheckt mit Kumpels.
Nein, das stimmt schon. Allerdings sollte man dazu sagen, dass nVIDIAs HQ nur in seltenen Beispielen den Kürzeren zieht. Da wären z.B. WoW und HL2, welche beide mehr flimmern als z.B. auf einem R350. Der Großteil ist aber BQ-technisch ebenbürtig.
MfG,
Raff
(del)
2005-09-03, 19:57:05
Vieles davon ist doch reiner Anti-NV-Hype. Z.B. ist die GeForce 6 in HQ absolut mit jeder Radeon vergleichbar und jetzt wohl auch die 7.
:|
Blaire
2005-09-03, 19:59:49
same here :/
Nichmal VLC zeigt was an ;(
Fraps muss installiert sein!
The_Invisible
2005-09-03, 20:03:40
Nein, das stimmt schon. Allerdings sollte man dazu sagen, dass nVIDIAs HQ nur in seltenen Beispielen den Kürzeren zieht. Da wären z.B. WoW und HL2, welche beide mehr flimmern als z.B. auf einem R350. Der Großteil ist aber BQ-technisch ebenbürtig.
MfG,
Raff
was hat das mit einem R350 zu tun???
dann kann man gleich nen NV25 auch dazunehmen wo sowieso kein kraut gewachsen ist...
mfg
Franky-Boy
2005-09-03, 20:05:11
Dass ATi eine bessere BQ als nVIDIA mit HQ hat, halte ich übrigens für ein Gerücht. Das hab ich schon mehrmals gegengecheckt mit Kumpels.
Das ist korrekt. Ich bin vor kurzem von einer Radeon X800XT auf eine GeForce 7800GTX umgestiegen (Garantietausch sei dank). Im HQ Modus (4xAA, 8XAF) ist die BQ der 7800GTX dank "Super-Sampling Transparency AA" sogar noch minimal besser. So ist zumindest mein subjektiver Eindruck.
Ciao Frank
(del)
2005-09-03, 20:16:30
Nein, das stimmt schon. Allerdings sollte man dazu sagen, dass nVIDIAs HQ nur in seltenen Beispielen den Kürzeren zieht. Da wären z.B. WoW und HL2, welche beide mehr flimmern als z.B. auf einem R350. Der Großteil ist aber BQ-technisch ebenbürtig
Das ist imho auch garnicht das Prob, sondern daß Spiele vom Treiber erkannt werden und egal was man einstellt, getweakt wird. DAS ist doch der 'Obermist' dabei. Ich glaub das haben wir schonmal bequatscht...
Paar Fragen zu dem Treiber:
1. Wieviel % läßt der G70 nun mit echtem HQ federn
2. Wird bei NVidias "Top10" der Spiele immernoch am User/Tester vorbei getweakt?
3. Wie gut (Leistung/Quali/Tweaks/Bugs) läuft der Treiber mit NV40 und NV30.
Ich glaub man sollte den nächsten G70-trueHQ-Forceware :mad: mit WHQL abwarten und sich das dann annehmen. Alles andere ist Pipifax. NV muß es doch mal einen WHQL-Treiber auf die Reihe der mit allen unterstützen Chips bestmöglich läuft und weder den Tester noch den User bescheißt. Von was für AntiNV-Hype wird hier gequaselt?? Das kommt doch nicht von ungefähr oder? Hand aufs Hirn :frown: Und sobald es den R5x0 gibt, gibt es wieder einen Krisel-Treiber um den Abstand zu halten? Ja ne, AntiNV-hype :nono:
Was interessiert mich WHQL? Das ist völlig unbedeutend.
LordDeath
2005-09-03, 20:36:01
bringt es mir was vom 77.77 auf diesen treiber umzusteigen, wenn ich auf meiner 6800le eh af mit optimierungen benutzte?
Nein, dann ist dir eh nicht zu helfen :D
Im Ernst: Die Änderungen betreffen wohl nur die GeForce 7.
LordDeath
2005-09-03, 20:39:54
was ist? ich finde flimmern eh irgendwie sexy *g*
Das ist imho auch garnicht das Prob, sondern daß Spiele vom Treiber erkannt werden und egal was man einstellt, getweakt wird. DAS ist doch der 'Obermist' dabei. Ich glaub das haben wir schonmal bequatscht...
Das ist aber nunmal Praxis in diesem Business, das macht jeder und das seit Jahren!
Die Filtermethoden sind klar mist, aber Shaderreplacement und so Spielchen finde ich nicht schlimm, man sollte ja keinen Unterschied sehen, dann ists auch ok.
Ich denke nicht das man Shader soweit abspecken kann wie es momentan mit AF/Trilinearer Filterung gemacht wird.
Nein, das stimmt schon. Allerdings sollte man dazu sagen, dass nVIDIAs HQ nur in seltenen Beispielen den Kürzeren zieht. Da wären z.B. WoW und HL2, welche beide mehr flimmern als z.B. auf einem R350. Der Großteil ist aber BQ-technisch ebenbürtig.
dafür ist die ATI in allen anderen spielen merklich unschärfer (wie man auch auf den 3DC-videos sieht)
1. Wieviel % läßt der G70 nun mit echtem HQ federn
2. Wird bei NVidias "Top10" der Spiele immernoch am User/Tester vorbei getweakt?
3. Wie gut (Leistung/Quali/Tweaks/Bugs) läuft der Treiber mit NV40 und NV30.
1. kann ich nicht nachprüfen, aber laut einigen usern kaum geringere leistung (~2%)
2. weiß ich nicht
3. der treiber läuft auf dem NV40 wunderbar, unterschiede zum 77.77 liegen nur im bereich der messungenauigkeit, auch die qualität ist soweit ich es sehe die selbe.
(del)
2005-09-03, 21:00:23
Was interessiert mich WHQL? Das ist völlig unbedeutend.
Ich glaub nicht, daß 3DC selbst zum Testen irgendeine durchgesickerte dahergelaufene Beta nehmen sollte. wo sind wir denn hier? ;) Was Dich WHQL interessiert oder nicht stand soweit auch nicht zur Debatte.
was hat das mit einem R350 zu tun???
Dass dieser die aktuelle ATi-Qualität widerspiegelt?
dann kann man gleich nen NV25 auch dazunehmen wo sowieso kein kraut gewachsen ist...
mfg
Nein, ein ganz anderes Niveau, nicht nur in Sachen Qualität ...
MfG,
Raff
(del)
2005-09-03, 21:18:41
Das ist aber nunmal Praxis in diesem Business, das macht jeder und das seit Jahren!
Dann stellt sich NV dabei aber blöde an (UT2004). Mit der Story mit G70 schonmal oberblöde. Für +2% (?) so ein Dreck zu liefern ist echt ein Witz. An sich das einzig gute an der Verspätung des R5x0. Alle habe den G70 in Ruhe bis ins kleinste Detail auseinandergenommen :)
Die Filtermethoden sind klar mist, aber Shaderreplacement und so Spielchen finde ich nicht schlimm, man sollte ja keinen Unterschied sehen, dann ists auch ok
Ja, ich hoffe auch, daß ab 78.xx NV an ATI anschliesst...
Dann stellt sich NV dabei aber blöde an (UT2004). Mit der Story mit G70 schonmal oberblöde. Für +2% (?) so ein Dreck zu liefern ist echt ein Witz. [...]
Meinst Du damit nun aTweaks, die immer an sind, im Allgemeinen oder jetzt den Spaß mit dem extremen Grieseln?
Denn gerade in UT2004 steckt ein derart fetter Haufen an nicht deaktivierbaren Optimierungen für alle GeForces, die weit mehr als 2% bringen ...
MfG,
Raff
Ich glaub nicht, daß 3DC selbst zum Testen irgendeine durchgesickerte dahergelaufene Beta nehmen sollte. wo sind wir denn hier? ;) Was Dich WHQL interessiert oder nicht stand soweit auch nicht zur Debatte.Ein offizieller Treiber von nVIDIA muss noch lang kein WHQL haben. Übrigends gibt's 78.03 direkt vom nVIDIA FTP, er ist aber wirklich noch Beta.
Dass dieser die aktuelle ATi-Qualität widerspiegelt?Naja, nicht ganz. Brilinear ahoi.
Denn gerade in UT2004 steckt ein derart fetter Haufen an nicht deaktivierbaren Optimierungen für alle GeForces, die weit mehr als 2% bringen ...Zumindest das perverse flimmern wurde abgestellt in irgendeinem 70er Forceware.
Es ist wirklich nicht alles Gold was glänzt mit den nVIDIA-Treibern zur Zeit, aber etwas Objektivität sollte man bewahren.
Naja, nicht ganz. Brilinear ahoi.
Guter Punkt. Gibt's Vergleiche mit aktuellen Treibern?
Zumindest das perverse flimmern wurde abgestellt in irgendeinem 70er Forceware.
Nun gut, ich meinte eher den radikalen Geschwindigkeitssprung. Zwischen 60.72 und 77.77 liegen in UT2004 etwa 300% ...
Es ist wirklich nicht alles Gold was glänzt mit den nVIDIA-Treibern zur Zeit, aber etwas Objektivität sollte man bewahren.
Natürlich. Man sollte auch hinzu sagen, dass die Optimierungen abseits von Quality und Clamp absolut unsichtbar sind. Extreme fps-Sprünge kostenlos. Das gilt es zu loben.
MfG,
Raff
Guter Punkt. Gibt's Vergleiche mit aktuellen Treibern?kA. Das R420 etwas schlechter filtert als R300 sollte aber wohl so sein.
Zwischen 60.72 und 77.77 liegen in UT2004 etwa 300% ...Ist das nicht etwas übertrieben? :|
Ist das nicht etwas übertrieben? :|
Kein Stück. Das ist selbst getestet. 1600x1200 mit 16xQuality-AF in der Primeval-Timedemo:
FW 60.72 => 14,4 fps
FW 77.72 => 38,7 fps
Wobei zu sagen gilt, dass bei letzterem schon teilweise das CPU-Limit griff und der 60.72 noch über keine AF-Optimierungen im Treiberpanel verfügt.
€dit: Ich sollte vielleicht schlafen gehen. Ich und meine Prozente. Habe ich da was verdreht? Ich nehme doch lieber 200, aber 3x so schnell bleibt's. X-D
MfG,
Raff
doom1
2005-09-03, 21:41:38
Thx. :)
Ist doch "wunderbar". Schaut aus wie NV40-HQ. Minimales Flimmern/Grieseln eben -- lässt sich prima mit etwas OGSS killen.
MfG,
Raff
tztz immer diese Fremdwörter "OGSS" ;)
tztz immer diese Fremdwörter "OGSS" ;)
Ordered Grid Super-Sampling. ;)
MfG,
Raff
doom1
2005-09-03, 21:49:00
Ach das meinste :rolleyes: ich dachte Lod.....dumdidum
mapel110
2005-09-03, 21:53:21
FW 60.72 => 14,4 fps
FW 77.72 => 38,7 fps
Hast du den 61.77 auch mal gebencht?
btw könnte mir auch vorstellen, dass der 60.72 deine Karte normalwerweise gar nicht kennt. hast doch 12 Piper drin?!
(del)
2005-09-03, 21:55:46
Meinst Du damit nun aTweaks, die immer an sind, im Allgemeinen oder jetzt den Spaß mit dem extremen Grieseln?
Sowohl als auch wie auch immer :mad: Es kann echt nicht sein, daß ICH nicht bestimmen kann was und wann getweakt wird. Ich installier einen 76er und hab etliche Spieleprofile dadrin. Super. Ich aktiviere keins davon und was passiert? Eben. Was ist die Steigerung von Verarsche?
Denn gerade in UT2004 steckt ein derart fetter Haufen an nicht deaktivierbaren Optimierungen für alle GeForces, die weit mehr als 2% bringen ...
Solange ich da nichts sehe ist es ok. Für mich. Die Quali war beim UT2004 aber wirklich abgrundtief beschiessen. Wie Coda schon anmerkte. Ich hab einfach keinen Bock mehr auf sowas.
Das mit G70 war doch schon wirklich nur, wie gesagt, DRECK. Eine Karte dermassen lange mit so einem Treiber auszuliefern ist wie ins Gesicht gerotzt. Und dann noch das Gelabber zu den Einstellungen vonwegen Quali wie bei ATI, auf welches fast alle Reviewer reinfielen. DRECK. Eine Karte für "par Stunden" zum Review zu kriegen, DRECK. Auch von ATI diesbezüglich. Keine Frage. Ihr soltet sowas nicht mit euch machen lassen. Da hat Tom schon recht gehabt. Auch wenn man ihn dafür schwer angemacht hat und er weiß Gott keine weiße Weste hat. Ich gebe ihm in diesem Punkt mal ausnahmsweise Recht. Ich hoffe die Szene hat aus diesem Theater um den G70 jetzt wirklich was dazugelernt! Egal ob die Karte jetzt von ATI oder NV kommt. Das nächste was dran sein sollte sind die verkackten Optimierungen.
Ich hab sowas von kein Bock mehr 300 Öhre und mehr für eine Steckkarte zu blechen und mich wochen- oder monatelang (!) nur mit DRECK abzugeben, das glaubt ihr nicht ;(
Hast du den 61.77 auch mal gebencht?
btw könnte mir auch vorstellen, dass der 60.72 deine Karte normalwerweise gar nicht kennt. hast doch 12 Piper drin?!
Stimmt, eine 6800 wird nicht erkannt, steht nichts in der INF. Beim 60.60 war's so schlimm, dass man sie nur als "NV40" installieren konnte, aber fast nichts ging. Der 72er rennt wunderbar, würde ich daher nicht als Problemfaktor sehen.
Mit dem 61.76 schauen die Zahlen etwas besser aus, an meiner Kernaussage ("es liegen Welten dazwischen"), ändert sich aber nicht viel:
FW 61.76 => 18,2 fps
FW 77.72 => 38,7 fps
Das CPU-Limit beim 77.72 sieht man hier leider nicht ...
MfG,
Raff
jacky
2005-09-03, 22:53:16
Bringt der Treiber was auf ner 6800GT? Ist die Performance da in HQ auch besser?
Oder bezieht sich das nur auf 7800er Serie?
svenska
2005-09-03, 23:07:28
Bringt der Treiber was auf ner 6800GT? Ist die Performance da in HQ auch besser?
Oder bezieht sich das nur auf 7800er Serie?
ausschließlich dem G70.
BadFred
2005-09-03, 23:42:21
ausschließlich dem G70.
Wann wird denn endlich auch die NV40-Serie durchweg flimmerfrei? :(
hmmm...eigentlich ist das doch so dass die Optimierungen rausgenommen werden (in diesem Fall NV40) wenn eine neue "Generation" vorgestellt wird(in diesem Fall G70) um den Abstand zur alten Generation zu erhöhen.
Wann wird denn endlich auch die NV40-Serie durchweg flimmerfrei? :(Nennt sich HQ + Clamp. Der Rest flimmert auch auf ATi, außer es ist dass bekannte no-AF-ohne-Mipmaps-Problem.
robbitop
2005-09-04, 10:32:36
Ich hab absolut keine Probleme damit.
Das schlimmste war immer das Flimmern in UT2004 selbst auf HQ auf meiner 6800. Da wurde wohl einfach immer nur Quality benützt.
Auf der 7800 fand ich HQ auch schon vor dem flimmer-fix ertragbar (ich muss dazu sagen, dass ich nen TFT hab, der das ganze durch die leicht bewegungsunschärfe wohl etwas verschleiert). Jetzt ist es nun wirklich nicht mehr schlechter als auf der 6800.
Dass ATi eine bessere BQ als nVIDIA mit HQ hat, halte ich übrigens für ein Gerücht. Das hab ich schon mehrmals gegengecheckt mit Kumpels.
Dafür, dass HQ so schweineteuer ist, ist das aber schon ein ziemliches Armutszeugnis IMO. Q kostet ca soviel wie ATI's TOP AF (AFAIK) und erst das teure HQ kommt da ran...
DjDino
2005-09-04, 11:03:00
http://www.hardwareoc.at/Geforce-7-Treibervergleich.htm
BadFred
2005-09-04, 12:24:50
Nennt sich HQ + Clamp. Der Rest flimmert auch auf ATi, außer es ist dass bekannte no-AF-ohne-Mipmaps-Problem.
Stimmt nicht: Mafia, GTR und RBR flimmerten früher auf der 9800Pro gar nicht.
http://www.nvnews.net/vbulletin/showthread.php?t=55812
Schaut mal unter "Update" die beiden Videos zu WoW an, die zeigen es wohl am allerbesten das es sich zum guten verändert hat.
So schauts auch auf ner X800 aus, wird halt nur peinlich wenn die selbe stelle mit ner FX5900 oder gar mit ner GF4 mal aufgezeichnet würde *g
Dafür, dass HQ so schweineteuer ist, ist das aber schon ein ziemliches Armutszeugnis IMO. Q kostet ca soviel wie ATI's TOP AF (AFAIK) und erst das teure HQ kommt da ran...
HQ ist eigentlich nicht "Schweineteuer" auf ner GTX, hab leider kein UT2004 um die beiden Treiber gegenzubenchen, aber in WoW wie Guildwars seh ich kaum einen FPS Unterschied zwischen HQ und Q.
http://www.hardwareoc.at/Geforce-7-Treibervergleich.htm
Nonsens, wie kann man default gegen HQ benchen wenn man die Auflösung verändert und AA+AF aktiviert...
1280er Auflösung 16xAF , im Treiber einmal Quality und dann HighQuality gebencht, ohne AA versteht sich.
Dann den neuen 78.03 drauf machen und das selbe nochmal, anders kommt man nicht zu einem gescheiten nachvollziehbaren Ergebnis.
reunion
2005-09-04, 12:53:33
kA. Das R420 etwas schlechter filtert als R300 sollte aber wohl so sein.
Ohne den bri-Texturfilter aka A.I. müsste die Qualität identisch sein.
Und durch diesen konnte noch niemand eine BQ-beeinträchtigung feststellen.
reunion
2005-09-04, 12:57:02
Dafür, dass HQ so schweineteuer ist, ist das aber schon ein ziemliches Armutszeugnis IMO. Q kostet ca soviel wie ATI's TOP AF (AFAIK) und erst das teure HQ kommt da ran...
Seh' ich auch so. Auf meiner 6600GT kostet HQ je nach Spiel schnonmal 10-50% Performance. Und das nur, um ein flimmerfreies Bild zu bekommen. Bei ATi-Karten kann ich diese Leistung z.B. in eine höhere Auflösung stecken.
Seh' ich auch so. Auf meiner 6600GT kostet HQ je nach Spiel schnonmal 10-50% Performance. Und das nur, um ein flimmerfreies Bild zu bekommen. Bei ATi-Karten kann ich diese Leistung z.B. in eine höhere Auflösung stecken.
Was zu beweisen wäre ^^
Da will ich dir aber nichts unterstellen oder so, nur 50% kann ich mir nicht vorstellen ich hab mit meiner 6800GT eigentlich immer einen maximalen Einbruch von 10fps gesehen, vieleicht waren es auch die falschen Spiele.
Kannst du mir ein Spiel als extrem Beispiel nennen? Würde das gerne mal mit meiner 7800GTX checken, neuer wie alter Treiber.
jacky
2005-09-04, 13:32:44
UT2004 8xS/16xAF glaube ich soll ein tolles Beispiel sein. Hab auch immer nur 5-10FPS weniger gehabt.
Matrix316
2005-09-04, 13:35:07
Was zu beweisen wäre ^^
Da will ich dir aber nichts unterstellen oder so, nur 50% kann ich mir nicht vorstellen ich hab mit meiner 6800GT eigentlich immer einen maximalen Einbruch von 10fps gesehen, vieleicht waren es auch die falschen Spiele.
Kannst du mir ein Spiel als extrem Beispiel nennen? Würde das gerne mal mit meiner 7800GTX checken, neuer wie alter Treiber.
Ähm, ihr wollt doch nicht eine 6600GT, 6800GT und 7800GTX leistungsmäßig vergleichen? Natürlich ist der Verlust bei einer 6600GT wesentlich höher als bei den besseren Karten.
(del)
2005-09-04, 13:43:16
Ohne den bri-Texturfilter aka A.I. müsste die Qualität identisch sein
Wobei man AI ja ausschalten kann. Im Gegensatz zu der Verarsche der Frocewares ein klares Schachmatt und Ende des Einwandes ;)
Und durch diesen konnte noch niemand eine BQ-beeinträchtigung feststellen
Gibt es wirklich keine Unterschiede zwischen AI_low und AI_off oder wie meinst Du das? DAS wäre ja verdächtig. Vielleicht gibts ja für den Treibr dann kein AI_off? :) So ein "Dreck" sollte man ATI ja ebenfalls nicht durchgehen lassen. Wenn.
robbitop
2005-09-04, 14:14:31
Stimmt nicht: Mafia, GTR und RBR flimmerten früher auf der 9800Pro gar nicht.
Die R3xx verfügte allerdings auch nicht über gewisse optimierungen (AF Sample Opt/LOD Opt)
robbitop
2005-09-04, 14:15:13
HQ ist eigentlich nicht "Schweineteuer" auf ner GTX, hab leider kein UT2004 um die beiden Treiber gegenzubenchen, aber in WoW wie Guildwars seh ich kaum einen FPS Unterschied zwischen HQ und Q.
Teste mal UT2004 HQ vs Q. Da wirst auch du einen gewaltigen Unterschied in Sachen Performance feststellen.
ShadowXX
2005-09-04, 14:23:01
Teste mal UT2004 HQ vs Q. Da wirst auch du einen gewaltigen Unterschied in Sachen Performance feststellen.
Jooo....ca. 4 FPS unterschied zwischen Q und HQ bei meiner 7800GTX und dem 78.03.
Ist schon ein gewaltiger unterschied :wink:
robbitop
2005-09-04, 14:24:58
Jooo....ca. 4 FPS unterschied zwischen Q und HQ bei meiner 7800GTX und dem 78.03.
Ist schon ein gewaltiger unterschied :wink:
Ein guter Indikator, dass da ordentlich was dran gedreht worden ist beim G70.
Würde mich ja schon wieder skeptisch in Bezug auf die Qualität sein. Oder die Bandbreite bremst bei dem G70 deutlich mehr als auf dem NV40. Auf dem NV40 kostet das mal eben +50%. (Naja bei UT limitiert ja auch lediglich die Füllrate)
reunion
2005-09-04, 14:52:49
Da will ich dir aber nichts unterstellen oder so, nur 50% kann ich mir nicht vorstellen ich hab mit meiner 6800GT eigentlich immer einen maximalen Einbruch von 10fps gesehen, vieleicht waren es auch die falschen Spiele.
Kannst du mir ein Spiel als extrem Beispiel nennen? Würde das gerne mal mit meiner 7800GTX checken, neuer wie alter Treiber.
Jooo....ca. 4 FPS unterschied zwischen Q und HQ bei meiner 7800GTX und dem 78.03.
Ist schon ein gewaltiger unterschied :wink:
Auf meiner 6600GT werden die fps mal eben halbiert.
Aber dass der G70 unter HQ was anderes versteht, als ein NV4x, ist ja schon länger bekannt.
reunion
2005-09-04, 14:54:41
Gibt es wirklich keine Unterschiede zwischen AI_low und AI_off oder wie meinst Du das?
Doch, es gibt einen Unterschied. Mit AI_low wird nur bri gefiltert.
Allerdings hat ATi da offensichtlich einen ziemlich ausgeklügelten Mechanismus entwickelt, wodurch die BQ nicht sichtbar abnimmt.
Auf meiner 6600GT werden die fps mal eben halbiert.
Auf meiner 6800 auch (siehe oben).
MfG,
Raff
Jooo....ca. 4 FPS unterschied zwischen Q und HQ bei meiner 7800GTX und dem 78.03.
Ist schon ein gewaltiger unterschied :wink:
Ich habe leider kein UT2004, kannst du mal mit dem 77.77 gegen benchen, dann sehen wir, in wieweit das flimmern Performance brachte!
Ein guter Indikator, dass da ordentlich was dran gedreht worden ist beim G70.
Würde mich ja schon wieder skeptisch in Bezug auf die Qualität sein. Oder die Bandbreite bremst bei dem G70 deutlich mehr als auf dem NV40. Auf dem NV40 kostet das mal eben +50%. (Naja bei UT limitiert ja auch lediglich die Füllrate)
Welche Füllrate, Pixel- oder Texelfüllrate?
Weil G70 und NV40 bei der Pixelfüllrate sich nicht viel nehmen...
Bei Hexus.net haben sie es mit HL2 gemacht, FW77.77 vs FW78.03 / HQvsQ
http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD0xNTQ5JnVybF9wYWdlPTQ=
Selbst in 1600x1200 4xAA/16x(pseudo)AF bringts aus meiner sicht nix!
Grestorn
2005-09-04, 15:52:05
[center]Noch immer keine Wahloption für SLI-Profile!Dafür gibt's seit ner Weile ein nHancer, welches auf Wunsch automatisch alle SLI Profile (bzw. SLI-Einstellungen) beseitigt.
Für die Leute, die nicht manuell in der Registry und nvapps.xml rumwurschteln wollen...
robbitop
2005-09-04, 16:26:20
Welche Füllrate, Pixel- oder Texelfüllrate?
Weil G70 und NV40 bei der Pixelfüllrate sich nicht viel nehmen...
Natürlich die Texelfüllrate. Solange kein Bi ST zustande kommt ist die Pixelfüllrate unwichtig. Und das ist seit Jahren nicht mehr der Fall.
Spätestens mit AF wäre auch dann hier die Texelfüllrate entscheident.
Ich empfehle hier den AF Artikel von 3DCenter nochmals zu studieren :)
jacky
2005-09-04, 17:37:09
Kann mir grad ma schnell jemand sagen wie das nochma mit der winkelabhängigkeit beim AF war?
Wenn ich 16xAF einstelle dann filtert der das meiste mit 4xAF, manches mit 8xAF und nur ganz selten mit 16xAF richtig?
D.h. wenn man eine gleiche Filterung will sollte man 4xAF einstellen oder?
Kann es sein, dass AF überhaupt nicht viel Leistung zieht?
Ja, 4x bringt einem bei dem hochoptimierten AF das homogenste Bild. Also es kommt nicht - wie bei 16xAF - vor, dass man eine Szene sieht, wo eine mit 2xAF gefilterte Textur einer messerscharfen gegenüber liegt ... gleichmäßig matschig. Etwas SSAA dazu und man hat gute Texturen auf dem selben Niveau ...
Und ja, das optimierte AF zieht natürlich deutlich weniger Power als winkelunabhängiges. Siehe GF4. Wobei die noch mit einem Bug zu kämpfen hat ...
MfG,
Raff
reunion
2005-09-04, 17:42:04
Kann mir grad ma schnell jemand sagen wie das nochma mit der winkelabhängigkeit beim AF war?
Wenn ich 16xAF einstelle dann filtert der das meiste mit 4xAF, manches mit 8xAF und nur ganz selten mit 16xAF richtig?
D.h. wenn man eine gleiche Filterung will sollte man 4xAF einstellen oder?
Kann es sein, dass AF überhaupt nicht viel Leistung zieht?
Nur 0°, 45°, und 90° Winkel bekommen 16x AF. 22.5° und 67.5° Winkel maximal 2xAF. Dazwischen eben ja nach Winkel mehr oder weniger. Wenn du gleiche Filterung willst, darfst du nur 2x AF einstellen, allerdings sieht 4x auch noch relativ homogen aus.
//EDIT: Fehler ausgebessert.
eXodia
2005-09-04, 17:43:30
Kann mir grad ma schnell jemand sagen wie das nochma mit der winkelabhängigkeit beim AF war?
Wenn ich 16xAF einstelle dann filtert der das meiste mit 4xAF, manches mit 8xAF und nur ganz selten mit 16xAF richtig?
D.h. wenn man eine gleiche Filterung will sollte man 4xAF einstellen oder?
Kann es sein, dass AF überhaupt nicht viel Leistung zieht?
Die wichtigen Winkel (wie z.B. 45°) bekommen volles 16AF. Andere Winkel dagegen nur mit 2AF (z.B. 22,5°), egal ob du 16xAF eingestellt hast oder nicht. Lies dazu noch mal DAS (http://www.3dcenter.org/artikel/g70_flimmern/) Review hier.
Zum Thema Leistung, dies hier:
http://www.beyond3d.com/reviews/leadtek/6800/index.php?p=20 (NV40)
http://www.beyond3d.com/previews/nvidia/g70/index.php?p=19 (G70)
GrUß
robbitop
2005-09-04, 17:43:54
Wobei die noch mit einem Bug zu kämpfen hat ...
MfG,
Raff
Den 4x1 Bug? Das Problem ist aber nur bei BiAF vorhanden. Ergo irrelevant.
eXodia
2005-09-04, 17:45:00
Nur 0° bzw. 90° Winkel bekommen 16x AF. 45° Winkel maximal 2xAF. Dazwischen eben ja nach Winkel mehr oder weniger.
Ne grade die 45° bekommen 16xAF
http://www.3dcenter.org/artikel/g70_flimmern/
GrUß
Den 4x1 Bug? Das Problem ist aber nur bei BiAF vorhanden. Ergo irrelevant.
Für den, der das mit der Absicht des fps-Gewinns nutzen will, nicht. ;)
MfG,
Raff
reunion
2005-09-04, 17:47:57
Ne grade die 45° bekommen 16xAF
http://www.3dcenter.org/artikel/g70_flimmern/
GrUß
Hast recht, mein Fehler, 0°, 45°, und 90° bekommen 16x AF.
22.5° und 67.5° nur 2x AF.
jacky
2005-09-04, 18:26:02
Ok ich will nur ma gucken wie der Performance Unterschied dann ist.
Geht grad um rFactor deswegen.
Sollte man das AA/AF eigentlich lieber übers Game einstellen wenn es die Möglichkeit bietet oder immer über den Treiber?
Banshee18
2005-09-04, 18:51:13
Ok ich will nur ma gucken wie der Performance Unterschied dann ist.
Geht grad um rFactor deswegen.
Sollte man das AA/AF eigentlich lieber übers Game einstellen wenn es die Möglichkeit bietet oder immer über den Treiber?
Falls möglich sollte man AA un AF immer im Spiel einstellen.
BvB123
2005-09-04, 18:53:08
Falls möglich sollte man AA un AF immer im Spiel einstellen.
Leider bieten die Games selten das an was ich möchte :(
außer es ist dass bekannte no-AF-ohne-Mipmaps-Problem.
Gilt das nur für NV40 und höher?
BlackArchon
2005-09-04, 19:11:18
Falls möglich sollte man AA un AF immer im Spiel einstellen.
Und da komme ich manchmal ins grübeln, wenn ich 8xS will. Das bietet kein mir bekanntes Spiel an, sondern nur 2x oder 4x (oder aus). Was stell ich da nun im spiel ein, wenn ich 8xS im Treiber eingestellt habe? Soll ich AA im Spiel auf Aus stellen, oder auf 4x?
doom1
2005-09-04, 19:13:40
Der Treiber überschreibt doch immer oder etwa nicht.
mapel110
2005-09-04, 19:14:59
Der Treiber überschreibt doch immer oder etwa nicht.
Jup. Also sollte es reichen, im Treiber 8xS einzustellen und im Game selbst aus.
Mr.Magic
2005-09-04, 19:22:15
BlackArchon,
das kommt ganz auf das Spiel an.
einige Beispiele:
GTA San Andreas - der Treiber überschreibt die Spieleinstellung, es ist also egal was Ingame angewählt wird es bleibt 8xS
Star Wars: Rebel Commando - der Treiber überschreibt die Spieleinstellung, allerdings nur wenn Ingame AA auch aktiviert wird
Fable: The Lost Chapters - das Spiel überschreibt die Treibereinstellung (mehr oder weniger), stellt man im Treiber z.B. auf 8xS werden nur Bildbereiche geglättet (oder gar nicht, sah mir aber nach Teilglättung aus), stellt man dagegen den Treiber auf "controlled by app" kann man im Spiel vollwertiges AA (aber eben nur 2x/4x) aktivieren
doom1
2005-09-04, 19:23:20
nHancer "Überlagern von vordefinierten Optionen zulassen"?
Nur weis ich nicht was er meint :confused: (nix gefunden)und ob es dann egal ist wenn im Game eine Einstellung stehen bleibt...?
Wenn das damit überhaupt gemeint ist.
Ok gefunden :redface:
Falls möglich sollte man AA un AF immer im Spiel einstellen.
Da wäre ich vorsichtig. Das Problem mit dem AA ist ja schon genannt worden -- man sollte aber nicht vergessen, dass "ingame-AA" oft schneller ist als per Treiber forciertes. Was aber noch dazu kommt: Spiel-AF ist zwar auch meist schneller als das vom Treiber, aber auch gerne mal nur bilinear. Das ist mir erst gestern mit meiner 9800 Pro und der Myst V-Demo passiert ... hat geflimmert wie auf einer 6800 @ Quality. ;)
MfG,
Raff
doom1
2005-09-04, 19:54:08
wenn ich da so an HL² denke......
jacky
2005-09-04, 19:54:34
Hmm kann keine großartigen Performanceunterschiede feststellen ob AA/AF im Spiel oder Treiber eingestellt ist.
Bei rFactor kann man aber 8xS auswählen per Spiel. Muss man nur Level4 bei AA einstellen. Naja werds wohl ma übers Game einstellen.
doom1
2005-09-04, 19:57:07
nimm den Treiber da biste sicher das es auch Tri ist
Blaire
2005-09-04, 20:13:43
Da fällt mir gerade ein, hat zwar nur indirekt was mit dem Thema zu tun.
Aber dennoch so meine ich , eine Antwort wert.
Bei Halflife 2 hab ich eine ganz seltsame Beobachtung gemacht.
Normalerweise stelle ich in HL2 immer alles im Gamemenü ein z.b. das FSAA und AF.
Dann hab ich einige Benchmarks gefahren mit 1600x1200 8xAA/16xAF (per Treiber forced) und! das FSAA (in dem Fall 4x, höher geht bei NV nicht) und AF (16x) im Spiel war auch noch enabled (was ein großer Fehler ist!!!).
Plötzlich bekam ich nur noch einen mageren Benchmarkwert von 34 fps...
Dann hab ich im Spielmenü das FSAA und AF auf disabled gestellt und nur über den NV Treiber forced und nun bekomm ich 65 fps! heraus.
Also bremst das Spiel hier irgendwas, entweder das AF oder das FSAA!
Damit keine Missverständnisse aufkommen , ich hab von beiden Settings mit Fraps Screenshots erstellt und es sieht 1:1 identisch aus. Nur eben ist die Gameeinstellung bei mir fast um die Hälfte langsamer als über den Treiber.
Den 4x1 Bug? Das Problem ist aber nur bei BiAF vorhanden. Ergo irrelevant.
die GF4 (imo auch 3) hatte noch ein weiteres, viel schwerwiegenderes problem mit AF.
man verlor immer die halbe füllrate, auch wenn garkeine texturverzerrung vorhanden war (und damit garkein AF benötigt wird).
Vielleicht interessiert ja einen eine BQ-Anomalie, die ich eben entdeckt habe. Vergleich 77.72 WHQL vs. 78.03 @ NV40 in Serious Sam 2nd (einer der übelsten Augenkrebser @ Quality): Ersterer weist eine deutliche Flimmerverbesserung bei Q auf (es ist matschiger), letzterer flimmert wieder.
Kann das jemand bestätigen? HQ ist identisch, Clamp ist an.
MfG,
Raff
Da fällt mir gerade ein, hat zwar nur indirekt was mit dem Thema zu tun.
Aber dennoch so meine ich , eine Antwort wert.
Bei Halflife 2 hab ich eine ganz seltsame Beobachtung gemacht.
Normalerweise stelle ich in HL2 immer alles im Gamemenü ein z.b. das FSAA und AF.
Dann hab ich einige Benchmarks gefahren mit 1600x1200 8xAA/16xAF (per Treiber forced) und! das FSAA (in dem Fall 4x, höher geht bei NV nicht) und AF (16x) im Spiel war auch noch enabled (was ein großer Fehler ist!!!).
Plötzlich bekam ich nur noch einen mageren Benchmarkwert von 34 fps...
Dann hab ich im Spielmenü das FSAA und AF auf disabled gestellt und nur über den NV Treiber forced und nun bekomm ich 65 fps! heraus.
Also bremst das Spiel hier irgendwas, entweder das AF oder das FSAA!
Damit keine Missverständnisse aufkommen , ich hab von beiden Settings mit Fraps Screenshots erstellt und es sieht 1:1 identisch aus. Nur eben ist die Gameeinstellung bei mir fast um die Hälfte langsamer als über den Treiber.
Ingame auf 1600x1200 4xAA/8xAF und TSSAA über den Treiber habe ich im HQ-Modus beim Visual Stress Test ca. 147 FPS. Kann es also nicht nachvollziehen. Auch im Spiel (HL2) bewegt sich die Framerate weit über den von Dir angegebenen Werten.
Das einzige, was die Source-Engine und die meisten Spiele nicht zu mögen scheinen, ist C&Q mit dem X2. Mit dem Venice war das nie ein Problem, aber mit dem X2 werden die beiden Cores zu wenig ausgelastet und die Framrate fällt um über ein Drittel.
Trotzdem auch mal ohne C&Q getestet bzw. war es bei Deinem Test aus?
Blaire
2005-09-04, 21:48:57
Ingame auf 1600x1200 8xAA/8xAF und TSSAA über den Treiber habe ich im HQ-Modus beim Visual Stress Test ca. 147 FPS. Kann es also nicht nachvollziehen. Auch im Spiel (HL2) bewegt sich die Framerate weit über den von Dir angegebenen Werten.
Ich meinte Halflife 2 und nicht CS:Source.
Ich hab die canals timedemo benutzt und kann es immer nachstellen. Stell ich AF und AA im Spiel ein und force über Treiber hab ich deutlich schlechtere Werte. Stell ich im Spiel FSAA und AF auf disabled und force über Treiber hab ich extrem hohe fps.
Solchen C&Q Quatsch hab ich schon immer ausgestellt, es ist auch kein Messfehler ich konnte das bisher immer nachstellen.
Liszca
2005-09-04, 21:49:51
Stimmt das eigentlich, dass Vsync mit einem SLI Gespann nicht funzt ??
wenn dem so ist, was ich auch glaube dann ist es ja wohl das allerletzte! oder spielt das bei einem tft keine rolle?
Mit "im Spiel" meinte ich auch HL2 (Framerate-Anzeige über Konsolenbefehl). Der VST war nur ein Anhaltspunkt (ist ja die gleiche Engine).
Die Canals-Timedemo bzw. eine, die mit dem aktuellen Engine-Stand läuft, habe ich leider nicht mehr. Hast Du einen Link? Dann teste ich's mal.
C&Q möchte ich eigentlich nicht missen, da es die Kiste bei mir auch schön leise laufen lässt. Momentan muss ich's allerdings wegen dem beschriebenen Problem beim Spielen temporär deaktivieren.
Blaire
2005-09-04, 21:55:02
Hab sie extra für dich hochgeladen.
http://rapidshare.de/files/4727934/3.dem.html
Ich bitte um Rückmeldung. ;)
Thankx! :up:
Ich probiers gleich mal.
EDIT:
alles ingame auf max.,1600x1200,TSSAA (Supersampling) und HQ-Modus via CP
INGAME 4xAA/16xAF:
4338 frames 45.607 seconds 95.12 fps 11.057 fps variability
FORCED (ingame AA disabled, AF bilinear) 4xAA/16xAF:
4338 frames 44.425 seconds 97.65 fps 9.900 fps variability
wenn dem so ist, was ich auch glaube dann ist es ja wohl das allerletzte! oder spielt das bei einem tft keine rolle?Bei AFR gibt's das Problem, bei SFR nicht. Das ist allerdings eine technische Limitierung mit der sich auch ATi rumschlagen wird.
Blaire
2005-09-04, 22:10:30
Thankx! :up:
Ich probiers gleich mal.
EDIT:
alles ingame auf max.,1600x1200,TSSAA (Supersampling) und HQ-Modus via CP
INGAME 4xAA/16xAF:
4338 frames 45.607 seconds 95.12 fps 11.057 fps variability
FORCED (ingame disabled) 4xAA/16xAF:
4338 frames 44.425 seconds 97.65 fps 9.900 fps variability
Mach das mal mit 8xSSAA!
Grestorn
2005-09-04, 22:11:18
Bei AFR gibt's das Problem, bei SFR nicht. Das ist allerdings eine technische Limitierung mit der sich auch ATi rumschlagen wird.
Kannst Du mal erklären, warum bei AFR kein VSync möglich sein soll? So wie ich AFR verstehe, müsst es doch möglich sein, VSync zu erlauben.
EDIT:
Also (gammakorrigiertes AA war übrigens auch im letzten Test an und ist an):
1600x1200, KEIN TSAA, AA im Treiber auf 8xS, AF im Treiber auf Applikation, HQ
INGAME 4xAA (den Sinn verstehe ich auch nicht ganz, wenn ich es im Treiber auf 8xS stelle), 16xAF:
4338 frames 107.188 seconds 40.47 fps 22.999 fps variability
1600x1200, KEIN TSAA, AA im Treiber auf 8xS, AF im Treiber auf 16x, HQ
INGAME AA disabled, AF bilinear:
4338 frames 61.893 seconds 70.09 fps 23.053 fps variability
Kann es also nachvollziehen. Ich denke allerdings, dass sich hier die "doppelte Einstellung" des AA im Treiber und INGAME irgendwie beißt, auch weil das ja 2 völlig verschiedene AA-Arten sind. Bzw. stelle ich, wenn ich AA über den Treiber force das Ingame-AA bei Spielen immer ab.
eXodia
2005-09-04, 22:14:52
Wie aktiviere ich 8xSSAA ingame? Oder wird das dann bei 6xAA genommen?
6xAA gibbet nur bei ATI.
GrUß
Kannst Du mal erklären, warum bei AFR kein VSync möglich sein soll? So wie ich AFR verstehe, müsst es doch möglich sein, VSync zu erlauben.Der Sync funktioniert wahrscheinlich nicht über die Brücke. ATi hat noch ein viel größeres Problem, weil man die RAMDACs absolut synchron laufen lassen müsste mit der externen Composition Engine, was praktisch unmöglich ist.
Mit "im Spiel" meinte ich auch HL2 (Framerate-Anzeige über Konsolenbefehl). Der VST war nur ein Anhaltspunkt (ist ja die gleiche Engine).
Die Canals-Timedemo bzw. eine, die mit dem aktuellen Engine-Stand läuft, habe ich leider nicht mehr. Hast Du einen Link? Dann teste ich's mal.
C&Q möchte ich eigentlich nicht missen, da es die Kiste bei mir auch schön leise laufen lässt. Momentan muss ich's allerdings wegen dem beschriebenen Problem beim Spielen temporär deaktivieren.
Was will man den beim Gamen mit Q&C egal mit was für einem Proz,so ein Schwachsinn "An AUS AN AUS" und da wundern sich einige das es ruckelt.
Was will man den beim Gamen mit Q&C egal mit was für einem Proz,so ein Schwachsinn "An AUS AN AUS" und da wundern sich einige das es ruckelt.Erstmal drosselt C&Q nicht wenn der Prozessor unter Last steht und dann sei noch gesagt, dass es auch Zwischenstufen gibt, nicht nur "An" und "Aus". Überhaupt ist es kein "Aus" sondern nur eine geringere Taktfrequenz und das umschalten ist absolut nicht wahrnehmbar.
Ach was dann beobachte es mal....das ist nie konstant!Spiel doch mal nen Video ab....
Es wird auf jedenfall immer genügend Leistung bereitgestellt damit keine Leistungseinbusen da sind. Das Video läuft dann wohl gerade an der 100% Grenze bei 1Ghz und das OS regelt halt immer wieder etwas hoch.
Bei einem Spiel hast du aber auch bei höchstem Taktlevel immer 100% Auslastung und somit wird nicht runtergeregelt. Das kannst du auch mal beobachten ;)
Ice =A=
2005-09-04, 22:39:30
Der Gast is wohl zu voreingenommen, die Beschriftung in dem Programm zu lesen, mit dem er die Prozessorfrequenz kontrolliert... Da steht doch eindeutig, daß niedrigste Einstellung 1000 bis 1200 MHz is. :)
Nebenbei bemerkt sollte die Frequenz während normalen Videos auch nich konstant sein. Schließlich ist es ein Unterschied, ob in 'nem Video grade ein Standbild oder eine schnelle Action-Sequenz abläuft... :rolleyes:
Und wenn z.B. Valve zu ignorant ist, ihre HL2-Engine im Gegensatz zu den allermeisten andern Herstellern richtig und kompatibel zu programmieren, sollte man das nicht AMD vorwerfen!
Rechnet mal aus, wieviel Energie weltweit weniger verbraucht würde, wenn in jedem Rechner eine AMD-CPU stecken würde!!! Gradezu beängstigend, nicht nur vom Umweltschutzgedanke her!
Aber ich schweife vom Thema ab, tut mir leid...
Ach was dann beobachte es mal....das ist nie konstant!Spiel doch mal nen Video ab....
Du hast entweder eine gestörte Wahrnehmung, ein Motherboard, das C&Q mies implementiert hat oder einen X2 wie ich ;)
Mit dem X2 gibt es zur Zeit wirklich ein Problem mit C&Q, welches aber mit Dual-Core und dem Scheduling zusammenhängt (genau das, welches ich beschrieben habe). MS wird da wohl wie bei HT auch schon, mit dem nächsten SP nachbessern.
Bei Single-Core funktioniert C&Q ohne Leistungseinbußen bzw. merkst Du überhaupt nichts davon.
@Ice =A=:
Die Source-Engine funktioniert wunderbar mit C&Q. Nur mit dem X2 in Kombination mit C&Q gibt es Probleme (und die nicht nur in Spielen). Das Problem ist auch wohl eher im Scheduling von Windows zu suchen oder liegt doch an AMDs CPU-Treiber:
Bei mir wird sogar die Mausbeschleunigung unter Windows ein wenig langsamer, wenn ich es beim X2 aktiviere.
Ich bin jetzt von ATI auf Nvidia wieder gewechselt habe aber Probleme mit C&C Generäle. Das Programm startet nicht mehr weil kein DirectX 8 gefunden wurde, alle anderen Games laufen aber ohne Probleme :/ Ich weiss nicht, obs am aktuelle Treiber liegt oder schon woanders das Problem liegt..
Ice =A=
2005-09-04, 22:59:56
Hast Du C&C mal neu installiert? Is einige Arbeit, hat aber bei mir mehrmals nach seltsamen Fehlern geholfen.
was hat c&q mit fw 78.03 zu tun?bidde wieder@topic
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.