PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Warum performt nV35 so schlecht bei Doom3


Tigerchen
2004-07-23, 19:08:10
http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_4_1.gif


Seit weit über einem Jahr erzählt man hier daß der nV35 schlicht der Knaller für Doom3 ist. Da fragt man sich wieso der nV35 trotz Ultra Shadow so schlecht abschneidet. Dies nur mal als Erinnerung an all die hier die bei jeder unpassenden Gelegenheit auf die zu erwartende Doom3 Performance von FX5900/5950 Grafikkarten hingewiesen haben. Das war wohl nix. Vielleicht wäre es sinnvoller in Zukunft nicht ganz so oft auf nicht erschienene Spiele zu verweisen um die Leistungsfähigkeit von Grafikkarten zu bewerten.

(Dieser Thread bezieht sich nicht auf nV40/R420!!!)

Kladderadatsch
2004-07-23, 19:11:41
erzählt man

man ersetze das man durch nvidia;)

würd mich aber auch mal interessieren...

dildo4u
2004-07-23, 19:11:44
Ganz einfach meiner meinung nach braucht Doom3 pipes pipes und noch mal pipes als grundlage nehme ich den vergleich X800XT X800pro da bricht die karte mit 12pipes auch in relation stark weg

M@g
2004-07-23, 19:13:50
Was ist daran schlecht, 40fps sind spielbar oder? Bedenkt das is auch high detail, man kann auch auf medium runtergehen. (mal abgesehend davon das ultra high detail nicht spielbar sein soll auf momentanen karten, war bei Q3 nicht anders und das ist auch gut so)
Im Vergleich zur R98xx schlägt sie sich ja ganz wacker, die technik bringts wohl doch (bei DX9 spielen liegt die FX Serie ja immer hinten).

Gast
2004-07-23, 19:14:30
Warum die so schlecht ist ? Weil sie auch den anderen Games nicht gut ist,mit AA/AF ist dann alles vorbei

mezzo
2004-07-23, 19:31:41
Original geschrieben von Tigerchen

Dies nur mal als Erinnerung an all die hier die bei jeder unpassenden Gelegenheit auf die zu erwartende Doom3 Performance von FX5900/5950 Grafikkarten hingewiesen haben. Das war wohl nix. Vielleicht wäre es sinnvoller in Zukunft nicht ganz so oft auf nicht erschienene Spiele zu verweisen um die Leistungsfähigkeit von Grafikkarten zu bewerten.


Dies gilt noch mehr für Hype-Life 2 und ATI - bzw. deren PR vor einem Jahr. man erinnere sich nur an das "Bundle" bzw. an die Pressekonferenz auf Alcatraz.
Die damals beworbene Radeon 9800 XT ist sicher nicht die optimale Karte für Hype-Life 2, wenn das Spiel irgendwann mal tatsächlich rauskommen sollte.

Gast
2004-07-23, 19:37:19
http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_4_1.gif

Eben, die Settings sind @High Quality und 8xAF ist hinzugeschalten!
Ohne AF währen's ~50 fps (avg wohlgemerkt!).
Ne gute Leistung IMO, vergleichbar mit der in Far Cry @10x7 @max. Settings (v1.1, mit v1.2 sieht die ganze Sache wieder anders aus :D).

Raff
2004-07-23, 19:42:46
Ist doch ok, wenigstens liegt die GeForceFX nicht wieder Meilen hinter den Radeons, wie bei FarCry anfangs. Durch Treiberoptimierung geht sicher noch was (natürlich auch bei ATi), nen Gleichstand ists IMHO sowieso.

BTW: Die Leistung ist doch klasse. Da geht problemlos noch 2xAA dazu und dem genialen Spielvergnügen steht nix mehr im Wege. =)

MfG,
Raff

q@e
2004-07-23, 19:55:25
Original geschrieben von Tigerchen
http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_4_1.gif


Seit weit über einem Jahr erzählt man hier daß der nV35 schlicht der Knaller für Doom3 ist. Da fragt man sich wieso der nV35 trotz Ultra Shadow so schlecht abschneidet. Dies nur mal als Erinnerung an all die hier die bei jeder unpassenden Gelegenheit auf die zu erwartende Doom3 Performance von FX5900/5950 Grafikkarten hingewiesen haben. Das war wohl nix. Vielleicht wäre es sinnvoller in Zukunft nicht ganz so oft auf nicht erschienene Spiele zu verweisen um die Leistungsfähigkeit von Grafikkarten zu bewerten.

(Dieser Thread bezieht sich nicht auf nV40/R420!!!)

Erste Frage:
Wieso postest du nur die eine Seite der Medaille?
http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_4_2.gif

Dazu noch eine Anmerkung: Kyle sagte, die Treiber standen auf [Zitat] "default" [Zitatende]- also inklusive der "netten" Optimierungen.
Qualitätsvergleiche werden mit Spannung erwartet.... ;)

Zweite Frage:
Wie sicher bist du, daß Ultra-Shadow schon genutzt wurde? Ich habe da noch keinen Hinweis drauf gesehen...

Dritte Frage:
~5% Rückstand zwischen zwei Karten, wo die eine sonst meist 20% und mehr schneller ist, findest du "schlecht"?

Atma
2004-07-23, 19:57:14
Original geschrieben von Raff
BTW: Die Leistung ist doch klasse. Da geht problemlos noch 2xAA dazu und dem genialen Spielvergnügen steht nix mehr im Wege. =)


Dem schliesse ich mich auch an die Performance is meiner meinung nach auch sehr gut bei NV35/38 Karten. Da hat Id mal wieder super arbeit geleistet. Ich jedenfalls freue mich Doom 3 mit meiner FX 5900 nU noch so gut spielen zu können und das in High Details :up:

Al-CAlifAX
2004-07-23, 20:08:31
denke mal das nu doch ARB2 zum einsatz kommt und dadurch der eigentliche vorspung durch Ultrashadow sich aufwiegt. Alles in allem isses doch supi, das JC die Schatten der NV und des ARB2 der ATI genutzt hat um beide auf gleichen level performen zu lassen. Bei der 6800 kommt dann noch die gute ARB2 leistung zum tragen + Ultra Shadow 2. Und 40 frames bei 8xAF und 1024 ists cho supi. ärgerlich vllt für welche die höher fahren, aber muss man testen. Vor allem wie arg nu am ende wirklich der unterschied aussieht. ich erriner mich an Farcry. manche details waren nicht sichtbar im unterschied. ich bin auf jedenfall begeistert über die performance in High Details der FX5950, wobei ich mir noch gedanken mache über meine 128 Mb V-Speicher meiner FX5900TD128. Aber wir werden ja sehen ;)

M@g
2004-07-23, 20:34:33
Original geschrieben von Al-CAlifAX
ich bin auf jedenfall begeistert über die performance in High Details der FX5950, wobei ich mir noch gedanken mache über meine 128 Mb V-Speicher meiner FX5900TD128. Aber wir werden ja sehen ;)

Genau da könnte es hacken, die Texturen sind sicher nicht klein und Antialiasing kann man dann leider vergessen.

Raff
2004-07-23, 20:38:24
Original geschrieben von M@g
Genau da könnte es hacken, die Texturen sind sicher nicht klein und Antialiasing kann man dann leider vergessen.

Genau das hoffe ich, genau wie Al, nicht ... Existieren denn echt noch nirgends Benches mit den am meisten verbreiten Karten (128MB's, Radeon 9700/9800, GeForce4, FX5900)?

MfG,
Raff

Colin MacLaren
2004-07-23, 20:39:32
Aus meinen eigenen Erfahrungen mit einer FX5900 kann ich beichten, daß die Leistung der NV3X-Karten nach dem Zushalten von AF im Vergleich mit den R3xx von Ati brachial um teilweise 50% einbricht, selbst in der "Performance"-Einstellung (sinnfreie Kommentare bzgl. der Optimierungen bitte woanders, deaktiviere ich alle "Cheats" hab ich bei der FX im FarCry-Benchmark tolle 20fps, also ist diese Einstellung sowieso nicht praxisrelevant, und mit säntlichen aktivierten Optimierungen sieht die Ati sicherlich besser aus).

Ohne AF konnte sie der 9800Pro sehr gut Paroli bieten und diese meist gar überflügeln. Nimmt man die generelle OpenGL-Stärke der NVIDIA-Karten hinzu, dürfte die FX ohne AA/AF, und darauf wird man in D3 bei HighQuality auf den Karten der vergangenen Generation für sinnvolle Framerates sowieso verzichten müssen, dürfte die FX die Ati sicherlich um einiges überflügeln.

Tigerchen
2004-07-24, 15:12:10
Original geschrieben von mezzo
Dies gilt noch mehr für Hype-Life 2 und ATI - bzw. deren PR vor einem Jahr. man erinnere sich nur an das "Bundle" bzw. an die Pressekonferenz auf Alcatraz.
Die damals beworbene Radeon 9800 XT ist sicher nicht die optimale Karte für Hype-Life 2, wenn das Spiel irgendwann mal tatsächlich rauskommen sollte.

Deshalb habe ich dieses Statement so allgemein gehalten damit sich alle den Schuh anziehen können.

Tigerchen
2004-07-24, 15:25:38
Original geschrieben von Raff
Ist doch ok, wenigstens liegt die GeForceFX nicht wieder Meilen hinter den Radeons, wie bei FarCry anfangs. Durch Treiberoptimierung geht sicher noch was (natürlich auch bei ATi), nen Gleichstand ists IMHO sowieso.

BTW: Die Leistung ist doch klasse. Da geht problemlos noch 2xAA dazu und dem genialen Spielvergnügen steht nix mehr im Wege. =)

MfG,
Raff
Weiterhin wird sich das Ultra-Shadow genannte Feature für den schnellen zweiseitigen Stencil-Test in Doom III Engines auszahlen,


Schlecht ist die FX5950 wahrlich nicht
Allerdings waren solche Sprüche (wie in dem Zitat von aths) über das letzte Jahr beinahe täglich im Forum zu hören. Da hat man doch irgendwie mehr erwartet oder?

deekey777
2004-07-24, 16:34:55
Original geschrieben von Gast
[img]http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_4_1.gif

Eben, die Settings sind @High Quality und 8xAF ist hinzugeschalten!
Ohne AF währen's ~50 fps (avg wohlgemerkt!).
Ne gute Leistung IMO, vergleichbar mit der in Far Cry @10x7 @max. Settings (v1.1, mit v1.2 sieht die ganze Sache wieder anders aus :D).

nggalai meinte, dass der HQ Modus 8xAF erfordert/voraussetzt/erzwingt/....

Dennoch:
In der Beschreibung von UltraShadow I (http://www.nvidia.com/object/feature_ultrashadow.html) fehlt* - anders als in der Beschreibung von US II (http://www.nvidia.com/object/feature_ultrashadow2.html) - Doom 3 als "Einsatzbeispiel" des US I. Entweder wurde es zum Vorteil von UltraShadow II gestrichen, oder Doom 3 unterstützt US I gar nicht. Beides trifft hoffentlich nicht. Und die NV38 ist nicht langsam!



*Nicht dagegen in der UltraShadowI.pdf (http://www.nvidia.com/object/LO_20030508_6927.html), wer schaut sich gerne PDFs an???

MuhBär
2004-07-24, 17:07:22
Ähm ganz ehrlich, 2 fps unterschied ... hast du noch andere probs ?

Xmas
2004-07-24, 17:27:51
deekey,
jener Teil von UltraShadow, der von der Applikation unterstützt werden muss, ist bei beiden Versionen gleich.

nggalai
2004-07-24, 17:30:48
Original geschrieben von deekey777
nggalai meinte, dass der HQ Modus 8xAF erfordert/voraussetzt/erzwingt/....
HQ schaltet 8°AF zu, ja. Werden AFAIK auch grössere Texturen verwendet als bei Medium, bin mir dessen aber nicht sicher. Ich hab' mein DooM3 noch nicht erhalten. :(

93,
-Sascha.rb

Godlike
2004-07-24, 18:36:07
Original geschrieben von MuhBär
Ähm ganz ehrlich, 2 fps unterschied ... hast du noch andere probs ?

Da gehts weniger um den geringen Unterschied, als dass vor einem Jahr, als die Karte vorgestellt wurde (oder schon mehr als 1 Jahr, egal)... viele Forumsmitglieder, vor allem die eher Pro-NVidia Fraktion mit Sprüchen wie: In Doom3 wird die FX alle ATIs zersägen (übertrieben, kommt aber vom Sinn her hin). Oft wurde auch der HardOC Benchmark FX-9800 zitiert, wo ja damals die FX ziemlich vorne war, oder auch bei THG (medium settings)

Das soll jetzt kein Flame gegen NVidia-User sein, ich verstehs durchaus, dass man vor einem Jahr das meinen konnte. Jetzt werden auch alle, die ähnliche sachen gesagt haben (raven, love, ...) natürlich alle behaupten, dass sie das nicht gesagt haben usw., aber das spielt ja auch keine Rolle. Jedenfalls wurde damals den FXen der Doom3 Bonus zugesprochen, den man ihnen jetzt wieder nehmen muss, den eigentlich sollten sie mM nach schneller sein, eben weil NVidia enger mit Id zusammenarbeitet (mM nach). Daher fällt für mich persönlich das Fazit über die FXen noch schlechter, aus, eben wie gesagt, meine subjektive Meinung...

deekey777
2004-07-24, 18:41:22
Original geschrieben von Xmas
deekey,
jener Teil von UltraShadow, der von der Applikation unterstützt werden muss, ist bei beiden Versionen gleich.

Damit hätten wir das aus der Welt.


Original geschrieben von nggalai
HQ schaltet 8°AF zu, ja. Werden AFAIK auch grössere Texturen verwendet als bei Medium, bin mir dessen aber nicht sicher. Ich hab' mein DooM3 noch nicht erhalten. :(

93,
-Sascha.rb

Das klingt so, ob du Dumm 3 noch vor dem Release bekommst. Wo wohnst du nocheinmal? ;D

@ Godlike:
Es gibt Leute, die es heute noch behaupten und dies mit dem Ergebnissen aus dem letzten Jahr untermauern.

tokugawa
2004-07-24, 19:25:56
EDIT: wegen Redundanz gelöscht

nggalai
2004-07-24, 20:12:56
Original geschrieben von deekey777
Das klingt so, ob du Dumm 3 noch vor dem Release bekommst. Wo wohnst du nocheinmal? ;DLOL ;D

Naja, sagen wir's mal so--sieht so aus, als ob ich das Spiel nicht vor ein paar Tagen hätte vorbestellen müssen. Ob ich's tatsächlich vor Mediamarkt und Konsorten haben werde, hängt jedoch von vielen Faktoren ab. Ich persönlich rechne nicht damit, aber dagegen hätte ich nix. ;)

Zum Topic: In wiefern "performt" denn die NV35 "so schlecht" in DooM3? Aus meiner Sicht sind das eigentlich ganz gute Resultate ...

93,
-Sascha.rb

Gast
2004-07-24, 22:06:23
Original geschrieben von Tigerchen
http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_4_1.gif

[COLOR="#000088"]
Seit weit über einem Jahr erzählt man hier daß der nV35 schlicht der Knaller für Doom3 ist.


Dies galt doch nur solange es einen NV3x Pfad gab.
Der NV benutzt doch jetzt den auch für ihn langsameren ARB2 Pfad.

deekey777
2004-07-24, 22:59:00
Original geschrieben von Gast
Dies galt doch nur solange es einen NV3x Pfad gab.
Der NV benutzt doch jetzt den auch für ihn langsameren ARB2 Pfad.

So ist es nicht richtig - der NV30 Path wurde gerade deswegen abgeschafft, weil ARB2 auf einer FX jetzt genau so schnell läuft. Unterstellung entfernt.

MadManniMan
2004-07-25, 05:47:40
Ich kann euch nicht ganz folgen...

Sicherlich mag der High Quality Modus vielleicht auch noch Anderes, als nur erzwungenes 8*AF mit sich bringen und rechte Winkel sind noch recht oft bei Doom3 anzufinden - vermute ich ;)

Aber hey, hier wird immernoch Lehrbuch AF mit dem R300+ Mist (ja, 10 Minuten BF42 mit 8*4Ti-AF haben mich davon überzeugt, daß winkelabhängiges AF vorangig schnell ist :eyes: ) - also nix mit gleicher Qualität und auch nix mit sinnigen Statements anhand geringer Prozente.

Ich bin gar geneigt, die FX zum Sieger zu kühren, denn: bei annährend gleicher Performance wirde auf der FX die höhere BQ geboten.

:|

Colin MacLaren
2004-07-25, 10:31:42
Und 10 Minuten FarCry mit 8x "Performance"-AF und trotzdem 50% Framerateeinbruch auf der FX haben mich dazu bewegt, doch wieder zur Radeon zu greifen. Die "Quality"-Einstellung sah dan zwar schon etwas besser aus, bot aber tolle 20 fps -> in allen Spielen, die nicht älter als ein Jahr sind, ist diese Einstellung also indiskutabel.

Ohne AF dürfte die FX aber deutlich vorn liegen.

MadManniMan
2004-07-25, 12:28:10
Die Einstellung ohne AF ist vielleicht nicht mehr so up to date ... aber wohl gerade für die verbreiteten FXen von Relevanz - da die wenigsten NV3X-Besitzer eine Karte der Klasse eines NV38 haben.

Und nur nochmal kurz zum AF... sicherlich ist es grottenlangsam - aber den Framerateneinbruch ist es mir einfach wert! Wobei ich jedoch langsam das 4*RG meiner Radeon vermisse... Wir müssen wohl noch lange warten, bis uns endlich etwas wie NV20-AF mit R300-AA geboten wird :ratlos:

mjs
2004-07-25, 13:58:58
Ich bin froh, daß die Performance seit dem ca. 1 Jahr alten THG Benchmark gleich geblieben ist. Dort war schon damals bei der FX ein Vorteil bei Medium- und Gleichstand bei High-Quality. Ich hätte allerdings einen größeren Vorsprung vermutet, weil (nach meinen bescheidenen Technikverstand):

FX Pipeline 4x2 kann hier häufig als 8er Pipe arbeiten. (Stencil only) -Ein Vorteil, den die FX sonst nicht so ausspielen kann!

Ultra Shadow (NV OpelGL Erweiterung) kommt hier (erstmalig?) zum Einsatz (optimierte Stencil Berechnungen)

Unter OpenGL die ATI Karten bisher nicht ihr volles Potenzial ausspielen konnten (im Vergl. zu DX9)

Bei den THG Benchmarks damals wurde auch eine NV30 getestet (FX5800) -die hat ja kein Ultra Shadow und war ganz nah an der NV35 dran -war Ultra Shadow damals nicht integriert, oder schlecht umgesetzt, oder bringt das trotz vieler Stencil Berechnungen gar nicht so viel?

Insgesamt ist die FX aber deutlich besser als üblich, denn:

Bei (nicht Shaderlastigen!) Spielen war eine NV38 bei den meisten Benchmarks ohne AA/AF meist ein bischen schneller als eine R360,

mit 2xAA/4xAF schon weiter hinten,

und mit 4xAA/8xAF meist deutlich zurück (wobei ATI AF, die Leistung auf Kosten der BQ gewinnt)

Mein persönliches Fazit:

Nun ist die FX trotz AA/AF auf Augenhöhe oder besser, ohne AA/AF klar besser (gut für Midrange FX5600/5700) -wir wurden also nicht entäuscht. Nun nennt mich wieder Fanboy, ich freue mich auf viele D3-Engine Spiele die gut laufen werden! (Quake 4, RTCW 2)

Jesus
2004-07-25, 14:43:47
Original geschrieben von mjs
und mit 4xAA/8xAF meist deutlich zurück (wobei ATI AF, die Leistung auf Kosten der BQ gewinnt)

um nicht NV´s brilinearen Filter zu vergessen ;)

mjs
2004-07-25, 14:57:16
Die Trilinear Optimierung (oder Schummelei) ist nur unter DirectX aktiv, dort hat bisher auch keiner rausbekommen wie die wieder weg geht! (Vielleicht ist nV ja gnädig und lässt das mit Forceware 6X.XX auch auf den NV3X wieder ausschalten, wo doch die NV4X nun im Rampenlicht stehen -die Schalter sind ja bei den neuen Karten schon da)

reunion
2004-07-25, 15:00:32
Original geschrieben von Jesus
um nicht NV´s brilinearen Filter zu vergessen ;)

Und das mäßige AA der GFX-Serie ;)

dildo4u
2004-07-25, 15:08:41
Original geschrieben von reunion
Und das mäßige AA der GFX-Serie ;)
Wo? konnte ich nicht feststellen
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=2041013#post2041013

StefanV
2004-07-25, 15:11:03
Original geschrieben von dildo4u
Wo? konnte ich nicht feststellen
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=2041013#post2041013

Er sprach von der FX Serie, nicht von den NV40...

MadManniMan
2004-07-25, 15:13:42
Original geschrieben von reunion
Und das mäßige AA der GFX-Serie ;)

Hey, wir reden hier über Doom3 - da braucht man sich als < NV40/R420 User gar keine Gedanken über AA größer denn 2* machen ;)

Insofern halte ich den Nachteil der fehlenden MSAA mit einer EER über 2*2 beim NV3X für akademisch.

Tatsache ist doch: die FXen performen bei Doom3 wohl besser, als man es "gewohnt" ist - aber warten wir weitergehend Prüfungen ab, mich persönlich interessiert sehr der Unterschied zwischen NV30 und NV35.

Tigerchen
2004-07-25, 16:09:08
Stimmt das eigentlich daß 2xAA bei den R3xx bei Doom3 ohne Performaceverlust machbar ist? Oder ist das so ein Märchen daß irgendein Fanboy erfunden hat?

MadManniMan
2004-07-25, 16:42:29
Nun, ich weiß, daß der R420 ohne AA 16 Zixel/Takt, mit 2*AA 32 Zixel/Takt schafft. Die ROPs sind darauf ausgelegt.

Dennoch wird natürlich die Füllrate und die Bandbreite für die Kantenpixel verbraten, als nix mit 2*AA for free.

Die 2* Lösungen von ATi und nV sind schon sehr optimal für MSAA, aber for free wird da nie was sein ;)

MadManniMan
2004-07-25, 17:01:04
Achja, wenn ich das richtig verstehe, geschieht so der Z-Pass bei 2*AA im Vergleich zu keinem ohne Z-Füllratenhit, die Füllrate bei den anderen Passes wird dann aber natürlich beansprucht, die Bandbreite sowieso.

Ob es beim R3XX genauso ist... ich denke schon, aber bestätigen kann ich das grad nicht!

mjs
2004-07-25, 17:48:35
Original geschrieben von MadManniMan
...mich persönlich interessiert sehr der Unterschied zwischen NV30 und NV35.

Hallo MadManniMan,

dieses Bild habe ich schon mal in einem anderen Thread angehängt. Ist das einzige das ich kenne, dass eine NV30 enthält.

-Ja ich weiß, es ist 1 Jahr alt, aber die neuesten Benchmarks haben das Verhältnis NV35/R3XX nicht mehr verschoben, daher glaube ich das die NV30 wohl die größte positive Überraschung sein könnte! (Man sehe sich nur mal die 5600er an, trotz besserer Darstellungsqualität diesmal klar vor Geforce 4Ti -sah man auch nicht alle Tage!

deekey777
2004-07-25, 17:55:01
Original geschrieben von mjs
Hallo MadManniMan,

dieses Bild habe ich schon mal in einem anderen Thread angehängt. Ist das einzige das ich kenne, dass eine NV30 enthält.

-Ja ich weiß, es ist 1 Jahr alt, aber die neuesten Benchmarks haben das Verhältnis NV35/R3XX nicht mehr verschoben, daher glaube ich das die NV30 wohl die größte positive Überraschung sein könnte! (Man sehe sich nur mal die 5600er an, trotz besserer Darstellungsqualität diesmal klar vor Geforce 4Ti -sah man auch nicht alle Tage!

Absolut irrelevant, da alle FXen den NV30 Renderpfad nutze, der ua auch viel FX12 verwendete.

mjs
2004-07-25, 18:25:00
Original geschrieben von Tigerchen

Stimmt das eigentlich daß 2xAA bei den R3xx bei Doom3 ohne Performaceverlust machbar ist

Nein, auch eine R3XX muß hier Federn lassen. Allerdings ist das bei den Radeons verhältnismäßig wenig. Das hat ATI gut hinbekommen.

Aber, es könnte auch einen anderen Grund haben:

Ich hatte früher (2000-2002) eine Radeon 64MB DDR (Codename Rage6, das mit R100 stimmt so wohl nicht). Diese war in allen Benchmarks (z.B. Quake 3) mit 32Bit Farbtiefe fast so schnell wie mit 16Bit. Jetzt haben die einen gesagt, die wäre wohl besser auf 32Bit optimiert als z. B. die Geforce 2GTS, die anderen sagten der 16Bit Modus der Radeon (Rage6) wäre gar nicht optimiert gewesen. In der Tat waren die beiden Chips unter 32Bit Farbtiefe häufig gleich auf, unter 16Bit zogen die Geforce Chips gehörig an. Für mich war damals klar, das 16Bit bei der Entwicklung der ersten Radeon-Chips für ATI schon keine Rolle mehr gespielt hat.

Was will ich damit sagen?

Könnte es nicht sein, daß Kantenglättung beim R300 schon als "quasi" Standard angesehen wurde und der Betrieb ohne nicht mehr allzuviel Beachtung bekommen hat (mein Vergleich mit der Farbtiefe beim ersten Radeon ist doch gar nicht mal so weit hergeholt, der hätte unter 16Bit schneller sein müssen, war es aber nicht!

mjs
2004-07-25, 18:46:15
Original geschrieben von deekey777
Absolut irrelevant, da alle FXen den NV30 Renderpfad nutze, der ua auch viel FX12 verwendete.

Du hast dieses Bild schonmal falsch beurteilt.

Original geschrieben von deekey777
Oh nein, das habe ich befürchtet...

Nur zur Info: Die FXen nutzten den NV30 Pfad, der inzwischen abgeschafft wurde...

Damals hast du behauptet, die FX wäre nur so schnell, weil der NV30 Renderpfad verwendet wurde und das Ergebnis mit ARB2 nicht mehr so aussieht. Wir konnten dich dann davon überzeugen, dass Carmack den NV30-Pfad deshalb rausgenommen hat, weil die Forceware mittlerweile unter ARB2 genauso schnell ist. Die neuesten Benchmarks haben das bestätigt.

Diesmal liegst du wieder falsch!

Es kamen damals tatsächlich Shader zu Einsatz die nur FX12 Präzision benötigten. Aber, und das ist der Punkt, die kommen auch unter ARB2 zum Einsatz. Hier (OpenGL) gibt es keine Microsoft-Regel, die den Einsatz der FX12 Rechenwerke bei den FX Chips verbieten würde (Fließkomma only!). Deshalb kann das Potenzial des NV30 endlich mal abgerufen werden!

Es ist klar, daß die ATIs auch unter OpenGL ihre Fließkomma-Shaderpower ausspielen könnten. Aber bei Doom 3 spielt das keine Rolle! -Bitte bleib also sachlich!

deekey777
2004-07-25, 19:13:53
Original geschrieben von mjs
Du hast dieses Bild schonmal falsch beurteilt. Damals hast du behauptet, die FX wäre nur so schnell, weil der NV30 Renderpfad verwendet wurde und das Ergebnis mit ARB2 nicht mehr so aussieht. Wir konnten dich dann davon überzeugen, dass Carmack den NV30-Pfad deshalb rausgenommen hat, weil die Forceware mittlerweile unter ARB2 genauso schnell ist. Die neuesten Benchmarks haben das bestätigt.

Diesmal liegst du wieder falsch!

Es kamen damals tatsächlich Shader zu Einsatz die nur FX12 Präzision benötigten. Aber, und das ist der Punkt, die kommen auch unter ARB2 zum Einsatz. Hier (OpenGL) gibt es keine Microsoft-Regel, die den Einsatz der FX12 Rechenwerke bei den FX Chips verbieten würde (Fließkomma only!). Deshalb kann das Potenzial des NV30 endlich mal abgerufen werden!

Es ist klar, daß die ATIs auch unter OpenGL ihre Fließkomma-Shaderpower ausspielen könnten. Aber bei Doom 3 spielt das keine Rolle! -Bitte bleib also sachlich!

Wir? Wer ist wir?

Zeig mir bitte den Hinweis, wo ich von "euch" darauf hingewiesen wurde, dass NV30 herausgenommen wurde - am besten gleich mit Datum.


Der aktuelle Treiber von nVidia ist so stark auf ARB2 optimiert (Shaderreplacement), dass zwar kein NV30 Pfad mehr nötig ist, aber jede Änderung des Codes tödlich ist, besonders für die FX Serie.


Und du kennst doch bestimmt den Unterschied zw. der fertiggestellten, getesteten Version und einer Alpha mit der Nr. 0.02? Daraus solltest du auch die Aussagekraft herleiten.

Tigerchen
2004-07-25, 19:24:01
Original geschrieben von mjs
Du hast dieses Bild schonmal falsch beurteilt.



Damals hast du behauptet, die FX wäre nur so schnell, weil der NV30 Renderpfad verwendet wurde und das Ergebnis mit ARB2 nicht mehr so aussieht. Wir konnten dich dann davon überzeugen, dass Carmack den NV30-Pfad deshalb rausgenommen hat, weil die Forceware mittlerweile unter ARB2 genauso schnell ist. Die neuesten Benchmarks haben das bestätigt.

Diesmal liegst du wieder falsch!

Es kamen damals tatsächlich Shader zu Einsatz die nur FX12 Präzision benötigten. Aber, und das ist der Punkt, die kommen auch unter ARB2 zum Einsatz. Hier (OpenGL) gibt es keine Microsoft-Regel, die den Einsatz der FX12 Rechenwerke bei den FX Chips verbieten würde (Fließkomma only!). Deshalb kann das Potenzial des NV30 endlich mal abgerufen werden!

Es ist klar, daß die ATIs auch unter OpenGL ihre Fließkomma-Shaderpower ausspielen könnten. Aber bei Doom 3 spielt das keine Rolle! -Bitte bleib also sachlich!


Moment mal!
Heißt das etwa daß Doom3 auf nV-Hardware erheblich unpräziser rendert und nur FX12 verwendet?

Seraf
2004-07-25, 19:47:07
Eine Quellenangabe wäre mal nicht schlecht.
Bis jetzt hört sich das ganze nach Fanboygewäsch an ;-)

deekey777
2004-07-25, 21:09:35
Original geschrieben von Tigerchen

Moment mal!
Heißt das etwa daß Doom3 auf nV-Hardware erheblich unpräziser rendert und nur FX12 verwendet?


NEIN!!!!*
Der abgeschaffte NV30 Renderpfad hatte einen grossen FX12 Anteil. Wenn es nur um das visuelle Ergebnis geht, ist es eh egal, da der NV30 Pfad gleich aussah wie ARB2, nur die Vergleichbarkeit zu der Konkurrenz leidet.


Original geschrieben von Seraf
Eine Quellenangabe wäre mal nicht schlecht.
Bis jetzt hört sich das ganze nach Fanboygewäsch an ;-)

http://www.bluesnews.com/cgi-bin/finger.pl?id=1&time=20030129210315

Ist aber alt und nicht mehr ganz aktuell.


*Liebe Mods, ich brülle nicht.

mjs
2004-07-26, 22:34:08
Original geschrieben von deekey777
Wir? Wer ist wir?

Zeig mir bitte den Hinweis, wo ich von "euch" darauf hingewiesen wurde, dass NV30 herausgenommen wurde - am besten gleich mit Datum.

Das hast du nicht verstanden, ich sagte nicht, dass ich dich darüber informiert hätte, das der NV30 Pfad rausgenommen wurde. Das hast du schon gewusst, du hast damit die Benchmarks quasi für ungültig erklärt, weil im fertigen Spiel die FX ja nun unter ARB2 ran müsste. Ich habe dir darauf geantwortet, dass dies KEIN Nachteil sei, weil die ForceWare inzwischen mit ARB2 gleich schnell sei. Die neuesten Benchmarks haben das gezeigt.

Du kannst jetzt natürlich behaupten, das du das Wort "Nachteil" nicht verwendet hast, aber das war so zu verstehen.

Den Unterschied zw. einer Alpha 0.02 und dem fertigen Spiel kenne ich nicht. Ich habe (und hatte) keines von beiden. Wo du es gerade ansprichst, das mit V0.02 habe ich von dir, bzw. deinem Versuch die vorab Benchmarks lächerlich erscheinen zu lassen.
Für alle anderen zur Erklärung:
Nach meinem THG Benchmark-Post hat unser lieber deekey777 ein tolles Bild angehängt, das einen Vergleich zw. nV und ATI zeigt (V0.02 Alpha), wo die ATIs bei allen Auflösungen nur etwa 10 FPS bringen. Das ist natürlich Quatsch, aber deekee777 stellt das scheinbar auf eine Stufe mit den "echten" THG Benchmarks. (Deshalb bat ich dich diesmal sachlich zu bleiben)

Nun, da du jetzt den selben Benchmark wieder als irrelevant bezeichnest -und diesmal sind es die vielen FX12 Shader im alten NV30 Pfad (als ob die nicht auch im ARB2 geblieben wären) gehe ich davon aus, dass du zumindest eingesehen hast, das der Wechsel zu ARB2 keinen Leistungsverlust mit sich brachte. (Mit "wir" meinte ich -meinen Hinweis, -keine anderen Forenuser die deine verwirrenden Thesen stützten -und zuletzt die neuesten Benchmarks die dein "irrelevant" klar wiederlegt haben!)

Wenn im ARB2 Pfad tätsächlich mehr Fließkomma-Shader als im NV30 Pfad vorkommen würden, könnte er doch auf einer FX gar nicht gleich schnell sein!

Es gibt also überhaupt keinen Grund die tolle Leistung des alten FX5800 anzuzweifeln!

q@e
2004-07-27, 10:02:38
Original geschrieben von Tigerchen

Moment mal!
Heißt das etwa daß Doom3 auf nV-Hardware erheblich unpräziser rendert und nur FX12 verwendet?


Wärst du so gut, und beantwortest vielleicht noch meine Fragen von Seite 1 dieses Threads?

mjs
2004-07-27, 12:38:19
Ich persönlich habe noch nicht gelesen, das Ultra Shadow tatsächlich eingesetzt wird. Ich vermute es, da Nv die Technik immer mittels Doom3 Pictures erklärt hat. Dagegen sprechen könnte, dass der Unterschied zw. NV30 und NV35 auffallend gering war (zumindest beim alten THG Bench).

So, nun darf Tigerchen wieder ran...

DanMan
2004-07-27, 14:18:38
Original geschrieben von mjs
Ich persönlich habe noch nicht gelesen, das Ultra Shadow tatsächlich eingesetzt wird. Ich vermute es, da Nv die Technik immer mittels Doom3 Pictures erklärt hat. Dagegen sprechen könnte, dass der Unterschied zw. NV30 und NV35 auffallend gering war (zumindest beim alten THG Bench).

So, nun darf Tigerchen wieder ran...
Ultra Shadow = Optimierung zur Darstellung von Schatten

DooM]|[ = Schatten = Ultra Shadow

Oder siehst du das anders?

q@e
2004-07-27, 14:27:20
Ich sehe das so:
Ultra-Shadow = Muss per Aufruf extra angesprochen werden.

(natürlich gilt das nur für den Teil von Ultra-Shadow, der per GL_NV_depth_Bounds komplette Bereiche culled - nicht für die Z-/Stencil-Optimierung).

DanMan
2004-07-27, 16:12:13
Original geschrieben von q@e
Ich sehe das so:
Ultra-Shadow = Muss per Aufruf extra angesprochen werden.

(natürlich gilt das nur für den Teil von Ultra-Shadow, der per GL_NV_depth_Bounds komplette Bereiche culled - nicht für die Z-/Stencil-Optimierung).
Hmm... stimmt auch wieder. Aber ich denk dass es auf dem NV40 benutzt wurde, also wirds auch auf dem NV3X Verwendung finden.

aths
2004-07-27, 18:01:04
Original geschrieben von Tigerchen
http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_4_1.gif

[COLOR="#000088"]
Seit weit über einem Jahr erzählt man hier daß der nV35 schlicht der Knaller für Doom3 ist. Da fragt man sich wieso der nV35 trotz Ultra Shadow so schlecht abschneidet. Dies nur mal als Erinnerung an all die hier die bei jeder unpassenden Gelegenheit auf die zu erwartende Doom3 Performance von FX5900/5950 Grafikkarten hingewiesen haben. Das war wohl nix. Vielleicht wäre es sinnvoller in Zukunft nicht ganz so oft auf nicht erschienene Spiele zu verweisen um die Leistungsfähigkeit von Grafikkarten zu bewerten.Bei gleicher AF-Qualität wäre die 5950 U ein gutes Stück vorne.

aths
2004-07-27, 18:09:53
Original geschrieben von Jesus
um nicht NV´s brilinearen Filter zu vergessen ;) Siehe aktuellen 3DC-Artikel: Das kann man inzwischen abschalten. Bei Radeon 9600 und X*00 leider nicht.

MadManniMan
2004-07-27, 18:10:31
Original geschrieben von aths
Bei gleicher AF-Qualität wäre die 5950 U ein gutes Stück vorne.

Was sich mit 2*AF nährungsweise nachweisen ließe - und lieber 2*, als gar nix ;)

-> we'll see!

Gast
2004-07-27, 19:15:49
Original geschrieben von aths
Siehe aktuellen 3DC-Artikel: Das kann man inzwischen abschalten. Bei Radeon 9600 und X*00 leider nicht.

AFAIK schon, oder meinst dass man die Brilinearität nicht abschalten kann, da der R3x0 deiner Meinung nach auch brilinear rechnet?

aths
2004-07-27, 22:09:56
Original geschrieben von Gast
AFAIK schon, oder meinst dass man die Brilinearität nicht abschalten kann, da der R3x0 deiner Meinung nach auch brilinear rechnet? Den RV350 (Radeon 9600) habe ich eigenhändig untersucht: Der Chip filtert nur "brilinear", es sei denn, die MIPs unterscheiden sich sehr stark (werden nicht mit dem üblichen 2x2-Filter erzeugt, was aber der Regelfall ist.) Mit dem Deto 61.76 kann ich mit dem Regler auf "Hohe Qualität" volle trilineare Filterung erzwingen (was imo bei einer Hardware von der Leistungsklasse einer FX 5900 XT auch selbstverständlich sein sollte, umso mehr verwundert mich ATIs Vorgehen bei der X800: Per Treiber in D3D nur bi-AF auf nichtprimären Texturstages, auf der primären nur "brilinear", und außerdem ein AF welches neben der starken Winkelabhängigkeit auch noch zu wenig Texel für einen gegebenen AF-Grad nutzt: Die schnellste Radeon filtert am schlechtesten. Dafür habe ich kein Verständnis.)

Tigerchen beweist mit dem Benchvergleich bei 1x AA//8x AF wunderbar, wie wenig das 8x AF bei der Radeon taugt. Auf der anderen Seite sind Tests mit 4x AA natürlich ebenfalls sinnlos, hier ist der Füllraten-Aufwand zwar vergleichbar (die Radeon muss ein wenig mehr ackern) aber es wird EER von 2x2 vs. einer EER von 4x4 verglichen. Das sollte man nicht tun: 4x geglättete Kanten sehen auf der 9500+ deutlich glatter aus als auf einer 5950 Ultra. Bei scharfen Kontrasten dürfte zudem das gammakorrigierte Downfiltering auf der Radeon für einen weiteren Qualitätsschub gegenüber der GeForce sorgen.

John Porno
2004-07-27, 22:47:06
Original geschrieben von aths
Den RV350 (Radeon 9600) habe ich eigenhändig untersucht: Der Chip filtert nur "brilinear", der GeForce sorgen.

Nun habe ich mal ne Frage ( was ist brilinear )?. Ich kenn nur Bilinear.

Mfg Heigl Raimund

Hempster
2004-07-27, 23:01:38
Original geschrieben von John Porno
Nun habe ich mal ne Frage ( was ist brilinear )?. Ich kenn nur Bilinear.

Mfg Heigl Raimund

Erstmal geiler Nick! Ich musste eben doch sehr lachen. :D

Zur Frage: Auf dieser Seite gibt es die tollsten Artikel zum Thema:
http://www.3dcenter.de/artikel/

Kurz: Eine Mischung aus Bi- und Trilinear.

aths
2004-07-27, 23:02:13
Original geschrieben von John Porno
Nun habe ich mal ne Frage ( was ist brilinear )?. Ich kenn nur Bilinear.

Mfg Heigl Raimund Nvidia nennt es "adaptiv trilinear". Auf 3DCenter gibt es einen Artikel dazu :) http://www.3dcenter.org/artikel/2003/10-26_a.php

mjs
2004-07-28, 12:49:25
sag mal, weisst du wieviel Leistung Ultra Shadow bei Doom 3 wirklich bringen kann?

Und ob die NV30 im fertigen Spiel immer noch problemlos mit der NV35 mithalten kann. Die eine unterstützt ja mit CineFX 1 diese Technik noch nicht.

(Natürlich nicht auf max. möglichen Details, da die eine ja "nur" 128MB hat)

Tigerchen
2004-07-28, 20:07:42
Original geschrieben von aths
Bei gleicher AF-Qualität wäre die 5950 U ein gutes Stück vorne.

Das war ja mal wieder klar.
Das so schlimme winkelabhängige AF ist schuld. Da fragt man sich warum nV das übernommen hat wenn es sooooooo schlecht ist.
Fakt ist der nV35 konnte die vollmundigen Versprechen nicht halten. Bei anderen Spielen sowieso nicht. Aber auch beim Paradepferd Doom3 ist das Design nicht der Überflieger den unter anderem ein aths versprochen hat. Er kann mithalten und zeigt in manchen Settings etwas mehr Leistung als die Konkurrenz.Freut mich für alle die ihr Geld in eine FX5900/5950 gesteckt haben. Aber die Erwartungshaltung war doch eine ganz andere oder?

Endorphine
2004-07-28, 20:52:40
Original geschrieben von aths
Bei scharfen Kontrasten dürfte zudem das gammakorrigierte Downfiltering auf der Radeon für einen weiteren Qualitätsschub gegenüber der GeForce sorgen. ... leider nur auf CRTs. :(

Mr. Bandit
2004-07-28, 20:56:14
Wieso nicht auf TFTs?

Mordred
2004-07-28, 21:01:47
Original geschrieben von Tigerchen

Das war ja mal wieder klar.
Das so schlimme winkelabhängige AF ist schuld. Da fragt man sich warum nV das übernommen hat wenn es sooooooo schlecht ist.
Fakt ist der nV35 konnte die vollmundigen Versprechen nicht halten. Bei anderen Spielen sowieso nicht. Aber auch beim Paradepferd Doom3 ist das Design nicht der Überflieger den unter anderem ein aths versprochen hat. Er kann mithalten und zeigt in manchen Settings etwas mehr Leistung als die Konkurrenz.Freut mich für alle die ihr Geld in eine FX5900/5950 gesteckt haben. Aber die Erwartungshaltung war doch eine ganz andere oder?


Nv hats übernommen weil der MArkt eben so dumm ist nur auf die FPS zu gucken. Was blieb da anderes?

Endorphine
2004-07-28, 21:09:01
Original geschrieben von Mr. Bandit
Wieso nicht auf TFTs? Weil die AA-"Gammakorrektur" von ATI fest auf einen Gammawert von IIRC &gamma;2,2 "korrigiert". Und das ist für TFTs ohne Gammajustagemöglichkeit keine Korrektur, sondern eher eine Verfälschung.

q@e
2004-07-28, 21:32:25
Original geschrieben von Tigerchen

Das war ja mal wieder klar.
Das so schlimme winkelabhängige AF ist schuld. Da fragt man sich warum nV das übernommen hat wenn es sooooooo schlecht ist.
Fakt ist der nV35 konnte die vollmundigen Versprechen nicht halten. Bei anderen Spielen sowieso nicht. Aber auch beim Paradepferd Doom3 ist das Design nicht der Überflieger den unter anderem ein aths versprochen hat. Er kann mithalten und zeigt in manchen Settings etwas mehr Leistung als die Konkurrenz.Freut mich für alle die ihr Geld in eine FX5900/5950 gesteckt haben. Aber die Erwartungshaltung war doch eine ganz andere oder?


Tigerchen, kannst du nun vielleicht meine Fragen von Seite 1 beantworten?

Colin MacLaren
2004-07-28, 23:29:59
Original geschrieben von [KoC]Mordred
Nv hats übernommen weil der MArkt eben so dumm ist nur auf die FPS zu gucken. Was blieb da anderes?

Nichtsdetsotrotz läuft auch das "optimierte" AF bei Ati deutlich schneller als bei NV.

Das völlig optimierungsfreie "HighQuality" ist imho in aktuellen Spielen sowieso vollkommen sinnfrei, brachte es auf meiner FX5900@533/985 doch im FarCry Bench in der Pier-Demo ganze 20fps, ingame dann um die 10. Hingegen erreichte ich mit "Performance"-AF 60 fps im Benchmark, ingame um die 40.

Für alte Spiele Jahrgang QuakeIII usw. ist es sicherlich ein nettes Feature, für aktuelle Titel wie Far Cry und Doom 3 oder gar für Benchmarkvergleiche von Grafikkarten kompletter Unsinn, da die Leistung in akutellen Titeln einfach indiskutabel ist.

Ati bringt imho den idealen Kompromiß. Dort, wo AF wirklich auffällt, auf den vor dem Spieler verlaufenden Bodentexturen, erhält man optimale Filterung, der Rest, den man ingame und ohne Spezialtools sowieso kaum bemerkt, wird optimiert. Dafür gibt es AF fast "for free".

Ich hatte beide Karten zum Vergleichen, und Atis 16xAF, welches mir schlicht und einfach schönere Bodentexturen für c. 10% Performanceeinbußen liefert, hat ich deutlich besser überzeugt, als das 8x "Performance"-AF der FX5900, welches sich zudem mit 30-50% Frameraeeinbrüchen bemerkbar machte. Die "HighQuality"-Einstellung war für mich jedenfalls nutzlos.

MadManniMan
2004-07-29, 00:52:30
Original geschrieben von Colin MacLaren
Ati bringt imho den idealen Kompromiß. Dort, wo AF wirklich auffällt, auf den vor dem Spieler verlaufenden Bodentexturen, erhält man optimale Filterung, der Rest, den man ingame und ohne Spezialtools sowieso kaum bemerkt, wird optimiert. Dafür gibt es AF fast "for free".

Wenn du das imho durchgezogen hättest, hätt ich dir zustimmen können.

Nur leider läßt Einem ATi keine Wahl! ATM spiele ich BF42 und NFS4. Bei ersterem hats Gelände, daß sehr verwinkelt ist - Schärfe bis in die letzte Ecke vermisse ich bei der Radeon, bei der FX hier nicht mehr.
Außerdem hats beim Rennspiel viele Schrägen, vor allem aus der Cockpitperspektive(Cockpit schwenkt), und wenn einem dann sanft die Anisotropie von 2* bis 16* wieder einholt und verschwindet, dann sieht das schon nicht so souverän aus, wie bei der FX.

Wo die Leistung da ist, verliert die Radeon einfach an IQ ... und wo sie fehlt - da gehe ich mit Q und aths ganz konform - reduziere ich lieber den AF-Grad!

Für dich mag die ATi-Lösung besser sein, ich dachte das von mir auch... aber für die Allgemeinheit ist es schade, nicht in den Genuß von Lehrbuch-AF kommen zu dürfen.

Die schnellste Karte mit richtig schönem AF auf dem Markt ist leider die FX5950 Ultra ... ;(

DanMan
2004-07-29, 01:12:17
Original geschrieben von MadManniMan
Wenn du das imho durchgezogen hättest, hätt ich dir zustimmen können.

Nur leider läßt Einem ATi keine Wahl! ATM spiele ich BF42 und NFS4. Bei ersterem hats Gelände, daß sehr verwinkelt ist - Schärfe bis in die letzte Ecke vermisse ich bei der Radeon, bei der FX hier nicht mehr.
Außerdem hats beim Rennspiel viele Schrägen, vor allem aus der Cockpitperspektive(Cockpit schwenkt), und wenn einem dann sanft die Anisotropie von 2* bis 16* wieder einholt und verschwindet, dann sieht das schon nicht so souverän aus, wie bei der FX.

Wo die Leistung da ist, verliert die Radeon einfach an IQ ... und wo sie fehlt - da gehe ich mit Q und aths ganz konform - reduziere ich lieber den AF-Grad!

Für dich mag die ATi-Lösung besser sein, ich dachte das von mir auch... aber für die Allgemeinheit ist es schade, nicht in den Genuß von Lehrbuch-AF kommen zu dürfen.

Die schnellste Karte mit richtig schönem AF auf dem Markt ist leider die FX5950 Ultra ... ;(
Dem kann ich mich wiederum zu 100% anschließen. Sobald der Boden nicht mehr völlig glatt ist kann es bei diesem optimiertem AF dazu kommen, dass eine scharfe Textur direkt an eine verwaschene grenzt - und das sieht definitiv bescheiden aus.

/me streichelt seine GF4 ;)

MadManniMan
2004-07-29, 01:19:49
Original geschrieben von DanMan
...und das sieht definitiv bescheiden aus...

Ja, ATi-AF auf unebenem Gelände ist zwar auch eine merkliche Besserung, aber imho wirkt der Unterschied zwischen 2* ATi auf 16* ATi bei BF42 Gelände nochmal wie 16* ATi auf 8* nV.

ow
2004-07-29, 09:35:11
Original geschrieben von MadManniMan

Wo die Leistung da ist, verliert die Radeon einfach an IQ ... und wo sie fehlt - da gehe ich mit Q und aths ganz konform - reduziere ich lieber den AF-Grad!

Die schnellste Karte mit richtig schönem AF auf dem Markt ist leider die FX5950 Ultra ... ;(


Ich gehe da ebenfalls konform.

Zum Topic:
Die NV Chip performen ausgezeichnet unter Doom3, ganz so wie man es bei realistischer Einschaetzung erwarten konnte. Aus einem fps-Rueckstand gegenuber ATi in anderen Applikationen ist ein Vorsprung geworden.

aths
2004-07-29, 12:55:50
Original geschrieben von mjs
sag mal, weisst du wieviel Leistung Ultra Shadow bei Doom 3 wirklich bringen kann?Nein, das weiß ich nicht. Hoffentlich kann man das mit dem fertigen Spiel mal austesten, dazu müsste Ultra Shadow natürlich deaktivierbar sein.
Original geschrieben von mjs
Und ob die NV30 im fertigen Spiel immer noch problemlos mit der NV35 mithalten kann. Die eine unterstützt ja mit CineFX 1 diese Technik noch nicht.Auch das werden Benchmarks zeigen müssen. NV35 sollte sich aber ein gutes Stück vom NV30 absetzen können. Die 5900 hat einfach viel mehr Bandbreite und mehr Shader-Rechenleistung.

aths
2004-07-29, 13:14:41
Original geschrieben von Tigerchen
[COLOR="#000088"]
Das war ja mal wieder klar.
Das so schlimme winkelabhängige AF ist schuld. Da fragt man sich warum nV das übernommen hat wenn es sooooooo schlecht ist.Weil es zu viele Leute gibt, die einen AF-Grad anschalten können, aber leider nicht in der Lage sind, die tatsächliche resultierende Texturqualität zu sehen.
Original geschrieben von Tigerchen
Fakt ist der nV35 konnte die vollmundigen Versprechen nicht halten. Bei anderen Spielen sowieso nicht. Aber auch beim Paradepferd Doom3 ist das Design nicht der Überflieger den unter anderem ein aths versprochen hat.Wo habe ich was versprochen?

Welche vollmundigen Versprechen werden wo nicht gehalten? Privat spiele ich mit einer 5900 XT – also der schwächsten NV35-Variante – alles mit hervorragender Texturqualität (aber nur mäßig gutem Antialiasing) und bin trotz Athlon XP 2800+ in der Regel CPU-limitiert. Um eine Karte einschätzen zu können, reicht es kaum, sich im Internet durch Benches zu blättern.

Was du in diesem Thread machst, lässt mich ehrlich gesagt zweifeln, wie ernst du es meinst: Ausgerechnet 1x AA / 8x AF, was auf NV35 ganz anders aussieht als auf R350. In 4x AA und 1x AF liegt NV35 deutlich vorne. Was wird mit diesem Benchmark bewiesen? Imo, dass R350 in Doom3 ein Problem mit dem Verwerfen von Pixeln hat, sofern man >2x AA aktiviert hat. Was beweist du mit deinen Settings? Dass R350 beim 8x AF viel Füllrate spart – zwangsläufig zulasten der Qualität.

8x mit 8x zu vergleichen, weil beides 8x heißt? Warum dann nicht 4x AA vergleichen :bonk:? Oder 4xAA//8x AF. Wer liegt dann jeweils vorne?

Original geschrieben von Tigerchen
Er kann mithalten und zeigt in manchen Settings etwas mehr Leistung als die Konkurrenz.Freut mich für alle die ihr Geld in eine FX5900/5950 gesteckt haben. Aber die Erwartungshaltung war doch eine ganz andere oder?Meine Erwartungshaltung an die 5900 XT ist, dass sie bei meiner CPU in Doom3 schneller als die Ti 4600 ist, sowie eine höhere Bildqualität liefert – und natürlich eine Radeon der gleichen Klasse aussticht.

MadManniMan
2004-07-29, 14:54:09
Original geschrieben von aths
Auch das werden Benchmarks zeigen müssen. NV35 sollte sich aber ein gutes Stück vom NV30 absetzen können. Die 5900 hat einfach viel mehr Bandbreite und mehr Shader-Rechenleistung.

...wobei ich immernoch noch Benches suche, wo der NV35 deutlich bandbreitenlastig den NV30 aussticht :ratlos:

(seine FX5800 tätschelt...)

aths
2004-07-29, 16:50:47
Original geschrieben von MadManniMan
...wobei ich immernoch noch Benches suche, wo der NV35 deutlich bandbreitenlastig den NV30 aussticht :ratlos:

(seine FX5800 tätschelt...) Eine 5800 konnte ich nie testen (als ich die 5800 Ultra von Leadtek bei K&M bestellen wollte, war sie schon weg :(, vorher rang ich einige Tage mit mir) doch zumindest gegenüber der Ti 4600 hat die 5900 XT mit nur 33% mehr Coretakt mehr als 33% "nutzbare" Füllrate: Ich kann 50% (und etwas mehr) Füllrate (durch Auflösung) verballern, ehe ich in den Ti 4600-Bereich komme. Den Effekt schob ich mangels besserer Erklärungen erst mal auf die Speicherbandbreite. (Außerdem scheint die 5900 XT, abgesehen von der höheren Grundleistung, auch belastbarer, irgendwie ausgewogener. Das kann aber durchaus Einbildung sein.)

MadManniMan
2004-07-29, 22:47:16
Der einzige Test von Leo, bei dem 5800 und 5900 aufeinanderstoßen, ist leider der AA-Artikel, wo AF immer auf MAX steht.

OK ich gebe gerne zu, daß mir die Füllrate des NV3X eh wichtiger, denn die Speicherbandbreite ist, denn ich möchte immer einen AF-Level wählen können, der so hoch wie möglich liegt und von daher stellt meine 90€ 5800 auch keinen Nachteil gegenüber einer 5900XT dar ;)

Aber der GFX-Akademiker in meinem Kopf möchte dennoch mal wissen, ob die (mehr als) verdopp0rlte Bandbreite der 5900 gegenüber der 5800 wirklich etwas rausreißt - geht natürlich nur bei niederen AF-Einstellungen...


OT: Was mich aber bei meiner 5800 wundert... trotz des theoretisch "besseren" CBMC der FX (4*32bit gegenüber 2*64bit) gegenüber meiner Radeon 9500Pro besitzt letztere bei Gleichtaktung die höhere Füllrate:


275/270 (R300 Standard) 375/320 (Max o/c)
ST MT ST MT
9500Pro 961,3 2.174,3 1.157,6 2.934,3
FX 5800 838,6 1.928,8 956,4 2.462,1


Getestet beim Murks2001SE mit Cata3.7 bzw. FW61.76 ...

Allerdings ist diese höhere Füllrate nicht nur beim (Bandbreitentest ;) )ST zu sehen, sondern auch beim (eigentlich rein Core-Limitierten) MT!

Wie kommt das Zustande? Höhere Effektivität des 8*1 gegenüber dem 4*2 Design - auch bei MT? :|

aths
2004-07-29, 23:15:37
Original geschrieben von MadManniMan
OT: Was mich aber bei meiner 5800 wundert... trotz des theoretisch "besseren" CBMC der FX (4*32bit gegenüber 2*64bit) gegenüber meiner Radeon 9500Pro besitzt letztere bei Gleichtaktung die höhere Füllrate:


275/270 (R300 Standard) 375/320 (Max o/c)
ST MT ST MT
9500Pro 961,3 2.174,3 1.157,6 2.934,3
FX 5800 838,6 1.928,8 956,4 2.462,1


Getestet beim Murks2001SE mit Cata3.7 bzw. FW61.76 ...

Allerdings ist diese höhere Füllrate nicht nur beim (Bandbreitentest ;) )ST zu sehen, sondern auch beim (eigentlich rein Core-Limitierten) MT!

Wie kommt das Zustande? Höhere Effektivität des 8*1 gegenüber dem 4*2 Design - auch bei MT? :| Je nach 3DMark-Version ist auch der MT-Füllratentest teilweise bandbreitenlimitiert. Um reine Füllrate zu messen empfehle ich Archmark und nix anderes: Der misst in 16 Bit mit RGBA 5650 (und iirc auch in 32 Bit RGBA 8888, jedes mal mit Z/Stencil 0/0.)

Praktisch alles kostet irgendwie Bandbreite. Wenn ich das richtig sehe, sind 256 Bit DDR für 4x2 deutlich überdimensioniert, aber 128 Bit DDR etwas unterdimensioniert. Dass die 5900 mit besserem Speicher trotzdem noch skaliert, schiebe ich darauf, dass auch Dinge wie Zugriffszeiten noch immer eine wichtige Rolle spielen.

MadManniMan
2004-07-29, 23:33:57
Original geschrieben von aths
Je nach 3DMark-Version ist auch der MT-Füllratentest teilweise bandbreitenlimitiert. Um reine Füllrate zu messen empfehle ich Archmark und nix anderes: Der misst in 16 Bit mit RGBA 5650 (und iirc auch in 32 Bit RGBA 8888, jedes mal mit Z/Stencil 0/0.)

Es würde mich aber sehr wundern, wenn die Radeons mit der Bandbreite @ 2*64bit besser umgängen, als die FXen mit 4*32bit :|

Aber du hast Recht, der Arsemark(TM) ist wohl die bessere wahl *anschmeiß*

So, Airgaybnisse:

...FX58 ...R95P ...FX58 ...R95P
@275/270 @375/320
Füllrate 997,5 908,8 1.501,0 1.092,3 MPix/s
Bandbr. 11,338 9,351 12,913 11,138 GB/s

Simples Abschraibing der Non-Detail Werte - und imho recht interessant ;)

q@e
2004-07-30, 01:03:35
Original geschrieben von MadManniMan
...wobei ich immernoch noch Benches suche, wo der NV35 deutlich bandbreitenlastig den NV30 aussticht :ratlos:

(seine FX5800 tätschelt...)

Ich habe sie auch gesucht - (http://www.computerbase.de/artikel/hardware/grafikkarten/geforce_roundup/9/#synthetische_benchmarks) nicht einmal 2xAA konnte diese Unterschiede von beinahe 100% deutlich herausarbeiten, erst mit 4xAA kam dann (inkl. AF) auch das 256Bit-Interface zum Tragen.

Außer in Spezialfällen kann die nV35 eben auch nur 4 Pixel pro Takt wegschreiben - da reichen anscheinend mehr als oft hochfrequente 128Bit.

MadManniMan
2004-07-30, 01:21:27
Jo, der NV30/35 ist 4*2 Deluxe =)

Nun, just stellt sich mir die Frage, wieviele MSAA Subpixel eine ROP so pro Takt schafft... :grübel:

MadManniMan
2004-07-30, 08:21:50
Ey ... und jetzt hab ich mir auch nochmal dein Roundup zu den GFs reingezogen...

Einzig bei Nature und dem Fablemark wird die 5800 abgezogen - im großen und ganzen aber sind die Unterschiede kaum der Rede wert!
Ich frage mich hierbei allerdings, was beim Schattenmark so reinhau0rt - das fehlende Ultra Shadow oder doch die Bandbreite. Alles in allem ärgert mich aber das Abschneiden beim Fablemark des NV30 doch ein wenig, weil es somit wahrscheinlicher scheint, daß meine 5800 gegenüber ner 5900 abkackt ;)

q@e
2004-07-30, 10:34:34
Das (http://www.computerbase.de/artikel/hardware/grafikkarten/radeon_7500_9800_pro/9/#fablemark) sollte deine Frage beantworten. (auf die Unterschiede R9500p vs. R9700np mal achten ;))

LovesuckZ
2004-07-30, 10:34:52
Original geschrieben von MadManniMan
Ey ... und jetzt hab ich mir auch nochmal dein Roundup zu den GFs reingezogen...
Einzig bei Nature und dem Fablemark wird die 5800 abgezogen - im großen und ganzen aber sind die Unterschiede kaum der Rede wert!


Dann guck dir bloß keine Vergleiche an, wo boese Entwickler auf FP Genauigkeit setzen und viele mathematische Anweisungen verwenden.

q@e
2004-07-30, 10:42:02
uuuh-oooh, schon wieder die Hälfte vergessen zu posten...

Also,
Der Schattenmark produziert IIRC 95% transparenten Overdraw, verschleudert quasi sinnlos Leistung in einem Maße, wie es ein Spiel, welches sich ja schließlich nicht nur an SLI-6800 Besitzer verkaufen soll, niemals erlauben könnte. Ich gehe davon aus, daß ein nV35 zwar schneller in D³ sein wird, aber nicht so viel, daß man sich die Haare raufen wird.

Ultra-Shadow (GL_NV_Depth_Bounds (?)) ist ein Feature, daß explizit aktiviert werden will, im FableMark also nicht genutzt wird und werden kann.

Wenn es denn mal aktiv ist bei Doom³ (;)) könnte das schon einen deutlicheren Unterschied zwischen nV30 und nV35 herzaubern, wenn es nicht doch noch einen Weg gibt, die Extension auf dem nV30 verfügbar zu machen. ;)

Sry 4 die fiele SM-Eilies ;(

q@e
2004-07-30, 10:43:45
Original geschrieben von LovesuckZ
Dann guck dir bloß keine Vergleiche an, wo boese Entwickler auf FP Genauigkeit setzen und viele mathematische Anweisungen verwenden.

Ach was, für HardCore-nV30'ler gibt's eh nur FP32 - alles andere ist für Mädchen.

reunion
2004-07-30, 10:48:10
Original geschrieben von aths
Bei gleicher AF-Qualität wäre die 5950 U ein gutes Stück vorne.

Ich hoffe du hast den bri filter beim NV35 nicht vergessen.

ow
2004-07-30, 11:28:21
Original geschrieben von reunion
Ich hoffe du hast den bri filter beim NV35 nicht vergessen.

Hat er ganz sicher nicht.

mjs
2004-07-30, 12:51:41
Ist es eigentlich richtig, das Doom 3 beim raufsetzten der Grafikeinstellungen automatisch AA/AF einbezieht?
(Sprich High-Quality hat immer AA/AF aktiviert)

Bisher konnte man ja immer mit max. Details spielen und AA/AF auf eigenen Wunsch einschalten, -oder eben nicht!

Das würde ja bedeuten, dass jemand mit einer Karte, die für AA/AF zu langsam ist (Midrange-Class) auch zwangsläufig schlechtere Texturauflösungen, weniger Details/Objekte sieht. Also eben all das, was Spiele auf mittleren, oder gar niedrigen Settings nicht mehr anzeigen.

Das wäre doch sehr schade, wenn die Karte nur wegen AA/AF im "High-Quality Modus" zu langsam ist und man deshalb auf Medium runtergehen müsste!

ow
2004-07-30, 13:09:31
Original geschrieben von mjs
Ist es eigentlich richtig, das Doom 3 beim raufsetzten der Grafikeinstellungen automatisch AA/AF einbezieht?
(Sprich High-Quality hat immer AA/AF aktiviert)



Gilt nur fuer AF.
AA kann eine OpenGL Anwendung nicht aktivieren, also geht das nur ueber das Controlpanel des Treibers.

AF laesst sich ueber die .ini von D3 abschalten. Das ist dann halt ein "HQ Modus ohne AF".

MadManniMan
2004-07-30, 16:07:36
Ey, ich nehme an, Doom3 wird füllratenabhängig sein, bevor die Bandbreite eine Rolle spielt ... von daher ists schon krass, was der Fablemark so abzieht. ;)

Tjo und Nature - ich komm nicht ganz hinter, was du mir sagen willst LS ?-)

LovesuckZ
2004-07-30, 16:10:13
Original geschrieben von MadManniMan
Tjo und Nature - ich komm nicht ganz hinter, was du mir sagen willst LS ?-)

Ich liege richtig, dass du mit "im großen und ganzen aber sind die Unterschiede kaum der Rede wert!" dich auf die restlichen Anwendungen beziehst.
Oder ich liege falsch und du meinst nur die Anwendungen vom Link.

Such dir was aus :)

q@e
2004-07-30, 16:19:00
Original geschrieben von MadManniMan
Ey, ich nehme an, Doom3 wird füllratenabhängig sein, bevor die Bandbreite eine Rolle spielt ... von daher ists schon krass, was der Fablemark so abzieht. ;)

Tjo und Nature - ich komm nicht ganz hinter, was du mir sagen willst LS ?-)

Hm? Ich verstehe nicht ganz, wo du hinwillst, MMM - FableMark -> Bandbreite (mit AA!), Doom3 -> Füllrate (k. Ahnung ob mit/ohne/egal AA).

Was LS IMO meint, ist, daß der nV35 ggü. dem nV30 glänzen kann, wenn viele (lange) pp-Shader benutzt werden.

MadManniMan
2004-07-30, 16:30:12
Danke Q, jetzt versteh ich :D Mir war nur nicht klar, wie jetzt "Nature" dahingeführt hat ;)

Un daß der Fablemark nun Bandbreite mag und Doom³ eher schnelle VPUs ... tja, daran hab ich früher nie gedacht :kratz:

Wie dem auch sei, ja LS ... die FX5800 dürfte nicht wirklich schlechter denn eine 5900 sein :)