Archiv verlassen und diese Seite im Standarddesign anzeigen : Kampf der Giganten!
Becks
2003-06-27, 19:44:30
sorry, wenn´s so nen thraed schon gab!
hi!
wollt mal fragen, ob die 5900 Ultra 256DDR(egal welche marke) besser, oder die 9800 Pro 256DDR Grafik Karte besser ist!
auf längere zeit gesehen!
denn wenn ich jetzt schon soviel geld ausgebe, will ich nicht in einem jahr wieder eine neue kaufen;)
danke für antworten!
(ich verlass mich da ganz auf euch, denn es sind ja zum teil user dabei, die viel erfahrung haben und sich gut auskennen)
:)
MadVoodoo
2003-06-27, 19:46:09
Die sind beide sau geil
hol dir die GeForce =) ,hast weniger probs damit.
Becks
2003-06-27, 19:52:21
danke, für deinen rat, aber bitte versucht nicht PARTEIISCH zu antworten!
!!!!!!!!die im ATI forum raten natürlich zu einer Radeon, und die im Nvidia forum raten zu einer FX!:bäh:!!!!!!!!!
welche ist für die zukunft einfach sicherer!
mit welcher hab ich(treiber, AA und AF usw.) weniger probleme?
danke!:)
A.Wesker
2003-06-27, 19:58:41
hab die fx 5900 ultra und sie is echt geil.
Aqualon
2003-06-27, 20:04:12
Du erwartest aber in nem nVidia-Forum nicht wirklich ne brauchbare Antwort auf die Frage, oder?
Da kannst ja gleich im ATI-Forum fragen, welche FX die bessere ist.
Meine Meinung ist, spar dir die Kohle für die ganz teuren Karten und hol dir ne R9700 nonpro, damit wirst auch noch ne ganze Weile glücklich sein.
Aqua
Mr. Anderson
2003-06-27, 20:15:21
Aber noch glücklicher wirst du mit ner 5900 nonultra z.B von MSI bekommst du für 400 Euronen.
Kannst sie auch auf Ultra Niveau übertakten und sparst 150 Euris.
Klick die kleinen Pics an
MSI 5900 (http://www.ukgamer.com/article.php4?id=5&page=5)
Aqualon
2003-06-27, 20:36:59
Nur dass die 5900 Ultra wieder 150 Euro über der 9700 nonpro liegt.
Ist also kein kleiner Unterschied.
Aqua
Mr. Anderson
2003-06-27, 20:39:49
Original geschrieben von Aqualon
Nur dass die 5900 Ultra wieder 150 Euro über der 9700 nonpro liegt.
Ist also kein kleiner Unterschied.
Aqua
Laß dich von dem ATI Fan nicht verrückt machen.
die 5900 ist meist schneller als die 9800pro und die kostet 450 Teuronen.
Becks
2003-06-27, 20:44:45
:D thx, aber geld ist ganz egal! nicht weil ich reich bin oder muddi das bezahlt, sondern weil ich das über einen guten bekannten viel billiger bekomme!
aslo wiederhole ich nochmal: geld ist egal!!!!!1111
möchte einfach wissen, welche karte einfach besser ist! von der quali???
9800Pro 256DDR -----------oder-----------5900 Ultra
danke! hab eigentlich mit meiner ti4200 noch NIE irgendein problem gehabt, wäre aber trotzdem nicht abgeneigt zu einer radeon zu greifen, WENN DIE BESSER IST!!!!!!!
Aqualon
2003-06-27, 20:45:19
Original geschrieben von Mr. Anderson
Laß dich von dem ATI Fan nicht verrückt machen.
Ich bin weder ATI-Fan noch will ich jemanden verrückt machen. Aber aus meiner Sicht lohnt der nicht gerade große Performancegewinn der 5900 gegenüber der 9700 nicht die 150 Euro Aufpreis.
Aqua
Braincatcher
2003-06-27, 20:52:09
Original geschrieben von Aqualon
Ich bin weder ATI-Fan noch will ich jemanden verrückt machen. Aber aus meiner Sicht lohnt der nicht gerade große Performancegewinn der 5900 gegenüber der 9700 nicht die 150 Euro Aufpreis.
Aqua
Wie von Beckham gesagt, das Geld macht nichts aus! Also sind es durch seine Connections wohl auch weit weniger als 150€ Mehrkosten.;)
Aqualon
2003-06-27, 20:53:34
Ok, wenn dir die Kohle egal ist, hol dir einfach eine der beiden Karten. Die Unterschiede sind da in meinen Augen zu gering um wirklich groß bemerkbar zu sein.
Aber kannst ja mal in folgenden Thread gucken:
http://forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=76394
Aqua
Becks
2003-06-27, 21:13:16
Original geschrieben von Aqualon
Ok, wenn dir die Kohle egal ist, hol dir einfach eine der beiden Karten. Die Unterschiede sind da in meinen Augen zu gering um wirklich groß bemerkbar zu sein.
Aber kannst ja mal in folgenden Thread gucken:
http://forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=76394
danke, hab eh so einen thread gesucht!;)
der hat mir sehr geholfen!
hab mich zu 99% für die 9800Pro entschieden!
hab mich zu 99& für die 256DDR variante entschieden!
Aqua
Original geschrieben von Braincatcher
Wie von Beckham gesagt, das Geld macht nichts aus! Also sind es durch seine Connections wohl auch weit weniger als 150€ Mehrkosten.;)
genau so is es!:)
thx @all!;D
Winter[Raven]
2003-06-27, 21:25:03
Also ich würde dir zu ne FX raten, wenn Nvidia die NV35 so weiter vereiert wie sie es jetzt tut, wird es von den Spiele Entwickeln auch besser ausgenütztz werden, da Nvidia alleiniger MONOPOLIST ist und in zukunft weitere allianzen mit Entwicklern/Publishern stehen werden deren spiele auf FX optimiert werden.
Für mich ist es halt der Entwickler support in forum von Treibern wichtig, und hier versagt leider Ati gewaltig.
Dondy
2003-06-27, 21:32:57
Wenn du wirklich so gute connections hast, wieso besorgst du dir nicht einfach beide Karten zum testen von ihm/ihr und danach kannste dich ja für eine entscheiden.
Mr. Anderson
2003-06-27, 21:40:23
Beckham check this
du willst die max Power
Na welche nimmst du ?;D[KLICK (http://www.tomshardware.de/graphic/20030512/nv35_geforce_fx5900ultra-11.html) klick (http://www.tomshardware.de/graphic/20030512/nv35_geforce_fx5900ultra-11.html)
Becks
2003-06-27, 21:44:43
Original geschrieben von Dondy
Wenn du wirklich so gute connections hast, wieso besorgst du dir nicht einfach beide Karten zum testen von ihm/ihr und danach kannste dich ja für eine entscheiden.
naja so einfach gehts auch wieder nicht!
hab nur kurz erklärt!
DERjenige hat arbeitet in einer Hardware firma in Österreich und ist dort halt irgendso ein recht wichtiger Mann!
und jetzt werd ich ihm eine liste geben, mit meinem komplett zusammengebauten neuen system, inkl. GK , und die wird er oder wer anderes dann zusammenbauen, kurz testen, und mit dann mit % abzug geben!;)
so ungefähr läufts ab!
glaub aber persönlich auch, da ich im NVIDIA UND ATI forum in letzter zeit oft unterwegs bin, dass es mit ATI´s !ein bisschen! mehr probleme gibt, mit treiber und spielen!
soll kein vorurteil sein, aber ich hab auch seit ungefähr 1 jahr die Ti4200 von MSI, und ich bin voll zufrieden!
stimmt schon oder, dass FX karten für spiele einen tick besser geeignet sind, weil sie hald mehrere spiele unterstützen, oder???
die ist so schwer, die entscheidung!
jedesmal wenn ich mich fast entschieden hab, dann kommen wieder 3 leute und sagen sie würden mit unbedingt zu der anderen raten!*eg*
NAJA, keine ahnung!!!!!!!! hab ja noch ein bisschen(1-2 monate) bedenktzeit!!!!!!!!
Mr. Anderson
2003-06-27, 21:44:50
DER test für Qualität (http://www.tomshardware.de/graphic/20030512/nv35_geforce_fx5900ultra-13.html)
Becks
2003-06-27, 21:55:35
Original geschrieben von Mr. Anderson
DER test für Qualität (http://www.tomshardware.de/graphic/20030512/nv35_geforce_fx5900ultra-13.html)
Original geschrieben von Mr. Anderson
Beckham check this
du willst die max Power
Na welche nimmst du ?;D[KLICK (http://www.tomshardware.de/graphic/20030512/nv35_geforce_fx5900ultra-11.html) klick (http://www.tomshardware.de/graphic/20030512/nv35_geforce_fx5900ultra-11.html)
:O:o danke!
der test hat mir sozusagen die augen geöffnet!
ist ja arg! sobald man FSAA einstellt ist die 5900Ultra genial
und schlägt die 9800PRO mit fast 10-20 FPS!!:O
Omnicron
2003-06-27, 22:01:53
@Beckham
Bei manchen Benchmarks ist die R9800 schneller, bei anderen wieder die 5900, die nehmen sich nicht viel.
Du musst halt nur gucken worauf du mehr Gewichtung legst, bei Ati ist das AA besser, bei NV das AF.
Wie das mit den Ati Treibern ist weiss ich nicht, ich kann nur sagen das ich noch keine Probleme mit meinen NV Treibern hatte.
Ich stand auch vor der Entscheidung R9800 o. 5900, und habe die 5900 genommen, weil :
a) ich hatte bisher mit keiner meiner NV Karten Probleme
b) Die 5900 hat die beiden Features des Hardwaremonitors + der Lüftersteuerung, welche dann den Ausschlag gegeben haben, weil ich hab schon viel Geld in meinen Rechner gesteckt um den schön leise zu bekommen, und mein Rechner ist dank der 5900 leiser, kühler und stromsparender, was mir eine R9800 nicht bieten konnte.
*EDIT* Schau dir auch noch andere Reviews als das von Toms Hardware an, dann hast du ein objektiveres Bild ;)
LovesuckZ
2003-06-27, 22:03:54
Original geschrieben von Aqualon
Aber aus meiner Sicht lohnt der nicht gerade große Performancegewinn der 5900 gegenüber der 9700 nicht die 150 Euro Aufpreis.
Aqua
Dies ist berechtigt, guckt man sich die Quality (4AA/8AF) benches an. Leider ist hier das Problem, dass ATi sich dank dem sehr stark optimierten AF eine bessere Postion "ercheatet". Im Durchschnitt bringt die Optimierung über der Winkelabaehngigkeit hinaus 15% Mehrleistung. In einigeh Situation sogar bis zu 30%.
Original geschrieben von Omnicron
*EDIT* Schau dir auch noch andere Reviews als das von Toms Hardware an, dann hast du ein objektiveres Bild ;)
Unter Garantie nicht. ;)
THG, ist ja lachhaft. Könntest ihm genauso empfehlen, einen Test zwischen AMD- und Intel-CPUs zu testen, ist genauso "objektiv". :stareup:
@ Beckham
"ist ja arg! sobald man FSAA einstellt ist die 5900Ultra genial
und schlägt die 9800PRO mit fast 10-20 FPS!!"
Diese Aussage ist stark verallgemeinert, zumal hier nicht gleichberechtigt getestet wird. Ich bin zwar eingefleischter NV'ler, aber man muss bei diesen 4xMSAA Tests immer beachten, dass ATI da eine bei weitem bessere Bildquali abliefert. Ich persönlich würde auch die FX nehmen, aber tu dir selbst einen Gefallen und lass dich bitte nicht von THG beeinflussen.
Omnicron
2003-06-27, 22:11:47
Original geschrieben von Omnicron
*EDIT* Schau dir auch noch andere Reviews als das von Toms Hardware an, dann hast du ein objektiveres Bild ;)
Original geschrieben von Keel
Unter Garantie nicht. ;)
THG, ist ja lachhaft. Könntest ihm genauso empfehlen, einen Test zwischen AMD- und Intel-CPUs zu testen, ist genauso "objektiv".
:|
--> http://www.medienwerkstatt-online.de/products/tdrs_lds/tdrs_lds.html
Original geschrieben von Omnicron
:|
--> http://www.medienwerkstatt-online.de/products/tdrs_lds/tdrs_lds.html
Werd mich da sofort anmelden! :|
Sry, hab da zu schnell gelesen...:sulkoff: Mein Fehler!
Gaston
2003-06-27, 23:45:36
Die FX5900 Ultra ist genau solange schneller wie die R9800Pro256MB, wie man die 'optimalen' Timedemos zum Benchen verwendet. Nicht umsonst sagt Nvidia den Testern bei den Previews, was zu benchen ist.:down:
Nimmt man selbsterstellte Timedemos zum Testen bricht die ganz schön ein. Aber wehe man spricht von Cheat, das sind alles benchmarkspezifische Optimierungen. :lolaway:
http://www.forum-3dcenter.de/vbulletin/showthread.php?threadid=77198
http://www.beyond3d.com/forum/viewtopic.php?t=6459
Original geschrieben von Beckham
sorry, wenn´s so nen thraed schon gab!
hi!
wollt mal fragen, ob die 5900 Ultra 256DDR(egal welche marke) besser, oder die 9800 Pro 256DDR Grafik Karte besser ist!
auf längere zeit gesehen!
denn wenn ich jetzt schon soviel geld ausgebe, will ich nicht in einem jahr wieder eine neue kaufen;)
danke für antworten!
(ich verlass mich da ganz auf euch, denn es sind ja zum teil user dabei, die viel erfahrung haben und sich gut auskennen)
:)
das wievielte mal fragst du eigendlich, welche graka von beiden besser sei!!!!!!!!!!!!!!!! Willste dir auch ma eine kaufen oder was.
Würde mir an deiner stelle eine tnt1 kaufen kannste ja tetris spielen. Das wäre schon eine evolution für dich denke ich mal.
Mr. Lolman
2003-06-27, 23:52:17
Beckham:
Sie dir mal irgendwo das 4xAA (oder sogar 6x:love2: ) einer R300 (oder einer Voodoo5) an (am besten LIVE) . Ich könnt mir es nicht mehr wegdenken, und damit mein Bedarf an glatten Kanten gestillt ist, wäre bei der NV 8xS AA notwendig (statt 4x AA bei der ATi)
Wenn du dann der Meinung bist, dass dich das AA nicht kümmert, dann ists egal. Ich würd dann fast die NV Karte nehmen, da nicht jeder eine 5900 Ultra hat, und diese Teile durch ihre z.T. aussergewöhnlichen Lüfter irgendwie was freakiges haben.
Bei der Doom3 Alpha wird in der 'HighQuality Einstellung' AF verwendet. ATi liegt da vorne, weil die eine Optmierung einbauten, die sich bei 95% der Spiele nicht bemerkbar macht (jedoch u.U. 30% Speed bringt), und bei Bedarf auszuschalten ist.
Original geschrieben von LovesuckZ
Dies ist berechtigt, guckt man sich die Quality (4AA/8AF) benches an. Leider ist hier das Problem, dass ATi sich dank dem sehr stark optimierten AF eine bessere Postion "ercheatet". Im Durchschnitt bringt die Optimierung über der Winkelabaehngigkeit hinaus 15% Mehrleistung. In einigeh Situation sogar bis zu 30%.
Dann cheaten auch alle Review weil sie 4x AA gegen 4x AA benchen, und das 4xAA von NV sich in der Qualität seit der GF2 nicht grossartig geändert hat (ist sogar schlechter geworden) Eine Voodoo5 brachte teilweise schon mit 2xAA eine ähnliche Qualität. **
Ausserdem sind die D3 Benches mit vorsicht zu geniessen, da sich hinsichtlich der Leistung der Karten noch was tun wird (Treiberoptimierungen)
** Und wehe du kommt mir mit 'ollen Kamellen' oder sowas, Lovesucks, ich wiederhole mich nicht öfter als du... ok? ;)
Original geschrieben von LovesuckZ
Dies ist berechtigt, guckt man sich die Quality (4AA/8AF) benches an. Leider ist hier das Problem, dass ATi sich dank dem sehr stark optimierten AF eine bessere Postion "ercheatet". Im Durchschnitt bringt die Optimierung über der Winkelabaehngigkeit hinaus 15% Mehrleistung. In einigeh Situation sogar bis zu 30%.
du laberst auch nur so viel schei***. Guck doch erstmal was nvidia macht, dann laber über ati ok.
@Beckham.
Schau mal ein bisschen hinter die Kulissen. Ansonsten kannst du gleich die GAMESTAR fragen.
Dr.Dirt
2003-06-28, 01:13:28
Moin,
ich hab zwar ne gute Graka (9700pro), wenn ich mir jetzt allerdings eine neue kaufen würde, dann würde ich ne NV35 nehmen.
Laut PCGH läuft die DOOM 3 alpha besser auf ner NV35 als auf R350.
Auch das Spiel S.T.A.L.K.E.R wird auf einer NV 35 entwickelt und optimiert.
Im Gegensatz dazu wird Half-Life 2 auf ATI Karten entwickelt und soll demzufolge auf diesen besser laufen (Quelle: PCGH).
Ich hab zur Zeit keine Probleme und kauf mir erst was neues wenn die Performance nicht mehr reicht.
Razor
2003-06-28, 08:13:59
Original geschrieben von Mr. Lolman
Bei der Doom3 Alpha wird in der 'HighQuality Einstellung' AF verwendet. ATi liegt da vorne, weil die eine Optmierung einbauten, die sich bei 95% der Spiele nicht bemerkbar macht (jedoch u.U. 30% Speed bringt), und bei Bedarf auszuschalten ist.
Hmmm...
Sobald allerdings AA dazu kommt, sieht's wieder ganz anders aus.
Niemals nur ein Feature betrachten, da heutzutage doch wohl kaum jemand auf das eine oder auch das andere Feature verzichten möchte, oder ?
???
Original geschrieben von Mr. Lolman
Dann cheaten auch alle Review weil sie 4x AA gegen 4x AA benchen, und das 4xAA von NV sich in der Qualität seit der GF2 nicht grossartig geändert hat (ist sogar schlechter geworden) Eine Voodoo5 brachte teilweise schon mit 2xAA eine ähnliche Qualität. **
Und auch hier schon wieder Äpfel und Birnen..
Die Quali der ATI-AA-Lösung ist eindeutig besser, aber die Effizienz eben nicht. Das HTC (!) 'Intellisample' ist optisch keineswegs schlechter, als bei den vorangegangenen Lösungen (seit gf3), nur ist es wesentlich schneller. Beides (ATI & nVidia) sind MSAA-Varianten mit jeweils 4 Subpixeln (4xAA), nur die Anordnung ist bei ATI anders und daraus ergibt sich dann auch die bessere Qualität (jetz mal von der Gammakokkrektur abgesehen ;-).
Insofern stellt sich hier lediglich die Frage, ob man maximale Leistung oder eben maximale Qualität möchte.
-
Bei AF stellt sich die Frage nicht, da die Quali bei nVidia definitv besser ist, die Leistung (mal von Doom3 abgesehen ;-) aber in etwa vergleichbar.
Just my 2cents...
Razor
Hier die 'Benchies' von THG, wenn ich sonst nicht viel auf die Reviews dieser Site gebe:
(ist IMO aber der einzige Test, der einen solchen Vergleich macht)
Hi,
nur mal so von mir eingeworfen:
http://www.hardocp.com/image.html?image=MTA1NjI1NjMyNUxKUVhNT29ZTHdfNl8zX2wuZ2lm
Es ist eindeutig zu erkennen, das die Ati9800Pro mit 128Mb mehr als 4mal so schnell ist wie Geforce FX5900Ultra. :)
Also überleg es dir gut welche Karte du dir kaufst.
LovesuckZ
2003-06-28, 09:20:12
Original geschrieben von Mr. Lolman
Dann cheaten auch alle Review weil sie 4x AA gegen 4x AA benchen, und das 4xAA von NV sich in der Qualität seit der GF2 nicht grossartig geändert hat (ist sogar schlechter geworden) Eine Voodoo5 brachte teilweise schon mit 2xAA eine ähnliche Qualität. **
Wo cheatet nvidia beim MSSA? Benutzen sie nicht durchgehend 4 Subpixel?
Denn hier liegt der Unterschied zum AF. Beim AF unter D3D holt sich ATi einen Vorteil, der auf kosten der Qualitaet geht. Nur weil man die Unterscheide selten sieht, ist es kein Grund, ATi's Quality gegen das von nvidia zu setzen. Denn genauso sind Vergleiche mit Nvidia's HPAF gegen ATi's richtigen Quality auch nicht wirklich fair, wobei beide wohl unter D3D die selbe Qualitaet erreichen (jedenfalls sieht HPAF kaum schlechter aus als QAF bei meiner 5800).
Razor
2003-06-28, 09:42:02
Original geschrieben von Gast
Hi,
nur mal so von mir eingeworfen:
http://www.hardocp.com/image.html?image=MTA1NjI1NjMyNUxKUVhNT29ZTHdfNl8zX2wuZ2lm
Es ist eindeutig zu erkennen, das die Ati9800Pro mit 128Mb mehr als 4mal so schnell ist wie Geforce FX5900Ultra. :)
Also überleg es dir gut welche Karte du dir kaufst.
Über das Thema "customized demos" und deren Auswirkungen gibt's hier schon genug Threads.
Einfach mal die Suchfunktion benutzen...
;-)
Nur so viel: Es gibt Szenarien, die die Vorteile der einen GPU heraus stellen und wieder welche, bei denen es anders herum ist. Auch sind die Ergebnisse nicht verifizierbar...
Aber selbst wenn man den [H]ardOCP-Test nimmt:
- UT2003 Antalus -> 9800pro ist immer langsamer
- UT2003 Inferno -> pari
- Serious Sam 2 -> 9800pro ist immer langsamer
- RTCW -> 9800pro ist maximal doppelt so schnell (unter 1600!)
- RTCW ET -> pari, lediglich mit Quality-Einstellungen teils erheblich schneller
(besonders bei 1600, allerdings ist die ATI hier bei 4xAA gecrasht ;-)
- SplinterCell -> in der Rohleistung ist ATI schneller
(allerdings nicht repräsentativ, da hier wohl wieder die Default-Einstellungen beim Shadow benutzt wurden)
- SpecViewperf -> nur in 2 Tests ist ATI schneller, in allen anderen (also überwiegend) nVidia
Was lernen wir also daraus ?
In einem einzigen Test (RTCW-Orginal) ist die ATI tatsächlich mal doppelt so schnell (unter 1600), aber nicht bei einem einzigen Test ist sie 4x so schnell.
Was also wolltest Du uns hiermit sagen ?
???
Ist es doch wohl eher so, wie hier so einige sagen... mal gewinnt nVidia, mal ATI.
In diesem Sinne
Razor
LovesuckZ
2003-06-28, 09:44:18
Original geschrieben von Razor
Aber selbst wenn man den [H]ardOCP-Test nimmt:
- UT2003 Antalus -> 9800pro ist immer langsamer
- UT2003 Inferna -> pari
Und nicht vergessen: In diesem beiden UT2003 Maps kommt ATi's erweitere AF Optimierung voll zum tragen (ca. 25% Mehleistung).
Original geschrieben von LovesuckZ
Und nicht vergessen: In diesem beiden UT2003 Maps kommt ATi's erweitere AF Optimierung voll zum tragen (ca. 25% Mehleistung).
Na sag mal, meinst du, daß Nvidias AF-Optimierung da nicht zum Tragen kommt?! Achso, die funzt nur in ausgewählten Benchmarks/Applicationen:lol:
Original geschrieben von LovesuckZ
Und nicht vergessen: In diesem beiden UT2003 Maps kommt ATi's erweitere AF Optimierung voll zum tragen (ca. 25% Mehleistung).
Lol, jetzt sinds schon 25%. Suckie läuft langsam warm.;D
LovesuckZ
2003-06-28, 10:49:43
Original geschrieben von Gast
Na sag mal, meinst du, daß Nvidias AF-Optimierung da nicht zum Tragen kommt?! Achso, die funzt nur in ausgewählten
Kannst du es beweisen? Noe, also schoen ruhig bleiben kleina.
LovesuckZ
2003-06-28, 10:50:31
Original geschrieben von Gast
Lol, jetzt sinds schon 25%. Suckie läuft langsam warm.;D
Lesen ist wohl keine Staerke von dir?
Mr. Anderson
2003-06-28, 12:24:10
Original geschrieben von Razor
Hmmm...
Sobald allerdings AA dazu kommt, sieht's wieder ganz anders aus.
Niemals nur ein Feature betrachten, da heutzutage doch wohl kaum jemand auf das eine oder auch das andere Feature verzichten möchte, oder ?
???
Und auch hier schon wieder Äpfel und Birnen..
Die Quali der ATI-AA-Lösung ist eindeutig besser, aber die Effizienz eben nicht. Das HTC (!) 'Intellisample' ist optisch keineswegs schlechter, als bei den vorangegangenen Lösungen (seit gf3), nur ist es wesentlich schneller. Beides (ATI & nVidia) sind MSAA-Varianten mit jeweils 4 Subpixeln (4xAA), nur die Anordnung ist bei ATI anders und daraus ergibt sich dann auch die bessere Qualität (jetz mal von der Gammakokkrektur abgesehen ;-).
Insofern stellt sich hier lediglich die Frage, ob man maximale Leistung oder eben maximale Qualität möchte.
-
Bei AF stellt sich die Frage nicht, da die Quali bei nVidia definitv besser ist, die Leistung (mal von Doom3 abgesehen ;-) aber in etwa vergleichbar.
Just my 2cents...
Razor
Hier die 'Benchies' von THG, wenn ich sonst nicht viel auf die Reviews dieser Site gebe:
(ist IMO aber der einzige Test, der einen solchen Vergleich macht)
Also ich möchte schon wenns geht Doom3 auch mit Kantenglättung zocken aber warten wir die Final ab.
die 5900 hat eben die höhere Bandbreite
Bin schon sehr auf Halflife 2 Benchmarks gespannt.
Wie es dort wohl ausschaut zwischen ATI und NV:bäh:
Original geschrieben von Mr. Anderson
Also ich möchte schon wenns geht Doom3 auch mit Kantenglättung zocken aber warten wir die Final ab.
die 5900 hat eben die höhere Bandbreite
Bin schon sehr auf Halflife 2 Benchmarks gespannt.
Wie es dort wohl ausschaut zwischen ATI und NV:bäh:
Die FX-Reihe ist aber eigentlich nicht für eine 256Bit designed worden. Wahrscheinlich kann die 5900er deshalb den Bandbreitenvorteil nicht so gut ausspielen. Demi hat das mal schön erklärt.
Gast999
2003-06-28, 13:05:33
Original geschrieben von Shakiro
Für mich ist es halt der Entwickler support in forum von Treibern wichtig, und hier versagt leider Ati gewaltig.
full ack!
full ack auch bei Anderson's Argumente.
Hatte lange Zeit ne Gforce3 Ti200, da ich kein Hardcore-Zocker (Unreal und Konsorten) bin. Bei Morrowind und AnarchyOnline, merkte ich langsam, daß die Bandbreite fürs angenehme Zocken in höherer Auflösung fehlt. Dachte, wenn schon, denn schon ATI 9700 Pro. Sie sollte mich über die DirektX9-Zeit bringen.
Fatal! Frisch aufgesetztes System, Morrowind bleibt nach 5 Minuten stehn, mit alten Catalyst 3.4 nach ca. 10 Minuten. Kaltstart, da Rechner nichts mehr annimmt. Nach Loggin, Fehlerbenachrichtigung auf Desktop: Schwerer Hardwarefehler, verursacht durch Grafikkarte (Cat 3.4 sowohl 3.5). Anarchy Online verabschiedet sich mit Bluescreen (Probleme mit irgendwelchen ati..dll).
Schweren Herzens zum Kistenschieber und ne frisch erschienene Leadtek 350(FX 5900) besorgt.
Fazit: Bis jetzt problemloses Zocken mit allen 3D-Games (44.07). Lüftergeräusch der Karte? Nicht lauter als meine ati9700pro. Ich könnte weinen wie Ati so gute Hardware mit so miesen Treibern verhunzt. Ich wechsle nimmer ich :asshole:
Mr. Lolman
2003-06-28, 13:17:23
Original geschrieben von Mr. Anderson
Also ich möchte schon wenns geht Doom3 auch mit Kantenglättung zocken aber warten wir die Final ab.
die 5900 hat eben die höhere Bandbreite
Bin schon sehr auf Halflife 2 Benchmarks gespannt.
Wie es dort wohl ausschaut zwischen ATI und NV:bäh:
Gut, dann überleg einmal, wenn Kanteglättung für dich wichtig ist, ob sie nur schnell sein soll, oder aber auch schön:
NVs 2xAA: 1 Farbabstufung (horizontal und vertikal, miese 45° Winkel)
NVs 4xAA: 1 Farbabstufung (horizontal und vertikal, gute 45° Winkel)
NVs 4xS AA: 3 Farbabstufungen (horizontal und nur 1 vertikal, gute 45° Winkel)
NVs 8xS AA: 3 Farbabstufung (horizontal und vertikal, sehr gute 45° Winkel)
ATis 2xAA: 1 Farbabstufung (horizontal und vertikal, miese 45° Winkel)
ATis 4xAA: 3 Farbabstufungen (horizontal und vertikal, relativ gute 45° Winkel)
ATis 6xAA: 5 Farbabstufungen (horizontal und vertikal, sehr gute 45° Winkel
Fällt dir was auf?
Das die Geschwindigkeit von 2xAA und 4xAA bei ATi und NV relativ gleich ist, liegt an der ähnlichen Technik. Beim Einsatz von Supersampling AA, veringert sich die Füllrate jedoch um 50 (bei 4xSAA) bis 75% (8xSAA)
(Den Alphatestvorteil von SSAA hab ich bewusst ausser Acht gelasssen, da es sich um eine aussterbende Technik handelt, und durch die hohe Polygonleistung der GraKAs nicht mehr benötigt wird. Die schärferen Texturen von SSAA lassen sich mit geringerem Leistungsverlust und dem Einsatz von AF realisieren.)
/edit: Auf Entwickler Support kann ich verzichten, da ich mit meiner Karte spiele, und nicht entwickle. (Ausserdem ist ATi auf dem Gebiet auch sicher am nachbessern)
Mr. Lolman
2003-06-28, 13:23:53
Original geschrieben von Gast999
full ack!
full ack auch bei Anderson's Argumente.
Hatte lange Zeit ne Gforce3 Ti200, da ich kein Hardcore-Zocker (Unreal und Konsorten) bin. Bei Morrowind und AnarchyOnline, merkte ich langsam, daß die Bandbreite fürs angenehme Zocken in höherer Auflösung fehlt. Dachte, wenn schon, denn schon ATI 9700 Pro. Sie sollte mich über die DirektX9-Zeit bringen.
Fatal! Frisch aufgesetztes System, Morrowind bleibt nach 5 Minuten stehn, mit alten Catalyst 3.4 nach ca. 10 Minuten. Kaltstart, da Rechner nichts mehr annimmt. Nach Loggin, Fehlerbenachrichtigung auf Desktop: Schwerer Hardwarefehler, verursacht durch Grafikkarte (Cat 3.4 sowohl 3.5). Anarchy Online verabschiedet sich mit Bluescreen (Probleme mit irgendwelchen ati..dll).
Schweren Herzens zum Kistenschieber und ne frisch erschienene Leadtek 350(FX 5900) besorgt.
Fazit: Bis jetzt problemloses Zocken mit allen 3D-Games (44.07). Lüftergeräusch der Karte? Nicht lauter als meine ati9700pro. Ich könnte weinen wie Ati so gute Hardware mit so miesen Treibern verhunzt. Ich wechsle nimmer ich :asshole:
Hast du dich nicht an die Installationsanweisungen gehalten? Das ist bei weitem nicht der Normalvorgang einer Treiberinstallation, wenn man Krreuz und Quer heruminstalliert, auf Neustarts verzichtet, dann kanns vorkommen, dass diese Fehler auftreten. (bei mir hat sich dadurch einmal die AGP Beschleunigung deaktiviert. Aber lächerlich: DXDIAG - AGP Beschleunigung aktiviert und passt.... (Hab auch nie Treiberprobs, und Spiele GTA VC in 1152x864x32 (mehr packt der Moni nur mehr bei 60Hz) in 6xAA und 16xAF. Da nehme ich die Schuld einmal durchaus aufmich, wenn bei der Installation Pfusch passiert ;), was nur einmal vorkam :))
Gast999
2003-06-28, 13:42:13
@Lolman: Neu aufgesetztes System (format c:/) alle Karten draussen, außer Grafikkarte und SCSI. Treiber und dann Controllpanel gleicher Version. Muss dazu sagen, dass ich bei neuer Hardware immer vor diverser Treiber-Installs und nach der Aktivierung, ein Image mache. Also keine alten Treiberreste sich auf der HD tummeln.
Und ich OCe nicht!
Ist halt meine Erfahrung. Aber vielleicht lags auch an anderen Hardware-Inkompatibilitäten (*g* uffz) Soundkarte, Hauppauge-TV usw.
Fakt ist aber: mit Nvidia null Probs. ;D
Auf Ati-Experimente lass ich mich nicht mehr ein, ist zu teuer.
Mr. Anderson
2003-06-28, 13:55:29
Original geschrieben von Gast999
@Lolman: Neu aufgesetztes System (format c:/) alle Karten draussen, außer Grafikkarte und SCSI. Treiber und dann Controllpanel gleicher Version. Muss dazu sagen, dass ich bei neuer Hardware immer vor diverser Treiber-Installs und nach der Aktivierung, ein Image mache. Also keine alten Treiberreste sich auf der HD tummeln.
Und ich OCe nicht!
Ist halt meine Erfahrung. Aber vielleicht lags auch an anderen Hardware-Inkompatibilitäten (*g* uffz) Soundkarte, Hauppauge-TV usw.
Fakt ist aber: mit Nvidia null Probs. ;D
Auf Ati-Experimente lass ich mich nicht mehr ein, ist zu teuer.
:up:
Mr. Lolman
2003-06-28, 13:57:07
Original geschrieben von Gast999
@Lolman: Neu aufgesetztes System (format c:/) alle Karten draussen, außer Grafikkarte und SCSI. Treiber und dann Controllpanel gleicher Version. Muss dazu sagen, dass ich bei neuer Hardware immer vor diverser Treiber-Installs und nach der Aktivierung, ein Image mache. Also keine alten Treiberreste sich auf der HD tummeln.
Und ich OCe nicht!
Ist halt meine Erfahrung. Aber vielleicht lags auch an anderen Hardware-Inkompatibilitäten (*g* uffz) Soundkarte, Hauppauge-TV usw.
Fakt ist aber: mit Nvidia null Probs. ;D
Auf Ati-Experimente lass ich mich nicht mehr ein, ist zu teuer.
Nagut. Ist aber ein Einzelfall. Genauso wie der, wo ein Freund von mir seine neue GFirgendwas einbaute, nur mehr Abstürze hatte und dann doch wiederzu 3dfx wchselte. Alle Einzelfälle halt, ausserdem schreibt PCGH, dass sich im Moment mit ATi Karten mehr Spiele problemlos in Betrieb nehmen lassen, als mit NV HW. Also gilt das Argument der Problemlosigkeitnicht ganz, wenngelcih es natürlich ärgerlich ist, dass du solche Probs hattest, was einem auch deinen Standpunkt verstehen lässt.
Trotzdem lässt sich aus deiner ERfahrung keine pauschale Aussage ableiten...
Stimmt Lolman. Ich hasse auch Pauschalitäten. Desswegen hatte ich mir ja trotzdem ne Ati gekauft, obwohl ich da von Treiberproblemen las. Wenn sich die Leute Zeit nehmen und Umsicht walten lassen bei der Installation, so dachte ich, lassen sich Probleme meist auf 50% und mehr halbieren. Dem war halt nicht so (bei mir).
Ich find es Schwachsinn mit Treiber-Erfahrungen von einer GF3 oder gleich einer Rage128 zu argumentieren, inzwischen hat sich viel geändert.
Ich hatte: Radeon 32DDR, GF2Pro, GF3, Radeon8500, Gf4Ti und eine Radeon9700. Während die Treiber bei der 1. Radeon teilweise krampfhaft waren, hat sich das Verhältnis aus meiner Sicht inzwischen zugunsten von ATI gedreht. Sowenig Probleme wie mit der R9700 hatte ich mit der GF4 nicht. Und mit der FX-Serie liegt bei den Treibern ja auch noch einiges im Argen.
Also bitte nicht mehr solche Comments wie "Mit meiner GF3 hat ich null probleme, deswegen empfehl ich mal ne FX." Das ist Quatsch, da fehlen einfach die Grundlagen.
Tigerchen
2003-06-28, 16:20:22
[B]
Bei AF stellt sich die Frage nicht, da die Quali bei nVidia definitv besser ist, die Leistung (mal von Doom3 abgesehen ;-) aber in etwa vergleichbar.
Der Unterschied ist in 95% der Fälle unsichtbar.Von daher ist ATI's Lösung eine tolle Sache.Hab überhaupt erst7 bis 8 Texturen gesehen wo der "Cheat" aufgefallen ist.
Razor
Hier die 'Benchies' von THG, wenn ich sonst nicht viel auf die Reviews dieser Site gebe:
(ist IMO aber der einzige Test, der einen solchen Vergleich macht)
Die FX5900 braucht aber ZWINGEND 256MB Speicher um das flotte 4xAA hinzukriegen.
Und überhaupt.Laß mal die "Dawn" Demo auf ner ATI laufen.Dann weißt du wie langsam die FX5900 Ultra ist wenn wirklich mal die ganzen Features eingesetzt werden.
Coolj100
2003-06-28, 16:23:45
Original geschrieben von Razor
Hmmm...
Sobald allerdings AA dazu kommt, sieht's wieder ganz anders aus.
Niemals nur ein Feature betrachten, da heutzutage doch wohl kaum jemand auf das eine oder auch das andere Feature verzichten möchte, oder ?
???
Und auch hier schon wieder Äpfel und Birnen..
Die Quali der ATI-AA-Lösung ist eindeutig besser, aber die Effizienz eben nicht. Das HTC (!) 'Intellisample' ist optisch keineswegs schlechter, als bei den vorangegangenen Lösungen (seit gf3), nur ist es wesentlich schneller. Beides (ATI & nVidia) sind MSAA-Varianten mit jeweils 4 Subpixeln (4xAA), nur die Anordnung ist bei ATI anders und daraus ergibt sich dann auch die bessere Qualität (jetz mal von der Gammakokkrektur abgesehen ;-).
Insofern stellt sich hier lediglich die Frage, ob man maximale Leistung oder eben maximale Qualität möchte.
-
Bei AF stellt sich die Frage nicht, da die Quali bei nVidia definitv besser ist, die Leistung (mal von Doom3 abgesehen ;-) aber in etwa vergleichbar.
Just my 2cents...
Razor
Hier die 'Benchies' von THG, wenn ich sonst nicht viel auf die Reviews dieser Site gebe:
(ist IMO aber der einzige Test, der einen solchen Vergleich macht)
@lovesuckz
Da sieht man doch wer cheatet, du mit deinen komischen argumenten. Zu dem bild ist nichts weiteres hinzuzufügen. Nvidia cheatet was das zeug hält, bei aa und af da noch auf ati rumzuhacken ist eine frechheit.
Tigerchen
2003-06-28, 16:24:32
Original geschrieben von Gast999
full ack!
full ack auch bei Anderson's Argumente.
Hatte lange Zeit ne Gforce3 Ti200, da ich kein Hardcore-Zocker (Unreal und Konsorten) bin. Bei Morrowind und AnarchyOnline, merkte ich langsam, daß die Bandbreite fürs angenehme Zocken in höherer Auflösung fehlt. Dachte, wenn schon, denn schon ATI 9700 Pro. Sie sollte mich über die DirektX9-Zeit bringen.
Fatal! Frisch aufgesetztes System, Morrowind bleibt nach 5 Minuten stehn, mit alten Catalyst 3.4 nach ca. 10 Minuten. Kaltstart, da Rechner nichts mehr annimmt. Nach Loggin, Fehlerbenachrichtigung auf Desktop: Schwerer Hardwarefehler, verursacht durch Grafikkarte (Cat 3.4 sowohl 3.5). Anarchy Online verabschiedet sich mit Bluescreen (Probleme mit irgendwelchen ati..dll).
Schweren Herzens zum Kistenschieber und ne frisch erschienene Leadtek 350(FX 5900) besorgt.
Fazit: Bis jetzt problemloses Zocken mit allen 3D-Games (44.07). Lüftergeräusch der Karte? Nicht lauter als meine ati9700pro. Ich könnte weinen wie Ati so gute Hardware mit so miesen Treibern verhunzt. Ich wechsle nimmer ich :asshole:
Genau den Wechsel GF3 Ti200 auf R9700 Pro hab ich auch gemacht und nicht bereut.
Hier ein sehr gutes Review der GF 5900 Ultra, welches auch auf Hintergründe eingeht, anstatt drei Benchmarks zu fahren und daraus ein Fazit zu ziehen.
Für jeden, der meint mitreden zu müssen -> Pflichtlektüre.
http://www.computerbase.de/article.php?id=237&page=1
Original geschrieben von LovesuckZ
Kannst du es beweisen? Noe, also schoen ruhig bleiben kleina.
Kannst du es beweisen, bleib du mal ruhig sucki!!!!
Gaston
2003-06-28, 21:18:15
Original geschrieben von Gast
Kannst du es beweisen, bleib du mal ruhig sucki!!!!
Mädelz, lasst doch bitte den scheiss. Aus der spätpubertären Frotzelphase sind wir doch raus, oder?
Becks
2003-06-28, 21:25:26
Original geschrieben von Gast
Kannst du es beweisen, bleib du mal ruhig sucki!!!!
hört doch auf zu flamen!:nono:
gestern war noch alles "normal"..... da schau ich heut um 21:25 rein, und da haben sich2 seiten dazu geschmuggelt!
fazit ist: man kann keine karte wirklich empfehlen!
hier ist die ati besser, und da ist die Nvidia besser!:bäh:
wer mir noch ein bisschen zeit lassen mit der entscheidung!;)
MfG Beckham
RyoHazuki
2003-06-29, 00:31:19
also :
Geforce FX 5900 Ultra 256 MB ist wahrscheinlich nun die schnellste karte ! @ default
AA qualität ist bei ATI besser.
AF Qualität bei NVIDIA besser.
Bei AA+AF @ max sollte die R9800Pro schneller sein... bin mir nicht ganz sicher.
Allerdings (wissen aus eigener erfahrung) leidet die Radeon bei vergleich zu NVIDIA unter schlechteren treibern (auf kompatibilät bezogen) !
TV-Out = ATI besser ------- MATROX ungeschlagen
DVD = ATI besser ---------- MATROX ungeschalgen
es ist jedem also selber belassen zu wählen ! Zwischen beiden karten gibt es keinen "Wesentlichen unterschied" !
Ich persönlich erwarte meine GeForce FX 5900 Ultra demnächst. Hatte lange kein NV mehr. Und ich find die Option 2D-Takt/3D-Takt einfach genail.
Gaston
2003-06-29, 01:51:34
Original geschrieben von RyoHazuki
also :
Geforce FX 5900 Ultra 256 MB ist wahrscheinlich nun die schnellste karte ! @ default
AA qualität ist bei ATI besser.
AF Qualität bei NVIDIA besser.
Bei AA+AF @ max sollte die R9800Pro schneller sein... bin mir nicht ganz sicher.
Allerdings (wissen aus eigener erfahrung) leidet die Radeon bei vergleich zu NVIDIA unter schlechteren treibern (auf kompatibilät bezogen) !
TV-Out = ATI besser ------- MATROX ungeschlagen
DVD = ATI besser ---------- MATROX ungeschalgen
es ist jedem also selber belassen zu wählen ! Zwischen beiden karten gibt es keinen "Wesentlichen unterschied" !
...
Und wieder eine geballte Ladung Vorurteile + Unwissenheit.
Gute Nacht.
Becks
2003-06-29, 07:45:11
Original geschrieben von Gaston
Und wieder eine geballte Ladung Vorurteile + Unwissenheit.
Gute Nacht.
guten morgen!:)
...aber man könnte tagelang sitzen und jede meinung mit x-tausenden test und benchmarks wieder in frage stellen!
dan kommt man ja nie auf eine richtige lösung!
sobald jemand sagt (z.B.) die FX ist viel schneller, konntern schon wieder 20 radeon-anhänger!;)
so ist das hald!
MfG
LovesuckZ
2003-06-29, 09:23:03
Original geschrieben von Coolj100
@lovesuckz
Da sieht man doch wer cheatet, du mit deinen komischen argumenten. Zu dem bild ist nichts weiteres hinzuzufügen. Nvidia cheatet was das zeug hält, bei aa und af da noch auf ati rumzuhacken ist eine frechheit.
Lol, "Nivida cheatet was das zeug haelt". Ohman :bonk:
Hopp, zurueck ins ATi Forum.
LovesuckZ
2003-06-29, 09:24:21
Original geschrieben von Gast
Kannst du es beweisen, bleib du mal ruhig sucki!!!!
Du stellst ne Behauptung auf, du musst deine Behauptung stuetzen. Dann mach mal. Hop, hop.
LovesuckZ
2003-06-29, 09:28:39
Original geschrieben von Tigerchen
Der Unterschied ist in 95% der Fälle unsichtbar.Von daher ist ATI's Lösung eine tolle Sache.Hab überhaupt erst7 bis 8 Texturen gesehen wo der "Cheat" aufgefallen ist.[/COLOR]
Trotzdem sollte ATi das richtige AF jebenfalls im Treiber anbieten.
[quote][Size=1]Und überhaupt.Laß mal die "Dawn" Demo auf ner ATI laufen.Dann weißt du wie langsam die FX5900 Ultra ist wenn wirklich mal die ganzen Features eingesetzt werden.[/COLOR]
Dawn laeuft auf ATi karten nur durch eine spezielle Anpassung. Das ist aehnlich, was Nvidia mit dem Shadermark angestellt hat. Man hat die Shader auf die eigene Karten angepasst, dies haben die Studenten mit Dawn gemacht. Daher ist dies wohl kaum vergleichbar.
Str1per
2003-06-29, 09:54:37
Dawn laeuft auf ATi karten nur durch eine spezielle Anpassung. Das ist aehnlich, was Nvidia mit dem Shadermark angestellt hat. Man hat die Shader auf die eigene Karten angepasst, dies haben die Studenten mit Dawn gemacht. Daher ist dies wohl kaum vergleichbar. Öhm, Dawn ist doch eine Demo von Nvidia für FX-Karten. Wenn NV da jetzt nicht für die FXe optimiert, haben sie wohl einen, gelinde gesagt, schlechten Job gemacht. Aus dem Bauch raus würde ich sagen, eine Demo einer Grakamarke muss immer so gemacht sein, dass die eigene gut dasteht. Man denke nur an die Demos von Kyro, da hält die gute, alte K2 immer noch mit.
GF4 benutzend ;),
Striper
Demirug
2003-06-29, 10:38:28
Original geschrieben von Str1per
Öhm, Dawn ist doch eine Demo von Nvidia für FX-Karten. Wenn NV da jetzt nicht für die FXe optimiert, haben sie wohl einen, gelinde gesagt, schlechten Job gemacht. Aus dem Bauch raus würde ich sagen, eine Demo einer Grakamarke muss immer so gemacht sein, dass die eigene gut dasteht. Man denke nur an die Demos von Kyro, da hält die gute, alte K2 immer noch mit.
GF4 benutzend ;),
Striper
jaein. Im Falle von Dawn und den den anderen FX-Demos war ja nie geplannt das diese auch auf anderen Karten laufen. Optimiert sind sie denoch sicherlich aber wie aggressiv kann niemand ausserhalb von nv genau sagen. Die Demos werden ja immer schon lange vor der Verfügbarkeit von realer Hardware angefangen zu entwickeln.
Richthofen
2003-06-29, 10:58:56
Original geschrieben von LovesuckZ
Dawn laeuft auf ATi karten nur durch eine spezielle Anpassung. Das ist aehnlich, was Nvidia mit dem Shadermark angestellt hat. Man hat die Shader auf die eigene Karten angepasst, dies haben die Studenten mit Dawn gemacht. Daher ist dies wohl kaum vergleichbar.
Nicht nur das. Es sind auch nicht alle Details da.
Razor
2003-06-29, 11:02:27
Original geschrieben von Tigerchen
Bei AF stellt sich die Frage nicht, da die Quali bei nVidia definitv besser ist, die Leistung (mal von Doom3 abgesehen ;-) aber in etwa vergleichbar.
Der Unterschied ist in 95% der Fälle unsichtbar.Von daher ist ATI's Lösung eine tolle Sache.Hab überhaupt erst7 bis 8 Texturen gesehen wo der "Cheat" aufgefallen ist.
Dann scheinst Du mit Blindheit geschlagen...
(nicht wirklich ernst gemeint ;-)
Hast Du eine gf im direkten Vergleich ?
Also ich hatte/habe eine R300 im direkten Vergleich zur gf3 und fx5200...
Und der Unterschied ist wirklich frappant... besonders in Games wie UT2003...
Aber kler, wenn Du so etwas nicht als störend emfindest (bilineare Filterung trotz 'quality'), dann scheint ATI für Dich wirklich genau das richtige zu sein...
Original geschrieben von Tigerchen
Hier die 'Benchies' von THG, wenn ich sonst nicht viel auf die Reviews dieser Site gebe:
(ist IMO aber der einzige Test, der einen solchen Vergleich macht)
Die FX5900 braucht aber ZWINGEND 256MB Speicher um das flotte 4xAA hinzukriegen.
Und ?
Wo ist Dein Problem ?
???
Auch eine FX5900 nonUltra ist in vielen Tests zumindest pari mit einer R9800pro ...
Original geschrieben von Tigerchen
Und überhaupt.Laß mal die "Dawn" Demo auf ner ATI laufen.Dann weißt du wie langsam die FX5900 Ultra ist wenn wirklich mal die ganzen Features eingesetzt werden.
Hab' ich gemacht...
(auf einer ATI laufen lassen ;-)
Und ?
Du hast also FPS-Vergleiche ?
Na dann mal her damit !
;-)
Razor
Razor
2003-06-29, 11:05:02
Original geschrieben von Coolj100
@lovesuckz
Da sieht man doch wer cheatet, du mit deinen komischen argumenten. Zu dem bild ist nichts weiteres hinzuzufügen. Nvidia cheatet was das zeug hält, bei aa und af da noch auf ati rumzuhacken ist eine frechheit.
Also erst einmal hast Du mich gequotet...
Zum zweiten hab' ich absolut keinen blassen schimmer, inwiefern Du Dich auf meinen Post beziehst.
Hmmm...
Razor
Razor
2003-06-29, 11:09:59
Original geschrieben von Gast
Hier ein sehr gutes Review der GF 5900 Ultra, welches auch auf Hintergründe eingeht, anstatt drei Benchmarks zu fahren und daraus ein Fazit zu ziehen.
Für jeden, der meint mitreden zu müssen -> Pflichtlektüre.
http://www.computerbase.de/article.php?id=237&page=1
Ganz toll...
- wieder mal keine Angaben zu den Treibereinstellungen
- absolut unübersichtliches Werte-System
- keine Retail-Karte
Fazit: (fast) wertlos !
:D
Razor
Razor
2003-06-29, 11:16:11
Original geschrieben von RyoHazuki
Geforce FX 5900 Ultra 256 MB ist wahrscheinlich nun die schnellste karte ! @ default
AA qualität ist bei ATI besser.
AF Qualität bei NVIDIA besser.
Bei AA+AF @ max sollte die R9800Pro schneller sein... bin mir nicht ganz sicher.
Fast richtig... nur der letzte Punkt ist leider völlig falsch.
Original geschrieben von RyoHazuki
Allerdings (wissen aus eigener erfahrung) leidet die Radeon bei vergleich zu NVIDIA unter schlechteren treibern (auf kompatibilät bezogen) !
TV-Out = ATI besser ------- MATROX ungeschlagen
DVD = ATI besser ---------- MATROX ungeschalgen
Mit der FX5200 habe ich andere Erfahrungen gemacht :
(ob's auf die FX5900 zu übertragen ist, weiß ich noch nicht ;-)
TV-Out = nVidia besser (MATROX keinesfalls besser !)
DVD = pari... keinesfalls schlechter als ATI oder Matrox
Original geschrieben von RyoHazuki
es ist jedem also selber belassen zu wählen ! Zwischen beiden karten gibt es keinen "Wesentlichen unterschied" !
Na ja, 'wesentlich' ist für jeden etwas anderes...
Original geschrieben von RyoHazuki
Ich persönlich erwarte meine GeForce FX 5900 Ultra demnächst. Hatte lange kein NV mehr. Und ich find die Option 2D-Takt/3D-Takt einfach genail.
Dem stimme ich mal 100% zu !
:D
Razor
Razor
2003-06-29, 11:19:47
Original geschrieben von LovesuckZ
Dawn laeuft auf ATi karten nur durch eine spezielle Anpassung. Das ist aehnlich, was Nvidia mit dem Shadermark angestellt hat. Man hat die Shader auf die eigene Karten angepasst, dies haben die Studenten mit Dawn gemacht. Daher ist dies wohl kaum vergleichbar.
Zumal ein direkter Qualitätsvergleich noch immer aussteht...
Es wurde immer behauptet, dass die Quali vergleichbar oder gar besser war (wie auch immer das gehen soll ;-), aber angetreten wurde der Beweis nie...
Razor
RyoHazuki
2003-06-29, 12:14:49
Original geschrieben von Razor
Fast richtig... nur der letzte Punkt ist leider völlig falsch.
Mit der FX5200 habe ich andere Erfahrungen gemacht :
(ob's auf die FX5900 zu übertragen ist, weiß ich noch nicht ;-)
TV-Out = nVidia besser (MATROX keinesfalls besser !)
DVD = pari... keinesfalls schlechter als ATI oder Matrox
Na ja, 'wesentlich' ist für jeden etwas anderes...
Dem stimme ich mal 100% zu !
:D
Razor
Razor,
sorry aber im Punkt DVD + TV qualität bleibt Matrox ungeschlagen !
http://www.seijin.de/index2.php?page=Artikel/tvout.php
siehe hier.
Original geschrieben von Razor
Fast richtig... nur der letzte Punkt ist leider völlig falsch.
Dieser Punkt ist nicht "völlig falsch" sondern stimmt nur bedingt. Ausschlaggebend sind System und verwendete Applikation/Game.
TV-Out = nVidia besser (MATROX keinesfalls besser !)
An welchem Ausgang, welches Signal? RGB von einer GF5200?! Kann ich mir ehrlich gesagt kaum vorstellen, daß deren Chrom/Lum-Signal es damit aufnehmen kann. Das macht deine Aussagen nicht gerade glaubwürdiger.
DVD = pari... keinesfalls schlechter als ATI oder Matrox
So? Ich durfte neulich in einen Fachmagazin lesen, daß der ATI-Codec beim Deinterlacing unerreicht ist. Auf was bezieht sich also deine pauschale Aussage?
Razor
2003-06-29, 12:33:50
Original geschrieben von Razor
Ganz toll...
- wieder mal keine Angaben zu den Treibereinstellungen
- absolut unübersichtliches Werte-System
- keine Retail-Karte
Fazit: (fast) wertlos !
:D
Razor
Nachtrag:
Die FX'er wurden im 'Quality'-Mode getestet und somit sind die Vergleichswerte, die AF mit einbezogen leider wieder nur ein "Äpfel/Birnen"-Vergleich...
Razor
Gaston
2003-06-29, 12:34:49
Original geschrieben von Razor
Ganz toll...
- wieder mal keine Angaben zu den Treibereinstellungen
Treiber standen bei beiden Karten auf "Qualtität", "Vsync" war offensichtlich off, was ist den noch so relevant für dich?
- absolut unübersichtliches Werte-System
Nimm mal die Gurken-Scheiben von den Augen! Es gibt nur ein Werte-System. Und das scheint bei den meisten Pre-/Reviews gleich zu sein. Gerenderte Frames * s^-1, veranschaulicht als Balkendiagramm.
- keine Retail-Karte
Wie darf ich diese Unterstellung gegenüber Nvidia verstehe? Ist mit den von Nvidia versandten Preview-Karten irgendetwas nicht in Ordnung?
PS: Aus welchen Reviews von Retail-GF5900Ultra hast du dir deine offensichtliche Meinung gebildet?
Fazit: (fast) wertlos !
:D
Razor
Mein Fazit: Du saugst dir hier krampfhaft Argumente aus den Fingern, wo keine sind. Ganz deine Art.(Oder sollte ich schreiben: "Das zeigt, wessen geistig Kind du bist."?:lol: )
Razor
2003-06-29, 12:36:12
Original geschrieben von RyoHazuki
Razor,
sorry aber im Punkt DVD + TV qualität bleibt Matrox ungeschlagen !
http://www.seijin.de/index2.php?page=Artikel/tvout.php
siehe hier.
Reden wir hier von der FX-Serie oder von der gf4ti-Serie ?
???
Razor
Gaston
2003-06-29, 12:42:17
Original geschrieben von RyoHazuki
Razor,
sorry aber im Punkt DVD + TV qualität bleibt Matrox ungeschlagen !
http://www.seijin.de/index2.php?page=Artikel/tvout.php
siehe hier.
Auch hier meine Frage, welches Signal?
Razor
2003-06-29, 12:42:33
Original geschrieben von Gast
Dieser Punkt ist nicht "völlig falsch" sondern stimmt nur bedingt. Ausschlaggebend sind System und verwendete Applikation/Game.
Hast Du dafür Belege ?
Wenn hier Quali-vergleichbare Treibereinstellungen genutzt werden, dann ist das Bild eindeutig.
nVidia 'Performance' (ab 44.03), bzw. Quality (bis 43.45) vs. ATI 'Quality'...
nVidia 'Quality' ist state-of-the-Art und mit keinem ATI-Modus vergleichbar.
Original geschrieben von Gast
An welchem Ausgang, welches Signal? RGB von einer GF5200?! Kann ich mir ehrlich gesagt kaum vorstellen, daß deren Chrom/Lum-Signal es damit aufnehmen kann. Das macht deine Aussagen nicht gerade glaubwürdiger.
Nur weil Du es Dir nicht vorstellen kannst, macht es meine Aussage nicht unglaubwürdiger.
Fakt ist, dass die FX5200 (andere Vergleichsmöglichkeiten habe ich derzeit nicht) das mit Abstand beste TV-Out bietet, welches ich jemals in Augenschein nehmen durfte.
Verlgleichsmöglichkeiten meiner Person: ATI R9500, Matrox bis G400...
Original geschrieben von Gast
So? Ich durfte neulich in einen Fachmagazin lesen, daß der ATI-Codec beim Deinterlacing unerreicht ist. Auf was bezieht sich also deine pauschale Aussage?
Auf einen direkten Vergleich einer R300 mit einem NV34...
(Matrox habe ich in dieser Hinsicht noch nicht gegenüber gestellt)
Razor
Razor
2003-06-29, 12:47:29
Original geschrieben von Gaston
Treiber standen bei beiden Karten auf "Qualtität", "Vsync" war offensichtlich off, was ist den noch so relevant für dich?
Wie ich oben schon schrieb:
Computerbase hat die nVidia-Treiber im Quality-Mode getestet, so werden hier Äfel mit Birnen verglichen...
Original geschrieben von Gaston
Nimm mal die Gurken-Scheiben von den Augen! Es gibt nur ein Werte-System. Und das scheint bei den meisten Pre-/Reviews gleich zu sein. Gerenderte Frames * s^-1, veranschaulicht als Balkendiagramm.
Damit meinte ich das 'mixen' von Quali- und Rohleistungswerten...
Original geschrieben von Gaston
Wie darf ich diese Unterstellung gegenüber Nvidia verstehe? Ist mit den von Nvidia versandten Preview-Karten irgendetwas nicht in Ordnung?
Ja, sie haben einen anderen Aufbau als Retail-Karten...
(insofern war dies nicht 'endgültig')
Original geschrieben von Gaston
PS: Aus welchen Reviews von Retail-GF5900Ultra hast du dir deine offensichtliche Meinung gebildet?
Welche Meinung wäre das ?
Noch habe ich mir keine endgültige Meinung gebildet (dazu fehlen mir noch intensive Tests der Retail 'ultra's)...
Original geschrieben von Gaston
Mein Fazit: Du saugst dir hier krampfhaft Argumente aus den Fingern, wo keine sind. Ganz deine Art.(Oder sollte ich schreiben: "Das zeigt, wessen geistig Kind du bist."?:lol: )
Deine Meinung.
Und gerade der letzte Spruch scheint damit doch deutlichst eher auf Dich zuzutreffen...
;-)
Razor
silverhawk
2003-06-29, 12:50:40
also ich habe mich jetzt für eine R9700 Pro entschieden weil die Bildqualität gegenüber der NV30/35 wesendlich besser ist, bezogen auf 2D/TVout, 3D kann ich nicht genau belegen, aber ich bin eher ein Freund von Sauberer Qualität als um jeden FPS zu kämpfen :)
Razor
2003-06-29, 12:52:08
Original geschrieben von silverhawk
also ich habe mich jetzt für eine R9700 Pro entschieden weil die Bildqualität gegenüber der NV30/35 wesendlich besser ist, bezogen auf 2D/TVout, 3D kann ich nicht genau belegen, aber ich bin eher ein Freund von Sauberer Qualität als um jeden FPS zu kämpfen :)
Eigene Erfahrungen ?
???
Razor
Original geschrieben von Razor
Die Quali der ATI-AA-Lösung ist eindeutig besser, aber die Effizienz eben nicht. Das HTC (!) 'Intellisample' ist optisch keineswegs schlechter, als bei den vorangegangenen Lösungen (seit gf3), nur ist es wesentlich schneller. Beides (ATI & nVidia) sind MSAA-Varianten mit jeweils 4 Subpixeln (4xAA), nur die Anordnung ist bei ATI anders und daraus ergibt sich dann auch die bessere Qualität (jetz mal von der Gammakokkrektur abgesehen ;-).Die ATI-Variante ist so viel besser, dass das durch die Geschwindigkeit bei NV nicht ausgeglichen wird. Falls man sich mit 2x AA zufriedengeben will, kann man natürlich die FX nehmen. Sofern man auf deutlich glättere Kanten wert legt, brauchts die ATI, wenn man nicht extrem viel Leistung opfern will.
Original geschrieben von Razor
Insofern stellt sich hier lediglich die Frage, ob man maximale Leistung oder eben maximale Qualität möchte.Maximale Leistung bekommt man ganz ohne AA. Das 4x-AA von NV kann da noch so schnell sein, ATI hat beim AA vom Qualitäts-Leistungs-Tradeoff die Nase klar vorn. Von 6x reden wir gar nicht erst...
Original geschrieben von Razor
Hast Du dafür Belege ?
Wenn hier Quali-vergleichbare Treibereinstellungen genutzt werden, dann ist das Bild eindeutig.
nVidia 'Performance' (ab 44.03), bzw. Quality (bis 43.45) vs. ATI 'Quality'...
nVidia 'Quality' ist state-of-the-Art und mit keinem ATI-Modus vergleichbar.
Was würdest du also vorschlagen? 8xS(4xS) +8xPerf.AF auf Nvidia vs. 4xAA +16xQuality AF auf ATI. Du siehst die Diskrepanz in deiner Aussage?
Nur weil Du es Dir nicht vorstellen kannst, macht es meine Aussage nicht unglaubwürdiger.
Fakt ist, dass die FX5200 (andere Vergleichsmöglichkeiten habe ich derzeit nicht) das mit Abstand beste TV-Out bietet, welches ich jemals in Augenschein nehmen durfte.
Achso, darf ich mal fragen, welchen Fernseher du hast? RGB-fähig kann der dann nämlich nicht sein. Denn Unterschied sehe ich aus 10m Entfernung. Also lass dich doch bitte nicht zu solchen Aussagen hinreissen, wenn der Background fehlt. Sollte es sich um deine subjektive Einschätzung handeln, schreib das bitte so hin.
Auf einen direkten Vergleich einer R300 mit einem NV34...
(Matrox habe ich in dieser Hinsicht noch nicht gegenüber gestellt)
Mhh, ich hatte hier schon welche sitzen, die haben nichtmal gemerkt, daß das Material interlaced ist, welches über die ATI ausgegeben wurde. Bei non-interlaced Material kann ich dir nicht widersprechen. Auch hier wieder, bitte lass dich nicht zu solch pauschalen Aussagen hinreissen.
Razor
2003-06-29, 13:18:16
Original geschrieben von aths
Die ATI-Variante ist so viel besser, dass das durch die Geschwindigkeit bei NV nicht ausgeglichen wird. Falls man sich mit 2x AA zufriedengeben will, kann man natürlich die FX nehmen. Sofern man auf deutlich glättere Kanten wert legt, brauchts die ATI, wenn man nicht extrem viel Leistung opfern will.
Für mich ist nicht ein Feature für sich alleinig wichtig, sondern die Kombo, der derzeit möglichen. Dass ATI's AA ab 2x definitiv besser ist, hat ja niemand bestritten, nur ist diese Lösung aber lange nicht so effizeint, wie die von nVidia.
Wenn man dann noch AF dazu nimmt, und dort die fehlende Möglichkeit von hoch-qualitativen AF auf Seiten von ATI ins Kalkül zieht, dann noch die Leistung beider Features im Kombo, dann gibt's ein Pari mit leichtem Performance-Vorteil für nVidia.
Insofern muss sich jeder selber die Frage stellen:
- maximale Leistung mit derzeit bestem AF bei nVidia
oder
- maximale Qualität beim AA und Defizite beim AF bei leicht geringerer Leistung bei ATI
... von allen anderen Gesichtspunkten mal abgesehen...
Original geschrieben von aths
Maximale Leistung bekommt man ganz ohne AA. Das 4x-AA von NV kann da noch so schnell sein, ATI hat beim AA vom Qualitäts-Leistungs-Tradeoff die Nase klar vorn. Von 6x reden wir gar nicht erst...
Siehe oben...
Razor
StefanV
2003-06-29, 13:20:45
Original geschrieben von Gast
Achso, darf ich mal fragen, welchen Fernseher du hast? RGB-fähig kann der dann nämlich nicht sein. Denn Unterschied sehe ich aus 10m Entfernung. Also lass dich doch bitte nicht zu solchen Aussagen hinreissen, wenn der Background fehlt. Sollte es sich um deine subjektive Einschätzung handeln, schreib das bitte so hin.
Den Unterschied zwischen Matrox und nicht Matrox Karte sollte man eigentlich recht schnell erkennen (über Chinch), wenn die Matrox dann noch über RGB angeschlossen ist (G400-G550), dann ists für alle anderen eh vorbei, das RGB-Kabel darf man zwar selbst basteln, was aber für einen einigermaßen fähigen (möchtegern) Elektriker dank des Verdrahtungsplans auf der Matrox Page eigentlich kein Problem darstellen sollte...
Mr. Lolman
2003-06-29, 13:22:18
Original geschrieben von Razor
Hast Du dafür Belege ?
Wenn hier Quali-vergleichbare Treibereinstellungen genutzt werden, dann ist das Bild eindeutig.
nVidia 'Performance' (ab 44.03), bzw. Quality (bis 43.45) vs. ATI 'Quality'...
nVidia 'Quality' ist state-of-the-Art und mit keinem ATI-Modus vergleichbar.
Fakt ist, dass die FX5200 (andere Vergleichsmöglichkeiten habe ich derzeit nicht) das mit Abstand beste TV-Out bietet, welches ich jemals in Augenschein nehmen durfte.
Razor
Sry, das ist aber absolut Roffelig, was du da schreibst. Jetzt soll man plötzlich schon das bilineare performance AF der FXen gegen ATi Quality benchen, nur weil ATi TS>0 bilinear filtert, was dir jetzt plötzlich in UT2003 ganz stark auffällt, aber schon seit Cat. 3.1 gemacht wird, wos noch niemand gemerkt hat, und ich mir oft sogar schwer tue (genauso wie Piffan), einen Unterschied zw. bi. und tri. AF zu erkennen?
AA/AF Vergleiche sind immer im Äpfel und Birnenstyle. Ich verlange ja auch von niemanden, dass 8xSAA gegen ATis 4xAA verglichen wird, weil 8xS in meinen Augen eher mit dem 4xAA von ATi denn deren 6xAA verglichen werden sollte?? So ein Stuss. NV hat nen Quality Modus genau wie ATi, und diese Beiden vergleicht man miteinenader, genau wie 4xAA vs. 4xAA. Wie eine FX bei 8xSAA, 8xpAF gegen eine ATi bei 4xAA, 8xqAF aussehen würde ist dir aber klar, oder?**
(Hab leider keine FXen, aber eine GF4 und habe beide AA Methoden im Vergleich bei UT2k3 betrachtet: IMHO kennt auch jeder die UT2003 VergleichsBilder von Hard|OCP auf max. Qualität, wo ATi besser aussieht und mehr als doppelt so schnell ist)
Ausserdem bin ich sicher, dass bei den FXen bei AF neuerdings genauso getrickst wurde, weil ich mir nicht vorstellen kann, dass nachso langer Zeit der Treiberentwicklung mal eben der Workload bei AF um 25% reduziert werden kann. Ist halt alles im Moment noch eine fiese Unterstellung, aber nur weil es keine Vergleichsbilder gibt.
@andere:
Zu den Treibern kann ich noch sagen, dass es tw. lächerlich ist auf die Thread im ATi Forum hinzuweisen, da der neue Deto genauso Probs macht, die Leute im NV Forum aber zumindestso gesittet sind, für jedes auftretende Prob nicht einen neuen Thread zu eröffnen.
Kleiner Nachtrag noch zu den DOOM3 Benches: Bei HQ wird nicht nur AF zugeschlaten sondern auch die Texturekompression deaktiviert, was sich in einer höheren BQ äussert. Warum sollte man bei Highend Karten also Medium Quality Vergleiche heranziehen, wenn man doch bei so teuren Karten eher hohe BQ haben will.
**Jaja Äpfel und Birnen, MS und SS, kann man nicht vergleichen, Fakt ist aber, dass bei NV SS eingesetztwerden MUSS, um einen BQ vergleichbar mit ATis 4xAA zu erreichen.
/edit: UI, da waren wohl einige schneller.... :weg:
Razor
2003-06-29, 13:23:59
Original geschrieben von Gast
Was würdest du also vorschlagen? 8xS(4xS) +8xPerf.AF auf Nvidia vs. 4xAA +16xQuality AF auf ATI. Du siehst die Diskrepanz in deiner Aussage?
Nein.
2xRGMS +8xPerf.AF auf Nvidia vs. 2xRGMS +16xQuality AF
Nur so ist eine direkter Lesitungsvergleich möglich...
Original geschrieben von Gast
Achso, darf ich mal fragen, welchen Fernseher du hast? RGB-fähig kann der dann nämlich nicht sein. Denn Unterschied sehe ich aus 10m Entfernung. Also lass dich doch bitte nicht zu solchen Aussagen hinreissen, wenn der Background fehlt. Sollte es sich um deine subjektive Einschätzung handeln, schreib das bitte so hin.
Ich habe immer geschrieben, dass es sich um meine persönlichen Erfahrungen handelt... subjektiver geht es wohl kaum, oder ? Auch wurden die Karten am gleichen Fernseher 'verglichen' und so hat sich dann mein Fazit gebildet.
Willst Du also sagen, dass 'ATIs' bessere Qualität in dieser Hinsicht nur bei bestimmten Fernsehern zeigt ?
???
Original geschrieben von Gast
Mhh, ich hatte hier schon welche sitzen, die haben nichtmal gemerkt, daß das Material interlaced ist, welches über die ATI ausgegeben wurde. Bei non-interlaced Material kann ich dir nicht widersprechen. Auch hier wieder, bitte lass dich nicht zu solch pauschalen Aussagen hinreissen.
Ich lasse mich exakt zu den Aussagen hinreißen, die durch meine persönlichen Erfahrungen belegt werden können. Auch habe ich bisher immer geschrieben, dass ich dies lediglich auf die FX5200 beziehe, welche ich selber im rechner habe. Eine Aussage über die Qualität einer (bestimmten) FX5900 steht also noch aus...
Razor
LovesuckZ
2003-06-29, 13:27:39
Original geschrieben von Mr. Lolman
Sry, das ist aber absolut Roffelig, was du da schreibst. Jetzt soll man plötzlich schon das bilineare performance AF der FXen gegen ATi Quality benchen, nur weil ATi TS>0 bilinear filtert, was dir jetzt plötzlich in UT2003 ganz stark auffällt, aber schon seit Cat. 3.1 gemacht wird, wos noch niemand gemerkt hat, und ich mir oft sogar schwer tue (genauso wie Piffan), einen Unterschied zw. bi. und tri. AF zu erkennen?
Wenn man es nicht weißt, macht man sich keinen Kopf dadrueber. So war und wird es auch immer sein.
Komisch nur, dass man heute mit selbstaufgenommenden Timedemos vergleichen soll, weil man angst habe, dass nvidia in den Spielen ja cheaten koennte. Denkst du, dass hat die Mehrheit vor einem jahr so richtig interessiert?
**Jaja Äpfel und Birnen, MS und SS, kann man nicht vergleichen, Fakt ist aber, dass bei NV SS eingesetztwerden MUSS, um einen BQ vergleichbar mit ATis 4xAA zu erreichen.
Nvidia erreicht mit HPAF (bilinear und winkelabhaengig) die selbe Qualitaet wie ATi mit ihrem "Quality".
Original geschrieben von Razor
Für mich ist nicht ein Feature für sich alleinig wichtig, sondern die Kombo, der derzeit möglichen. Dass ATI's AA ab 2x definitiv besser ist, hat ja niemand bestritten, nur ist diese Lösung aber lange nicht so effizeint, wie die von nVidia.ATIs 4x-Lösung ist um Längen effizienter als die von NV. Sie liefert nämlich die viel bessere Qualität pro Leistung.
Original geschrieben von Razor
Wenn man dann noch AF dazu nimmt, und dort die fehlende Möglichkeit von hoch-qualitativen AF auf Seiten von ATI ins Kalkül zieht, dann noch die Leistung beider Features im Kombo, dann gibt's ein Pari mit leichtem Performance-Vorteil für nVidia.Andere argumentieren genau anders: Der Vorteil läge auf Seitens ATI, weil sie eben sehr gutes AA und gutes AF haben. Nvidias AF sei besser, koste aber eben auch viel Leistung, das AA jedoch sei unter aller Würde.
Original geschrieben von LovesuckZ
Nvidia erreicht mit HPAF (bilinear und winkelabhaengig) die selbe Qualitaet wie ATi mit ihrem "Quality". Nein. ATI optimiert rein winkelabhängig, NV optimiert auch ohne Winkelabhängigkeit vor allem die vorderen MIP-Stufen - gerade die Bereiche, wo man das AF gut gebrauchen könnte.
LovesuckZ
2003-06-29, 13:31:02
Original geschrieben von Mr. Lolman
Ausserdem bin ich sicher, dass bei den FXen bei AF neuerdings genauso getrickst wurde, weil ich mir nicht vorstellen kann, dass nachso langer Zeit der Treiberentwicklung mal eben der Workload bei AF um 25% reduziert werden kann. Ist halt alles im Moment noch eine fiese Unterstellung, aber nur weil es keine Vergleichsbilder gibt.
Warum soll das nicht gehen? Die FX ist eine fast vollkommende neue Erfahrung fuer nvidia. Das die Karte mit den ersten Treibern nicht richtig untersteutzt wurde (Application bzw. trilinear lief unter aller sau -> dadurch auch Verlangsamung mit dem AF) liegt da doch voll auf der Hand.
jedenfalls hat die Fx selbst mit dem 43.45 eine Kompartibilitaet, wie sie ATi erst nach über einem halben jahr geschafft hat.
LovesuckZ
2003-06-29, 13:32:39
Original geschrieben von aths
Nein. ATI optimiert rein winkelabhängig, NV optimiert auch ohne Winkelabhängigkeit vor allem die vorderen MIP-Stufen - gerade die Bereiche, wo man das AF gut gebrauchen könnte.
Dann muesste es sich aber auch deutlich zeigen. Ich jedenfalls sehe kaum einen Unterschied in den spielen -wenn nicht sogar keinen!
Razor
2003-06-29, 13:36:36
Original geschrieben von Mr. Lolman
Sry, das ist aber absolut Roffelig, was du da schreibst. Jetzt soll man plötzlich schon das bilineare performance AF der FXen gegen ATi Quality benchen, nur weil ATi TS>0 bilinear filtert, was dir jetzt plötzlich in UT2003 ganz stark auffällt, aber schon seit Cat. 3.1 gemacht wird, wos noch niemand gemerkt hat, und ich mir oft sogar schwer tue (genauso wie Piffan), einen Unterschied zw. bi. und tri. AF zu erkennen?
Wenn Ihr die Unterschiede nicht sehen könnt, seit doch froh !
:D
Ich aber sehe die Unterschiede deutlich (erst recht in bewegung) und ich persönlich kann dem 'Qaulity' AF von ATI nicht viel abgewinnen. Wenn sie wenigstens einen 'unoptimierten' Modus hätten, wäre das ja noch verzeihbar, so aber nicht.
Original geschrieben von Mr. Lolman
AA/AF Vergleiche sind immer im Äpfel und Birnenstyle. Ich verlange ja auch von niemanden, dass 8xSAA gegen ATis 4xAA verglichen wird, weil 8xS in meinen Augen eher mit dem 4xAA von ATi denn deren 6xAA verglichen werden sollte?? So ein Stuss. NV hat nen Quality Modus genau wie ATi, und diese Beiden vergleicht man miteinenader, genau wie 4xAA vs. 4xAA. Wie eine FX bei 8xSAA, 8xpAF gegen eine ATi bei 4xAA, 8xqAF aussehen würde ist dir aber klar, oder?**
Der einzig 'faire' Vergleich ist IMO:
2xRGMS +8xPerf.AF auf Nvidia vs. 2xRGMS +16xQuality AF
(wie ich oben schon schrieb)
Nur dann kann die Leistung beider Karten konkret verglichen werden.
Über die Quali sind wir uns einig:
- AA bei ATI besser
- AF bei nVidia besser
Original geschrieben von Mr. Lolman
(Hab leider keine FXen, aber eine GF4 und habe beide AA Methoden im Vergleich bei UT2k3 betrachtet: IMHO kennt auch jeder die UT2003 VergleichsBilder von Hard|OCP auf max. Qualität, wo ATi besser aussieht und mehr als doppelt so schnell ist)
Wenn Du jetzt noch die zugehörigen Treibereinstellungen gepostet hättest, würde ich Dir darauf auch antworten.
Original geschrieben von Mr. Lolman
Ausserdem bin ich sicher, dass bei den FXen bei AF neuerdings genauso getrickst wurde, weil ich mir nicht vorstellen kann, dass nachso langer Zeit der Treiberentwicklung mal eben der Workload bei AF um 25% reduziert werden kann. Ist halt alles im Moment noch eine fiese Unterstellung, aber nur weil es keine Vergleichsbilder gibt.
Wie Du schon sagst... eine "fiese Unterstellung"... ich würde sagen "reine Spekulation".
AFAIK wurde noch von niemanden auf eine reduzierte BQ bei nVidia hingewiesen. Und wenn es sich dabei 'nur' um eine korrekte Optimierung der Stages handelt (im Gegeteil zu ATI's "Holzhammermethode" - tm@computerbase ;-), ist dagegen auch nichts zu sagen. Der offensichtlich bilineare Anteil (der mir übrigens schon mit Cat3.2 aufgefallen ist) hingegen ist im 'Quality'-Mode inakzeptabel.
Original geschrieben von Mr. Lolman
Kleiner Nachtrag noch zu den DOOM3 Benches: Bei HQ wird nicht nur AF zugeschlaten sondern auch die Texturekompression deaktiviert, was sich in einer höheren BQ äussert. Warum sollte man bei Highend Karten also Medium Quality Vergleiche heranziehen, wenn man doch bei so teuren Karten eher hohe BQ haben will.
Das solltest Du ein wenig mit Hintergrund füllen...
Was genau willst Du hiermit sagen ?
???
Original geschrieben von Mr. Lolman
**Jaja Äpfel und Birnen, MS und SS, kann man nicht vergleichen, Fakt ist aber, dass bei NV SS eingesetztwerden MUSS, um einen BQ vergleichbar mit ATis 4xAA zu erreichen.
Und wieder so eine Nullaussage...
Zum wiederholten male:
"ATI's AA ist definitiv besser !"
(ab 4xAA sogar sehr viel besser)
Vergleichbar mit den xS-Mode ist's allerdings nicht, da Alpha-Texturen bei ATI nicht geglättet werden.
Insofern ein Leistungsvergleich hier schlicht unmöglich sit.
Razor
Mr. Lolman
2003-06-29, 13:36:54
Original geschrieben von LovesuckZ
Wenn man es nicht weißt, macht man sich keinen Kopf dadrueber. So war und wird es auch immer sein.
Komisch nur, dass man heute mit selbstaufgenommenden Timedemos vergleichen soll, weil man angst habe, dass nvidia in den Spielen ja cheaten koennte. Denkst du, dass hat die Mehrheit vor einem jahr so richtig interessiert?
Wenn echt so ein tragischer Unterschied wäre, hätte mans schon bemerkt.
Das mit den selbst aufgenommen Demos zeigt nur dass man den grossen Firmen einfach nicht mehr trauen kann. (Wobei man differenzieren muss, zw. optimierten Timedemos, welche dann verfälschte Werte bringen. und zw. applikationsspezifischen Optimierungen, die das gesamte Spiel schneller machen.
Nvidia erreicht mit HPAF (bilinear und winkelabhaengig) die selbe Qualitaet wie ATi mit ihrem "Quality".
Wenn ATi bei Quality die erste TS nicht tri-AF würde. (Das tun sie bei pAF z.B. nicht). Schrie man ausserdem nicht immer ziemlich laut, als das ATi R200 bi-AF gegen tri-AF gegen NV veglichen wurde? Und das zu einem Zeitpunkt, wo man über die Winkelabhängigkeit von ATis AF nur wenig wusste, mangels geeigneter Tools.
Original geschrieben von LovesuckZ
jedenfalls hat die Fx selbst mit dem 43.45 eine Kompartibilitaet, wie sie ATi erst nach über einem halben jahr geschafft hat.
...und die R9700Pro bot vor fast 1 Jahr schon Leistung, an der Nvidias aktuelle HiEnd-Produkte noch jetzt dran zu kauen haben.
Razor
2003-06-29, 13:40:02
Original geschrieben von aths
ATIs 4x-Lösung ist um Längen effizienter als die von NV. Sie liefert nämlich die viel bessere Qualität pro Leistung.
Deine Meinung... nicht unbedingt die anderer.
Wenn die Lesitung zu gering wird, nützt auch das beste AA nicht.
Und wenn ich im Gegenzug auf AF-Quali verzichten muss...
Original geschrieben von aths
Andere argumentieren genau anders: Der Vorteil läge auf Seitens ATI, weil sie eben sehr gutes AA und gutes AF haben. Nvidias AF sei besser, koste aber eben auch viel Leistung, das AA jedoch sei unter aller Würde.
Das AF kostet bei nVidia nur bis zur FX sehr viel Leistung. Seither hat sich aber viel verändert, oder ?
(erstmals seit 44.03 und seit 44.65 auch unter OGL bessere Quali bei vergleichbarer Leistung)
:D
Razor
Razor
2003-06-29, 13:40:42
Original geschrieben von aths
Nein. ATI optimiert rein winkelabhängig, NV optimiert auch ohne Winkelabhängigkeit vor allem die vorderen MIP-Stufen - gerade die Bereiche, wo man das AF gut gebrauchen könnte.
Wo ?
In den Performance-Modi ?
???
Razor
Original geschrieben von LovesuckZ
Dann muesste es sich aber auch deutlich zeigen. Ich jedenfalls sehe kaum einen Unterschied in den spielen -wenn nicht sogar keinen! Augen auf im Straßenverkehr :D — den Unterschied im Gegensatz zu ATIs AF siehst du aber?
Original geschrieben von Razor
Deine Meinung... nicht unbedingt die anderer. Ein AA mit einer EER von 4x4 wird in dieser guten Performance _nur_ von ATI geboten. Das ist ein Faktum.
Original geschrieben von Razor
Wenn die Lesitung zu gering wird, nützt auch das beste AA nicht.Eben deshalb sind die R300 bzw. R350-Chips ja so gut fürs FSAA geeignet.
Original geschrieben von Razor
Und wenn ich im Gegenzug auf AF-Quali verzichten muss...Sowie andersherum — wenn du im Gegensatz auf AA-Qualität verzichten musst...
Original geschrieben von Razor
Das AF kostet bei nVidia nur bis zur FX sehr viel Leistung. Seither hat sich aber viel verändert, oder ?Naja, der AF-Bug der GF4 Ti scheint weg zu sein.
Original geschrieben von Razor
Wo ?
In den Performance-Modi ?
???Wo sonst.
LovesuckZ
2003-06-29, 13:46:14
Original geschrieben von Mr. Lolman
Wenn ATi bei Quality die erste TS nicht tri-AF würde. (Das tun sie bei pAF z.B. nicht).
Du redest immer von dem "was man auf dem Bildschirm sieht". Da es für mich kaum Unterschiede zwischen HPAF und Quality von ATi gibt (natuerlich nur unter D3D, OpenGL kann man Quality gegen Quality ja testen), ist es fair, diese beiden Modien miteinander zu vergleichen, so wie du dauernd mit dem 4xS ankommst.
Doch wie jeder wissen sollte, bin ich gegen solchen "Mist". Dadurch, dass ATi keine andere Wahl zu laesst als dieses Quality, ist ein vergleich mit 8PAF und 8QAF durchaus berechtigt, denn Winkelabhaengigkeit und das bisschen trilinear gegen "reines" bilinear und eine kleinen Winkelabhaegigkeit.
LovesuckZ
2003-06-29, 13:47:30
Original geschrieben von aths
Augen auf im Straßenverkehr :D — den Unterschied im Gegensatz zu ATIs AF siehst du aber?
Ich sah ATi's Winkelabhaengigkeit. Beim HPAF ist mit dies bezueglich kaum was aufgefallen.
Original geschrieben von LovesuckZ
Ich sah ATi's Winkelabhaengigkeit. Beim HPAF ist mit dies bezueglich kaum was aufgefallen. Ja, weil die vorderen MIP-Stufen generell weniger AF bekommen.
Mr. Lolman
2003-06-29, 13:50:23
Original geschrieben von Razor
Wenn Ihr die Unterschiede nicht sehen könnt, seit doch froh !
:D
Ich aber sehe die Unterschiede deutlich (erst recht in bewegung) und ich persönlich kann dem 'Qaulity' AF von ATI nicht viel abgewinnen. Wenn sie wenigstens einen 'unoptimierten' Modus hätten, wäre das ja noch verzeihbar, so aber nicht.
Nimm, Exxtremes rTool, dann hast du deinen unoptimierten Modus (der in meinen Augen carp ist, da er bis zu 30% langsamer ist, und die BQ kaum verbessert.
Der einzig 'faire' Vergleich ist IMO:
2xRGMS +8xPerf.AF auf Nvidia vs. 2xRGMS +16xQuality AF
(wie ich oben schon schrieb)
Nur dann kann die Leistung beider Karten konkret verglichen werden.
Über die Quali sind wir uns einig:
- AA bei ATI besser
- AF bei nVidia besser
Wenn Du jetzt noch die zugehörigen Treibereinstellungen gepostet hättest, würde ich Dir darauf auch antworten.
Der einzig faire Vergleich wäre mit 2xAA/0xAF zu machen. Die AFOptimierungen lassen sich nicht mit unterschiedlichen Modi vergleichen. z.B. sieht ATis AF auf den Blumen wirklich sh1c3 aus, aber ist für mich in den Spielen von absolut überzeugender Qualität.
Wenn man scho Quality Vergleiche macht (mit AA/AF) sollte man auch die tatsächlich erreichte BQ miteinander vergleichen. (2xAA auf einer 500Euro Karte zu testen ist in meinen Augen sowieso lächerlich=
Der müsste dann halt ca. so aussehen: 4xAA,8x(wieso eigentlich 16x?)Quality AF gegen 8xSAA (zur Not halt auch 4xS),8xpAF
Wie Du schon sagst... eine "fiese Unterstellung"... ich würde sagen "reine Spekulation".
AFAIK wurde noch von niemanden auf eine reduzierte BQ bei nVidia hingewiesen. Und wenn es sich dabei 'nur' um eine korrekte Optimierung der Stages handelt (im Gegeteil zu ATI's "Holzhammermethode" - tm@computerbase ;-), ist dagegen auch nichts zu sagen. Der offensichtlich bilineare Anteil (der mir übrigens schon mit Cat3.2 aufgefallen ist) hingegen ist im 'Quality'-Mode inakzeptabel.
Mir fiels nie auf. Mittels Reg-Key oder rTool ist die "Holzhammer Methode" abschaltbar.
Das solltest Du ein wenig mit Hintergrund füllen...
Was genau willst Du hiermit sagen ?
???
Ich wolte nochmal daraufeingehen, dass anscheinend manche Leute ihre Kaufentscheidung von Medium Quality DOOM3 Benchmarks abhängig machen.
Und wieder so eine Nullaussage...
Zum wiederholten male:
"ATI's AA ist definitiv besser !"
(ab 4xAA sogar sehr viel besser)
Siehst du, und deswegen rate ich zu einer 9800pro, wenn man auch eine hohe BQ anstrebt.
Vergleichbar mit den xS-Mode ist's allerdings nicht, da Alpha-Texturen bei ATI nicht geglättet werden.
Insofern ein Leistungsvergleich hier schlicht unmöglich sit.
Razor
Jetzt solltestdu aber schon wissen, das normale Alphatexturen gar keiner Glättung bedürfen. Es handelt sich um den Alphatest, ein 1 bittiger Wert einer Textur, der bestimmt, ob gewisse Teile der Textur durchsichtig sind oder nicht (z.B. Bäume in GothicII, manche Stromkabel in Mafia). Diese Methode ist am aussterben, weil entweder mit richtigen Alphatexturen bessere Ergebnisse erziehlt werden (z.B. Bäume), oder die Polygonleistung hoch genug ist, die Objekte wirklich 3d zu modellieren (z.B. Stromkabel)
Original geschrieben von Mr. Lolman
ein 1 bittiger Wert einer TexturDer Wert kann auch 8-bittig sein. Für den Alpha Test wird eine "Schwelle" angeben, egal in welcher Auflösung der Alphakanal vorliegt.
Alpha Testing sehe ich aber auch am (gerechten) aussterben.
Mr. Lolman
2003-06-29, 13:57:24
Original geschrieben von aths
Der Wert kann auch 8-bittig sein. Für den Alpha Test wird eine "Schwelle" angeben, egal in welcher Auflösung der Alphakanal vorliegt.
Alpha Testing sehe ich aber auch am (gerechten) aussterben.
Stimmt, ich ging bloss von den 8bit Texturen in Unreal(Tournament) aus, wo der Alphatest tatsächlich noch wirklich Sinn machte.
Demirug
2003-06-29, 14:34:52
Original geschrieben von aths
Alpha Testing sehe ich aber auch am (gerechten) aussterben.
Alternativen? Ausser mit echter Geometrie auszumodelieren sehe ich da keine.
Und komm mir jetzt bitte nicht mit Alphablending. Das hat viel zu viele nachteile.
- CPU belastung steigt weil sortiert werden muss.
- Nicht kompatibel mit Schattenerzeugung.
- Bandbreitenbelastung viel höher.
nggalai
2003-06-29, 15:48:39
Hola,
[B]Original geschrieben Der einzig faire Vergleich wäre mit 2xAA/0xAF zu machen. Die AFOptimierungen lassen sich nicht mit unterschiedlichen Modi vergleichen. z.B. sieht ATis AF auf den Blumen wirklich sh1c3 aus, aber ist für mich in den Spielen von absolut überzeugender Qualität.
Wenn man scho Quality Vergleiche macht (mit AA/AF) sollte man auch die tatsächlich erreichte BQ miteinander vergleichen. (2xAA auf einer 500Euro Karte zu testen ist in meinen Augen sowieso lächerlich=
Der müsste dann halt ca. so aussehen: 4xAA,8x(wieso eigentlich 16x?)Quality AF gegen 8xSAA (zur Not halt auch 4xS),8xpAFIch persönlich halte gar nichts von Leistungs- und Qualitätsvergleichen zwischen verschiedenen Architekturen in der üblichen Review-Form. Das ist IMMER ein Apfel-Birnen-Vergleich, ganz egal auf welche Settings man sich einigt.
Wenn man wirklich nicht ums direkte Vergleichen rumkommt, dann ist IMO bei einem GFFX vs/ R3xx-Vergleich nur 2xMSAA bei rund 1600x1200 ohne AF zulässig, oder auch gleich MSAA weglassen (ATI: Gammakorrigiert. NV: Nicht). Aber selbst ohne AA ist kein echter 1:1-Vergleich möglich, sei's nur schon, dass ATI und NV den MIP-Map LOD-Bias anders setzen, oder dass man nicht abschätzen kann, welcher Treiber die getestete Applikation "fehlerfreier" unterstützt (Stichwort "Optimierungen" oder einfach nur Bugs).
93,
-Sascha.rb
Mr. Lolman
2003-06-29, 16:03:51
@nggalai:
Dann sollte man endlich dazu übergehen bei vergleichbarer BQ zu benchen. Dies ist zwar in einem grossen Masse auch subjektiv, spiegelt aber noch besser die mögliche Leistung bei einer bestimmen Qualität wider.
-> Bei den momentanen extrem unterschiedlichen Implementatioenen gewisser Technologien, hat es nämlich wirklich keinen Sinn mehr stur gleichtitulierte Modi mit einander zu vergleichen, nur weil z.B. die Subpixelanzahl auch gleich ist. (Im schlimmsten Fall sieht nicht-gammakorrektes 16xOGMSAA schlechter aus als 4xRGMSAA mit Gammakorrektur) andererseits ists genauso blöd, ein Defizite bei einer gewissen Technologie (winkelabhängigkeit) mit einem Bonus (tri-AF) aufzuwiegen.
(Dann wird halt je nach Spiel mal 8xSAA mit 4xAA verglichen, oder bei Spielen die starken Gerbauch vom Alphatest machen 4xSAA vs. 6xAA, aber auf jeden Fall würde vermieden werden, ein verzerrtes Bild des BQ/Leistungsverhältnisses, wie es bei fast allen Reviews, der Falls ist, zu bekommen.
Und selbst wenn jetzt das 8x Quality AF nur mehr so gut aussehen würde wie das 2x Perfomance AF einer anderen Firma, sollte man sich nicht scheuen, dies bei einem etwaigen Test auch gegeneinander zu stellen)
Mr. Lolman
2003-06-29, 16:06:35
Original geschrieben von Razor
AFAIK wurde noch von niemanden auf eine reduzierte BQ bei nVidia hingewiesen.
Doch, im neuem Detonatortreiberthread schrieb jemand, dass ihm das 4xAF mit neuem Treiber nur mehr wie 2xAF mit altem Treiber vorkommt.
Razor
2003-06-29, 16:18:15
Original geschrieben von aths
Ein AA mit einer EER von 4x4 wird in dieser guten Performance _nur_ von ATI geboten. Das ist ein Faktum.
Und ?
Original geschrieben von aths
Eben deshalb sind die R300 bzw. R350-Chips ja so gut fürs FSAA geeignet.
Niemand behauptet etwas anderes.
Lediglich in Punkto Leitung liegt die nVidia-Lösung vorne...
Original geschrieben von aths
Sowie andersherum — wenn du im Gegensatz auf AA-Qualität verzichten musst...
Korrekt.
Wie ich ja nun auch schon mehrfach schrieb...
Original geschrieben von aths
Naja, der AF-Bug der GF4 Ti scheint weg zu sein.
Der Lesitungseinbruch aber noch immer zu hoch ist.
Dies änderte sich erst mit der FX-Reihe...
Aber klar, nVidia beseitigt auch ab-und-zu mal Bug's.
:D
Original geschrieben von aths
Wo sonst.
Wen interessiert das ?
???
Razor
Demirug
2003-06-29, 16:19:05
Original geschrieben von Mr. Lolman
@nggalai:
Dann sollte man endlich dazu übergehen bei vergleichbarer BQ zu benchen. Dies ist zwar in einem grossen Masse auch subjektiv, spiegelt aber noch besser die mögliche Leistung bei einer bestimmen Qualität wider.
Dafür bräuchte man dann aber Referenzbilder um die Abweichung von diesem Bild als Massstab zu nehmen.
Razor
2003-06-29, 16:29:08
Original geschrieben von Mr. Lolman
Nimm, Exxtremes rTool, dann hast du deinen unoptimierten Modus (der in meinen Augen carp ist, da er bis zu 30% langsamer ist, und die BQ kaum verbessert.
Somit dieser Punkt eindeutig an nVidia geht...
Original geschrieben von Mr. Lolman
Der einzig faire Vergleich wäre mit 2xAA/0xAF zu machen. Die AFOptimierungen lassen sich nicht mit unterschiedlichen Modi vergleichen. z.B. sieht ATis AF auf den Blumen wirklich sh1c3 aus, aber ist für mich in den Spielen von absolut überzeugender Qualität.
Wenn man scho Quality Vergleiche macht (mit AA/AF) sollte man auch die tatsächlich erreichte BQ miteinander vergleichen. (2xAA auf einer 500Euro Karte zu testen ist in meinen Augen sowieso lächerlich=
Der müsste dann halt ca. so aussehen: 4xAA,8x(wieso eigentlich 16x?)Quality AF gegen 8xSAA (zur Not halt auch 4xS),8xpAF
Bei dem AF gebe ich Dir recht, beim AA nicht.
Erklärung siehe vorherige Posts...
Original geschrieben von Mr. Lolman
Mir fiels nie auf. Mittels Reg-Key oder rTool ist die "Holzhammer Methode" abschaltbar.
Und kostet sehr viel Leistung... nein Danke !
;-)
Original geschrieben von Mr. Lolman
Ich wolte nochmal daraufeingehen, dass anscheinend manche Leute ihre Kaufentscheidung von Medium Quality DOOM3 Benchmarks abhängig machen.
Irrtum.
Bei High-Quality (i.e. per Appliaktion zugeschaltetem AF) und per Treiber erzwungenem AA liegt die nVidia-Lösung vorne (leistungsseitig, nicht in der Quali).
Original geschrieben von Mr. Lolman
Siehst du, und deswegen rate ich zu einer 9800pro, wenn man auch eine hohe BQ anstrebt.
Kannst Du ja auch gerne... warum auch nicht ?
Nur solltest auch Du akzeptieren, dass es durchaus andere Meinungen gibt, die ebenfalls ihre Berechtigungen haben.
Original geschrieben von Mr. Lolman
Jetzt solltestdu aber schon wissen, das normale Alphatexturen gar keiner Glättung bedürfen. Es handelt sich um den Alphatest, ein 1 bittiger Wert einer Textur, der bestimmt, ob gewisse Teile der Textur durchsichtig sind oder nicht (z.B. Bäume in GothicII, manche Stromkabel in Mafia). Diese Methode ist am aussterben, weil entweder mit richtigen Alphatexturen bessere Ergebnisse erziehlt werden (z.B. Bäume), oder die Polygonleistung hoch genug ist, die Objekte wirklich 3d zu modellieren (z.B. Stromkabel)
Das diese 'Methode' aber noch Bestandteil derzeitig angebotener und aktueller Games ist, weißt Du aber schon, oder ? Insofern es derzeit durchaus noch eine Berechtigung hat.
Aber ich wollte eigentlich auf einen ganz anderen Punkt hinaus...
Die Quali läßt sich vergleichen und da gibt es keine 2 Meinungen. Die Leistung hingegen nicht, da hier völlig unterschiedliche Verfahen zum Einsatz kommen, die man nicht vergleichen kann.
Aber ich vermute mal, dass Du dies einfach nicht verstehen willst, oder ?
-
Beim AF ist's etwas anders, da ATI das tatsächliche 'Quality' einfach nicht via Treiber frei gibt und damit konkret einfach unterschlagen wird. Bei nVidia gibt es keinen 4xRGMS-Modus, auch nicht, wenn man den Treiber oder die Registery 'hackt'. Somit bleibt der einzig korrekte Weg, die Leistung (nicht die Qualität) zu vergleichen, etweder folgende:
2xRGMS +8xPerf.AF auf Nvidia vs. 2xRGMS +16xQuality AF
oder
2xRGMS +8xQual.AF auf Nvidia vs. 2xRGMS +16x'hack' AF
(meinetwegen auch 'nur' 8x'hack' ;-)
Razor
Razor
2003-06-29, 16:31:28
Original geschrieben von Mr. Lolman
Doch, im neuem Detonatortreiberthread schrieb jemand, dass ihm das 4xAF mit neuem Treiber nur mehr wie 2xAF mit altem Treiber vorkommt.
Kann ich beruhigt wiederlegen.
:D
Und komm mir nicht mit dem Murks, der interessiert mich nun mittlerer Weile überhaupt nicht mehr.
Razor
Original geschrieben von Razor
Ganz toll...
- wieder mal keine Angaben zu den Treibereinstellungen
- absolut unübersichtliches Werte-System
- keine Retail-Karte
Fazit: (fast) wertlos !
:D
Razor
Ich traue Quasar als Tester auf CB zu, dass er genügend Ahnung besitzt um eine vergleichbare IQ zu erzielen !
Zwar ist das AF bei der FX etwas besser, aber genauso ist das FSAA der Radeon klar überlegen...
Weshalb man imo guten Gewissens behaupten kann, dass die Modi 0xFSAA/0xAF und 4xFSAA/8xAF vergleichbar sind (wenn auch bei 2xFSAA/4xAF IQ Vorteile für die FX bestehen) - und auch in diesen beiden Modi ist die 9800 klar vorne...
La Junta
2003-06-29, 17:22:02
Ich habe die Radeon 9800Pro(HIS) bei einem kollegen im einsatz bestaunen dürfen . Also echt , die Karte hatte in allen Getesteten Games (17insgesammt) keine einzige Fehldarstellung oder ähnliches .
Nebenbei lief die Karte in allen spielen mit 16x AF (Quality) und 6xAA völlig ruckelfrei . Es waren nicht nur alte GAmes , sondern auch in CMR3 , Enclave(sah extrem gut aus) SOF2 , Hulk ......
Auch ohne AA und AF scheint mir die Bildqualität bei der Radeon besser zu sein als bei meiner GF4TI .
PS: Die glateren Kanten der ATI lösung sieht mann immer eindeutig , wobei der unterschied bei AF nur sichtbar ist wenn mann weis wo mann sehen soll , muss und sich auch den ganzen TAg nur darauf Konzentriert .
Und der Test von CB ist nicht weniger brauchbar weil du es so empfindest Razor .
In dem system meines Kollegen (Arctic super silent) ist die Radeon überhaupt nicht rauszuhören . Auch bei offenem Gehäuse nicht .
Fazit : Ich weiss nicht was ich mir kaufen werde . Ich warte noch wenig ab , bis jemand so eine Karte hat in meinem umfeld und mache mir sselbst ein Bild :) .Im gegensatz zu anderen habe ich keine Vorurteile gegenüber irgendeiner Marke und zähle mich nicht als Fan von HW Marken .
Mr. Lolman
2003-06-29, 17:55:21
@Razor: Die Grundessenz ist doch einfach, dass du nicht zufrieden bist, dass man ATi und NV Karten mit 4xAA, 8xqAF gegeneinander antreten lässt (Glaubs mir, ich wars noch nie :D).
Dies ist sowohl aus einer technischen Betrachtung als auch von der jew. erreichte BQ her, nicht unbedingt ratsam. (nicht die Unzufriedenheit, die Benchmethode :balla: )
Du gehst an die ganze Sache technisch ran, und meinst: NV 8xpAF sollt man mit ATis 16xqAF, vergleichen, da ATis höherer AF Anteil de stärkere Winkelabhängikeit augleicht. Und Quality AF deshalb, da das Tri-AF der TS0 wiederum ebenfalls dafür da ist, die Wiinkelabhängikeit (und somit schlchtere Qualität) auszugleichen. (Ich bin eher der Meinung man sollte sich, auf 8xpAF vs. 16xpAF einigen; ungeachtet dessen, dass dann ATis Lösung einen Bandbreitenvorteil hat;)). Beim AA sollte man (deiner Meinung nach) hingegen 4xOGMSAA gegen 4xRGMSAA verglechen, da sich diese Techniken noch am ehesten ähnlich sind.
Für mich hingegen zählt nur, wie das Bild am Ende aussieht. Und hier ists dann halt so dass man bei NV höhere AA Stufen (mit Supersampling) verwenden müsste, um an ATis Qualität zu kommen. Beim AF hingegen muss im Falle eines Vergleichs ebenfalls ein Kompromiss gertroffen werden, und dieser wäre ebenfalls unter dem Aspekt der BQ zu ermitteln.
Wenn dann in so einem Vergleich die Leistung genau gleich wäre, sollte man seine Vorlieben (für AA/AF) entscheiden lassen. Oder halt den Preis.
Crazy_Bon
2003-06-29, 18:01:56
Ich habe mir mal nur die erste Seite dieses Thread gelesen und ein RiesenLOOOOOOOOOL auf Mr.Anderson!!!!!!!!!!!!!1111
Er pickt einfach nur die Rosinen raus und scheisst auf alles andere, die Links zu den HiQ-Benches blieben aussen vor.. ;D
Mr. Anderson
2003-06-29, 19:18:17
Und auch beim kommenden Doom 3 wollt ihr doch nicht auf Kantenglättung verzichten oder ?
3DHardcore (http://www.tomshardware.de/graphic/20030512/nv35_geforce_fx5900ultra-13.html)
Razor
2003-06-29, 19:18:19
Original geschrieben von Gast
Ich traue Quasar als Tester auf CB zu, dass er genügend Ahnung besitzt um eine vergleichbare IQ zu erzielen !
Ich auch, deswegen wunderte ich mich ja...
Aber er hat dies ja auch schon aufgeklärt und konnte gewisse Dinge aufgrund des Zeitdrucks einfach nicht berücksichtigen.
Original geschrieben von Gast
Zwar ist das AF bei der FX etwas besser, aber genauso ist das FSAA der Radeon klar überlegen...
Weshalb man imo guten Gewissens behaupten kann, dass die Modi 0xFSAA/0xAF und 4xFSAA/8xAF vergleichbar sind (wenn auch bei 2xFSAA/4xAF IQ Vorteile für die FX bestehen) - und auch in diesen beiden Modi ist die 9800 klar vorne...
Darum geht es nicht.
Es geht mir ausschließlich um die 'Performance'-Einstellungen für das AF in den Treibern.
Und nVidia 'Quality' hat nunmal bei ATI keine Entsprechenung, während der 'Performance'-Mode dem 'Quality' von ATI sehr nahe kommt (immer noch ein bissel besser, weil Winkelunabhängiger ;-).
Und ja, wäre nVidia 'Performance' gegen ATI 'Quality' gebencht worden, würde ich Dir zu 100% zustimmen (das Fazit dann allerdings ein anderes wäre ;-).
Razor
Mr. Lolman
2003-06-29, 19:21:59
Original geschrieben von Mr. Anderson
Und auch beim kommenden Doom 3 wollt ihr doch nicht auf Kantenglättung verzichten oder ?
3DHardcore (http://www.tomshardware.de/graphic/20030512/nv35_geforce_fx5900ultra-13.html)
Solange der Leistungseinbruch in einem vernünfitgen Verhältnis zur erzielten Qualität ist, natürlich nicht :D
Razor
2003-06-29, 19:31:49
Original geschrieben von Mr. Lolman
@Razor: Die Grundessenz ist doch einfach, dass du nicht zufrieden bist, dass man ATi und NV Karten mit 4xAA, 8xqAF gegeneinander antreten lässt (Glaubs mir, ich wars noch nie :D).
Du hast es erfasst !
:D
Obwohl mein Schwerpunkt auf den Performance-Einstellungen für AF im Treiber besiert.
Original geschrieben von Mr. Lolman
Dies ist sowohl aus einer technischen Betrachtung als auch von der jew. erreichte BQ her, nicht unbedingt ratsam. (nicht die Unzufriedenheit, die Benchmethode :balla: )
Jep.
Original geschrieben von Mr. Lolman
Du gehst an die ganze Sache technisch ran, und meinst: NV 8xpAF sollt man mit ATis 16xqAF, vergleichen, da ATis höherer AF Anteil de stärkere Winkelabhängikeit augleicht. Und Quality AF deshalb, da das Tri-AF der TS0 wiederum ebenfalls dafür da ist, die Wiinkelabhängikeit (und somit schlchtere Qualität) auszugleichen. (Ich bin eher der Meinung man sollte sich, auf 8xpAF vs. 16xpAF einigen; ungeachtet dessen, dass dann ATis Lösung einen Bandbreitenvorteil hat;)). Beim AA sollte man (deiner Meinung nach) hingegen 4xOGMSAA gegen 4xRGMSAA verglechen, da sich diese Techniken noch am ehesten ähnlich sind.
Nicht ganz...
(wer hätte das gedacht ? ;-)
Man sollte auf die erzielte Qualität verzichten (da nicht vergleichbar), sondern lediglich die Leistung gegenüber stellen (da vergleichbar). Wenn man aber unbedingt qualitative Aspekte mit einbeziehen möchte, dann sollte man sich auf Parameter einigen, die wenigstens halbwegs vergleichbar sind.
Das wäre dann
nVidia 2xRGMS / 8xpAF vs. ATI 2xRGMS (inkl. EER) / 8xqAFWenn ich nur noch Leistung betrachten möchte, dann
nVidia 4xOGMS / 8xpAF vs. ATI 4xRGMS (inkl. EER) / 8xqAFWenn ich beim AF auf maximale Qualität gehen möchte
nVidia 4xOGMS / 8xqAF vs. ATI 4xRGMS (inkl. EER) / 8x'hack'AFwahlweise bei ATI auch gerne auch 16xAF, da der Unterschied zu 8x 'eh nur minimal ist.
Original geschrieben von Mr. Lolman
Für mich hingegen zählt nur, wie das Bild am Ende aussieht. Und hier ists dann halt so dass man bei NV höhere AA Stufen (mit Supersampling) verwenden müsste, um an ATis Qualität zu kommen. Beim AF hingegen muss im Falle eines Vergleichs ebenfalls ein Kompromiss gertroffen werden, und dieser wäre ebenfalls unter dem Aspekt der BQ zu ermitteln.
Wenn man genau ist, kommt nVidia auch mit SS-Anteilen nicht an die Qualität von ATI heran (wie im umgekehrten Fall auch mit 'hack' nicht an die AF-Quali von nVidia).
Erschwerend kommt noch hinzu, dass der ATI-Lösung die Eigenheiten der SS-Methode fehlen, insofern hier jeder Vergleich ad absurdum geführt werden kann.
Klar kann man versuchen so etwas in Punkto Leistung gegenüber zu stellen, aber es ist und bleibt ein reichlich krasser "Äpfel/Birnen"-Vergleich. Und ist damit dann auch völlig sinnfrei, sorry.
Original geschrieben von Mr. Lolman
Wenn dann in so einem Vergleich die Leistung genau gleich wäre, sollte man seine Vorlieben (für AA/AF) entscheiden lassen. Oder halt den Preis.
Läßt Du den ersten Teil dieses Satzes vollständig weg, stimme ich Dir zu 100% zu !
:D
Razor
Becks
2003-06-29, 19:44:04
allgemeine frage an alle profis/HW-freaks:bäh:
wieso ist die Ultra bei diesen test (http://www.tomshardware.de/graphic/20030512/nv35_geforce_fx5900ultra-13.html) immer vorn!
ich hab gedacht, dass die radeon bei hoher auflösung wie z.B. 1600x1200 besser sei?
bitte erklärung an n00b!;)
Mr. Lolman
2003-06-29, 19:47:43
@Razor:
Ich sehs immernoch anders:
Der User denkt sich: "Ich will jetzt glatte Kanten und scharfe Texturen und deswegen kauf ich mir jetzt neue HW"
Die Texturen sollen natürlich so scharf wie möglich sein. (keiner mag Mipmapsuppe am Horizont) Gut die Texturen sind manchmal bei NV etwas schärfer (Winkelabhängikeit) manchmal hat ATis die bessere Lösung (16xAF)
Die Kanten sollen so glatt wie möglich sein. NV hat 8xSAA anzubieten, ATi 6xAA. Hm, ATis Lösung schaut fast immer besser aus, und ist zudem viel schneller. (Es liegt an den Reviewern aufzuzeigen, was wo besser aussieht, was vergleichbar wirkt, und wo Schwachstellen zu erkennen sind.)
Siehst du was ich meine. Den Usern ist egal, wies jetzt funktioniert. Schön und schnell muss es sein und problemlos im Betrieb (und daran sollten sich die Reviewer endlich orientieren)
Mr. Lolman
2003-06-29, 19:49:03
Original geschrieben von Beckham
allgemeine frage an alle profis/HW-freaks:bäh:
wieso ist die Ultra bei diesen test (http://www.tomshardware.de/graphic/20030512/nv35_geforce_fx5900ultra-13.html) immer vorn!
ich hab gedacht, dass die radeon bei hoher auflösung wie z.B. 1600x1200 besser sei?
bitte erklärung an n00b!;)
Das 4xAA wird bei NV über den Framebuffer realisiert. (bringt mehr Leistung, benötigt dafür bei hohen Auflösungen 256MB RAM)
LovesuckZ
2003-06-29, 19:50:05
Original geschrieben von Mr. Lolman
Die Texturen sollen natürlich so scharf wie möglich sein. (keiner mag Mipmapsuppe am Horizont) Gut die Texturen sind manchmal bei NV etwas schärfer (Winkelabhängikeit) manchmal hat ATis die bessere Lösung (16xAF)
16AF bringt (so wie einige AA Modien bei nvidia) nix und dient lediglich als Marketinggag. Denn da wo nur mit 2/4 gefiltert wird, aendert auch 16 nix. Und ob man noch einen Unterschied in der Weite sieht, ist auch fragwürdig. Somit bringt 16AF keine bessere Qualitaet als 8AF.
Razor
2003-06-29, 19:51:49
Original geschrieben von Beckham
allgemeine frage an alle profis/HW-freaks:bäh:
wieso ist die Ultra bei diesen test (http://www.tomshardware.de/graphic/20030512/nv35_geforce_fx5900ultra-13.html) immer vorn!
ich hab gedacht, dass die radeon bei hoher auflösung wie z.B. 1600x1200 besser sei?
bitte erklärung an n00b!;)
Bin kein Profi, allenfalls ein HW-Freak... ;)
Die Ultra hat vermutlich durch ihre Speicherausstattung (256MB) und die Möglichkeit diesen für eine Performance-Steigerung beim AA zu benutzen (genauere Hintergründe bitt bei den Profis ;-) einen gewaltigen Vorteil bei 4xAA.
Gerne erwähne ich an dieser Stelle nochmals, dass das ATI AA auch hier natürlich besser aussieht !
(um der Vollständigkeit willen ;-)
Die gf4ti konnte dies auch schon mit dem 2xAA, die Ultra ist nun offenbar auch in der Lage, dies auch mit 4xAA zu machen.
Razor
La Junta
2003-06-29, 19:56:49
Razor , du hast aber schon gesehen das auch 4xAA gegen 4xAA geteste wurde ?
Ich bin zwar kein AF oder AA fetischist , aber wie schon öfters gesagt , bei der Radeon sieht AA und bei derFX AF besser aus . weil immer mit der gleichen AA und AF Stuffe gebencht wurde hat mann bei der ATI das bessere AA ergebniss und bei der NVidia das bessere AF ergebniss .
Darum sehe ichs voll nicht ein was dich so extrem an dem Test der CB stört ?
@Beckham :
THG würde ich nicht soviel glauben . Bei dennen ist immer irgendwie alles anders :) .
Becks
2003-06-29, 19:57:50
ok, dann frag ich mal anders!
ich spiele z.B. irgendein ganz neues spiel, egal welches!
und ich zocke mit 1280x1024 mit 4xAA und 8xAF!
welche karte ist dabei schneller und biete die bessere bildquali und mehr fps?
das ist mir eigentlich am wichtigsten!;)
Mr. Lolman
2003-06-29, 19:58:30
Original geschrieben von LovesuckZ
16AF bringt (so wie einige AA Modien bei nvidia) nix und dient lediglich als Marketinggag. Denn da wo nur mit 2/4 gefiltert wird, aendert auch 16 nix. Und ob man noch einen Unterschied in der Weite sieht, ist auch fragwürdig. Somit bringt 16AF keine bessere Qualitaet als 8AF.
Ist kein Gag. Ich verzichte meist auf 16xAF, weil mich diese Kachelung der Texturen tw. ins extreme fast schon stört. Da solls ruhig etwas unschärfer sein, da ich nicht so gerne die Texturkachelung erkennen müssen will. (z.B. bei Serious SAM - natürliche Darstellungen wie eine Wiesentextur)
Bei Mafia ist 16xAF fast schon Pflicht, da es eindeutig erkennbaren Qualitätsschub mitsich bringt. (Fast nur 0° und 90° Winkel, wenig natürliche Oberflächen)
Auch technisch betrachtet stimmt deine Aussage nicht ganz, da der Boden auf dem man sich bewegt meist eben ist, und nicht einen Winkel von 22.5° hat (=50% Steigung/Gefälle)
Razor
2003-06-29, 20:00:53
Original geschrieben von Mr. Lolman
Ich sehs immernoch anders:
Ist dein gutes recht und ich will Dich auch wirklich nit überzeugen !
;-)
Original geschrieben von Mr. Lolman
Der User denkt sich: "Ich will jetzt glatte Kanten und scharfe Texturen und deswegen kauf ich mir jetzt neue HW"
Nein, der User denkt sich:
"WOA, ich will 'ne neue GraKa !"
"Und es soll die beste sein..."
Original geschrieben von Mr. Lolman
Die Texturen sollen natürlich so scharf wie möglich sein. (keiner mag Mipmapsuppe am Horizont) Gut die Texturen sind manchmal bei NV etwas schärfer (Winkelabhängikeit) manchmal hat ATis die bessere Lösung (16xAF)
Durch die Winkelabhängigkeit bekommt der geneigte User eigentlich kein 16xAF, auch wenn er es gerne hätte... und die weichen Übergänge (tril-Filterung in jeder Situation) sind noch ein ganz anderes Thema.
;-)
Original geschrieben von Mr. Lolman
Die Kanten sollen so glatt wie möglich sein. NV hat 8xSAA anzubieten, ATi 6xAA. Hm, ATis Lösung schaut fast immer besser aus, und ist zudem viel schneller. (Es liegt an den Reviewern aufzuzeigen, was wo besser aussieht, was vergleichbar wirkt, und wo Schwachstellen zu erkennen sind.)
Für mich ist es eigentlich nur wichtig, dass die Jaggies weitestgehend verschwinden. Und das tun sie auch schon in den meisten Fällen bei 1280 und 2xRGMS. Wenn nicht, geht man eben eine Auflösungsstufe höher und dann sind sie immer weg !
;-)
Original geschrieben von Mr. Lolman
Siehst du was ich meine. Den Usern ist egal, wies jetzt funktioniert. Schön und schnell muss es sein und problemlos im Betrieb (und daran sollten sich die Reviewer endlich orientieren)
Da gebe ich Dir 100%'ig recht !
Punkt.
Nur versteht JEDER unter "schön und schnell" etwas anderes.
(ist halt subjektiv)
Schön heißt für mich:
- scharfes Bild, kräftige Farben (AF, SQ)
- keine Jaggies (AA)
Für andere mögen andere Dinge interessant sein, die dann aber wohl meist nur bei Standbildern bewundert werden können.
Bis denne
Razor
Mr. Lolman
2003-06-29, 20:01:26
Original geschrieben von Beckham
ok, dann frag ich mal anders!
ich spiele z.B. irgendein ganz neues spiel, egal welches!
und ich zocke mit 1280x1024 mit 4xAA und 8xAF!
welche karte ist dabei schneller und biete die bessere bildquali und mehr fps?
das ist mir eigentlich am wichtigsten!;)
IMHO eindeutig ATi (Kantenglättung :love2: ), obwohl du natürlich hinundwieder beim direkten Vergleich des AF mit NV HW einen (vernachlässigbaren) Unterschied machen könntest.
Die AF Aussage stützt sich auf einen Erfahrungsbericht eines Forenmitglieds was von einer GF3 zueiner 9700pro aufgerüstet hat
Razor
2003-06-29, 20:03:53
Original geschrieben von La Junta
Razor , du hast aber schon gesehen das auch 4xAA gegen 4xAA geteste wurde ?
Ich bin zwar kein AF oder AA fetischist , aber wie schon öfters gesagt , bei der Radeon sieht AA und bei derFX AF besser aus . weil immer mit der gleichen AA und AF Stuffe gebencht wurde hat mann bei der ATI das bessere AA ergebniss und bei der NVidia das bessere AF ergebniss .
Darum sehe ichs voll nicht ein was dich so extrem an dem Test der CB stört ?
Bitte genau lesen...
Ganz kurz:
Getestet wurde ATI 8x'quality'AF gegen nVidia 8x'quality'AF.
Besser wäre gewesen ATI 8x'quality'AF gegen nVidia 8x'performance'AF.
(da letzteres vergleichbar, aber immer noch bei nVidia leicht besser ist)
Razor
P.S.: Pauschalität ist hier absicht, weil ich es einfach nicht noch einmal herunter leiern möchte.
Razor
2003-06-29, 20:06:17
Original geschrieben von Beckham
ok, dann frag ich mal anders!
ich spiele z.B. irgendein ganz neues spiel, egal welches!
und ich zocke mit 1280x1024 mit 4xAA und 8xAF!
welche karte ist dabei schneller und biete die bessere bildquali und mehr fps?
das ist mir eigentlich am wichtigsten!;)
Ganz knapp und mit Absicht ohne Hintergrund:
- mit ATI schöneres AA
- mit nVidia schöneres AF und meist schneller
Die 'perfekte' Karte ist nur eine Illusion !
Razor
Becks
2003-06-29, 20:07:46
Original geschrieben von Mr. Lolman
IMHO eindeutig ATi (Kantenglättung :love2: ), obwohl du natürlich hinundwieder beim direkten Vergleich des AF mit NV HW einen (vernachlässigbaren) Unterschied machen könntest.
Die AF Aussage stützt sich auf einen Erfahrungsbericht eines Forenmitglieds was von einer GF3 zueiner 9700pro aufgerüstet hat
ok, danke habs mir fast schon gedacht!
auch in anderen foren wird mir zur 9800Pro geraten!
schon alleine wegen der genialen bildquali!
MfG
Becks
2003-06-29, 20:10:10
Original geschrieben von Razor
Ganz knapp und mit Absicht ohne Hintergrund:
- mit ATI schöneres AA
- mit nVidia schöneres AF und meist schneller
Die 'perfekte' Karte ist nur eine Illusion !
Razor
aha, thx:)
werd mir jetzt einfach die Radeon 9800Pro 256DDR "dazu" holen!
ist eigentlich der hersteller egal, oder...
hab eigentlich Hercules im auge gehabt:|
Razor
2003-06-29, 20:10:58
Original geschrieben von Mr. Lolman
Ist kein Gag. Ich verzichte meist auf 16xAF, weil mich diese Kachelung der Texturen tw. ins extreme fast schon stört. Da solls ruhig etwas unschärfer sein, da ich nicht so gerne die Texturkachelung erkennen müssen will. (z.B. bei Serious SAM - natürliche Darstellungen wie eine Wiesentextur)
Mich hat eigentlich mit der R300 immer gestört, dass 16xAF im Kombo mit dem sowieso höheren LOD bei ATI immer etwas 'unruhig' (ich kann es nicht näher beschreiben ;-) in der Entfernung ausgesehen hat. Insofern auch ich dann meistens auf 8xAF zurück gegangen bin (und auch meist am LOD ein wenig herunter korrigiert habe ;-).
Original geschrieben von Mr. Lolman
Bei Mafia ist 16xAF fast schon Pflicht, da es eindeutig erkennbaren Qualitätsschub mitsich bringt. (Fast nur 0° und 90° Winkel, wenig natürliche Oberflächen)
Auch da hat es nicht wirklich viel gebracht...
Hab's bei fast jedem Spiel mal ausprobiert, aber einen wirklichen 'Gewinn' hatte ich bei 16xAF gegenüber 8xAF nur in den seltensten Fällen (nicht einmal bei kompletten Games, sondern wenn nur in bestimmten Situationen).
Original geschrieben von Mr. Lolman
Auch technisch betrachtet stimmt deine Aussage nicht ganz, da der Boden auf dem man sich bewegt meist eben ist, und nicht einen Winkel von 22.5° hat (=50% Steigung/Gefälle)
Kommt halt auf die Eigenbewegung an. Klar, 'schwebt' der Charakter über die Ebenen, dann ist der Boden meist eben, 'wackelt, bzw. schwankt' er, dann ist er es nicht mehr.
Razor
La Junta
2003-06-29, 20:16:10
Original geschrieben von Razor
Bitte genau lesen...
Ganz kurz:
Getestet wurde ATI 8x'quality'AF gegen nVidia 8x'quality'AF.
Besser wäre gewesen ATI 8x'quality'AF gegen nVidia 8x'performance'AF.
(da letzteres vergleichbar, aber immer noch bei nVidia leicht besser ist)
Razor
P.S.: Pauschalität ist hier absicht, weil ich es einfach nicht noch einmal herunter leiern möchte.
Gelesen hab ichs schon , aber wenn sie es so gemacht hätten , wäre die BQ bei AF ähnlich , aber bei AA ATI extrem im Vorteil .
Wäre es dann besser ?
Du kannst 2 verschieden Arbeitende Chips nicht mit 100% gleicher BQ vergleichen.
Darum finde ich den Test der CB nichtmal schlecht .Sie haben bei AA NVidia bevorzugt und bei AF ATi .
Mr. Lolman
2003-06-29, 20:21:11
Original geschrieben von Razor
Mich hat eigentlich mit der R300 immer gestört, dass 16xAF im Kombo mit dem sowieso höheren LOD bei ATI immer etwas 'unruhig' (ich kann es nicht näher beschreiben ;-) in der Entfernung ausgesehen hat. Insofern auch ich dann meistens auf 8xAF zurück gegangen bin (und auch meist am LOD ein wenig herunter korrigiert habe ;-).
Unruhig stimmt (bei manchen Texturen). Das ist nur nicht vorhanden wenn man 4xRGSS verwendet (das konnte nur die Voodo5) Aber das normale SS ist auch in der Lage die ein bisschen zu vermindern.
Das liegt aber nicht an der GraKa, oder am Treiber. Die LOD Einstellungen beider Karten dürfen sich eigentlich nicht unterscheiden, da dies eine Vorgabe von MS ist. Wenn man, als Entwickler miese Texturen verwendet, oder selbst am LOD herumschraubt (wie bei UT2k3) dann ist esnatürlich nachvollziehbar, dass es zu unruhigeren Texturen kommt. (Mit dem raufregeln des LODs oder halt 'Holzhammermethode' (;)) Supersampling lässt sich dies dann natürlich beheben.
Auch da hat es nicht wirklich viel gebracht...
Hab's bei fast jedem Spiel mal ausprobiert, aber einen wirklichen 'Gewinn' hatte ich bei 16xAF gegenüber 8xAF nur in den seltensten Fällen (nicht einmal bei kompletten Games, sondern wenn nur in bestimmten Situationen).
Ist halt subjektiv. Ich erkenne eine eindeutigen Unterschied. Selbst bei Morrowind (und auch da stört mich die 'schärfe' schon
Kommt halt auf die Eigenbewegung an. Klar, 'schwebt' der Charakter über die Ebenen, dann ist der Boden meist eben, 'wackelt, bzw. schwankt' er, dann ist er es nicht mehr.
Razor
Normalerweise änder sich der Winkel beim Schwanken garnicht (bis kaum) da sonst eher ein Betrunkenheitseffekt simuliert würde, als eine Gehbewegung
Razor
2003-06-29, 20:35:43
Original geschrieben von La Junta
Gelesen hab ichs schon , aber wenn sie es so gemacht hätten , wäre die BQ bei AF ähnlich , aber bei AA ATI extrem im Vorteil .
Wäre es dann besser ?
Du kannst 2 verschieden Arbeitende Chips nicht mit 100% gleicher BQ vergleichen.
Darum finde ich den Test der CB nichtmal schlecht .Sie haben bei AA NVidia bevorzugt und bei AF ATi .
Ich will das nich alles nochmal schreiben...
*ächts*
So einfach ist die Sache leider nicht.
Beim AF kann ich eine nahezu 100'ige Vergleichbarkeit herstellen und sollte das auch tun, wenn es geht. Bei AA geht das nicht, denn lediglich beim 2xRGMS liegt eine fast vergleichbare Verfahrensweise zugrunde.
Ich kann Qualität miteinander vergleichen:
- AA bei ATI besser
- AF bei nVidia besser
Oder ich kann Leistung miteinander vergleichen:
- AA/AF bei nVidia schneller
Beides geht IMO nicht.
Razor
Mr. Lolman
2003-06-29, 20:41:30
Original geschrieben von Razor
Beides geht IMO nicht.
Razor
Und zwar aus dem Grund, da NV beim SS (berechtigterweise) soviel Leistung verliert, dass technisch betrachtet ein Vergleich von 8xS,4xS mit 4xRG,6xRG ein bisschen unfair wäre, jedoch m.E. legitim um zu zeigen, wieviel Leistung eine Karte, bei einem bestimmten Anforderungslevel an BQ, verliert.
AA/AF bei NVidia schneller
Ich mach mir jetzt nicht die Mühe eine solche Pauschalisierung auseinander zu nehmen. :D
Razor
2003-06-29, 20:42:27
Original geschrieben von Mr. Lolman
Unruhig stimmt (bei manchen Texturen). Das ist nur nicht vorhanden wenn man 4xRGSS verwendet (das konnte nur die Voodo5) Aber das normale SS ist auch in der Lage die ein bisschen zu vermindern.
Na ja, 4xRGMS hatte ich eigentlich immer dabei an...
Ohne war es eigentlich gar nicht zu ertragen (ist aber wirklich subjektiv).
Original geschrieben von Mr. Lolman
Das liegt aber nicht an der GraKa, oder am Treiber. Die LOD Einstellungen beider Karten dürfen sich eigentlich nicht unterscheiden, da dies eine Vorgabe von MS ist. Wenn man, als Entwickler miese Texturen verwendet, oder selbst am LOD herumschraubt (wie bei UT2k3) dann ist esnatürlich nachvollziehbar, dass es zu unruhigeren Texturen kommt. (Mit dem raufregeln des LODs oder halt 'Holzhammermethode' (;)) Supersampling lässt sich dies dann natürlich beheben.
Bei den ATI-Treibern (Cat3.2/4) hatte ich immer das Gefühl, dass das LOD immer ein wenig niedriger (i.e. pixeliger) war, als das von nVidia (in der Default-Einstellung).
Original geschrieben von Mr. Lolman
Ist halt subjektiv. Ich erkenne eine eindeutigen Unterschied. Selbst bei Morrowind (und auch da stört mich die 'schärfe' schon
Klar war ein Unterschied da, aber ich versuchte diesen Umstand ja auch mit dem Begriff 'Gewinn' zu umschreiben.
Und klar, es ist definitiv subjektiv !
(kann man gar nicht oft genug schreiben ;-)
Original geschrieben von Mr. Lolman
Normalerweise änder sich der Winkel beim Schwanken garnicht (bis kaum) da sonst eher ein Betrunkenheitseffekt simuliert würde, als eine Gehbewegung
Mir ist das besonders bei Rennsimulationen aufgefallen, aber auch bei Flugsimulatoren. Bei FPS war das nur ein einziges Game... wenn ich nur wüsste, welches das war (kann kein aktuelles gewesen sein ;-). Hab' das irgendwo aufgeschrieben und werde das mal raus suchen...
Razor
Razor
2003-06-29, 20:44:05
Original geschrieben von Mr. Lolman
Ich mach mir jetzt nicht die Mühe eine solche Pauschalisierung auseinander zu nehmen. :D
Will sollten es auch langsam dabei bewenden lassen, da ich a) gerade zum Essen gerufen wurde (;)) und b) wir hier wohl 'eh nicht zu einem Konsenz gelangen...
;-)
Razor
La Junta
2003-06-29, 20:50:53
Original geschrieben von Razor
Will sollten es auch langsam dabei bewenden lassen, da ich a) gerade zum Essen gerufen wurde (;)) und b) wir hier wohl 'eh nicht zu einem Konsenz gelangen...
;-)
Razor
So ist es :)
Und nicht immer wieder neu damit anfangen :)
Fruchtzwerg
2003-06-29, 22:24:03
ich weiss nicht ob dieser link schon genannt wurde, da mir 8 seiten etwas viel waren..
aber hier der vergleiches test.
http://www.computerbase.de/article.php?id=237&page=16#fazit
Omnicron
2003-06-30, 00:13:16
Original geschrieben von Fruchtzwerg
ich weiss nicht ob dieser link schon genannt wurde, da mir 8 seiten etwas viel waren..
aber hier der vergleiches test.
http://www.computerbase.de/article.php?id=237&page=16#fazit
Dieser Artikel ist in fast jedem 9800<>5900 Thread verlinkt :eyes:
Mr. Lolman
2003-06-30, 01:43:39
NV scheint übrigens das FSAA4free realisiert zu haben, mit sogar einem kleinem Speedgewinn als Draufgabe: :balla:
Mr. Anderson
2003-06-30, 01:47:16
Die werden sich beim schummeln vertan haben gg, ne ich glaub das ist das 4AA in Medium Qualität
Coolj100
2003-06-30, 03:10:56
Original geschrieben von LovesuckZ
Lol, "Nivida cheatet was das zeug haelt". Ohman :bonk:
Hopp, zurueck ins ATi Forum.
Ich würde jetzt gerne darauf antworten...:@#$!%:, aber es lohnt sich nicht mit so einem fanatiker wie dir:banghead: zu diskutieren. Vergöttere du weiterhin deine karte:krank: und lob sie in den himmel.
Weiter so!!!!!
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.