PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Ist eine 6800GT schneller als ein X800XL ?


Seiten : [1] 2

alpha-centauri
2005-08-16, 16:36:40
Bei betrachtung diverser Games und Benches.

Merkor
2005-08-16, 16:38:36
Die nehmen sich beide nicht viel. In Doom 3 ist die GT in HL2 die XL schneller. Von der Bildqualität und Lautstärke her würde ich die XL vorziehen. Hab meine GT jedenfalls für eine XL wieder zurückgeschickt...

alpha-centauri
2005-08-16, 16:40:24
danke.

Gast
2005-08-16, 21:05:28
Hmmm aber kein SM 3.0 bei der ATI.

Ich spiele gerne Far Cry und Splinter Cell mit den SM 3.0 Effekten.

Sonst denke ich ist aber die ATI ebenbürtig - hab aber trotzdem zur nVidia gegriffen - bis jetzt nicht bereut :)

Gruß aus HH

HotSalsa

alpha-centauri
2005-08-16, 21:18:07
ist ja ne preisfrage.

ICH persoenlich bin schon seit riva tnt immer bei nvidia gewesen. und habs auch nicht bereut.

performance ist immer fuer den preis angemessen bei den karten, die ich gekauft hab.

und im gegensatz zu ati ist bei nvidia kein CCC dabei.

MikBach
2005-08-16, 21:22:32
Hmmm aber kein SM 3.0 bei der ATI.

Ich spiele gerne Far Cry und Splinter Cell mit den SM 3.0 Effekten.

Diese wären?
:confused:

Mr. Lolman
2005-08-16, 21:30:43
Bei gleicher BQ ist ne 6800GT sicher nicht schneller als ne x800xl... (außer vll. in Doom³)

The_Invisible
2005-08-16, 22:17:22
Bei gleicher BQ ist ne 6800GT sicher nicht schneller als ne x800xl... (außer vll. in Doom³)

jaja, jetzt fängt das wieder an

über performance braucht man sich hier nicht streiten da sich beide nix geben (und wenn die eine karte zu langsam ist sicher auch die andere), man sollte mehr auf features schauen... wenn linux ein thema ist braucht man ATI eh nicht erwähnen, bei SSAA ist auch nvidia erste wahl und SM3.0 hat man auch... wüsste nicht warum man da zu ner 800XL greifen soll wenns die karten fürs gleiche geld gibt

mfg

robbitop
2005-08-16, 22:29:22
und im gegensatz zu ati ist bei nvidia kein CCC dabei.

Was eher ein Vorteil, denn ein Nachteil ist.

alpha-centauri
2005-08-16, 22:42:57
die 6800GT PCIe gibts nicht fuer ca 250-300 EUro . Die kostet locker +350 Euro.

Fetza
2005-08-16, 22:49:07
jaja, jetzt fängt das wieder an

über performance braucht man sich hier nicht streiten da sich beide nix geben (und wenn die eine karte zu langsam ist sicher auch die andere), man sollte mehr auf features schauen... wenn linux ein thema ist braucht man ATI eh nicht erwähnen, bei SSAA ist auch nvidia erste wahl und SM3.0 hat man auch... wüsste nicht warum man da zu ner 800XL greifen soll wenns die karten fürs gleiche geld gibt

mfg

Besseres AF und AA (hierbei meine ich jetzt reines multisampling, was daher dann auch gleich in einer besseren performance resultiert)

Gruss

Fetza

alpha-centauri
2005-08-16, 22:51:50
ne, jetzt bitte keine glaubensfragen, jungs. der kerl fuer den die karte ist, wird sicher nicht mal AA und AF auseianderhalten koennen.

es geht um die reine performanc.e

oder einfacher ausgedrueckt: welche karte hat mehr punkte bei 3dmark05 und bei aquamark3 ?

Mad-Marty
2005-08-16, 23:23:44
lol
wer behauptet er spielt SplinterCell3 / FarCry auf einer 6800GT gerne mit HDR erzählt bullshit - mal von 1024 und darunter abgesehen.
Oder ist einfach total anspruchslos was flüssig betrifft.
Und andere nennenswerte SM3 unterstützende spiele gibt es nicht.

(und bevor jetzt jemand mit ut2007 oder so kommt : ihr glaubt nicht im ernst das das dadrauf noch mit effekten brauchbar läuft ....)

In der effektiven nicht optimierten leistung wird wohl die x800xl vorn liegen.

In der 08/15 praxis sollte sich das ganze nichts nehmen, gleicher speed bei den tot-optimierten wichtigen spielen, FarCry / HL2 schneller auf der Radeon, Doom3 schneller auf der 6800GT.

hmx
2005-08-16, 23:40:34
ne, jetzt bitte keine glaubensfragen, jungs. der kerl fuer den die karte ist, wird sicher nicht mal AA und AF auseianderhalten koennen.

es geht um die reine performanc.e

oder einfacher ausgedrueckt: welche karte hat mehr punkte bei 3dmark05 und bei aquamark3 ?

Das mit der Lautstärke bei der 6800gt ist nicht das Problem, denn die kannst du mit einem Tool runterregeln was zumindest im 2D-Betrieb die Karte sehr leise macht. Wie lange soll die Karte denn im Rechner bleiben? Wenn du sie länger behalten willst hat SM3 vielleicht einen Nutzen für dich. Die Karten nehmen sich von der Performance nicht viel. Es kommt letztendlich darauf an, ob du für SM3 denn Mehrpreis der 6800gt zahlen willtst, denn diese Kostet in der PCIe Version etwas mehr als die x800xl.

alpha-centauri
2005-08-16, 23:53:47
Das mit der Lautstärke bei der 6800gt ist nicht das Problem, denn die kannst du mit einem Tool runterregeln was zumindest im 2D-Betrieb die Karte sehr leise macht. Wie lange soll die Karte denn im Rechner bleiben? Wenn du sie länger behalten willst hat SM3 vielleicht einen Nutzen für dich. Die Karten nehmen sich von der Performance nicht viel. Es kommt letztendlich darauf an, ob du für SM3 denn Mehrpreis der 6800gt zahlen willtst, denn diese Kostet in der PCIe Version etwas mehr als die x800xl.

das will mein kumpel sicher nicht. denn er weiss nicht den unterschied zwischen SM-Intel und SM-Ati

eXodia
2005-08-17, 00:50:51
DA (http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_nvidia_geforce_7800_gtx_sli/14/#abschnitt_performancerating) gibbet ein Performance-Rating, laut dem sollte er die GT nehmen und IMO auch.

GrUß

Mr. Lolman
2005-08-17, 00:52:51
Nochmal: Wollt ihr mit Ati vergleichbare BQ, müsst ihr alle Optimierungen ausschalten und HQ verwenden. Deswegen stimmen die Performanceratings alle nicht!

Cyv
2005-08-17, 00:53:19
die 6800GT PCIe gibts nicht fuer ca 250-300 EUro . Die kostet locker +350 Euro.


ja nee is klar
6800 GT (http://www.mix-computer.de//mix/shop/productDetails.html?&artNo=JAXE03&)
X800XL (http://www.mix-computer.de//mix/shop/productDetails.html?&artNo=JAXV57&)

eXodia
2005-08-17, 00:54:43
Nochmal: Wollt ihr mit Ati vergleichbare BQ, müsst ihr alle Optimierungen ausschalten und HQ verwenden. Deswegen stimmen die Performanceratings alle nicht!

Ja, wir haben es gehört :rolleyes:

GrUß

martma
2005-08-17, 01:03:08
Früher hatte NVidia die besseren Treiber, heute hat ATI die besseren. Auch die Bildqualität ist bei ATI besser, was ich gut beurteilen kann, da ich von beiden aktuelle Karten habe. Nach Benchmarkergebnissen brauchst Du die Kaufentscheidung aber nicht abhängig machen, da sie da so gut wie gleichschnell sind. Das die NVidia SM3 hat, bringt auch kaum Vorteile, denn wenn Du es mit halbwegs hoher Auflösung nutzen willst, wird die Graka dafür eh zu langsam.

Gast
2005-08-17, 12:11:13
Zum Thema Bildqualität:
Ich habe eine 6800 Ultra und eine X800XT gehabt.
Die Bildqualität bei der Ultra war auf High Quality etwas besser als bei der ATI auf höchsten Einstellungen. Allerdings war dann die Performance in vielen Fällen fürn Arsch. Vor allem in Far Cry und UT2004 war der Unterschied auch ohne Frame Counter deutlichst zu spüren.

The_Invisible
2005-08-17, 12:39:44
Früher hatte NVidia die besseren Treiber, heute hat ATI die besseren. Auch die Bildqualität ist bei ATI besser, was ich gut beurteilen kann, da ich von beiden aktuelle Karten habe. Nach Benchmarkergebnissen brauchst Du die Kaufentscheidung aber nicht abhängig machen, da sie da so gut wie gleichschnell sind. Das die NVidia SM3 hat, bringt auch kaum Vorteile, denn wenn Du es mit halbwegs hoher Auflösung nutzen willst, wird die Graka dafür eh zu langsam.

das ist unsinn, da die gleichen effekte mit mit SM3.0 schneller abgearbeitet werden können als mit SM2.0, ergo, man könnte den performancegewinn in höheren auflösungen investieren

mfg

Dr.Dirt
2005-08-17, 13:04:50
da die gleichen effekte mit mit SM3.0 schneller abgearbeitet werden können als mit SM2.0

Ist das jetzt blanke Theorie oder gibt es dazu Beweise?

The_Invisible
2005-08-17, 13:06:37
Ist das jetzt blanke Theorie oder gibt es dazu Beweise?

man nehme SC3 und benche selber nach :)

mfg

TobiWahnKenobi
2005-08-17, 13:06:38
lol
wer behauptet er spielt SplinterCell3 / FarCry auf einer 6800GT gerne mit HDR erzählt bullshit - mal von 1024 und darunter abgesehen.
Oder ist einfach total anspruchslos was flüssig betrifft.
Und andere nennenswerte SM3 unterstützende spiele gibt es nicht.


OK. bullshit möchte ich natürlich nicht verbreiten, daher verliere ich nicht viele worte, ausser:

a) ich spiele gern mit HDR.
b) mit etwas tuning an den HDR parametern, ginge sicher noch etwas mehr.

FC 1.33, HDR "7", GeForce 6800 Ultra (non SLI wohlgemerkt) (http://people.freenet.de/Home_of_the_pro_bios/FCHDR.htm)

(..)

mfg
tobi

Dr.Dirt
2005-08-17, 13:17:27
man nehme SC3 und benche selber nach :)

mfg

Quellen im Netzt gibt es keine?

Tigershark
2005-08-17, 13:20:33
Quellen im Netzt gibt es keine?

Doch, frag doch einfach hier mal aths oder Demi, die werden Dir das bestätigen und nach Wunsch sicher auch genau erläutern ;)

martma
2005-08-17, 13:47:18
das ist unsinn, da die gleichen effekte mit mit SM3.0 schneller abgearbeitet werden können als mit SM2.0, ergo, man könnte den performancegewinn in höheren auflösungen investieren

mfg


selber unsinn, hab selbst schon HDR mit meiner damaligen 6800GT ausprobiert, wurde dann aber so langsam, dass man von flüssigem Bildlauf nicht mehr sprechen konnte.

Tigershark
2005-08-17, 13:54:37
selber unsinn, hab selbst schon HDR mit meiner damaligen 6800GT ausprobiert, wurde dann aber so langsam, dass man von flüssigem Bildlauf nicht mehr sprechen konnte.

SM3.0 ist bei weitem nicht nur HDR...

eXodia
2005-08-17, 13:55:56
selber unsinn, hab selbst schon HDR mit meiner damaligen 6800GT ausprobiert, wurde dann aber so langsam, dass man von flüssigem Bildlauf nicht mehr sprechen konnte.

HDR hat mit ps3.0 nix zu tun, du könntest zumindest theoretisch HDR auch auf ner X800 zum laufen bringen.
PS3.0 beschleunigt die Spiele, wie oft muss das noch erwähnt werden :rolleyes:
Ich spiele mit meiner 6800@16/1,6vp FarCry auf 1280x1024 flüssig mit allen Details + HDR

GrUß

TobiWahnKenobi
2005-08-17, 13:58:09
selber unsinn, hab selbst schon HDR mit meiner damaligen 6800GT ausprobiert, wurde dann aber so langsam, dass man von flüssigem Bildlauf nicht mehr sprechen konnte.

bei dir vielleicht. :| ich hab' mit HDR bessere frameraten, als damals mit meiner FX. ja, ich weiss -> die ist alt. aber als ich FC gekauft habe, hatte ich nur diese FX und damit konnte ich es auch durchspielen. muss über ein jahr her sein.

(..)

mfg
tobi

jacky
2005-08-17, 14:43:27
Das die Leute immer meinen SM3.0 würde die Karte langsamer machen.
Ich kann FarCry auch easy mit HDR in 1280x1024 zocken. Also wo ist das Problem????

Und das mit der BQ nervt langsam auch ^^ Als ob jeder vorm Bildschirm klebt und guckt welche Textur nun flimmert.
Und selbst in der Std. Quali fällt das beim Zocken nicht auf.
ATI soll erstma seinen tollen R520 gebacken bekommen, der ja den G70 so dermaßen wegbasht.

Ri*g*g*er
2005-08-17, 14:58:01
HI all,

tja die meisten Möchtegerngrafikbesitzer schreiben ja immer protzend in Ihre Signatur was sie für eine tolle Grafikkarte haben aber die haben noch nie auf einem gutem TFT in 1280 x 1024 gespielt.

Da kann ich voll und ganz nachvollziehen das die nie im Leben einen Unterschied sehen wie denn auch (wo der mindestens 5 Jahre alte 17 Zoll CRT) alles nur noch verschwommen mit mäßigen Farben und Augenkrebsflimmern in 1024 x 768 darstellt.

Wer einen guten TFT hat und weiss wie man den richtig einstellt wird ganz klar einen Unterschied in der Qualität der AA und AF Stufen der unterschiedlichen Grafikkarten sehen.

Mfg
Ri*g*g*er

PS: Ich appeliere mal an die Schreihälse die noch nie wirkliche Grafikpracht bewundern konnten aufgrund fehlender Komponenten.

Tigershark
2005-08-17, 15:03:21
HI all,

tja die meisten Möchtegerngrafikbesitzer schreiben ja immer protzend in Ihre Signatur was sie für eine tolle Grafikkarte haben aber die haben noch nie auf einem gutem TFT in 1280 x 1024 gespielt.

Da kann ich voll und ganz nachvollziehen das die nie im Leben einen Unterschied sehen wie denn auch (wo der mindestens 5 Jahre alte 17 Zoll CRT) alles nur noch verschwommen mit mäßigen Farben und Augenkrebsflimmern in 1024 x 768 darstellt.

Wer einen guten TFT hat und weiss wie man den richtig einstellt wird ganz klar einen Unterschied in der Qualität der AA und AF Stufen der unterschiedlichen Grafikkarten sehen.

Mfg
Ri*g*g*er

PS: Ich appeliere mal an die Schreihälse die noch nie wirkliche Grafikpracht bewundern konnten aufgrund fehlender Komponenten.

Ich fühle mich zwar jetzt nicht angesprochen, aber zumindest meiner Meinung nach ist z.B. Farcry mit Quality und allen Optimierungen AUS kein Flimmern zu sehen. Es sei denn natürlich, man setzt sich 10cm vor den Bildschirm und sucht krampfhaft danach. Aber eigentlich will ich ja SPIELEN und nicht Standbilder bzw. Artefakte beim vor- zurücklaufen bewundern :)

Achja, ich habe übrigens tatsächlich einen TFT (19", iiyama) und trotzdem....

Tigerchen
2005-08-17, 16:00:58
das ist unsinn, da die gleichen effekte mit mit SM3.0 schneller abgearbeitet werden können als mit SM2.0, ergo, man könnte den performancegewinn in höheren auflösungen investieren

mfg

Reines Wunschdenken. Es gibt nur zwei SM 3.0 Spiele und die nutzen es um das Spiel schöner aber auch viel, viel langsamer zu machen und zusätzlich noch MSAA zu verunmöglichen.

Tigerchen
2005-08-17, 16:03:42
bei dir vielleicht. :| ich hab' mit HDR bessere frameraten, als damals mit meiner FX. ja, ich weiss -> die ist alt. aber als ich FC gekauft habe, hatte ich nur diese FX und damit konnte ich es auch durchspielen. muss über ein jahr her sein.

(..)

mfg
tobi

Die FX war ja auch grottenschlecht wenn Shader 2.0 ins Spiel kamen. Wurde damals zwar abgestritten aber mittlerweile bestreitet das wohl keiner mehr.

eXodia
2005-08-17, 16:04:31
Reines Wunschdenken. Es gibt nur zwei SM 3.0 Spiele und die nutzen es um das Spiel schöner aber auch viel, viel langsamer zu machen und zusätzlich noch MSAA zu verunmöglichen.


Nix wunschdenken:

AA funktioniert nicht mit HDR das ist richtig
AA funktioniert aber mit PS3.0
Da diese beiden Modi nix miteinander zu tun haben.

GrUß

deekey777
2005-08-17, 16:05:14
Reines Wunschdenken. Es gibt nur zwei SM 3.0 Spiele und die nutzen es um das Spiel schöner aber auch viel, viel langsamer zu machen und zusätzlich noch MSAA zu verunmöglichen.


Beispiele, insbesondere die "Verunmöglichung" von MSAA?

Tigerchen
2005-08-17, 16:05:28
HDR hat mit ps3.0 nix zu tun, du könntest zumindest theoretisch HDR auch auf ner X800 zum laufen bringen.
PS3.0 beschleunigt die Spiele, wie oft muss das noch erwähnt werden :rolleyes:
GrUß

Wo wird HDR auf einer X800 zum laufen gebracht?
Wo wird PS 3.0 zum beschleunigen genutzt?
Ich will es dir sagen: Nirgendwo!
Theorie und Praxis.....

Tigerchen
2005-08-17, 16:06:14
Beispiele, insbesondere die "Verunmöglichung" von MSAA?

Bietet Splinter Cell mit SM 3.0 MSAA?

eXodia
2005-08-17, 16:06:36
Beispiele, insbesondere die "Verunmöglichung" von MSAA?

Er spricht von HDR, denkt aber immer noch HDR=PS3.0 folglich: kein AA und Performance einbruch.
Das ist aber falsch.

GrUß

Tigerchen
2005-08-17, 16:07:03
Nix wunschdenken:

AA funktioniert nicht mit HDR das ist richtig
AA funktioniert aber mit PS3.0
Da diese beiden Modi nix miteinander zu tun haben.

GrUß

Wo wird PS 3.0 für was anderes als HDR genutzt?

deekey777
2005-08-17, 16:07:33
Nix wunschdenken:

AA funktioniert nicht mit HDR das ist richtig
AA funktioniert aber mit PS3.0
Da diese beiden Modi nix miteinander zu tun haben.

GrUß

AA funktioniert nicht mit HDR das ist richtig <- Ist eine HW-Limitierung, wobei es eine G70 Timedemo gibt/geben soll, wo HDR&MSAA möglich ist.
AA funktioniert aber mit PS3.0 -> SM3.0 bitte. :biggrin:
Da diese beiden Modi nix miteinander zu tun haben -> Nein, siehe 6200: SM3.0, aber zB kein FP-Buffer.

Tigerchen
2005-08-17, 16:08:08
Er spricht von HDR, denkt aber immer noch HDR=PS3.0 folglich: kein AA und Performance einbruch.
Das ist aber falsch.

GrUß

Lerne endlich theoretische Möglichkeiten die sich in der Ferne abzeichnen von realen Umsetzungen zu unterscheiden.

eXodia
2005-08-17, 16:09:08
Wo wird HDR auf einer X800 zum laufen gebracht?
Wo wird PS 3.0 zum beschleunigen genutzt?
Ich will es dir sagen: Nirgendwo!
Theorie und Praxis.....


theoretisch , ja das steht dort, es würde theoretisch funktionieren.
Such dir bitte im Netz Links, den ich Suche die nicht noch einmal, ja es beschleunigt die Spiele.

Jaja das ist so ne Sache mit der Theorie und Praxis... :rolleyes:

GrUß

deekey777
2005-08-17, 16:12:27
Lerne endlich theoretische Möglichkeiten die sich in der Ferne abzeichnen von realen Umsetzungen zu unterscheiden.


Nenn doch ein Beispiel, wo die Nutzung von SM3.0 das MSAA verunmöglicht, oder ist es zu schwer?

jacky
2005-08-17, 16:13:29
Spiel FarCry mit *überleg* Beleuchtung auf Very High wars glaub ich.
Dann ist SM 3.0 automatisch aktiviert aber HDR muss erst mit nem Befehl angemacht werden. Tadaaa man kann FarCry mit SM3.0 und AA spielen :):)

Hab ich jez was gewonnen?

btw: @Keine Ahnung wers war: Ich hab nen 17" TFT, der sogar relativ neu ist. Aber ich sehs wie andere. Wenn man sich natürlich nur auf die Fehler der Graka's konzentriert wird man diese immer finden. Aber Spiele sind ja dazu gedacht gespielt zu werden oder?
Natürlich fallen einem flackernde Texturen auf ... aber das geht mir eigentlich so am Arsch vorbei ;) Solang es net stört, was es definitiv nicht ma in Quality (Opt. an) so ist.
Aber wenn man wie ein Kranker nur aufs Flimmern achtet dann denkt man irgendwann das es im RL auch flimmert LOL :D

A.Wesker
2005-08-17, 16:14:12
HI all,

tja die meisten Möchtegerngrafikbesitzer schreiben ja immer protzend in Ihre Signatur was sie für eine tolle Grafikkarte haben aber die haben noch nie auf einem gutem TFT in 1280 x 1024 gespielt.

Da kann ich voll und ganz nachvollziehen das die nie im Leben einen Unterschied sehen wie denn auch (wo der mindestens 5 Jahre alte 17 Zoll CRT) alles nur noch verschwommen mit mäßigen Farben und Augenkrebsflimmern in 1024 x 768 darstellt.

Wer einen guten TFT hat und weiss wie man den richtig einstellt wird ganz klar einen Unterschied in der Qualität der AA und AF Stufen der unterschiedlichen Grafikkarten sehen.

Mfg
Ri*g*g*er

PS: Ich appeliere mal an die Schreihälse die noch nie wirkliche Grafikpracht bewundern konnten aufgrund fehlender Komponenten.

1280x1024 sieht nicht wirklich berauschend aus. 1920x1200 ist da schon um einiges besser. Heutige TFT's leisten nicht annährend das, was ein sehr guter CRT leistet.

eXodia
2005-08-17, 16:16:36
So Tiger :biggrin: :

http://www.pcgames.de/?article_id=325000

Da steht:

Je nach Level konnten wir bei einer Geforce 6800 GT einen Performancezuwachs von ein bis sieben Prozent feststellen

GrUß

Und wo ist das jetzt bitte nicht praktisch, nützlich??

Dr.Dirt
2005-08-17, 17:20:25
Hmm,


Im Durchschnitt (ermittelt aus den Levels Pier, Training, Research, Regulator und Volcano) liegt der Unterschied zum alten Pfad bei vier Prozent.


4%, das bedeutet bei vorher z.B. 50 FPS mit SM2.0 hat man danach 52 FPS mit 3.0.

Damit ist diese Aussage:


da die gleichen effekte mit mit SM3.0 schneller abgearbeitet werden können als mit SM2.0, ergo, man könnte den performancegewinn in höheren auflösungen investieren


zur Lächerlichkeit verkommen.

Mr. Lolman
2005-08-17, 17:27:46
Wo wird HDR auf einer X800 zum laufen gebracht?


SC3 mit neuestem Patch. Benchmarks:

http://www.hardware.fr/medias/photos_news/00/14/IMG0014104.gif

Benchmarks bitte insofern unter Vorbehalt betrachten, da auch hier NV default vs ATi default gebencht wurde...

Gast
2005-08-17, 17:48:19
HDR hat mit ps3.0 nix zu tun, du könntest zumindest theoretisch HDR auch auf ner X800 zum laufen bringen.
PS3.0 beschleunigt die Spiele, wie oft muss das noch erwähnt werden :rolleyes:
Ich spiele mit meiner 6800@16/1,6vp FarCry auf 1280x1024 flüssig mit allen Details + HDR

GrUß

SChon vergessen?Atis shader 2.0b beschleunigt far cry aber schneller als Nvs ps 3.0.

deekey777
2005-08-17, 17:52:07
SChon vergessen?Atis shader 2.0b beschleunigt far cry aber schneller als Nvs ps 3.0.

So kann man das aber nicht sagen.
Wegen des viel höheren Takts X800XT <-> 6800Ulta, bei der X800XL&6800Gt ist zwar immer noch ein Taktunterschied von, doch dieser ist nicht so groß; am besten sieht man es, wenn man beide Konkurrenten unter SM2.0 bencht.
€: Natürlich braucht man auch Level, wo die Vorteile der beiden Pfade SM2.X bzw. SM3.0 zu "sehen" sind.

deekey777
2005-08-17, 17:55:37
SC3 mit neuestem Patch. Benchmarks:

http://www.hardware.fr/medias/photos_news/00/14/IMG0014104.gif

Benchmarks bitte insofern unter Vorbehalt betrachten, da auch hier NV default vs ATi default gebencht wurde...

Das wäre egal, wichtiger ist aber das visuelle Ergebnis - bezogen auf das HDR oder auch ToneMapping.

Mr. Lolman
2005-08-17, 18:34:59
Das wäre egal, wichtiger ist aber das visuelle Ergebnis - bezogen auf das HDR oder auch ToneMapping.

Keine Ahnung obs wer richtig macht. SC3 hab ich nicht, sonst könnt ichs testen. In der Demo jedoch, war das NV Tonemapping viel zu willkürlich und tw. nicht nachvollziehbar.

Wishnu
2005-08-17, 18:47:59
So kann man das aber nicht sagen.
Wegen des viel höheren Takts X800XT <-> 6800Ulta, bei der X800XL&6800Gt ist zwar immer noch ein Taktunterschied von, doch dieser ist nicht so groß; am besten sieht man es, wenn man beide Konkurrenten unter SM2.0 bencht.
€: Natürlich braucht man auch Level, wo die Vorteile der beiden Pfade SM2.X bzw. SM3.0 zu "sehen" sind.

Aber solange SM3 primär nur zur Beschleunigung eingesetzt wird, leistet eine Takterhöhung ja das gleiche.

Gast
2005-08-17, 19:00:15
ICh meinte 2.0b vs ps .30 da gewinnt das ps profil von Ati bei Far cry

Gast
2005-08-17, 19:01:47
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/test_asus_radeon_ax_800_pro_xt/8/#abschnitt_far_cry

MikBach
2005-08-17, 19:04:30
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/test_asus_radeon_ax_800_pro_xt/8/#abschnitt_far_cry
Und? Was sieht man da? :confused:

MikBach
2005-08-17, 19:32:31
Hmm,



4%, das bedeutet bei vorher z.B. 50 FPS mit SM2.0 hat man danach 52 FPS mit 3.0.

Damit ist diese Aussage:



zur Lächerlichkeit verkommen.
Vorsicht...
FarCry hat SM3 nachträglich eingebaut, wobei ich das mit den 4% nicht glaube.
Es ist definitiv mehr.
Vielleicht haben die Mist gemessen oder eingestellt.

Gast
2005-08-17, 19:43:23
Und? Was sieht man da? :confused:

Da sieht mann das das 2.0.b ps profil von ati schneller ist als das ps 3.0 profil von NV Kapisch ?

Tigershark
2005-08-17, 19:50:42
Da sieht mann das das 2.0.b ps profil von ati schneller ist als das ps 3.0 profil von NV Kapisch ?

Schwätzer....

Far Cry Version 1.2

Der Patch wurde ja bekanntlich gleich wieder zurückgezogen, und performancemäßig war der ja auch nicht das Gelbe vom Ei....also bitte nicht Äpfel mit Birnen vergleichen ;)

MikBach
2005-08-17, 19:53:33
Da sieht mann das das 2.0.b ps profil von ati schneller ist als das ps 3.0 profil von NV Kapisch ?
Inwiefern?
Prozentual zum 2.0-Pfad gesehen oder wie?

Mad-Marty
2005-08-17, 19:56:04
OK. bullshit möchte ich natürlich nicht verbreiten, daher verliere ich nicht viele worte, ausser:

a) ich spiele gern mit HDR.
b) mit etwas tuning an den HDR parametern, ginge sicher noch etwas mehr.

FC 1.33, HDR "7", GeForce 6800 Ultra (non SLI wohlgemerkt) (http://people.freenet.de/Home_of_the_pro_bios/FCHDR.htm)

(..)

mfg
tobi

Interessante propagandaseite, da war übrigens nur 1024 aktiv ...

Naja, es sei jedem selbst überlassen, ein 40er durchschnitt bei den timedemos bedeutet leider auch lows auf 20 ... je nach level

Ich selbst würde mit einem tft nicht wegen hdr [hauptnutzen von sm3] die auflösung senken.

Wieviele leute schaffen es überhaupt hdr zu aktivieren ? und wieviele haben lust 100 parameter zu probieren bis es gut läuft ...

Dr.Dirt
2005-08-17, 20:21:42
Interessante propagandaseite, da war übrigens nur 1024 aktiv ...

Naja, es sei jedem selbst überlassen, ein 40er durchschnitt bei den timedemos bedeutet leider auch lows auf 20 ... je nach level

Ich selbst würde mit einem tft nicht wegen hdr [hauptnutzen von sm3] die auflösung senken.

Wieviele leute schaffen es überhaupt hdr zu aktivieren ? und wieviele haben lust 100 parameter zu probieren bis es gut läuft ...

Naja, ohne AA sieht es nicht wirklich gut aus, von diesen Zickzack-Kanten bekomme ich Augenschmerzen.

deekey777
2005-08-17, 21:18:55
ICh meinte 2.0b vs ps .30 da gewinnt das ps profil von Ati bei Far cry

Was willst du denn der Welt sagen?
Aus deinem Satz liest man, daß du zB mit einer 6800GT die unterschiedlichen SM Pfade in Far Cry getestet hast und zum schluß gekommen bist, daß auf einer 6800GT SM2.X besser/schneller als SM3.0 ist? :|

TobiWahnKenobi
2005-08-17, 22:06:20
Ich selbst würde mit einem tft nicht wegen hdr [hauptnutzen von sm3] die auflösung senken.

damit hab' ich kein problem. mein NEC kann sehr gut interpolieren, und falls das nicht vollflächig gefällt, kann man ja auch seitengetreu zocken.

in nativer auflösung mit 4x AA sind's auch nur 20fps mehr. muss man halt abwägen, was mehr gefällt.

unter der handvoll leuten, die es bisher hier gespielt haben (2-3 kumpels, meine frau, mein bruder und ich), herrscht eigentlich der eindruck, dass HDR einfach sein muss.

aber das ist alles gewohnheit. wie ich schon sagte: ich hab's zu zeiten der FX59 gekauft und ich hatte durchgespielt, lange bevor patch 1.2 herauskam.

heute läufts incl. HDR besser, als damals ohne.

schlussendlich ist es geschmacksache. die NV karte kann es mit und ohne HDR darstellen. in völlig TFT freundlichen frameraten. meinetwegen auch mit kantenglättung --> wayne? welche einstellung des spiels jeder für sich benutzt, muss man der jeweiligen person schon selbst überlassen.

ich hätte vielleicht auch interesse an 100 fps, wenn ich noch einen CRT hätte - aber sowas gibts hier nicht mehr -> seit 4 jahren. auf dem TFT liege ich mit knapp unter 60 fps sehr gut. schade dass man derartig niedrige frameraten nicht bei jedem spiel hinbekommt -> aber es gibt ja vsync..

ups.. sorry.. wollte kein buch schreiben.

(..)

mfg
tobi

Gast
2005-08-17, 22:07:33
Was willst du denn der Welt sagen?
Aus deinem Satz liest man, daß du zB mit einer 6800GT die unterschiedlichen SM Pfade in Far Cry getestet hast und zum schluß gekommen bist, daß auf einer 6800GT SM2.X besser/schneller als SM3.0 ist? :|
Ich will damit sagen das es ein grösseren performance zuwachs bei denn Ati Karten gibt .
Ps2.0>2.0bATI
Ps2.0>3.0NV

Mehr Performance seid ihr schwer von Kapisch.

Mafiosi

deekey777
2005-08-17, 22:11:36
Ich will damit sagen das es ein grösseren performance zuwachs bei denn Ati Karten gibt .
Ps2.0>2.0bATI
Ps2.0>3.0NV

Mehr Performance seid ihr schwer von Kapisch.

Mafiosi

Nein.

jacky
2005-08-17, 22:11:47
Wovon träumst du nachts? Du willst also damit behaupten das der Sprung von ATI PS2.0 auf 2.0b größer war oder sogar behauptest 2.0b von ATI wäre schneller als PS3.0 von Nvidia????

PS3.0 ist was ganz neues. 2.0b is nur ein mini Update. Das kommt niemals ran.

deekey777
2005-08-17, 22:27:12
Wovon träumst du nachts? Du willst also damit behaupten das der Sprung von ATI PS2.0 auf 2.0b größer war oder sogar behauptest 2.0b von ATI wäre schneller als PS3.0 von Nvidia????

PS3.0 ist was ganz neues. 2.0b is nur ein mini Update. Das kommt niemals ran.

Öhm, was?
Um zu erfahren, welche Grafikkarte wieviel von SM2.X bzw. SM3.0 profitiert, sollte man in den Support-Ordner von Far Cry reinschauen (Patch 1.2 muß aber installiert worden sein!), da sieht man ganz genau, was die einzelnen "SMs" so bringen, dann macht man sich noch Gedanken darüber, daß dies zwei unterschiedliche Architekturen sind, die dazu noch unterschiedlich getaktet sind. IMO profitiert die GF 6800 vom SM3.0 verhältnismäßig etwas mehr als die X800 von SM2.X.
Wer eine 6800er hat, kann natürlich nachprüfen, ob und wieviel seine 6800er von SM2.X/SM3.0 in Relation zum SM2.0 profitiert.

Schwätzer....

Far Cry Version 1.2

Der Patch wurde ja bekanntlich gleich wieder zurückgezogen, und performancemäßig war der ja auch nicht das Gelbe vom Ei....also bitte nicht Äpfel mit Birnen vergleichen ;)

Quark, denn die Performance stimmte. Es gab aber Probleme, die rein visuell waren, aber auch in Sachen Stabilität.

Tigershark
2005-08-17, 22:45:58
Quark, denn die Performance stimmte. Es gab aber Probleme, die rein visuell waren, aber auch in Sachen Stabilität.

Naja, die von 1.3x ist aber noch nen Tick besser und außerdem ist der nunh auch fehlerfrei. Nebenbei meinte jacky imho genau das, was Du auch sagtest ;)

Mein Post war übrigens auf den Gast bezogen.

Chill187
2005-08-18, 10:34:36
ihr wisst schon das shader3 nicht wirklich was mit HDR zu tun hat.wenn ein game HDR unterstützt muss das nicht heissen das auch shader3 dabei ist.
das mit der optimierung stimmt,trifft aber momentan noch nicht zu,zumindest nicht auf FC und SC,die haben shader3 aber nicht optimiert.
momentan sind die programmierer noch nicht so weit,das wird erst mit den nächsten games kommen.aber dort kann man mit shader3 einiges an performence herausholen,wie das jetzt genau funktioniert kann ich euch nicht erklären.(hab ich aus dem CT-Magazin)

Mr. Lolman
2005-08-18, 10:36:21
momentan sind die programmierer noch nicht so weit,das wird erst mit den nächsten games kommen.aber dort kann man mit shader3 einiges an performence herausholen,wie das jetzt genau funktioniert kann ich euch nicht erklären.(hab ich aus dem CT-Magazin)

Bei GraKas ist die ct' momentan sehr schwach.

Omnicron
2005-08-18, 11:33:45
Bei GraKas ist die ct' momentan sehr schwach.

War sie eigentlich immer schon.
Ich erinnere mich an den reisserischen Artikel 'Nvidia betrügt beim AA', wo festgestellt wurde das Atis 4xAA viel besser ist als NVs, so das die Bezeichnung '4xAA' im NV Treiber Betrug am Kunden darstellt. ;D

Gast
2005-08-18, 12:21:03
Wovon träumst du nachts? Du willst also damit behaupten das der Sprung von ATI PS2.0 auf 2.0b größer war oder sogar behauptest 2.0b von ATI wäre schneller als PS3.0 von Nvidia????

PS3.0 ist was ganz neues. 2.0b is nur ein mini Update. Das kommt niemals ran.

Auf Computerbase gibts ein Test und da gewinnt eine Ati mehr Frames wenn mann das Ps 2.0b Profil nutz.NV krieg 20 FPS dazu 2.0>3.0,Ati 40 FPS 2.0>2.0b

deekey777
2005-08-18, 13:38:35
ihr wisst schon das shader3 nicht wirklich was mit HDR zu tun hat.wenn ein game HDR unterstützt muss das nicht heissen das auch shader3 dabei ist.
das mit der optimierung stimmt,trifft aber momentan noch nicht zu,zumindest nicht auf FC und SC,die haben shader3 aber nicht optimiert.
momentan sind die programmierer noch nicht so weit,das wird erst mit den nächsten games kommen.aber dort kann man mit shader3 einiges an performence herausholen,wie das jetzt genau funktioniert kann ich euch nicht erklären.(hab ich aus dem CT-Magazin)

Nein, denn mehrmals wurde in der c't das HDR als SM3.0 Effekt genannt, zuletzt in der 15/05, Seite 120(121).
Und wenn die Augen aufmacht, sieht man, daß das HDR in diesem Thread mehrmals als SM-unabhängig bezeichnet wurde, aber wegen der Extra-Möglichkeiten der NV40 läßt sich das HDR einfacher implementieren, was auch gemacht wird, was zur Folge hat, daß man deswegen einen Denkfehler macht.

Bei GraKas ist die c't momentan sehr schwach.
Nein, ist aber eine sehr subjektive Meinung.

Auf Computerbase gibts ein Test und da gewinnt eine Ati mehr Frames wenn mann das Ps 2.0b Profil nutz.NV krieg 20 FPS dazu 2.0>3.0,Ati 40 FPS 2.0>2.0b

Ja, die Balken sind sehr schön anzuschauen.

TobiWahnKenobi
2005-08-18, 13:42:40
muss man FC eigentlich explizit mitteilen, wenn man SM3 nutzen möchte?

ich dachte, das passiert nach patchen auf die neueste version (ATM 1.33) automatisch..

falls ich widererwartend bisher nur SM2 pfade betreten habe, könnte ich dann nicht mit SM3 die performanze pushen?

(..)

mfg
tobi

BUG
2005-08-18, 13:59:32
..also wenn du FarCry im DEVMode + FPS Anziege (/r_displayinfo 1) startest, dann sollte oben in der Ecke (rechts) stehen ob das Spiel jetzt mit SM3.0 läuft oder nicht. In der LOG im FarCry Stammordner kannst du das auch nachprüfen (im unteren drittel der Datei).


Vertex Shaders version 2.0
Pixel Shaders version 2.0
Use Hardware Shaders for ATI R300 GPU
Pixel shaders usage: PS.2.0 and PS.1.1
Vertex shaders usage: VS.2.0 and VS.1.1
Shadow maps type: Mixed Depth/2D maps
Stencil shadows type: Two sided
Lighting quality: Highest

oder eben halt

Vertex Shaders version 3.0
Pixel Shaders version 3.0
Use Hardware Shaders for NV4x GPU
Pixel shaders usage: PS.3.0, PS.2.0 and PS.1.1
Vertex shaders usage: VS.3.0, VS.2.0 and VS.1.1
Shadow maps type: Depth maps
Stencil shadows type: Two sided
Lighting quality: Highest


cu
BUG

deekey777
2005-08-18, 14:00:27
muss man FC eigentlich explizit mitteilen, wenn man SM3 nutzen möchte?

ich dachte, das passiert nach patchen auf die neueste version (ATM 1.33) automatisch..

falls ich widererwartend bisher nur SM2 pfade betreten habe, könnte ich dann nicht mit SM3 die performanze pushen?

(..)

mfg
tobi

Aus der RedaMe.txt:
* SM 3.0 und SM 2.0x sind jetzt standardmäßig aktiviert. Um eine Leistungssteigerung zu erzielen, muss allerdings DirectX 9.0c installiert sein.
Noch Fragen?
Es gab aber Gerüchte, daß man alle Einstellungen auf die höchste Stufe stelen muß, damit man an SM2.X oder SM3.0 rankommt.

BUG
2005-08-18, 14:03:10
Es gab aber Gerüchte, daß man alle Einstellungen auf die höchste Stufe stelen muß, damit man an SM2.X oder SM3.0 rankommt...das ist auch so, auf High gibts nur PixelShader 1.1 zu sehen.

cu
BUG

jacky
2005-08-18, 14:03:31
Jo 20FPS mehr als mit SM2.0 ^^
Du sollst ja auch net mit unterschiedlichen Settings testen.

Glaubst ja nich selber oder? Aber Einbildung is ja auch ne Bildung *G*

/edit: Also bei ner FAQ wegen SM3.0 und HDR für FarCry stand, dass man Beleuchtung auf "Sehr hoch" stellen muss damit SM3.0 aktiviert ist.

Auf "Hoch" läuft nur SM2.0. Aber habs nur gelesen ka obs stimmt.

deekey777
2005-08-18, 14:09:36
..das ist auch so, auf High gibts nur PixelShader 1.1 zu sehen.

cu
BUG

Ich brauche nur die Beleuchtung auf "Sehr Hoch" zu stellen, dann habe ich schon PS2.0/VS2.0 bei meiner 9800Pro, der Rest bleibt auf Hoch-Sehr Hoch. ;)

BUG
2005-08-18, 14:13:13
..das^^ habe ich ja auch so gemeint. Ob jetzt die Schatten aus und die Texturen auf niedrig stehen, ist für das PixelShader Level egal.

Edit: ..dein "alle" habe ich überlesen ;)

cu
BUG

Tigerchen
2005-08-18, 16:37:02
SC3 mit neuestem Patch. Benchmarks:

http://www.hardware.fr/medias/photos_news/00/14/IMG0014104.gif

Benchmarks bitte insofern unter Vorbehalt betrachten, da auch hier NV default vs ATi default gebencht wurde...

Nun gut. Da bringt der SM 3.0 Pfad also bis zu 2fps Vorteil. Ich bin beeindruckt.

Tigerchen
2005-08-18, 16:41:38
ihr wisst schon das shader3 nicht wirklich was mit HDR zu tun hat.wenn ein game HDR unterstützt muss das nicht heissen das auch shader3 dabei ist.
das mit der optimierung stimmt,trifft aber momentan noch nicht zu,zumindest nicht auf FC und SC,die haben shader3 aber nicht optimiert.
momentan sind die programmierer noch nicht so weit,das wird erst mit den nächsten games kommen.aber dort kann man mit shader3 einiges an performence herausholen,wie das jetzt genau funktioniert kann ich euch nicht erklären.(hab ich aus dem CT-Magazin)

Wann sind die Programmierer denn soweit? Den SM 3.0 Performancebonus hat aths ja schon im Frühjahr 2004 versprochen. Jetzt haben wir das letzte Drittel von 2005. Ob das was wird bevor die 6800 sowieso outdated ist?

Tigerchen
2005-08-18, 16:48:07
So Tiger :biggrin: :

http://www.pcgames.de/?article_id=325000

Da steht:



GrUß

Und wo ist das jetzt bitte nicht praktisch, nützlich??

Das ist unterhalb der Wahrnehmungsschwelle. Und vor allem ist es genau ein Spiel.

Tigerchen
2005-08-18, 16:48:57
Nenn doch ein Beispiel, wo die Nutzung von SM3.0 das MSAA verunmöglicht, oder ist es zu schwer?

Unterlass diese Spielchen.

deekey777
2005-08-18, 16:49:08
Nun gut. Da bringt der SM 3.0 Pfad also bis zu 2fps Vorteil. Ich bin beeindruckt.



In Relation zu was? Oder kurz auf die Balkenlänge geschaut und nichts kapiert?

Unterlass diese Spielchen.

Das ist kein Spielchen, du wirst irgendwas sinnloses in die Diskusion rein, ohne dies zu begründen. Gibt es endlich ein Beispiel?


Wann sind die Programmierer denn soweit? Den SM 3.0 Performancebonus hat aths ja schon im Frühjahr 2004 versprochen. Jetzt haben wir das letzte Drittel von 2005. Ob das was wird bevor die 6800 sowieso outdated ist?


Hat aths das wirklich so versprochen? Die NV40 kam irgendwann im April, schon im Juni gab es den ersten Vorgeschmack, wie die Performance durch SM 3.0, aber auch durch SM2.X gesteigert werden kann, wenn man die Limitierungen der einfachen SM2.0 Grafikkarten aufhebt.

Coda
2005-08-18, 17:28:51
Unterlass diese Spielchen.
SM 3.0 hat nichts mit MSAA zu tun. Wenn dann geht MSAA wegen HDR nicht mehr, was wiederrum nichts mit SM 3.0 zu tun hat...

eXodia
2005-08-18, 17:30:55
SM 3.0 hat nichts mit MSAA zu tun. Wenn dann geht MSAA wegen HDR nicht mehr, was wiederrum nichts mit SM 3.0 zu tun hat...

Ja, aber das will er nicht einsehen... :rolleyes:

GrUß

jacky
2005-08-18, 18:03:55
Ich weiss auch net wo in der Grafik was verglichen wird ;)

Nur die einzelnen Karten inkl. neuem Patch und in unterschiedlichen Auflösungen mit HDR ;)

Tigerchen
2005-08-18, 19:26:47
Ja, aber das will er nicht einsehen... :rolleyes:

GrUß

Doch genauso war es gemeint. Nur egal wie ich es formuliere jedes mal taucht irgendwer auf und möchte meine Worte umdeuten. Dieses Spielchen geht mir auf den Sack. Muß ja irrsinnig viel Spaß machen. Egal wie exakt ich versuche meine Worte zu wählen es scheint immer einen Weg zu geben mich nicht verstehen zu wollen. Tolle Leistung! :|

Tigerchen
2005-08-18, 19:30:16
In Relation zu was? Oder kurz auf die Balkenlänge geschaut und nichts kapiert?


Ja genau. 6800GT vs. X800XL.
HDR ala ATI vs. HDR ala nVidia.
Unterschied bis zu 2,3 fps.

Deine Beleidigungen darfst du für dich behalten. Das schreit ja schon nach Punkten.

eXodia
2005-08-18, 19:33:11
ganz ruhig deekey777 und ich wollten dich ganz bestimmt nicht beleidigen, bei mir war es ein missverständniss, hab deine Aussage nicht so interpretiert :wink:

GrUß

Gast
2005-08-18, 19:46:33
2.0>2.0b
>2.0b bringt einen grösseren performance boost.
2.0>3.0

jacky
2005-08-18, 20:03:41
Aber das HDR auf der X800 is nicht ganz so gut wie auf der Nvidia.
Das is mit Screens bewiesen wurden. Muss nur nochmal die Links suchen.

MikBach
2005-08-18, 21:33:37
2.0>2.0b
>2.0b bringt einen grösseren performance boost.
2.0>3.0
Das "grösser"-Zeichen mit dem "kleiner"-Zeichen vertauscht?

jacky
2005-08-18, 21:58:39
LOL Mathe is echt schwer :D
Würd ma sagen eiskalt blamiert :D

deekey777
2005-08-18, 22:14:27
Nun gut. Da bringt der SM 3.0 Pfad also bis zu 2fps Vorteil. Ich bin beeindruckt.
...
Ja genau. 6800GT vs. X800XL.
HDR ala ATI vs. HDR ala nVidia.
Unterschied bis zu 2,3 fps


Shader Profile Performance Differences (http://www.simhq.com/_technology/technology_058a.html)

Zweite Seite (http://www.simhq.com/_technology/technology_058b.html): zuerst der Test mit SM 1.1 vs. SM2.X/SM3.0 only.

Wer profitiert hier mehr? Auch sollte man den gewaltigen Taktunterschied nicht vergessen.
In der nächsten Tabelle kommt das HDR und das ToneMapping hinzu, die Frames der 6800GT brechen gewaltig ein, warum? Da kommen mehrere Faktoren zusammen wie die Speicherbandbreite, FP vs. INT... Doch das visuelle Ergebnis ist dennoch unterschiedlich: Dieser Vergleich ist für den Arsch, denn zB das ToneMapping ist auf den X800ern nicht zu sehen. Aber das steht alles in einem Thread, wo ubisoft die SM2.0 Grafikkarten benachteiligt.
Ich hoffe, daß endlich Lost Coast für HL2 released wird, da wird man einiges an Unterschieden zw. dem HDR à la NV40/G70 und dem HDR à la X800 (optisch schlechter, aber mit MSAA!) sehen können; hoffentlich gehen dann einigen ein Licht auf.

Deine Beleidigungen darfst du für dich behalten. Das schreit ja schon nach Punkten.

Ob du mich meldest oder nicht, ist mir egal.
Das gilt aber für deine blaue Schrift, doch dies kann man leider nicht bepunkten.

MikBach
2005-08-18, 22:19:50
LOL Mathe is echt schwer :D
Würd ma sagen eiskalt blamiert :D
Du meinst jetzt aber den Gast und nicht mich?

eXodia
2005-08-18, 22:22:31
klar meint er den Gast.

GrUß

jacky
2005-08-18, 22:26:07
Türlich den Gast *G*
Du hast ihn ja bloß gestellt ;)

MikBach
2005-08-18, 22:38:09
Aber das HDR auf der X800 is nicht ganz so gut wie auf der Nvidia.
Das is mit Screens bewiesen wurden. Muss nur nochmal die Links suchen.
Nein, das HDR ist genauso gut. das Bild ist nur bisschen dunkler.

jacky
2005-08-19, 02:28:50
Also ich bin mir sicher das bestimmte Effekte nicht wirklich vorhanden sind.
Und selbst wenn es nicht so wäre.

Damit ist doch endlich eindeutig bewiesen, dass die Nvidia keineswegs zu lahm für HDR sind. Das wird ja immer gesagt.

Aber da spricht leider immer der Neid der ATI Fanboys. Kann einfach nicht verstehen warum nicht sachlich bleiben kann.

Ich hab zur Info auch mal ne ATI gehabt und war alles super. Aber ne alzu große BQ Verschlechterung konnte ich net feststellen. Eigentlich überhaupt nicht aber nunja das ja immer die Wahrnehmung des Betrachters.
Bin aber relativ froh drüber nicht jede flimmerende Textur systematisch zu suchen :)

Radeonator
2005-08-19, 06:35:13
1280x1024 sieht nicht wirklich berauschend aus. 1920x1200 ist da schon um einiges besser. Heutige TFT's leisten nicht annährend das, was ein sehr guter CRT leistet.

Sry, das stimmt einfach nicht! Die BQ auf einem 4/8 ms TFT ist brilliant!
Ich habe einen sehr guten 17" CRT und einen 17" TFT zuhause. Zuvor war ich (wie man auch im Forum nachlesen kann) genauso wie du , negativ TFT 3dBQ gegenüber eingestellt. Dies ist heutzutage jedoch nicht mehr zutreffemd!

A.Wesker
2005-08-19, 09:08:45
Sry, das stimmt einfach nicht! Die BQ auf einem 4/8 ms TFT ist brilliant!
Ich habe einen sehr guten 17" CRT und einen 17" TFT zuhause. Zuvor war ich (wie man auch im Forum nachlesen kann) genauso wie du , negativ TFT 3dBQ gegenüber eingestellt. Dies ist heutzutage jedoch nicht mehr zutreffemd!
als einen sehr guten CRT bezeichne ich nicht eine 17" glotze, sondern Monitore wie der Sony FW900. an den kommt selbst das Apple 30" Display nicht ran, welches ich zum arbeiten nutze.

The_Invisible
2005-08-19, 09:24:16
als einen sehr guten CRT bezeichne ich nicht eine 17" glotze, sondern Monitore wie der Sony FW900. an den kommt selbst das Apple 30" Display nicht ran, welches ich zum arbeiten nutze.


man glaube es kaum, aber es gibt auch gute 17" CRT's sowie 19" CRT's

aja, und teuer + groß != gut

mfg

A.Wesker
2005-08-19, 09:30:14
man glaube es kaum, aber es gibt auch gute 17" CRT's sowie 19" CRT's

aja, und teuer + groß != gut

mfg
das ist aber alles nix gegen widescreen. hatte selbst einen Sony 22" und bei dem kam net annährend das feeling rüber, wie beim FW900

Radeonator
2005-08-19, 09:36:01
als einen sehr guten CRT bezeichne ich nicht eine 17" glotze, sondern Monitore wie der Sony FW900. an den kommt selbst das Apple 30" Display nicht ran, welches ich zum arbeiten nutze.

:rolleyes: Warum wusste ich nur, das so nen Kommentar kommen würde... :rolleyes:

Ich habe einen SCENICVIEW P796-2 CRT und kenne inzwischen aufgrund meiner Arbeit zig verschiedene CRTs...da gehört dieser IMO Garantiert in die Top10

Aber das ist etwas sehr OT und über SUFU wirsd du diverse Threads TFT vs CRT finden...

MikBach@w
2005-08-19, 16:40:50
Also ich bin mir sicher das bestimmte Effekte nicht wirklich vorhanden sind.
Diese wären?
http://www.simhq.com/_technology/technology_058c.html

Damit ist doch endlich eindeutig bewiesen, dass die Nvidia keineswegs zu lahm für HDR sind. Das wird ja immer gesagt.


http://www.simhq.com/_technology/technology_058b.html

In etwa so schnell bzw. langsam wie bei den ATI-Karten.

jacky
2005-08-19, 16:54:03
Auf den ersten Blick fällt mir einfach auf, dass das HDR auf der Nvidia viel intensiver wirkt. Ob das rein performancetechnisch nen Unterschied weiss ich nicht.

Im Prinzip ist es mir auch sowas von egal. Dieses ganze Nvidia vs. ATI Gebashe nervt tierisch.

Ich bin zufrieden mit meiner Nvidia. Sie ist schnell und hat ein astreines Bild.
Was natürlich auch auf eine ATI zutrifft. Also sollte man einfach zum Schluss sagen, dass eine X800XL einer 6800GT ebenbürtig ist. Hier und da ist die eine Karte vielleicht 3fps schneller als die andere. Aber das hält sich meiner Meinung nach die Waage.

Also hört endlich auf euch wegen den blöden Graka's zu zoffen. Hier will einfach jeder die Graka, die er besitzt so darstellen als sei die andere viel schlechter.

Dr.Dirt
2005-08-19, 17:09:44
und hat ein astreines Bild.

Aber nicht bei Treiberdefault, man muß es schon auf HQ stellen und muß dann doch einiges an Performanceeinbußen.

Mr. Lolman
2005-08-19, 17:18:10
Auf den ersten Blick fällt mir einfach auf, dass das HDR auf der Nvidia viel intensiver wirkt. Ob das rein performancetechnisch nen Unterschied weiss ich nicht.

Das kommt imo eher vom Tonemapping. Und im Ggs zu Farcry, arbeitet das Tonemapping bei SC3 nicht immer nachvollziehbar (zumindest bei der Demo)

MikBach
2005-08-19, 18:09:54
Auf den ersten Blick fällt mir einfach auf, dass das HDR auf der Nvidia viel intensiver wirkt. Ob das rein performancetechnisch nen Unterschied weiss ich nicht.
Das Bild wirkt insgesamt heller.
Ich denke, wenn man das Bild bei der ATI klein wenig heller macht, bekommt man die gleiche "Intensität". ;)

Im Prinzip ist es mir auch sowas von egal. Dieses ganze Nvidia vs. ATI Gebashe nervt tierisch.
Was für Gebashe?
Ist imo recht sachlich das Ganze. :)

Ich bin zufrieden mit meiner Nvidia.
Das ist das Wichtigste. :up:

Also hört endlich auf euch wegen den blöden Graka's zu zoffen. Hier will einfach jeder die Graka, die er besitzt so darstellen als sei die andere viel schlechter.
Ich habe zwar eine 6800GT, aber es ist für mich kein Problem auch eine X800 zu empfehlen. :)

jacky
2005-08-19, 18:16:53
Aber nicht bei Treiberdefault, man muß es schon auf HQ stellen und muß dann doch einiges an Performanceeinbußen.


Das mein ich mit Gebashe. Ich schreibe, dass ich absolut zufrieden bin auch mit der BQ.

Und dann kommt so ein toller Satz. Nochmals das Bild ist mit Qualität + TriOpt astrein.
Akzeptiert meine Meinung endlich ... Wenn ihr euch damit nicht zufrieden gebt dann kauft euch ne Matrox :)

Ich hab auch kein Problem eine ATI zu empfehlen absolut nicht. Und sollte der R520 gut abschneiden kann es auch gut möglich sein, dass das meine nächste Graka wird.

Aber immer wieder Salz in die Wunde zu streuen nervt. Jeder sieht die Qualität anders und ich denke alle Karten befinden sich schon auf einem seehr hohen Level. Das Unterschiede nicht leicht festzustellen sind besonders für Leute die keine Lupe aufm Schreibtisch haben.

MikBach
2005-08-19, 18:32:19
Das mein ich mit Gebashe. Ich schreibe, dass ich absolut zufrieden bin auch mit der BQ.
Das ist aber nicht wirklich ein Gebashe.
Du darfst dich auch nicht als Massstab sehen. :)

Wenn wir über vergleichbare BQ reden, dann hat Dr.Dirt Recht.


Und dann kommt so ein toller Satz. Nochmals das Bild ist mit Qualität + TriOpt astrein.
Akzeptiert meine Meinung endlich ...
Wenn diese BQ dir passt, ist das prima für dich, du hast mehr Performance.
Aber du kannst anderen nicht absprechen, dass sie HQ brauchen, um vernünftig zu Zocken.

Aber immer wieder Salz in die Wunde zu streuen nervt.
Das ist ja nicht gegen dich gerichtet, sondern allgemein. Kann das sein, dass du das alles zu persönlich nimmst?


Jeder sieht die Qualität anders und ich denke alle Karten befinden sich schon auf einem seehr hohen Level.
Das ist schon klar, wenn wir aber vergleichen wollen, muss man die 6800 auf HQ stellen, weil sonst die BQ der ATI überlegen ist, dann ist das nicht fair. :)

Aber nicht bei Treiberdefault, man muß es schon auf HQ stellen und muß dann doch einiges an Performanceeinbußen.
...hinnehmen. ;)

jacky
2005-08-19, 19:12:46
Ich sehe mich sicherlich nicht als Maßstab. Aber ich bin mir doch relativ sicher, dass es viele wie mich gibt die eine schnelle Karte wollen mit einer in meinen Augen guten BQ.
Nicht jeder liest sich jeden Artikel durch und guckt sich alle Screenshots an.

Ich frage mal so. Die 9800Pro hat doch eine ähnliche BQ wie ein X800er Karte richtig?
Dann muss ich nämlich ganz klar sagen, dass zwischen der 9800Pro und der 6800er null Unterschied ist.

Natürlich habe ich nicht 2 System und 2 TFT's um die Karten 1 gegen 1 laufen zu lassen. Dazu fehlt mir das nötige Kleingeld und die Lust :)

Das einzige was ich absolut bestätigen kann ist, dass das Anti-Aliasing der ATI Karten besser ist.

Das wars dann aber eigentlich schon. Also in meinen Augen ist die ATI nicht so überlegen wie das einige behaupten.

Aber das ist natürlich meine persönliche Meinung, die ich absolut niemanden aufzwingen will. Warum auch. Nur es nervt einfach, dass in jedem zweiten Thread die BQ der Nvidia gegen eine ATI verglichen wird.
Macht doch einfach einen extra Thread dafür auf.

Aber nicht bei Treiberdefault, man muß es schon auf HQ stellen und muß dann doch einiges an Performanceeinbußen.

Wer zwingt hier wem was auf? Niemand muss das. Wenn du das musst ist es deine Sache. Aber jeder kann es so einstellen wie er will. Und wer er HQ will dann kann er es einstellen aber er muss es nicht wenn ihm die BQ ausreicht.

In diesem Thread ging es darum ob eine 6800GT schneller als eine X800XL ist.

Antwort: Nein die Karte ist nicht schneller. Beide Karten haben in anderen Spielen ihre Vorteile.

Dr.Dirt
2005-08-19, 19:19:37
Das mein ich mit Gebashe.


Welches gebashe, ich habe lediglich Tatsachen geschrieben.


Ich schreibe, dass ich absolut zufrieden bin auch mit der BQ.

Nicht jeder, der viel Geld für eine Highend Karte ausgibt ist mit ausreichender BQ zufrieden.


Und dann kommt so ein toller Satz. Nochmals das Bild ist mit Qualität + TriOpt astrein.

Nein, erst auf HQ ist es akzeptabel, und da bricht die Karte dann etwas ein.

Akzeptiert meine Meinung endlich

Ok, die aber nicht jeder teilt.


Aber immer wieder Salz in die Wunde zu streuen nervt. Jeder sieht die Qualität anders und ich denke alle Karten befinden sich schon auf einem seehr hohen Level. Das Unterschiede nicht leicht festzustellen sind besonders für Leute die keine Lupe aufm Schreibtisch haben.
Ich habe lediglich hier geschrieben, wie es ist, wenn es dich stört, ignoriere es doch einfach kommentarlos.

Dr.Dirt
2005-08-19, 19:24:18
Wer zwingt hier wem was auf? Niemand muss das. Wenn du das musst ist es deine Sache. Aber jeder kann es so einstellen wie er will. Und wer er HQ will dann kann er es einstellen aber er muss es nicht wenn ihm die BQ ausreicht.

Mir ging es darum, daß du behauptet hast, die 6800GT liefert ein astreines Bild, das ist aber nur in HQ so. Also muß man es auf HQ stellen.


In diesem Thread ging es darum ob eine 6800GT schneller als eine X800XL ist.

Antwort: Nein die Karte ist nicht schneller. Beide Karten haben in anderen Spielen ihre Vorteile.
Bei vergleichender BQ wird IMHO die ATI schneller sein.

MikBach
2005-08-19, 19:31:06
Bei vergleichender BQ wird IMHO die ATI schneller sein.
Davon kannst du ausgehen.
Wenn man eine 6800GT@HQ nimmt, ist sie eher mit der X800PRO vergleichbar.
Die X800XL ist schneller.

Lawmachine79
2005-08-19, 19:37:15
Bei betrachtung diverser Games und Benches.

Post-Frage: JA

MikBach
2005-08-19, 19:38:33
Post-Frage: JA
Im Leben nicht. :D

Lawmachine79
2005-08-19, 19:40:24
Mir ging es darum, daß du behauptet hast, die 6800GT liefert ein astreines Bild, das ist aber nur in HQ so. Also muß man es auf HQ stellen.


Bei vergleichender BQ wird IMHO die ATI schneller sein.

ES IST DOCH SCHEISSEGAL AUF WAS MAN DIE KARTE STELLEN MUSS, UM EIN ASTREINES BILD ZU ERZEUGEN HAUPTSACHE SIE ERZEUGT EIN ASTREINES BILD.
Sorry, Caps-Lock-Taste hat einen weg...

Lawmachine79
2005-08-19, 19:42:41
Davon kannst du ausgehen.
Wenn man eine 6800GT@HQ nimmt, ist sie eher mit der X800PRO vergleichbar.
Die X800XL ist schneller.

ROFL.
Die X800Pro hat 12 Pipes.
Die 6800GT hat 16 Pipes.
NVidias Pipes liefern mehr Arbeit pro HZ als ATI's Pipes.
Die Pro hat nur einen höheren Takt - Das war es schon.
Aber von einer 6800GT sieht sie nicht mal mehr den Staub.
X800XL ist schon ein passender Vergleich.
Die X800Pro kann man eher mit einer 6800NU vergleichen.

MikBach
2005-08-19, 19:43:13
ES IST DOCH SCHEISSEGAL AUF WAS MAN DIE KARTE STELLEN MUSS, UM EIN ASTREINES BILD ZU ERZEUGEN HAUPTSACHE SIE ERZEUGT EIN ASTREINES BILD.
Sorry, Caps-Lock-Taste hat einen weg...
Ein astreines Bild kann keine der aktuellen Karten erzeugen.
Weder ATI noch NV. ;)
Will man die möglichst beste BQ (was der Treiber hergibt), ist bei der Performance die X800Xl deutlich schneller.

Dr.Dirt
2005-08-19, 19:43:42
ES IST DOCH SCHEISSEGAL AUF WAS MAN DIE KARTE STELLEN MUSS, UM EIN ASTREINES BILD ZU ERZEUGEN HAUPTSACHE SIE ERZEUGT EIN ASTREINES BILD.
Sorry, Caps-Lock-Taste hat einen weg...

Wobei man sich jetzt noch über "astrein" streiten könnte. :biggrin:

MikBach
2005-08-19, 19:44:35
ROFL.
Die X800Pro hat 12 Pipes.
Die 6800GT hat 16 Pipes.

Kapitaler Anfänger-Fehler. :)
Es zählen nicht Pipes, sondern die Füllrate. :wink:

Lawmachine79
2005-08-19, 19:50:14
Kapitaler Anfänger-Fehler. :)
Es zählen nicht Pipes, sondern die Füllrate. :wink:

Lies meinen Post bitte komplett. Du gehst bei deiner theoretischen Füllratenrechnung davon aus, das ATI und NVidia die gleiche Pro-MHZ Leistung haben. Haben sie aber nicht. NVidia hat eine DEUTLICH höhere Pro-MHZ Leistung. Klar, rein rechnerisch hat die X800Pro die höhere Füllrate. 16Pipes@350MHZ VS. 12Pipes@520(?) MHZ.
Echt die gleiche dumme Argumentation deinerseits wie "Intel Prozessoren haben mehr MHZ und sind deshalb schneller als AMD Prozessoren" --> BULLSHIT. Erklär mir mal, wie aktuelle AMD-Prozessoren trotz DEUTLICH niedrigeren Takts sämtliche INTEL CPUS rundmachen wie Buslenker?!? Wie kann man auf den Marketingscheiß immer noch reinfallen?!?
Ach ja, und wenn die X800Pro, die ursprünglich seitens ATI auch als 6800GT Konkurrent gedacht war, schneller als eine 6800GT ist, warum war es dann notwendig, die X800XL einzuführen??? RICHTIIIIG: um halbwegs gleichzuziehen.

jacky
2005-08-19, 19:50:15
Ihr dürft aber nicht vergessen, dass die Spiele sehr unterschiedlich sind im Bezug auf HQ oder Q.
In dem einen Game kostet das kaum Performance und im anderen halt mehr.

Daher kann man das eigentlich nicht so sagen mit "deutlich" schneller. Kommt aufs Game nunmal an.
Vergleicht ihr die X800XL denn dann auch mit AI off gegen die 6800GT?

Ist schließlich auch ne Optimierung die ihr ja dann auch sehen solltet.


@warmachine79: Gar nicht schlecht argumentiert. Ich habe leider kaum Benchmarks gesehen wo ne X800Pro bzw. X850Pro gegen ne 6800GT getestet wurde. Aber sicher die X800XL hat man bestimmt nicht eingeführt um gegen ne normale 6800er zu konkurrieren.

Lawmachine79
2005-08-19, 19:53:24
Ihr dürft aber nicht vergessen, dass die Spiele sehr unterschiedlich sind im Bezug auf HQ oder Q.
In dem einen Game kostet das kaum Performance und im anderen halt mehr.

Daher kann man das eigentlich nicht so sagen mit "deutlich" schneller. Kommt aufs Game nunmal an.
Vergleicht ihr die X800XL denn dann auch mit AI off gegen die 6800GT?

Ist schließlich auch ne Optimierung die ihr ja dann auch sehen solltet.

RICHTIIIIG.
Ihr dürft nicht vergessen, daß ATI HQ-Benches meist GENAU DANN gewinnt,WENN die ATI-Karte mit 6xAA gegen eine NVIDIA mit 8xAA antritt. Warum testet denn mal keiner ATI 6xAA gg NV mit 4xAA. Ist auch eine Stufe Unterschied. Wie das dann ausgeht brauch ich jawohl keinem erklären.

MikBach
2005-08-19, 19:59:02
Echt die gleiche dumme Argumentation deinerseits wie "Intel Prozessoren haben mehr MHZ und sind deshalb schneller als AMD Prozessoren" --> BULLSHIT.

Muss man gleich beleidigend werden? :eek:


Ach ja, und wenn die X800Pro, die ursprünglich seitens ATI auch als 6800GT Konkurrent gedacht war, schneller als eine 6800GT ist, warum war es dann notwendig, die X800XL einzuführen??? RICHTIIIIG: um halbwegs gleichzuziehen.
Falsch.
Bei vergleichbarer BQ ist eine X800PRO einer 6800GT manchmal (UT2004 z.B.) überlegen.
Eine 6800GT sieht kein Land gegen eine X800XL, bei vergleichbarer BQ natürlich und nicht bei Treiberdefault, was die meisten Benches im Netz verwenden.

Lawmachine79
2005-08-19, 20:02:16
Muss man gleich beleidigend werden? :eek:


Falsch.
Bei vergleichbarer BQ ist eine X800PRO einer 6800GT manchmal (UT2004 z.B.) überlegen.
Eine 6800GT sieht kein Land gegen eine X800XL, bei vergleichbarer BQ natürlich und nicht bei Treiberdefault, was die meisten Benches im Netz verwenden.

Du bist noch nicht auf den AA-Unterschied bei den Tests eingegangen, der wirft deine gesamte Argumentation über den Haufen.
Bei vergleichbarer BQ ist eine X800Pro nicht manchmal, sondern zu 95% langsamer als eine 6800GT.
Und ich werde nicht beleidigend, schließlich habe ich nicht Dich als "Bullenscheisse" bezeichnet.

Majestic
2005-08-19, 20:02:51
RICHTIIIIG.
Ihr dürft nicht vergessen, daß ATI HQ-Benches meist GENAU DANN gewinnt,WENN die ATI-Karte mit 6xAA gegen eine NVIDIA mit 8xAA antritt. Warum testet denn mal keiner ATI 6xAA gg NV mit 4xAA. Ist auch eine Stufe Unterschied. Wie das dann ausgeht brauch ich jawohl keinem erklären.

Eigendlich dürfte man man ATI VS NV im Bezug auf AA nur bis 4xMSAA testen weil sie nur bis dahin ähnliche Muster aufweisen, oder nicht?
http://www.3dcenter.org/artikel/nv40_benchmarks/index6.php
http://www.3dcenter.org/artikel/r420_benchmarks/index4.php

Lawmachine79
2005-08-19, 20:06:10
Eigendlich dürfte man man ATI VS NV im Bezug auf AA nur bis 4xMSAA testen weil sie nur bis dahin ähnliche Muster aufweisen, oder nicht?
http://www.3dcenter.org/artikel/nv40_benchmarks/index6.php
http://www.3dcenter.org/artikel/r420_benchmarks/index4.php

RICHTTIIIIIIGG.
Wer da wohl gewinnt ;)

MikBach
2005-08-19, 20:08:08
Eigendlich dürfte man man ATI VS NV im Bezug auf AA nur bis 4xMSAA testen weil sie nur bis dahin ähnliche Muster aufweisen, oder nicht?
http://www.3dcenter.org/artikel/nv40_benchmarks/index6.php
http://www.3dcenter.org/artikel/r420_benchmarks/index4.php
Nicht wirklich.
4xAA ist bei einer R4x0 besser als bei der NV4x. *stichel* :D

MikBach
2005-08-19, 20:09:18
RICHTTIIIIIIGG.
Wer da wohl gewinnt ;)
Die X800PRO?
Zumindest was die BQ angeht. :wink:

Majestic
2005-08-19, 20:12:18
Nicht wirklich.
4xAA ist bei einer R4x0 besser als bei der NV4x. *stichel* :D

Warum. Meinst du weils gammakorrekt ist?

MikBach
2005-08-19, 20:13:34
Warum. Meinst du weils gammakorrekt ist?
Yap.
Wenn ich die 9800PRO mit 6800GT vergleiche, ist 2xAA bei der 9800PRO fast so gut wie 4xAA bei der 6800GT.

Majestic
2005-08-19, 20:20:39
Yap.
Wenn ich die 9800PRO mit 6800GT vergleiche, ist 2xAA bei der 9800PRO fast so gut wie 4xAA bei der 6800GT.

Aths sieht das scheinbar ein kleines bissel anders

Weiterhin wird so genanntes Gamma-korrektes Downfiltering mit einem fixen Gammawert von 2,2 genutzt. Das verbessert in der Regel die sichtbare Reduzierung von Treppen, wobei es in einigen Fällen die Aliasing-Artefakte aber auch verstärken kann. Einstellbares Gamma für das Downfiltering würde das Problem lösen, aber auch zusätzliche Transistoren kosten (weshalb es der Chip nicht bietet.)

Also ich persönlich habe keinen großem Unterschied zischen dem 4xMSAA meiner GF6800GT und meiner jetzigen X800Xl feststellen könne. Ich bin aber auch nicht der extreme BQ Fanatiker.... :wink:

jacky
2005-08-19, 20:22:11
Kommt auf die Games an :)
Spiel ma mit ner 9800Pro F1Challenge und die Strecke Monza :)

Dann wirst du sehen, dass dort das AA beider Karten gleich ist.

Aber mit der AA-Stufe hatte ich ganz vergessen. Hatte eigentlich gedacht man würde die Karten fair vergleichn aber bitte ne Nvidia mit 8xS gegen 6xAA der ATI zu testen....
Das grenzt schon an ne Frechheit. Ich will ma ne ATI mit SSAA sehen.

Ist ja glaub ich sogar per DirectX Tweaker oder wie das Ding heisst möglich.
Dann testet doch ma ne ATI mit SS :)

Lawmachine79
2005-08-19, 20:22:29
Nicht wirklich.
4xAA ist bei einer R4x0 besser als bei der NV4x. *stichel* :D

Besser is subjektiv. Messbar schneller ist die NVidia.

Lawmachine79
2005-08-19, 20:23:15
Kommt auf die Games an :)
Spiel ma mit ner 9800Pro F1Challenge und die Strecke Monza :)

Dann wirst du sehen, dass dort das AA beider Karten gleich ist.

Aber mit der AA-Stufe hatte ich ganz vergessen. Hatte eigentlich gedacht man würde die Karten fair vergleichn aber bitte ne Nvidia mit 8xS gegen 6xAA der ATI zu testen....
Das grenzt schon an ne Frechheit. Ich will ma ne ATI mit SSAA sehen.

Ist ja glaub ich sogar per DirectX Tweaker oder wie das Ding heisst möglich.
Dann testet doch ma ne ATI mit SS :)

Dann wird die ATI zum Dia-Projektor.

Lawmachine79
2005-08-19, 20:24:27
Die X800PRO?
Zumindest was die BQ angeht. :wink:

Wie gesasgt...BQ=Subjektiv. Die Frage ist außerdem, welche Karte schneller ist.

Majestic
2005-08-19, 20:26:31
Ist ja glaub ich sogar per DirectX Tweaker oder wie das Ding heisst möglich.
Dann testet doch ma ne ATI mit SS :)

Geht mit dem Tweaker AFAIK nur bis 1024x768 bei den ATI Karten. Aber bei dem Leistungsverlust bei SSAA ist das wohl auch genug bei neueren Spielen.

MikBach
2005-08-19, 20:27:12
Aths sieht das scheinbar ein kleines bissel anders
aths sieht einiges anders als ich...
Als ich damals gepredigt habe, dass die FX bei shaderlastigen Spielen untergehen wird, hat er auch seine theoretischen Sprüche abgelassen.

Also ich persönlich habe keinen großem Unterschied zischen dem 4xMSAA meiner GF6800GT und meiner jetzigen X800Xl feststellen könne. Ich bin aber auch nicht der extreme BQ Fanatiker.... :wink:
Schau dir das nochmal an.
NV gibt selbst zu, dass beim gammakorregiertem AA es keine Jaggies gibt.
Das preist NV beim G70 an. ;)

MikBach
2005-08-19, 20:28:11
Besser is subjektiv. Messbar schneller ist die NVidia.
Schon wieder falsch.
Ich rede hier von HQ.

Dr.Dirt
2005-08-19, 20:32:22
Wie gesasgt...BQ=Subjektiv.

Schau dir bitte mal diese Videos an, da ist dann objektiv sichtbar, daß die BQ der 6800/7800 sehr mies ist.
http://www.3dcenter.de/artikel/g70_flimmern/index2.php

MikBach
2005-08-19, 20:34:12
Geht mit dem Tweaker AFAIK nur bis 1024x768 bei den ATI Karten. Aber bei dem Leistungsverlust bei SSAA ist das wohl auch genug bei neueren Spielen.
So ist es.

jacky
2005-08-19, 20:35:55
Ich hab die Videos gesehen ;)
Und so schlimm ist der g70 auch net. Geschweige denn nen nv40.
Ne ati flimmert genauso. aber is halt subjektiv.

Hm ich spiele viele Games sogar noch mit SSAA in 1280x1024.
Also es geht schon.
Vielleicht läufts auf ner ATI ja schlechter. Ka weiss ja niemand so Recht ;)

MikBach
2005-08-19, 20:48:17
Ne ati flimmert genauso.

Nein, schau dir mal den Flimmerartikel von aths an.

Gast
2005-08-19, 20:49:30
Dann wird die ATI zum Dia-Projektor.

T:T genau im gegenteil,ati hatte schon immer AA reservern bin mir sicher das es auf Ati KArten schneller läuft.

MikBach
2005-08-19, 20:55:49
T:T genau im gegenteil,ati hatte schon immer AA reservern bin mir sicher das es auf Ati KArten schneller läuft.
Das resultiert daraus, dass NV das AA @Scanout macht.

The_Invisible
2005-08-19, 21:11:05
Mir ging es darum, daß du behauptet hast, die 6800GT liefert ein astreines Bild, das ist aber nur in HQ so. Also muß man es auf HQ stellen.


Bei vergleichender BQ wird IMHO die ATI schneller sein.

also mal ehrlich, langsam wirds echt lächerlich

wir reden hier von wenigen prozent wo mal die eine oder die andere karte schneller ist (ja, auch in HQ, der unterschied beträgt normalerweise 1-3% zwischen Q und HQ, mal abgesehen von extrembeispielen die vielleicht so oft wie ein lottogewinn zutreffen), und deswegen wird hier so ein radau gemacht

kommt mir langsam vor wie "haha, mein golf liegt 1mm tiefer als deiner", wenn ich sowas höre vergeh einem echt alles

mfg

The_Invisible
2005-08-19, 21:13:50
T:T genau im gegenteil,ati hatte schon immer AA reservern bin mir sicher das es auf Ati KArten schneller läuft.

na klar, bei SSAA dreht ne ATI Karte erst auf und ist 10% schneller als ohne AA

oh gott, lass hirn vom himmel fallen

MikBach
2005-08-19, 21:16:06
also mal ehrlich, langsam wirds echt lächerlich
Warum? Er hat voll Recht.

wir reden hier von wenigen prozent wo mal die eine oder die andere karte schneller ist (ja, auch in HQ, der unterschied beträgt normalerweise 1-3% zwischen Q und HQ, mal abgesehen von extrembeispielen die vielleicht so oft wie ein lottogewinn zutreffen), und deswegen wird hier so ein radau gemacht
:lol:
Die Extrembeispiele treten aber ziemlich häfig auf.
Mit Lotto hat es wenig zu tun.
Ist halt die Realität. :)

The_Invisible
2005-08-19, 21:16:51
Schau dir bitte mal diese Videos an, da ist dann objektiv sichtbar, daß die BQ der 6800/7800 sehr mies ist.
http://www.3dcenter.de/artikel/g70_flimmern/index2.php

na gottseidank hat ja jeder eine ultra-highspeed standleitung + flat zuhause

ich werde für 1 video sicher nicht 2stunden saugen, aber wahrscheinlich verpasse ich eh nichts was ich so höre

MikBach
2005-08-19, 21:17:48
na klar, bei SSAA dreht ne ATI Karte erst auf und ist 10% schneller als ohne AA

oh gott, lass hirn vom himmel fallen
Kannst du bitte diese schwachsinnigen Kommentare sein lassen?
Von ein paar Prozent redet hier keiner, wäre Verschwendung für die Datenbank.

MikBach
2005-08-19, 21:18:44
na gottseidank hat ja jeder eine ultra-highspeed standleitung + flat zuhause

ich werde für 1 video sicher nicht 2stunden saugen, aber wahrscheinlich verpasse ich eh nichts was ich so höre
Du verpasst Einiges, nämlich Augenkrebs bei der 7800!

The_Invisible
2005-08-19, 21:23:14
Warum? Er hat voll Recht.

:lol:
Die Extrembeispiele treten aber ziemlich häfig auf.
Mit Lotto hat es wenig zu tun.
Ist halt die Realität. :)

du findest das wirklich normal das sich wegen ein paar fps leute gegenseitig die haare ausreißen? mich erinnert das halt an kindergarten bzw volkschulzeit, sorry, aber vielleicht sind dem manche noch nicht entwachsen

und zu den extrembeispielen: ziemlich häufig heißt für mich 50% der spiele. und bei extrem meine ich: Q = spielbar HQ = unspielbar

bitte beispiele, wäre ziemlich neugierig

mfg

The_Invisible
2005-08-19, 21:26:27
Du verpasst Einiges, nämlich Augenkrebs bei der 7800!

hm, ich hatte eigentlich die 6800er videos gemeint, was ich nicht habe macht mich nicht heiß, heißt es so schön

das 7800er karten kein astreines bild (weshalb auch immer) hinbekommen mag sein, aber hier geht es ja um 6800er karten

mfg

MikBach
2005-08-19, 21:29:15
du findest das wirklich normal das sich wegen ein paar fps leute gegenseitig die haare ausreißen? mich erinnert das halt an kindergarten bzw volkschulzeit, sorry, aber vielleicht sind dem manche noch nicht entwachsen
Sorry, aber ich bin 30, habe Informatik studiert und mein Diplomthema war "Kompression von bewegten Bildern"
Was kannst denn du vorweieisen, wenn es um Grafik geht?
Nichts?
Was für ein Jammer.
Echt peinlich.
Wenn ich keine Ahnung hätte, würde ich mich nicht beteiligen...:)

Mr. Lolman
2005-08-19, 21:32:30
na gottseidank hat ja jeder eine ultra-highspeed standleitung + flat zuhause

ich werde für 1 video sicher nicht 2stunden saugen, aber wahrscheinlich verpasse ich eh nichts was ich so höre

Dann zieh dir meine Gifs rein: http://www.forum-3dcenter.de/vbulletin/showthread.php?t=235409&page=43&pp=20, Post #853, #863

Die zeigen das gleiche Problem. Außerdem sind die Originalvideos da 'nur' 3x30MB groß...

MikBach
2005-08-19, 21:35:16
hm, ich hatte eigentlich die 6800er videos gemeint, was ich nicht habe macht mich nicht heiß, heißt es so schön

das 7800er karten kein astreines bild (weshalb auch immer) hinbekommen mag sein, aber hier geht es ja um 6800er karten

mfg
Geh mal zurück ins Gamestar-Forum, da bist du besser aufgehoben, The_Invisible (http://forum.gamestar.de/gspinboard/member.php?userid=8581)

The_Invisible
2005-08-19, 21:39:14
Sorry, aber ich bin 30, habe Informatik studiert und mein Diplomthema war "Kompression von bewegten Bildern"
Was kannst denn du vorweieisen, wenn es um Grafik geht?
Nichts?
Was für ein Jammer.
Echt peinlich.
Wenn ich keine Ahnung hätte, würde ich mich nicht beteiligen...:)

wenn es nach dem geht müssten also 95% der leute hier die klappe halten?

sorry, kann ja nicht wissen das du bei dem vielleicht besser "betucht" bist, aber bisschen respekt sollte zwischen allen usern hier herrschen

mfg

MikBach
2005-08-19, 21:46:36
wenn es nach dem geht müssten also 95% der leute hier die klappe halten?

sorry, kann ja nicht wissen das du bei dem vielleicht besser "betucht" bist, aber bisschen respekt sollte zwischen allen usern hier herrschen

mfg
Sorry, wenn ich meine Grenzen überschritten habe, aber erzähl bitte nicht so ein Mist...

A.Wesker
2005-08-19, 21:54:49
Sorry, aber ich bin 30, habe Informatik studiert und mein Diplomthema war "Kompression von bewegten Bildern"
Was kannst denn du vorweieisen, wenn es um Grafik geht?
Nichts?
Was für ein Jammer.
Echt peinlich.
Wenn ich keine Ahnung hätte, würde ich mich nicht beteiligen...:)
zeig mal mit deiner ach so tollen ATI Bild Quali, dass sie dieser bildqualität des G70's gewachsen ist.

http://home.arcor.de/jodee2/ssaa.JPG

das bild ist um einiges ruhiger als das der ti 4200 (bestes AF)

MikBach
2005-08-19, 21:56:12
zeig mal mit deiner ach so tollen ATI Bild Quali, dass sie dieser bildqualität des G70's gewachsen ist.

http://home.arcor.de/jodee2/ssaa.JPG

das bild ist um einiges ruhiger als das der ti 4200 (bestes AF)
Wir reden hier über das AF, nicht über SSAA. :P

A.Wesker
2005-08-19, 22:04:38
Wir reden hier über das AF, nicht über SSAA. :P
mir geht es um die Bildqualität im ganzen und in Live for Speed flimmert nix. ich denke nicht, dass eine x850 xt pe das gleiche bild hinzaubern könnte, aber ich lasse mich gerne überzeugen.

MikBach
2005-08-19, 22:06:04
mir geht es um die Bildqualität im ganzen und in Live for Speed flimmert nix. ich denke nicht, dass eine x850 xt pe das gleiche bild hinzaubern könnte, aber ich lasse mich gerne überzeugen.
Falsch.
die Diskussion geht atm über die miese BQ biem AF.

A.Wesker
2005-08-19, 22:08:10
Falsch.
die Diskussion geht atm über die miese BQ biem AF.
ja dann stell ein pic mit einer x800er daneben, dann kannste ja das AF vergleichen. es wird net schlechter sein, habe es mit der ti 4200 vergleichen und die hat ein bessere AF als jede andere karte.

Mr. Lolman
2005-08-19, 22:09:22
mir geht es um die Bildqualität im ganzen und in Live for Speed flimmert nix. ich denke nicht, dass eine x850 xt pe das gleiche bild hinzaubern könnte, aber ich lasse mich gerne überzeugen.

Ich denke nicht, dass eine 6800GT das gleiche Bild (flüssig) hinzaubern könnte, aber ich lasse mich gerne überzeugen. ;)

MikBach
2005-08-19, 22:13:20
ja dann stell ein pic mit einer x800er daneben, dann kannste ja das AF vergleichen. es wird net schlechter sein, habe es mit der ti 4200 vergleichen und die hat ein bessere AF als jede andere karte.
Das ist Blödsinn hoch 10.
Lies mal den Artikel von aths.
Die 6/7 von NV hat eine schlechtere BQ als der R4X0.

A.Wesker
2005-08-19, 22:14:12
Ich denke nicht, dass eine 6800GT das gleiche Bild (flüssig) hinzaubern könnte, aber ich lasse mich gerne überzeugen. ;)
1600x1200 sollte evtl gehen, bei 1920x1200 würde sie denk ich mal einbrechen.

jacky
2005-08-19, 22:15:20
So Leute ich hab ma bissel getestet. Ihr mit eurem schwachsinnigen HQ um mit ner ATI gleichzuziehen. Ich habs anhand der GT Legends Demo getestet und musste echt lachen :)
Ich hab jeweils HQ gegen Q+TriOpt getestet. Es ist echt lächerlich was ihr hier behauptet.
Normalerweise mache ich sowas nicht aber diesmal hab ich mir die Zeit genommen und hab vorm TFT gehangen um zu gucken.

Soll ich euch die einzigen Unterschiede sagen zwischen den Beiden Modi's? Erstens mit ca. ~10FPS und in Q konnte man wenn man die Motorhaubenansicht genommen hat und gaaaanz langsam gefahren is also nur kurz Gas angetippt hat eine ganz kleeeeeine welle erkennen. Aber man musst sich schon wirklich darauf konzentrieren.
Während der Fahrt kann man sowas eh niemals sehen :)

Deswegen macht ihr so nen Aufstand???? Soll ich echt ma über euch lachen?
Da nehm ich gern die 10FPS mehr :)

Ist echt sowas von lächerlich. Also für mich hat sich das dann erledigt.
Wenn ihr damit die ach so "schlechte" BQ der NV meint dann tut ihr mir wirklich leid.

A.Wesker
2005-08-19, 22:17:29
Das ist Blödsinn hoch 10.
Lies mal den Artikel von aths.
Die 6/7 von NV hat eine schlechtere BQ als der R4X0.
beweis es doch einfach am beispiel live for speed, aber ich wette das willst du gar net, weil die x800 kein besseres bild hat (eher schlechter)

Mr. Lolman
2005-08-19, 22:19:45
@ Jacky:

In dem Fall natürlich klar. Würd ich genauso machen. Trotzdem ist die Eintsllung nicht mit ATI vergleichbar in den Reviews. Und andererseits gibts natürlich spiele wo man nicht die ganze Zeit mit >200 kmh herumheizt ;)

jacky
2005-08-19, 22:26:21
@A.Wesker: nettes sys. dein intel muss ja so ziemlich alles bashen *G*
aber warum is dein pci-e und pci port übertaktet?

MikBach
2005-08-19, 22:32:01
beweis es doch einfach am beispiel live for speed, aber ich wette das willst du gar net, weil die x800 kein besseres bild hat (eher schlechter)
Wie bist du denn drauf?
>Ich soll es an "einem" Spiel beweisen?
Das ist Unsinn.

A.Wesker
2005-08-19, 22:43:59
Wie bist du denn drauf?
>Ich soll es an "einem" Spiel beweisen?
Das ist Unsinn.
warum ist das unsinn? ein ganz einfacher vergleich, der auch bezug zur realität hat.

MikBach
2005-08-19, 22:58:51
warum ist das unsinn? ein ganz einfacher vergleich, der auch bezug zur realität hat.
Wenn man nur ein Spiel nimmt, ist es Unsinn. :)

A.Wesker
2005-08-19, 23:10:05
Wenn man nur ein Spiel nimmt, ist es Unsinn. :)
man kann auch mehrere games hinzuziehen, das gesamtbild wird genau das gleiche ergebnis zeigen.

dargo
2005-08-19, 23:22:27
@A.Wesker
Ich finde das irgendwie recht amüsant.
Du stellst hier ein Screenshot von Live for Speed (?) mit SSAA.
Welche Auflösung ist das ?
1600x1200 8xS/16xAF ?

1. Hier geht es um das geflimmere beim AF. Daß man das durch einen gewissen SSAA Anteil kompensieren kann wissen wir schon alle.

2. Um Live for Speed zu spielen holt sich bestimmt niemand einen G70.

3. Stelle mal bei der Fear Demo 1600x1200 max. Details und 8xS/16xAF ein. Und dann sag mir nochmal, daß du das flüssig spielen kannst. ;)

jacky
2005-08-19, 23:24:05
Stell bei ner ATI mal 8xS ein *lach*

Naja ich hab meinen Teil dazu geschrieben. Selbst in anderen Genres der Games würde das auch net auffallen als lass ich es auf Q und TriOpt und schon hab ich die bessere Performance als ne X800XL :)

A.Wesker
2005-08-19, 23:31:03
@A.Wesker
Ich finde das irgendwie recht amüsant.
Du stellst hier ein Screenshot von Live for Speed (?) mit SSAA.
Welche Auflösung ist das ?
1600x1200 8xS/16xAF ?

1. Hier geht es um das geflimmere beim AF. Daß man das durch einen gewissen SSAA Anteil kompensieren kann wissen wir schon alle.

2. Um Live for Speed zu spielen holt sich bestimmt niemand einen G70.

3. Stelle mal bei der Fear Demo 1600x1200 max. Details und 8xS/16xAF ein. Und dann sag mir nochmal, daß du das flüssig spielen kannst. ;)

1920x1200 8xS/16AF

1. bei live for speed flimmert mit und ohne SSAA nichts.
2. für diese einstellungen schon
3. das geht auch mit 4AA/16AF + 7800 GTX SLI nicht flüssig (jedenfalls nicht die derzeitigen versionen)

Dr.Dirt
2005-08-20, 00:03:43
Schon recht amüsant, wie The_Invisible und jacky das schlechte AF der 6800 hier schönreden, aber was anderes habe ich nicht erwartet.

jacky
2005-08-20, 00:14:20
Ihr bzw. besonders du bist amüsant. Sowas nennt man auch Erbsenzähler :)
Aber ihr macht ja echt aus ner Mücke nen Elefanten.

Aber was erwartet von Leuten die ATI vergöttern. Ich hab gegen keinen Hersteller was. Nur wenn wenigstens was wahres dran wäre. Aber dem is ja leider nicht so.

Natürlich nur meine Meinung. Und ich freue mich auch, dass ich das "schlechteste" *schmunzel* AF nicht sehe. Mehr FPS nehm ich gerne *G*

TiggleD
2005-08-20, 00:23:44
Mehr FPS nehm ich gerne
max Details. Welche Auflösung?
[ ]minimum FPS @800x600
[ ]average FPS @800x600
[ ]maximum FPS @800x600
[ ]minimum FPS @1024x768
[ ]average FPS @1024x768
[ ]maximum FPS @1024x768
[ ]minimum FPS @1280x1024/960
[ ]average FPS @1280x1024/960
[ ]maximum FPS @1280x1024/960
[ ]minimum FPS @1600x1200
[ ]average FPS @1600x1200
[ ]maximum FPS @1600x1200

jacky
2005-08-20, 01:09:16
Wat is kaputt ^^ Ich spiele nur in 1280x1024 :)

Dr.Dirt
2005-08-20, 03:01:08
Und ich freue mich auch, dass ich das "schlechteste" *schmunzel* AF nicht sehe.

Du solltest eventuell mal zum Augenarzt gehen, den Unterschied sieht man deutlich.

Oder liegt es an deiner NV Brille?

Ich finde das schon komisch hier im NV Forum, wie die Fanboys ihre miese BQ verteidigen, entweder kommt die Aussage, daß man "nichts sieht" oder "ATI flimmert" doch auch.
Die beiden Aussagen kamen ja auch von jacky, da muß man sich ja schon wundern (entweder sieht man nichts, dann kann man bei ATI aber auch nichts sehen oder beider flimmern) bei den krassen Widersprüchen in den Aussagen.

Naja, hauptsache das eigene Produkt im PC schön reden.

The_Invisible
2005-08-20, 08:37:28
Du solltest eventuell mal zum Augenarzt gehen, den Unterschied sieht man deutlich.

Oder liegt es an deiner NV Brille?

Ich finde das schon komisch hier im NV Forum, wie die Fanboys ihre miese BQ verteidigen, entweder kommt die Aussage, daß man "nichts sieht" oder "ATI flimmert" doch auch.
Die beiden Aussagen kamen ja auch von jacky, da muß man sich ja schon wundern (entweder sieht man nichts, dann kann man bei ATI aber auch nichts sehen oder beider flimmern) bei den krassen Widersprüchen in den Aussagen.

Naja, hauptsache das eigene Produkt im PC schön reden.


schon mal versucht zu verstehen das nicht jeder gerne standbilder vergleicht oder mit ner lupe vorm pc sitzt, und stattdessen lieber spielt ??? (ja solls auch geben solche leute)

ok, es sind unterschiede da (wie jacky ja auch sagte), aber im spielfluß achtet man sicher nicht auf diese sondern ist eher froh das man mehr fps hat

nv hat ja selbst gesagt das sie "auf die wünsche der spieler eingegangen sind". wie das AF noch Quasi perfekt war hats ja auch keinem gepasst und es wurde nur über die schlechte performance geredet, aber nie über die super bildquali. ich wette was wenn sie wieder das GF4 AF einführen würden wäre für viele die performance wieder nicht zufriedenstellend.

mfg

MikBach
2005-08-20, 09:01:05
schon mal versucht zu verstehen das nicht jeder gerne standbilder vergleicht oder mit ner lupe vorm pc sitzt, und stattdessen lieber spielt ??? (ja solls auch geben solche leute)
Es stört auch beim Spielen, sonst würde man ja nicht auf HQ gehen, sondern die Mehrperformance mitnehmen...

nv hat ja selbst gesagt das sie "auf die wünsche der spieler eingegangen sind". wie das AF noch Quasi perfekt war hats ja auch keinem gepasst
:confused:
Wie kann man sich über fast perfektes AF beschweren?
Das halte ich für ein Gerücht.

jacky
2005-08-20, 09:29:01
Tja dann hab ich halt ein Augenproblem *G* Kann ich absolut mit leben.
Und nein ich hab keine NV Brille an. Ich würde mir jederzeit auch wieder ne ATI holen aber das Gerede nervt einfach.
Was habt ihr denn für Karten? Ne ATI oder ne NV? Wenn letzteres dann verkauft sie doch und holt euch ne ATI und seid glücklich. Ich mein der Verlust von 60€ macht sicherlich Sinn damit man endlich ein gaaanz gaaanz dolles Bild hat :)
Aber ihr habt das doch bestimmt.

Es stört beim Spielen. LOL das ich nicht lache. Also fährst du z.B. in einem Rennspiel mit 40km/h rum? Hmm muss ja ne gute Rundenzeit geben :D

Jungs ich sehe ja ein, dass ihr mit der BQ nicht zufrieden seid aber müsst ihr jeden für dumm verkaufen, der was anderes behauptet? Was wollt ihr eigentlich? Seid ihr sauer und wollt Frust ablassen?
Warum könnt ihr nicht akzeptieren, dass es Leute gibt die auf sowas nicht non-stop achten sondern wirklich spielen? Bzw. es auch Leute gibt denen das auffällt aber für die das kein Weltuntergang ist?

Wenn ihr ne tolle BQ habt dann geht raus ins Leben *lol* Ich finds einfach hammer wie manche übertreiben müssen. Wenn es wenigstens so wäre, wie damals mit der 5er Serie die ja in den richtigen Games richtig abgekackt ist dann würd ich euren Frust ja verstehen aber wegen diesen, in den meisten Fällen absolut irrelevanten, Gründen so nen Aufstand zu machen.

Ich packs einfach nicht. Aber es ist schon irgendwie amüsant eure Posts zu lesen.
Lebt ihr nur für die BQ einer Graka?

leicht angenervter ;)
2005-08-20, 09:43:51
Muß eigendlich immer jeder Thread in so einem Desaster enden? :eek:
Wenn es Leute gibt die das Flimmern nicht so stört oder die sich durch ein heruntersetzen der BQ behelfen ist das doch in Ordnung.
Schön ist diese allgemeine BQ Verschlechterung nicht und man sollte auch weiter einen Druck auf die Hersteller (diesem Fall NV) ausüben. Doch die Histerie die durch manchne geschürt wird ist alles in allem nur amüsant und dient bei vielen nur als Plattform sich rhetorisch zu profelieren.

Wenn man mal die Reviews betrachtet geben dich beiden Karten auch im extremfall nur wenig in Sachen Speed. Auch wenn die Reviewer meist die Karten vielleicht nicht in gleichen Einstellungen gestestet haben (was manche immer wieder anmerken). Aber die Unterschiede zwischen die BQ-Einstellungen sieht man meiner Meinung nach nur sehr schwach, aber das ist ansichtsache.
Die NV hat SSAA auch in höheren Auflösungen (AFAIK auch schnelleres als ATI) und andere nette Hybridmodi zu bieten was bei älteren Spielen ein sehr schönes "Eyecandy" ist.
Die ATI ist etwas schneller mit AA/AF und hat ein etwas bessere BQ.



@DrDirt&MikBach
Und ohne euch angreifen zu wollen, nachdem was ich in den verschiedenen Threads gelesen habe (ich gebe zu nicht alle Seiten und Beiträge gelesen zu haben ;) ) argumentiert ihr (und auch einige andere)auch oft nur sehr Herstellerbezogen. Durch ein ständiges "ich habe eh recht und du bist einfach nur zu blöd das zu sehen" Gehabe in dem sich die User nur gegenseitig aufpushen ist auch niemanden geholfen. Könnt ihr das nicht per PM klären?

MikBach
2005-08-20, 09:45:12
Tja dann hab ich halt ein Augenproblem *G* Kann ich absolut mit leben.
Das hat mit den Augen absolut nichts zu tun, sondern wie die Informationen vom Gehirn verarbeitet werden (Wahrnehmungsfähigkeit). :)

Was habt ihr denn für Karten? Ne ATI oder ne NV?
Beide. :)
Eine 9800PRO und eine 6800GT.

Es stört beim Spielen. LOL das ich nicht lache. Also fährst du z.B. in einem Rennspiel mit 40km/h rum? Hmm muss ja ne gute Rundenzeit geben :D
Verstehe den Vergleich zwar nicht so ganz, aber gerade bei Renn- und Rollenspiel sieht man die schlechte BQ mit Q.
Hast du GTR? Wenn nein, zieh dir mal die Demo.
Bei diesem Spiel müsstest auch du es sehen.

Jungs ich sehe ja ein, dass ihr mit der BQ nicht zufrieden seid aber müsst ihr jeden für dumm verkaufen, der was anderes behauptet? Was wollt ihr eigentlich? Seid ihr sauer und wollt Frust ablassen?
:confused:
Niemand will dich für dumm verkaufen und auch nicht seinen Frust ablassen. Warum?
Würde die 6800 (wie die 7800) auch bei HQ eine miese BQ liefern, dann würde ich meinen Frust ablassen, wenn aber HQ i.O. ist, sehe ich dazu keinen Grund.


Warum könnt ihr nicht akzeptieren, dass es Leute gibt die auf sowas nicht non-stop achten sondern wirklich spielen? Bzw. es auch Leute gibt denen das auffällt aber für die das kein Weltuntergang ist?
Ist akzeptiert. :)
Akzeptiere du dann aber auch, dass es User gibt, die eine bessere Wahrnehmungsfähigkeit als du haben und mit Q nicht zocken können.


Wenn ihr ne tolle BQ habt dann geht raus ins Leben *lol* Ich finds einfach hammer wie manche übertreiben müssen. Wenn es wenigstens so wäre, wie damals mit der 5er Serie die ja in den richtigen Games richtig abgekackt ist dann würd ich euren Frust ja verstehen
Wir vergleichen hier aber die BQ. Die FX war übel wegen der miserablen Shaderperformance. Die AF-Qualli war sehr gut.

MikBach
2005-08-20, 09:49:22
Muß eigendlich immer jeder Thread in so einem Desaster enden? :eek:
Wenn es Leute gibt die das Flimmern nicht so stört oder die sich durch ein heruntersetzen der BQ behelfen ist das doch in Ordnung.

Ist doch kein Desaster solange es sachlich bleibt...
Es geht aber um die Vergleichbarkeit bei Benchmarks.
Man MUSS HQ nehmen, um eine vergleichbare BQ mit ATI zu bekommen.

Zum Rest habe ich gerade was gepostet. :)

TobiWahnKenobi
2005-08-20, 09:56:46
ich find's toll. dieses ATI vs. NV geflame wird's wohl noch geben, wenn ich schon mit hörgerät und krückstock am schreibtisch sitze.. LOL

kann mir jemand verraten, warum mir die performance-nachteile im HQ nonflimmermodus nicht auffallen? in spielen a la battlefield oder FC merk' ich davon so gut wie nix. in benches a la 3D murks falle ich von 13.6 auf 13.1 bzw. von 6.2 auf 5.7 kilopunkte (3D 03, 3D 05 Q -> HQ).

das kann ja wohl der ständig diskuttierte HQ-nachteil sein.

Ich packs einfach nicht. Aber es ist schon irgendwie amüsant eure Posts zu lesen.
Lebt ihr nur für die BQ einer Graka?

kennst du im real-life keine leute, die auf anderen gebieten genau das gleiche verhalten an den tag legen? also ihr hab und gut gegenüber den habseeligkeiten anderer, schönreden und rechtfertigen. darüber kann man sich nur amüsieren. besonders wenn das defizit auf der anderen seite, als der eigenen liegt.

ich für meinen teil jedenfalls, hab' an ATI ganz andere sachen auszusetzen, als irgendwelche games. ich bin aber auch nicht so der zocker. mir ist eher wichtig, dass das system zuverlässig, schnell und plattformübergreifend einsetzbar ist (auch mit 3 displays und auch mit openGL anwendungen, die ich zum rendern von overlay effekten auf DV einsetze).


(..)

mfg
tobi

wieder da
2005-08-20, 10:10:45
Ist doch kein Desaster solange es sachlich bleibt...
Es geht aber um die Vergleichbarkeit bei Benchmarks.
Man MUSS HQ nehmen, um eine vergleichbare BQ mit ATI zu bekommen.

Zum Rest habe ich gerade was gepostet. :)

Naja die Sachlichkeit und Contenance von manchen ist ja schon vor ein zwei Seiten vorher teils verloren gegangen;)

Du und einige andere mit geschulten Blick sehen die Unterschiede so extrem, doch die (wie es einige hier netter weise immer gerne ausdrücken) "Breite Masse" an Usern kaum. Dann gibt es noch die übersensiblisierten die bei jedem aufblitzen eines Pixels gleich eine versteckte Optimierung oder andere Schweinerei sehen.

The_Invisible
2005-08-20, 10:43:41
Es stört auch beim Spielen, sonst würde man ja nicht auf HQ gehen, sondern die Mehrperformance mitnehmen...

:confused:
Wie kann man sich über fast perfektes AF beschweren?
Das halte ich für ein Gerücht.

das problem ist anscheinend das die mehrzahl der user eben auf performance statt auf bildqualität stehen, sonst wäre es sicher nicht zu dem gekommen was heutige karten liefern

ich persönlich hätte gerne wieder GF4 AF und würde dafür gerne auch weniger fps in kauf nehmen. anscheinend ist das aber die minderheit, sodas man den User eine bestimmte qualität aufzwingt

ich weiß noch ganz genau wie die 5x.xx treiber releast wurden. nach der installation hatte ich bei WorldRacing wirklich sichtbares Mip-Banding was wirklich ein graus war (wo es durchaus wert war darüber zu disktutieren). kurz darauf habe ich wieder die 45er treiber installiert um wieder ein "perfektes" bild zu haben.

dagegen finde ich die unterschiede was heute disktuiert werden lange nicht so aufregend wie damals, ich würde dafür nicht zuviel energie verschwenden.

mfg

MikBach
2005-08-20, 10:49:53
ich find's toll. dieses ATI vs. NV geflame wird's wohl noch geben, wenn ich schon mit hörgerät und krückstock am schreibtisch sitze.. LOL
Wo siehst du hier Geflame?
Hier werden Fakten vorgetragen.
Wenn jemand bei einer 6800 bei Q eine perfekte BQ sieht, dann sollte er sich nicht an Themen wie BQ beteiligen, weil er nur seine miese Wahrnehmungsfähigkeit blossstellt....

kann mir jemand verraten, warum mir die performance-nachteile im HQ nonflimmermodus nicht auffallen?
Dann machst du was falsch oder spielst nicht die Spiele, bei denen es voll reinhaut und man sogar bis zu 50% weniger Performance hat.

MikBach
2005-08-20, 10:50:58
dagegen finde ich die unterschiede was heute disktuiert werden lange nicht so aufregend wie damals, ich würde dafür nicht zuviel energie verschwenden.

mfg
:confused:
Die Winkelabhängigkeit stört weniger als das Flimmern.

TobiWahnKenobi
2005-08-20, 10:53:04
das problem ist anscheinend das die mehrzahl der user eben auf performance statt auf bildqualität stehen, sonst wäre es sicher nicht zu dem gekommen was heutige karten liefern

ich persönlich hätte gerne wieder GF4 AF und würde dafür gerne auch weniger fps in kauf nehmen. anscheinend ist das aber die minderheit, sodas man den User eine bestimmte qualität aufzwingt

weil es immer auf das einsatzgebiet ankommt. bps. mein zweitrechner.

der ist alt (3200+, barton) und hat noch die GeForce FX59 drin. wenn ich auf dieser kiste etwa battlefield² spielen möchte, kann ich mir aussuchen, ob ich mit voller optik in 1024 pixeln spielen möchte - oder lieber in der nativen TFT auflösung mit 1280 pixeln und FW auf Leistung.

ich nehme letzteres, weil irgendwelche filtertricks weniger stören, als interpolierte auflösung oder im spiel stark reduzierte effekt-dichte.

und lustige autorennen kann ich nicht testen, sowas spiele ich lieber auf der xbox und dem fetten bildschirm, als am schreibtisch oder: ich gehe raus und tanke mein eigenes KFZ. das ist auch sehr schnell. ;) -> "das leben ist zwar ein scheiss-spiel, hat aber ne endgeile grafik".

(..)

mfg
tobi

The_Invisible
2005-08-20, 10:54:31
Dann machst du was falsch oder spielst nicht die Spiele, bei denen es voll reinhaut und man sogar bis zu 50% weniger Performance hat.

hm, die spiele würde ich gerne mal wissen

bis auf tests ist HQ meine standardeinstellung und konnte bis jetzt immer in der auflösung + AA/AF Level spielen was ich mir so vorgestellt habe

also nur her damit, wenns wirklich so reinhaut müsste die bildquali ja auch recht leiden

mfg

A.Wesker
2005-08-20, 10:56:09
Wo siehst du hier Geflame?
Hier werden Fakten vorgetragen.
Wenn jemand bei einer 6800 bei Q eine perfekte BQ sieht, dann sollte er sich nicht an Themen wie BQ beteiligen, weil er nur seine miese Wahrnehmungsfähigkeit blossstellt....

Dann machst du was falsch oder spielst nicht die Spiele, bei denen es voll reinhaut und man sogar bis zu 50% weniger Performance hat.
willst du damit sagen, dass live for speed keine perfekte bildqualität mit dem G70 aufweist?

MikBach
2005-08-20, 10:58:36
willst du damit sagen, dass live for speed keine perfekte bildqualität mit dem G70 aufweist?
:confused:
Hä?
Wann habe ich denn was von Live for Speed geschrieben?

MikBach
2005-08-20, 11:00:20
hm, die spiele würde ich gerne mal wissen

Da gibts einige...
Beispiel:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3344080#post3344080

Nachtrag:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3369678#post3369678

The_Invisible
2005-08-20, 11:10:44
Da gibts einige...
Beispiel:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3344080#post3344080

Nachtrag:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3369678#post3369678

thx, jetzt wäre halt noch interessant zu wissen wie die fps ausschauen, 45% kann viel heißen

100 -> 145fps = nicht revelant
10 -> 14,5fps = nicht revelant
30 -> ~ 45fps = durchaus revelant

mfg

A.Wesker
2005-08-20, 11:10:52
:confused:
Hä?
Wann habe ich denn was von Live for Speed geschrieben?
du redest permanent die bildqualität der 7800 GTX schlecht, obwohl sie die der x850 weit überflügelt.

ein weiteres beispiel ist far cry:

http://home.arcor.de/jodee2/farcry10.JPG

einfach ein perfektes bild !

MikBach
2005-08-20, 11:15:23
@ Wesker
Auf dem Bild sieht man fast gar nichts.
Mach mal Bilder vom Strand (Sand) :wink:

Da kann ich nämlich die TS-Optimierung bei einer 9800 sehen.

MikBach
2005-08-20, 11:16:28
thx, jetzt wäre halt noch interessant zu wissen wie die fps ausschauen, 45% kann viel heißen

100 -> 145fps = nicht revelant
10 -> 14,5fps = nicht revelant
30 -> ~ 45fps = durchaus revelant

mfg
:rolleyes:
Schau dir meine Quotes an.
es ist im 20-30 fps Bereich, also extrem wichtig.

A.Wesker
2005-08-20, 11:24:53
@ Wesker
Auf dem Bild sieht man fast gar nichts.
Mach mal Bilder vom Strand (Sand) :wink:

Da kann ich nämlich die TS-Optimierung bei einer 9800 sehen.

http://home.arcor.de/jodee2/farcry11.JPG

Mr. Lolman
2005-08-20, 11:26:12
Seh ich da biAF? (die schlechte Komprimierung verwischt da ein bisschen was)

A.Wesker
2005-08-20, 11:39:12
hier noml 1920x1200, HDR, 16AF

http://home.arcor.de/jodee2/farcry12.JPG

MikBach
2005-08-20, 11:46:36
hier noml 1920x1200, HDR, 16AF

http://home.arcor.de/jodee2/farcry12.JPG
2 Centimeter unter dem Fadenkreuz ist ein BI-Band zu sehen.

edit:
Genau wie bei der 9800 mit TS-Optimierung.

A.Wesker
2005-08-20, 11:53:07
2 Centimeter unter dem Fadenkreuz ist ein BI-Band zu sehen.

edit:
Genau wie bei der 9800 mit TS-Optimierung.
das kann die x800er aber keinesfalls besser und ist dazu performancetechnisch haus hoch unterlegen.

MikBach
2005-08-20, 11:59:27
das kann die x800er aber keinesfalls besser und ist dazu performancetechnisch haus hoch unterlegen.
Doch, das kann eine X800 besser, wenn die TS-Optimierung nicht aktiv ist.

Mr. Lolman
2005-08-20, 12:05:43
Doch, das kann eine X800 besser, wenn die TS-Optimierung nicht aktiv ist.

Und mit App AF ist die AFAIK auch nicht aktiv...

MikBach
2005-08-20, 12:09:45
Und mit App AF ist die AFAIK auch nicht aktiv...
Nicht immer imo.
Heisst, nicht bei allen Spielen.
ATI trickst auch. :wink:
Wobei NV mehr trickst imo.

mike49
2005-08-20, 12:20:07
2 Centimeter unter dem Fadenkreuz ist ein BI-Band zu sehen.

Na toll... :rolleyes:

Und trotzdem produziert der G70 unter dem Strich die deutlich bessere BQ dank seines besseren AA und der Möglichkeit, auch deutlich höhere Auflösungen noch flüssig darzustellen!

A.Wesker
2005-08-20, 12:21:43
Nicht immer imo.
Heisst, nicht bei allen Spielen.
ATI trickst auch. :wink:
Wobei NV mehr trickst imo.
trotzdem ist das gesamtbild auf der 7800 GTX besser

MikBach
2005-08-20, 12:24:35
trotzdem ist das gesamtbild auf der 7800 GTX besser
Wenn man SSAA einsetzt ja. :)
Wenn wir nur das AF vergleichen, ist die G70 nur ein Häufchen Elend...

MikBach
2005-08-20, 12:25:29
Na toll... :rolleyes:

Und trotzdem produziert der G70 unter dem Strich die deutlich bessere BQ dank seines besseren AA und der Möglichkeit, auch deutlich höhere Auflösungen noch flüssig darzustellen!
Du hast gesehen, was ich gequotet habe?
Mit HDR gibt es kein AA!

Dr.Dirt
2005-08-20, 12:34:22
schon mal versucht zu verstehen das nicht jeder gerne standbilder vergleicht

Naja, Bewegtbilder hab ich ja verlinkt, hier nochmal: http://www.3dcenter.de/artikel/g70_flimmern/index2.php

Aber wenn es zuviel Mühe macht sich die anzuschauen, kann ich auch nicht helfen.


ok, es sind unterschiede da (wie jacky ja auch sagte), aber im spielfluß achtet man sicher nicht auf diese sondern ist eher froh das man mehr fps hat

Wenn es _sichtbar_ flackert, flimmert und sich Bugwellen sich durch die Gegend schieben, machen mir die hohen FPS Werte wirklich keinen Spaß.


Tja dann hab ich halt ein Augenproblem
...
Was habt ihr denn für Karten?

Steht in meiner Sig. :rolleyes:
Davor hatte ich eine 6800GT, mit der ich aber nicht zufrieden war.


@DrDirt&MikBach
Und ohne euch angreifen zu wollen, nachdem was ich in den verschiedenen Threads gelesen habe (ich gebe zu nicht alle Seiten und Beiträge gelesen zu haben ) argumentiert ihr (und auch einige andere)auch oft nur sehr Herstellerbezogen. Durch ein ständiges "ich habe eh recht und du bist einfach nur zu blöd das zu sehen"

Nein, aber wenn du mir nicht glaubst, lese bitte hier mal:
http://www.3dcenter.de/artikel/g70_flimmern/


ich bin aber auch nicht so der zocker. mir ist eher wichtig, dass das system zuverlässig, schnell und plattformübergreifend einsetzbar ist

Full Ack.
Das war bei mir der Hauptgrund für einen Wechsel von NV zu ATI, hatte der be Videoproblem, vermutlich durch NV-Treiber Inkompatibilität mit Java.
Aber das ist ein anderes Thema.


trotzdem ist das gesamtbild auf der 7800 GTX besser

Hmm,
erstens heißt der Thread "Ist eine 6800GT schneller als ein X800XL ?"
und zweitens flimmert eine 7800 GTX noch schlimmer. :eek:

jacky
2005-08-20, 12:34:49
LOL kaum ist man mal 2 Stunden weg gleich 2 neue Seiten.

Jepp ich hab GTR und kann keine Unterschiede feststellen :)
Ist doch schön nicht so ein geschultes Auge zu haben. Aber vielleicht ist bei euch auch schon krankhaft *G*

Was macht ihr eigentlich bei einem neuen Spiel? Dreht ihr euch da erstmal um, um die tolle Grafik zu bewundern oder sucht ihr nach flimmernden Texturen in Bewegung?

Vielleicht solltet ihr einfach ma die ATI Brille abnehmen. Ich kann an dem Bild oben nichts aussetzten aber pardon ich habe ja nicht diese beeindruckende Gabe wie ihr :)

Passt bloß auf, dass es draußen irgendwann nichtmal flimmert :) Aber da kann es ja auch ein Gewitter sein :)

Soll kein Angriff sein aber es ist einfach nur noch lustig *g* Das ist echt so als würde man jedes Staubkorn auf dem Schreibtisch sehen.

Aber ich lese jez ab sofort nur noch eure ganz dollen Posts und denk mir den Rest *g*

Also einigen wir uns darauf. Eine NV hat nur mit HQ dieses super duper tolle Bild wie eine ATI und in diesem Modus hat sie einfach keine Chance. Da hat Nvidia echt scheisse gebaut verdammt. Die kommen nicht gegen die ATI Macht an :)

Also viel Spaß noch :)

A.Wesker
2005-08-20, 12:40:36
Hmm,
erstens heißt der Thread "Ist eine 6800GT schneller als ein X800XL ?"
und zweitens flimmert eine 7800 GTX noch schlimmer. :eek:

wie du an den screenshots erkennen kannst, flimmert da mit meinen einstellungen absolut nichts.

Dr.Dirt
2005-08-20, 12:41:48
Also viel Spaß noch :)

Dir auch. =)

Eigentlich sind User wie jacky die Wunschkunden von NV und ATI, die mit ihren Optimierungen die BQ immer weiter verschlechtern.

Ein User der nichts sieht, wird sich ja niemals darüber beschweren. :D

mike49
2005-08-20, 12:42:52
Mit HDR gibt es kein AA!

Und mit ATI gibt's schon mal überhaupt kein HDR, weder mit noch ohne AA. Also bitte keine Äpfel mit Birnen vergleichen!

Ich bleibe dabei: Die hier herbeigeredete AF-Problematik des G70 @HQ ist ein Witz im Vergleich zu der - unterm Strich - deutlich besseren Bildqualität dank neuer AA-Modi, höherer Auflösung die noch flüssig darstellbar ist etc. Mit den weiteren Fähigkeiten des G70 wie SM 3.0 und HDR will ich jetzt gar nicht erst ankommen...

Fazit: Wer sich über die AF-Quali des G70 (@HQ natürlich) aufregt, der müsste angesichts der (fehlenden) AA-Modi bei ATI sofort aus dem Fenster springen

Dr.Dirt
2005-08-20, 12:43:11
wie du an den screenshots erkennen kannst, flimmert da mit meinen einstellungen absolut nichts.

LOOOOOL
:crazy: :ulol4: :ulol3: :ulol5:

Was soll an einem Screenshot flimmern? Da müßte ja mein Monitor defekt sein, wenn es flimmern soll.

TobiWahnKenobi
2005-08-20, 12:47:31
Zitat:
Zitat von TobiWahnKenobi
ich bin aber auch nicht so der zocker. mir ist eher wichtig, dass das system zuverlässig, schnell und plattformübergreifend einsetzbar ist

Full Ack.
Das war bei mir der Hauptgrund für einen Wechsel von NV zu ATI, hatte der be Videoproblem, vermutlich durch NV-Treiber Inkompatibilität mit Java.
Aber das ist ein anderes Thema.

es ist quasi "mein" thema - ich kann mir nur schwerlich vorstellen, dass jemand härtere anforderungen an den videoteil einer graka stellt, als ich. ich arbeite damit / FX rendering mit overlay-effekten auf DV..

(..)

mfg
tobi

MikBach
2005-08-20, 12:50:03
LOL kaum ist man mal 2 Stunden weg gleich 2 neue Seiten.
Ist halt ein recht interessantes Thema. :D

Jepp ich hab GTR und kann keine Unterschiede feststellen :)
Ist nicht dein Ernst...
Bei GTR kann ich machen, was ich will, die Gridlines flimmern wie sau bei der 6800GT@HQ.
Die 9800PRO ist um Welten besser bei diesem Spiel, was das AF angeht.

Ist doch schön nicht so ein geschultes Auge zu haben. Aber vielleicht ist bei euch auch schon krankhaft *G*
Nix krankhaft...
Es ist sehr lobenswert, wenn man bei der BQ die Unterschiede sieht.

Was macht ihr eigentlich bei einem neuen Spiel? Dreht ihr euch da erstmal um, um die tolle Grafik zu bewundern oder sucht ihr nach flimmernden Texturen in Bewegung?
Man braucht nicht zu Suchen.
Das fällt sofort auf, mir zumindest. :)

Vielleicht solltet ihr einfach ma die ATI Brille abnehmen.
Wer sollte sich dadurch angesprochen fühlen?

Also einigen wir uns darauf. Eine NV hat nur mit HQ dieses super duper tolle Bild wie eine ATI und in diesem Modus hat sie einfach keine Chance. Da hat Nvidia echt scheisse gebaut verdammt. Die kommen nicht gegen die ATI Macht an :)

Sehr schön auf den Punkt gebracht. :up:

MikBach
2005-08-20, 12:51:55
Und mit ATI gibt's schon mal überhaupt kein HDR, weder mit noch ohne AA. Also bitte keine Äpfel mit Birnen vergleichen!

Falsch. Setzen 6.

Dr.Dirt
2005-08-20, 12:52:39
es ist quasi "mein" thema - ich kann mir nur schwerlich vorstellen, dass jemand härtere anforderungen an den videoteil einer graka stellt, als ich. ich arbeite damit / FX rendering mit overlay-effekten auf DV..

Ich stelle keine hohen Anforderungen, aber wenn selbst Videos nicht mal mehr abgespielt werden:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2439644#post2439644
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2766388#post2766388

Aber das Thema hat sich für mich ja jetzt erledigt.

MikBach
2005-08-20, 12:53:55
LOOOOOL
:crazy: :ulol4: :ulol3: :ulol5:

Was soll an einem Screenshot flimmern? Da müßte ja mein Monitor defekt sein, wenn es flimmern soll.
Muss das sein?
Ich kann es meistens auch bei Screenshots erkennen.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3396306&postcount=214

A.Wesker
2005-08-20, 12:55:22
LOOOOOL
:crazy: :ulol4: :ulol3: :ulol5:

Was soll an einem Screenshot flimmern? Da müßte ja mein Monitor defekt sein, wenn es flimmern soll.
natürlich erkennt man an einem screenshot, wenn man die texturen genau beachtet....

Dr.Dirt
2005-08-20, 12:56:04
Ich kann es meistens auch bei Screenshots erkennen.

Eher erahnen, aber es stört nunmal nur beim Spielen, also bei bewegten Bildern, und dann sieht man es auch recht deutlich.

MikBach
2005-08-20, 12:58:14
natürlich erkennt man an einem screenshot, wenn man die texturen genau beachtet....
Nicht immer...
Das Problem beim G70 und HL2 (Aufzug) wirst du bei einem Screenshot nicht erkennen.

MikBach
2005-08-20, 12:59:57
Eher erahnen, aber es stört nunmal nur beim Spielen, also bei bewegten Bildern, und dann sieht man es auch recht deutlich.
Klar in Bewegung sieht man es direkt, bei einem Sreenshot muss man schon genauer hinsehen.

A.Wesker
2005-08-20, 13:01:04
Eher erahnen, aber es stört nunmal nur beim Spielen, also bei bewegten Bildern, und dann sieht man es auch recht deutlich.
bei mir gibt es bei 1920x1200 2AA/16AF, HQ, TSAA kein flimmern mehr ( bis jetzt getestet: RTCW, Live for Speed, MoH:AA, Far Cry, GTR)

TobiWahnKenobi
2005-08-20, 13:02:19
Ich stelle keine hohen Anforderungen, aber wenn selbst Videos nicht mal mehr abgespielt werden:
http://www.forum-3dcenter.org/vbull...644#post2439644
http://www.forum-3dcenter.org/vbull...388#post2766388

Aber das Thema hat sich für mich ja jetzt erledigt.

zu zeiten der 60er forceware hab' ich noch auf einem anderen system gerendert (AGP-FX,Barton). da kann ich also keinen senf zu abgeben.

probleme auf PCIe waren ausschliesslich mit beta-treibern (für mich) nachvollziehbar. wer seinen personal-computer aber für ernsthafte, vielleicht sogar brötchen-zahlende aufgaben einsetzt, wird sich kaum auf zeitraubende spielereien mit beta-treibern einlassen.

für mich war der einzig wirklich störende bug, der kaputte gamma-graph im CP, der ja zwischenzeitlich wieder korrekt funzt.

video ist weit mehr, als nur ein grakatreiber und ein doppelklick, auf eine medien-datei.


(..)

mfg
tobi

MikBach
2005-08-20, 13:04:49
bei mir gibt es bei 1920x1200 2AA/16AF, HQ, TSAA kein flimmern mehr ( bis jetzt getestet: RTCW, Live for Speed, MoH:AA, Far Cry, GTR)
Das Flimmern ist schon vorhanden, du siehst es nur nicht.
Siehe mein Kommentar zu deinem FC-Screenshot @1920 mit HDR.

jacky
2005-08-20, 13:15:10
Was ist euer Problem? Er empfindet kein Flimmern also feddisch :)

Geht spielen anstatt jedesmal das selbe zu schreiben :)

Ich hab paar LFS Screens gemacht in 1280x1024 8xS/16xAF Q+TriOpt.
Wenn Interesse besteht, lad ich die hoch :) Dann habt ihr neuen Zündstoff :)

mike49
2005-08-20, 13:22:42
Falsch. Setzen 6.

Klar, jetzt können ATI-Karten sogar schon HDR in FarCry... :rolleyes:

Ich wünsche weiterhin noch frohe Fanboy-Träume :|

Ciao

MikBach
2005-08-20, 13:26:58
Klar, jetzt können ATI-Karten sogar schon HDR in FarCry... :rolleyes:

Habe ich was von FC in Verbindung mit HDR gesagt?
Siehe SC3...

TobiWahnKenobi
2005-08-20, 13:31:01
Habe ich was von FC in Verbindung mit HDR gesagt?
Siehe SC3...

:eek: erklär' das mal einer genauer. ich kann mir nur vorstellen, dass dort irgendwas über die shader emuliert wird - aber rein vom logischen denken,
kann das unmöglich mit gleicher (oder besserer) performance einhergehen,
wie HW HDR. daher wird das wohl auch nur wieder so eine trickserei sein.

aber mal im ernst -> wayne? (ausser vielleicht leuts, die nur dieses HDR haben)

(..)

mfg
tobi

jacky
2005-08-20, 13:32:22
Also es fällt mir ernsthaft schwer euch zu verstehen. Ich versuche es ja wirklich.
Hab noch ein Game getestet undzwar F1Challenge mitm CTDP04 Mod - Strecke Hockenheim.
Eingestellt war 1280x1024 4xS/16xAF .. also hatte noch Q+TriOpt eingestellt gehabt.
Und als ich losgefahren bin hab ich das Flimmern sogar sehr deutlich gesehen.
Hab ich so gedacht - hmm vielleicht ham se doch Recht.

Also hab ich HQ angemacht und was ist -> NULL Unterschied. Es flimmert weiterhin wie vorher.

Allerdings muss ich dazu sagen, dass das extrem Streckenabhängig ist und auf meiner 9800Pro nicht anders war. Somit schiebe ich das ma auf die Engine.

Ich stell mir nur einfach die Frage wozu FPS in Kauf nehmen, die ja schon an die 10Bilder betragen wenn es mir keinen großen BQ Vorteil bringt?

HQ muss dann auch schon wirklich einen Unterschied zeigen damit ich die FPS in Kauf nehme. Aber so?

So das war das letzte zu dem Thema BQ von mir :) Aber wiegesagt falls ihr die LFS Screens wollt kann ich sie hochladen.

mike49
2005-08-20, 13:35:25
Habe ich was von FC in Verbindung mit HDR gesagt?

Es ging die ganze Zeit (und auch in meinem Quote) um den FC-Shot von A.Wesker und da ist nunmal nix mit HDR auf ATI-Karten! Von daher kann man sich solche klugschei**erischen Kommentare auch ruhig sparen... :|

Wie auch immer: Ich werde mich jetzt aus dieser unsinnigen (und mittlerweile völlig OT) Diskussion zurückziehen. Viel Spaß noch!

MikBach
2005-08-20, 13:35:57
:eek: erklär' das mal einer genauer. ich kann mir nur vorstellen, dass dort irgendwas über die shader emuliert wird - aber rein vom logischen denken,
kann das unmöglich mit gleicher (oder besserer) performance einhergehen,
wie HW HDR. daher wird das wohl auch nur wieder so eine trickserei sein.

aber mal im ernst -> wayne? (ausser vielleicht leuts, die nur dieses HDR haben)

(..)

mfg
tobi
Lies dir das mal durch:
http://www.simhq.com/_technology/technology_058a.html
"With this new patch, Radeon board owners can finally enable some of the visual effects in Chaos Theory that were formerly relegated to only the 3.0 shader profile. "

MikBach
2005-08-20, 13:38:55
Es ging die ganze Zeit (und auch in meinem Quote) um den FC-Shot von A.Wesker und da ist nunmal nix mit HDR auf ATI-Karten! Von daher kann man sich solche klugschei**erischen Kommentare auch ruhig sparen... :|
Das es bei FC kein HDR gibt, heisst noch lange nicht, dass die ATI-Karten es nicht können...
Siehe SC3...

Wie auch immer: Ich werde mich jetzt aus dieser unsinnigen (und mittlerweile völlig OT) Diskussion zurückziehen. Viel Spaß noch!
Wenn mir die Argumente ausgehen würden, würde ich auch so handeln. :)

TobiWahnKenobi
2005-08-20, 13:39:30
Lies dir das mal durch:
http://www.simhq.com/_technology/technology_058a.html
"With this new patch, Radeon board owners can finally enable some of the visual effects in Chaos Theory that were formerly relegated to only the 3.0 shader profile. "

dazu hab' ich jetzt grad' keine zeit. die betonung wird aber wohl auf "some" liegen, was ja eigentlich schon spagat respektive kompromiss andeutet. ähnlich, wie die wassershader für HL² auf DX8 karten.

das wird's wohl geben, um ATI kunden bei der stange zu halten, bis mal irgendwann der neue chip fertig ist. ich würde mich aber nicht drauf verlassen, dass das bei jeder neuerscheinung "irgendwie" realisiert wird.

-> ich werd' das mal morgen früh, beim kaffee lesen.

(..)

mfg
tobi

mike49
2005-08-20, 13:44:47
Wenn mir die Argumente ausgehen würden, würde ich auch so handeln. :)

Um es etwas deutlicher zu machen: Ich habe keine Lust, mich mit ignoranten Fanboys - die noch dazu weder eine 7800 GTX noch irgendwelche handfesten Argumente haben - rumzustreiten.

Und damit (jetzt endgültig): Viel Spaß noch beim G70-Gebashe, vielleicht findest du ja 3cm unter dem Fadenkreuz auch noch irgendein störendes Pixelchen... :D