PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - strikes back! - Antwort auf FW180?


Schlammsau
2008-11-20, 19:34:38
Nach dem Debakel von gestern....

ATI to respond with a performance driver (http://www.fudzilla.com/index.php?option=com_content&task=view&id=10560&Itemid=34)

Ich bin gespannt! :smile:

Gast
2008-11-20, 19:45:03
ein paar takte können wir bei der texturfilterung bestimmt noch einsparen.

Schlammsau
2008-11-20, 19:47:12
ein paar takte können wir bei der texturfilterung bestimmt noch einsparen.

Jepp und je nach Spiel kann man damit auch bis zu 20% mehr rauskitzeln!
Warum Flamen hier momentan soviele Gäste rum? :rolleyes:

Gast
2008-11-20, 19:47:34
Nach dem Debakel von gestern....

ATI to respond with a performance driver (http://www.fudzilla.com/index.php?option=com_content&task=view&id=10560&Itemid=34)

Ich bin gespannt! :smile:

Dafür einen Extra Thread warte doch erstmal die Zeit ab bis der Treiber da ist...

LovesuckZ
2008-11-20, 19:47:56
Hm, wieso schriebst du eigentlich nichts negatives gegenüber AMD? Hier wird Fudzilla instrumentalisiert, um dies in die Welt zusetzen.
Na, oder ist es eigentlich garnicht schlimm, und du beschwerst dich nur, weil es nVidia gemacht hat? :rolleyes:

Schlammsau
2008-11-20, 19:49:51
Hm, wieso schriebst du eigentlich nichts negatives gegenüber AMD? Hier wird Fudzilla instrumentalisiert, um dies in die Welt zusetzen.
Na, oder ist es eigentlich garnicht schlimm, und du beschwerst dich nur, weil es nVidia gemacht hat? :rolleyes:

Warum sollte ich ich mich über ATi beschweren? Versteh den Sinn deiner Frage nicht!

GanjaBob
2008-11-20, 19:51:24
lol "holding back performance" :rolleyes:

Gast
2008-11-20, 19:52:01
Hm, wieso schriebst du eigentlich nichts negatives gegenüber AMD?

Kann er nicht, hat doch ne Ati Karte ;)

Gast
2008-11-20, 19:59:47
performance driver = 8.11 + Tweaks oder
performance driver = 8.12

Gast
2008-11-20, 20:21:09
Hm, wieso schriebst du eigentlich nichts negatives gegenüber AMD? Hier wird Fudzilla instrumentalisiert, um dies in die Welt zusetzen.
Na, oder ist es eigentlich garnicht schlimm, und du beschwerst dich nur, weil es nVidia gemacht hat? :rolleyes:


Zeig mir mal einen Beitrag von dir, wo du was gutes über ATI oder was negatives über Nvidia schreibst.

Desweiteren zeig mir mal einen Beitrag von dir, wo du dich mal bei einer "Diskussion" wenigstens minimal einsichtig zeigst. -> Gibts nicht.

Was du hier seit Jahren im Grafikkartenforum betreibst ist nämlich keine Diskussion sondern Propaganda.

Raff
2008-11-20, 20:28:49
lol "holding back performance" :rolleyes:

So ein Blödfug.

Btw, euch ist bekannt, dass der 180.48 teils andere BQ auffährt als der 178.24? Hört endlich auf, nur auf die scheiß Balkenlänge zu gucken.

MfG,
Raff

Schlammsau
2008-11-20, 20:32:52
Btw, euch ist bekannt, dass der 180.48 teils andere BQ auffährt als der 178.24? Hört endlich auf, nur auf die scheiß Balkenlänge zu gucken.
Wird sie besser oder schlechter?

Coda
2008-11-20, 20:40:04
Besser wohl kaum.

Ist aber auch nicht verwunderlich, wenn ATI mit dem Zeug so Erfolg haben kann.

Schlammsau
2008-11-20, 20:42:55
Besser wohl kaum.

Ist aber auch nicht verwunderlich, wenn ATI mit dem Zeug so Erfolg haben kann.

Wir reden hier aber nur von dem schlechteren AF der Radeons oder?

Gast
2008-11-20, 20:44:19
So ein Blödfug.

Btw, euch ist bekannt, dass der 180.48 teils andere BQ auffährt als der 178.24? Hört endlich auf, nur auf die scheiß Balkenlänge zu gucken.

MfG,
Raff

Raff Link plz :)

RainingBlood
2008-11-20, 20:44:34
also bis kein Treiber da ist kann Fuad soviel labern wie er will. Ich will erst Tatsachen sehen.

LovesuckZ
2008-11-20, 20:45:23
So ein Blödfug.

Btw, euch ist bekannt, dass der 180.48 teils andere BQ auffährt als der 178.24? Hört endlich auf, nur auf die scheiß Balkenlänge zu gucken.

MfG,
Raff

Wie denn? Es kümmert sich doch niemand um Bildqualität.

Black-Scorpion
2008-11-20, 20:48:12
So ein Blödfug.

Btw, euch ist bekannt, dass der 180.48 teils andere BQ auffährt als der 178.24? Hört endlich auf, nur auf die scheiß Balkenlänge zu gucken.

MfG,
Raff
Wie sollten das die Leute erfahren?
Bei den sogenannten Tests mit dem Treiber war das mit Sicherheit nicht erwünscht.
Sonst wären die PR Veranstaltungen ja noch lächerlicher geworden.

Gast
2008-11-20, 20:56:39
So ein Blödfug.

Btw, euch ist bekannt, dass der 180.48 teils andere BQ auffährt als der 178.24? Hört endlich auf, nur auf die scheiß Balkenlänge zu gucken.


Andere? Das muss ja nicht schlechter sein schreib etwas mehr dazu.

Gast
2008-11-20, 21:50:34
Andere? Das muss ja nicht schlechter sein schreib etwas mehr dazu.

es tritt genau das ein, was ich und auch andere hier im forum schon immer prophezeit haben. nachdem bei ATI das ganze eh "niemand" sieht wird man sich wieder auf die spielchen einlassen, wie schon zu NV4x/G7x-zeit.

wollen wir hoffen, dass wenigstens HQ unangetastet bleibt.

Banshee18
2008-11-21, 00:03:45
So ein Blödfug.

Btw, euch ist bekannt, dass der 180.48 teils andere BQ auffährt als der 178.24? Hört endlich auf, nur auf die scheiß Balkenlänge zu gucken.

MfG,
Raff
Wirds dazu einen Artikel geben? Das sollte man nämlich so schnell wie möglich an die große Glocke hängen, sonst haben wir bei nV bald auch wieder so einen Mist wie momentan bei ATi.
In welchen Spielen äußert sich das denn und wie genau?

Sven77
2008-11-21, 01:07:39
Nach dem Debakel von gestern....

ATI to respond with a performance driver (http://www.fudzilla.com/index.php?option=com_content&task=view&id=10560&Itemid=34)

Ich bin gespannt! :smile:

Nur blöd das ich dann die Spiele auf die ATI dann auch optimiert hat, durch habe.. und die dann kommenden Titel auch wieder das gleiche Spiel aufweisen. Man muss schon ziemlicher Idealist(ich sage nicht Fanboy) sein, um den Zeitvorsprung von Nvidia als unwichtig darzustellen..

deekey777
2008-11-21, 01:10:02
Nur blöd das ich dann die Spiele auf die ATI dann auch optimiert hat, durch habe.. und die dann kommenden Titel auch wieder das gleiche Spiel aufweisen. Man muss schon ziemlicher Idealist(ich sage nicht Fanboy) sein, um den Zeitvorsprung von Nvidia als unwichtig darzustellen..
Das heißt nicht, dass ATi morgen oder in paar Tagen keinen Hotfix herausbringt, der diese Verbesserungen hat.
Auch muss es nicht unbedingt heißen, dass die Meldung keine Ente ist.

Sven77
2008-11-21, 01:18:04
Nein, das heisst es tatsächlich nicht.. ich denke interessant wäre erstmal herauszufingen, an welchen Rädchen Nvidia gedreht hat, um die Mehrleistung zu erreichen. Vielleicht ist die gleiche Leistung gar nicht so erstrebenswert, wenn es wieder Einschränkungen bei der BQ gibt. Diese ist für mich immernoch Argument Nr. 1(zumindest seit meiner 7900GTX :( ), die 2-3mm Balken jucken überhaupt nicht.. das ATI sich jetzt auf dieses Spielchen, das bei Nvidia voll nach hinten losging, einlässt, ist eher arm.. aber ich bin mir sicher, das dieser "Treiber" dann hier bejubelt wird, die ATI-Fanboys sind ja immer schnell am tippen.. Nvidia kanns im Moment nicht richtig machen, ATI dagegen nichts falsch

K4mPFwUr$t
2008-11-21, 01:18:24
es ist doch immer das selbe und die wenigsten merken es.
haut nV mal wieder einen treiber raus wo die balken 10% gegenüber ATI an boden gewinnen, verspricht die gegenseite die ach so besagten wunderwaffen wundertreiber.

haut ati mal wieder einen treiber raus wo die balken 10% gegenüber NV an boden ...

wobei ja AMD schön längere zeit diese wundertreiber angekündigt hat. nur frage ich mich was für ein wunder das sein wird? irgendwann gibt es nichts mehr zum ausquetschen, sondern nur tot optimieren. tot optimieren in der form das einfach irgendwo gespart wird, sei es filterqualität, anti alaising oder renderdetails. wer erinnert sich nicht an die sache wo NV und ATI bei crysis schummeln um auf dem papier 10% besser dazu stehen als die konkurenz? im spiel macht das vll nur 3FPS aus, aber auf dem papier ist das einiges wert für die ach so sehr geliebte PR abteilung.

ich lass mich nicht mehr in die irre führen mit wunderwaffentreiber X-(

Gast
2008-11-21, 01:20:30
Ati hat ja bereits in Farcry2 nachgewiesen das es erwünscht ist, da darf man sich dann auch nicht bei NV beschweren wenn sie selbiges tun.

K4mPFwUr$t
2008-11-21, 01:24:17
@Gast
dieses ewige hin und herschieben der schuld kann ich nicht mehr sehen.
nein nv hat angefangen, nein du lügst amd wars ... ist ja wie im kindergarten.

nur weil x es tut muss y es auch?

Gast
2008-11-21, 01:31:42
@Gast
dieses ewige hin und herschieben der schuld kann ich nicht mehr sehen.
nein nv hat angefangen, nein du lügst amd wars ... ist ja wie im kindergarten.

nur weil x es tut muss y es auch?

Nvidia hat garnicht nötig die bieten seid nunmehr 3 Jahren eine exzellente Bildqualität und haben vorbildlich gehandelt nach der Kritik der Vorgängerkarten. Aber bei Ati wird rumgeeiert bis heute und alles toleriert das ist der entscheidende Punkt. Das hat dann irgendwann zur Folge das der BQ Verschlechterungswettstreit in neue unendliche Runden geht weil ja alles nicht so schlimm ist und als Bug abgetan wird. :-)

K4mPFwUr$t
2008-11-21, 01:39:32
@gast
das glaubst du doch selber nicht oder?
ja NV hat die stets die perfekte BQ, ATI optimiert alles ...
man kann 100% davon ausgehen das beide optimieren.
die kunst liegt darin die beste performance zubekommen und das man keinen oder minimalsten unterschied erkennen kann (oftmals nur auf screeshot oder ingame erkennbar z.b. flimmern).

im grunde genommen sind diese wundertreiber sei es von nV oder amd, nur augenwischerei.
man kann davon ausgehen das die aktuellen grakas nach kurzer zeit ihr max an optimierung erhalten haben. mehr geht nur noch über "hotfixes" bei spielen. ja ein hotfix ist was schönes wenn er grafikprobleme behebt. oftmals verbessern diese auch die performance und durch was?
bessere hardwareauslastung wenn es nicht gerade ein bug ist? nein optimierung.

es gab ja damals auch diese sache mit crysis, afaik hatten bei NV einfach die wasserspiegelungen gefehlt. also immer exzellente BQ?

anddill
2008-11-21, 01:43:29
Ich denke mal, daß ATI viel Rechenleistung in den Shaderclustern verschenkt. Wenn man da den Datenfluss optimieren kann, ist da sicher noch etliches zu holen. Man sieht ja am Furmark, was die Recheneinheiten an Saft ziehen, wenn sie mal so richtig ausgelastet sind. Wenn man das mal als Maßstab nimmt, ist da noch mindestens 50% Reserve. Die aber leider nicht voll nutzbar ist, da die Karten dann verglühen würden.
Wenn die Engstelle nicht bei der Shaderleistung ist, dann siehts wohl schlecht für ATI aus. Ohne irgendwo was an Qualität abzuknapsen wird da nicht mehr viel zu holen sein.

Gast
2008-11-21, 01:47:23
Bevor ich loslege: ich habe immo eine HD4850 im Rechner ...

Sollte beim 180.48 die BQ gelitten haben solls also an die große Glocke gehängt werden. Das bei Ati in FC2 teilweise ganze Texturen gefehlt haben bzw. bei UT3 und CoD4 seit dem 8.7er Cat einige Effekte nicht mehr dargestellt werden (Hitzeflimmern, Reflektionen), wird dagegen einfach mal so unter den Teppich gekehrt. Ich sags immer wieder: diese Website ist dunkelrot ...

K4mPFwUr$t
2008-11-21, 01:59:09
@Gast
das ATI nicht mogelt sagen ja nur die fanboys. die gibt es aber in zwei farben ATI und NV!
deswegen sind doch nicht gleich alle realitätsblind :rolleyes:

also nicht doch ;D

Gast
2008-11-21, 02:06:41
@gast
das glaubst du doch selber nicht oder?
ja NV hat die stets die perfekte BQ, ATI optimiert alles ...
man kann 100% davon ausgehen das beide optimieren.
die kunst liegt darin die beste performance zubekommen und das man keinen oder minimalsten unterschied erkennen kann (oftmals nur auf screeshot oder ingame erkennbar z.b. flimmern).

im grunde genommen sind diese wundertreiber sei es von nV oder amd, nur augenwischerei.
man kann davon ausgehen das die aktuellen grakas nach kurzer zeit ihr max an optimierung erhalten haben. mehr geht nur noch über "hotfixes" bei spielen. ja ein hotfix ist was schönes wenn er grafikprobleme behebt. oftmals verbessern diese auch die performance und durch was?
bessere hardwareauslastung wenn es nicht gerade ein bug ist? nein optimierung.

es gab ja damals auch diese sache mit crysis, afaik hatten bei NV einfach die wasserspiegelungen gefehlt. also immer exzellente BQ?

Du hast rein garnichts verstanden von dem was ich geschrieben habe. Nvidia wurde kritisiert(zurecht) und auf die Finger gehaun und sie haben reagiert boten mit dem G8x bis heute eine sehr gute Bildqualität. Ati dreht von Generation zu Generation die Bildqualität herunter und schränkt den User massiv ein. Aber was passiert? Hauptsache es gibt schnelles 8xAA und die Karten sind günstig...Nvidia wird angeschwärzt die Bösen Cheater, schau dir doch den Threadsteller an das zeigt doch das solche Leute nichts verstanden haben und nur auf Rache aus sind wer hat den Längsten...ever the same Procedure am Problem ändert sich nix.

Banshee18
2008-11-21, 04:15:31
Bevor ich loslege: ich habe immo eine HD4850 im Rechner ...

Sollte beim 180.48 die BQ gelitten haben solls also an die große Glocke gehängt werden. Das bei Ati in FC2 teilweise ganze Texturen gefehlt haben bzw. bei UT3 und CoD4 seit dem 8.7er Cat einige Effekte nicht mehr dargestellt werden (Hitzeflimmern, Reflektionen), wird dagegen einfach mal so unter den Teppich gekehrt. Ich sags immer wieder: diese Website ist dunkelrot ...
Falls du mich meinst: Im SLI vs. Crossfire-Thread kritisiere ich ATi aufs Schärfste.
Außerdem dürfte es inzwischen bei jedem, der sich auch nur ein wenig mit Grafikkarten beschäftigt und nicht völlig blind sein will, angekommen sein, was für Mist ATi baut.
Woran du festmachen willst, dass diese Webseite dunkelrot ist, ist mir ein Rätsel. Sie sieht höchstens dunkelrot, wenn gecheatet wird.

noch ein Gast
2008-11-21, 04:38:37
nur weil x es tut muss y es auch?Das Verhalten von X und Y wird bestimmt durch das Verhalten der Kundschaft K. Die Interessen von K sind allerdings nur über den Umweg des Vermittlers J (Journalismus) bei X und Y zu Gehör zu bringen.
J hat mehrere Probleme. Zuerst wäre da zu nennen, das J sich wesentlich nicht durch K finanziert, sondern, meist über zusätzliche Mittler, indirekt von X und Y über Werbung finanziert wird. Das bedeutet natürlich ein Vertrauensproblem, dem über Standardisierung der Tätigkeit von J ("Benchmarks") versucht wird beizukommen. Dadurch wird J jetzt aber berechenbar, was X und Y ermöglicht, zusätzlich zur Einflussnahme durch Steuerung der Geldströme selbst die davon redaktionell unbeeinflussten Untermengen Js zu falschen Aussagen zu verleiten, da auch diese sich den Standards (gottverdammtescheißBALKENargh!) beugen. Fehlleitenden Standards, die mit der Nutzung der Produkte von X und Y durch K fast nichts gemein haben.
Allein mit einer Abkehr von diesen Standards ist dem Problem noch nicht beizukommen. J würde nur den Anschein objektiver Berichterstattung verlieren, während die subjektive Berichterstattung weiter unter dem Glaubwürdigkeitsproblem der Mischfinanzierung durch K, X und Y leiden würde. Umgekehrt wäre eine reine Finanzierung durch K und somit auch eine für alle Seiten glaubwürdige Repräsentation Ks durch J gegenüber X und Y keine Lösung für die derzeitige Misere, so J weiterhin lediglich dogmatische Standards erfüllt.
Nur wenn sich J sowohl finanziell als auch inhaltlich vollends K zuwendet kann er wieder zu einem für alle verlässlichen Mittler zwischen K, X und Y werden.

Oder kürzer im Klartext:
Werbung und Balken raus!

V2.0
2008-11-21, 07:16:13
Langsam gehen mir beide Firmen auf den Sack. Immer nur die dämliche Balkenlänge und er den längstne hat Scheiss.

Schlammsau
2008-11-21, 07:48:11
Bei optimierungen sprecht ihr hoffentlich alle nur von dem schlechteren Texturefilter!
Weil ohne AA und AF bzw. nur mit AA sehen die ATi´s genauso gut wie die nVidia´s aus!
Und ich bezweifle, dass nur durch Filteroptimierungen teilweise 20% mehr Performance rausgehohlt werden kann.

Gast
2008-11-21, 08:18:45
*andill zustimm*

Fetza
2008-11-21, 10:04:28
Bei optimierungen sprecht ihr hoffentlich alle nur von dem schlechteren Texturefilter!
Weil ohne AA und AF bzw. nur mit AA sehen die ATi´s genauso gut wie die nVidia´s aus!
Und ich bezweifle, dass nur durch Filteroptimierungen teilweise 20% mehr Performance rausgehohlt werden kann.

Ja genau, und ist deshalb ist und bleibt die von ATI produzierte hardware grütze... denn ohne AF spielt wohl niemand, dann siehts nämlich scheiße aus. Genauso wie niemand ohne AA spielt.

Schlammsau
2008-11-21, 10:18:30
Ja genau, und ist deshalb ist und bleibt die von ATI produzierte hardware grütze... denn ohne AF spielt wohl niemand, dann siehts nämlich scheiße aus. Genauso wie niemand ohne AA spielt.
Wenn du meinst!
Ich habe das Gefühl, hier geht immer jeder nur von sich selbst aus! Oder?
AF bzw. AA macht bestimmt nicht jeder an! Und wenn man AF einschaltet, dann auch bestimmt nicht immer auf 16x. Da gibt es auch 2x, 4x, 8x und 16x.
Soviel ich weiss, beziehen sich die Qualitätsunterschiede nur auf 16xAF und HQ.

Marodeur
2008-11-21, 11:00:16
So ein Blödfug.

Btw, euch ist bekannt, dass der 180.48 teils andere BQ auffährt als der 178.24? Hört endlich auf, nur auf die scheiß Balkenlänge zu gucken.

MfG,
Raff

Woher soll das bekannt sein? In Tests hab ich davon nix gelesen und der Thread hier zum Treiber wurd ja geschlossen. Falls du hierzu also einen Link oder Infos hast wäre es echt schön wenn du mir/uns hier weiterhelfen kannst. ;)

anddill
2008-11-21, 11:09:10
Seid dankbar, daß ich gut geschlafen habe und daher eure Geiferei einfach gelöscht habe statt Karten zu verteilen.
Aber bei der nächsten persönlichen Anmache hier hol ich das Kartenspiel raus und mach ne Runde mit!

K4mPFwUr$t
2008-11-21, 11:55:13
im grunde genommen kann man den topic gleich closen, weil die schuld nur zwischen rot und grün geschoben wird.

kurz um beide bauen mist und beiden wird zu wenig auf die finger geklopft.
beide wollen den kunden möglichst lange balken aufzeigen, besonders % balken sind stark in kommen.

und wer meint keine der beiden platzhirsche würde heimlich mogeln um möglichst gut da zustehen, der irrt.
denn das bestreben ist immer besser zu sein als die konkurrenz.

*ausklink*

Eggcake
2008-11-21, 12:15:26
Woher soll das bekannt sein? In Tests hab ich davon nix gelesen und der Thread hier zum Treiber wurd ja geschlossen. Falls du hierzu also einen Link oder Infos hast wäre es echt schön wenn du mir/uns hier weiterhelfen kannst. ;)

http://www.pcgameshardware.de/aid,667888/Test/Benchmark/Geforce_18048_WHQL_Nvidia-Grafikkarten-Treiber_im_Benchmark-Test/?page=4

Es ist mal sicher "anders" - der ausführliche Qualitätsvergleich soll noch dieses Wochenende nachgeschoben werden.

Marodeur
2008-11-21, 12:17:35
http://www.pcgameshardware.de/aid,667888/Test/Benchmark/Geforce_18048_WHQL_Nvidia-Grafikkarten-Treiber_im_Benchmark-Test/?page=4

Es ist mal sicher "anders" - der ausführliche Qualitätsvergleich soll noch dieses Wochenende nachgeschoben werden.

Danke. :)

Schlammsau
2008-11-21, 13:05:03
http://www.pcgameshardware.de/aid,667888/Test/Benchmark/Geforce_18048_WHQL_Nvidia-Grafikkarten-Treiber_im_Benchmark-Test/?page=4

Es ist mal sicher "anders" - der ausführliche Qualitätsvergleich soll noch dieses Wochenende nachgeschoben werden.

Dachte ich mir schon! Ein Bildvergleich mit aktuellen Radeons wäre auch sehr interessant.

ShadowXX
2008-11-21, 13:25:37
http://www.pcgameshardware.de/aid,667888/Test/Benchmark/Geforce_18048_WHQL_Nvidia-Grafikkarten-Treiber_im_Benchmark-Test/?page=4
Es ist mal sicher "anders" - der ausführliche Qualitätsvergleich soll noch dieses Wochenende nachgeschoben werden.
Dachte ich mir schon! Ein Bildvergleich mit aktuellen Radeons wäre auch sehr interessant.
Dachte ich mir schon ist gut....das Bild is nen Lacher.....zwischen den beiden Pics ist quasi überhaupt nichts gleich (guck mal auf die linke Seite bei den Zuschauer).

Die Screenshots sind auch nicht von der identischen Stelle gemacht....bei dem ersten Shot ist die Kamera 2-3 Pixel näher dran (kann man gut am großen Schatten links sehen, der sich in der Quali nicht unterscheidet, aber sich leicht in der Position hin und her bewegt), bei Grid (mit seinen ganzen Shader und "Bildverbesserern" reicht das aus um das Bild anders wirken zu lassen).

Der taugt 0,0 zum Bildvergleich, speziell wenn man sich dann auch noch ansieht "was" auf Bild 2 bemängelt wird......
Da sind die fehlenden Effekte unter UT3 und CoD4 bei ATI wesentlich offentlichtlicher.

Wenn ich 2 Pics auf meiner Radeon machen unterscheiden die sich in etwas genauso.....

igg
2008-11-21, 13:29:07
Ich find sogar das Geforce 180.48 Bild besser :)

Und somit deutlich weniger schlimm als dass was ATI gemacht hat (fehlende Steine, ...).

PCGH_Raffael
2008-11-21, 13:30:28
Das Bild is nen Lacher.....zwischen den beiden Pics ist quasi überhaupt nichts gleich (guck mal auf die linke Seite bei den Zuschauer).

Der taugt 0,0 zum Bildvergleich, speziell wenn man sich dann auch noch ansieht "was" auf Bild 2 bemängelt wird...
Da sind die fehlenden Effekte unter UT3 und CoD4 bei ATI wesentlich offentlichtlicher.

Wenn ich 2 Pics auf meiner Radeon machen unterscheiden die sich in etwas genauso.....

Auf den Bildern findet sich exakt dieselbe Szene beim Start unseres Bench-Rennens. Dass sich Zuschauer und Vegetation bewegen, ist völlig irrelevant für die Betrachtung der Texturqualität vor dem Vehikel (da bewegt sich nichts).

MfG,
Raff

Gast
2008-11-21, 15:03:34
Und ich bezweifle, dass nur durch Filteroptimierungen teilweise 20% mehr Performance rausgehohlt werden kann.

hast du G7x etwa vergessen?

da hatte man teilweise bis zu 100% mehr performance rausgeholt und das im verhältnis zum damaligen HQ-AF, welches deutlich schlechter war als jenes welches NV heute bietet.

Gast
2008-11-21, 15:04:39
Soviel ich weiss, beziehen sich die Qualitätsunterschiede nur auf 16xAF und HQ.

nein, unterschiede sind in allen filtereinstellungen, außer reinem bilinear entsprechend vorhanden.

Gast
2008-11-21, 15:08:21
Auf den Bildern findet sich exakt dieselbe Szene beim Start unseres Bench-Rennens.

sinds sie eindeutig nicht, der blickwinkel ist anders, wenn auch nur leicht. (180er ist minimal höher), damit nicht wirklich für einen vergleich geeignet.

deekey777
2008-11-22, 01:47:02
ATI's new driver comes on December 10th (http://www.fudzilla.com/index.php?option=com_content&task=view&id=10575&Itemid=1)
We managed to find out that some of these optimizations are also going to wait for the next Catalyst 9.1 which should probably come sometime next year. The optimizations are going to influence both single board and CrossFire configurations and the only issue is the titles for which Nvidia apparently had more time to optimize than ATI.

Ich weiß nicht, woher er das hat, aber dass die Verbesserungen erst im Januar zu sehen sind, habe ich schon woanders gelesen. Damit will ich sagen: Da ist wirklich was dran.

Aber wie gesagt: Es heißt ja nicht, dass wir keine Hotfixes sehen.

Gast
2008-11-22, 03:38:21
sinds sie eindeutig nicht, der blickwinkel ist anders, wenn auch nur leicht. (180er ist minimal höher), damit nicht wirklich für einen vergleich geeignet.

Nicht nur das, für Vergleiche sollte man Szenen nehmen die absolut gleich sind und nicht bei jedem Start etwas anderes (Zuschauer) das irritiert nur.

Savay
2008-11-22, 10:07:33
Langsam gehen mir beide Firmen auf den Sack. Immer nur die dämliche Balkenlänge und er den längstne hat Scheiss.

genau dieser scheiß verkauft aber leider die grafikkarten. :rolleyes:

NV wäre auch sicher nicht der "BQ samariter" geworden wenn sie mit dem G80 nicht so nen performance vorsprung gehabt hätten. ich finds immer lustig das NV hier im forum so hochgelobt wird für die bildqualität...als wenn die die allheilsbringer wären und aus reiner wohltat und uneigennutz für den kunden ihre treiber so schreiben wie sie es denn tun/getan haben.
das ganze war und ist nicht mehr als nen netter "PR gäg" den sie einfach mal mitnehmen solang sie trotzdem die benchmarks dominieren können wie sie wollen

sollten die von ATI noch mehr unter druck gesetzt werden ist garantiert das erste was die "opfern" würden die ach so tolle BQ. und nein...das sie als erstes bei der BQ sparen würden liegt NICHT daran das ATI "scheiße" ist... :rolleyes:
der grund ist ganz einfach:
BQ kann man einfach in balken packen und die verkauft abseits von ein paar geeks auch keine hardware denn soooo groß ist der unterschied auch wieder nicht wie hier immer getan wird. die zeiten anno 99/00 sind schon lange vorbei wo das AA grausig und das AF schlimm war :)

reunion
2008-11-22, 10:13:52
FarCry2-Test von AnandTech:
http://www.anandtech.com/video/showdoc.aspx?i=3463&p=1

Hier sieht es alles andere als schlecht aus für AMD. 4870 praktisch auf GTX280-Niveau.

AnarchX
2008-11-22, 10:18:12
So ist es besser:

Hier sieht es alles andere als schlecht aus für AMD. 4870 1GiB praktisch auf GTX280-Niveau.

Aber interessant, dass schon bei 1024x768 zwischen 512 und 1024 4870 ein Unterschied von fast 10% besteht. (http://www.anandtech.com/video/showdoc.aspx?i=3463&p=3)

Mit AA und >1680 sind es ja schon fast 30%, bei >30FPS, entweder kann da AMD wirklich noch optimieren oder die 1GiB 4870 hat doch ein höheres Potential für die Zukunft als man dachte.

horn 12
2008-11-22, 11:00:16
Nun es ist wohl damit zu rechnen, dass die 1GB HD4870 mit Clockspeed 750/900 (Standardtakt) mit den Neuen optimierteren Treibern in Kürze zu einer EXTREM flotten Karte wird, mit welcher man locker das Jahr 2009 bestreiten kann, auch OHNE Crossfire. Bis DX11 zu tragen kommt, reicht der Mehrheit somit diese gute ATI Karte vollkommen aus,- und dies wollte ich nur mal sagen.
Aber auch NV wird immer stärker mit ihren Treibern.

Die Minimal Frames bei der 1GB Version sind schon beachtlich im Vergleich zur 512-er Variante.

PS:Werde nun wohl selbst auf die 1GB Version umsatteln, und die 512-er verkaufen.

derguru
2008-11-22, 11:35:12
interessant finde ich bei diesem bench das eine 4830 zur 9800gtx+ [+-] gleichwertig ist.

AnarchX
2008-11-22, 11:40:55
interessant finde ich bei diesem bench das eine 4830 zur 9800gtx+ [+-] gleichwertig ist.
Da ist doch nur eine GTX Non-Plus dabei.

Sehr überraschend gut schneidet hier auch die 4670 ab, oft vor der 96GT und nicht weit entfernt von der 4830.

Gast
2008-11-22, 12:11:00
NV wäre auch sicher nicht der "BQ samariter" geworden wenn sie mit dem G80 nicht so nen performance vorsprung gehabt hätten. ich finds immer lustig das NV hier im forum so hochgelobt wird für die bildqualität...als wenn die die allheilsbringer wären und aus reiner wohltat und uneigennutz für den kunden ihre treiber so schreiben wie sie es denn tun/getan haben.


jein. est stimmt natürlich, dass NV bei stärker werdender konkurrenz gerne wieder auf BQ verzichten wird.

allerdings wurde G80 ganz offensichtlich mit dem gedanken entwickelt hohe filterqualität bei hoher performance zu ermöglichen und das ist durchaus deren verdienst.

derguru
2008-11-22, 12:18:39
Da ist doch nur eine GTX Non-Plus dabei.

Sehr überraschend gut schneidet hier auch die 4670 ab, oft vor der 96GT und nicht weit entfernt von der 4830.
ups das +:P,
schade das man nicht auch ein cf variante mit gebencht hat dann wäre es komplett.
jein. est stimmt natürlich, dass NV bei stärker werdender konkurrenz gerne wieder auf BQ verzichten wird.

allerdings wurde G80 ganz offensichtlich mit dem gedanken entwickelt hohe filterqualität bei hoher performance zu ermöglichen und das ist durchaus deren verdienst.
kann man auch bei far cry2 sehen das die "alten"8800gtx und ultra noch sehr gut mithalten.eine ultra ist z.b. bei far cry2 gleichwertig zu einer 4870 512mb karte.

reunion
2008-11-22, 12:27:48
So ist es besser:


Bei dem von nV gesponserten Test kam auch die 4870 1GiB zum Einsatz und trotzdem war sie abgeschlagen.

Aber interessant, dass schon bei 1024x768 zwischen 512 und 1024 4870 ein Unterschied von fast 10% besteht. (http://www.anandtech.com/video/showdoc.aspx?i=3463&p=3)

Mit AA und >1680 sind es ja schon fast 30%, bei >30FPS, entweder kann da AMD wirklich noch optimieren oder die 1GiB 4870 hat doch ein höheres Potential für die Zukunft als man dachte.

Ja, schon etwas seltsam, bei 1024 x 768 ohne AA/AF sollten die 512MB kaum limitieren.

Gast
2008-11-22, 13:02:44
Ja, schon etwas seltsam, bei 1024 x 768 ohne AA/AF sollten die 512MB kaum limitieren.

bei farcry 2 offensichtlich schon, interessanterweise leiden ausnahmsweise ATI-karten mal mehr als NV-karten, wenn der speicher ausgeht. in hohen auflösungen reichen nichtmal mehr die 1024MiB.

da farcry2 eine offene spielwelt besitzt kommt ja sicherlicht textur-streaming zum einsatz, es könnte durchaus sein, dass dieses mit dem vorhandenen VRAM mitskaliert und wenn mehr vorhanden ist einfach schon mehr texturen vorhalten kann.

Gast
2008-11-22, 14:43:24
FarCry2-Test von AnandTech:
http://www.anandtech.com/video/showdoc.aspx?i=3463&p=1

Hier sieht es alles andere als schlecht aus für AMD. 4870 praktisch auf GTX280-Niveau.

Möglicherweise ist deren Custom Timedemo weniger fordernd. Bei 2560x1600 sind die GTX260 nämlich wieder vorne.

deekey777
2008-11-22, 19:40:55
bei farcry 2 offensichtlich schon, interessanterweise leiden ausnahmsweise ATI-karten mal mehr als NV-karten, wenn der speicher ausgeht. in hohen auflösungen reichen nichtmal mehr die 1024MiB.

da farcry2 eine offene spielwelt besitzt kommt ja sicherlicht textur-streaming zum einsatz, es könnte durchaus sein, dass dieses mit dem vorhandenen VRAM mitskaliert und wenn mehr vorhanden ist einfach schon mehr texturen vorhalten kann.
Kannst du vielleicht einen oder mehrere Links angeben. Irgendwie finde ich auf die Schnelle nichts (sprich 9800GTX 512 vs. 9800GTX 1024).

reunion
2008-11-23, 11:42:59
Jetzt gibt es auch ein sehr ausführliches Review 4870 1GiB vs. GTX260-216 von Xbitlabs:
http://www.xbitlabs.com/articles/video/display/radeon-hd4870-1024.html

uweskw
2008-11-23, 11:46:10
Bei dem Standard-Benchmark von FC2 schneiden dieNV Karten besser ab als die AMDs. Beim Custom-Bench liegen aufeimal die AMDs vorne. Wieweit kann der Hersteller auf standard Benches optimieren?
Ist das auch bei den anderen "NV-Top 5" Titeln so?

http://www.anandtech.com/video/showdoc.aspx?i=3463&p=4

Undertaker
2008-11-23, 11:53:15
Am Ende haben sie auch noch eine hübsche Übersicht:

http://www.xbitlabs.com/articles/video/display/radeon-hd4870-1024_15.html

Sieht nach einem sehr ausgewogenen Bild aus mit üblichen Abweichungen bei 8xAA (über dessen Sinnhaftigkeit auf einer aktuellen NVidia-Karte ich mich schon wieder aufregen könnte, den Modus wird in der Praxis bei einer Alternative wie 8xS schlicht kein Mensch nutzen, dafür ist der Performanceverlust von 4xAA zu hoch bzw. gemessen daran der Qualitätsgewinn zu klein). Leider noch ohne 180er FW.

Gast
2008-11-23, 16:49:11
Am Ende haben sie auch noch eine hübsche Übersicht:

http://www.xbitlabs.com/articles/video/display/radeon-hd4870-1024_15.html

Sieht nach einem sehr ausgewogenen Bild aus mit üblichen Abweichungen bei 8xAA (über dessen Sinnhaftigkeit auf einer aktuellen NVidia-Karte ich mich schon wieder aufregen könnte, den Modus wird in der Praxis bei einer Alternative wie 8xS schlicht kein Mensch nutzen, dafür ist der Performanceverlust von 4xAA zu hoch bzw. gemessen daran der Qualitätsgewinn zu klein). Leider noch ohne 180er FW.

Den Test kann man vergessen da wurden noch alte 178.24 getestet. Erst die 180.xx bringen deutlich mehr Speed.

crux2005
2008-11-23, 16:53:20
ja klar, +80% in allen settings und games :rolleyes:
so viel mehr bringen sie auch nicht, nur in GRiD ist es mehr als nur paar %

Gast
2008-11-23, 16:54:54
ja klar, +80% in allen settings und games :rolleyes:
so viel mehr bringen sie auch nicht, nur in GRiD ist es mehr als nur paar %

180.xx laufen bis 40% schneller in FC2 mit AA...

Gast
2008-11-23, 17:06:57
Beratung: Nvidia GeForce 180.48

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/beratung_nvidia_geforce_18048/

Gast
2008-11-23, 17:15:12
Warum gibts es nicht mal eine große Seite, die genug Eier in der Hose hat um AI Off vs HQ zu benchen? Das 3DC würde sich doch super eignen, wo man doch ohnehin keine Samples mehr von ATI bekommt. X-D

derguru
2008-11-23, 17:29:35
Warum gibts es nicht mal eine große Seite, die genug Eier in der Hose hat um AI Off vs HQ zu benchen? Das 3DC würde sich doch super eignen, wo man doch ohnehin keine Samples mehr von ATI bekommt. X-D

weil es keinen sinn macht,A.I.off ist noch lange nicht HQ-AF vorallem hängt an A.I. nicht nur optimiertes AF.
bei A.I.off flimmert es immernoch fast genauso wie mit A.I.on.

Nazar
2008-11-23, 17:44:25
Falls du mich meinst: Im SLI vs. Crossfire-Thread kritisiere ich ATi aufs Schärfste.
Außerdem dürfte es inzwischen bei jedem, der sich auch nur ein wenig mit Grafikkarten beschäftigt und nicht völlig blind sein will, angekommen sein, was für Mist ATi baut.
Woran du festmachen willst, dass diese Webseite dunkelrot ist, ist mir ein Rätsel. Sie sieht höchstens dunkelrot, wenn gecheatet wird.

Und wie ich da schom im Thread sagte, bringt es 0,0 das Ganze einseitig zu behandeln.
Und schwups... da haben wir den Salat!
Was meinst Du was nun ein Petition bei AMD bringen würd? ;)

Und dann hört bitte auf alles mit in die Diskussion mit einzubeziehen.
UE3 hat Probleme mit AA.. ATI baut es ein.. die Wassertexturen fehlen und schon ist ATI ein böser Cheater... das fehlendes AA ein Problem der Engine ist und damit auch Probleme auftauchen können, dass interessiert niemanden :rolleyes:

Wie ATI allerdings, ohne an der BQ zu schrauben, mehr Leistung durch die Treiber erziehlen will, bleibt ein Geheimnis. Schön wäre es wirklich, wenn sie es über die Shadereinheiten erreichen würden aber glauben tu ich es nicht.

LovesuckZ
2008-11-23, 17:51:47
Und dann hört bitte auf alles mit in die Diskussion mit einzubeziehen.
UE3 hat Probleme mit AA.. ATI baut es ein.. die Wassertexturen fehlen und schon ist ATI ein böser Cheater... das fehlendes AA ein Problem der Engine ist und damit auch Probleme auftauchen können, dass interessiert niemanden :rolleyes:


Hat denn AMD in den Veröffentlichungsbenachrichtigen geschrieben, dass man keine Wassereffekte mit AA mehr rendern wird?
Hoffentlich, ansonsten ist das nämlich cheaten.

_flx
2008-11-23, 18:06:58
Nein, weil sie es, bis sie darauf hingewiesen wurden, selbst nicht wussten :(

Raff
2008-11-23, 18:09:54
Nein, weil sie es, bis sie darauf hingewiesen wurden, selbst nicht wussten :(

Das ist, was sie sagen. Doch ist es auch die Wahrheit? Das werden wir nie erfahren.

MfG,
Raff

_flx
2008-11-23, 18:17:52
Da hast du natürlich recht. Aber, so leid 's mir tut, ein Statement eines A/A Mitarbeiters hat bei mir _etwas_ mehr Gewichtung als das eines, ewig AMD-bashenden, LovesuckZ.

Natürlich kann es möglich sein das A/A intern beschlossen wurde mit Treiber xyz X% mehr Performance aus Game abc zu holen.. Allerdings kann es auch genau so gut ein Bug sein.. Ich weiß nicht wie es dir geht aber ich habe schon QA bei Software gemacht. Zwar kein Treiber, sondern etwas simpler.. aber ich denke etwas wie fehlende STEINE (ffs!) wäre mir NICHT aufgefallen.

Nakai
2008-11-23, 18:58:00
Warum gibts es nicht mal eine große Seite, die genug Eier in der Hose hat um AI Off vs HQ zu benchen? Das 3DC würde sich doch super eignen, wo man doch ohnehin keine Samples mehr von ATI bekommt. X-D

Trotzdem hätte ich gern irgendwie einen Bericht über AI off. Ich meine, man sollte alle Nachteile, Optimierungen und Probleme beleuchten. Eventuell ein paar Spielebenches, damit die meisten sehen, was AI off anrichtet, ergo auch BQ-Vergleiche usw. Ich kann es nicht mehr höheren, wie NV-Fanboys das AI zu Tode flamen und die ATI-Fanboys alle Argumente ignorieren. So bekommt man kein gutes Bild, ich will endlich eine objektive Sichtweise bekommen.



mfg Nakai

Gast
2008-11-23, 19:10:29
weil es keinen sinn macht,A.I.off ist noch lange nicht HQ-AF vorallem hängt an A.I. nicht nur optimiertes AF.
bei A.I.off flimmert es immernoch fast genauso wie mit A.I.on.

Es geht ja eben darum die Shader- und anderen Optimierungen von der Bildqualität zu lösen und nicht mehr aneinander zu koppeln. Genau das war eben gemeint. Das ist schon seit Jahren ein leidiges Thema woran sich nichts tut und das kann ja nun echt nicht sein. Außerdem sagst du es ja selbst: Es flimmert fast genauso. Aber eben nicht genauso. AI off > AI on. Somit ist AI off näher an HQ als AI on. Passt doch wunderbar.

Wie also diesen Fortschritt "erzwingen", wenn nicht so?
Bei Nvidia hat es ja auch geklappt. Aber wie gesagt, keiner scheint die nötigen Eier in der Hose dafür zu haben.

Gast
2008-11-23, 20:19:19
weil es keinen sinn macht,A.I.off ist noch lange nicht HQ-AF vorallem hängt an A.I. nicht nur optimiertes AF.
bei A.I.off flimmert es immernoch fast genauso wie mit A.I.on.


richtig deshalb sollte man eigentlich AI-off gegen NV-standard benchen, AI-off gegen HQ ist eigentlich schon ein starkes entgegenkommen für ATI.

Gast
2008-11-23, 20:44:28
richtig deshalb sollte man eigentlich AI-off gegen NV-standard benchen, AI-off gegen HQ ist eigentlich schon ein starkes entgegenkommen für ATI.

Nein, bei AI-Off werden auch sinvolle Optimierungen und Bugfixes abgestellt. Wie oft noch.

Gast
2008-11-23, 20:50:11
Nein, bei AI-Off werden auch sinvolle Optimierungen und Bugfixes abgestellt. Wie oft noch.


genau, deshalb sollte man es auch testen, damit ATI endlich mal was lernt.

Gast
2008-11-23, 20:56:17
Nein, bei AI-Off werden auch sinvolle Optimierungen und Bugfixes abgestellt. Wie oft noch.

Das ist eine reine Schutzbehauptung AMDs, wie oft denn noch!

deekey777
2008-11-23, 21:03:18
Das ist eine reine Schutzbehauptung AMDs, wie oft denn noch!
Sag das einem CF-User. Oder müssen sie auf CF verzichten, indem sie ohne AI spielen, damit sich die andere bessser fühlen?

Black-Scorpion
2008-11-23, 21:04:16
Das ist eine reine Schutzbehauptung AMDs, wie oft denn noch!

Das hast du natürlich ausgiebig getestet und kannst das auch beweisen.

Gast
2008-11-23, 21:08:00
Sag das einem CF-User. Oder müssen sie auf CF verzichten, indem sie ohne AI spielen, damit sich die andere bessser fühlen?


nein, jeder user kann spielen wie er will, von mir aus auch mit AI-advanced oder bei NV auf HP mit allen optimierungen an.

offizielle tests sollten sich aber auf AI-off bzw. HQ beschränken.

flatbrain
2008-11-23, 21:14:30
Sag das einem CF-User. Oder müssen sie auf CF verzichten, indem sie ohne AI spielen, damit sich die andere bessser fühlen?

Naja, die Frage müsste aber eher lauten, warum CF etc. zwingend an AI gekoppelt ist...?

Coda
2008-11-23, 21:49:30
Das hast du natürlich ausgiebig getestet und kannst das auch beweisen.
Jetzt wird's lächerlich.

Mit A.I. off funktioniert unter anderem nicht:
- Crossfire AFR und SFR (was es praktisch deaktiviert)
- Anti-Aliasing in allen Spielen die es nicht selber anbieten
- Bugfix für Nebelproblem in Half-Life² (und sicher noch Bugfixes für andere Spiele)
- Sämtliche Shader-Replacements

Gast
2008-11-23, 22:21:31
Sag das einem CF-User. Oder müssen sie auf CF verzichten, indem sie ohne AI spielen, damit sich die andere bessser fühlen?

Das wäre aber allein schon Grund genug, daß Ati mal ihre Profile "lockern" sollte!!! Davon mal abgesehn glaub ich sowieso nicht , das Ati dies jemals ändern wird, da der Aufwand viel zu riesig wäre und dazu ist ein komplett neues Treibermodel notwendig. Man sieht es ja bereits bei der MR Problematik ein Großteil der Besitzer spielt das Problem herunter und NV/Ati sehen sich bestätigt und passiert ist bis heute nix. Was bleibt sind nicht enden wollende Diskussionen die zu nichts führen.

Coda
2008-11-23, 22:29:00
Wenn das ein großes Problem ist wenigstens die Filterqualität einfach auf Maximum zu lassen, dann ist die Softwarearchitektur des Treibers aber wirklich armseelig.

mapel110
2008-11-23, 22:39:45
Mit A.I. off funktioniert unter anderem nicht:
- Anti-Aliasing in allen Spielen die es nicht selber anbieten

Ist das wirklich so? Ich dachte, das bezieht sich nur auf Spiele, die Probleme mit AA machen. Also lässt sich mit AI OFF gar kein AA mehr forcen via Treiber?!

derguru
2008-11-23, 23:01:34
offizielle tests sollten sich aber auf AI-off bzw. HQ beschränken.

offizielle tests beschränken sich auf die beiden standards wie A.I.default und Q was auch sinn macht.

richtig deshalb sollte man eigentlich AI-off gegen NV-standard benchen, AI-off gegen HQ ist eigentlich schon ein starkes entgegenkommen für ATI.

wie kommste denn darauf A.I.on ist in etwa dieselbe AF qualität wie Q und da A.I. off sich in dem sinne sich nicht verbessert finde ich es schwachsinnig A.I.off gegen HQ zu benchen.(+ die ganzen anderen nachteile die unter A.I.off entstehen)

was willst du denn dadurch sehen?du darfst eigentlich auch nicht HQ mit A.I.vergleichen denn HQ bezieht sich nur auf AF und A.I. eben nicht.

reunion
2008-11-23, 23:33:33
Ist das wirklich so? Ich dachte, das bezieht sich nur auf Spiele, die Probleme mit AA machen. Also lässt sich mit AI OFF gar kein AA mehr forcen via Treiber?!

Doch. Es funktioniert eben bei keinen Spielen mehr die ohne alternativen Renderingpfad Probleme mit AA haben.

LovesuckZ
2008-11-23, 23:37:20
was willst du denn dadurch sehen?du darfst eigentlich auch nicht HQ mit A.I.vergleichen denn HQ bezieht sich nur auf AF und A.I. eben nicht.

Es geht um die Filterungsqualität. Das hinter A.I noch andere stecken, spielt in der Betrachtung keine Rolle. Und da A.I off zu einer Besserung führt, muss man AF auch mit dieser Einstellung testen. Denn die Verbesserung ist eben nicht nur am Grad der AF zu messen, sondern auch an den Optimierungen.

_flx
2008-11-24, 01:50:31
Wenn "man" aber mit A.I OFF bencht, bist doch du einer der ersten der ankommt und sich über den längeren nV Balken freut..
Abseits der Filterqualität!

Coda
2008-11-24, 02:02:01
Ist das wirklich so? Ich dachte, das bezieht sich nur auf Spiele, die Probleme mit AA machen. Also lässt sich mit AI OFF gar kein AA mehr forcen via Treiber?!
Ich meinte natürlich wenn sie selber aus technischen Gründen kein Anti-Aliasing anbieten (deferred shading usw.).

wie kommste denn darauf A.I.on ist in etwa dieselbe AF qualität wie Q und da A.I. off sich in dem sinne sich nicht verbessert finde ich es schwachsinnig A.I.off gegen HQ zu benchen.(+ die ganzen anderen nachteile die unter A.I.off entstehen)
Natürlich filtert A.I. off besser.

Savay
2008-11-24, 02:06:39
Es geht um die Filterungsqualität.

herr gott wie oft denn noch: in nem benchmark geht es nicht um die reine filterqualität...es geht um vergleichbarkeit. :tongue:

und HQ ist eben NICHT mit AI off vergleichbar...Q mit AI on (ergo die treiberstandards) hingegen schon.

ob nun eine flexiblere unterscheidung bei AI wünschenswert wären ist doch eine vollkommen andere geschichte. ja ich finde auch ATI muss da endlich was tun aber trotzdem ist es schmarrn drauf ständig rumzureiten solange die nackten treiber standards ohne auch nur einen klick drin rumzupfriemeln sich auf einem ähnlichen niveau befinden. :rolleyes:

wer auf teufel komm raus äpfel mit birnen vergleichen will soll halt weiterhin auf HQ vs AI off pochen...es ist und bleibt aus gründen der vergleichbarkeit aber schlicht blödsinn.

Coda
2008-11-24, 03:19:41
und HQ ist eben NICHT mit AI off vergleichbar...Q mit AI on (ergo die treiberstandards) hingegen schon.
Es gibt mehrere Probleme die ich mit dieser Aussage habe

1.) Die Verhältnisse würden sich bei gescheitem Filter eben schon etwas ändern. Ich vermute eher nicht zu Gunsten von ATI.
2.) Es wird kein Wert auf Filterqualität gelegt und somit der Druck von den Herstellern genommen in dieser Hinsicht. Balken, Balken, Balken!
3.) Quality filtert doch noch einen Tick besser als A.I. on.

Mit A.I. off zu benchen wäre natürlich unfair. Aber wenn das nur mal 50% der Review-Seiten machen würden wäre AMD gezwungen zu handeln. Einen Schalter für den Texturfilter einzubauen trotz A.I. kann einfach nicht das große Problem sein.

Wenn der da wäre könnte man HQ vs. A.I. on + "Texturfilter Hohe Qualität" benchen und alle wären halbwegs zufrieden.

Gast
2008-11-24, 03:35:16
Es gibt mehrere Probleme die ich mit dieser Aussage habe

1.) Die Verhältnisse würden sich bei gescheitem Filter eben schon etwas ändern. Ich vermute eher nicht zu Gunsten von ATI.
2.) Es wird kein Wert auf Filterqualität gelegt und somit der Druck von den Herstellern genommen in dieser Hinsicht. Balken, Balken, Balken!
3.) Quality filtert doch noch einen Tick besser als A.I. on.

Mit A.I. off zu benchen wäre natürlich unfair. Aber wenn das nur mal 50% der Review-Seiten machen würden wäre AMD gezwungen zu handeln. Einen Schalter für den Texturfilter einzubauen trotz A.I. kann einfach nicht das große Problem sein.

Wenn der da wäre könnte man HQ vs. A.I. on + "Texturfilter Hohe Qualität" benchen und alle wären halbwegs zufrieden.

:O

Jemand der es verstanden hat und es auch noch auf den Punkt gebracht hat. :massa:

Was ist eigentluch aus dem angekündigten 3dc-Artikel geworden?

Savay
2008-11-24, 07:50:06
Mit A.I. off zu benchen wäre natürlich unfair. Aber wenn das nur mal 50% der Review-Seiten machen würden wäre AMD gezwungen zu handeln. Einen Schalter für den Texturfilter einzubauen trotz A.I. kann einfach nicht das große Problem sein

du hast also weniger mit der aussage ein problem das man einen defakto filtergleichstand bei treiberstandards hat sondern damit das ATI zu dämlich oder faul oder feige ist HQ AF endlich mal von AI zu entkoppeln.

ICH finde es auch scheiße...aber mit professioneller berichterstattung hätte es nichts zu tun wenn eine seite nur um auf dieser thematik rumzureiten möglichst subtil unvergleichbare benchmarks fährt. das wäre um es mal so zu sagen eher populismus und kein journalismus! ;)

der zweck heiligt nämlich nicht die mittel egal wie wünschenswert es ist...etwas derartiges wäre schlicht erpressung und würde die thematik von einer sachorientierten ebene auf ein niveau zu heben wo es nurnoch darum ginge seinen kopf durchzusetzen.

sooooo wichtig scheint es mit der AF qualität dann auch nicht zu sein...denn ich frage mich echt wieso es bisher noch kein online oder printmagazin geschafft hat mal einen leitartikel und eine titelstory draus zu machen! und das nach 2 jahren R600.

ganz ehrlich...letzten endes kann ich durchaus mit der AI on AF qualität leben vorallem solang viele probleme auch beim content zu suchen sind...nen ärgerniss bleibt es allemal!

Unyu
2008-11-24, 09:11:29
das ATI zu dämlich oder faul oder feige ist HQ AF endlich mal von AI zu entkoppeln.

Ganz im Gegenteil, AMD tut gut daran es so zu belassen, wie es ist, sie profitieren davon. Soetwas ist nicht dämlich, sondern höchst intelligent.

Wo wäre AMDs Vorteil, wenn die Balken 10% kürzer werden?
Lässt man die Balken lieber künstlich um 50% kürzer werden und baut ein paar fies notwendige Dinge dazu, schwups testets keiner.

Das ist Erpressung! AMD erpresst die Tester, mit Erfolg.


sooooo wichtig scheint es mit der AF qualität dann auch nicht zu sein...denn ich frage mich echt wieso es bisher noch kein online oder printmagazin geschafft hat mal einen leitartikel und eine titelstory draus zu machen! und das nach 2 jahren R600.
Demnach sind alle von AMD gekauft?

Savay
2008-11-24, 09:25:37
Das ist Erpressung! AMD erpresst die Tester, mit Erfolg.

soweit ich mich erinnere ist HQ kein treiberstandard :rolleyes:
outofthebox sind sowohl die FW als die CATs von der filterqualität durchaus vergleichbar...jaaaaaaaaaaaaaaa nv ist etwas besser...jaaaaaaaa AI off ist ne scheiß option

von erpressung würde ich in dem fall ganz sicher nicht sprechen. kein tester wird gezwungen Q vs AI on zu benchen! wieso macht es denn keiner?
es macht halt nur einfach keinen sinn weil sowohl HQ als auch AI off optional sind...und noch dazu nicht vergleichbar.


Demnach sind alle von AMD gekauft?

bla?!
ne es ist dann anscheinend doch nicht wichtig genug das man es an die große glocke hängt wa?

anstatt mal ne breite diskussion und eine aufklärungskampagne zu starten wird hier im (geek!) forum darüber palavert das die doch bitte HQ vs AI off benchen sollen damit die böse firma ATI gezwungen ist die treiber anzupassen. :rolleyes: welch publikum...welch zielgruppe...welch aussagekraft.

mal ganz davon ab wie wünschenswert das ist, ist es einfach schwachsinn es über diesen weg erzwingen zu wollen. man kann doch die diskussion nicht von den elementarsten grundlagen jeglichen inhalts befreien nur damit man etwas so hindrehen kann wie man es grade möchte.
das hätte etwas von nem schmollenden kleinkind das zornig mitm fuss auf den boden stampft und sagt "Ich will aber!".


aber ich denke nicht das sich dort besonders viel tun wird! NV findets mit Q als treiberstandard offensichtlich auch sehr bequem...ansonsten hätten die schon längst das ganze auf HQ umstellen können. die bessere filterquali bei HQ ist für die doch eh nicht mehr als nen netter PR gag für 2-5% der potenziellen käuferschicht. das ganze ist auch das erste was sie wieder opfern würden...eben weil es wenig marktrelevanz hat. und nein NICHT weil ATI scheiße und böse ist und so
der rest der käuferschar ist doch schon glücklich wenn nen paar bunte pixel aufm bildschirm möglichst spektakulär und schnell aufleuchten. ob der AF minimal besser ist oder nicht...das fällt vielen doch garnicht auf...hauptsache es ist wenigstens ein wenig FSAA und AF aktiv das es nicht ganz so arg flimmert.
pixelpeeping ist vielleicht nen nettes hobby aber salonfähig ist es nicht...dafür ist es wahrlich zu "vergeekt" und so weltbewegend wie die frage auf der letzten trekkie convention welcher klingonische dialekt jetzt authentischer klingt ;)

und mal ganz ehrlich...die bildqualität wird besser mit den jahren NICHT schlechter. hier wird schon auf recht hohem niveau gejammert muss ich sagen. wenn ich meine GF256 DDR mit der GF4 Ti, der GF6800GT und meiner X1950 vergleiche ist das bild wirklich mit jedem schritt besser geworden.
nicht unbedingt weil jeder einzenle aspekt qualitativ hochweriger umgesetzt wurde...nein sondern weil einfach mehr rohpower da war um jeweils immer höhere FSAA, AF und auch neuerdings AAA modi zu nutzen.
es liegen immernoch welten zwischen der durchschnittlichen bildqualität von 2000 und 2008

Gast
2008-11-24, 09:28:22
Ganz im Gegenteil, AMD tut gut daran es so zu belassen, wie es ist, sie profitieren davon. Soetwas ist nicht dämlich, sondern höchst intelligent.

Wo wäre AMDs Vorteil, wenn die Balken 10% kürzer werden?
Lässt man die Balken lieber künstlich um 50% kürzer werden und baut ein paar fies notwendige Dinge dazu, schwups testets keiner.

Das ist Erpressung! AMD erpresst die Tester, mit Erfolg.

Demnach sind alle von AMD gekauft?

Du hast eine NV-Karte. Worin genau besteht nun dein Problem mit den Radeons, die Du ja gar nicht hast?

Unyu
2008-11-24, 09:39:55
soweit ich mich erinnere ist HQ kein treiberstandard :rolleyes:
Das war vor 2 Jahren kein Grund es nicht zu testen, bzw bis vor kurzem sogar noch bei PCGH. :rolleyes:


outofthebox sind sowohl die FW als die CATs von der filterqualität durchaus vergleichbar...jaaaaaaaaaaaaaaa nv ist etwas besser...jaaaaaaaa AI off ist ne scheiß option

Wer spielt schon mit Q?
Nach der GF7 Bashwelle stellen viele HQ ein. Klasse das niemand das testet.

von erpressung würde ich in dem fall ganz sicher nicht sprechen. kein tester wird gezwungen Q vs AI on zu benchen! wieso macht es denn keiner?Doch, was sollen die Tester sonst testen?
Q vs AI-off? HQ vs AI-off? Das gibt mal ein Geheule: "blabla funktioniert mit AI-off nicht", "50% für nichts"


mal ganz davon ab wie wünschenswert das ist, ist es einfach schwachsinn es über diesen weg erzwingen zu wollen.
Was wäre dein Weg?
Ein paar Briefe an AMD: "Ach bitte bitte..."
:rolleyes:

Du hast eine NV-Karte. Worin genau besteht nun dein Problem mit den Radeons, die Du ja gar nicht hast?Das sie einen Produktmangel aufweisen, der mich beim selben Preis vom Kauf abhält.

Sven77
2008-11-24, 09:55:17
soweit ich mich erinnere ist HQ kein treiberstandard :rolleyes:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=438530
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=438388

Ich lass das mal kommetarlos so stehen

Savay
2008-11-24, 09:58:18
Was wäre dein Weg?
Ein paar Briefe an AMD: "Ach bitte bitte..."
:rolleyes:

ja...eine breitgefächerte petition wäre durchaus eine möglichkeit! man müsste nur genug leute erreichen und die thematik nahe bringen.

das ganze z.B. mal als TITELSTORY auf irgend nem printmagazin!?! da können auch gerne so viele benchmarks rein wie die druckmaschine tinte liefert aber ohne die kunden aufzuklären wird es einfach nicht gehen...

aber neeeeeeein es muss natürlich möglichst subtil und am besten noch ohne erklärung gefordert werden das alle benchmarks mit nicht vergleichbaren settings gemacht werden.

die balkenlänge hat doch letztlich mit der BQ rein garnichts zu tun. wie willst du dem unbedarften leser die mal so ca. 95% ausmachen und KEINEN plan davon haben was AI off macht oder eben nicht macht erklären weshalb du es erotischer findest ergebnisse möglichst unvergleichbar, unfair und parteiisch zu gestalten nur damit dein bedürfniss nach gehässiger selbstinszenierung befriedigt wird!? ;)

warum jammern eigentlich alle NV besitzer über die ATI BQ? ich mein warum nicht einfach glücklich damit sein das NV die bessere quali hat...da sind die verhältnisse wenigstens klar geregelt und jeder hersteller hat seine niesche.

wer maximale qualität will kauft ne NV...punkt aus basta! die welt kann so einfach sein :D

und sollte NV jemals wieder die qualität zurückdrehen braucht das hier auch keiner auf ATI abwälzen...es liegt nicht daran das ATI böse ist...nein es liegt daran das es einfach kaum markt relevanz und keinerlei lobby hat!
aufklärung wäre der weg zum ziel...nicht populismus in form von kruden "benchmark machenschaften" :wink:

nebenbei ist es echt traurig und ein passender zustandsbericht des forums hier, dass die meisten (ausnahmen bestätigen die regel) die über die ATI qualität rumheulen, am lautesten schreien und die ersten sind die nölen nichtmal selbst davon betroffen sind!? weh teh ehf? das ist wirklich albern sry :)

hier gehts doch echt nur noch um eine rot grüne schlammschlacht auf dem kinderspielplatz. :|



Ich lass das mal kommetarlos so stehen

frage: ist folgende aussage korrekt?
"HQ ist kein Treiberstandard im FW."

die einfache antwort wird dich unter umständen verblüffen! umfragen zu dem thema hier im forum sind so aussage kräftig wie umfragen auf einer startrek convention wieviele klingonisch als 3. fremdsprache beherrschen..naja mitm romulanisch hapert es ein wenig...skandalös da muss sofort drauf hingewiesen werden. ;D

Sven77
2008-11-24, 11:21:57
frage: ist folgende aussage korrekt?
"HQ ist kein Treiberstandard im FW."

Ja, diese Aussage ist korrekt.. andererseits wollte ich damit in Frage stellen, ob der "Treiberstandard" in irgendeinerweise representativ ist..


die einfache antwort wird dich unter umständen verblüffen! umfragen zu dem thema hier im forum sind so aussage kräftig wie umfragen auf einer startrek convention wieviele klingonisch als 3. fremdsprache beherrschen..naja mitm romulanisch hapert es ein wenig...skandalös da muss sofort drauf hingewiesen werden.

Naja, es gibt Menschen hier im Forum die ihr gesamtes Wissen auf 3dCenter-Umfragen gruenden.. Namen zu nennen waere aber unfair, da derjenige gesperrt ist ;)

K4mPFwUr$t
2008-11-24, 11:35:46
@Savay
ich stimme dir an sich zu, mit einem gewissen zusatz.
man sollte das so vergleichen wie du umschrieben hast.
und ein weiterer bench soll aufweisen wieviel leistungseinbruch die graka mit treiber xyz bei BQ hat gegebüber dem obrigen.

wäre imho der ideale test.

Gast
2008-11-24, 11:53:19
Besser wohl kaum.

Ist aber auch nicht verwunderlich, wenn ATI mit dem Zeug so Erfolg haben kann.

Und wie viele Jahre hat NV mit sch*** Bildqualität Erfolge gehabt und die Leute haben die Augen zugedrückt.

NV ist erst brauch bar seit dem G80 und ATI ist aktuell kaum schlechter, beim Zocken fällt das nicht auf. Dazu müssen schon Screenshots herhalten.

Unyu
2008-11-24, 11:58:11
das ganze z.B. mal als TITELSTORY auf irgend nem printmagazin!?! da können auch gerne so viele benchmarks rein wie die druckmaschine tinte liefert aber ohne die kunden aufzuklären wird es einfach nicht gehen...
Liest das überhaupt jemand, dieses böse Magazin ist doch von nVidia gekauft. ;)

Bei der AMD freundlichen Stimmung braucht es imho viele Magazine und genau deshalb bleibt der Wunsch ein Wunsch.

Und wie viele Jahre hat NV mit sch*** Bildqualität Erfolge gehabt und die Leute haben die Augen zugedrückt.ATi war auch nicht der helle Sonnenschein.

deekey777
2008-11-24, 12:37:50
Hat denn AMD in den Veröffentlichungsbenachrichtigen geschrieben, dass man keine Wassereffekte mit AA mehr rendern wird?
Hoffentlich, ansonsten ist das nämlich cheaten.
Belege bitte, dass es ein Cheat ist.

Gast
2008-11-24, 13:50:16
Liest das überhaupt jemand, dieses böse Magazin ist doch von nVidia gekauft. ;)

Bei der AMD freundlichen Stimmung braucht es imho viele Magazine und genau deshalb bleibt der Wunsch ein Wunsch.

ATi war auch nicht der helle Sonnenschein.

Unter OpenGL ist das mit dem Filtern auch noch so eine Sache bei NV. Das Flimmert es auch noch gewaltig.

Aber deine Meinung wirst du eh nicht überdenken, dafür habe ich schon zu viele Posts von dir gelesen vor allem auf PGHW.

Gast
2008-11-24, 14:20:53
Belege bitte, dass es ein Cheat ist.

Das wird man nie können, aber Ati fiel zuletzt häufiger auf mit solchen Dingen...man denkt sich seines dabei ;)

Ailuros
2008-11-24, 14:44:30
Und wie viele Jahre hat NV mit sch*** Bildqualität Erfolge gehabt und die Leute haben die Augen zugedrückt.

Ich auf jeden Fall nicht und ich war zu dieser Zeit sowohl ueber NV40 als auch G7x ein Mitglied des damaligen NV focus group.

Der Geschichte zu liebe habe ich mich beim NV40 mit dem damaligen Administrator von B3D in Kontakt gesetzt damit das ganze belegt wird und wurde links liegen gelassen. Beim G70 launch hatte ich dann die volle Unterstuetzung von Rys (heutigem Administrator von B3D) und wir schickten etliche e-mails an NVIDIA bis sie endlich aufgewacht sind. Demzufolge bekam ich den damaligen 78.13 beta in die Haende gedrueckt und schrieb sogar einen ausfuehrlichen Artikel darueber.

NV ist erst brauch bar seit dem G80 und ATI ist aktuell kaum schlechter, beim Zocken fällt das nicht auf. Dazu müssen schon Screenshots herhalten.

NV4x bzw. G7x hatten keine besondere Qualitaetsprobleme wenn man auf "high quality" geschaltet hat. Der Unterschied seit G80 ist lediglich dass das Umschalten von "quality" auf "high quality" meistens nicht der Rede Wert ist was die Leistung betrifft, ganz im Gegenteil zu den Vorgaengern.

Es haette mich lediglich ein paar Tage Zeit gekostet einen Artikel nach dem R600 launch zu schreiben.

1. Gab es nicht das geringste Interesse fuer die 2900XT, da sie ohnehin schon mit den Optimierungen hoffnungslos verloren gegen G80 war. Kurz keiner waere an so etwas interessiert gewesen und wenn's schon sein muss die Antwort war damals dass keiner besondere Lust hatte ein ohnehin schon problematisches Produkt in ein noch schlechteres Licht zu stellen.

2. Danach hatte ich weder Lust noch Zeit generell fuer irgend etwas relevantes, denn ich hab persoenlich die Nase voll jedesmal wenn ich etwas beruehrte ein paar Messer im Ruecken zu fuehlen. Mir wurde vor der Uebernahme von Rys bei B3D fast indirekt die Tuer gezeigt und nach all den Jahren hatte ich irgendwo die Nase voll.

3. ...und um zum brennenden Punkt zu kommen: AMD's Optimierungen knallen tatsaechlich nicht so ins Auge wie alles "quality" unter NV4x/G7x. Das ist aber trotz allem keine Entschuldigung dem Verbraucher nicht zu erlauben jegliche Optimierungen NICHT abschalten zu koennen.

So lange man diese nicht abschalten kann, bringt es auch nichts besonderes einen jeglichen Versuch zu machen. Ja man koennte tatsaechlich einen langen Artikel zusammenkritzeln mit screenshots, videos oder weiss der Geier was auch immer. Da man aber nicht vorzeigen kann wie die Leistung mit und ohne Optimierungen aussieht wird sich auch kein Schwein damit beschaeftigen. Koennte man die Optimierungen tatsaechlich abschalten und es wuerde zu einem sagen wir mal durchschnittlichen 20% Leistungs-Unterschied fuehren (was auch wirklich bemerkbar ist in Echtzeit), dann haette auch jede 0815 Seite Material dass auch die vielerwuenschten tausende von "hits" pro Tag bringen wuerde.

Am Ende des Tages bleibt nur eines: wenn es die Radeon Besitzer nicht schert und sich keiner darueber beschwert wird sich AMD auch nicht darum kuemmern. Wozu auch?

derguru
2008-11-24, 14:55:33
Natürlich filtert A.I. off besser.

ich sags mal so,wenn amd es nicht hinkriegen würde bei A.I.off ein vergleichbares AF vorzuzeigen wie HQ von nv können die es gleich lassen,das bissel was man durch A.I. off an BQ gewinnt ist totales korintenkacke,da muss man ja wirklich mit der lupe schauen.(flimmert fast identisch)

entweder flimmerfreies AF oder sonst können die es gleich so lassen meiner meinung nach.(wenn sie es überhaupt versuchen würden;))

Ailuros
2008-11-24, 15:33:50
ich sags mal so,wenn amd es nicht hinkriegen würde bei A.I.off ein vergleichbares AF vorzuzeigen wie HQ von nv können die es gleich lassen,das bissel was man durch A.I. off an BQ gewinnt ist totales korintenkacke,da muss man ja wirklich mit der lupe schauen.(flimmert fast identisch)

Bleibt die Frage dann eben was genau (wenn ueberhaupt) AI off genau ausschaltet was die AF Optimierungen betrifft.

entweder flimmerfreies AF oder sonst können die es gleich so lassen meiner meinung nach.(wenn sie es überhaupt versuchen würden;))

Ich will ernsthaft bezweifeln dass sich die AF relevanten Optimierungen nicht abschalten lassen. Man ueberlaesst einfach in diesem Fall dem Benutzer was er am Ende gebrauchen will. Und ja jegliche heutige Optimierungen leiten zu Nebeneffekten nur in Eckfaellen. Um die Eckfaelle geht es ja stets auf allen vorerwaehnten GPUs und wie tolerant jeder Verbraucher zu diesen sein kann. Absolute Perfektion wird es nirgends geben; man sollte aber als Verbraucher den Luxus haben diese so gut wie moeglich bekaempfen zu koennen wenn jemand A oder B dann jeweils stoert. Gott sei Dank haben die heutigen Radeons auch die (non edge detect) CFAA modi; etwas helfen diese dann meistens schon.

Gast
2008-11-24, 18:02:21
[QUOTE=Savay;6931877
und HQ ist eben NICHT mit AI off vergleichbar...Q mit AI on (ergo die treiberstandards) hingegen schon. [/QUOTE]



genau dieses märchen gehört endlich aus der welt geschafft.


erinnert mich irgendwie stark an ein paar jahre früher, als die ganzen NV-anhänger steif und fest behauptet haben G7x-standard wäre mit R5xx-standard vergleichbar.


es stimmt heute genauso wenig wie damals, ich bezweifle ob man mit G80+ überhaupt schafft eine dermaßen schlechte filterqualität wie ATIs momentander standard zu erreichen, in den defaulteinstellungen ist es jedenfalls nicht der fall. da gibt es bei NV nur brilinear (und das nichtmal besonders agressiv) und sonst nix, was man meistens garnicht mal sieht.

eine sample-optimierung lässt sich optional noch dazu einschalten, aber selbst damit flimmert es in den meisten fällen noch nicht, wo ATI bereits munter drauflosflimmert.


selbst AI-off ist immer noch sichtbar schlechter als NVs default.


die qualität sieht in etwa so aus: AI-on<AI-off<NV-default<NV-HQ

wie man sieht ist AI-off näher an NVs filterqualiät, als AI-on, also warum zwecks der vergleichbarkeit nicht ersteres nehmen?

Gast
2008-11-24, 18:03:47
soweit ich mich erinnere ist HQ kein treiberstandard :rolleyes:

AA/AF ist auch kein treiberstandard, also warum testen?

Gast
2008-11-24, 18:07:59
das ganze ist auch das erste was sie wieder opfern würden...eben weil es wenig marktrelevanz hat.

danke, du hast es erfasst, genau darum geht es nämlich, dem kunden zu zeigen, dass BQ eben wichtig ist, damit diese auch die ihr zustehende marktrelevanz bekommt.

weder NV noch ATI sind böse oder blöd, die einzig blöden sind die kunden, die sich das gefallen lassen, weshalb man für genügend aufklärung sorgen muss, damit die kunden eben nicht mehr blöd sind.

Ailuros
2008-11-24, 19:32:48
AA/AF ist auch kein treiberstandard, also warum testen?

Er meinte dass die default-Einstellung bei Installierung von Forceware Treibern "quality" und nicht "high quality" ist.

Gast
2008-11-24, 19:41:08
Er meinte dass die default-Einstellung bei Installierung von Forceware Treibern "quality" und nicht "high quality" ist.

ich weiß, aber scheinbar scheint er ja dagegen zu sein abseits von defaulteinstellungen zu testen, deshalb meine frage warum überhaupt mit AA/AF testen?

Black-Scorpion
2008-11-24, 19:41:12
Jetzt wird's lächerlich.

Mit A.I. off funktioniert unter anderem nicht:
- Crossfire AFR und SFR (was es praktisch deaktiviert)
- Anti-Aliasing in allen Spielen die es nicht selber anbieten
- Bugfix für Nebelproblem in Half-Life² (und sicher noch Bugfixes für andere Spiele)
- Sämtliche Shader-Replacements
Du hast aber schon gelesen worauf ich geantwortet habe?
Mir brauchst du das nicht erzählen, sondern dem Gast.

Coda
2008-11-24, 21:45:27
ich sags mal so,wenn amd es nicht hinkriegen würde bei A.I.off ein vergleichbares AF vorzuzeigen wie HQ von nv können die es gleich lassen,das bissel was man durch A.I. off an BQ gewinnt ist totales korintenkacke,da muss man ja wirklich mit der lupe schauen.(flimmert fast identisch)
Um es mal wieder zu zeigen:

A.I. an
http://www.mental-asylum.de/files2/aion.gif

A.I. aus
http://www.mental-asylum.de/files2/aioff.gif

Der Unterschied ist nicht nur mit der "Lupe" zu sehen. Mir ist das gleich ins Auge gesprungen.

Gast
2008-11-24, 21:54:02
NV ist erst brauch bar seit dem G80 und ATI ist aktuell kaum schlechter, beim Zocken fällt das nicht auf. Dazu müssen schon Screenshots herhalten.

genau umgekehrt, auf screenshots sieht ATIs AF manchmal sogar besser aus, da es schärfer wirkt, in bewegung flimmert es aber unerträglich.

Raff
2008-11-24, 21:59:09
[...] und ATI ist aktuell kaum schlechter, beim Zocken fällt das nicht auf. Dazu müssen schon Screenshots herhalten.

Genau das ist schlicht und einfach falsch. Gerade in Bewegung fallen die eingesparten Samples auf, was auch Codas Gifs zeigen.

Solche Aussagen zeigen eigentlich nur eines: Dass die meisten gar nicht wissen, wovon sie sprechen. ;( Aber immer schön auf die eintreten, die das stört.

MfG,
Raff

Nakai
2008-11-24, 22:02:55
er Unterschied ist nicht nur mit der "Lupe" zu sehen. Mir ist das gleich ins Auge gesprungen.


HL2? Hat doch sehr hochfrequente Texturen. Selbst mit solchen Texturen flimmerts auch bei NV. Wobei dieses GIF wirklich die Problematik zeigt.


mfg Nakai

Raff
2008-11-24, 22:04:58
Flimmern ist nicht gleich Flimmern. Es besteht ein Unterschied darin, ob man beim Umherlaufen ein leichtes Grieseln wahrnimmt oder ob einem anstatt eines Headcrabs aggressives Flimmer-Banding ins Gesicht springt.

MfG,
Raff

Gast
2008-11-24, 22:10:58
HL2? Hat doch sehr hochfrequente Texturen. Selbst mit solchen Texturen flimmerts auch bei NV.


eben nicht, für NV (ab G80) braucht es schon einiges mehr um zu flimmern, man sieht hier ja auch, dass es ATI deutlich besser kann, als mit AI.

Raff
2008-11-24, 22:13:25
Also zumindest mit Fakefactory-Mod und dessen fiesen Texturen kommt auch eine HQ-GeForce dezent ins Flimmern, das stimmt schon. Es sind aber Welten im Vergleich zu A.I. On. Auch NV-Treiberstandard sieht besser aus als A.I. Standard.

MfG,
Raff

Gast
2008-11-24, 22:17:20
Um es mal wieder zu zeigen:

A.I. an
http://www.mental-asylum.de/files2/aion.gif

A.I. aus
http://www.mental-asylum.de/files2/aioff.gif

Der Unterschied ist nicht nur mit der "Lupe" zu sehen. Mir ist das gleich ins Auge gesprungen.

pff
beim fsx und fs9 flimmterts bei mir viel kranker, das tut richtig weh und das mit der ner geforce 8, die müsste das doch so nach deinen angaben bestens meistern. mit der x1950 pro hat ich das ned
...

Raff
2008-11-24, 22:19:46
pff
beim fsx und fs9 flimmterts bei mir viel kranker, das tut richtig weh und das mit der ner geforce 8, die müsste das doch so nach deinen angaben bestens meistern. mit der x1950 pro hat ich das ned
...

"Negativer LOD-Bias" auf "Clamp" stellen. Ist's dann weg? Gegen ein negatives Textur-LOD ist noch kein Kraut gewachsen. Objektiv ist das eh Schwachsinn.

MfG,
Raff

derguru
2008-11-24, 22:47:57
Um es mal wieder zu zeigen:

A.I. an
http://www.mental-asylum.de/files2/aion.gif

A.I. aus
http://www.mental-asylum.de/files2/aioff.gif

Der Unterschied ist nicht nur mit der "Lupe" zu sehen. Mir ist das gleich ins Auge gesprungen.

ok dagegen kann man nichts sagen aber wieviele games zeigen solch extremen unterschiede 1,2,oder 3:confused:
jetzt kommt sicherlich es sollte keins sein.flimmerfrei wäre mir trotzdem lieber.

Coda
2008-11-24, 22:51:32
Wenn ähnliche Texturen in anderen Spielen verwendet werden dann ist das Ergebnis sehr wahrscheinlich das gleiche.

Und so extrem hochfrequent ist diese Textur dann auch nicht.

Gast
2008-11-24, 22:54:19
Um es mal wieder zu zeigen:

A.I. an
http://www.mental-asylum.de/files2/aion.gif

A.I. aus
http://www.mental-asylum.de/files2/aioff.gif

Der Unterschied ist nicht nur mit der "Lupe" zu sehen. Mir ist das gleich ins Auge gesprungen.

Das obere läuft schneller ab, ergo schlechter Vergleich.

Coda
2008-11-24, 23:00:04
Nein tut es nicht. Zeitskala und Zeitpunkte sind exakt identisch.

Abgesehen davon ist es total lächerlich das augenscheinliche Texturflimmern damit wegdiskutieren zu wollen.

derguru
2008-11-24, 23:20:26
mit gifs ist natürlich komfortabeler,hab es aber versucht klein zuhalten.

nicht das jemand denkt ich erfinde das um leute zu ärgern,ich seh da z.b. keine unterschiede.

EDIT: hab noch 2 games dazu getan(saugt es über megaload ist schneller als rapid)

A.I.on
wargame on.avi (http://www.1filesharing.com/download/AHHJNHSR)
Gw on.avi (http://www.1filesharing.com/download/1CID0AQD)
Fallout3ng ON.avi (http://www.1filesharing.com/download/VZ5XRBQS)
------------------------------------------------------------------------------
A.I.off
wargame off.avi (http://www.1filesharing.com/download/SUJKHYUQ)
Gw off.avi (http://www.1filesharing.com/download/0ADFJ9TN)
Fallout3ng OFF.avi (http://www.1filesharing.com/download/1G8YSSWA)

Coda
2008-11-24, 23:24:51
Dort kann man das auch nicht sehen, die Texturen sind viel zu niederfrequent und es liegt fast keine Texturverzerrung vor - rein Trilinear sollte es dann doch noch nicht flimmern.

Geh mal irgendwo auf nem Gitter entlang und schau auf den Boden.

Savay
2008-11-25, 00:58:27
ich weiß, aber scheinbar scheint er ja dagegen zu sein abseits von defaulteinstellungen zu testen, deshalb meine frage warum überhaupt mit AA/AF testen?

weil AA/AF mittlerweile in jedem billigspiel ingame in den optionen einstellbar ist! nicht jeder fummelt im treiber oder gar mit nhancer an seinen treibereinstellungen rum. :wink:

was meinst du wieviele NV käufer/besitze ausserhalb dieses forums wissen was der texture quality schalter macht?
es war doch schon ne unendliche geschichte den leuten überhaupt den nutzen von FSAA und AF nahe zu bringen wenn ich nur ein paar jahre zurückdenke.
ist garnichtmal so lange her da war man damit sogar hier im forum eher in der minderheit, muss so zu zeiten meiner GF4Ti gewesen sein. :rolleyes:

fakt ist BQ verkauft sich erstmal relativ schlecht weil es nicht benchbar ist und es einfach keinen 3DQualityMark Vantage gibt und genau dort muss zuerst angesetzt werden bevor man AMD irgendwie zwingen möchte seinen treiber anzupassen.

solange es nur nen paar "irre" im 3DC forum juckt ist es schlicht eine müßige diskussion. :cool:

Ailuros
2008-11-25, 07:11:32
ich weiß, aber scheinbar scheint er ja dagegen zu sein abseits von defaulteinstellungen zu testen, deshalb meine frage warum überhaupt mit AA/AF testen?


Weil man eigentlich die Kraft einer =/>mainstream GPU eher damit testen will und nicht den Rest des Systems? Noch schlimmer wird es wenn man SLi/CF configs zur Hand nimmt.

Ein jeglicher Reviewer traegt hier die Verantwortung die vergleichbarsten Einstellungen fuer alle getesten GPUs einzusetzen. Glaubt ihr ernsthaft dass sich die Mehrzahl der Reviewers hinhocken und ein Spiel wirklich um eine Zeit lang durchspielen? Ein timedemo oder eine gespeicherte Frequenz wird benutzt und sie notieren in der Mehrzahl nur das Resultat. Natuerlich gibt es Ausnahmen aber die sind extrem selten.

In der Mehrzahl werden Nebeneffekte in Spielen meistens von den Verbrauchern entdeckt. Ausser den paar Faellen wo ein jeglicher IHV angeblichen "cheat X" notiert und diesen an Reviewers und/oder die Presse weiterleitet (direkt oder indirekt).

solange es nur nen paar "irre" im 3DC forum juckt ist es schlicht eine müßige diskussion.

Jetzt mal ganz ehrlich wenn Dich Nebeneffekt X nicht stoert oder es nur sehr schwer wahrnehmen kannst, dann wuerde es auch Dich nicht jucken. Nicht jeder hat die gleiche Empfindlichkeit wenn es zur Bildqualitaet kommt.

Die brennende Frage ist hier eher ob jeglicher "Irre" in jeglichem Forum alle Nebeneffekte auf allen GPUs wahrnehmen will oder ob sie nur parteiisch ausgesucht werden. Elegant unter den Teppich kehren ist auch eine Option ;)

Mr. Lolman
2008-11-25, 08:08:12
. Objektiv ist das eh Schwachsinn.

MfG,
Raff

Nö. Schau dir mal zB. die Palmen in Crysis mit LOD 0 und LOD -1 an.

Sven77
2008-11-25, 12:21:25
Nö. Schau dir mal zB. die Palmen in Crysis mit LOD 0 und LOD -1 an.

Was ist mit denen (hab kein Crysis installiert)

Mr. Lolman
2008-11-25, 12:27:25
Was ist mit denen (hab kein Crysis installiert)

Genau das Gleiche wie mit fast allen alphatestbasierenden Strukturen. Mit negativem LOD sind die deutlich detailreicher.

Ist auch ein Mitgrund warum Bilder mit OGSSAA häufig deutlich besser aussehen, als Bilder mit MSAA+Transparenz-AA.

Gast
2008-11-25, 14:19:13
ok dagegen kann man nichts sagen aber wieviele games zeigen solch extremen unterschiede 1,2,oder 3:confused:

jedes spiel, welches derartige texturen einsetzt, oder sollen wir jetzt den designern vorschreiben keine detailierten texturen mehr verwenden zu dürfen, nur damit ATI-karten auch nicht flimmern?

Gast
2008-11-25, 14:40:57
Genau das Gleiche wie mit fast allen alphatestbasierenden Strukturen. Mit negativem LOD sind die deutlich detailreicher.


und flimmern noch mehr.

nein danke, ich muss nicht eh schon flimmernde AT noch mehr flimmern lassen.

Gast
2008-11-25, 17:33:21
Und was passiert wenn man den LOD mit den ATT erhöht?

Mr. Lolman
2008-11-25, 17:54:35
und flimmern noch mehr.

nein danke, ich muss nicht eh schon flimmernde AT noch mehr flimmern lassen.

Wenns eh schon flimmern, ists ja wurscht. Außerdem kann zB. ja TRSSAA in solchen Fällen durchaus eine LOD-Anpassung vertragen...

Und was passiert wenn man den LOD mit den ATT erhöht?

Dann wirds unschärfer...

Gast
2008-11-25, 17:58:26
Dann wirds unschärfer...

und flimmerts dann weniger?

Ailuros
2008-11-25, 18:47:04
Wenns eh schon flimmern, ists ja wurscht.

Nun auf die Antwort hab ich seit den vorigen Posts LOL. Sonst macht der Rest auch keinen besonderen Sinn. Ich haette nie gedacht dass bei negativen Effekten auch Homooepathie Erfolge haben koennte.

Außerdem kann zB. ja TRSSAA in solchen Fällen durchaus eine LOD-Anpassung vertragen...

Wenn jegliche Form von Supersampling keinen LOD offset mit sich bringt, dann ja aber dann auch stets -0.5 fuer je 2x samples. Im Fall von Transparenz AA wenn kein LOD offset damit kommt vertragen die alpha Texturen den LOD offset schon, aber es leiden auch leider alle andere Texturen von noch schlimmeren Nebeneffekten als ohne LOD offset.

Soll dass jetzt ein neuer Trend sein oder was?

Mit negativem LOD sind die deutlich detailreicher.

Was ist sonst neu? Das heisst trotzdem nicht dass negativer LOD (mit Aussnahme den vorerwaehnten Supersampling Faellen) fuer bessere Bildqualitaet sorgt. Tanzende Maeander auf einer Bildflaeche sind objektiv nicht ideale Bildqualitaet.

Mr. Lolman
2008-11-25, 19:06:40
Nun auf die Antwort hab ich seit den vorigen Posts LOL. Sonst macht der Rest auch keinen besonderen Sinn. Ich haette nie gedacht dass bei negativen Effekten auch Homooepathie Erfolge haben koennte.



Wenn jegliche Form von Supersampling keinen LOD offset mit sich bringt, dann ja aber dann auch stets -0.5 fuer je 2x samples. Im Fall von Transparenz AA wenn kein LOD offset damit kommt vertragen die alpha Texturen den LOD offset schon, aber es leiden auch leider alle andere Texturen von noch schlimmeren Nebeneffekten als ohne LOD offset.

Soll dass jetzt ein neuer Trend sein oder was?



Was ist sonst neu? Das heisst trotzdem nicht dass negativer LOD (mit Aussnahme den vorerwaehnten Supersampling Faellen) fuer bessere Bildqualitaet sorgt. Tanzende Maeander auf einer Bildflaeche sind objektiv nicht ideale Bildqualitaet.

Ich geb dir absolut recht. Tatsächlich gefällt mir persönlich zB Assassins Creed und aber auch Crysis (in einer speziellen Konfiguration (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=431998)) mit negativem LOD auf ner ATI insgesamt besser als mit LOD 0.0...

Coda
2008-11-25, 19:08:01
Wer mit negativem LOD spielt braucht sich an der Filterdiskussion aber auch nicht beteiligen. Das disqualifiziert von vornherein, weil es einem dann eh egal ist ob unterfiltert wird.

Gast
2008-11-25, 19:13:17
Ich geb dir absolut recht. Tatsächlich gefällt mir persönlich zB Assassins Creed und aber auch Crysis (in einer speziellen Konfiguration (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=431998)) mit negativem LOD auf ner ATI insgesamt besser als mit LOD 0.0...

Postet doch mal Vergleichsbilder mit oder ohne LOD...ich habe keine Ahnung was damit gemeint ist.

Coda
2008-11-25, 19:16:51
Das bezweifel ich auch nicht. Aber gut finden muss man es deshalb noch lange nicht, zumal es wohl auch einige Leute gibt denen sowas nicht egal ist.

Ailuros
2008-11-25, 19:21:13
Wer mit negativem LOD spielt braucht sich an der Filterdiskussion aber auch nicht beteiligen. Das disqualifiziert von vornherein, weil es einem dann eh egal ist ob unterfiltert wird.

Eben.

Ich geb dir absolut recht. Tatsächlich gefällt mir persönlich zB Assassins Creed und aber auch Crysis (in einer speziellen Konfiguration) mit negativem LOD auf ner ATI insgesamt besser als mit LOD 0.0...

Siehe oben.

Mr. Lolman
2008-11-25, 19:22:41
Wer mit negativem LOD spielt braucht sich an der Filterdiskussion aber auch nicht beteiligen. Das disqualifiziert von vornherein, weil es einem dann eh egal ist ob unterfiltert wird.

Nö. Ich such mir nur das geringere Übel aus. Und gerade bei Spielen mit intensiver Alphatestnutzung stechen mir als alter 3dfx-SSAA-Veteran suboptimale Alphatests ins Auge.

Wobei mein persönliches Optimum, ehrlich gesagt, generell bei einem Default-LOD von -0.5 und einem entsprechend überfilternden AF-Kernel, liegen würde.

Coda
2008-11-25, 19:26:20
Wobei mein persönliches Optimum, ehrlich gesagt, generell bei einem Default-LOD von -0.5 und einem entsprechend überfilternden AF-Kernel, liegen würde.
Das ergibt überhaupt gar keinen Sinn. Was du willst ist einen höheren AF-Grad, was anderes ist das nämlich nicht.

Ailuros
2008-11-25, 19:47:44
Das ergibt überhaupt gar keinen Sinn. Was du willst ist einen höheren AF-Grad, was anderes ist das nämlich nicht.

Frage ist ob es je zu einem hoeherem AF Grad kommen wird oder ob in der weniger absehbaren Zukunft bessere Filterung als anisotropie auftaucht.

-----------------

So und jetzt zurueck zum eigentlichen Thema:

http://www.fudzilla.com/index.php?option=com_content&task=view&id=10621&Itemid=1

Coda
2008-11-25, 20:07:34
Frage ist ob es je zu einem hoeherem AF Grad kommen wird oder ob in der weniger absehbaren Zukunft bessere Filterung als anisotropie auftaucht.
Man kann höchstens den Grundfilter verbessern (Bikubisch anstatt Bilinear), aber das hat nichts mit der Anzahl der Samples zu tun die man nehmen sollte.

Gast
2008-11-25, 20:21:11
Wobei mein persönliches Optimum, ehrlich gesagt, generell bei einem Default-LOD von -0.5 und einem entsprechend überfilternden AF-Kernel, liegen würde.

also effektiv einfach eine halbe AF-stufe höher bei korrektem filter.

Mr. Lolman
2008-11-25, 20:30:24
Das ergibt überhaupt gar keinen Sinn. Was du willst ist einen höheren AF-Grad, was anderes ist das nämlich nicht.

Nö. Ich will mehr Informationen orthogonal zur Line of Anisotropy. Das geht aktuell nur mit SSAA oder negativem LOD. Eine Verbreiterung des Footprints täts allerdings auch... ;)

Coda
2008-11-25, 20:41:49
Nö. Ich will mehr Informationen orthogonal zur Line of Anisotropy.
Wieso? Das ergibt keinen Sinn, da der Footprint so gewählt ist dass er das jeweilige zu samplende komplett einschließt. Es wird also bereits ausreichend gefiltert.

Wenn hier "falsch" gefiltert wird, dann bereits bei der Generierung der Mipmaps. Das ist aber kein Problem des GPU-Filters.

Das geht aktuell nur mit SSAA oder negativem LOD.
Negatives LOD macht nichts dergleichen. Das LOD wird erst angewendet wenn die Sampleposition bereits bestimmt ist.

Eine Verbreiterung des Footprints täts allerdings auch... ;)
Siehe oben. Eine Verbreiterung des Footprints wäre übrigens genau das gleiche wie positives LOD.

deekey777
2008-11-25, 21:47:32
...
-----------------

So und jetzt zurueck zum eigentlichen Thema:

http://www.fudzilla.com/index.php?option=com_content&task=view&id=10621&Itemid=1

http://www.fudzilla.com/index.php?option=com_content&task=view&id=10575&Itemid=65


All of this means that ATI will certainly be back with its HD 4870 card, but the performance increase is still unknown, as the 8.12 is still not available for beta testing, but we will get back to you as soon as we manage to get some new info.
Er könnte insoweit Recht haben, weil der Treiber immernoch nicht geleakt wurde. :biggrin:
Andererseits gab's zur Zeit der Stream-Sache (so rund um den 13. November) Meldungen, dass der Treiber zum Testen an die Hersteller weitergeleitet wurde.
So ein Supermonster-Treiber ist der 180.48 eigentlich nicht, http://www.fudzilla.com/index.php?option=com_content&task=view&id=10623&Itemid=40&limit=1&limitstart=1
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/beratung_nvidia_geforce_18048/8/#abschnitt_performancerating

AnarchX
2008-11-25, 21:57:07
So ein Supermonster-Treiber ist der 180.48 eigentlich nicht, http://www.fudzilla.com/index.php?option=com_content&task=view&id=10623&Itemid=40&limit=1&limitstart=1
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/beratung_nvidia_geforce_18048/8/#abschnitt_performancerating
Dafür scheinen aber kommende 180er einiges an Potential zu haben:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6934234#post6934234

Mr. Lolman
2008-11-25, 22:53:10
Postet doch mal Vergleichsbilder mit oder ohne LOD...ich habe keine Ahnung was damit gemeint ist.

Hier sieht mans gut:

Beidemale mit 16xAF einmal zusätzlich mit LOD -1.
http://www.abload.de/thumb/untitled-4d584.jpg (http://www.abload.de/image.php?img=untitled-4d584.jpg) http://www.abload.de/thumb/untitled-4a99k7.jpg (http://www.abload.de/image.php?img=untitled-4a99k7.jpg)

Gast
2008-11-26, 11:57:46
eigentlich nichts neues, dass sich negatives LOD auf screenshots ganz gut macht, gibt ja auch genug leute die ATIs AF auf screenschots als das bessere bezeichnen.

Gast
2008-11-26, 12:43:27
Hier sieht mans gut:

Beidemale mit 16xAF einmal zusätzlich mit LOD -1.......

Thx, nur was bedeutet LOD ?

Sven77
2008-11-26, 12:48:04
Level of Detail...

Im laufenden Spiel dürfte der Unterschied aber nicht auffallen, höchstens durch höheres Flimmern..

Gast
2008-11-26, 12:55:13
Thx, nur was bedeutet LOD ?

Irgendwie finde ich keine Unterschiede. Bringt denn LOD was ? LOD = FOV ?¿

Gast
2008-11-26, 12:57:14
Irgendwie finde ich keine Unterschiede. Bringt denn LOD was ? LOD = FOV ?¿

Nun stelle ich doch ein gewisses "Sharpen" bei den Texturen fest. Dann ist LOD doch nichts anderes als AF16 oder mehr ?

Sven77
2008-11-26, 13:06:43
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_forceware_vergleich/10/

Coda
2008-11-26, 13:18:24
Nun stelle ich doch ein gewisses "Sharpen" bei den Texturen fest. Dann ist LOD doch nichts anderes als AF16 oder mehr ?
Nein. Es wird dadurch eine zu große Mip gewählt die der Filter aber nicht genügend abtastet.

Gast
2008-11-27, 02:57:46
So ein Supermonster-Treiber ist der 180.48 eigentlich nicht, http://www.fudzilla.com/index.php?option=com_content&task=view&id=10623&Itemid=40&limit=1&limitstart=1
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/beratung_nvidia_geforce_18048/8/#abschnitt_performancerating

Es geht weniger um Geschwindigkeit aber man sieht schon das Nvidia was Kompatibilität angeht deutlich überlegen ist, bei Ati muss dauernd irgendwas nachgebessert werden.
Neuestes Beispiel: http://enthusiast.hardocp.com/article.html?art=MTU4OSw4LCxoZW50aGlzdWFzdA==
In the screenshot above, on the AMD side, there are odd lighting artifacts in the form of strange lines going through the shadows cast by the player's flashlight. But on the NVIDIA side, the shadow looks as it should. Note that the grainy quality is simply a result of the game's “Film Grain” option.

Savay
2008-11-27, 06:37:11
neuester unsinn...ist schon cat 8.12 raus der für diese (nicht veröffentlichten spiele) optimiert ist? bzw wurde das mit einem ati treiber getestet der das spiel schon kennt? :rolleyes:

merkst du garnicht das du in diesem fall nen marketing opfer bist? :tongue:

eines muss man nv echt vollkommen neidlos lassen...die bessere werbeabteilung haben sie allemal. allein das x-fache rebranding von GPUs ist schlicht nen geniestreich ;D

Unyu
2008-11-27, 11:35:38
bei Ati muss dauernd irgendwas nachgebessert werden.
Neuestes Beispiel: http://enthusiast.hardocp.com/article.html?art=MTU4OSw4LCxoZW50aGlzdWFzdA==
Ist sicher nur ein Bug, nachdem alle Welt das Ding durchgebencht hat, wird er auch vielleicht behoben. ;)

Coda
2008-11-27, 11:47:53
neuester unsinn...ist schon cat 8.12 raus der für diese (nicht veröffentlichten spiele) optimiert ist? bzw wurde das mit einem ati treiber getestet der das spiel schon kennt? :rolleyes:D
Warum muss ein Treiber ein Spiel "kennen"?

Ich könnte wetten, dass diese Fehler auch mit einem älteren Forceware nicht auftreten.

V2.0
2008-11-27, 11:58:25
Tut er auch nicht. Ich habe L4D ohne Probleme mit einem 178WHQL gespielt bevor ich auf den neuen 180,XX BingBang WHQL gegangen bin.

deekey777
2008-11-27, 14:07:51
Ist sicher nur ein Bug, nachdem alle Welt das Ding durchgebencht hat, wird er auch vielleicht behoben. ;)
Red keinen Mist, das nervt so langsam.


Zu Left4Dead: Ich weiß nicht, was da [H] angestellt hat, aber ich habe diese Fehler mit meiner HD3850 nicht (X58-Hotfix).

Gast
2008-11-27, 18:05:50
Ist sicher nur ein Bug, nachdem alle Welt das Ding durchgebencht hat, wird er auch vielleicht behoben. ;)

Malschaun ob beim nächsten Catalyst auch die "verlorenen" Effekte in UT3 und CoD4 wieder vorhanden sind. Ich hege da Zweifel...hoffentlich wird das von PCGH auch überprüft bzw. lässt man sich nicht nur von Benchmarks blenden.

Gast
2008-11-27, 18:10:22
neuester unsinn...ist schon cat 8.12 raus der für diese (nicht veröffentlichten spiele) optimiert ist? bzw wurde das mit einem ati treiber getestet der das spiel schon kennt? :rolleyes:


Das ist sowas von Wayne. Hört endlich auf solchen Mist zu glauben nur weil Ati nicht in den Support reinbuttert ist nicht automatisch Nvidia Schuld. Früher hat es auch niemanden gejuckt als Farcry auf Ati Karten optimiert wurde. Das ist das Pech von Ati und der Kunde muss das ausbaden und dauernd auf Bugfixes warten.

Gast
2008-11-27, 19:10:23
Das ist sowas von Wayne. Hört endlich auf solchen Mist zu glauben nur weil Ati nicht in den Support reinbuttert ist nicht automatisch Nvidia Schuld. Früher hat es auch niemanden gejuckt als Farcry auf Ati Karten optimiert wurde. Das ist das Pech von Ati und der Kunde muss das ausbaden und dauernd auf Bugfixes warten.
Ist Farcry nicht ein twimtbp Spiel?

deekey777
2008-11-27, 20:07:42
Das ist sowas von Wayne. Hört endlich auf solchen Mist zu glauben nur weil Ati nicht in den Support reinbuttert ist nicht automatisch Nvidia Schuld. Früher hat es auch niemanden gejuckt als Farcry auf Ati Karten optimiert wurde. Das ist das Pech von Ati und der Kunde muss das ausbaden und dauernd auf Bugfixes warten.
Wann wurde Far Cry auf ATi optimiert?

horn 12
2008-11-27, 20:18:59
WANN kann man mit dem Beta 8.12 oder einem Hotfix VOR dem offiziellen Cat 8.12 welcher am 10. Dezember erscheint rechnen, oder wird da wenig kommen?

Gast
2008-11-27, 22:05:20
Wann wurde Far Cry auf ATi optimiert?

Farcry Teil 1 natürlich, lief auf NV Karten nur mit Hacks langezeit fehlerfrei, erst zum Launch der 6800 Ultra kam ein SM3 Patch der diese Probleme behob.

Gast
2008-11-27, 22:17:04
Wann wurde Far Cry auf ATi optimiert?

http://ati.amd.com/gitg/promotions/crytek/ The Project war ja auch Ati sponsored und es gab ne Techdemo " “This demo demonstrates specific technical achievements of Radeon® cards, and we are big supporters of ATI's efforts in this area. We love ATI!”"

deekey777
2008-11-27, 23:31:44
Farcry Teil 1 natürlich, lief auf NV Karten nur mit Hacks langezeit fehlerfrei, erst zum Launch der 6800 Ultra kam ein SM3 Patch der diese Probleme behob.
Langzeitgedächtnis im Eimer? Far Cry 1.0 lief fehlerfrei, dann kam der erste Patch, der - wohl zur Verbesserung der Performance - bei Beleuchtung auf Very High Fehler verursachte, siehe hier:

Far Cry's niedrigere Bildqualität auf NVIDIA Karten - kein Bug!

Wir haben hier die gespeicherten Shader(<2.0 weggelassen, zwecks Übersichtlichkeit), welche auf dem NV3x und dem R3xx in den unten gezeigten Level laufen. Bei NVIDIA's NV3x werden an manchen Stellen 1.1'er Shader eingesetzt, wo man auf ATi's R3xx 2.0'er bekommt. Dadurch ist die teilweise niedrigere Bildqualität auf NV3x Karten zu erklären. Beide Screenshots stammen von der Radeon 9800 Pro, einmal per 3D-Aanalyze(noch nicht erhältliche Betaversion!) als NVIDIA Karte "getarnt" und einmal nicht...

http://www.tommti-systems.de/start.html -> Archiv -> April 2004.
Also wo wurde da auf einen oder anderen IHV optimiert?
http://ati.amd.com/gitg/promotions/crytek/ The Project war ja auch Ati sponsored und es gab ne Techdemo " “This demo demonstrates specific technical achievements of Radeon® cards, and we are big supporters of ATI's efforts in this area. We love ATI!”"
Was hat The Project (Ende 2004) mit dem Spiel Far Cry (März 2004) zu tun?

Gast
2008-11-27, 23:47:42
Langzeitgedächtnis im Eimer? Far Cry 1.0 lief fehlerfrei, dann kam der erste Patch, der - wohl zur Verbesserung der Performance - bei Beleuchtung auf Very High Fehler verursachte, siehe hier:


Eben...macht aber keinen Unterschied und zeigt das Ati da mit Crytek im Boot war und nur für deren Karten optimiert wurde! Oder wieso sonst hat es solange gedauert bis der Fehler offiziell gefixt wurde?

http://www.tommti-systems.de/start.html -> Archiv -> April 2004.
Also wo wurde da auf einen oder anderen IHV optimiert?

Dieser Hack war auch von mir gemeint.


Was hat The Project (Ende 2004) mit dem Spiel Far Cry (März 2004) zu tun?

Vieleicht weil The Project das Nachfolgeprdukt von Farcry werden sollte? "The ATI-Crytek demo uses same next-generation CryENGINE that will be used to create the successor to Far Cry."

Gast
2008-11-27, 23:57:57
Es ging aber primär darum das Farcry damals vorrangig auf Ati Karten optimiert wurde, ob offiziell oder nicht heute geht man anders mit diesem Thema um. ;)

deekey777
2008-11-28, 01:17:11
Far Cry war nie auf einen bestimmten IHV optimiert, was soll dieser Unsinn? Das Spiel hatte von Anfang an die nötigen Profile für die FX und für die Radeons.

Coda
2008-11-28, 01:19:58
Crytek hat damals sogar extra 1.4er Shader für die FXen geschrieben, damit diese nicht so extrem einbrechen.

Gast
2008-11-28, 01:46:59
Far Cry war nie auf einen bestimmten IHV optimiert, was soll dieser Unsinn? Das Spiel hatte von Anfang an die nötigen Profile für die FX und für die Radeons.

Natürlich war es das. Wie ich bereits schrieb geht man heute anders mit dem Thema um. Damals kann ich mich noch ganz genau erinnern das jemand von Crytek sagte das in deren Rechner lediglich Ati Karten liefen da diese leistungsstärker seien und das Game auf R300 Karten optimiert wurde. Ob offiziell gegen Cash oder nicht, ist wieder ein ganz anderes Thema.

Gast
2008-11-28, 01:55:50
Crytek hat damals sogar extra 1.4er Shader für die FXen geschrieben, damit diese nicht so extrem einbrechen.

Und dennoch wurde es auf R300 optimiert von Anfang an. Die Geforce Ti4600 hatte nicht viel zu lachen damals.

Coda
2008-11-28, 02:11:16
Die TI4600 hat auch wesentlich weniger Rechen- und nutzbare Texturleistung? Was ist das denn für ein sinnloser Vergleich?

deekey777
2008-11-28, 02:21:11
Natürlich war es das. Wie ich bereits schrieb geht man heute anders mit dem Thema um. Damals kann ich mich noch ganz genau erinnern das jemand von Crytek sagte das in deren Rechner lediglich Ati Karten liefen da diese leistungsstärker seien und das Game auf R300 Karten optimiert wurde. Ob offiziell gegen Cash oder nicht, ist wieder ein ganz anderes Thema.
Das Spiel ist genauso auf ATi-Grafikkarten optimiert wie es Tomb Raider AoD war: Man zeigte einfach die eklatanten Schwächen der ersten FX-Generation unter der Nutzung des SM 2.
Ich hoffe, dass dieser Unsinn spätestens jetzt aufhört: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=158013
Da hast du Schwarz auf Weiß, wie toll Far Cry auf R300 optimiert war.

Gast
2008-11-28, 03:02:08
Das Spiel ist genauso auf ATi-Grafikkarten optimiert wie es Tomb Raider AoD war: Man zeigte einfach die eklatanten Schwächen der ersten FX-Generation unter der Nutzung des SM 2.
Ich hoffe, dass dieser Unsinn spätestens jetzt aufhört: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=158013
Da hast du Schwarz auf Weiß, wie toll Far Cry auf R300 optimiert war.

Du scheinst mich irgendwie falsch zu verstehen. Es geht mir nicht darum zu beweisen das Ati da genug Cash reingebuttert hat, damit Farcry gut auf deren Karten läuft, es geht darum das Crytek seinerzeit aufgrund stärkerer Ati Karten auf eben jene ihr Farcry optimiert hat. So nun kommen wir mal wieder zurück zur Gegenward Farcry2&Co und was sehen wir? Alle jammern rum und werfen Nvidia Betrug vor weil sie schneller mit ihren Hausaufgaben fertig werden und kundenfreundlicher dank twimtbp arbeiten? Wem hat das damals interessiert? Wurde da auch gewartet bis Nvidia ihre Performancetreiber fertig hat?

Coda
2008-11-28, 03:48:08
es geht darum das Crytek seinerzeit aufgrund stärkerer Ati Karten auf eben jene ihr Farcry optimiert hat.
Haben sie nicht mehr oder weniger als auf CineFX. Der zeitliche Aufwand für die PS1.4-Shader extra für die GeForce-Karten war sicher wesentlich höher als alles was sie für Radeons tun mussten um gute Performance zu bekommen.

Deshalb ist das einfach nur Quatsch.

Gast
2008-11-28, 04:13:35
Haben sie nicht mehr oder weniger als auf CineFX. Der zeitliche Aufwand für die PS1.4-Shader extra für die GeForce-Karten war sicher wesentlich höher als alles was sie für Radeons tun mussten um gute Performance zu bekommen.

Deshalb ist das einfach nur Quatsch.


"in der aktuellen pcgames werden die macher von far cry interviewt. auf die frage ob bei ihnen die nvidia karten unter dx9 "abkacken" wichen sie dier frage aus, und meinten, dass dx9 die schnittstelle für ati karten in far cry sein wird, und opengl für nvidia karten. so könne man auf beiden karten die gleiche performance bei gleicher bildquali bringen."
;)

Gast
2008-11-28, 04:23:49
Belassen wir es dabei, es kann ja eh keiner beweisen was wirklich da hinter den Kulissen ablief. Fakt ist Ati Karten hatten damals die beste Leistung , NVidia Karten sahen alt aus und hatten mit Problemen zu kämpfen. Genauso war es auch bei Crysis nur war da natürlich twimtbp Schuld weil die Ati so mies abschnitten...

Black-Scorpion
2008-11-28, 11:41:55
"in der aktuellen pcgames werden die macher von far cry interviewt. auf die frage ob bei ihnen die nvidia karten unter dx9 "abkacken" wichen sie dier frage aus, und meinten, dass dx9 die schnittstelle für ati karten in far cry sein wird, und opengl für nvidia karten. so könne man auf beiden karten die gleiche performance bei gleicher bildquali bringen."
;)
Wolltest du wirklich der FX auch noch SM2 Shader anbieten?
Die Aussage bezieht sich nicht darauf das auf ATI optimiert wurde sondern viel eher auf die miese SM2 Performance der FX.
Crytek blieb ja gar nichts anderes übrig als entweder OGL oder SM1.4 für die FX anzubieten.

Und die 4600er in die Diskussion zu bringen kann auch nur ein Witz sein.
Das war eine DX8.1 Karte die noch nicht mal SM1.4 konnte.

deekey777
2008-11-28, 12:15:35
"in der aktuellen pcgames werden die macher von far cry interviewt. auf die frage ob bei ihnen die nvidia karten unter dx9 "abkacken" wichen sie dier frage aus, und meinten, dass dx9 die schnittstelle für ati karten in far cry sein wird, und opengl für nvidia karten. so könne man auf beiden karten die gleiche performance bei gleicher bildquali bringen."
;)
Und diese Aussage ist Quatsch, denn der OpenGL-Modus war nicht spielbar (nicht "nicht wählbar", sondern unspielbar),

Coda
2008-11-28, 12:42:42
"in der aktuellen pcgames werden die macher von far cry interviewt. auf die frage ob bei ihnen die nvidia karten unter dx9 "abkacken" wichen sie dier frage aus, und meinten, dass dx9 die schnittstelle für ati karten in far cry sein wird, und opengl für nvidia karten. so könne man auf beiden karten die gleiche performance bei gleicher bildquali bringen."
So what?

OpenGL erlaubte damals auch längere Shaderprogramme mit FX12-Datentypen auf FX-Karten als Direct3D 9. Zu Zeiten dieses Interviews wurde anscheinend angenommen, dass man wirklich OpenGL für NVIDIA-Karten verwenden wird, was im Endeffekt gar nicht der Fall war.

Wie auch immer, extra dafür OpenGL zu verwenden wäre kein Aufwand oder was? Was redest du eigentlich?

Gast
2008-11-28, 16:25:23
So what?

OpenGL erlaubte damals auch längere Shaderprogramme mit FX12-Datentypen auf FX-Karten als Direct3D 9. Zu Zeiten dieses Interviews wurde anscheinend angenommen, dass man wirklich OpenGL für NVIDIA-Karten verwenden wird, was im Endeffekt gar nicht der Fall war.

Wie auch immer, extra dafür OpenGL zu verwenden wäre kein Aufwand oder was? Was redest du eigentlich?

Natürlich konnte man auch OpenGL wählen, nur gab es dort Grafikfehler. Aber es ging mir darum zu zeigen das Crytek von Anfang an Ati Karten als optimale DX9 Plattformkarten sahen. Also wurde es auch vorrangig auf diese Karten optimiert, was auch daran zu sehen ist das man den Nachfolger "The Project" als Techdemo nur auf Ati Karten lauffähig brachte.

Ailuros
2008-11-28, 17:56:09
So langsam reicht es mit der unendlichen Crytek Saga. Crytek wollte am Anfang mit ATI enger zusammenarbeiten, aber da das versprochene Unterstuetzungs-Niveau nie erreicht wurde wendeten sie sich spaeter an NVIDIA. Und nein es hat ueberhaupt nichts mit irgendwelchen schwarzen Moneten zu tun. Ab NV40 gab es von Crytek den SM3.0/SM2.0_b patch fuer beide IHVs.

Wenn jetzt Crytek so stark an NV "verkauft" waere wie manche hier andeuten wollen, wuerde Crysis ziemlich schlecht auf Radeons abschlagen was aber IMO nicht der Fall ist. Und nein es ist nicht der Fehler eines ISVs wenn die Grafik IHVs mal hier und da einen nur maessige GPU veroeffentlichen (NV30/R600).

So und jetzt bitte zurueck zum Thema und ich werfe ein bisschen Oel ins Feuer und Ihr koennt jetzt freudig spekulieren dass Anand von NV eine nette Summe unter dem Tisch bekam:

http://www.anandtech.com/video/showdoc.aspx?i=3463&p=6
http://www.anandtech.com/video/showdoc.aspx?i=3463&p=7

Gast
2008-11-28, 17:58:33
Bei Anand stehen doch die ATi besser da!?

Ailuros
2008-11-28, 18:10:25
Bei Anand stehen doch die ATi besser da!?

Text der beiden Links oben bitte durchlesen.

Mr. Lolman
2008-11-28, 18:32:34
Text der beiden Links oben bitte durchlesen.

Liest sich imo irgendwie so, als ob Anand keine Ahnung hätte, was passiert, wenn der Grafikspeicher voll wird...

EDIT: Wobei ich mir andererseits aber auch sicher bin, dass da ATi durchaus noch Optimierungspotential hat.

Ailuros
2008-11-28, 19:05:16
Liest sich imo irgendwie so, als ob Anand keine Ahnung hätte, was passiert, wenn der Grafikspeicher voll wird...

EDIT: Wobei ich mir andererseits aber auch sicher bin, dass da ATi durchaus noch Optimierungspotential hat.

Ums zweite ging es mir ja auch und wir sind Gott sei Dank endlich wieder beim eigentlichen Thema des Threads ;)

reunion
2008-12-09, 21:51:17
Neuer Test mit besagten Spielen und Cat 8.12: http://techgage.com/article/ati_hd_4870_1gb_vs_nvidia_gtx_260216_896mb_follow-up/1

Gast
2008-12-09, 22:03:49
Neuer Test mit besagten Spielen und Cat 8.12: http://techgage.com/article/ati_hd_4870_1gb_vs_nvidia_gtx_260216_896mb_follow-up/1

Hat sich ja nicht viel getan, malsehn was bei anderen Sites rauskommt wo man auch Vergleiche vorher/nachher sieht.

Nakai
2008-12-09, 22:13:28
Ich wüsste nicht, was viele zu meckern haben. HD4870 ist praktisch gleichwertig zur GTX260-192. Mit dem neuen Treiber ist die GTX260-192 etwas besser dran. Über die GTX260-216 reden wir gar nicht.
(...und bitte jetzt nicht mit BQ, Treiber etc. kommen...)


mfg Nakai

Gast
2008-12-09, 22:24:02
Ich wüsste nicht, was viele zu meckern haben. HD4870 ist praktisch gleichwertig zur GTX260-192. Mit dem neuen Treiber ist die GTX260-192 etwas besser dran. Über die GTX260-216 reden wir gar nicht.
(...und bitte jetzt nicht mit BQ, Treiber etc. kommen...)


mfg Nakai

Solche unbekannten Sites muss man generell mit Vorsicht genießen, da warte ich lieber auf richtige Reviews von CB,PCGH oder Hardocp um vergleichbare Ergebnisse zu bekommen.

Gast
2008-12-09, 23:34:20
Die Seite ist nicht unbekannt und laut unabhängigen Diensten auch nicht so klein wie man meinen sollte.
Im Fazit wird geschrieben, dass die HD 4870 1GB etwas schneller als die GTX 260 216 rendert, wenn man die fünf neusten Games ausklammert. Das war auch mein Eindruck, wobei ich mir jetzt nicht die Mühe gemacht habe, ein Performancerating zu erstellen.

Gast
2008-12-10, 01:27:29
Die Seite ist nicht unbekannt und laut unabhängigen Diensten auch nicht so klein wie man meinen sollte.
Im Fazit wird geschrieben, dass die HD 4870 1GB etwas schneller als die GTX 260 216 rendert, wenn man die fünf neusten Games ausklammert. Das war auch mein Eindruck, wobei ich mir jetzt nicht die Mühe gemacht habe, ein Performancerating zu erstellen.

Es gäbe noch viele Beispiele außer deren 5 wo Ati ganz klar zurück liegt. U.a. FSX,Gothic3,Prince of Persia etc. Leider werden die unbekannteren Games weniger getestet dann würde das Fazit klar pro Nvidia ausfallen. Um mal wieder zum Thema zurückzukommen sollte man nicht allen Sites Glauben schenken da jeder andere Testmethoden/Benchmarks verwendet und daher sollte man sich auf ein paar Sites festlegen und damit dann vergleichen das macht mehr Sinn als zig verschiedene unbekannte Sites als Maßstab herzunehmen.

Gast
2008-12-10, 02:45:22
Es gäbe noch viele Beispiele außer deren 5 wo Ati ganz klar zurück liegt. U.a. FSX,Gothic3,Prince of Persia etc. Leider werden die unbekannteren Games weniger getestet dann würde das Fazit klar pro Nvidia ausfallen.

Völliger Quatsch, es gibt auch genügend Games wo es umgekehrt ist.

Gast
2008-12-10, 03:27:48
Völliger Quatsch, es gibt auch genügend Games wo es umgekehrt ist.

Kein Quatsch sondern Realität, ich habs selber getestet.

san.salvador
2008-12-10, 03:41:05
Völliger Quatsch, es gibt auch genügend Games wo es umgekehrt ist.
Zähl mal auf, du gast du.

Gast
2008-12-10, 04:07:00
Zähl mal auf, du gast du.

NFS Underground,Dirt/Grid,G3 Addon,Oblivion,RSV,Age of Conan.....

reunion
2008-12-10, 07:05:53
Völliger Quatsch, es gibt auch genügend Games wo es umgekehrt ist.

Eben. All in all kann die 4870 sehr gut mit der GTX260-216 mithalten.

Gast
2008-12-10, 10:29:29
Eben. All in all kann die 4870 sehr gut mit der GTX260-216 mithalten.

Nein, nur in Ausnahmefällen kann die 4870 das.

Mr. Lolman
2008-12-10, 10:33:34
Nein, nur in Ausnahmefällen kann die 4870 das.

http://xbitlabs.com/articles/video/display/7games-fall2008_18.html#sect0
http://xbitlabs.com/articles/video/display/fallout3_7.html#sect1

;)

Schlammsau
2008-12-10, 10:34:49
Neuer Test mit besagten Spielen und Cat 8.12: http://techgage.com/article/ati_hd_4870_1gb_vs_nvidia_gtx_260216_896mb_follow-up/1
sieht doch gut aus.....jetzt herscht wieder ein gleichstand zwischen beiden! :)

Mr. Lolman
2008-12-10, 10:36:56
sieht doch gut aus.....jetzt herscht wieder ein gleichstand zwischen beiden! :)

Kommt halt (wie immer) sehr auf die getesteten Spiele an:

Schlammsau
2008-12-10, 10:40:32
Kommt halt (wie immer) sehr auf die getesteten Spiele an:

Natürlich....mal ist der eine Hersteller schneller, mal der andere!
P/L mässig ist die HD4870 aber immer noch deutlich vor der GTX260!
Und das freut mich ungemein!

LovesuckZ
2008-12-10, 10:43:03
Natürlich....mal ist der eine Hersteller schneller, mal der andere!
P/L mässig ist die HD4870 aber immer noch deutlich vor der GTX260!
Und das freut mich ungemein!

Abgesehen davon, dass es P/L mäßig zur Zeit einen Gleichstand gibt, wir der Preisvorteil durch der 4870 durch den doppelten so hohen IDLE-Verbrauch aufgefressen.

Mr. Lolman
2008-12-10, 10:44:56
Abgesehen davon, dass es P/L mäßig zur Zeit einen Gleichstand gibt, wir der Preisvorteil durch der 4870 durch den doppelten so hohen IDLE-Verbrauch aufgefressen.

Mit den ATT kann man den Idleverbrauch locker um >2/3 senken. Jedem dem der Idleverbrauch wichtig ist, sei das auch angeraten...


EDIT: Meine GraKa wird dadurch mit Stockkühler nur mehr ~36°C warm...

Sven77
2008-12-10, 10:46:47
P/L mässig ist die HD4870 aber immer noch deutlich vor der GTX260!

Wie kann man das so pauschal sagen? Die GTX260 216 ist nicht nur schneller sondern bietet eben auch den besseren Treiber, BQ und am wichtigsten, Supersampling! Für viele ist es auch wichtig alte Spiele aufzuwerten, und da kann ich bei solchen (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=440220) Sachen nur den Kopf schütteln.

LovesuckZ
2008-12-10, 10:51:35
Mit den ATT kann man den Idleverbrauch locker um >2/3 senken. Jedem dem der Idleverbrauch wichtig ist, sei das auch angeraten...


EDIT: Meine GraKa wird dadurch mit Stockkühler nur mehr ~36°C warm...

Und die 260 kann ich mit Hybrid-Power komplett abschalten. ;)

reunion
2008-12-10, 10:52:57
Und die 260 kann ich mit Hybrid-Power komplett abschalten. ;)

Je genau. Das geht selbst theoretisch nur mit aktuellem NV-Chipsatz und selbst da funktioniert es laut verschiedensten Erfahrungsberichten eben nicht in der Praxis.

Schlammsau
2008-12-10, 10:54:47
Wie kann man das so pauschal sagen? Die GTX260 216 ist nicht nur schneller sondern bietet eben auch den besseren Treiber, BQ und am wichtigsten, Supersampling! Für viele ist es auch wichtig alte Spiele aufzuwerten, und da kann ich bei solchen (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=440220) Sachen nur den Kopf schütteln.

Wo ist sie im Schnitt schneller? Und auf 2 - 3% mach ich nen grossen haufen! :wink:
Super*was*......denken sich mit Sicherheit 99% der potenziellen Käufer.
ATi hat ihr Edge Detect und nVidia sein SSAAOOAAAEE. pff.....

Sven77
2008-12-10, 10:59:31
Ich mach auf 2-3% auch nen Haufen. Aber wenn du glaubst das die AA-Modi von ATI(dir auch gar nicht in Spielen wie BF2 funzen, max. 4AA, ich habe gelacht) auch nur mit den Hybridmodi von Nvidia vergleichbar sind, erübrigt sich jede Diskussion. Eben aus dem Grund hab ich die 4850 verkauft. Manchmal macht Max Payne mit 4x4 Supersampling eben noch Spass, und sieht nicht so viel schlechter aus, als aktuelle Titel..

Schlammsau
2008-12-10, 11:02:35
Ich mach auf 2-3% auch nen Haufen. Aber wenn du glaubst das die AA-Modi von ATI(dir auch gar nicht in Spielen wie BF2 funzen, max. 4AA, ich habe gelacht) auch nur mit den Hybridmodi von Nvidia vergleichbar sind, erübrigt sich jede Diskussion. Eben aus dem Grund hab ich die 4850 verkauft. Manchmal macht Max Payne mit 4x4 Supersampling eben noch Spass, und sieht nicht so viel schlechter aus, als aktuelle Titel..

Ich kann auch MP2 mit 24xED und Adaptive AA zocken! :|
Sieht auch sehr gut aus! ;)

LovesuckZ
2008-12-10, 11:07:13
Je genau. Das geht selbst theoretisch nur mit aktuellem NV-Chipsatz und selbst da funktioniert es laut verschiedensten Erfahrungsberichten eben nicht in der Praxis.

Kann sein, muss nicht. Nur macht es keinen Unterschied, da man die Möglichkeit dazu besitzt.

Unyu
2008-12-10, 11:20:08
Mit den ATT kann man den Idleverbrauch locker um >2/3 senken. Jedem dem der Idleverbrauch wichtig ist, sei das auch angeraten...
Einer GTX 260 kann man kein neues Bios flashen?

Ich kann auch MP2 mit 24xED und Adaptive AA zocken! :|
Sieht auch sehr gut aus! ;)
Die Shader und Texturen dürfen munter weiter flimmern? ;)

Mr. Lolman
2008-12-10, 11:38:12
Einer GTX 260 kann man kein neues Bios flashen?


Sicher kann man das. Mittlerweile ists aber nichtmal mehr bei den HD4870 notwendig. Die niedrigere Idle-Spannung (die ohnehin nur mehr ein paar Watt ausgemacht hat, weil ja nicht die GPU, sondern der Speicher/controller der Stromfresser ist), hat man nun - lt. div. Forenberichten - auch mit dem aktuellsten Treiber.

Sven77
2008-12-10, 11:57:36
Bei den GTXen auch nicht mehr, die aktuellen kommen inzwischen auch mit niedrigeren Spannungen(1,06V in 3D). Das einzige was man ihnen ankreiden könnte, ist das sie zu laut im Idle sind. Aber sowas lässt sich ohne Probleme mit dem RT fixen

Gast
2008-12-10, 12:47:39
http://xbitlabs.com/articles/video/display/7games-fall2008_18.html#sect0
http://xbitlabs.com/articles/video/display/fallout3_7.html#sect1

;)

Treiber!

derguru
2008-12-10, 13:06:31
Kommt halt (wie immer) sehr auf die getesteten Spiele an:

bei den spielen ist ja sogar die 4850 oft schneller als die 260gtx:tongue:
frag mich bloß wie es zustande kommt das in dead space die 4870 scheller ist als die 260gtx,in jeder anderen seite ist die 260gtx sehr viel schneller.

in 1920*1200 ist die 4870 sogar schneller als die 280gtx(dmc4,grid,the witcher,mass effect*,stalker cs)

*mass effect wert kann niemals stimmen,wahrscheinlich funzte in dem fall kein AA.

Gast
2008-12-10, 13:35:11
Aber wenn du glaubst das die AA-Modi von ATI(dir auch gar nicht in Spielen wie BF2 funzen, max. 4AA, ich habe gelacht)

Bei BF2 geht 8xAA+AAA

Schlammsau
2008-12-10, 14:05:08
Einer GTX 260 kann man kein neues Bios flashen?


Die Shader und Texturen dürfen munter weiter flimmern? ;)

Bei dem Grad an Antialiasing flimmert fast gar nichts mehr! ;)

Undertaker
2008-12-10, 14:33:42
Was hat normales Multisampling-Antialising denn mit dem Flimmern zu schaffen?

derguru
2008-12-10, 17:13:50
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_ati_catalyst_812_spielen/#abschnitt_einleitung

nit schlecht vorallem bei den min fps. in Left 4 Dead und Fallout3

deekey777
2008-12-10, 17:19:29
Der Treiber ist draußen. Ende.