Archiv verlassen und diese Seite im Standarddesign anzeigen : HD 2900XT: (P)Review-Thread
Undertaker
2007-05-14, 18:00:13
Hat schon jemand einen Link gefunden von der Juarez DX10 Demo?
dafür würde ich auch sofort töten! (spaß) :D
wer ne quelle kennt, plz pn!
Moralelastix
2007-05-14, 18:01:41
Soll von NV ein G80 Refresh kommen oder gleich der G90?
NV scheint in guter Position zu sein(volle Kriegskasse).
Würden sie mit dem G90 ähnlich zeitig kommen wäre das für ATI sicher noch ein grösserer Schlag als es der G80 war?
Ronny145
2007-05-14, 18:02:52
Für ATI kann mans nur hoffen, schließlich kam mit den X1900ern was feines nach.
ATI hat nun wieder einen "X1800" released, mal abwarten, was da nachkommt.
Die war aber wenigstens auf gleicher Höhe (performance) mit dem Topmodell von NVIDIA damals. Das kann man nicht vergleichen. Der R600 ist da deutlich zurück.
Der Preis ist noch gar nicht gesunken, da die Karte überhaupt nicht lieferbar ist.
Ich kann euch auch eine GTS640 für 199,- anbieten, aber spätestens übermorgen storniere ich sie wieder. ;D
Ich denke, momentan ist ein schlechter Zeitpunkt auf Preissenkungen bei nV zu hoffen, da jetzt die "Zögerer", die auf den R600 gehofft haben, jetzt größtenteils sich auf die Karten "stürzen" werden. Der R600 könnte aber sehr rasch im Preis sinken, spätestens wenn der Rummel sich gelegt hat und die wenigen Fanboys zugegriffen haben.
Mir scheint es auch so, dass ATi weniger mit nV kämpft sondern vielmehr mit sich selbst und der Technik. Am Ende ist trotzdem noch ein einigermaßen taugliches Produkt herausgekommen, wenn man mal an das riesige "OEM"-Monstrum mit dem 24 W Lüfter denkt. Da ist die jetztige Geräuschkulisse ein Kindergarten dagegen und auch wesentlich billiger.
reunion
2007-05-14, 18:05:48
Soll von NV ein G80 Refresh kommen oder gleich der G90?
Soweit man aktuell bescheid weiß, ist der G80-Refresh G90, es wird keinen G81 geben. Alle Chips auf 65nm beginnen mit G9X. Ob sich da mehr als nur der Fertigungsprozess geändert hat, bleibt abzuwarten. Jedenfalls scheinen die Lowend G9X-Chips vor G90 zu kommen.
drum02
2007-05-14, 18:06:20
Im Intresse unser aller Hobby, hoffe Ich das ATI sich noch mal fängt und was besseres nachliefert als die R600.
Denn Ich will "partu" nicht einsehen das Ich zukünftig für meine NVIDIA-Karten das doppelte löhnen muss (oder noch mehr).
Also ATI.....GEBT GAS
Noebbie
2007-05-14, 18:11:12
Im Intresse unser aller Hobby, hoffe Ich das ATI sich noch mal fängt und was besseres nachliefert als die R600.
Denn Ich will "partu" nicht einsehen das Ich zukünftig für meine NVIDIA-Karten das doppelte löhnen muss (oder noch mehr).
Also ATI.....GEBT GAS
Meine Meinung. :smile:
laser114
2007-05-14, 18:11:51
Test verschiedener Treiberversionen:
http://www.computerbase.de/news/treiber/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/
Sieht ja unheimlich aus, solche Unterschiede...
Ronny145
2007-05-14, 18:12:18
Das ist interessant:
http://www.computerbase.de/news/treiber/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/
Schon ein großer Sprung mit neuem Treiber bei den 3 Spielen dort.
edit: Zu spät
Moralelastix
2007-05-14, 18:13:47
Und mir wirds schon ganz anders wenn ich an den K10 denk.
Wenn der auch nicht so der grosse Wurf wird(danach schauts ja leider aus, warum sollte AMD ansonsten keine richtigen Infos dazu rauslassen)..........:smile:
Sk_Antilles
2007-05-14, 18:13:56
Test verschiedener Treiberversionen:
http://www.computerbase.de/news/treiber/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/
Sieht ja unheimlich aus, solche Unterschiede...
Allerdings geben diese Unterschiede auch berechtigten Anlass zur Hoffnung. ;)
laser114
2007-05-14, 18:14:23
Großer Sprung ist ja fast schon untertrieben. 172% Mehrleistung in Oblivion unter 1280x1024 4xAAA/16xAF (von unter X1950 XTX auf über 8800 GTX)...
gute Nachrichten: erhebliche Performanceverbesserungen in ausgewählten Spielen: http://www.computerbase.de/news/treiber/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/
Bis zu 50%!1!
Im Intresse unser aller Hobby, hoffe Ich das ATI sich noch mal fängt und was besseres nachliefert als die R600.
Denn Ich will "partu" nicht einsehen das Ich zukünftig für meine NVIDIA-Karten das doppelte löhnen muss (oder noch mehr).
Also ATI.....GEBT GAS
Glaubst du, du müsstest 1000 € für eine Karte löhnen, falls ATi keine High End Karten mehr produziert? Eher würde es so aussehen wie jetzt, die GTX ist verdammt preisstabil, will einfach nicht unter die 450er Grenze rutschen.
gute Nachrichten: erhebliche Performanceverbesserungen in ausgewählten Spielen: http://www.computerbase.de/news/treiber/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/
Bis zu 50%!1!
Edit: zu Spät
dargo
2007-05-14, 18:17:35
Hehe, die ganzen Launchtests kann man wohl in die Tonne kloppen. Ich warte erstmal mit meinem Urteil bis zum Treiber 8.38 oder besser 8.40. ;)
MartinRiggs
2007-05-14, 18:18:18
Test verschiedener Treiberversionen:
http://www.computerbase.de/news/treiber/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/
Sieht ja unheimlich aus, solche Unterschiede...
Geil, ich hab das auch grad lesen und wollt es grad posten.
Damit ist die R600 doch nicht zum rohrkrepierer geboren sondern sieht schon besser aus.
Noch ein paar treiber und die Sapphire mit dem Monsterkühler dann ist die HD2900XT mein.
Stromverbrauch ist zwar scheisse aber die 8800 ist ja auch nicht soviel besser.
Anarchy-HWLUXX
2007-05-14, 18:18:31
Test verschiedener Treiberversionen:
http://www.computerbase.de/news/treiber/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/
Sieht ja unheimlich aus, solche Unterschiede...
Also entweder wird bei den benches mit extrem hohen FPS Werten irgendetwas nicht berechnet/weggelassen (Bug) oder die launch Treiber sind wirklich im Alpha Stadium und man muss bei jedem Treiber release die ganze bench suite nochmal laufen lassen um die Performance einzuordnen - das kanns ja net sein.
Wenn es letzteres ist dann kann man wohl noch 2 monate länger warten bis die performance generell auf dem richtigen level ist und jede woche nen neuen Treiber laden ...
dildo4u
2007-05-14, 18:18:34
Das Problem ist wenn ATI jetzt wieder anfängt mit extrem Optemierungen die vieleicht auch Bildqualität kosten wird Nvidia nachziehen dann haben wir bald wieder alle Filteroptemierungen beisammen @ Default im Treiber.
laser114
2007-05-14, 18:20:20
Also entweder wird bei den benches mit extrem hohen FPS Werten irgendetwas nicht berechnet/weggelassen (Bug) oder die launch Treiber sind wirklich im Alpha Stadium und man muss bei jedem Treiber release die ganze bench suite nochmal laufen lassen um die Performance einzuordnen - das kanns ja net sein.
Also wie man mit solchen Treibern einen Launch hinlegen kann, ist mir auch nicht ganz klar...
horn 12
2007-05-14, 18:20:31
http://www.computerbase.de/news/treiber/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/
Gibt mir zumindest noch Hoffung... ich frage mich nur warum AMD nicht gleich eine Woche verschoben hat und dann mit einem besserem Treiber?
Ich meine die Test sahen sehr nach einer x1950xtx aus, die um 10 % übertaktet wurde.
Ich bin mal gespannt ich war mir eigentlich ganz sicher, dass der r600 nicht so schelcht sien kann, auch wenn AMD die Leistung der 8800 gtx nicht einschätzen konnten, wollten sie dpch bestimmt wie bei den Vorgängern die Leistung verdoppeln. Wenn sie das wie in der Vergangenheit schaffen, sollten sie keine Porbleme haben mit der Performance der 8800 gtx mitzuhalten
Ronny145
2007-05-14, 18:22:01
Da hat sich AMD aber auch keinen Gefallen getan mit solchen Mülltreibern die Karte in die Tests zu schicken. Scheinbar ein bisschen zu früh. Leider zählt bei vielen der erste Eindruck. Außerdem mal abwarten, ob die Bildqualität nicht darunter leidet.
Anarchy-HWLUXX
2007-05-14, 18:22:14
http://www.computerbase.de/news/treiber/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/
Der link wurde FÜNF MAL gepostet auf dieser Page ... lesen wär mal ne idee :ubash3:
Da hat sich AMD aber auch keinen Gefallen getan mit solchen Mülltreibern die Karte in die Tests zu schicken. Scheinbar ein bisschen zu früh. Leider zählt bei vielen der erste Eindruck. Außerdem mal abwarten, ob die Bildqualität nicht darunter leidet.
Einerseits das ... und dann überlegt man sich direkt wie der Rest des Treibers aussieht, was sonst alles noch suboptimal gelöst ist ...
reunion
2007-05-14, 18:23:25
Ähm, euch ist schon klar, dass der superschnelle 8.34.4.2-Treiber nur deshalb so schnell ist, weil er statt SS-AAA EATM einsetzt? Zumindest bilde ich mir ein das irgendwo gelesen zu haben.
InsaneDruid
2007-05-14, 18:25:09
Dann wärs in der Tat kein Wunder :(
Anarchy-HWLUXX
2007-05-14, 18:25:36
Ähm, euch ist schon klar, dass der superschnelle 8.34.4.2-Treiber nur deshalb so schnell ist, weil er statt SS-AAA EATM einsetzt? Zumindest bilde ich mir ein das irgendwo gelesen zu haben.
OK, das würde dann für meine vermuting #1 sprechen -> Bug.
Mancko
2007-05-14, 18:26:12
Naja vom Transistorcount und der Bandbreite ausgehend sollte der Konkurent nunmal eher die GTX sein ;)
ATI muss das Ding für das Techniklevel im Prinzip spottbillig verkaufen.
und damit wiedermal rote Zahlen schreiben. Also doch wieder den Kürzeren gegenüber Nvidia ziehen.
Wirtschaftlichkeit gehört eben genauso zum Geschäft. Wer auf Dauer solche pleiten hinlegt verabschiedet sich ansonsten aus einigen Marktsegmenten oder verschwindet ganz.
Das die Chancen für weitere High End Produkte bei AMD nach der Pleite nicht wirklich gestiegen sind sollte ja wohl allen klar sein.
laser114
2007-05-14, 18:26:13
Ähm, euch ist schon klar, dass der superschnelle 8.34.4.2-Treiber nur deshalb so schnell ist, weil er statt SS-AAA EATM einsetzt? Zumindest bilde ich mir ein das irgendwo gelesen zu haben.
K. A., aber ohne den Treiber ist die HD 2900 XT in Oblivion immer noch lahmer als eine X1950 XTX. Und das wird wohl definitiv an den Treibern liegen...
Außerdem wurde der am Freitag versendet, also noch vor Launch.
reunion
2007-05-14, 18:27:01
Wobei die CB-Jungs verdammt blind sein müssten, wenn sich das nicht gesehen haben. Dagegen spricht auch, dass laut CB nur diese paar Anwendungen profitieren, und nicht ein generelles Plus gemessen wurde. Wie schon gesagt, ich bilde mir ein, dass irgendwo gelesen zu haben - keine Garantie, dass das korrekt ist. :)
dargo
2007-05-14, 18:27:09
Ähm, euch ist schon klar, dass der superschnelle 8.34.4.2-Treiber nur deshalb so schnell ist, weil er statt SS-AAA EATM einsetzt? Zumindest bilde ich mir ein das irgendwo gelesen zu haben. Dagegen spricht allerdings, dass laut CB nur diese paar Anwendungen profitieren, und nicht ein generelles Plus gemessen wurde.
Ach verdammt. Ich habe schon wieder nicht daran gedacht, dass CB mit AAA bencht.
Viel schlimmer am 3DC-Artikel finde ich dass sie wirklich CFAA gut finden und es auch noch ernsthaft mit CSAA vergleichen :|
Willkommen bei ATI...äh..3DCenter! Hier gewinnen die "richtigen" ;) Karten die Benches und jetzt sag nicht, dass hast Du noch nicht bemerkt. Mich wundert das Review auch sehr, aber hey: Es ist ja eine ATI-Karte, da kann der G80 (auf 3DC) nix reissen und natürlich hat der R600 hier mindestens eine gleichwertige, wenn nicht sogar bessere Bildquali (auch wenn alle anderen Seiten etwas anderes sagen)!
AMC
Piffan
2007-05-14, 18:29:25
Es sieht bitter aus. Das Imperium schlägt mit voller Wucht zurück.....Prozis schwächeln, GPUs schwächeln, Geld knapp. War es das jetzt mit AMD?
Am besten schnell noch günstige Prozis kaufen, wer weiß wann die Preise wieder wie früher werden. :cool:
seahawk
2007-05-14, 18:32:07
Mal ne Frage an die echten Kenner, kann man MSAA über die Shader laufen lassen ?
http://www.anandtech.com/video/showdoc.aspx?i=2988&p=11
Mumins
2007-05-14, 18:32:30
Willkommen bei ATI...äh..3DCenter! Hier gewinnen die "richtigen" ;) Karten die Benches und jetzt sag nicht, dass hast Du noch nicht bemerkt. Mich wundert das Review auch sehr, aber hey: Es ist ja eine ATI-Karte, da kann der G80 (auf 3DC) nix reissen und natürlich hat der R600 hier mindestens eine gleichwertige, wenn nicht sogar bessere Bildquali (auch wenn alle anderen Seiten etwas anderes sagen)!
AMC
Du weißt aber schon, dass ATI 3DC nie Samples gibt, weil sie Angst hatten schlecht wegzukommen. Also purer Bullshit deine Worte.
Fetza
2007-05-14, 18:32:49
Das ist erstaunlich, ein wechselbad der gefühle - der oblivion score beeindruckt. Vor allem, weil da noch mehr zu holen scheint. In jedem fall kann man sagen, das die xt jetzt in der lage ist, oblivion in 1280x1024 mit 4xaa und 16xaf flüssig darzustellen. Schon beeindruckend!
reunion
2007-05-14, 18:35:31
Was ich gut finde, ist, dass ATi endlich das Packdichteproblem der Transistoren beheben konnte. Es ist nicht mehr so wie bei R5xx, wo man für fast die gleiche Transistorenanzahl trotz kleinerer Strukturbreite ein größeres Die benötigte. R600 kommt bei 720mio Transistoren in 80nm mit 420mm² aus, und ist damit - natürlich durch die kleinere Strukturbreite - deutlich kleiner als G80.
Moralelastix
2007-05-14, 18:35:36
Es sieht bitter aus. Das Imperium schlägt mit voller Wucht zurück.....Prozis schwächeln, GPUs schwächeln, Geld knapp. War es das jetzt mit AMD?
Am besten schnell noch günstige Prozis kaufen, wer weiß wann die Preise wieder wie früher werden. :cool:
AMD fährt volles Risiko.
Entweder sie kriegen die Kurve mit dem K10, der ja fast schon zu spät kommt, oder sie verschwinden für die nächsten Jahre wieder in der Versenkung aus der sie mit dem XP/K8 gekommen sind.
Fetza
2007-05-14, 18:36:25
Willkommen bei ATI...äh..3DCenter! Hier gewinnen die "richtigen" ;) Karten die Benches und jetzt sag nicht, dass hast Du noch nicht bemerkt. Mich wundert das Review auch sehr, aber hey: Es ist ja eine ATI-Karte, da kann der G80 (auf 3DC) nix reissen und natürlich hat der R600 hier mindestens eine gleichwertige, wenn nicht sogar bessere Bildquali (auch wenn alle anderen Seiten etwas anderes sagen)!
AMC
Die geistlosigkeit deiner worte ist wirklich erschreckend *kopfschüttel*
Mal ne Frage an die echten Kenner, kann man MSAA über die Shader laufen lassen ?
http://www.anandtech.com/video/showdoc.aspx?i=2988&p=11
würde mich auch interessieren?
reunion
2007-05-14, 18:43:29
Mal ne Frage an die echten Kenner, kann man MSAA über die Shader laufen lassen ?
http://www.anandtech.com/video/showdoc.aspx?i=2988&p=11
Interessant. Das würde zwar enorme Flexibilität bedeuten, gleichzeit aber auch den zum Teil starken Performanceabfall erklären.
ich denke mal wenns wirklich kein EATM statt AAA ist dann bekommt der G80 in den nächsten monaten derbe auf den sack ^^
das sie die karte nicht noch eine woche oder so hinter verschlossenen türen behalten konnten ergibt sinn da launchtermine schon lang im vorfeld gemacht werden....da muss einiges organisiert werden die hardware verschickt werden verträge unterschrieben werden etc.
wenn die treiberfrickler wirklich bis zum launch den treiber noch nicht im griff hatten ergibt es sinn das ATI zeigt was für eine Performance drin ist wenn noch am Treiber gefeilt wird.....
wie sie sagten gibts ja noch bugs usw. und sie können den reviewern ja keinen treiber mitliefern der bei einigen games zwar verdammt performant ist, andere games aber nichtmal starten oder übelste grafikfehler haben.
für mich scheint es das der R600 noch mit bis zum Anschlag angezogener Handbremse läuft denn die Treiberproblematik und verschiebungen deswegen sind ja schon seit geraumer Zeit im Umlauf
zumindest scheint sich das puzzle solangsam zusammenzufügen und die verschiebungen und erklärungen ergeben einen sinn
seahawk
2007-05-14, 18:48:41
Interessant. Das würde zwar enorme Flexibilität bedeuten, gleichzeit aber auch den zum Teil starken Performanceabfall erklären.
nd es würde evtl. auch erklären warum der alpha-Treiber nur bei manchen Anwendungen hilft und warum die KArte nur bei manchen Anwendungen schlecht aussieht. Evtl. muss man dann die Zuweisung der Shader zu MSAA oder zu normaler Berechnung immer per Hand optimieren.
Eine sicherlich haltlose Spekulation, würde aber durchaus denkbar sein.
Exxtreme
2007-05-14, 18:49:28
Mal ne Frage an die echten Kenner, kann man MSAA über die Shader laufen lassen ?
http://www.anandtech.com/video/showdoc.aspx?i=2988&p=11
Es müsste schon recht problemlos gehen. Wenn das tatsächlich so ist dann bräucht man aber schon extrem viel Power um das schnell genug laufen zu lassen.
Man hat dadurch aber eine sehr hohe Flexibilität weil man pro Pixel die AA-Samplemaske jederzeit bestimmen und ändern könnte.
christoph
2007-05-14, 18:53:00
aus dem b3d review:
The hardware will actively prefetch and cache tile compression data on-chip, to make sure it's available when decompressing for sample resolve. And that brings us on to probably the most controversial part of the chip: how does(n't) it do MSAA sample resolve.
...The big advantage is the ability to perform better filtering than the standard hardware resolve. However the disadvantages include possible implementation of bad filters, and speed issues because the driver now has to issue, and the hardware run, resolve calculation threads which chew up available shader core cycles. Ah, but there's still the regular hardware resolve if you want maximum speed and the regular quality just from sampling a single pixel, right? Well no, that's not always the case.
Even for the basic box filter resolves, where the hardware weights samples based on their proximity to the pixel centroid, R600 will perform the calculations to resolve the samples on the shader core, that is unless compression for the tile is at maximum, so you know the resolve would just return the same colour anyway, so there's no math involved to filter. Currently that points to the hardware resolve either being broken, at least under some conditions (when compression is less than maximum), or it being easier to maintain in code if you're doing other filters anyway, so you only have one path for that in the driver. We lean towards the former, rather than the latter, since the performance deficit for shader core resolve seems to be significant, even for the basic box filter cases. That can be improved in the driver, however, and the hardware helps here by likely being able to decompress sample locations for a pixel into the shader core at a high rate.
http://www.beyond3d.com/content/reviews/16/10
Es müsste schon recht problemlos gehen. Wenn das tatsächlich so ist dann bräucht man aber schon extrem viel Power um das schnell genug laufen zu lassen.
Man hat dadurch aber eine sehr hohe Flexibilität weil man pro Pixel die AA-Samplemaske jederzeit bestimmen und ändern könnte.
Würde das evtl. 16 TMUs an 512bit SI erklären?
seahawk
2007-05-14, 18:58:20
Es müsste schon recht problemlos gehen. Wenn das tatsächlich so ist dann bräucht man aber schon extrem viel Power um das schnell genug laufen zu lassen.
Man hat dadurch aber eine sehr hohe Flexibilität weil man pro Pixel die AA-Samplemaske jederzeit bestimmen und ändern könnte.
B3D beschreibt es wie Anand.
http://www.beyond3d.com/content/reviews/16/10
Also, dass man dieses Prinzip . wahrscheinlich auf Grund eines Hardwaredefekts - auch für den üblichen Boxfilter nutzt.
Wobei die CB-Jungs verdammt blind sein müssten, wenn sich das nicht gesehen haben. Dagegen spricht auch, dass laut CB nur diese paar Anwendungen profitieren, und nicht ein generelles Plus gemessen wurde. Wie schon gesagt, ich bilde mir ein, dass irgendwo gelesen zu haben - keine Garantie, dass das korrekt ist. :)
Jap, so siehts aus:
Laut unseren Beobachtungen und Messungen wurde erst in dem von uns verwendeten Treiber AAA durch ein Multisampling-Verfahren (genannt EATM) ersetzt
http://www.3dcenter.de/artikel/radeon_hd_2900_xt/index2.php#2
Tja, wer nichts zu verlieren hat, der erschwindelt sich einfach Leistung. Erbärmliche Vorstellung von AMD!
LovesuckZ
2007-05-14, 19:02:28
Jap, so siehts aus:
http://www.3dcenter.de/artikel/radeon_hd_2900_xt/index2.php#2
Tja, wer nichts zu verlieren hat, der erschwindelt sich einfach Leistung. Erbärmliche Vorstellung von AMD!
Keine Kekse...
Dazu noch dieses Statement:
Primär wurde von ATi das Adaptive-Anti-Aliasing in den ausgewählten Programmen deutlich verbessert, wie die Benchmarks von uns in der Auflösung von 1280x1024 Bildpunkten bei 4xAAA/16xAF zeigen.
Nene, nene.
Und nochmal Robbitop:
Haettest du den Artikel im Detail gelesen, wuesstest du dass das originale AAA (SS-TAA) im 8.3740 einen Bug hatte, der die Performance in den Keller trieb. Im 8.3742 (den hat so gut wie keiner getestet, weil er erst 3 Tage alt ist) tat ATI so als haette man das gefixt. In Wirklichkeit hat man EATM als default angelegt.
Na hoffentlich wird Computerbase nun von diesem Mist mit TSAA weggehen und normal mit reinem MSAA testen!
Exxtreme
2007-05-14, 19:02:30
Würde das evtl. 16 TMUs an 512bit SI erklären?
Nein. Für MSAA per Shader braucht man sehr viel Shaderpower und nicht unbedingt Bandbreite. Bandbreite hat das Teil eh' genug. Ich wäre auf Übertaktungsergebnisse gespannt. Mit MSAA müsste es linear mit dem Chiptakt skallieren falls diese Theorie stimmt.
christoph
2007-05-14, 19:05:50
Nein. Für MSAA per Shader braucht man sehr viel Shaderpower und nicht unbedingt Bandbreite. Bandbreite hat das Teil eh' genug. Ich wäre auf Übertaktungsergebnisse gespannt. Mit MSAA müsste es linear mit dem Chiptakt skallieren falls diese Theorie stimmt.
das ist keine theorie. in dem von mir zitierten auszug aus dem b3d review auf der vorigen seite ist das doch genau erklärt.
Nein. Für MSAA per Shader braucht man sehr viel Shaderpower und nicht unbedingt Bandbreite. Bandbreite hat das Teil eh' genug. Ich wäre auf Übertaktungsergebnisse gespannt. Mit MSAA müsste es linear mit dem Chiptakt skallieren falls diese Theorie stimmt.
Ok, ein Strohhalm wars wert *g*.
seahawk
2007-05-14, 19:09:02
Aber das fehlend überlicher dezdierter Boxsampel-Einheiten ist auch bei B3D Spekulation.
robbitop
2007-05-14, 19:12:05
Willkommen bei ATI...äh..3DCenter! Hier gewinnen die "richtigen" ;) Karten die Benches und jetzt sag nicht, dass hast Du noch nicht bemerkt. Mich wundert das Review auch sehr, aber hey: Es ist ja eine ATI-Karte, da kann der G80 (auf 3DC) nix reissen und natürlich hat der R600 hier mindestens eine gleichwertige, wenn nicht sogar bessere Bildquali (auch wenn alle anderen Seiten etwas anderes sagen)!
AMC
Wenn du flamen willst, dann tue das ausserhalb dieses Forums. Eine sachliche Diskussion sollte hier erfolgen. Untermauere deine Aussagen mit Argumenten und Belegen und dann ist es ok.
Ich wuesste jedenfalls nicht, wo ich den Artikel biased geschrieben habe.
Ist aber lustig, dass uns die Fanboys beider Seiten immer als biased bezichtigen. Komisch nur, dass das staendig wechselt.
Von dir haette ich ehrlich gesagt ein deutlich hoeheres Diskussionniveau erwartet.
Exxtreme
2007-05-14, 19:12:13
das ist keine theorie. in dem von mir zitierten auszug aus dem b3d review auf der vorigen seite ist das doch genau erklärt.
Die Erklärung bei B3D gilt für das programmierbare AA. Eine Erklärung wäre wenn die Standard-Boxsample-AA-Units nicht funktionieren und AMD das Standard-AA mittels Shader simulieren muss.
christoph
2007-05-14, 19:15:54
Die Erklärung bei B3D gilt für das programmierbare AA. Eine Erklärung wäre wenn die Standard-Boxsample-AA-Units nicht funktionieren und AMD das Standard-AA mittels Shader simulieren muss.
les noch mal genauer ;)
seahawk
2007-05-14, 19:16:07
Nein. Für MSAA per Shader braucht man sehr viel Shaderpower und nicht unbedingt Bandbreite. Bandbreite hat das Teil eh' genug. Ich wäre auf Übertaktungsergebnisse gespannt. Mit MSAA müsste es linear mit dem Chiptakt skallieren falls diese Theorie stimmt.
Bitte und die Ergenisse würden sogar passen.
http://www.firingsquad.com/hardware/amd_ati_radeon_hd_2900_xt_performance_preview/page23.asp
robbitop
2007-05-14, 19:16:23
Ailuros hat mal was von einem Bug in den ROPs angedeutet. 8xMSAA ist trotz der hohen Bandbreite ja immernoch sehr teuer auf dem R600.
Bei CB, haben sie ja die Tests alle nochmals wiederholt mit dem neuen Treiber.....
Nur 4 Spiele profitieren davon, aber dann mächtig.
Bei Oblivion grenzt das wirklich an "Zauberei".
Das macht mich irgendwie sehr stutzig, vor allem bzgl. der BQ!
Logisch ist das nicht, denn dann müssten ja die "alten" Treiber mit denen CB getestet haben, absolut bullshit sein, also praktisch ne Alpha-Version....
Das kann ich mir irgendwie nicht vorstellen
Hoffentlich wird auch mal die BQ vom neuen und alten Treibern mal verglichen......
Nicht, dass es wieder! diese "Optimierungen" gibt bei der BQ...
Exxtreme
2007-05-14, 19:19:41
Bei CB, haben sie ja die Tests alle nochmals wiederholt mit dem neuen Treiber.....
Nur 4 Spiele profitieren davon, aber dann mächtig.
Bei Oblivion grenzt das wirklich an "Zauberei".
Da wurde auch die Qualität gesenkt, ohne daß CB es bemerkt haben. ;)
les noch mal genauer ;)
Ju, stimmt. Hast recht. Bin heute bissle Gummi im Kopf. X-D
reunion
2007-05-14, 19:20:52
Das würde auch erklären, was die Treiberprogrammierer die letzten Monate gemacht haben. :D
Da wurde auch die Qualität gesenkt, ohne daß CB es bemerkt haben. ;)
Na dann kann es ja nicht viel schlimmer aussehen, wenn es CB nicht merkt. Schliesslich ist ja CB das A und O der IQ-Wächter, wenn man einigen hier glauben schenken darf (imo Coda war es im Wesentlichen..., wobei ich ausdrücklich nicht Codas Kompetenzen in Frage stellen möchte!)...
seahawk
2007-05-14, 19:26:22
Das würde auch erklären, was die Treiberprogrammierer die letzten Monate gemacht haben. :D
Würde sogar den riesen Performancegewinn beim Wechseln von SSAA zu ETAM in einigen Spielen erklären.
laser114
2007-05-14, 19:27:08
Die News über die Treiberversionen auf CB war von Volker Rißka. Die Artikel über die letzten Grafikkarten kamen aber alle von Wolfgang Andermahr.
Da CB nun mal aus mehreren Leuten besteht, würde ich mal vermuten, das dort doch einige Unterschiede bestehen. ;)
reunion
2007-05-14, 19:28:33
Na dann kann es ja nicht viel schlimmer aussehen, wenn es CB nicht merkt. Schliesslich ist ja CB das A und O der IQ-Wächter, wenn man einigen hier glauben schenken darf (imo Coda war es im Wesentlichen..., wobei ich ausdrücklich nicht Codas Kompetenzen in Frage stellen möchte!)...
Das ist mir auch schon auf der Zunge gelegen. =)
BTW, die großen Caches haben sich bestätigt. Auch am Threadingkonzept hat sich offenbar einiges getan, der Chip kann diese sogar out-of-order ausführen, was ihn für GPCPU-Aufgaben wohl sehr gut dastehen lässt IMO.
Aha, also doch BQ-"Optimierungen".........hätte man irgendwie denken können.
Naja sofern, dies nicht in Auge fällt, also nur mit ner Lupe wahrnehmbar ist, ist es zu verzeihen.
Was mich mehr stört ist die Stromaufnahme!
Wieder praktisch kein Idle-Modus. ATI kann wohl nicht aus den Fehlern von Nvidia lernen........
Und die Karte ist ein warer Hitzkopf.
Die Leistung bei der Entlastung der CPU bei HDTV-Wiedergabe ist auch schlecht.
Wieso nicht gleich auf 65nm Fertigungsprozess umgestellt?
Es gibt so viele Mankos bei dieser Karte.....
Wenn du flamen willst, dann tue das ausserhalb dieses Forums. Eine sachliche Diskussion sollte hier erfolgen. Untermauere deine Aussagen mit Argumenten und Belegen und dann ist es ok.
Ich wuesste jedenfalls nicht, wo ich den Artikel biased geschrieben habe.
Ist aber lustig, dass uns die Fanboys beider Seiten immer als biased bezichtigen. Komisch nur, dass das staendig wechselt.
Von dir haette ich ehrlich gesagt ein deutlich hoeheres Diskussionniveau erwartet.
Der 3Dcenter Test ist wirklich einer der Schlechteren des 3Dcenter Tests.
Gerade die Af Bemerkungen sind etwas fern der Objektivität.
Da du selber im Speku Thread mal sagtest das du ai on läst wegen den 20-50% performence drops und du das flimern dafür in kauf nimmst.
In diesem Thread sprichst du von "kaum" Flimern da redest du das flimern schön (zu deiner vorigen aussage).
Was ich dir Glaube ist das das Af des R600 Gut ist.
Aber das Af des G80 ist auf höherem Level.
Aber nun mit der zeit 2-3 wochen werden user test erhältlich sein, und man wird fehler finden, darüber diskutieren vergleichen usw usf. Danach wird sich zeigen was dran ist und nicht.
Aha, also doch BQ-"Optimierungen".........hätte man irgendwie denken können.
Naja sofern, dies nicht in Auge fällt, also nur mit ner Lupe wahrnehmbar ist, ist es zu verzeihen.
Was mich mehr stört ist die Stromaufnahme!
Wieder praktisch kein Idle-Modus. ATI kann wohl nicht aus den Fehlern von Nvidia lernen........
Und die Karte ist ein warer Hitzkopf.
Die Leistung bei der Entlastung der CPU bei HDTV-Wiedergabe ist auch schlecht.
Wieso nicht gleich auf 65nm Fertigungsprozess umgestellt?
Es gibt so viele Mankos bei dieser Karte.....
Avivo2 funktioniert noch nicht, wird aber wohl gefixt werden, dem kann man ausserdem gegenüberstellen, daß es eine vollwertige HDMI-Schnittstelle gibt.
Und wenn ich die Vergleiche sehe, wird die Karte zwar im Idle wärmer, aber unter Last kühler...
Avivo2 funktioniert noch nicht, wird aber wohl gefixt werden, dem kann man ausserdem gegenüberstellen, daß es eine vollwertige HDMI-Schnittstelle gibt.
Und wenn ich die Vergleiche sehe, wird die Karte zwar im Idle wärmer, aber unter Last kühler...
Also wird die HDTV-Wiedergabe-Leistung besser werden.?^
Naja ist ja eigentlich nicht schlimm, dass sie so warm wird, solange sie nicht Probleme verursacht.......aber das ist alles andere als optimal.
Ist es denn so heftig schwierig einen gescheiten Idle-Modus in den Treibern zu programmieren?
Da gibt es ja schließlich einige "Mods" beispielsweise bei der 8800GTX, von USERN!, die die Stromaufnahme dann sinken lassen.
Und wenn ich die Vergleiche sehe, wird die Karte zwar im Idle wärmer, aber unter Last kühler...
Wenn ich meinen Lüfter der 8800GTX auf 100% stelle, wird meine Karte unter Last auch kühler...
Snoopy69
2007-05-14, 19:40:13
@ robbitop
Sag nochmal bitte was zu 8.37.4.2 vs 8.37.4.3
PS: CPU schon getauscht?
@ robbitop
Sag nochmal bitte was zu 8.37.4.2 vs 8.37.4.3
PS: CPU schon getauscht?
ich denke er wird erstmal nichts sagen, da er neu benchen wird?
Wenn ich meinen Lüfter der 8800GTX auf 100% stelle, wird meine Karte unter Last auch kühler...
Ah, also lief der Lüfter der HD 2900XT in den Tests nachweislich auf 100% und der der 8800GTX deutlich unter 100%, und das weisst du, weil du es getestet hast? Ansonsten ist dein Beitrag doch recht inhaltslos.
@ anderer Gast
Ich geh davon aus, daß die h.264 und HD-WMV-Beschleunigung noch kommt, ausserdem werden auch die Traytool-Entwickler etc. nicht schlafen und eine Lösung für 2D/3D-Taktraten etc. anbieten, da bin ich guter Dinge...
mapel110
2007-05-14, 19:44:44
Schon ein großer Sprung mit neuem Treiber bei den 3 Spielen dort.
Also ich sehe da eher einen herben Leistungsverlust mit dem neuen Treiber. :|
Und der Launchtreiber bekommt nun irgendwie den Ruf eines Cheattreibers für extralange Reviewbalken.
Ah, also lief der Lüfter der HD 2900XT in den Tests nachweislich auf 100% und der der 8800GTX deutlich unter 100%, und das weisst du, weil du es getestet hast? Ansonsten ist dein Beitrag doch recht inhaltslos.
Der Lüfter der HD2900XT ist deutlich lauter als der der GTX. Auf dem gleichen Lautstärkeniveau wäre auch die GTX kühler.
reunion
2007-05-14, 19:46:13
Gerade die Af Bemerkungen sind etwas fern der Objektivität.
Da du selber im Speku Thread mal sagtest das du ai on läst wegen den 20-50% performence drops und du das flimern dafür in kauf nimmst.
In diesem Thread sprichst du von "kaum" Flimern da redest du das flimern schön (zu deiner vorigen aussage).
AI hat sich mir R600 auch nachweislich verbessert, der vergleich mit R5xx ist also unpassend.
http://www.dailymotion.com/video/x1xzw0_hd-2900xt-in-action
Ronny145
2007-05-14, 19:50:24
Also ich sehe da eher einen herben Leistungsverlust mit dem neuen Treiber. :|
Und der Launchtreiber bekommt nun irgendwie den Ruf eines Cheattreibers für extralange Reviewbalken.
Schau dir einfach den 8.37.4.2 an, um den ging es. Aber hat sich ja eh erledigt, ist ja nicht vergleichbar wegen EATM.
Was ich gut finde, ist, dass ATi endlich das Packdichteproblem der Transistoren beheben konnte. Es ist nicht mehr so wie bei R5xx, wo man für fast die gleiche Transistorenanzahl trotz kleinerer Strukturbreite ein größeres Die benötigte. R600 kommt bei 720mio Transistoren in 80nm mit 420mm² aus, und ist damit - natürlich durch die kleinere Strukturbreite - deutlich kleiner als G80.
Umso schlimmer der höhere Stromverbrauch, denn es entscheidet die Leistungsdichte W/mm^2, was man noch vernünftig kühlen kann.
deekey777
2007-05-14, 19:53:14
Weltexklusiv: DX10-Realworld-Check HD2900 gegen GF 8800 (http://www.pcgameshardware.de/?article_id=601352) Lost-Planet
http://img170.imageshack.us/img170/1646/lpdx10snowqf7.jpg (http://imageshack.us)
http://img170.imageshack.us/img170/1663/lpdx10caveaq7.jpg (http://imageshack.us)
... und dabei kommt das Game von der Xbox360.
Und ich dachte, das Spiel kommt von Capcom...
Wenn Halo 2 endlich für den PC draußen wird, hoffe ich inständigst, dass das Spiel auf einer Geforce schneller laufen wird, sonst bricht die Welt zusammen, wenn das Spiel auf Radeon schneller läuft: Schließlich wurde Halo 2 für die Xbox entwickelt, und in dieser steckt ein NV2A.
Schau dir einfach den 8.37.4.2 an, um den ging es. Aber hat sich ja eh erledigt, ist ja nicht vergleichbar wegen EATM.
Ja, der 4.2 ist der Treiber vom 11. Mai mit dem "optimierten" AAA, der 4.3 ist der offizielle auf der AMD Seite mit "verbugten" AAA... :ugly:
Godmode
2007-05-14, 19:57:36
http://www.dailymotion.com/video/x1xzw0_hd-2900xt-in-action
Nicht gerade leise!
btw: was genau ist EATM?
AnarchX
2007-05-14, 19:59:49
btw: was genau ist EATM?
Multisampling für die Alpha-Tests, als soetwas wie NVs TMSAA, nur imo etwas interessanter, da man es auch per Parameter in der Registry steuern kann. ;)
robbitop
2007-05-14, 20:00:14
Der 3Dcenter Test ist wirklich einer der Schlechteren des 3Dcenter Tests.
Gerade die Af Bemerkungen sind etwas fern der Objektivität.
Der ist nicht von mir sondern von BBSR. Der Zeitfaktor hat uns allen leider etwas zu schaffen gemacht.
Da du selber im Speku Thread mal sagtest das du ai on läst wegen den 20-50% performence drops und du das flimern dafür in kauf nimmst.
In diesem Thread sprichst du von "kaum" Flimern da redest du das flimern schön (zu deiner vorigen aussage).
Dass ich privat ein Flimmern akzeptieren kann, heisst nicht, dass es micht nicht stoert oder ich es nicht sehe. Schonmal PS2 gezockt? Grand Toursimo 4 flimmert wie die Hoelle und macht trotzdem spass. Das heisst aber nicht, dass ich das Flimmern gutheisse.
Das R600 AF flimmert in praxisrelevanten, empfindlichen Szenen nicht. Zu dieser Aussage stehe ich.
Was ich dir Glaube ist das das Af des R600 Gut ist.
Aber das Af des G80 ist auf höherem Level.
Habe ich was anderes behauptet? :|
In der Praxis faellt der Unterschied allerdings selbst mit extremer Hartnaeckigkeit nicht auf.
Aber nun mit der zeit 2-3 wochen werden user test erhältlich sein, und man wird fehler finden, darüber diskutieren vergleichen usw usf. Danach wird sich zeigen was dran ist und nicht.
Dergleichen hoffe ich auch. Je mehr Leute das untersuchen desto besser.
Nicht gerade leise!
btw: was genau ist EATM?
also wenn man sich die extrem lauten nebengetäusche reinzieht ist die garnich soooo laut
robbitop
2007-05-14, 20:02:46
@ robbitop
Sag nochmal bitte was zu 8.37.4.2 vs 8.37.4.3
PS: CPU schon getauscht?
Auf ATIs Presse FTP ist der 8.3742 der neuste. Waere ja noch schoener, wenn jetzt bereits ein 4 Tage junger Treiber ersetzt wird. ;)
Es gibt allerdings einen 8.38, der jedoch eine Parallelentwicklung zum 8.374 ist und keinesfalls neuer, schneller oder besser ist. (eher andersrum)
edit ich sehe gerad bei ATI dass es einen 8.375 gibt. Ich werde allerdings dennoch nicht jeden kleinen Treiberpups benchen. :)
CPU ist seit Freitag eingeschickt. ;)
Godmode
2007-05-14, 20:04:08
Multisampling für die Alpha-Tests, als soetwas wie NVs TMSAA, nur imo etwas interessanter, da man es auch per Parameter in der Registry steuern kann. ;)
Ah verstehe, quasi Transparenz AA mit MS statt SS. Ok das ist dann wirklich nicht schön.
hier noch was zu den Flimmervideos:
Sehr geehrter Herr ...,
dies ist leider nicht möglich, da die Videos mit Teils mehr als einem
Gigabyte Speicher zu viel Platz benötigen. Wir überlegen zur Zeit, ob
man die Videos ausreichend komprimieren könnte (ohne Qualitätsverlust),
um diese dann Online zu stellen. Versichern können wir dies aber nicht.
Mit freundlichen Grüßen
Wolfgang Andermahr
horn 12
2007-05-14, 20:04:49
http://www.hwupgrade.it/articoli/skvideo/1725/ati-radeon-hd-2900-xt-e-il-momento-di-r600_index.html
Fallacy
2007-05-14, 20:08:20
ja, würde auch gerne AI off tests sehen. hardtecs4u macht das ja immer, gibts da schon was oder ist in aussicht?
mfg
Ja, sowas ist natürlich in Aussicht.
Allerdings arbeiten wir derzeit an einem anderen Review im Grafikkartenbereich, was unter anderem ein Grund war, auf einen Launch-Artikel zu verzichten (Den Stressfaktor außen vor gelassen ;) ). Wir haben uns diesmal dazu entschieden, den R600 in Ruhe unter die Lupe zu nehmen und dafür das ein oder andere Detail zu testen, was in einem Launch-Artikel aufgrund des Zeitdrucks auf der Strecke geblieben wäre.
Habt also noch ein wenig Geduld. Es wird aber sicherlich in geraumer Zeit ein Review auf HT4U zur HD 2900XT geben.
@Threadstarter:
Falls auch nicht Benchmark-Artikel von Interesse sind:
AMD / ATI Radeon HD2000-Serie Technik-Preview
http://hardtecs4u.com/reviews/2007/amd_radeon_2000/
Grüße,
Leander - HT4U
Das ist erstaunlich, ein wechselbad der gefühle - der oblivion score beeindruckt. Vor allem, weil da noch mehr zu holen scheint. In jedem fall kann man sagen, das die xt jetzt in der lage ist, oblivion in 1280x1024 mit 4xaa und 16xaf flüssig darzustellen. Schon beeindruckend!
War das Ironisch gemeint? 8xAA oder ein Äquivalenter Modus zu 16x(CSAA) wäre akzeptabel in der Auflösung. Man kauft sich doch keine 350-400€ Karte und schaltet nur 4xAA ein und das auch noch in der Pups Auflösung.
Da kann man auch bei ner X1950 bleiben, oder falls schon geschehen wäre eine grüne Karte auch angedacht.
Naja in 3-4 Wochen schau mer weiter. Auch AMD hat gegen den Vorsatz "nur 1 Treiber pro Monat" verstoßen und bringt jetzt ca. stündlich neue Treiber *g
Mr. Lolman
2007-05-14, 20:57:53
Ah verstehe, quasi Transparenz AA mit MS statt SS. Ok das ist dann wirklich nicht schön.
Ansichtssache: http://www.3dcenter.org/artikel/radeon_hd_2900_xt/index6.php
Aha, also doch BQ-"Optimierungen".........hätte man irgendwie denken können.
Es ist aber schon länger bekannt, dass ATI ihr ASTT gegen EATM eintauschen würde. In den letzten paar Monaten hat sich hinsichtlich EATM auch viel getan. Mit 4xEATM gabs beim 7.2 (oder wars der 7.1?) nur ~3 Transparenzabstufungen. Mittlerweile sinds mehr als doppelt soviele... (getestet in TDU beim Übergang von der Garagenausfahrt zur Straße)
Marcellus
2007-05-14, 21:00:15
ich find eatm schöner. wayne...
dildo4u
2007-05-14, 21:02:20
ich find eatm schöner. wayne...
Je nach Game möglich aber leider kann man ohne umfangreichen Kompatibilitätstests keine allgemeine Aussage treffen.
"Wirklich überzeugt sind wir jedoch noch nicht, da EATM in der Vergangenheit mit Kompatibilitätsproblemen zu kämpfen hatte."
http://www.3dcenter.org/artikel/radeon_hd_2900_xt/index6.php
Mr. Lolman
2007-05-14, 21:06:23
"Wirklich überzeugt sind wir jedoch noch nicht, da EATM in der Vergangenheit mit Kompatibilitätsproblemen zu kämpfen hatte."
http://www.3dcenter.org/artikel/radeon_hd_2900_xt/index6.php
Stimmt. In der Vergangenheit gabs tatsächlich Kompatibilitätsprobleme. Außerdem mussten für manche Spiele gewisse Flags händisch angepasst werden. So laufen zwar die meisten Spiele perfekt mit:
EATM: 1
ATMAlphaFix: 1
ATMAlphaSharpenBias: 0
ATMAlphaSharpenmode: 1
ATMAlphaSharpenScale: 1
für Gothic3 hingegen brauchte es aber noch zusätzlich ATMAlphaSharpenBias: 1. Insgesamt ist die Kompatibilität, seits die ATM-Keys gibt, aber enorm gestiegen. (ich wüsst auch nicht, wos momentan noch Probs macht)
laser114
2007-05-14, 21:41:34
Jetzt hat AMD auch die Website aktualisiert:
http://ati.amd.com/products/Radeonhd2900/index.html
http://ati.amd.com/products/Radeonhd2600/index.html
http://ati.amd.com/products/Radeonhd2400/index.html
sulak
2007-05-14, 21:46:50
Stimmt. In der Vergangenheit gabs tatsächlich Kompatibilitätsprobleme. Außerdem mussten für manche Spiele gewisse Flags händisch angepasst werden. So laufen zwar die meisten Spiele perfekt mit:
EATM: 1
ATMAlphaFix: 1
ATMAlphaSharpenBias: 0
ATMAlphaSharpenmode: 1
ATMAlphaSharpenScale: 1
für Gothic3 hingegen brauchte es aber noch zusätzlich ATMAlphaSharpenBias: 1. Insgesamt ist die Kompatibilität, seits die ATM-Keys gibt, aber enorm gestiegen. (ich wüsst auch nicht, wos momentan noch Probs macht)
Das hätte ich aber gerne als Offizielle Lösung oder wenigstens Profile für Spiele. Oder setzt die "A.I." diese Flags nun automatisch für Spiele? Sprich AMD definiert die vor, oder muss ich immer regedit anfeuern wenn ich ein Spiel starte? Wasn aufwand...
Also das ist ja ein astreiner SS: forumfundsachen :eek:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5493972&postcount=12
Ansichtssache: http://www.3dcenter.org/artikel/radeon_hd_2900_xt/index6.php
Das ist keine Ansichtssache, sondern objektiv eine Tatsache. Das was da rauskommt ist einfach nicht vorgesehen.
Deswegen kann man es auf keinen Fall gegen TSSAA benchen. Ich würd's ja für den Geschwindigkeitsverlust auch verwenden, weil's auf jeden Fall besser aussieht als gar nichts, aber trotzdem muss man schon aufpassen dass man nicht Äpfel mit Birnen vergleicht.
ich find eatm schöner. wayne...
Das ist subjektiv. Der Content sieht in diesem Fall besser aus, wenn die Blätter größer sind. Ist so aber nicht vorgesehen gewesen und da sollte die GPU die Finger von lassen. In anderen Fällen kann genau das Gegenteil passieren.
Mr. Lolman
2007-05-14, 21:49:28
Das hätte ich aber gerne als Offizielle Lösung oder wenigstens Profile für Spiele. Oder setzt die "A.I." diese Flags nun automatisch für Spiele? Sprich AMD definiert die vor, oder muss ich immer regedit anfeuern wenn ich ein Spiel starte? Wasn aufwand...
Ist sicher bald offiziell. Momentan penetrierst du einfach einmal mein Tool und schon passt alles: http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=29628&d=1164803036
Mr. Lolman
2007-05-14, 21:50:39
Das ist keine Ansichtssache, sondern objektiv eine Tatsache. Das was da rauskommt ist einfach nicht vorgesehen.
Mehr Details sind nicht vorgesehen? Vll. liegts auch daran, dass manche Spiele immernoch kein IngameAA anbieten. (sry4sarcasm)
In anderen Fällen kann genau das Gegenteil passieren.
Hm, etwa dass man zuviel sieht?
Mehr Details sind nicht vorgesehen?
Es sind nicht mehr Details da. Die Blätter sind einfach größer als vorgesehen.
Das Bild mit 8xAAA sollte schon annhähernd das Optimum anbieten was die Grafikkarten darstellen sollte. Aber das begreifst du wohl eh nicht.
Mr. Lolman
2007-05-14, 21:55:22
Es sind nicht mehr Details da. Die Blätter sind einfach größer als vorgesehen.
Ich kann mir nicht vorstellen, dass es von den Entwicklern vorgesehen war, dass die Blätter in der Luft schweben. http://www.3dcenter.org/artikel/radeon_hd_2900_xt/index6.php
Nönö. Das ist schon gut so, was EATM macht. Genau wie auch bei HL². Manche Alphatestgatter tauchen erst relativ spät auf (auch mit ASTT/ASBT), mit EATM sieht mans sofort...
Ich kann mir nicht vorstellen, dass es von den Entwicklern vorgesehen war, dass die Blätter in der Luft schweben. http://www.3dcenter.org/artikel/radeon_hd_2900_xt/index6.php
Dann braucht man eben noch mehr Supersampling.
Nönö. Das ist schon gut so, was EATM macht. Genau wie auch bei HL². Manche Alphatestgatter tauchen erst relativ spät auf (auch mit ASTT/ASBT), mit EATM sieht mans sofort...
Spielt keine Rolle. Das ist bei normalem AA und Geometrie auch so, wenn's durch das Samplemuster fällt. Die Blätter sind zu groß - Fertig aus. Wenn du ein noch "korrekteres" Bild willst dann nimm nen G80 und mach 4x4-Supersampling.
Und wenn's dann immer noch so ist ist es tatsächlich so das "korrekte" Bild wie es vorgesehen war. Das ist reine Logik. Deine Ansichten zur BQ sind immer viel zu subjektiv.
Mr. Lolman
2007-05-14, 21:58:22
Dann braucht man eben noch mehr Supersampling.
Was das kostet :rolleyes:
Spielt keine Rolle. Das ist bei normalem AA und Geometrie auch so, wenn's durch das Samplemuster fällt. Die Blätter sind zu groß. Fertig aus. Wenn du ein noch "korrekteres" Bild willst dann nimm nen G80 und mach 4x4-Supersampling.
Genau. Am besten gleich SLI, dann hab ich statt 94% nur mehr 88% Füllratenverlust (ggü Singlechiprendering) ;)
Deine Ansichten zur BQ sind immer viel zu subjektiv.
Ich befinde halt das für gut, was mir gefällt. Das erinnert mich auch an die Diskussion zu ATis biAF, wo aths eisern behauptete, dass es mieses biAF sei, weil man das Mipmapband kaum sieht ;D
Ich sagte schonmal, dass ich EATM für keine schlechte Lösung halte, nur kann man es einfach prinzipiell nicht einfach gegen Supersampling benchen und sie für identisch erklären. Das kann einfach nicht angehen.
Überhaupt ging's mir gerade gar nicht um die Performance, sondern nur darum dir zu erklären wie das "richtige" Bild auszusehen hat. Und zwar völlig objektiv.
Mr. Lolman
2007-05-14, 22:05:10
Ich sagte schonmal, dass ich EATM für keine schlechte Lösung halte, nur kann man es einfach prinzipiell nicht einfach gegen Supersampling benchen und sie für identisch erklären.
Das kann einfach nicht angehen.
Tut ja niemand. Meinetwegen soll man NV auch mit TRMSAA benchen. EATM halte ich eindeutig für besser als ASTT/TSSAA. Ungeachtet der Performance würde ich es mindestens als gleichwertig einstufen (zumindest solang bis man die mit dem Cat.7.4 tw. noch auftretenden Unregelmässigkeiten in Griff bekommen hat)
Wahrscheinlich sind die Unregelmäßigkeiten gar nicht in den Griff zu bekommen, weil man es für jede App finetunen muss.
Mr. Lolman
2007-05-14, 22:13:12
Wahrscheinlich sind die Unregelmäßigkeiten gar nicht in den Griff zu bekommen, weil man es für jede App finetunen muss.
Ist halt die Frage ob sie das machen und in welchem Ausmaß das überhaupt notwendig ist. Mit den oben geposteten Settings hab ich sehr gute Erfahrungen gemacht...
Also das CFAA Blurring ist schon heftig, das sieht man ja schon ohne auf die großen Screenshots zu schauen:
http://www.beyond3d.com/content/reviews/16/15
Ich sagte schonmal, dass ich EATM für keine schlechte Lösung halte, nur kann man es einfach prinzipiell nicht einfach gegen Supersampling benchen und sie für identisch erklären. Das kann einfach nicht angehen.
Überhaupt ging's mir gerade gar nicht um die Performance, sondern nur darum dir zu erklären wie das "richtige" Bild auszusehen hat. Und zwar völlig objektiv.
Nur weil es weniger Leistung kostet? Also EATM sieht auf den Screenshots viel besser aus! Mach mal die höchstmögliche Auflösung ohne irgendwelche AA Modis und man kann bestimmt die Äste erkennen, warum sollte man Bäume mit fliegenden Blättern programmieren?
Ich erinnere mich da auch an einige BF2 Screenshots, wo bei zuviel TSSAA die Zäune ganz verschwanden, sowas gehört wohl mit EATM der Vergangenheit an.
Nur weil es weniger Leistung kostet? Also EATM sieht auf den Screenshots viel besser aus! Mach mal die höchstmögliche Auflösung ohne irgendwelche AA Modis und man kann bestimmt die Äste erkennen, warum sollte man Bäume mit fliegenden Blättern programmieren?
Ich erinnere mich da auch an einige BF2 Screenshots, wo bei zuviel TSSAA die Zäune ganz verschwanden, sowas gehört wohl mit EATM der Vergangenheit an.
Ich streite nicht mehr mit euch. Wenn ihr logisch die Zusammenhänge die ich bereits deutlich gemacht habe nicht anerkennen wollt dann ist's mir auch egal. Der optimale Filter wäre das Flächenintegral der Farbe für jeden Pixel und genau das ist eben eher AAA als EATM und damit "richtiger".
Das was ich da auf dem Oblivion-Screenshot sehe ist auf jeden Fall eine Verfälschung des Bildes. Mag euch ja gefallen, aber es ist einfach so.
desert
2007-05-14, 22:45:41
coda lass es einfach, immerhin ist eatm von ati und damit unschlagbar:eek: Nvidia wird sowas nicht hinbekommen, weil die sind einfach böse. Und selbst wenn r600 auf a.i. high gegen g80 hq antritt mit 32x ssaa. Ja selbst dann hat einfach ati die bessere bq, weil es einfach ati ist
Nur weil es weniger Leistung kostet? Also EATM sieht auf den Screenshots viel besser aus!
EATM sieht einfach falscher aus und sonst nichts, da hat Coda schon Recht!
Es bringt nichts durch Aliasing entstehende Lücken, zum Beispiel bei dünnen Linien, einfach mal dadurch zu beheben, daß man die Linien so dick macht, daß bei der Abtastung keine Lücken mehr auftreten können.
Originally Posted by Julidz
what are R600's mistakes ?? G80 seems to be the winner...
This is pretty clearly true from an absolute performance pov right now. But then that's somewhere between 3-8% of the total market, and even that percentage is going to include some of the price point where they may be offering better, or at least competitive, performance for the dollar (tho hot and noisily). I think NV will respond on pricing, and then we'll have to see what AMD does. AMD does have some advantages there on the cost side.
B3D being mostly about enthusiasts, I'm not surprised in the least to see that as the knee jerk reaction today tho. Personally, I want to see the other two GPUs first before trying to make an overarching conclusion about the family.
http://forum.beyond3d.com/showpost.php?p=1004956&postcount=169
Das ist ja brutal offenherzig... ;D
Ansichtssache: http://www.3dcenter.org/artikel/radeon_hd_2900_xt/index6.php
Der EATM Screenshot ist ja falsch. Und ich hab mich schon gewundert, warum man da die einzelnen Pixel nicht erkennt.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5494545&postcount=117
BlackBirdSR
2007-05-15, 00:33:19
Richtig.., sorry. Da hat das Imaging-Programm mir wohl einen Strich durch die Rechnung gemacht. Die Beurteilung des Rankings ist zwar nicht anhand dieser Zooms entstanden, aber hier das korrekte Bild, linear skaliert.
http://home.arcor.de/blackbirdsr/Untitled-1.png
ich würde es ja gerne auf die knappe Zeit schieben. Aber in diesem Fall war es ein User-Error. Leo bekommt den Shot noch für das Update.
Spasstiger
2007-05-15, 00:47:03
Werden sie, wenn der Highpass-Filter da eine "Ecke" findet, d.h. die Frequenz "zu hoch" ist.
Es werden bei edge detection keine Texturen innerhalb von Polygonflächen behandelt.
Der edge-detection-Filter macht einfach Folgendes:
Liegen in den Multisample-Buffers unterschiedlich farbige Samples für ein Pixel vor, hat man ein Polygonkantenpixel und es werden beim Downsampling die Randsamples der Nachbarpixel miteinbezogen ("Quincunx für Fortgeschrittene").
Innerhalb einer Polygonfläche liegen in den Multisample-Buffers nur gleichfarbige Samples für ein Pixel vor und es wird normales MSAA-Downsampling mit ausschließlich eigenen Samples ("box") angewendet.
Edge Detection ist also ein selektiver Modus, der entweder wide tent ("Quasi-Quincunx") oder box ("kein Filter") als Filter anwendet, je nachdem, ob ein Pixel auf einer Polygonkante oder auf einer Polygonfläche liegt. Und die Entscheidung über Kantenpixel oder Flächenpixel erfolgt alleine über einen Vergleich der Multisample-Buffers.
dildo4u
2007-05-15, 00:57:04
Hat CB den Treibervergleich aktualisiert oder stand das schon immer drinn?
"Allem Anschein nach hat ATi aber Bildqualität zu Gunsten von Leistung geopfert, indem man ein wenig am AAA gewerkelt hat. Da dieser Treiber offiziell aber nicht freigegeben wird, soll dieser ausschließlich zu Testzwecken genutzt werden"
http://www.computerbase.de/news/treiber/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/
Ronny145
2007-05-15, 00:58:36
Hat CB den Treibervergleich aktualisiert oder stand das schon immer drinn?
"Allem Anschein nach hat ATi aber Bildqualität zu Gunsten von Leistung geopfert, indem man ein wenig am AAA gewerkelt hat. Da dieser Treiber offiziell aber nicht freigegeben wird, soll dieser ausschließlich zu Testzwecken genutzt werden"
http://www.computerbase.de/news/treiber/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/
Hatte ich vorhin schon gesehen. Kann mich aber nicht dran erinnern, dass das schon am Anfang dort stand. Im Forum bei denen wurde darauf hingeweisen, da haben die das sicherlich aktualisiert.
MadManniMan
2007-05-15, 01:50:49
Ich, ein ausgesprochenes Sensibelchen in Sachen Texturfilter...
Aye ;D Und beim VSA-100 fröhlich an der LoD-Bias Schraube drehen? FEIX!
MadManniMan
2007-05-15, 02:30:51
Ich habe keine Lust die fünfmillionen Seiten detailliert durchzulesen, sondern habe sie nur kurz überflogen, und kann mir nicht verkneifen, mal kurz anzumerken, dass jetzt auf einmal CFAA doch gut ist. Als ich in den R600-Speku-Threads oder hier im Thread nurmal kurz anmerke, dass man doch abwarten sollte, bevor man urteilt, und das dies bei richtiger Anwendung durchaus Sinn machen kann, wurde ich von unzähligen Personen mit allen möglichen Halbwahrheiten gleich aufs schärfste Attackiert. So, jetzt gehts mir wieder gut. :)
Daß plötzlich Edge CFAA funktionierend daherkommt (auf das Versprechen "kommt bald mitm Treiber" baue ich prinzipiell schon lange nicht mehr) kann ja keiner ahnen.
Ergo: Edge CFAA -> :up: ... wide und narrow -> :down:
Aye ;D Und beim VSA-100 fröhlich an der LoD-Bias Schraube drehen? FEIX!
Naja. Wenn sie es mit Supersampling kompensieren dann spricht ja tatsächlich nichts dagegen, sondern ist sogar legitim.
Nur übereiben es die Herrn glaube ich ganz gern ;)
Mr. Lolman
2007-05-15, 02:38:31
Naja. Wenn sie es mit Supersampling kompensieren dann spricht ja tatsächlich nichts dagegen, sondern ist sogar legitim.
Nur übereiben es die Herrn glaube ich ganz gern ;)
Im Q3a V56k-Thread gibts ein Video mit LOD -1,5 ohne AA. Und selbst das ist interessanterweise garnichtmal soooo extrem übel wie der vorher gepostete Screenshot nahelegen würde.
MadManniMan
2007-05-15, 02:51:53
Ich selbst hab ja leider nie ne VSA-100 besessen, von daher reine ... äh ... Kombinatorik das Ganze :D
Riecht aber doch schon nach Paradoxon :usweet:
Eine wahre Monster-Review von PcPop (China) 93 lange Seiten! :smile:
Ein Bild sagt ja manchmal mehr als 1000 Worte ... wirklich sehr informativ.
http://img145.imageshack.us/img145/8254/000361853yz4.gif
http://www.pcpop.com/doc/0/194/194233.shtml
und z.B.
http://img213.imageshack.us/img213/5575/000361841cp5.gif
die haben geschnallt worum es sich bei der HD 2900XT handelt - vorbildlich! :up:
Anarchy-HWLUXX
2007-05-15, 04:37:18
Nur liegt die 2900XT auch in CoJ @ DX9 vor der GTS und näher an der GTX ... also nix neues ;) oder wolltest du auf was anderes hinaus ?
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/16/#abschnitt_call_of_juarez
In dem anderen DX10-Benchmark ist ja die 8800 GTS besser als die HD 2900 XT.
Eine wahre Monster-Review von PcPop (China) 93 lange Seiten! :smile:
Ein Bild sagt ja manchmal mehr als 1000 Worte ... wirklich sehr informativ.
http://img145.imageshack.us/img145/8254/000361853yz4.gif
http://www.pcpop.com/doc/0/194/194233.shtml
und z.B.
http://img213.imageshack.us/img213/5575/000361841cp5.gif
die haben geschnallt worum es sich bei der HD 2900XT handelt - vorbildlich! :up:
Und was nutzt das, wenn beide Karten im unspielbaren Bereich liegen?
< 35fps ist ja mehr als jämmerlich.
Ich streite nicht mehr mit euch. Wenn ihr logisch die Zusammenhänge die ich bereits deutlich gemacht habe nicht anerkennen wollt dann ist's mir auch egal. Der optimale Filter wäre das Flächenintegral der Farbe für jeden Pixel und genau das ist eben eher AAA als EATM und damit "richtiger".
Das was ich da auf dem Oblivion-Screenshot sehe ist auf jeden Fall eine Verfälschung des Bildes. Mag euch ja gefallen, aber es ist einfach so.
also theoretisch hast du ja recht (mit der verfälschung)
dennoch sieht sieht die verfälschung per EATM sehr gut aus (obwohl ich stets und ständig nv-grakas verbaue)
wichtig ist doch was hinten raus kommt, wenn die optik stimmt, kanns mir doch eigentlich wurst sein, obs eigentlich "verfälscht" ist, oder nicht
Daß plötzlich Edge CFAA funktionierend daherkommt (auf das Versprechen "kommt bald mitm Treiber" baue ich prinzipiell schon lange nicht mehr) kann ja keiner ahnen.
Ergo: Edge CFAA -> :up: ... wide und narrow -> :down:
Nicht nur das, der edge detect Filter des CFAA scheint in punkt IQ neue Maßstäbe zu setzen. Selbst 16xQ auf G80 kommt da beim weiten nicht ran. Die Übergange sind praktisch fließend, besser gehts kaum.
robbitop
2007-05-15, 10:14:12
Ich streite nicht mehr mit euch. Wenn ihr logisch die Zusammenhänge die ich bereits deutlich gemacht habe nicht anerkennen wollt dann ist's mir auch egal. Der optimale Filter wäre das Flächenintegral der Farbe für jeden Pixel und genau das ist eben eher AAA als EATM und damit "richtiger".
Das was ich da auf dem Oblivion-Screenshot sehe ist auf jeden Fall eine Verfälschung des Bildes. Mag euch ja gefallen, aber es ist einfach so.
In Bewegung finde ich TSAA auch deutlich besser.
Mal eine Frage: Die Graeser in Oblivion werden weder von TSAA noch von AAA erfasst. Mit ASBT hingegen schon. Mich wundert das. Denn die Kanten der Graeser sehen nicht aus als waeren sie geblendet. Weisst du vieleicht was da los sein koennte? (in Gothic2 scheint es aehnlichzu sein)
LovesuckZ
2007-05-15, 10:16:36
Nicht nur das, der edge detect Filter des CFAA scheint in punkt IQ neue Maßstäbe zu setzen. Selbst 16xQ auf G80 kommt da beim weiten nicht ran. Die Übergange sind praktisch fließend, besser gehts kaum.
Der Nachteil ist, dass dafür die Recheneinheiten sehr stark belastet werden. Dadurch performant es noch schlechter als 16xQ, das ebenfalls keinen Preis/Leistungsgewinner abgibt.
robbitop
2007-05-15, 10:26:09
Ich gehe davon aus, dass das Resolving sehr bald als FF in den ROPs integriert wird. Dann sollte das deutlich fixer gehen.
Nicht nur das, der edge detect Filter des CFAA scheint in punkt IQ neue Maßstäbe zu setzen. Selbst 16xQ auf G80 kommt da beim weiten nicht ran. Die Übergange sind praktisch fließend, besser gehts kaum.
Man kann sich auch alles einreden, wenn man will?
Ich sehe hier keinen wesentlichen Unterschied zwischen 8x box filter und 24 CFAA.
Box:
http://www.beyond3d.com/images/reviews/r600-arch/aagame/8xbox-big.png
Edge detect (24CFAA)
http://www.beyond3d.com/images/reviews/r600-arch/aagame/8xedge-big.png
Mr. Lolman
2007-05-15, 10:40:55
In Bewegung finde ich TSAA auch deutlich besser.
Mal eine Frage: Die Graeser in Oblivion werden weder von TSAA noch von AAA erfasst. Mit ASBT hingegen schon. Mich wundert das. Denn die Kanten der Graeser sehen nicht aus als waeren sie geblendet. Weisst du vieleicht was da los sein koennte? (in Gothic2 scheint es aehnlichzu sein)
Die Kanten werden anscheinend doch geblendet. Die Gräser haben alle mehrbittige Alphakanäle. Ist imo ein Designfehler in Anbetracht des Ergebnis.
BTW: TDU geht ja wirklich schön ab:
Henroldus
2007-05-15, 11:01:18
Man kann sich auch alles einreden, wenn man will?
Ich sehe hier keinen wesentlichen Unterschied zwischen 8x box filter und 24 CFAA.
Box:
http://www.beyond3d.com/images/reviews/r600-arch/aagame/8xbox-big.png
Edge detect (24CFAA)
http://www.beyond3d.com/images/reviews/r600-arch/aagame/8xedge-big.png
wesentlich nicht, aber er ist da.
siehe rote obere kante:
beim edge sind die zaunfragmente verschwunden und die kante wirkt weicher
MadManniMan
2007-05-15, 11:02:06
Nicht nur das, der edge detect Filter des CFAA scheint in punkt IQ neue Maßstäbe zu setzen. Selbst 16xQ auf G80 kommt da beim weiten nicht ran. Die Übergange sind praktisch fließend, besser gehts kaum.
Dafür ist das Edge CFAA aber quälend langsam - zumal die ROPs hinüber sind.
Und DerWeisheit letzter Schluß ist Edge CFAA auch nicht, denn zumindest für die Bereiche der Polygonkanten wird nunmal immer noch geblurrt. Und damit kann es sein, daß man wichtige Informationen von "hinter" der Kante vermatscht oder auf "Flächen" aus vielen Polys auf der Front immer wieder Matsch entlang der Kanten sieht.
wesentlich nicht, aber er ist da.
siehe rote obere kante:
beim edge sind die zaunfragmente verschwunden und die kante wirkt weicher
Und DAS darf eigentlich nicht sein!
DrumDub
2007-05-15, 11:11:59
Ich gehe davon aus, dass das Resolving sehr bald als FF in den ROPs integriert wird. Dann sollte das deutlich fixer gehen. ähh.. wie das?
MadManniMan
2007-05-15, 11:22:36
ähh.. wie das?
Vielleicht ne neue Revision? Hehe, nein, das wäre fundamental. ATi wird das Refresh mit buglosen ROPs launchen wollen.
Schon die geile R600-TDU Performance gesehen? :eek:
http://www.3dcenter.org/artikel/radeon_hd_2900_xt/index16.php
Die Kanten werden anscheinend doch geblendet. Die Gräser haben alle mehrbittige Alphakanäle. Ist imo ein Designfehler in Anbetracht des Ergebnis.
BTW: TDU geht ja wirklich schön ab:
Wie oft möchtest Du das noch sagen?
Lutter
2007-05-15, 13:05:19
Was heißt denn das jetzt alles für den Otto-Normal-Spieler, der sich nicht in die kleinsten Details des Aufbaus der R600-GPU reindenken kann / will ?
So wie ich das sehe bzw. verstanden habe, kann man die 2900er Karten vergessen, wenn man AA/AF in der klassischen Form zuschalten will, zum Beispiel bei Call of Duty 2, Stalker ... was eben so "Otto-Normal" gespielt wird. Wie kann das angehen ?
Wenn ich jetzt gutes Geld ausgeben will, um ein wirklich tolles Bild mit AA und AF zu haben, muß ich also zur NVIDIA 8800 GTS 640 MB oder zur GTX/Ultra greifen, oder wie. Die ATI 2900XT kann ich dann in den Zweitrechner stecken und ein feines Bild in Office 2000 geniessen, geile Sache ATI/AMD ! :mad:
Das muß man einem ATI-Fan erstmal genau erklären, wie eine neue Karte so scheiße released werden kann, wo doch die Leistung der Konkurrenzprodukte schon fast ein Jahr mehr als bekannt war/ist. -grosses kopfschüttel-
Wenn das so weiter geht, kann die Bude um AMD bald zumachen. Die CPU's stinken gegen Intel ab und die GPU's gegen NVIDIA. Das nenne ich mal kollektives Versagen auf ganzer Ebene. Wenn alles gut läuft, können wir hier alle zusammenlegen in die Buchte aufkaufen !;) Echt unglaublich !!!
naja im prinzip heisst das für otto-normalspieler:
- ohne AA geht die karte ab wie schmitts katze für den preis (big bang for the bucks)
- mit AA ist das eher ne schnecke
- das performanceproblem mit AA könnte ein Software oder/und Hardwarebug sein
- Die Treiber sind allgemein noch ziemlich mau (die Treiberfrickler werden aber sicher derzeit auf hochtouren daran friemeln...)
Fazit: wer unbedingt sofort was haben will bekommt beim G80 das unproblematischere Produkt mit mehr jetziger performance (kann aber mit neuen Treiber schon wieder ganz anders aussehen)
der R600 ist bisher ein Mysterium.....Kraftprotz oder Lutscher...kaum jemand kann da derzeit was sicher sagen....
meine Karte geht derzeit noch ganz gut...d.h. mit einer GTS bekomme ich jetzt nicht soooooviel mehrperformance das sich der kauf lohnt...also werd ich mal tee trinken und beobachten
Mr. Lolman
2007-05-15, 13:15:48
Wie oft möchtest Du das noch sagen?
Noch ein paar mal wenns sein muss. :biggrin: Ich schätz es wurden unterschiedliche Stellen gebencht und deswegen erübrigt sich zumindest ein Kritikpunkt der fehlenden Realworldvergleichbarkeit, wie von Dargo mokiert...
DerKleineCrisu
2007-05-15, 13:48:18
man könnte auch sagen:
ATI hatte nun diese Chips nach 4-6 Monate Verspatung auf Lager nun müssen sie auch raus auch wenn sie nix bringen.
Zur Zeit ist der Preis für so eine GraKa viel zu hoch gemessen an Leistung und Stromverbrauch.
Ich Zahle doch Keine ~ 370 - 400 € für so einen schrott die einer 8800 GTS mal das wasser reichen kann.
die 8800 GTS als 640 MB version bekommt man zur zeit ab 309 € .
@Odal Nach dieser Verspätung kann man erwarten nein eigendlich Verlangen das sie Treiber bereitstellen die Funktionieren und nicht die user auf nächste versionen vertrösten da da alles besser sein wird.
Wie würde es dir denn gefallen wenn man sich ein neues Auto kauft und Feststellt das die Klimaanlage wegen einem Softwarebug nicht geht und der Hersteller sagt beim nächsten Update das in 1 Monat kommt ist der Fehler drausen, aber der Fehler das sie einen Spritverbrauch von 18 Liter haben können wir erst beim nächsten modell fixen ;) .
In Bewegung finde ich TSAA auch deutlich besser.
Mal eine Frage: Die Graeser in Oblivion werden weder von TSAA noch von AAA erfasst. Mit ASBT hingegen schon. Mich wundert das. Denn die Kanten der Graeser sehen nicht aus als waeren sie geblendet. Weisst du vieleicht was da los sein koennte? (in Gothic2 scheint es aehnlichzu sein)
Ich müsste Oblivion erstmal wieder installieren um da was sagen zu können.
Mr. Lolman
2007-05-15, 13:51:58
Wie würde es dir denn gefallen wenn man sich ein neues Auto kauft und feststellt das die klimaanlage wegen einem softwarebug nicht geht und der Hersteller sagt beim nächsten update das in 1 monat kommt ist der fehler drausen, aber der fehler das sie nur 140 fahren können, können wir erst beim nächsten modell fixen ;) .
Kommt drauf an. Beim aktuellen Wetter ist ne Klimaanlage unnütz, und wenn das Auto dafür eine gute Geländegängigkeit hat und ich eher davon ausgehen kann, dass es die neuen Straßen des nächsten Jahres noch befahren kann, als beim Konkurrenzmodell, ists vll. ne Überlegung wert. Mal abgesehen davon, dass die Leute die regelmässig deutlich schneller als 140 fahren eh gehenkt gehören. X-D
Ich müsste Oblivion erstmal wieder installieren um da was sagen zu können.
Es wird einfach Alphablending betrieben.
EDIT: Danke DK777 :D
Die Asus 2900er mit Stalker gibt es schon ab 349, aber noch nicht lieferbar.
Es wird einfach Alphablending betrieben.
Dazu müsste es das komplette Gras in der Szene von Hinten nach Vorne sortiert zeichnen. Sehr sehr unwahrscheinlich.
Mr. Lolman
2007-05-15, 14:00:44
Dazu müsste es das komplette Gras in der Szene von Hinten nach Vorne sortiert zeichnen. Sehr sehr unwahrscheinlich.
Es gibt auf jeden Fall einen 8bit Alphakanal, der auch fleissig genutzt wird. Bei einer Reduktion auf 1bit, sahs Ingame auch sichtbar schlechter aus.
Lutter
2007-05-15, 14:02:55
naja im prinzip heisst das für otto-normalspieler:
- ohne AA geht die karte ab wie schmitts katze für den preis (big bang for the bucks)
- mit AA ist das eher ne schnecke
- das performanceproblem mit AA könnte ein Software oder/und Hardwarebug sein
- Die Treiber sind allgemein noch ziemlich mau (die Treiberfrickler werden aber sicher derzeit auf hochtouren daran friemeln...)
Wie kann ich denn als namhaftes Unternehmen, dem das Wasser schon "bis zum Nabel" reicht, denn sowas releasen ? Ich teste doch mein Produkt nicht nur, ob es vom Mainboard nur erkannt wird, sondern normalerweise vergleiche ich mit der direkten Konkurrenz, oder kann sich das Testlabor bei ATI/AMD keine 8800 GTS/GTX und ein paar Spiele-Versionen mehr leisten? Dann könnte ich es nachvollziehen.
Die müssen doch gewußt haben, was für einen unausgegorenen Kram die da auf den Markt schmeißen.
der R600 ist bisher ein Mysterium.....Kraftprotz oder Lutscher...kaum jemand kann da derzeit was sicher sagen....
Ja, nichtmal der Hersteller kann das wohl.
@Odal Nach dieser Verspätung kann man erwarten nein eigendlich Verlangen das sie Treiber bereitstellen die Funktionieren und nicht die user auf nächste versionen vertrösten da da alles besser sein wird.
Wie würde es dir denn gefallen wenn man sich ein neues Auto kauft und Feststellt das die Klimaanlage wegen einem Softwarebug nicht geht und der Hersteller sagt beim nächsten Update das in 1 Monat kommt ist der Fehler drausen, aber der Fehler das sie einen Spritverbrauch von 18 Liter haben können wir erst beim nächsten modell fixen ;) .
genau darum bleiben jetzt die mäuse ja noch bei pappa
wer unbedingt dringend neue grafikhardware braucht/möchte hat zwei möglichkeiten....
1. entweder er steuert sein schiff in den sicheren hafen und holt sich ein G80 derivat hat spass und falls das ding sich in zukunft als lutscherkarte herausstellt holt er sich was neues...
2. man pokert hoch und holt sich jetzt einen R600 kämpft mit treiberbugs und eher durchwachsener performance und erfreut sich mit glück an einem performanten produkt in ein paar monaten oder hat halt pech das sich das nicht mehr viel bessert....
allen die nicht unbedingt was neues brauchen bietet die 2900XT in dem zustand jedenfalls nicht genug kaufanreiz.....die können nochmal schön die ocken unters kopfkissen stecken und ein paar nächte drüber schlafen
und sehen wie der markt dann so aussieht
[dzp]Viper
2007-05-15, 14:04:59
Wie kann ich denn als namhaftes Unternehmen, dem das Wasser schon "bis zu Nabel" reicht, denn sowas releasen ? Ich teste doch mein Produkt nicht nur, ob es vom Mainboard nur erkannt wird, sondern normalerweise vergleiche ich mit der direkten Konkurrenz, oder kann sich das Testlabor bei ATI/AMD keine 8800 GTS/GTX und ein paar Spiele-Versionen mehr leisten? Dann könnte ich es nachvollziehen.
Die müssen doch gewußt haben, was für einen unausgegorenen Kram die da auf den Markt schmeißen.
Sicher habe sie das gewusst.
Aber was sollen sie machen? Nochmal 6 Monate warten bis zum Refresh und dabei noch viel mehr Miese machen als wenn sie jetzt die Notbremse ziehen und Schadensbegrenzung betreiben indem sie die 2900XT veröffentlichen?
Aber klar.. lieber würde eine Firma eine Karte ganz einstampfen anstatt wenigstens den Profit mitzunehmen den sie mit der Karte erreichen könnte...
DerKleineCrisu
2007-05-15, 14:07:54
wenn das Auto dafür eine gute Geländegängigkeit hat und ich eher davon ausgehen kann, dass es die neuen Straßen des nächsten Jahres noch befahren kann
Da haste natürlich auch Recht. In Zeiten wo der Staat viel Geld in das Straßennetz stecken tut, wäre ein Fz das Geländegänig ist besser :biggrin: .
@Gast du hast es gesagt nicht lieferbar :wink: , aber der Stromverbrauch ist immer noch viel zu hoch :P .
Vertigo
2007-05-15, 14:09:39
Viper;5496163']Sicher habe sie das gewusst.
Aber was sollen sie machen? Nochmal 6 Monate warten bis zum Refresh und dabei noch viel mehr Miese machen als wenn sie jetzt die Notbremse ziehen und Schadensbegrenzung betreiben indem sie die 2900XT veröffentlichen?
Aber klar.. lieber würde eine Firma eine Karte ganz einstampfen anstatt wenigstens den Profit mitzunehmen den sie mit der Karte erreichen könnte...
Das Image hat ATI/AMD mit dem Release, wie er bisher gelaufen ist, nicht wirklich aufpolieren können. Da hat man wohl wirklich keine Wahl mehr gehabt ... ;(
Mr. Lolman
2007-05-15, 14:10:03
Da haste natürlich auch Recht. In Zeiten wo der Staat viel Geld in das Straßennetz stecken tut, wäre ein Fz das Geländegänig ist besser :biggrin:
Tut er das, oder zockt der die Leute nur ab und erhebt Steuern auf die Straßennutzung ;)
Wie sieht es denn nun genau aus?
Scheint die lahme Performance mit AA eher ein Hardware oder eher ein Software Problem zu sein? Kann man das überhaupt sagen, oder ist es beides?
Lohnt es auf lange Zeit gesehen, eher eine G80 oder eher eine R600 zu kaufen?
Wie sieht es denn nun genau aus?
Scheint die lahme Performance mit AA eher ein Hardware oder eher ein Software Problem zu sein? Kann man das überhaupt sagen, oder ist es beides?
Lohnt es auf lange Zeit gesehen, eher eine G80 oder eher eine R600 zu kaufen?
Beide sind in 2Jahren nicht zu Gebrauchen :P
Wie kann ich denn als namhaftes Unternehmen, dem das Wasser schon "bis zum Nabel" reicht, denn sowas releasen ? Ich teste doch mein Produkt nicht nur, ob es vom Mainboard nur erkannt wird, sondern normalerweise vergleiche ich mit der direkten Konkurrenz, oder kann sich das Testlabor bei ATI/AMD keine 8800 GTS/GTX und ein paar Spiele-Versionen mehr leisten? Dann könnte ich es nachvollziehen.
Die müssen doch gewußt haben, was für einen unausgegorenen Kram die da auf den Markt schmeißen.
Ja, nichtmal der Hersteller kann das wohl.
natürlich testen die ihr produkt...nur hat sich der R600 schon solang verzögert und bevor sie garnix relaesen haben sie den halt auf den markt gehauen....vermutlich hatte man auch gehofft die treiber noch etwas besser im griff zu haben bis zum release...das ding ist ohne treiberbugs zwar nicht der burner aber ein völliger rohrkrepierer ist es auch nicht....
wenn bei tests irgendwelche unzulänglichkeiten auffallen ist es nicht so einfach machbar von heut auf morgen das design komplett in die tonne zu treten und zu ändern.....das braucht alles seine zeit und wenn man weiter vorschoben hätte würde der nachfolger schon in den startlöchern stehen....das wäre wie x1800 und x1900 gleichzeitig zu releasen....
man muss schauen ob die jetzt noch schnell die treiberhinfrickeln können oder ob das wirklich hardwarebugs sind die dann im refresh behoben sind....beim R520 gabs da ja auch was das den bei cod2 und aoe3 komplett abspacken ließ
[dzp]Viper
2007-05-15, 14:15:49
Das Image hat ATI/AMD mit dem Release, wie er bisher gelaufen ist, nicht wirklich aufpolieren können. Da hat man wohl wirklich keine Wahl mehr gehabt ... ;(
Bingo. Sie nehmen jetzt noch mit was sie Mitnehmen können... Auch wenn es wohl nicht sehr viel sein wird - aber besser als garnichts ;)
Ich habe für mich den Launch der 2900xt abgehakt und sehe voller Hoffnung dem Herbst entgegen damit wird wieder einen guten Wettbewerb zwischen NV und ATI haben :up:
Beide sind in 2Jahren nicht zu Gebrauchen :P
das hatte man beim R300 auch behauptet
ich musste mich da übrigens auch eines besseren belehren lassen
Wie sieht es denn nun genau aus?
Scheint die lahme Performance mit AA eher ein Hardware oder eher ein Software Problem zu sein? Kann man das überhaupt sagen, oder ist es beides?
Lohnt es auf lange Zeit gesehen, eher eine G80 oder eher eine R600 zu kaufen?
genau das ist imho noch ein mysterium......darum sollte man mal noch ein paar treiber (die ja mittlerweile aufgrund der bugs gehäuft erscheinen :D ) abwarten und dann sehen...oder jemand mit insider infos klärt auf ob das wirklich ein signifikanter hardware bug ist...dann sollte man vom R600 grundsätzlich die finger lassen...nicht das man genauso auf die fre**e fällt wie mit dem nv30 (ich sag nur zuwenig temp register)
Vertigo
2007-05-15, 14:19:49
Viper;5496209']Bingo. Sie nehmen jetzt noch mit was sie Mitnehmen können... Auch wenn es wohl nicht sehr viel sein wird - aber besser als garnichts ;)
Ich habe für mich den Launch der 2900xt abgehakt und sehe voller Hoffnung dem Herbst entgegen damit wird wieder einen guten Wettbewerb zwischen NV und ATI haben :up:
Wenn wir das nochmal erleben dürfen ...
Agena kommt ja auch erst im Herbst und ob Barcelona und R600 (wieso hat der eigentlich keinen Codenamen? :uponder:) bis dahin AMDs Umsätze halbwegs retten können?
Aber mal sehen wie die R600-Reviews in den Printmedien nächsten Monat aussehen - die haben wohl einen etwas größeren Einfluß auf den Gesamtmarkt.
Beide sind in 2Jahren nicht zu Gebrauchen :P
Klar in 2 Jahren, aber wenn der G80 dann noch 25FPS liefert, die R600 hingegen nur noch 20 (bei gleichen Qualitätseinstellungen) dann sollte ja klar sein was man lieber für ein Produkt hätte.
Die Frage ist aber ob ATI mit einem neuen Treiber die AA Performance ohne sichtliche Bildverschlechterung verbessern kann, oder ob das nicht möglich ist, weil ein Hardwarebug vorliegt.
Wäre zumindest für mich eine Kaufentscheidende Frage, ...
Godmode
2007-05-15, 14:20:09
Viper;5496209']Bingo. Sie nehmen jetzt noch mit was sie Mitnehmen können... Auch wenn es wohl nicht sehr viel sein wird - aber besser als garnichts ;)
Ich habe für mich den Launch der 2900xt abgehakt und sehe voller Hoffnung dem Herbst entgegen damit wird wieder einen guten Wettbewerb zwischen NV und ATI haben :up:
Ich hoffe auch sehr auf einen starken G90 und einen starken R650, den Preisen kann sowas nur gut tun!
das hatte man beim R300 auch behauptet
ich musste mich da übrigens auch eines besseren belehren lassenDer Sprung von Dx9 auf Dx10 ist aber ne andere sache wie Damals!
Auch mit dem R650 und G90 wirds da schwer.
Der Sprung von Dx9 auf Dx10 ist aber ne andere sache wie Damals!
Auch mit dem R650 und G90 wirds da schwer.
ähm jeder neue techlevel ist was anderes...damals wars halt DX8 auf DX9 jetzt ist es DX9 auf DX10 probleme sind natürlich nicht gleich...nur die GPU architekturen sind mittlerweile deutlich programmierbarer und somit softwareabhängiger...wo vor jahren die wahrscheinlichkeit noch gross war das irgendwas irreparabel in hardware verranzt ist stehen nun die chancen nicht schlecht das wenns irgendwo klemmt eben der treiber ein problem hat bzw. sich vieles über diesen noch ausbügeln lässt...
Klar in 2 Jahren, aber wenn der G80 dann noch 25FPS liefert, die R600 hingegen nur noch 20 (bei gleichen Qualitätseinstellungen) dann sollte ja klar sein was man lieber für ein Produkt hätte.Natürlich. Das Produkt, was für die persönlichen Präferenzen die bessere Bildqualität liefert, denn ob 20 oder 25fps ist wohl absolut scheißegal. In Rennspielen oder Shootern ist beides zu langsam, in RPG oder RTS beides noch spielbar.
LovesuckZ
2007-05-15, 15:14:25
AMD, Angst vor D3D10?
AMD Cautioned Reviewers On DX10 Lost Planet Benchmark (http://www.vr-zone.com/?i=4983)
Schon lustig, wie sehr sie auf den 8800 Karten unoptimierte Software laufen lassen und dann mit ihrer Hardware vergleichen, aber wenn das nVidia ebenfalls macht, haben sie plötzlich sehr viel angst. :rolleyes:
[dzp]Viper
2007-05-15, 15:22:41
AMD, Angst vor D3D10?
AMD Cautioned Reviewers On DX10 Lost Planet Benchmark (http://www.vr-zone.com/?i=4983)
Schon lustig, wie sehr sie auf den 8800 Karten unoptimierte Software laufen lassen und dann mit ihrer Hardware vergleichen, aber wenn das nVidia ebenfalls macht, haben sie plötzlich sehr viel angst. :rolleyes:
Naja im Prinzip haben sie ja schon recht... Ist scheisse wenn ein benchmark rauskommt und eine der beiden Parteien keine Chance hatte darauf zu Optimieren.
ABER - ist Lost Planet nicht ein Xbox360 Spiel? Das heißt die haben doch im Prinzip schon einmal das Spiel auf eine ATI-Karte (in der Box) optimiert und auch zugriff auf den Code gehabt oder?!
Hm naja... mal gucken (Ergebnisse gibts ja schon)
Ach Capcom kann es sich nicht leisten ATI auszuschliesen.
Nur weils ein twimtbp Sticker bekommt muss es auf Nv nicht schneler sein (gibt doch genug games mit dem sticker) es bedeutet nur das Nv Capcom geholfen hat.
Aber, genau das macht ATI auch oder sie häten es machen können capcom häte auch hilfe von ATI in anspruch genomen.(Scheinbar hielt ATI es nicht für nötig oder hate keine leute über dafür)
LovesuckZ
2007-05-15, 15:35:51
Viper;5496385']
ABER - ist Lost Planet nicht ein Xbox360 Spiel? Das heißt die haben doch im Prinzip schon einmal das Spiel auf eine ATI-Karte (in der Box) optimiert und auch zugriff auf den Code gehabt oder?!
Laut Giga ist sich Ubisoft für die Umsetzung verantwörtlich - und die scheinen wohl eng mit nVidia zusammengearbeitet zu haben. Im grunde sollte die 2900XT im DX9 Modus sehr gut mithalten. Außer man habe den ganzen Renderpfad verändert.
reunion
2007-05-15, 15:38:13
Viper;5496385']Naja im Prinzip haben sie ja schon recht... Ist scheisse wenn ein benchmark rauskommt und eine der beiden Parteien keine Chance hatte darauf zu Optimieren.
ABER - ist Lost Planet nicht ein Xbox360 Spiel? Das heißt die haben doch im Prinzip schon einmal das Spiel auf eine ATI-Karte (in der Box) optimiert und auch zugriff auf den Code gehabt oder?!
Hm naja... mal gucken (Ergebnisse gibts ja schon)
Die Demo wird exklusiv auf der NV-Homepage zum Download angeboten, wo auch damit geprahlt wird, dass die Gefroce 8 Serie die Entwickungsplattform für den D3D10-Pfad war. Ich denke mehr braucht man dazu nicht sagen.
Man kann sich auch alles einreden, wenn man will?
Ich sehe hier keinen wesentlichen Unterschied zwischen 8x box filter und 24 CFAA.
Box:
http://www.beyond3d.com/images/reviews/r600-arch/aagame/8xbox-big.png
Edge detect (24CFAA)
http://www.beyond3d.com/images/reviews/r600-arch/aagame/8xedge-big.png
http://www.3dcenter.de/artikel/radeon_hd_2900_xt/index5.php
Wenn du da keine erheblichen Unterschied merkst, dann hast du was mit dem Auge.
Viper;5496209']Bingo. Sie nehmen jetzt noch mit was sie Mitnehmen können... Auch wenn es wohl nicht sehr viel sein wird - aber besser als garnichts ;)
Ich habe für mich den Launch der 2900xt abgehakt und sehe voller Hoffnung dem Herbst entgegen damit wird wieder einen guten Wettbewerb zwischen NV und ATI haben :up:
Wenn die Mainstream-Modelle bald kommen und halbwegs gut werden, könnte es doch noch ein Happy-End geben, dann noch die Treiber etwas auf Vordermann gebracht...
Ich hoffe AMD nimmt Einfluß auf die ATi-Treiberabteilung und es ergeben sich dort langfristig viele Verbesserungen.
Hätten sie es vielleicht auf der nicht-existenten R600 Platform entwickeln sollen?
fertige prototypen gibt es schon lange
und damit hätten eigentlich alle fehler beseitigt werden können
reunion
2007-05-15, 17:30:50
Kann es sein, dass die Sampleanordnung bei ATIs 8xMSAA-Muster wesentlich besser ist als bei nV?
AnarchX
2007-05-15, 17:34:00
Kann es sein, dass die Sampleanordnung bei ATIs 8xMSAA-Muster wesentlich besser ist als bei nV?
Ja, das meint auch CB (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/6/#abschnitt_aa_kontrolliert).
Der 8xAA-Modus ist ATi auf dem R600 sehr gut gelungen und sieht ohne Zweifel besser als nVidias 8xQAA aus. Selbst das 16xQAA muss sich anstrengen, um an das acht-fache AA auf dem R600 heranzukommen.
LovesuckZ
2007-05-15, 17:40:28
Ja, das meint auch CB (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/6/#abschnitt_aa_kontrolliert).
Die Frage ist nur: Wo?
Zu den synthetischen tests schreiben sie folgendes:
Interessanter wird es dagegen beim 8xAA, da sich hier die Lösungen von ATi und nVidia unterscheiden. Einen grundsätzlichen Gewinner können wir nicht ausmachen, auch hier ist das Ergebnis wieder von Winkel zu Winkel unterschiedlich. Einen Totalausfall bei gewissen Winkeln, wie man es bei dem ein oder anderen Sample-Muster in der Vergangenheit schonmal bewundern konnte, gibt es auf jeden Fall nicht.
Und bei den HL2 Screenshots sollte klar sein, dass das kein 8xMSAA ist.
AnarchX
2007-05-15, 17:45:02
Und bei den HL2 Screenshots sollte klar sein, dass das kein 8xMSAA ist.
Der 8xQ AA Shot sieht in der Tat nicht nach diesem aus. :| (Imo hat man da 8x mit 8xQ vertauscht und das vielleicht auch bei der Bewertung)
Mr. Lolman
2007-05-15, 17:46:46
Und bei den HL2 Screenshots sollte klar sein, dass das kein 8xMSAA ist.
Was denn sonst? Die Glättung der Stromkabel links hinter dem Kran entspricht genau dem, was auch schon die BQ der snythetischen Tests zeigt. Filigrane Strukturen werden anscheinend besser geglättet.
Der 8xQ AA Shot sieht in der Tat nicht nach diesem aus. :|
Es ist aber auch kein 4xAA und auch kein 8xAA (ohne Q). Was solls also sein?
EDIT: Achso. Hab den 8xAA (ohne Q) Screenshot angesehen. Bei 8xQ stimmt tatsächlich was nicht.
EDIT2: Interessanterweise sieht inder Szene Atis 8xAA auch besser aus als 16xQAA.
paul.muad.dib
2007-05-15, 17:47:48
Bitte widerlegt folgende Aussage:
Der R600 ist im Prinzip nur ein verbesserter r580. Die Filterfähigkeiten der TMUs wurden erweitert, den Wegfall der Vertex Shader kompensiert das von 3:1 auf 4:1 angehobene Verhältnis von TMUs zu ALUs. Die Entkopplung der ALUs wurde so weitergetrieben, dass es nun US sind. Außerdem wird nun die Fähigkeit des Chips genutzt, den Speicher mit einem 512 bit Interface anzusprechen.
Leistungssteigerungen ergeben sich aus gestiegenem Takt und Speicherbandbreite, ansonsten sind eben die DX10 Fähigkeiten hinzugekommen.
LovesuckZ
2007-05-15, 17:53:46
Nein, der r600 unterscheidet sich schon gewaltig vom r580. Als Konzept dient Xenos, der eben in bestimmten Bereichen erweitert wurde.
EDIT2: Interessanterweise sieht inder Szene Atis 8xAA auch besser aus als 16xQAA.
Noe, eigentlich nicht. :rolleyes:
mapel110
2007-05-15, 17:53:56
Bislang haben alle Technikgurus hier behauptet, dass R600 mit R580 nicht viel gemein hat, eher mit Xenos, der xbox360-GPU. Eben ein USC.
Der "nutzlose", hohe Transistorcount kommt wohl von einem zu umständlichen Design. nviida hat das Sparen ja schon beim G71 geübt. 271 zu 302 Mio Transistoren.
Mr. Lolman
2007-05-15, 17:58:39
Noe, eigentlich nicht. :rolleyes:
Vll. kuck ich auch falsch. Aber die 2 Stromkabel im Hintergrund sind mit NV 16xQAA unterbrochen und mit ATis 8xAA nicht. Interessanterweise sehen sie mit NVs 4xAA auch einwandfrei aus.
EDIT: und der Edge Detect Filter von ATi macht sie auch kaputt :|
LovesuckZ
2007-05-15, 18:01:42
Vll. kuck ich auch falsch. Aber die 2 Stromkabel im Hintergrund sind mit NV 16xQAA unterbrochen und mit ATis 8xAA nicht. Interessanterweise sehen sie mit NVs 4xAA auch einwandfrei aus.
Guck doch mal auf die "Kabel" auf der rechten Seite beim Zaun - die sehen subjektiv für mich besser aus mit dem nVidia Modus. Ebenso am vorderen linken Bein des Krahns.
Objektiv gesehen gibt es keinen so gewaltigen Unterschied, um den einen oder anderen Modus als überlegen darzustellen. Leider gibt es ja keinen richtigen Vergleich mit dem 8xQ Modus...
http://www.3dcenter.de/artikel/radeon_hd_2900_xt/index5.php
Wenn du da keine erheblichen Unterschied merkst, dann hast du was mit dem Auge.
Diese Screenshots sind ja völlig unbrauchbar, da nicht derselbe Blickwinkel gezeigt wird.
Hier sind nichmal die richtigen:
Box:
http://www.beyond3d.com/images/revie.../8xbox-big.png
Edge detect (24CFAA)
http://www.beyond3d.com/images/revie...8xedge-big.png
Übrigens: es ist ein Unterschied zwischen "keinem Unterschied" und "keinem wesentlichen Unterschied";)
Und eine wesetltichen Unterschied sieht du bei og. Shots nur, wenn du das Differenzbild beider Shots bildest und Gamma stark aufdrehst.
Kann es sein, dass die Sampleanordnung bei ATIs 8xMSAA-Muster wesentlich besser ist als bei nV?
Wie definierst du "besser"?
Bei haben ein EER von 8x8, die Anordnung der Sampels ist unterschiedlich, so daß einmal die eine Anordnung und ein anderes Mal die andere Anordnung ein besseres Resultat liefert.
Gegenfrage: wer hat das bessere 2xAA oder 4xAA? ATI oder NV, deren Sampleanordnung um 90° gedreht ist ggü. ATI?
Kann es sein, dass die Sampleanordnung bei ATIs 8xMSAA-Muster wesentlich besser ist als bei nV?
Wie definierst du "besser"?
Beide haben ein EER von 8x8, die Anordnung der Sampels ist unterschiedlich, so daß einmal die eine Anordnung und ein anderes Mal die andere Anordnung ein besseres Resultat liefert.
Gegenfrage: wer hat das bessere 2xAA oder 4xAA? ATI oder NV, deren Sampleanordnung um 90° gedreht ist ggü. ATI?
Kann es sein, dass die Sampleanordnung bei ATIs 8xMSAA-Muster wesentlich besser ist als bei nV?
Eigentlich haben beide ein 8x8 EER. Die Streuung ist auch nicht wesentlich anders. Also nein.
Ailuros
2007-05-15, 20:09:14
Alles >4xMSAA ist entweder etwas fuer niedrige Aufloesungen oder aeltere Spiele. Im Idealfall sollte man die hoechstmoegliche Aufloesung benutzen, mit den meisten AA samples die moeglich sind.
Anstatt 16xQ kann man auf der G80 dann auch locker 16xS verwenden, denn einen besonderen Unterschied was die Leistung betrifft gibt es zwischen den beiden sowieso nicht.
Stellt man das Ding dann auch noch auf "high quality" kombiniert mit 16xS, hat man durch das reine trilinear und den kleinen Schuss SSAA ziemlich gutes Textur-antialiasing und eine um -0.5 LOD verschobenen Textur-schaerfe ohne dass es flimmert.
ner treiber 8.38 beta http://www.computerbase.de/downloads/treiber/grafikkarten/ati/ati_catalyst_beta/
sind ja nur 133mb
Alles >4xMSAA ist entweder etwas fuer niedrige Aufloesungen oder aeltere Spiele. Im Idealfall sollte man die hoechstmoegliche Aufloesung benutzen, mit den meisten AA samples die moeglich sind.
Anstatt 16xQ kann man auf der G80 dann auch locker 16xS verwenden, denn einen besonderen Unterschied was die Leistung betrifft gibt es zwischen den beiden sowieso nicht.
Stellt man das Ding dann auch noch auf "high quality" kombiniert mit 16xS, hat man durch das reine trilinear und den kleinen Schuss SSAA ziemlich gutes Textur-antialiasing und eine um -0.5 LOD verschobenen Textur-schaerfe ohne dass es flimmert.
Huch, so eine Aussage von jemand anderem als mir habe ich vermisst. Schön, dass noch jemand den Sinn des feinen 16xS erkannt hat. ;)
MfG,
Raff
robbitop
2007-05-15, 20:33:33
ner treiber 8.38 beta http://www.computerbase.de/downloads/treiber/grafikkarten/ati/ati_catalyst_beta/
sind ja nur 133mb
Der 8.38 ist laut ATI keine Weiterentwicklung des 8.374 sondern eine Paralellentwicklung fuer OEMs die eigentlich schlechter ist. Der 8.3742 scheint derzeit der beste Treiber fuer eine R600 zu sein.
Ailuros
2007-05-15, 20:37:04
Huch, so eine Aussage von jemand anderem als mir habe ich vermisst. Schön, dass noch jemand den Sinn des feinen 16xS erkannt hat. ;)
MfG,
Raff
Lies mir aber um Himmel's Willen nicht nur das was Du sehen willst. Ich sagte klipp und klar dass man die hoechstmoegliche Aufloesung benutzen sollte mit den meist moeglichen Samples und das deutet dann eher auf MSAA mit Transparenz-AA im besten Fall.
Fuer aeltere Spiele und niedrige Aufloesungen kann man dann natuerlich 8xMSAA oder hybride Modi einsetzen. Selbst dann wenn ich in einem Dilemma zwischen 2048*1536 (ueberfahrene Maske auf einer Achse 2x vertikales oversampling umsonst blah blah blah) und 4xMSAA + TSAA und 1280*960 mit 16xS liegen wuerde, wuerde ohne Zweifel der erste Fall gewinnen und das sogar mit hoeherer Leistung.
Es war nur ein Zwischengedanke ueber das EER oder so und so viel samples Zeug.
laser114
2007-05-15, 20:56:19
Der 8.38 ist laut ATI keine Weiterentwicklung des 8.374 sondern eine Paralellentwicklung fuer OEMs die eigentlich schlechter ist. Der 8.3742 scheint derzeit der beste Treiber fuer eine R600 zu sein.
Und wieso packt man dann den 8.38 in den Catalyst 7.5? (Immerhin ist das da der Cat 7.5 RC1)
robbitop
2007-05-15, 21:10:22
Frag das ATI und nicht mich. ;) Ich reiche nur das weiter, was ATI mir gesagt hat.
horn 12
2007-05-15, 21:15:08
Robbitop
Dann weist du sicherlich ob das mir dem R600 ein Treiberproblem oder gar ein richtiges Hardware Problem (Bug) ist.
Hoffe auf ersteres, aber da du ja mehr weisst, ...
bitte erlöse uns von unserem Bangen!
Ronny145
2007-05-15, 21:41:49
Der 8.38 ist laut ATI keine Weiterentwicklung des 8.374 sondern eine Paralellentwicklung fuer OEMs die eigentlich schlechter ist. Der 8.3742 scheint derzeit der beste Treiber fuer eine R600 zu sein.
Und was macht der 8.375? Den schon probiert?
misterh
2007-05-15, 22:13:05
wo gibt 8.375? :rolleyes:
robbitop
2007-05-15, 22:14:18
Bei ATI auf der Homepage. Soll wohl noch schlimmer sein, was ich so gehoert habe.
Ronny145
2007-05-15, 22:15:23
wo gibt 8.375? :rolleyes:
Von dem hatte er hier erwähnt: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=5493903#post5493903
Aber wenn der noch schlimmer sein soll, vergessen wir das ganze mal schnell.
Lawmachine79
2007-05-15, 23:48:33
Satz mit "x" --> "War wohl nix".
R600:
+ Edge Detect --> finde ich GENIAL
+ Nette Farbe
+ Monitor anschließbar
+ PC scheint mit Karte zu booten
So - das war es aber auch schon.
- Unter Nutzung 4xAA langsamer als 88GTS und fast 100€ teurer (wer so eine Karte kauft und nicht MINDESTES 4xAA nutzt der melde sich jetzt bitte - ich schenke ihm dann eine Geforce FX 5200)
- Miese BQ (siehe AF-Blume, aber wenn ich mir den Testbericht hier so ansehe hat die Rote Brille auch noch einen Flimmerfilter - wahrscheinlich lügt die Blume einfach)
- KEIN SUPERSAMPLING (Kill-Kriterium)
- Laut
- Frisst Unmengen Strom - wäre ok, wenn die Karte wenigstens schnell wäre
- Wahrscheinlich verbuggte ROPs (ist ATI ja früh aufgefallen)
- NOCH miesere Treiber als die des G80 beim Release
Kurz - es gibt genauso viele Gründe die Karte zu kaufen wie es Gründe gab, einen NV30 zu kaufen.
robbitop
2007-05-15, 23:58:02
- Miese BQ (siehe AF-Blume, aber wenn ich mir den Testbericht hier so ansehe hat die Rote Brille auch noch einen Flimmerfilter - wahrscheinlich lügt die Blume einfach)
Jetzt wuesste ich gerne, was du aus der Blume liest. Ich sehe eine nun endlich brauchbare LOD Praezision heraus. Eine weitgehende winkelunabhaengigkeit und bei 16xAF ist die 1.MIP etwas suboptimal. Das macht aber nix, da dort die Texel eh nicht so verzerrt sind.
In der Praxis kommt auch in fiesen Stellen kein Flimmern zum Vorschein. Also? :|
Jetzt wuesste ich gerne, was du aus der Blume liest. Ich sehe eine nun endlich brauchbare LOD Praezision heraus. Eine weitgehende winkelunabhaengigkeit und bei 16xAF ist die 1.MIP etwas suboptimal. Das macht aber nix, da dort die Texel eh nicht so verzerrt sind.
In der Praxis kommt auch in fiesen Stellen kein Flimmern zum Vorschein. Also? :|
OMG
Ist doch das selbe in grün wie beim nv30!
Die Therotische quali ist defintive besser beim g80!
Wen wir nun wieder so anfangen wie damals enden wir wieder bei den schmier cheats sowas will keiner also muss es BETONT werden!
Lawmachine79
2007-05-16, 00:06:58
Jetzt wuesste ich gerne, was du aus der Blume liest.
Daß sie nicht so perfekt wie die vom G80 ist.
robbitop
2007-05-16, 00:11:36
Daß sie nicht so perfekt wie die vom G80 ist.
Detaillierter. Was sollte ein Flimmern erzeugen?
Dass das G80 AF etwas besser ist, habe ich btw nie bezweifelt. Ungefaehr G80 Q Level.
xL|Sonic
2007-05-16, 00:12:46
Gegenfrage: Was bringt mir eine theoretisch bessere Qualität die mir in einem speziell dafür ausgelegten Testprogramm in Form einer Blume dargestellt wird, wenn diese Szenarien zu mehr als 95% in Spielen gar nicht auftauchen bzw. wenn geflimmer auftaucht, das ganze dann oftmals am Ingamecontent liegt und nicht an den Filtern?
In so einem Fall sollte man sich nun wirklich erstmal ein eigenes Urteil bilden und sich nicht mal eben so aus dem Fenster lehnen und Leute, die es getestet haben einfach mal Falschaussagen zu unterstellen.
Detaillierter. Was sollte ein Flimmern erzeugen?
Dass das G80 AF etwas besser ist, habe ich btw nie bezweifelt. Ungefaehr G80 Q Level.Flimmert ein G80 auf q oder hq (ausser die fiesen texturen wo der r600 auch flimmert)?
Nein macht er nicht aber sag du es auch bitte;)
Was mag hq zu q kosten 2-5% (ich gebe zu das ich es auch nicht sagen kann) geschätzter wert.
Gegenfrage: Was bringt mir eine theoretisch bessere Qualität die mir in einem speziell dafür ausgelegten Testprogramm in Form einer Blume dargestellt wird, wenn diese Szenarien zu mehr als 95% in Spielen gar nicht auftauchen bzw. wenn geflimmer auftaucht, das ganze dann oftmals am Ingamecontent liegt und nicht an den Filtern?
In so einem Fall sollte man sich nun wirklich erstmal ein eigenes Urteil bilden und sich nicht mal eben so aus dem Fenster lehnen und Leute, die es getestet haben einfach mal Falschaussagen zu unterstellen.
Das prob ist das wir nicht sagen können was in zukunft noch an texturen kommt.
Aber ein besserer filter ist nie zu verachten auch wen man im augenblick den nutzen noch nicht abwegen kann
robbitop
2007-05-16, 00:21:16
Flimmert ein G80 auf q oder hq (ausser die fiesen texturen wo der r600 auch flimmert)?
Nein macht er nicht aber sag du es auch bitte;)
Was mag hq zu q kosten 2-5% (ich gebe zu das ich es auch nicht sagen kann) geschätzter wert.
Das R600 AF flimmert nicht. G80 Q AF auch nicht. Das R580 AF schon.
Dass HQ kaum was kostet liegt an der ueberdimensionalen Fuellrate.
Btw ich bin dafür das die af art und aa arten auch in dx fest vorgegeben werden sollten.
Somit kann man Fair vergleichen und hat Freundlichere oder wenigastens fundiertere diskusionen
robbitop
2007-05-16, 00:25:10
Btw ich bin dafür das die af art und aa arten auch in dx fest vorgegeben werden sollten.
Somit kann man Fair vergleichen und hat Freundlichere oder wenigastens fundiertere diskusionen
Da stimme ich dir voll und ganz zu. Mittelfristig wird bei beiden IHVs IMO auch richtig gutes AF verfuegbar sein. R580 AF war ggue G70 schon ein guter Fortschritt. G80 nochmal einer. Es muss halt nur genuegend Fuellrate dasein.
Mr. Lolman
2007-05-16, 00:26:21
Daß sie nicht so perfekt wie die vom G80 ist.
Das stimmt. Allerdings kann eine perfekte Bume theoretisch trotzdem eine miese BQ erzeugen. Schliesslich zeigen die Blumen nur an aus welcher Mip gesampelt wird. Nicht wieviel davon und wie genau die verrechnet werden. (z.b. steht bei den 3dmark Screenshots von CB ATIs AI optisch etwas besser als G80HQ da)
Wieviel davon wird sehr wohl angezeigt. Das ist die Farbe.
Mr. Lolman
2007-05-16, 00:32:09
Wieviel davon wird sehr wohl angezeigt. Das ist die Farbe.
Imo: Nö! Wenn nur jedes 2. Texel gesampelt würde, müssten die Blumen doc genau gleich aussehen...
AnarchX
2007-05-16, 08:16:44
Highly Defined: ATI Radeon HD 2000 Architecture Review @ X-bit Labs (http://www.xbitlabs.com/articles/video/display/r600-architecture.html)
http://img516.imageshack.us/img516/5462/2900xtpower213066js6.png (http://imageshack.us)
http://www.xbitlabs.com/articles/video/display/r600-architecture_14.html
seahawk
2007-05-16, 08:19:52
Fuck, 30 W mehr als die GTX. 60 (also rund 60%) mehr als die GTS
Das R600 AF flimmert nicht.
Tut es doch:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/7/#abschnitt_af_kontrolliert
" Deaktiviert man nun die Optimierungen, so gibt es kein Halten für den G80 mehr. Kein Flimmern ist erkennbar und die trilineare Filterung arbeitet einwandfrei. Dagegen kommt auch das ATi-Ergebnis auf dem R600 mit deaktiviertem A.I. nicht an. Die trilineare Filterung bereitet keine Probleme, das Bild sieht aber weiterhin unruhiger aus."
" Bei A.I. Off fallen die Bugwellen bei den Übergängen der MipMaps weg, der Flimmeranteil bleibt aber immer noch bestehen."
MadManniMan
2007-05-16, 09:27:04
Der 8.38 ist laut ATI keine Weiterentwicklung des 8.374 sondern eine Paralellentwicklung fuer OEMs die eigentlich schlechter ist. Der 8.3742 scheint derzeit der beste Treiber fuer eine R600 zu sein.
Mit dem Kompromiß, beim AAA zu bescheißen =)
Kann es sein, dass die Sampleanordnung bei ATIs 8xMSAA-Muster wesentlich besser ist als bei nV?
Es wurde schon genug darüber gesagt, aber warum siehst Du es Dir eigentlich nicht selbst an? Du brauchst doch nur mal die verschiedenen Winkel anzuschauen und wirst sehen, daß mal ATi und mal nV die Nase vorn hat.
Du verstehst schon, daß es inzwischen nicht mehr überraschend ist, wenn solche seltsamen Feststellungen von Dir kommen?
Die Demo wird exklusiv auf der NV-Homepage zum Download angeboten, wo auch damit geprahlt wird, dass die Gefroce 8 Serie die Entwickungsplattform für den D3D10-Pfad war. Ich denke mehr braucht man dazu nicht sagen.
...es ist natürlich blöde, daß nV schon optimieren konnte. Aber viel schöner wäre es doch, wenn nicht auf jeden Mist optimiert werden müßte! Ich will Grakas, die ohne 2 überarbeitete Treiber von allein mit den Applikationen klarkommen. *grummel*
Wenn du da keine erheblichen Unterschied merkst, dann hast du was mit dem Auge.
Daß der Unterschied stark ist, ist wahr.
Jedoch bitte ich zu bedenken, daß die Kanten nicht nur schön glatt werden, sondern an ihnen eben auch Informationen zerstört werden.
Einem Integral zu Folge wäre beispielsweise hinter einer beinahe vertikal verlaufenden Kante mit einem dahinter stehenden, senkrechten Mast von etwa einem Pixel breite jener Mast deutlich im Kantenpixel zu erkennen - Edge CFAA vermatscht jenes Detail.
Die Glättungswirkung von 8*MS+Edge finde ich ebenso phänomenal, aber ansonsten ziehe ich die reinen MS-Modi den neuen Modi vor. CSAA franst die Kante auf, CFAA vermatscht die Kante. Vom richtigen Bild ist beides ein Stück entfernt.
robbitop
2007-05-16, 10:08:16
Tut es doch:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/7/#abschnitt_af_kontrolliert
" Deaktiviert man nun die Optimierungen, so gibt es kein Halten für den G80 mehr. Kein Flimmern ist erkennbar und die trilineare Filterung arbeitet einwandfrei. Dagegen kommt auch das ATi-Ergebnis auf dem R600 mit deaktiviertem A.I. nicht an. Die trilineare Filterung bereitet keine Probleme, das Bild sieht aber weiterhin unruhiger aus."
" Bei A.I. Off fallen die Bugwellen bei den Übergängen der MipMaps weg, der Flimmeranteil bleibt aber immer noch bestehen."
Ja beim praxisirrelevanten moire Tester.
Ja beim praxisirrelevanten moire Tester.
Bleibst du immernoch bei der Behauptung, dass ein optimierter Filter (Brilinear, bilinear) besser aussieht als die trilineare Filterung auf jeder Stages?
Vertigo
2007-05-16, 10:14:48
Bleibst du immernoch bei der Behauptung, dass ein optimierter Filter (Brilinear, bilinear) besser aussieht als die trilineare Filterung auf jeder Stages?
Wo wurde behauptet dass es besser aussieht? Ich habe nur gelesen, dass es nicht schlechter aussieht. :|
Wo wurde behauptet dass es besser aussieht? Ich habe nur gelesen, dass es nicht schlechter aussieht. :|
"A.I. on" beim R600-Chip ist somit mit dem "A.I. off" beim R580-Chip und "High Quality" beim G80-Chip nahezu identisch.
http://www.3dcenter.de/artikel/radeon_hd_2900_xt/index8.php
Ja, richtig, er zieht nicht besser aus, sondern "nahezu identisch". Ist jedoch genauso schlimm, da er somit ausdrückt, dass eine vollständige trilineare Filterung überflüssig wäre.
Es wurde schon genug darüber gesagt, aber warum siehst Du es Dir eigentlich nicht selbst an? Du brauchst doch nur mal die verschiedenen Winkel anzuschauen und wirst sehen, daß mal ATi und mal nV die Nase vorn hat.
Du verstehst schon, daß es inzwischen nicht mehr überraschend ist, wenn solche seltsamen Feststellungen von Dir kommen?
Das war keine Feststellung, sondern eine simple Frage, der sich auf den Text bei CB bezog.
reunion
MadManniMan
2007-05-16, 10:22:22
Das war keine Feststellung, sondern eine simple Frage, der sich auf den Text bei CB bezog.
reunion
Sry, klang suggestiv ;) Nix für ungut!
robbitop
2007-05-16, 10:35:39
Bleibst du immernoch bei der Behauptung, dass ein optimierter Filter (Brilinear, bilinear) besser aussieht als die trilineare Filterung auf jeder Stages?
Wann habe ich sowas jemals behauptet? :|
robbitop
2007-05-16, 10:37:04
http://www.3dcenter.de/artikel/radeon_hd_2900_xt/index8.php
Ja, richtig, er zieht nicht besser aus, sondern "nahezu identisch". Ist jedoch genauso schlimm, da er somit ausdrückt, dass eine vollständige trilineare Filterung überflüssig wäre.
Da steht, dass es im Standbild so aussieht. Ausserdem druecke weder ich noch BBSR etwas anderes aus, als wir explizit geschrieben haben. Wenn sich Leute was dazureimen ist das nicht meine Aussage.
Meine Aussage war nur, dass der Unterschied sehr subtil ist. Nicht dass ich es gutheisse.
edit: btw ich hoffe, dass CB nicht den Moire Tester von Zecki nutzen. Ansonsten empfiehlt sich ein Exkurs durch die Texturfilterartikel in der PCGH und auf 3DC.
Vertigo
2007-05-16, 10:39:36
http://www.3dcenter.de/artikel/radeon_hd_2900_xt/index8.php
Ja, richtig, er zieht nicht besser aus, sondern "nahezu identisch". Ist jedoch genauso schlimm, da er somit ausdrückt, dass eine vollständige trilineare Filterung überflüssig wäre.
Soweit ich das beurteilen kann ist das auch der Fall. Nicht alle Texturschichten wirken sich gleichermaßen auf das Gesamtbild aus, entsprechend müssen auch nicht alle vollständig gefiltert werden.
http://www.3dcenter.de/artikel/radeon_hd_2900_xt/index8.php
Ja, richtig, er zieht nicht besser aus, sondern "nahezu identisch". Ist jedoch genauso schlimm, da er somit ausdrückt, dass eine vollständige trilineare Filterung überflüssig wäre.
Je nach Treiber filtert der R600 nur tri und nicht bri, bei A.I. low.
Je nach Treiber filtert der R600 nur tri und nicht bri, bei A.I. low.
Beweise dazu?
Da steht, dass es im Standbild so aussieht.
Ihr bewertet die Qualität der Filterung anhand eines Standbildes? Sehr gewagt...
robbitop
2007-05-16, 10:54:09
Ihr bewertet die Qualität der Filterung anhand eines Standbildes? Sehr gewagt...
Nein, dort steht jeweils auch dazu wie es in Bewegung aussieht.
Nein, dort steht jeweils auch dazu wie es in Bewegung aussieht.
Dann stimmt doch die Aussage, dass eine vollständige trilineare Filterung unnötig in heutigen Zeit ist und eine optimierte Variante vollkommen ausreicht - die habt ihr getroffen!
Und sowas wird auf dieser Seite getroffen? Die Seite, welche tausende von Artikel geschrieben hat, die sich mit dem Thema auseinandergesetzt hat?
Und wieder sinkt ein bisschen die Qualität m Internet :(
robbitop
2007-05-16, 11:04:33
Dann stimmt doch die Aussage, dass eine vollständige trilineare Filterung unnötig in heutigen Zeit ist und eine optimierte Variante vollkommen ausreicht - die habt ihr getroffen!
Und sowas wird auf dieser Seite getroffen? Die Seite, welche tausende von Artikel geschrieben hat, die sich mit dem Thema auseinandergesetzt hat?
Und wieder sinkt ein bisschen die Qualität m Internet :(
Im Verdrehen der Wort im sprichwoertlichen Munde bist du sehr gut.
Ich habe allerdings weder die Zeit noch die Lust auf solche Spielchen. ;)
MadManniMan
2007-05-16, 11:28:35
Macht doch einfach die UT2003 Videos nochmal.
Gandharva
2007-05-16, 11:30:38
Anisotropic Filtering and FSAA Quality Investigation (http://www.xbitlabs.com/articles/video/display/r600-architecture_16.html)
Without any surprises, ATI Radeon HD 2900 XT has the same good adaptive anisotropic filtering algorithm that we know from the introduction of ATI Radeon X1000. Nonetheless, current generation of Nvidia GeForce 8800 graphics cards provides even better angle-independent anisotropic filtering and it is not completely clear why ATI decided not to improve this part of its new chip.
Auf den AF Shots ganz unten sieht man den Unterschied schon gewaltig finde ich.
http://www.computerbase.de/downloads/treiber/grafikkarten/ati/ati_catalyst_beta/
CB-beta hat inf
DriverVer=05/01/2007, 8.380.0.0000 vom "Tag der Arbeit" :smile:
Also rann...
Gandharva
2007-05-16, 11:35:59
http://www.computerbase.de/downloads/treiber/grafikkarten/ati/ati_catalyst_beta/
CB-beta hat inf
DriverVer=05/01/2007, 8.380.0.0000 vom "Tag der Arbeit" :smile:
Also rann...
Der Treiber wurde doch gestern schon in dem anderen Thread gepostet und Gouverator meinte das die 2900XT nicht unterstützt wird sondern nur die kleinen Karten.
AnarchX
2007-05-16, 11:38:03
Anisotropic Filtering and FSAA Quality Investigation (http://www.xbitlabs.com/articles/video/display/r600-architecture_16.html)
Auf den AF Shots ganz unten sieht man den Unterschied schon gewaltig finde ich.
Ist aber doch auch nur ein theoretischer Test oder gibt es da noch Ingame-Shots?
Gandharva
2007-05-16, 11:43:03
Ist aber doch auch nur ein theoretischer Test oder gibt es da noch Ingame-Shots?
Glaubst du etwa Ingame wirds besser? Da fällts höchstens hier und da nicht so auf. Schlechter bleibt das AF trotzdem.
Auch das AA scheint nicht so gut wegzukommen bei X-bit:
...Therefore, we have to say that Nvidia’s FSAA 16x and FSAA 16xQ look much better than competing modes from ATI. Still, we yet have to see ATI’s adaptive edge detect filters.
So, lets sum everything up:
* CFAA 4x is better than typical MSAA 2x, but it blurs image.
* CFAA 6x with “Wide tent” filter blurs image too heavily and the quality of this antialiasing is worse than typical MSAA 4x.
* CFAA 6x with “Narrow tent” filter provides antialiasing quality that is on par with MSAA 6x. Nevertheless, it also blurs image.
* CFAA 8x with “Wide tent” filter looks ok, but it still blurs image quite significantly.
* CFAA 12x with “Narrow tent” filter is better than typical MSAA 8x, but the blur is present as well.
* CFAA 16x with “Wide tent” filter blurs textures too heavily.
Auf den Shots blurrts schon ziemlich übel rum. In Bewegung solls aber ein recht ruhiges Bild erzeugen. Ein hochauflösendes Video wäre da nett.
DrumDub
2007-05-16, 13:50:40
ich bin verwirrt. kann mir einer diese ergebnisse erklären:
http://www.xbitlabs.com/images/video/radeonhd2000/test_results/2900xt_fsaa1.gif
wieso ist der 2900xt hier genau so schnell oder sogar schneller wie die 8800gtx mit 16xaf, bricht aber mit 4xmsaa um bis zu 50% ein? eigentlich sollte doch 16xaf der größte flaschenhals sein, denn normalerweise verliert die 2900xt mindestens 30% der leistung durch 16xaf: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/8/#abschnitt_aa_und_af_skalierung
Der ansiotrope Filter wird nur dann zum Flaschenhals, wenn die Texturleistung der limitierende Faktor ist - siehe Oblivion, siehe Gohtic3. Da HL²:E1 anscheinend sehr stark an der Rechenleistung hängt, ist der Einbruch nicht wahrnehmbar, da anscheinend zu erst die CPU, dann die Recheneinheiten und zum Schluss die Texturleistung limitiert.
robbitop
2007-05-16, 13:58:15
Macht doch einfach die UT2003 Videos nochmal.
also die Maps habe ich IIRC von Damien noch da. Muesste ich nur noch UT03 besorgen. Sollte aber kP sein. HL2 hab ich heute bekommen.
Wegen der Tunneltests: bei 8x ist bei ATI die Filter WU ziemlich gut. Bei 16x hat die 1 MIP grosse Ohren und die 2. MIP kleine Ohren. Da die Verzerrung in diesen Bereichen in der Praxis nicht gross ist, faeltt es eben ohne colored MIPs nicht auf. Das heisst aber nicht, dass das gut waere.
War beim NV30 und NV30 AF bei 8xAF allerdings auch so. Und das ist schon ziemlich gut. ATIs 8xAF ist da viel besser.
Wegen der Tunneltests: bei 8x ist bei ATI die Filter WU ziemlich gut. Bei 16x hat die 1 MIP grosse Ohren und die 2. MIP kleine Ohren. Da die Verzerrung in diesen Bereichen in der Praxis nicht gross ist, faeltt es eben ohne colored MIPs nicht auf. Das heisst aber nicht, dass das gut waere.
Sieht man die Ohren auch ohne Colormips? Eben!
mapel110
2007-05-16, 13:59:32
hm, bei ATI AI low und bei nvidia HQ gebencht. Erklärt auch einiges...
Since we believe that the use of tri-linear and anisotropic filtering optimizations is not justified in this case, the graphics card drivers were set up in standard way to provide the highest possible quality of texture filtering.
Der Satz ist wohl nen Witz. A.I.Low bietet sicher nicht die bestmögliche Texturqualität bei ATI.
hm, bei ATI AI low und bei nvidia HQ gebencht. Erklärt auch einiges...
3DC meint, dass sei vergleichbar. R600 AIlow ~= R580 Aioff ~= G80 HQ.
mapel110
2007-05-16, 14:02:55
3DC meint, dass sei vergleichbar. R600 AIlow ~= R580 Aioff ~= G80 HQ.
Das muss ja nicht meine Meinung sein. Wobei ich mir da selbst kein Bild machen kann und auf andere angewiesen bin.
Gastherrscher
2007-05-16, 14:04:32
Das muss ja nicht meine Meinung sein. Wobei ich mir da selbst kein Bild machen kann und auf andere angewiesen bin.
Meine Meinung ist, dass ich der Herrscher des Universums bin. Wobei ich mir da selbst kein Bild machen kann und auf andere angewiesen bin. ;D
Lawmachine79
2007-05-16, 14:07:03
hm, bei ATI AI low und bei nvidia HQ gebencht. Erklärt auch einiges...
Since we believe that the use of tri-linear and anisotropic filtering optimizations is not justified in this case, the graphics card drivers were set up in standard way to provide the highest possible quality of texture filtering.
Der Satz ist wohl nen Witz. A.I.Low bietet sicher nicht die bestmögliche Texturqualität bei ATI.
ENDLICH habe ich mal Beistand. Genau das habe ich im "Über die Website" - Forum geschrieben, in der Artikelkritik. Man kauft keine 400€ Hardware und bencht/spielt dann mit mittelprächtiger Qualität sondern macht alles an was geht und die vorhandene Restleistung wird übers AA verteilt.
DrumDub
2007-05-16, 14:07:06
Der ansiotrope Filter wird nur dann zum Flaschenhals, wenn die Texturleistung der limitierende Faktor ist - siehe Oblivion, siehe Gohtic3. Da HL²:E1 anscheinend sehr stark an der Rechenleistung hängt, ist der Einbruch nicht wahrnehmbar, da anscheinend zu erst die CPU, dann die Recheneinheiten und zum Schluss die Texturleistung limitiert. ah.. okay. das ergibt zumindest sinn, auch wenn mir das ergebnis immer noch sehr komisch vorkommt. hätte eher ergebniss wie bei cb oder hier erwartet: http://www.hardware.fr/medias/photos_news/00/19/IMG0019969.gif
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.