PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : HD 2900XT: (P)Review-Thread, Part deux


Seiten : [1] 2 3 4 5

deekey777
2007-05-17, 15:04:35
Teil 2. Dank geht an LS fürs Pflegen des ersten Postings. :up:
Es scheint loszugehen - einen Tag früher als gedacht.
Viel Spaß beim Lesen, Diskutieren, enttäuscht oder erfreut sein.

Reviews - deutsch
ATi Radeon HD 2900 XT - Ein neuer Platzhirsch ist geboren? (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt)
3DCenter: ATI Radeon HD 2900 XT Review (http://www.3dcenter.org/artikel/radeon_hd_2900_xt/)
ATI Radeon HD2900 XT@Hardwareluxx.de (http://www.hardwareluxx.de/cms/artikel.php?action=show&id=546)
ATIs neue Grafikkarten-Chips für DirectX 10 @pcwelt (http://www.pcwelt.de/tests/hardware-tests/pci-express-grafikkarten/80120/index.html)
ATI Radeon HD 2900 XT: Motor startet, was passiert? (http://hardware.thgweb.de/2007/05/14/ati-radeon-hd-2900-xt-r600-directx10/)

Reviews - englisch:
http://vr-zone.com/?i=4946&s=1 (Rapidsharelink: http://www.forumdeluxx.de/forum/showpost.php?p=6109737&postcount=5731)
ATI Radeon HD 2900 XT – AMD's long awaited R600 DX10 GPU arrives (http://www.tweaktown.com/articles/1100/ati_radeon_hd_2900_xt_amd_s_long_awaited_r600_dx10_gpu_arrives/index.html)
ASUS EAH2900XT ATi Radeon HD 2900XT 512M Review - Benchmarks (http://www.ocworkbench.com/2007/asus/EAH2900XT/b1.htm)
Radeon HD 2900 XT : Introduction (http://www.tbreak.com/reviews/article.php?id=511)
AMD's R600 has something of the flawed diamond about it
(http://www.the-inquirer.com/default.aspx?article=39580)ATI Radeon HD 2900 XT@HardOCP (http://enthusiast.hardocp.com/article.html?art=MTM0MSwxLCxoZW50aHVzaWFzdA==)
Guru3D (http://www.guru3d.com/article/Videocards/431/)
ATI Radeon HD 2900 XT@Techpowerup (http://www.techpowerup.com/reviews/ATI/HD_2900_XT)
ATI Radeon HD 2900 XTX Review@Hardwarescrets (http://www.hardwaresecrets.com/article/449)
HIS Radeon HD 2900 XT@Hexus.net (http://www.hexus.net/content/item.php?item=8687&page=1)
Drvierheaven's HD 2900XT review (mit Vista-Vergleich) (http://www.driverheaven.net/reviews/r600reviewz/video.php)
AMD's Radeon HD 2900 XT graphics processor@Techreport.com (http://www.techreport.com/onearticle.x/12458)
HD2000 - The First GPU's Under the AMD Name@Bjorn3d.com (http://www.bjorn3d.com/read.php?cID=1099&pageID=3433)
firingsquad AMD-ATI Radeon HD 2900 XT Performance Preview (http://www.firingsquad.com/hardware/amd_ati_radeon_hd_2900_xt_performance_preview/)
ATI Radeon HD 2900 XT: Calling a Spade a Spade@Anandtech (http://www.anandtech.com/video/showdoc.aspx?i=2988)
AMD/ATI DirectX 10 Series: RADEON HD 2900 XT (R600). Performance In Game Benchmarks@digit-life (http://www.digit-life.com/articles2/video/r600-part3.html)

Reviews - Restliche Sprachen
AMD Radeon HD 2900 XT : DirectX 10 par ATI !@clubic (http://www.clubic.com/article-73608-7-amd-ati-radeon-hd-2900-xt-directx-10.html)
maschinelle Übersetzung von presence-pc mit D3D10 Test! (http://translate.google.com/translate?u=http%3A%2F%2Fwww.presence-pc.com%2Ftests%2FAMD-Radeon-2900-XT-22674%2F23%2F&langpair=fr%7Cen&hl=en&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools)
ATI Radeon HD 2900 XT@Hardware.fr (http://www.hardware.fr/articles/671-1/ati-radeon-hd-2900-xt.html)

Sonstiges:
Pre-NDA-Folien (http://www.mediafire.com/?1zvucssmixm) (Dank an AnarchX :)) --> bereitgestellt von Chiphell (http://www.chiphell.com/viewthread.php?tid=4048&extra=page%3D1)
Launch of ATI Radeon HD 2000 Series - Radeon HD 2900XT. HD 2600XT, HD 2600 Pro, HD 2400XT, HD 2400 Pro (http://www.ocworkbench.com/2007/ati/ATI-HD-Radeon-HD-2900XT-and-HD-2000-Series/p1.htm)
ASUS EAH2900XT 512M ATi Radeon HD 2900XT Review Introduction (http://www.ocworkbench.com/2007/asus/EAH2900XT/g1.htm)
Nvidia's FUD presentation revealed (http://www.theinquirer.net/default.aspx?article=39578)
AMD R600 Architecture and GPU Analysis (http://www.beyond3d.com/content/reviews/16/1)
Radeon HD 2000 Series: 3D Architecture Explained@Extremetech (http://www.extremetech.com/article2/0,1697,2128920,00.asp)

---------------------------------------------------------------------
By DK777:
ATI Radeon HD 2900 XT – AMD's long awaited R600 DX10 GPU arrives (http://www.tweaktown.com/articles/1100/1/page_1_introduction/index.html)
ATI Radeon HD 2900 XT Vista Performance (http://www.thetechlounge.com/article/411-1/ATI+Radeon+HD+2900+XT+Vista+Performance/)

Teil eins: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=362297
Letztes Posting: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5502487#post5502487

Gast
2007-05-17, 15:06:50
stimmt, denn auf lost planet konnten sie noch garnicht optimieren.
ich denke daher ebenso wie du, das die GTS nen fehlkauf wäre, da in der 2900xt noch ne menge drinnsteckt.
alle anderen benches sind ja schon sehr gut über der GTS zum teil schon eher auf GTX level

hätte gern gewußt welche nummer der treiber hat. 8.38 sagt da wenig aus.

aber wenigstens kommt sie jetzt auch mit AA und AF gut zurechet

MfG
Alex

Ach, und NV konnte bzw. hat schon da optimiert? Bis jetz iss die GTS 640 mit gut 270 euro der 2900XT Klar vorzuziehen.

Sterem
2007-05-17, 15:08:11
Ach, und NV konnte bzw. hat schon da optimiert? Bis jetz iss die GTS 640 mit gut 270 euro der 2900XT Klar vorzuziehen.

Fragt sich nur wie lange noch.;)

san.salvador
2007-05-17, 15:09:57
Fragt sich nur wie lange noch.;)
Bis es einen Refresh gibt, der sich nicht wie Omas Fön auf Stufe 4 anhört.

reunion
2007-05-17, 15:11:41
(Ich finde das Unmöglich, dass man bei einem geschlossenen Thread nicht mal mehr Posts quoten, oder seinen Beiträge kurz abändern kann. :mad:)

Das ist doch nichts neues (der Test ist eh von ATi). Man zeigt, wann der R600 nur ein Fünftel der Leistung zeigt (seriell: nacheinander folgende voneinander abhängige Instruktionen) und seine volle Leistung entfaltet (parallel: nebeneinander zu berechnende und voneinander unabhängige Instruktionen).
SQRT = SF, die kann der G80 nur alle vier Takte ausführen, der R600 jeden Takt ("fette" SP-Einheit). Für eine float5-Instruction (5 skalare Instruktionen werden zu einer Vec5 zusammengefasst) braucht der R600 logischerweise nur einen Takt, der G80 fünf Takte.

Danke für die ausführliche Erklärung.

deekey777
2007-05-17, 15:13:47
(Ich finde das Unmöglich, dass man bei einem geschlossenen Thread nicht mal mehr Posts quoten, oder seinen Beiträge kurz abändern kann. :mad:)
Die Datenbank ist wichtiger.



Danke für die ausführliche Erklärung.
Die gab's schon hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5494864#post5494864

=Floi=
2007-05-17, 15:14:44
kann es sein dass durch das übertakten bei wesker das teil einfach mehr füllrate hat?
880mhz sind ja nicht ohne
diese karte reagiert irgendwie sehr stark auf übertaktung des chips!

persönlich finde ich es lustig wie sich hier jeder ati fan an jeden neuen treiber wendet und sein die versionsänderung noch so klein ;D
bei dem teil braucht es mehr als EINEN neuen treiber
da gehen mind 3monate durchs land damit überhaupt erstmal alles läuft

edit
eine typische (arrogante) DK777 antwort
Die Datenbank ist wichtiger.

was hat das mit seiner frage zu tun? 0,0000000000000000000000!
quoten könnte man ja ruhig bei den ganzen threads die in mehrere teile aufgesplittet sind und dein letztes post hast du ja auch selbst editiert
der thread wurde ja nicht geschlossen weil er nicht dem forum entsprach...

reunion
2007-05-17, 15:19:02
Die Datenbank ist wichtiger.


Mhm, wenn das wenigstens einen Sinn hat.


Die gab's schon hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5494864#post5494864

Das habe ich wohl übersehen.

deekey777
2007-05-17, 15:22:15
edit
eine typische (arrogante) DK777 antwort
Die Datenbank ist wichtiger.

was hat das mit seiner frage zu tun? 0,0000000000000000000000!
quoten könnte man ja ruhig bei den ganzen threads die in mehrere teile aufgesplittet sind und dein letztes post hast du ja auch selbst editiert
der thread wurde ja nicht geschlossen weil er nicht dem forum entsprach...

Wenn du etwas nicht verstehst, dann lass das Posten gleich.
Ja, als Mod kann ich auch in geschlossenen Threads editieren. Und nein, mein letztes Posting habe ich vor der Schließeung editiert.

J0ph33
2007-05-17, 15:30:47
ich habe den von DK777 geposteten franzöischen Test mal angeschaut...

also mal ist die AA-Performance gut bis überragend (Vegas), mal unter aller Sau...das spricht eigentlich gegen einen Hardware-Bug

ich versteh nicht viel von der Materie, aber bisher geht man doch davon aus, dass AA beim R600 momentan noch teilweise über die Shader läuft, richtig?
nun ist Vegas mit Sicherheit nicht füllratenlimitiert, da die 8800GTX sich nicht wie sonst welten von der X1950XTX entfernt bewegt...ich gehe also mal davon aus, dass bei Vegas die Shaderleistung limitiert. Warum überzeugt dann hier der R600 so umgemein, wenn doch sein AA auch noch teilweise von den Shadern gemacht werden muss?

Coda
2007-05-17, 15:31:47
Wenn du etwas nicht verstehst, dann lass das Posten gleich.
Ja, als Mod kann ich auch in geschlossenen Threads editieren. Und nein, mein letztes Posting habe ich vor der Schließeung editiert.
Nun, das Quoten eines Posts ließt doch bloß aus der Datenbank, genauso wie das Darstellen des Threads. Deshalb verstehe ich das auch nicht ganz. Oder wird das Quote einfach durch das schließen automatisch deaktiviert?

Und überhaupt hab ich eh noch nie kapiert, warum große Threads überhaupt so ein Problem darstellen, die Posts kommen doch auch so in die gleiche Tabelle und werden vom Thread ja nur indiziert. Aber egal - schwer OT.

up¦²
2007-05-17, 15:33:56
Zur info:
http://www.hardware.info/images/news/2600xtbox_550.jpg
Quelle: hardware.info

Coda
2007-05-17, 15:36:06
Wieso hat die 2600 ne Dualslot-Kühlung? Ich dachte die kleinen Chips hätten so einen niedrigen Stromverbrauch? :confused:

Daredevil
2007-05-17, 15:38:21
Vieleicht ist se ja dafür dann Leise, das ist den meisten wohl wichtiger als das ein Slot fehlt.

reunion
2007-05-17, 15:38:33
Das ist doch nur die "X-Turbo2 silent fan technology" von Gecube. Das Referenzdesign hat einen Single-Slot-Kühler.

Gast
2007-05-17, 15:38:58
Oder wird das Quote einfach durch das schließen automatisch deaktiviert?


So ist es und es lässt sich auch nicht ohne Weiteres ändern...

PCGH_Carsten
2007-05-17, 15:51:23
ich habe den von DK777 geposteten franzöischen Test mal angeschaut...

also mal ist die AA-Performance gut bis überragend (Vegas), mal unter aller Sau...das spricht eigentlich gegen einen Hardware-Bug

ich versteh nicht viel von der Materie, aber bisher geht man doch davon aus, dass AA beim R600 momentan noch teilweise über die Shader läuft, richtig?
nun ist Vegas mit Sicherheit nicht füllratenlimitiert, da die 8800GTX sich nicht wie sonst welten von der X1950XTX entfernt bewegt...ich gehe also mal davon aus, dass bei Vegas die Shaderleistung limitiert. Warum überzeugt dann hier der R600 so umgemein, wenn doch sein AA auch noch teilweise von den Shadern gemacht werden muss?

Kann Rainbow Six überhaupt richtiges FSAA darstellen? Oder wieder nur diesen "Blur" - oder kann es eine der Karten per Patch und die andere nicht?

Coda
2007-05-17, 15:53:07
Von sich aus nicht (geht mit D3D9 gar nicht), aber der G8x-Treiber bietet z.B. einen Workaround dafür an.

J0ph33
2007-05-17, 15:53:08
mmh...das habe ich wahrlich nicht bedacht...jedoch verlieren alle Karten einigermaßen realistisch, nur der R600 praktisch gar nix...schon komisch

PCGH_Carsten
2007-05-17, 15:55:48
Was meinst du, das waren die Werte der Ultra laut dem Test.

Umso besser - dann würden es die Werte der GTS viel interessanter machen. Zum Glück sind die ja im HKEPC-"Review"/Benchmarktabelle mit enthalten.

Gmax
2007-05-17, 15:56:21
Vegas an sich ist schon völlig verblurt, da wird ATIs Spezialfilter nicht weiter auffallen:lol:

PCGH_Carsten
2007-05-17, 15:56:40
Von sich aus nicht (geht mit D3D9 gar nicht), aber der G8x-Treiber bietet z.B. einen Workaround dafür an.

Ob das der R600-Treiber auch tut? Ansonsten hätten wir ja den Vergleich 4xAA/16xAF vs. 1xAA/16xAF...

up¦²
2007-05-17, 15:57:19
Noch ne Review: netter Vergleich
http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=644&p=11

PCGH_Carsten
2007-05-17, 16:00:07
Noch ne Review: netter Vergleich
http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=644&p=11
Schön zu sehen, wie umsonst CFAA unter OpenGL ist:
http://www.dinoxpc.com/Tests/articoli/articolo/video_jetway_hd2900xt_images/video_24.gif

Coda
2007-05-17, 16:40:56
Es wird doch gar nicht angewendet unter OpenGL. Es kann überhaupt auch gar nicht sein, dass der Filter überhaupt keine zusätzliche Leistung braucht, schließlich wird ALU-Leistung und Bandbreite dafür benötigt.

Ob das der R600-Treiber auch tut? Ansonsten hätten wir ja den Vergleich 4xAA/16xAF vs. 1xAA/16xAF...
Das frage ich mich auch. Unfähige Tester gibt's zuhauf...

up¦²
2007-05-17, 17:12:03
Zur Info
ATI HD 2900XT CrossFire: Intel 975X versus Intel P35
We are not here to single handily knock AMD for these issues as it has taken NVIDIA close to six months to get decent Vista drivers out for the 8800 series of cards and we are still waiting on new platform drivers. We could continue the listing of suppliers that have not stepped up to the plate yet in providing stable drivers or applications for Vista 64, even though everyone has known for the last three years that the industry would be progressing to 64-bit operating systems. At present, it's hard for us to determine what caused more problems in our testing: the new products that still need optimizations and tuning or an operating system that just does not seem quite finished yet.

http://www.anandtech.com/video/showdoc.aspx?i=2990&p=1
... :smile:

Gast
2007-05-17, 17:25:35
Kann Rainbow Six überhaupt richtiges FSAA darstellen? Oder wieder nur diesen "Blur" - oder kann es eine der Karten per Patch und die andere nicht?

Beim Einsatz von AA werden keine Charakterschatten mehr dargestellt - diese Möglichkeit gab es auch schon bei den r5xx Karten.

reunion
2007-05-17, 18:01:30
AMD explains Radeon HD 2900XT's poor AA performance (http://www.custompc.co.uk/custompc/news/112773/amd-explains-poor-radeon-hd-2900xt-aa-performance.html)

The R600 is finally here, and in keeping with its mysteriously long gestation, in at least in its first incarnation as the HD 2900XT, AMD's new GPU still poses a lot of questions. One of the things we noticed during our in-depth testing of the card is that compared to its principle rival, the Nvidia GeForce 8800 GTS 640MB, the HD 2900XT performs poorly in many games when anti-aliasing is enabled.

In F.E.A.R., at 1,600 x 1,200, with AA and AF disabled, the HD 2900XT easily outstripped the 640MB 8800 GTS, delivering a minimum that was 23fps higher than the latter's. However, with 4x AA, the HD 2900XT's minimum framerate dived from 82fps to 21fps, while the 640MB 8800 GTS produced a minimum of 30fps. Adding 4x AA results in a 74% drop for the Radeon, compared to only a 49% drop for the GeForce.

The Radeon's framerates suffer disproportionately with anisotropic filtering, too. Again testing in F.E.A.R. at 1,600 x 1,200, we saw the HD 2900XT's minimum FPS drop by 10 per cent with 16x anisotropic enabled, compared to 3 per cent for the GTS, although the HD 2900XT still had a faster average. It was a slightly different result at 2,560 x 1,600, as the HD 2900XT's massive bandwidth gave it a boost, although adding 16x AF still had more impact than it did on the 640MB GTS.

As most gamers will want AA and AF enabled in games, the HD 2900XT's poor performance with these processing options enabled is a serious problem for the card and ATi. We asked ATi to comment on this surprising result and the company revealed that the HD 2000-series architecture has been optimised for what it calls 'shader-based AA'. Some games, including S.T.A.L.K.E.R., already use shader-based AA, although in our tests the 640MB 8800 GTS proved to be faster than the HD 2900XT.

We asked Richard Huddy, Worldwide Developer Relations Manager of AMD's Graphics Products Group, to go into more detail about why the Radeon HD 2000-series architecture has been optimised for shader-based AA rather than traditional multi-sample AA. He told us that 'with the most recent generations of games we've seen an emphasis on shader complexity (mostly more maths) with less of the overall processing time spent on the final part of the rendering process which is "the AA resolve". The resolve still needs to happen, but it's becoming a smaller and smaller part of the overall load. Add to that the fact that HDR rendering requires a non-linear AA resolve and you can see that the old fashioned linear AA resolve hardware is becoming less and less significant.' Huddy also explained that traditional AA 'doesn't work correctly [in games with] HDR because pixel brightness is non-linear in HDR rendering.'

While many reviews of the HD 2900XT have made unflattering comparisons between it and Nvidia's GeForce 8800-series, Huddy was upbeat about AMD's new chip. 'Even at high resolutions, geometry aliasing is a growing problem that can only really be addressed by shader-based anti-aliasing. You'll see that there is a trend of reducing importance for the standard linear AA resolve operation, and growing importance for custom resolves and shader-based AA. For all these reasons we've focused our hardware efforts on shader horsepower rather than the older fixed-function operations. That's why we have so much more pure floating point horsepower in the HD 2900XT GPU than NVIDIA has in its 8800 cards... There's more value in a future-proof design such as ours because it focuses on problems of increasing importance, rather than on problems of diminishing importance."

J0ph33
2007-05-17, 18:07:37
mmmh....meint der mit shader-AA CFAA? wenn ja, dann gute nacht...außer die edge-detection wird noch schnell genug....

oder meint er herkömliches MSAA via Shader...das scheint ja auch nicht besonderns performant zu sein...

Exxtreme
2007-05-17, 18:53:55
Marketing-Blablabla von Huddy.

Gandharva
2007-05-17, 18:55:12
AMD explains Radeon HD 2900XT's poor AA performance (http://www.custompc.co.uk/custompc/news/112773/amd-explains-poor-radeon-hd-2900xt-aa-performance.html)

Hehe nun ist das AA per Shader also kein Bug sondern ein Feature. Kommt wohl nur leider _viel_ zu früh.

Wie deckt sich das ganze denn mit der enormen Bandbreite die die Karte mitbringt? Braucht man die für Shader AA eigentlich?

AnarchX
2007-05-17, 19:00:59
Wie deckt sich das ganze denn mit der enormen Bandbreite die die Karte mitbringt? Braucht man die für Shader AA eigentlich?

Nein, das hatte Xmas schon im B3D geklärt.

mapel110
2007-05-17, 21:56:06
reunion
Master Member



Registriert: 10.05.2003
Beiträge: 7.417 Re: HD 2900XT: (P)Review-Thread
Zitat:Zitat von DaEmpty
Du behauptest FarCry wäre CPU-limiert und bringst zum Beweis einen Link, der einer 8800Ultra die doppelte Framerate einer 2900XT zuspricht?

Und vorallem selbst eine X1950XT eine ~50% höhere Framerate.
Eben drum eine x1900 xt bringt dort schon enorm Leistung. ca 75 % der 8800 Ultra. Also sollte dort die x2900er auch gut abgehen und das tut sie sogar mit den bisherigen Treiberbugs. 60 fps bei 1900x1200er Auflösung ist schon mal ein Anfang. Und größtenteils ist Farcry auf aktuellen Karten (diese und vorige Graka-Generation) CPU-limitiert.

HOT
2007-05-17, 22:58:00
Hört sich wie ne Ausrede an, das Statement...

PCGH_Carsten
2007-05-17, 22:58:35
Es wird doch gar nicht angewendet unter OpenGL. Es kann überhaupt auch gar nicht sein, dass der Filter überhaupt keine zusätzliche Leistung braucht, schließlich wird ALU-Leistung und Bandbreite dafür benötigt.
"umsonst" ;)

Daredevil
2007-05-18, 05:46:06
Gibts irgendwo ne Seite wo man sich den neuesten bzw. "besten" Treiber runterladen kann?
Hab jetzt erstmal den von der ATI Page, gibbet da was neueres?

tombman
2007-05-18, 06:53:46
Huddy macht blaaa. Klar steigt die Arith. power in Zukunft,aber ned so schnell wie die sich das wünschen. Als HIGH-END Karte wird sie von freaks nicht lange behalten und abgestoßen wenn es was neues gibt, und das wirds noch dieses Jahr geben-> wen will er verarschen?
Siehe dazu
http://www.fudzilla.com/index.php?option=com_content&task=view&id=1021&Itemid=1
Hauptsächlich tut man mit solchen Karten immer noch spielen und keine Atomexplosionen simulieren ;)

Marc-
2007-05-18, 07:43:12
Huddy macht blaaa. Klar steigt die Arith. power in Zukunft,aber ned so schnell wie die sich das wünschen. Als HIGH-END Karte wird sie von freaks nicht lange behalten und abgestoßen wenn es was neues gibt, und das wirds noch dieses Jahr geben-> wen will er verarschen?
Siehe dazu
http://www.fudzilla.com/index.php?option=com_content&task=view&id=1021&Itemid=1
Hauptsächlich tut man mit solchen Karten immer noch spielen und keine Atomexplosionen simulieren ;)


Und auch zum x-ten mal. Die handvoll "Freaks" wie du sie nennst, sind weder der zielmarkt von nv, noch von ati. Damit verdienen die firmen kaum ihr geld. Auch wenn du diese gruppe für entscheidend hälst... sie ist verschwindend klein und maximal ein nischenmarkt. Ein nettes zubrot zum abverkauf bestimmter prestige und imageaktionen, wie der GTX Ultra, aber mehr auch nicht.
Fakt ist, und da hat der schreiberling eben recht: ATI hat einen schritt in die zukunft gemacht... für den moment vielleicht einen zu grossen.. aber einen schritt den nv mit den nächsten generationen erst noch machen muss.
Ausserdem wissen wir alle wie lange im vorraus grafikkartengenerationen geplant werden und wann mit der entwicklung begonnen wird. Da keiner hellseher ist, kann man nur spekulieren wo sich in etwa zum geplanten launch die spiele und anwendungsindustrie befindet. Und da liegt, wie die erfahrung zeigt, mal der eine, mal der andere besser, was das kaffeesatzlesen angeht.

Gast
2007-05-18, 07:45:34
abstoßen heißt erst mal gekauft zuhaben......dann muß ne neue her....um was anderes geht es doch nicht.....die leute dürften nicht kaufen!

James Ryan
2007-05-18, 07:48:55
Und auch zum x-ten mal. Die handvoll "Freaks" wie du sie nennst, sind weder der zielmarkt von nv, noch von ati.

Solche High-End Monster wie eine 8800 GTX/Ultra oder eine HD 2900 XT/X sind genau für solche Freaks gemacht! ;)

MfG :cool:

Gast
2007-05-18, 07:54:06
Und auch zum x-ten mal. Die handvoll "Freaks" wie du sie nennst, sind weder der zielmarkt von nv, noch von ati. Damit verdienen die firmen kaum ihr geld.

Der High-End Markt beschert nVidia die höhsten Margen - so wie der Plasmafernsehr Aldi mehr Gewinn einbringt als die Brotpackung.

Fakt ist, und da hat der schreiberling eben recht: ATI hat einen schritt in die zukunft gemacht... für den moment vielleicht einen zu grossen.. aber einen schritt den nv mit den nächsten generationen erst noch machen muss.

Welchen Schritt hat ATi gemacht? Sie übernahmen das Xenos Design, pimpten es ein bisschen auf und verkaufen es auf dem PC-Markt. Das man mit diesem Design am Markt vorbei gearbeitet hat, zeigt sich in so vielen Bereichen.
nVidia hat in den letzten Jahr immer wieder gezeigt, dass sie große Veränderungen immer wieder anpacken und sehr gut umsetzen - nv30 -> nv40, g70 -> g80.
ATI dagegen hat von den Fehlern, die sie seit dem r520 gemacht haben, nichts gelernt. Zu spät, zu viel technischer Grimskram und ein fast schon unnormales Verhaltnis zur hohen Rechenleistung, wodurch andere Limitierungen einfach außer acht gelassen werden.
Nein, ich sehe nicht, dass ATi hier einen Schritt in die Zukunft gemacht haben.

Marc-
2007-05-18, 07:55:25
Solche High-End Monster wie eine 8800 GTX/Ultra oder eine HD 2900 XT/X sind genau für solche Freaks gemacht! ;)

MfG :cool:
eine 300 euro karte wie die XT ist bestimmt nicht für die freaks gemacht die tombman meint und von denen ich hier auch rede.
Da meint er wohl eher die karten für 600-700 eur (wie die ultra etc). Und diese kartenverkäufe sind, bezogen auf den gesamtumsatz von nv/ati nunmal nischenprodukte. Wenn da die entwicklungskosten reinkommen, isses auch schon gut gewesen.

Odal
2007-05-18, 07:55:43
ähm ich kenne genug leute die nur high end karten kaufen, diese dann aber etliche jahre im rechner zu stecken haben

James Ryan
2007-05-18, 08:01:07
eine 300 euro karte wie die XT ist bestimmt nicht für die freaks gemacht die tombman meint und von denen ich hier auch rede.

Mach aus den 300€ mals lieber 360€ für die XT. ;)
Außerdem verschleudert ATi die XT zu dem Preis nur weil sie einfach nicht konkurrenzfähig genug ist, um 500€ oder mehr für die XT zu verlangen!
Jeder der mehr als 300€ für eine einzelne Graka bezahlt, ist schon ein bißchen Freak.
Aber du hast Recht, der Gesamtanteil dieser Leute ist verschwinden gering, aber trotzdem interessant für NVIDIA und ATi!

MfG :cool:

Mumins
2007-05-18, 08:10:34
Mach aus den 300€ mals lieber 360€ für die XT. ;)
Außerdem verschleudert ATi die XT zu dem Preis nur weil sie einfach nicht konkurrenzfähig genug ist, um 500€ oder mehr für die XT zu verlangen!
Jeder der mehr als 300€ für eine einzelne Graka bezahlt, ist schon ein bißchen Freak.
Aber du hast Recht, der Gesamtanteil dieser Leute ist verschwinden gering, aber trotzdem interessant für NVIDIA und ATi!

MfG :cool:

AtI verkauft keine Karten. Wenn dann verschleudern sie die Chips.

4711
2007-05-18, 08:17:47
nein Zielmarkt ist nach Monaten Verspätung soviel Kohle wie möglich mit dem Schrott rauszuziehen und dann einen Nachfolger hinterher zuschieben.......

=Floi=
2007-05-18, 08:17:54
wenn der highend markt so klein wäre würde es keine 8800 GTX und GTS geben
der markt ist kleiner aber sicherlich nicht uninteresannt und schon garnicht unrentabel
man schaue sich mal das letztes quatal von ati und von nv an

4711
2007-05-18, 08:21:18
Mach aus den 300€ mals lieber 360€ für die XT. ;)
Außerdem verschleudert ATi die XT zu dem Preis nur weil sie einfach nicht konkurrenzfähig genug ist, um 500€ oder mehr für die XT zu verlangen!
Jeder der mehr als 300€ für eine einzelne Graka bezahlt, ist schon ein bißchen Freak.
Aber du hast Recht, der Gesamtanteil dieser Leute ist verschwinden gering, aber trotzdem interessant für NVIDIA und ATi!

MfG :cool:

Davon Leben die,denn ohne "Freaks" wie ihr das nennt würde sich kein Schwein für HighEnd interessieren>Spielmarkt...etc.... Ihr denkt falsch!
Und des wegen kämpfen die zwei ja um die Krone....kein Mensch kauft noch einen Dell mit ner 7900 GTX.......

Mumins
2007-05-18, 08:36:49
wenn der highend markt so klein wäre würde es keine 8800 GTX und GTS geben
der markt ist kleiner aber sicherlich nicht uninteresannt und schon garnicht unrentabel
man schaue sich mal das letztes quatal von ati und von nv an

Der Markt ist vom Gewinn an sich eben sehr unrentabel. Wer aber die Performancekrone hat verkauft automatisch mehr in anderen Segmenten. Die DAUs denken ah Nvidia ist mit der 8800 am schnellsten, dann sind sie das auch mit der 8600.
Ati hat auch nur noch 21 % Marktanteil, Nvidia 28,5 %. Vor allem im Notebooksektor hat Nvidia stark gepunktet. Nvidia hat einfach das bessere Marketing. Obwohl sie nicht das bessere Produkt haben sind sie in den Bereichen trotzdem vor ATI.

Marc-
2007-05-18, 08:40:01
Der Markt ist vom Gewinn an sich eben sehr unrentabel. Wer aber die Performancekrone hat verkauft automatisch mehr in anderen Segmenten. Die DAUs denken ah Nvidia ist mit der 8800 am schnellsten, dann sind sie das auch mit der 8600.
Ati hat auch nur noch 21 % Marktanteil, Nvidia 28,5 %. Vor allem im Notebooksektor hat Nvidia stark gepunktet. Nvidia hat einfach das bessere Marketing. Obwohl sie nicht das bessere Produkt haben sind sie in den Bereichen trotzdem vor ATI.
Besser hätte mans kaum sagen können. Genau das ist der punkt.
Deshalb sprach ich ja auch vom abverkauf von Prestige und imageprodukten.
Nebenbei, weder die 2900XT noch die GTS sind highendhardware für die "freaks"... frag mal einen tombman. Genausowenig wie es beispielsweise ne 7800GT etc jemals war.

Gast
2007-05-18, 08:40:54
Obwohl sie nicht das bessere Produkt haben sind sie in den Bereichen trotzdem vor ATI.

Wenn man im Notebookmarkt das deutlich schnellere Produkt zum gleichen Stromverbrauch verbrauchen kann, hat man nicht "das bessere Produkt"?
nVidia konnte in diesem Markt punkten, weil die g71 und die g73 Karten sehr, sehr energiesparend sind. Für den Markt das perfekte Produkt.

Gast
2007-05-18, 08:48:25
Nebenbei, weder die 2900XT noch die GTS sind highendhardware für die "freaks"... frag mal einen tombman. Genausowenig wie es beispielsweise ne 7800GT etc jemals war.

Definierst du High-End nur über den Preis oder über die Leistung? Die GTS ist beschnitten, die 2900XT nicht. Die GTS ist im 3D Modus nicht hörbar, die 2900XT dagegen schon. Die GTS verbraucht bis zu 80 Watt weniger im 3D Modus als die 2900XT.
Die 2900XT hat alle Merkmale einer "Freakkarte", nur ist sie eben aufgrund der geringeren Leistung billiger als eine GTX/Ultra oder whatever. Die 2900XT hat eine höhrere Rechenleistung und eine höhrere Bandbreite als die 8800Ultra - ist das nicht High-End pur?

Marc-
2007-05-18, 08:52:35
Definierst du High-End nur über den Preis oder über die Leistung? Die GTS ist beschnitten, die 2900XT nicht. Die GTS ist im 3D Modus nicht hörbar, die 2900XT dagegen schon. Die GTS verbraucht bis zu 80 Watt weniger im 3D Modus als die 2900XT.
Die 2900XT hat alle Merkmale einer "Freakkarte", nur ist sie eben aufgrund der geringeren Leistung billiger als eine GTX/Ultra oder whatever. Die 2900XT hat eine höhrere Rechenleistung und eine höhrere Bandbreite als die 8800Ultra - ist das nicht High-End pur?
Frag nicht MICH was "FReakhardware" ist, das können dir andere wie zum beispiel tombman besser beantworten, ich denke jedenfalls kaum, nach den bisherigen äusserungen zu urteilen, das beispielsweise für ihn eine 2900XT dazugehört...

Gast
2007-05-18, 08:58:39
Frag nicht MICH was "Freakhardware" ist,

"Nebenbei, weder die 2900XT noch die GTS sind highendhardware für die "freaks"... "

Ich denke schon, dass du mir erklären kannst, warum die 2900XT keine Freakhardware wäre - du schließt sie ja aus.

ich denke jedenfalls kaum, nach den bisherigen äusserungen zu urteilen, das beispielsweise für ihn eine 2900XT dazugehört...

Du definierst somit "Freakhardware" über die Leistung. Genau aus diesem Grund findet er die 2900XT eben nicht gut, da die Leistung nicht an die GTX heranreicht - dafür aber Stromverbrauch und Lautstärke. Technisch gesehen, ist die 2900XT auch eine Freakkarte, aber irgendwelche Probleme scheinen sie zurückzuhalten.

Daredevil
2007-05-18, 09:11:56
Boa Fuck bei der Gecube 2900xt sind keine Stromadapter bei :(
Hab nur einen hier Zuhause, hoffentlich hat der Örtliche PC Händler so ein Kabel über.

Gast
2007-05-18, 09:19:39
Boa Fuck bei der Gecube 2900xt sind keine Stromadapter bei :(
Hab nur einen hier Zuhause, hoffentlich hat der Örtliche PC Händler so ein Kabel über.

Es funktionieren auch zwei 6Pin Anschlüsse. Sollte dein Netzteil nur einen haben, wäre ein anderes Netzteil wohl die bessere Entscheidung als nur ein Adapter.

up¦²
2007-05-18, 10:27:18
HKEPC (China) hat nun auch ihre Review online:
Intel Core 2 Extreme X6800 (2.93GHz/4MB L2/1066MHzFSB)
Gigabyte GA-965P-DQ6 (P965 + ICH8R)
ADATA DDR2-800 1GB x2 (CL 5-5-5-15)
MSI GeForce 8800GTS 640MB (512MHz/1600MHz)
MSI GeForce 8800GTS 320MB (512MHz/1600MHz)
MSI GeForce 8800GTX 764MB (575MHz/1800MHz)
MSI GeForce 8800Ultra 764MB(612MHz/2160MHz)
HIS Radeon HD 2900XT (740MHz/1650MHz)
Maxtor Diamond Plus 10 160GB 7,200 SATA II
Delta ServerPower 550W
HIS PowerUp! 400W VGA Supply
Windows Vista Ultimate 32Bit Edition
NVIDIA Forceware Driver 158.48
AMD Catalyst Driver 8.38
Intel Chipser Inf Utility 8.1.1.1001
http://www.hkepc.com/bbs/hwdb.php?tid=790821&tp=AMD-R600-HIS&rid=790821

Als kleinen Gag haben sie ein 5,25 PSU mit getestet (CrossFire) :wink:
http://img510.imageshack.us/img510/493/powerinsideya2.jpg
http://www.hkepc.com/bbs/hwdb.php?tid=790820&tp=AMD-R600-HIS&rid=790821

Wieder die merkwürdig guten CoH-Ergebnisse; da erwarte ich mit desto mehr Spannung den DX10 patch für das Spiel am 29.Mai.
In der Drehe kommt auch der neue Treiber für den R600, Zufall? :biggrin:

Gast
2007-05-18, 10:28:20
Laut it-premier hat die 2900XT Probleme mit dem AA in CoH. Das sollte vielleicht jemand mal untersuchen, der die Karte hat.

reunion
2007-05-18, 10:29:23
Wenn man im Notebookmarkt das deutlich schnellere Produkt zum gleichen Stromverbrauch verbrauchen kann, hat man nicht "das bessere Produkt"?
nVidia konnte in diesem Markt punkten, weil die g71 und die g73 Karten sehr, sehr energiesparend sind. Für den Markt das perfekte Produkt.

Auch das ist bestenfalls die halbe Wahrheit, wenn man sich mal den Verlauf der Marktanteile speziell im Notebooksegment ansieht, und das mit dem Kauf von AMD vergleicht.

Daredevil
2007-05-18, 11:23:56
So die Karte läuft bei mit immoment mit EINEM Stromstecker, zweiter is schon bestellt :(
Wie kann man das Problem lösen das man 3dmark nich starten kann?
Die Karte läuft so wie ich das mitbekommen hab jetzt untertaktet wegen dem fehlenden Stromstecker.

reunion
2007-05-18, 11:28:48
Keine Ahnung, ob das schon bekannt ist, aber ein neuer Treiber wurde von ATi freigegeben: 8.37.4.3

http://support.ati.com/ics/support/default.asp?deptID=894&task=knowledge&questionID=27535

James Ryan
2007-05-18, 11:38:02
An die 3DMark.exe Verknüpfung noch ein -nosysteminfo anhängen!

MfG :cool:

mapel110
2007-05-18, 11:43:29
Keine Ahnung, ob das schon bekannt ist, aber ein neuer Treiber wurde von ATi freigegeben: 8.37.4.3

http://support.ati.com/ics/support/default.asp?deptID=894&task=knowledge&questionID=27535
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=362378&highlight=8.37.4.3
http://www.computerbase.de/news/treiber/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/
hier im Vergleich ist er doch auch schon mit drin.

Daredevil
2007-05-18, 11:48:49
An die 3DMark.exe Verknüpfung noch ein -nosysteminfo anhängen!

MfG :cool:
jeah das hab ich gesucht, hab das mal bei PCGH gelesen aber nich wiedergefunden, Danke!

up¦²
2007-05-18, 12:27:55
Ati hat die PSU-Liste fertig:
Power Supplies Certified for Single Card Operation (http://ati.amd.com/products/certified/powersupplies.html#pstop)
Erstaunlich... :smile:
ein 400er kam durch!
Enermax Liberty ELT400AWT (400W)

Ansonsten:
http://ati.amd.com/online/certifiedpsu/index.html

James Ryan
2007-05-18, 12:29:58
Ati hat die PSU-Liste fertig:
Power Supplies Certified for Single Card Operation (http://ati.amd.com/products/certified/powersupplies.html#pstop)
Erstaunlich... :smile:
ein 400er kam durch!
Enermax Liberty ELT400AWT (400W)

Ansonsten:
http://ati.amd.com/online/certifiedpsu/index.html

Hätte mich auch gewundert wenn die Liberty-Reihe außen vor geblieben wäre. ;)
Weiß eigentlich jemand ob Enermax auch achtpolige PCI-E Kabel zum nachrüsten anbietet?

MfG :cool:

Mumins
2007-05-18, 12:53:35
Hätte mich auch gewundert wenn die Liberty-Reihe außen vor geblieben wäre. ;)
Weiß eigentlich jemand ob Enermax auch achtpolige PCI-E Kabel zum nachrüsten anbietet?

MfG :cool:

Man braucht keine 8-poligen kabel. Nur Overdrive benötigt es. 2 x 6-pin langt völlig wenn man manuell übertaktet.

Gmax
2007-05-18, 15:13:24
Wo bleiben die eigenständigeren Karten von GeCube, Sapphire und HIS? ;(

deekey777
2007-05-18, 15:51:45
Weil es 8.3743 ist und nicht 8.374.2.

Gast
2007-05-18, 15:54:13
Das frag ich mich allerdings auch. Sapphire entwickelt ja eine eigene Kühllösung für den HD2900XT, würde mich wundern wann die auf den Markt kommt. Das selbe von HIS, die haben ja einmal die Referenzkarte mit normalen Kühler und ein eigenes Kühlersystem angekündigt. Hat jemand da schon neue News gefunden?

[dzp]Viper
2007-05-18, 15:56:20
So wie es scheint werden die Karten von HIS, Saphire und co. mit der eigenen Kühllösung auch gleich höhere Taktraten haben. Dürfte noch maximal 2 Wochen dauern bis diese dann in den Handel gelangen :)

Gandharva
2007-05-18, 16:03:29
Weil es 8.3743 ist und nicht 8.374.2.

:confused:

Odal
2007-05-18, 16:05:12
Weil es 8.3743 ist und nicht 8.374.2.
ich dachte beim 8.374.2er Treiber wurde lediglich AAA durch EATM ersetzt

wenn noch mehr dann wo gibts das teil? ^^

Odal
2007-05-18, 16:30:25
ähm beim config abändern der treiber ist mir folgender eintrag aufgefallen

[ati2mtag_R600.GeneralConfigData]
MaximumDeviceMemoryConfiguration=256


könnte es vielleicht sein das deswegen der R600 bei AA so einbricht weil nur 256MB angesprochen werden? oder hat das damit nix zutun?

LovesuckZ
2007-05-18, 16:32:22
Das können dir nur die Leute sagen, die schon eine Karte haben. Also frage doch am besten Wesker.

Daredevil
2007-05-18, 16:33:44
Sag mir wie ich dir helfen kann und ich tu es :)

J0ph33
2007-05-18, 16:37:02
glaub ich nicht, das wäre ja OBERWITZIG!!!

einfach 256MB vergessen zu nutzen...wäre der lächerlichste Treiber-Bug in der Geschichte der Graphikkarten

deekey777
2007-05-18, 16:38:46
ähm beim config abändern der treiber ist mir folgender eintrag aufgefallen

[ati2mtag_R600.GeneralConfigData]
MaximumDeviceMemoryConfiguration=256


könnte es vielleicht sein das deswegen der R600 bei AA so einbricht weil nur 256MB angesprochen werden? oder hat das damit nix zutun?
Bei mir sind 512:
[ati2mtag_R580.GeneralConfigData]
MaximumDeviceMemoryConfiguration=512
MaximumNumberOfDevices=4

[ati2mtag_R600.GeneralConfigData]
MaximumDeviceMemoryConfiguration=512
MaximumNumberOfDevices=4

Gast
2007-05-18, 16:39:06
ähm beim config abändern der treiber ist mir folgender eintrag aufgefallen

[ati2mtag_R600.GeneralConfigData]
MaximumDeviceMemoryConfiguration=256


könnte es vielleicht sein das deswegen der R600 bei AA so einbricht weil nur 256MB angesprochen werden? oder hat das damit nix zutun?

Nein, sonst würde er sich teilweise in 2560 nicht so von der 8800GTS absetzten.

Od@l
2007-05-18, 16:41:57
Bei mir sind 512:


welcher treiber? Der von der AMD/ATI seite hat bei mir da nur 256MB stehen....

zumindest in der WinX64 setup config..mal die andere begutachten

Daredevil
2007-05-18, 16:43:27
Im WinX64 steht 256, im WinXP 512

Od@l
2007-05-18, 16:44:52
also in der anderen config fürs normale 32Bit winxp stehen bei mir auch 512MB...ist ja komisch...wer also einen R600 sein eigen nennt und winxp X64 einsetzt sollte da mal hand anlegen

Hellsing
2007-05-18, 16:54:51
Rainbow Six Vegas Bildvergleich

G80:
http://img503.imageshack.us/img503/2778/r6vg80nobandingct9.jpg
R600:
http://img296.imageshack.us/img296/5605/r6vr600bandingfh0.jpg

Erschreckend wie Ati die Bildqualität absenkt sieht aus wie vermindertes HDR.

deekey777
2007-05-18, 16:59:50
Rainbow Six Vegas Bildvergleich

G80:
http://img503.imageshack.us/img503/2778/r6vg80nobandingct9.jpg
R600:
http://img296.imageshack.us/img296/5605/r6vr600bandingfh0.jpg

Erschreckend wie Ati die Bildqualität absenkt sieht aus wie vermindertes HDR.
Erschreckend oder ein Treiberproblem?
http://www.anandtech.com/video/showdoc.aspx?i=2988&p=15

Ich bin jetzt in Troll-Laune.:biggrin:
Ich finde das eine Posting (ich glaube von robbitop), wo es hieß, dass der Dave Orton vom R400 so richtig schwärmt.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=105713
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=106027
Exxtreme, kramt wieder alte Geschichte aus.

Du solltest allerdings die gesamte Storyline erzählen. ;)

Angeblich wusste ATI schon tweilweise über NV30 (den ursprünglichen) bescheid. Das R400 Design war eine "Panikreaktion" auf das was man bei ATI zu wissen glaubte. Daher war es nur logisch das mit dem R400 das gleiche passiert ist was mit dem ursprünglichen NV30 passiert ist. Der Unterschied war nur das nVidia den Codenamen beibehalten hat und ATI einen neuen gewählt hat.
Die Timeline (die phiese):
Wie man weiß, war der R200 nicht besonders gut, aber da kam das Uber-ArtX-Team und erschuff den :massa: R300 :massa:. Aber das Versager-R200-Team bekam eine zweite Chance und kreierte den R400, der wiederum eingestampft wurde, da er für diese Zeit einfach zu viel des Guten wäre und nicht machbar war, darum gab's Loki (R420). Aber das R300-Team ruhte nicht und erschuff aus dem Versager-R400 den Xenos/C1 und aus dem linken Ärmel fiel der R520 und aus dem rechten Ärmel der R580.
Aber das Versager-R200-Team hat es sich nicht gefallen lassen und erschuff den R600, der auf dem Versager-R400 basiert...

Sterem
2007-05-18, 17:54:49
Rainbow Six Vegas Bildvergleich

G80:
http://img503.imageshack.us/img503/2778/r6vg80nobandingct9.jpg
R600:
http://img296.imageshack.us/img296/5605/r6vr600bandingfh0.jpg

Erschreckend wie Ati die Bildqualität absenkt sieht aus wie vermindertes HDR.

Immer diese voreiligen schlüse.;)

Gast
2007-05-18, 18:11:09
sorry für ot

aber mir fiel auf dass bei vegas auf dem g80 anti aliasing funktioniert?!

wie funktioniert das ohne grafikfehler...ich hab es schonmal versucht indem man die exe umbenennt in oblivion.exe, dann habe ich aa + derbe grafikfehler^^

Hellsing
2007-05-18, 18:15:06
Erschreckend oder ein Treiberproblem?
http://www.anandtech.com/video/showdoc.aspx?i=2988&p=15


Die Benchmarks kann man damit alle in die Tonne schmeißen.

J0ph33
2007-05-18, 19:46:31
Die Timeline (die phiese):
Wie man weiß, war der R200 nicht besonders gut, aber da kam das Uber-ArtX-Team und erschuff den :massa: R300 :massa:. Aber das Versager-R200-Team bekam eine zweite Chance und kreierte den R400, der wiederum eingestampft wurde, da er für diese Zeit einfach zu viel des Guten wäre und nicht machbar war, darum gab's Loki (R420). Aber das R300-Team ruhte nicht und erschuff aus dem Versager-R400 den Xenos/C1 und aus dem linken Ärmel fiel der R520 und aus dem rechten Ärmel der R580.
Aber das Versager-R200-Team hat es sich nicht gefallen lassen und erschuff den R600, der auf dem Versager-R400 basiert...

LOL, wenn das wahr wäre X-D

Coda
2007-05-18, 19:59:48
Wie man weiß, war der R200 nicht besonders gut, aber da kam das Uber-ArtX-Team und erschuff den :massa: R300 :massa:
Das stimmt aber einfach nicht, R300 hat dazu zu viel von R200 geerbt. Aber ist ja wahrscheinlich auch nicht so ernst gemeint..

Aquaschaf
2007-05-18, 20:21:19
Erschreckend oder ein Treiberproblem?
http://www.anandtech.com/video/showdoc.aspx?i=2988&p=15

Ich bin jetzt in Troll-Laune.:biggrin:
Ich finde das eine Posting (ich glaube von robbitop), wo es hieß, dass der Dave Orton vom R400 so richtig schwärmt.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=105713
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=106027


Weiter OT, aber dann ist G80 der NV50 aus den Gerüchten damals?

Gmax
2007-05-18, 23:14:15
Rainbow Six Vegas Bildvergleich

G80:
http://img503.imageshack.us/img503/2778/r6vg80nobandingct9.jpg
R600:
http://img296.imageshack.us/img296/5605/r6vr600bandingfh0.jpg

Erschreckend wie Ati die Bildqualität absenkt sieht aus wie vermindertes HDR.

Also mit diesem
geringen Unterschied kann ich echt leben, da mir das ingame gar nicht auffallen würde.
Das entspricht aber nur meiner Sicht; andere könnte das vielleicht schon stören.

od@l
2007-05-18, 23:32:02
Rainbow Six Vegas Bildvergleich

G80:
http://img503.imageshack.us/img503/2778/r6vg80nobandingct9.jpg
R600:
http://img296.imageshack.us/img296/5605/r6vr600bandingfh0.jpg

Erschreckend wie Ati die Bildqualität absenkt sieht aus wie vermindertes HDR.

ähm also der R600 shot sieht ja mal nicht nach tschernobyl aus ^^

Coda
2007-05-18, 23:33:35
Rainbow Six Vegas Bildvergleich

G80:
http://img503.imageshack.us/img503/2778/r6vg80nobandingct9.jpg
R600:
http://img296.imageshack.us/img296/5605/r6vr600bandingfh0.jpg

Erschreckend wie Ati die Bildqualität absenkt sieht aus wie vermindertes HDR.
Das ist mit Sicherheit noch ein Treiberbug.

up¦²
2007-05-18, 23:42:55
Tessellation

The tessellation support contained in all the ATI Radeon HD 2000 series allows for the generation of highly detailed geometry from simple base meshes and displacement maps. This feature enables game developers to significantly raise the visual quality and complexity of their titles while lowering the cost of development. Tessellation offers a number of benefits in addition to increased geometric complexity - including more animation data, higher quality animation and stable, predictable performance. Tessellation is also an effective method of compression for both vertex and animation data giving both memory and storage savings.
http://ati.amd.com/developer/demos/rhd2000.html#

Informativ :wink:

Gmax
2007-05-19, 00:19:17
HD 2900XT in action (http://www.dailymotion.com/video/x1xzw0_hd-2900xt-in-action)

Kleiner "Soundcheck". Womöglich nur mit einem billigen Mikro aufgenommen und noch dazu ins Flashformat umgewandelt (komprimiert) aber man hat wenigstens eine ungefähre Ahnung wie sie sich anhört.

Blaze
2007-05-19, 00:46:35
Das ist mal sowas von Fake ;D

Am Ende sieht man wie der Lüfter deutlich langsamer wird aber das Geräusch bleibt konstant laut. Da steht jemand mitm Fön im Nebenzimmer oder was weiss ich, die Karte ist das mit Sicherheit nicht X-D

€: Nein...der Lüfter läuft sogar das ganze Video lang mit einer Geschwindigkeit...würde die Karte voll aufdrehen würde der Aufkleber auf dem Lüfter nicht mehr so rumeiern...

Gast
2007-05-19, 01:04:04
Das ist mal sowas von Fake ;D

Am Ende sieht man wie der Lüfter deutlich langsamer wird aber das Geräusch bleibt konstant laut. Da steht jemand mitm Fön im Nebenzimmer oder was weiss ich, die Karte ist das mit Sicherheit nicht X-D

€: Nein...der Lüfter läuft sogar das ganze Video lang mit einer Geschwindigkeit...würde die Karte voll aufdrehen würde der Aufkleber auf dem Lüfter nicht mehr so rumeiern...
Naja, hier hört sich es fast genau so an.
http://hardware.thgweb.de/2007/05/14/ati-radeon-hd-2900-xt-r600-directx10/page8.html
Der Aufkleber würde doch nur nicht mehr so rumeiern, wenn der Lüfter über die kritische Drehzahl fährt und so die Selbstzentrierung eintritt.

Low Rider
2007-05-19, 01:28:34
Der Aufkleber würde doch nur nicht mehr so rumeiern, wenn der Lüfter über die kritische Drehzahl fährt und so die Selbstzentrierung eintritt.
lol ;D
Wenn der Aufkleber nicht mittig sitzt, gibts keine Selbstzentrierung... (es sei denn er wäre aus Blei oder so... X-D)

Coda
2007-05-19, 01:29:43
Vor allem ist es ja nur die Grafik darauf die nicht zentriert ist. Und die zentriert sich sicher nicht selber X-D

up¦²
2007-05-19, 01:51:53
Rucki-zucki :wink: neuer als der 8.37.4.2!
http://infomemorias.com/descargas/drivers/sample_r600_xp_8.37.4.2_47323.exe

PS zur Erinnerung:
"The latest 8.37.4.2_47323 drivers is supposed to implement a new intelligent algorithm that increases FPS while applying similar image quality when running Adaptive Anti-Aliasing. In Oblivion, performance several times faster than previous drivers using the new adaptive AA algorithm was claimed to have been acheived. New optimizations for HDR applications in general resulted in a 5-30% increase in performance.

The 8.37.4.2_47323 is actually a pre-alpha driver, but it includes a preview of new 12xAA and 24xAA modes. These modes use an advanced edge detection filter that delivers edge quality while eliminating blurring."

Blaze
2007-05-19, 02:14:47
Vor allem ist es ja nur die Grafik darauf die nicht zentriert ist. Und die zentriert sich sicher nicht selber X-D

Durch die schnelle Drehzahl hats aber den Anschein. Noch nie nem Prozessorkühler beim drehen zugeguckt? ;)

Fakt ist doch, für die Drehzahl die man im Video gesehen hat war sie deutlich zu laut. Das klang ja fast schon nach FönFX.

Coda
2007-05-19, 03:10:01
Es kommt ja auch auf den Abstand usw. an. Wie willst du denn von nem aufgenommenen Signal auf die Lautstärke schließen?

Das einzige was du hörst ist wie das Ding klingt und das kommt doch hin, wenn man's mit THG vergleicht.

Radeonator
2007-05-19, 11:17:30
Ich kann mir nicht helfen, ich habe ein dauer deja vu ;D

Hoffentlich straft die Zeit mich Lügen, dennoch erinnert mich das alles stark an den FX launch. Genau das, was dort bemängelt wurde, wird teilweise nun von den gleichen leuten als "ist doch gar net schlimm" bezeichnet.

Erinnere mal an den FX5800er launch...

Der Föhn...viel zu starker Stromverbrauch...zu langsam bei FSAA/AF...schlechte Treiber... etc etc

Genau das gleiche nun bei ATi und wie damals hoffen alle auf das redesign und Wundertreiber. ;)

robbitop
2007-05-19, 13:03:29
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=362378&highlight=8.37.4.3
http://www.computerbase.de/news/treiber/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/
hier im Vergleich ist er doch auch schon mit drin.
Oh mann und noch immer checken die Leute von CB nicht, dass AAA im 8.3742 EATM ist und in den anderen Revisionen nicht. X-D

Ronny145
2007-05-19, 13:07:53
Oh mann und noch immer checken die Leute von CB nicht, dass AAA im 8.3742 EATM ist und in den anderen Revisionen nicht. X-D


Ist doch schon älter der Vergleich. Außerdem mal den Text lesen, da steht: "Allem Anschein nach hat ATi aber Bildqualität zu Gunsten von Leistung geopfert, indem man ein wenig am AAA gewerkelt hat."

robbitop
2007-05-19, 13:10:11
Man hat nirgends dran "gewerkelt". Man hat schlicht SS-TAA durch MS-TAA ersetzt. :)

up¦²
2007-05-19, 13:15:22
robbitop, was meinst du zu dem bei asustreiber.de aufgetauchten Vista-Treiber?
http://www.rage3d.com/board/showthread.php?t=33891395

reunion
2007-05-19, 13:26:47
Ist doch schon älter der Vergleich. Außerdem mal den Text lesen, da steht: "Allem Anschein nach hat ATi aber Bildqualität zu Gunsten von Leistung geopfert, indem man ein wenig am AAA gewerkelt hat."

Das kam aber auch erst später dazu. Zu beginn stand da, dass ATi die Bildqualität des AAA deutlich sichtbar verbessert hat. :)

robbitop
2007-05-19, 13:45:04
@up

Ich nutze auf meinem Testsystem noch kein Vista. Zur Zeit ist es XP32 und ab naechster Woche wohl XP64.

Wenn Vista64 und die Treiber so weit ist, dass man problemlos migrieren kann, ohne Nachteile in aelteren Spielen zu haben, werde ich es tun. Noch ist die Situation aber sehr duerftig. (und Vista32 ist mir zu unkonsequent)

up¦²
2007-05-19, 14:07:11
Alles klar, geht mir genauso, aber dx10 probier ich bei gegebenen Anlaß mal aus: CoJ, CoH patch - (probieren kostet ja nur Zeit ... und Nerven :smile: )
LP ist ein Witz... Unterschiede Dx9/10 geradezu lächerlich, fast schon Placebo-Effekt :rolleyes:
Vermutlich mußte Ati wirklich mehr Transistoren strippen, weil 80nm einfach nicht mehr zuließ: die Watt sagen ja schon alles...
Sehr knifflige Situation, daß jetzt treibermäßig zu kompensieren

Ronny145
2007-05-19, 14:29:30
Das kam aber auch erst später dazu. Zu beginn stand da, dass ATi die Bildqualität des AAA deutlich sichtbar verbessert hat. :)


Das weiß ich. Aber das steht nun seit ein paar Tagen dort, robbitops Kommentar ist von heute.

robbitop
2007-05-19, 14:50:32
Ja naja sowas sollte man schon beim Benchen sehen und spaetestens bei der Analyse der Benchmarks erkennen.

MechWOLLIer
2007-05-20, 11:20:35
Oh mann und noch immer checken die Leute von CB nicht, dass AAA im 8.3742 EATM ist und in den anderen Revisionen nicht. X-D
Die Leute von CB haben das schon lange gecheckt
Und wirklich immer EATM ist es wohl übrigens nicht, im 8.3742 - soviel dazu ;)

Gast
2007-05-20, 11:27:25
Die Leute von CB haben das schon lange gecheckt
Und wirklich immer EATM ist es übrigens nicht, im 8.3742 - soviel dazu ;)

Das schlimme ist, dass ihr es nur gemerkt habt als ihr darauf hingewiesen wurdet. So habt ihr am Anfang den Eindruck erweckt, dass eine Leistungssteigerung durch den Treiber hervorgerufen wurde.
Das war sehr großes Kino...

MechWOLLIer
2007-05-20, 11:40:56
Der Treiber ist (in Oblivion zumindest) auch wirklich schneller als der alte. Bemerkt man, wenn man AAA ausschaltet, wobei dies natürlich nichts mit unserem (zweifhaft vorhandenen) Fehler zu tun hat.

Doch der kleine Nachtest ging einfach viel zu schnell und ungeplant von statten. Eigentlich wollte ich einen Tag Abstand von der 2900 XT nehmen, nachdem man tagelang nicht viel anderes gesehen hatte. Dementsprechend war die Motivation nicht wirklich vorhanden, nochmal auf die Bildqualität zu achten. Ich hatte mit sowas auch ehrlich nicht gerechnet.

robbitop
2007-05-20, 12:46:36
Die Leute von CB haben das schon lange gecheckt
Und wirklich immer EATM ist es wohl übrigens nicht, im 8.3742 - soviel dazu ;)
In den von CB betrachteten Spielen ist es jedoch auf jeden Fall EATM.

up¦²
2007-05-20, 13:00:19
Mal zu CF:
wem das Kraftwerk nicht reicht, kann sich einen Kraftzwerg nachschieben: ins 5,25er Frontfach.
HIS (s.o.!) hat ja z.B. eine ähnliche Lösung :wink:
Hier eine von Thermaltake:
http://www.thermaltake.com/product/Power/PurePower/w0099/w0099.asp

MegaManX4
2007-05-20, 21:45:36
Oh mann und noch immer checken die Leute von CB nicht, dass AAA im 8.3742 EATM ist und in den anderen Revisionen nicht. X-D

gibts irgendwo eine erklärung was "EAMT" ist?

robbitop
2007-05-20, 22:59:05
EATM ist ATIs MS-TAA. Allerdings spielen die dabei irgendwie noch am LOD rum.

MegaManX4
2007-05-21, 09:51:08
EATM ist ATIs MS-TAA. Allerdings spielen die dabei irgendwie noch am LOD rum.

Komisch, die Oblivion Bilder beim 3Dcenter Review schienen mir auf der ATI hübscher zu sein, beim AAA Vergleich. Müsste denn Nvidia mit seinem MSAA Tranzparenz Feature nicht gleiches bieten können?

Und ich versteh auch überhaupt nicht wie Tranzparenz-MSAA überhaupt was bewirken kann. Ich dachte immer, Multisampling kann gar nicht auf Texturen wirken, auch nicht auf Alpha Texturen.

Gast
2007-05-21, 10:41:49
Komisch, die Oblivion Bilder beim 3Dcenter Review schienen mir auf der ATI hübscher zu sein, beim AAA Vergleich.

Liegt daran, dass der ATI Screenshot falsch ist.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5494545&postcount=117

Henroldus
2007-05-21, 11:36:05
EATM ist ATIs MS-TAA. Allerdings spielen die dabei irgendwie noch am LOD rum.
Ich hab das an dieser Stelle schon einmal gefragt.

Reicht MSAA bei transparenten Texturen(Zäune, Blätter) nicht völlig aus?
schliesslich sollen doch nur die Kanten zum Hintergrund verbessert werden :confused:
Wass soll denn SSAA hier mehr bewirken?

robbitop
2007-05-21, 11:42:49
Komisch, die Oblivion Bilder beim 3Dcenter Review schienen mir auf der ATI hübscher zu sein, beim AAA Vergleich. Müsste denn Nvidia mit seinem MSAA Tranzparenz Feature nicht gleiches bieten können?

Und ich versteh auch überhaupt nicht wie Tranzparenz-MSAA überhaupt was bewirken kann. Ich dachte immer, Multisampling kann gar nicht auf Texturen wirken, auch nicht auf Alpha Texturen.
Das huebscher ist nur subjektiv. Der ATI Algoritmus scheint am LOD und an der Dicke der Alphatexturen rumzuspielen. Das mag zwar fuer den einen oder anderen besser aussehen ist es aber nicht. Der Kontent wird nicht korrekt dargestellt. Es gibt auch Leute, die Blur gutfinden, weil es dann weicher aussieht.

Transparenz Anti Aliasing nutzt das Alpha-to-Coverage verfahren. Damit koennen Alphatexturen vom MSAA erfasst werden. Doch idR bieten die Alphatexturen nicht genug informationen um eine sehr gute Glaettung zu erzielen. Da ist TSAA deutlich besser.

btw: der shot ist nicht falsch. Er ist nur falsch gefiltert, was noch korrigiert wird und am Ergebnis nicht wirklich etwas aendert. ;)

Gast
2007-05-21, 13:27:27
Hier noch eine Review:

http://www.awardfabrik.de/index.php?p=reviewpages&id=141&seite=1

Ronny145
2007-05-21, 13:40:34
Hier noch eine Review:

http://www.awardfabrik.de/index.php?p=reviewpages&id=141&seite=1


4 Benchmarks für die GTS, 3 für die XT und eins ausgegelichen. Ich finde es aber arm, dass man dort die Xbitlabs Verbrauchswerte genommen hat ohne Angabe von Quellen. Einfach ein (unsere Ergebnisse stammen aus Recherchen)

dargo
2007-05-22, 08:47:52
Sorry, falls es schon mal gepostet worden ist. Ich hatte den Thread kaum verfolgt.
http://www.xbitlabs.com/articles/video/display/r600-architecture_14.html

Die Verbrauchsmessungen sind einfach nur erschreckend. Damit meine ich eher den Idle-Verbrauch. Mit den Lastwerten haben, denke ich, die meisten schon gerechnet.

deekey777
2007-05-22, 12:43:43
Dave Baumann meinte, dass es sich um einen Treiberfehler handeln könnte, indem die Grafikkarte nicht in den Idle-Modus schaltet (Spannung wird nicht abgesenkt). Hoffentlich stimmt's.

dargo
2007-05-22, 12:47:30
Hehe, wie kann man nur den selben Fehler zwei mal machen? :usweet:

James Ryan
2007-05-22, 12:48:09
Dave Baumann meinte, dass es sich um einen Treiberfehler handeln könnte, indem die Grafikkarte nicht in den Idle-Modus schaltet (Spannung wird nicht abgesenkt). Hoffentlich stimmt's.

Könnte man dies nicht einfach per RivaTuner oder notfalls per Voltmeter selbst nachprüfen?
AFAIK funtkioniert die Taktabsenkung auf der HD 2900 XT, nur ob die Spannung auch abgesenkt wird, hat noch keiner geprüft.

MfG :cool:

dr_mordio
2007-05-23, 02:17:48
was wird denn nun aus dem spiele bundel?

so wie es aussieht, hat valve die blackbox gecancelt :eek:

Keine BlackBox (http://www.hartware.de/news_42147.html)

hat da schon jemand mehr infos???

MfG
Alex

up¦²
2007-05-23, 21:43:02
MSI HD2900XT CrossFire – производительность в DirectX 9 приложениях :smile:
http://www.3dnews.ru/video/hd2900xt_crossfire/

Ziemlich interessant wie gut CF z.B. bei CoJ funzt.
Die Review kündigt einen Test mit 8800GTS-SLI an und hofft dann schon DX10-Benchmarks zu haben, also mal sehn, was wird (CoJ DX10-patch kommt ja nächste Woche Dienstag!)

Gast
2007-05-23, 23:47:56
was wird denn nun aus dem spiele bundel?

so wie es aussieht, hat valve die blackbox gecancelt :eek:

Keine BlackBox (http://www.hartware.de/news_42147.html)

hat da schon jemand mehr infos???

MfG
Alex

Nur die Retail-Version wurde gecancelt. In Steam wirds die immer noch geben.
http://www.theinquirer.net/default.aspx?article=39758

dargo
2007-05-24, 00:03:26
MSI HD2900XT CrossFire – производительность в DirectX 9 приложениях :smile:
http://www.3dnews.ru/video/hd2900xt_crossfire/

Ziemlich interessant wie gut CF z.B. bei CoJ funzt.


Was soll denn daran so besonders sein? Eine Skalierung von ~78% finde ich nicht gerade optimal.

Raff
2007-05-24, 00:06:42
Für Crossfire ist das aber beachtlich. Die Zeiten von 100%-Effizienz (http://3dcenter.de/artikel/voodoo5-6000/) sind leider vorbei.

MfG,
Raff

HD-Ronny
2007-05-24, 00:58:09
Für Crossfire ist das aber beachtlich. Die Zeiten von 100%-Effizienz (http://3dcenter.de/artikel/voodoo5-6000/) sind leider vorbei.

MfG,
Raff

Voodoo ist tot,leider.Wenn es bei SLI oder CF schon für über 75% scalierung Applaus gibt,na dann... Für mich ist das nicht so die technokeule ,die sollten mal eher energieefficientere GPU`s bringen.

Gast
2007-05-24, 01:14:28
Für Crossfire ist das aber beachtlich. Die Zeiten von 100%-Effizienz (http://3dcenter.de/artikel/voodoo5-6000/) sind leider vorbei.

MfG,
Raff

Raff wie kannst du einfache gestrike GPUs, die eigentlich gar keine GPUs sind, laut Nvidia's Definition mit komplexen GPUs vergleichen?

Das ist doch ein Unterschied wie Tag und Nacht. Damals war 100% Effizienz kein Wunder bei der einfachen Architektur.

Odal
2007-05-24, 01:40:45
das meinte er doch damit das die zeiten von 100% effizienz leider vorbei sind...eben weil die GPUs so komplex sind das sie nicht einfach zeile für zeile von unterschiedlichen GPUs unabhängig voneinander rendern können

Mr. Lolman
2007-05-24, 08:41:41
Raff wie kannst du einfache gestrike GPUs, die eigentlich gar keine GPUs sind, laut Nvidia's Definition mit komplexen GPUs vergleichen?

Gestrike? Was ist das?

mapel110
2007-05-24, 08:54:22
Gestrike? Was ist das?
gestrickte

aka designte, konstruierte

Aber der 3DFX-Krempel ist hier Offtopic. Laßt die Toten ruhen.

Gast
2007-05-24, 09:40:29
MSI HD2900XT CrossFire – производительность в DirectX 9 приложениях :smile:
http://www.3dnews.ru/video/hd2900xt_crossfire/

Ziemlich interessant wie gut CF z.B. bei CoJ funzt.
Die Review kündigt einen Test mit 8800GTS-SLI an und hofft dann schon DX10-Benchmarks zu haben, also mal sehn, was wird (CoJ DX10-patch kommt ja nächste Woche Dienstag!)

Quelle?

Gmax
2007-05-24, 14:19:16
Wann soll nochmal die XTX kommen? Oder wurde sie mittlerweile gestrichen?

up¦²
2007-05-24, 15:37:29
Wann soll nochmal die XTX kommen? Oder wurde sie mittlerweile gestrichen?
Taucht nirgendwo mehr auf...
die monströse OEM übrigens auch nicht!

PS, hier noch eine polnische Review mit interessanten Benchmarks:
http://www.egielda.com.pl/?str=art&id=2859-30

AnarchX
2007-05-24, 17:55:32
Wann soll nochmal die XTX kommen? Oder wurde sie mittlerweile gestrichen?

Diamond wird zwei 2900XTs mit 1GB anbieten:
http://www.amd.com/us-en/assets/content_type/DownloadableAssets/ATI_Radeon_HD_2000_Handout.pdf

Das ist wohl das was von der XTX übrig bleibt.

=Floi=
2007-05-24, 18:14:04
lol die bekommen aber nur 1000mb nach dem datenblatt ;D ;D ;D ;D

Raff
2007-05-24, 20:39:20
gestrickte

aka designte, konstruierte

Aber der 3DFX-Krempel ist hier Offtopic. Laßt die Toten ruhen.

Sobald heutzutage jemand unschuldige Menschen tötet, werden Parallelen zur Geschichte gezogen. Immer, wenn ein Thema aufkommt, gibt es etwas Vergleichbares. Man sollte nie vergessen, was mal ging, auch wenn es nicht übertragbar ist. Seitenhiebe ergeben oft interessante Diskussionen. ;)

MfG,
Raff

dargo
2007-05-25, 00:10:23
Für Crossfire ist das aber beachtlich. Die Zeiten von 100%-Effizienz (http://3dcenter.de/artikel/voodoo5-6000/) sind leider vorbei.

MfG,
Raff
Ein weiterer Grund auf SLI/CF zu verzichten.

Gmax
2007-05-25, 00:20:58
Taucht nirgendwo mehr auf...
die monströse OEM übrigens auch nicht!

PS, hier noch eine polnische Review mit interessanten Benchmarks:
http://www.egielda.com.pl/?str=art&id=2859-30


Diamond wird zwei 2900XTs mit 1GB anbieten:
http://www.amd.com/us-en/assets/cont...00_Handout.pdf

Das ist wohl das was von der XTX übrig bleibt.

Tja, leistungs - und preistechnisch wahrscheinlich nicht mehr sinnvoll. Heftig, heftig für Ati :(
Vielleicht gibts eine 1 GB Karte mit dem R650.

Toppas:-)
2007-05-25, 00:42:54
Tja, leistungs - und preistechnisch wahrscheinlich nicht mehr sinnvoll. Heftig, heftig für Ati :(
Vielleicht gibts eine 1 GB Karte mit dem R650.

Eine XTX mit 1GB wird mit dem 65nm geben (R650). Mit dem R600 gibts die "!XTX?" nur für OEMs mit 1GB (oder besser, die lange XT mit 1GB). Man wird mit dem R650 dann auf Augenhöhe der 8800GTS (XT) oder 8800GTX(XTX) kommen, aber kaum drüber (vielleicht die Ulta mit 612Mhz noch).Der Focus liegt beim R600 im Low-Midrange um dort die wichtigen Marktanteile nicht auch noch zu verlieren.
Das soll mit dem R700 dann anders ausschauen, so hofft man bei AMD(Ende 1Q08 wahrscheinlich, auch mit Stromspartechniken dann).

Daredevil
2007-05-25, 00:48:34
Wenn man dem R600 genug dampf unterm hintern macht kann die sehr wohl was reißen , nur in 80nm wär das unverantwortlich gewesen da sie noch mehr Strom gefressen hätte und noch heißer geworden wäre.

Fänd ich allerdings auch verschwendung einen R600 mit 1024Mbyte rauszubringen...

Toppas:-)
2007-05-25, 00:54:17
Mit entsprechenden Taktraten bestimmt!Nur diese liegen schon sehr hoch bei einem so großen Chip.Auch die R650 wird noch dieses Problem haben trotz 65nm mit der Hitzentwicklung.
1GB ist derzeit völlig sinnlos- haste recht, selbst 512MB reichen noch die nächsten 1-1,5Jahre locker.

Gast
2007-05-25, 01:02:52
Eine XTX mit 1GB wird mit dem 65nm geben (R650). Mit dem R600 gibts die "!XTX?" nur für OEMs mit 1GB (oder besser, die lange XT mit 1GB). Man wird mit dem R650 dann auf Augenhöhe der 8800GTS (XT) oder 8800GTX(XTX) kommen, aber kaum drüber (vielleicht die Ulta mit 612Mhz noch).

o.O der Konkurrent des R650 wird eine der G9x GPUs. Da muss schon ein dickes Bricket an Leistung und Stabilität nachgelegt werden seitens AMD um im Highend Markt mit zu mischen. Im November kräht kein Hahn mehr nach G80 Karten wenn deren Nachfolger schon kommt.

Daredevil
2007-05-25, 01:04:59
Ne ich meinte nur 1024 in Verbindung mit diesem vergleichsweise schlechten R600, also ein Prachtstück ist ATI da nicht gelungen, das is wohl jedem klar.

Naja wiegesagt der Kühler hat noch reserven, ich komme jetzt stabil auf 850, mit ein bisschen Volt mehr sind da locker noch 900+ drinne, der RAM läuft auch ohne
mucken auf 1000, aber das ist glaub ich auch egal, das macht das schlechte nur ein wenig besser.
Man kann nur auf den R650 hoffen :)

Blutmaul
2007-05-25, 05:27:47
Habter den XBitlab-Test schon?

http://www.xbitlabs.com/articles/video/display/radeon-hd-2900-games.html

horn 12
2007-05-25, 07:21:56
Läuft denn die HD 2900 XT mit dem CCC / oder gar alten CC auch nur mit Service Pack 1?
Oder muss man SP2 zwingend installiert haben, zwecks dem CCC.

Das CCC lies sich doch bei der 1950 xxx immer nur mit dem SP2 und Framenetwork 2 installieren. Wurde dies mit der Einführung der HD 2900 XT überatbeitet, bzw. abgeändert?

Welches Frame-Network ist zwingend erforderlich für die HD 2900 XT.


Bitte fragt nicht warum hast kein SP 2 drauf.... ist halt momentan so, daher frage ich ja!
Danke!

James Ryan
2007-05-25, 08:30:40
Läuft denn die HD 2900 XT mit dem CCC / oder gar alten CC auch nur mit Service Pack 1?
Oder muss man SP2 zwingend installiert haben, zwecks dem CCC.

Das CCC lies sich doch bei der 1950 xxx immer nur mit dem SP2 und Framenetwork 2 installieren. Wurde dies mit der Einführung der HD 2900 XT überatbeitet, bzw. abgeändert?

Welches Frame-Network ist zwingend erforderlich für die HD 2900 XT.


Bitte fragt nicht warum hast kein SP 2 drauf.... ist halt momentan so, daher frage ich ja!
Danke!

Warum sollte man für das CCC des HD 2900 XT Treibers kein Framework 2 benötuigen, wenn es für die X1950 XTX schon so war?
Will damit sagen, du brauchst um das CCC nutzen zu können zu 99,999999% das SP2.
Warum du das nicht installieren willst, verstehe ich aber auch nicht.

MfG :cool:

A.Wesker
2007-05-25, 08:52:00
Warum sollte man für das CCC des HD 2900 XT Treibers kein Framework 2 benötuigen, wenn es für die X1950 XTX schon so war?
Will damit sagen, du brauchst um das CCC nutzen zu können zu 99,999999% das SP2.
Warum du das nicht installieren willst, verstehe ich aber auch nicht.

MfG :cool:
funktioniert mit SP1 auf jedenfall.

James Ryan
2007-05-25, 08:53:17
funktioniert mit SP1 auf jedenfall.

Du kannst das CCC trotz SP1 installieren? :|

MfG :cool:

DrumDub
2007-05-25, 09:25:57
Du kannst das CCC trotz SP1 installieren? :|

MfG :cool: klar. du brauchst ja auch nur das .net-framwork 2.0...

http://www.microsoft.com/downloads/details.aspx?displaylang=de&FamilyID=0856eacb-4362-4b0d-8edd-aab15c5e04f5

James Ryan
2007-05-25, 09:31:13
klar. du brauchst ja auch nur das .net-framwork 2.0...

http://www.microsoft.com/downloads/details.aspx?displaylang=de&FamilyID=0856eacb-4362-4b0d-8edd-aab15c5e04f5

Dann verstehe ich das grundsätzliche Problem von horn 12 nicht.

MfG :cool:

=Floi=
2007-05-25, 09:35:13
aber das braucht SP2
steht ja so im link
imho könnte es über das entpacken und installieren von hand gehen aber dann wundert mich hier sowieso nicht wieso bei manchen dies und das nicht funktioniert...

war das sarkassmus?

DrumDub
2007-05-25, 09:35:26
Dann verstehe ich das grundsätzliche Problem von horn 12 nicht.

MfG :cool: ich auch nicht. ;)

up¦²
2007-05-25, 12:20:05
Review...
http://www.ddworld.cz/aktuality/hd2900xt-otestovana-s-ovladaci-8.38-catalyst-7.5-2.html

Ronny145
2007-05-25, 12:22:16
Review...
http://www.ddworld.cz/aktuality/hd2900xt-otestovana-s-ovladaci-8.38-catalyst-7.5-2.html


Das nennst du review? Die Werte dort stammen von hkepc und sind schon älter.

J0ph33
2007-05-25, 12:26:04
aber das braucht SP2
steht ja so im link
imho könnte es über das entpacken und installieren von hand gehen aber dann wundert mich hier sowieso nicht wieso bei manchen dies und das nicht funktioniert...


mmh..wirklich? also das CCC läuft hier locker mit .net 2.0 auf SP1...

horn 12
2007-05-25, 13:00:40
Wie kann man das FrameNetwork 2.0 sonst noch installieren?
Da beim Installieren bei mir auf den Windows Installer nicht zugegriffen werden kann. Deshalb weil der Windows Installer leicht defekt ist.
Gibt es eine andere/ weitere Möglichkeit das FNW 2.0 dennoch zu installieren?
Wäre mir absolut wichtig, da die HD 2900 XT vorab mit XP testen möchte.

James Ryan
2007-05-25, 13:09:34
Wie kann man das FrameNetwork 2.0 sonst noch installieren?
Da beim Installieren bei mir auf den Windows Installer nicht zugegriffen werden kann. Deshalb weil der Windows Installer leicht defekt ist.
Gibt es eine andere/ weitere Möglichkeit das FNW 2.0 dennoch zu installieren?
Wäre mir absolut wichtig, da die HD 2900 XT vorab mit XP testen möchte.

Installiere doch Windows neu, wo ist das Problem? In 2-3 Stunden (höchstens!) ist doch wieder alles so wie vorher!

MfG :cool:

AnarchX
2007-05-25, 13:10:14
Da beim Installieren bei mir auf den Windows Installer nicht zugegriffen werden kann. Deshalb weil der Windows Installer leicht defekt ist.


Dann installier es halt neu... :rolleyes:

Gast
2007-05-25, 13:52:52
Review...
http://www.ddworld.cz/aktuality/hd2900xt-otestovana-s-ovladaci-8.38-catalyst-7.5-2.html

Bei Lost Planet und bei AA liegt immernoch einiges im Argen. Aber die Vertex- und Pixel-Shader-Test sind schon beeindruckend (selbst die GTX hat hier größtenteils keine Chance).

Coda
2007-05-25, 14:55:00
Das ist der AMD-Benchmark. Die Zahlen kannst du getrost wieder vergessen.

up¦²
2007-05-25, 15:47:19
Sind das neuer treiber, bekannt?
http://forumz.tomshardware.com/hardware/R600-RC3-38-XP-Vista-DRIVERS-ftopict238219.html

Ronny145
2007-05-25, 15:54:06
Sind das neuer treiber, bekannt?
http://forumz.tomshardware.com/hardware/R600-RC3-38-XP-Vista-DRIVERS-ftopict238219.html


Ja, und es gibt sogar schon neuere.

up¦²
2007-05-25, 16:41:13
Na denn man los Ronny bring uns RC7 :wink:

Noch was:
Exclusive: Asus EAH2900XT AquaTank (http://www.tweaktown.com/news/7574/index.html)

deekey777
2007-05-25, 16:42:42
Was soll er bringen? Den Thread zum RC7 gibt es seit einiger Zeit: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=364104

up¦²
2007-05-25, 17:01:26
Na dann eben den final, oder gibt's den auch schon? :tongue:

Gast
2007-05-25, 18:10:37
HMM.

http://hardwarezone.com/articles/view.php?id=2260&cid=3&pg=5

Gast
2007-05-25, 22:30:09
Endlich mal ein anständiges Review mit 3 GHz/FSB1333 Core2!

Sieht gar nicht schlecht aus, besonders die MINIMUM FPS sind beachtenswert!!
http://www.xbitlabs.com/articles/video/display/radeon-hd-2900-games.html

http://www.xbitlabs.com/images/video/radeon-hd-2900-games/bf2142_4x.gif
http://www.xbitlabs.com/images/video/radeon-hd-2900-games/coj_hdr.gif
http://www.xbitlabs.com/images/video/radeon-hd-2900-games/pier_4x.gif

... sieht doch schon erheblich besser aus. In den hohen Auflösungen wird teilweise sogar die GTX versägt. :eek:

Mir scheint das die Karte sich besonders für 1920x1200 und darüber eignen würde.

AnarchX
2007-05-25, 22:39:12
Endlich mal ein anständiges Review mit 3 GHz/FSB1333 Core2!

Sieht gar nicht schlecht aus, besonders die MINIMUM FPS sind beachtenswert!!
http://www.xbitlabs.com/articles/video/display/radeon-hd-2900-games.html

http://www.xbitlabs.com/images/video/radeon-hd-2900-games/bf2142_4x.gif
http://www.xbitlabs.com/images/video/radeon-hd-2900-games/coj_hdr.gif
http://www.xbitlabs.com/images/video/radeon-hd-2900-games/pier_4x.gif

... sieht doch schon erheblich besser aus. In den hohen Auflösungen wird teilweise sogar die GTX versägt. :eek:

Mir scheint das die Karte sich besonders für 1920x1200 und darüber eignen würde.

Naja, die von dir herausgesuchten Werte können sich in der Tat sehen lassen, nur im Review gibt es dann noch einige herbe Niederlagen selbst gegen die X1950XT.;)

Und die Eignung für hohe Auflösungen wird sich wohl mit kommenden Spielen, wegen der 512MB auch nur als recht kurzlebig erweisen.

Gast
2007-05-25, 22:39:33
http://www.xbitlabs.com/images/video/radeon-hd-2900-games/scell_hdr.gif
http://www.xbitlabs.com/images/video/radeon-hd-2900-games/tesin_hdr.gif
http://www.xbitlabs.com/images/video/radeon-hd-2900-games/tesout_hdr.gif
http://www.xbitlabs.com/images/video/radeon-hd-2900-games/x3_4x.gif
http://www.xbitlabs.com/images/video/radeon-hd-2900-games/cnc3_4x.gif

Mit den deutlich höheren min fps spielt es sich mit Sicherheit ne ganze Ecke besser.

Bei manch anderen Ergebnisse, wo die min fps stark abfallen, vermute ich noch ein Treiberproblem.

Gast
2007-05-25, 22:40:48
welche Version ist genau der Treiber hier, den die benutzt haben
ATI Catalyst HD2900_vista_8-37-4-070419a-046507E

AnarchX
2007-05-25, 22:41:42
Mit den deutlich höheren min fps spielt es sich mit Sicherheit ne ganze Ecke besser.


Ein Min-FPS-Wert sagt absolut nichts aus, wegen des extrem kurzen Zeitraum der hier betrachtet wird.
Wenn schon brauch man einen FPS-Verlauf. ;)

Gast
2007-05-25, 22:41:57
Naja, die von dir herausgesuchten Werte können sich in der Tat sehen lassen

Das sind aber keine Ausnahmen. Ich würde mal sagen, in 80 % der Fällen weist die neue Karte deutlich höhere min fps auf.

Dann gibts noch Fälle, wo avg und min fps deutlich abfallen (Treiber?). Da wird man noch ne Zeit warten müssen um zu sehen, woran es liegt.

Und die Eignung für hohe Auflösungen wird sich wohl mit kommenden Spielen, wegen der 512MB auch nur als recht kurzlebig erweisen.

Würde ich nicht sagen. Selbst wenn ich mir 20 Games die in 2560x1600 4xAA getestet wurden anschaue, fällt die XT nicht ein einziges mal deutlich hinter der GTX zurück!! Also was den Speicher betrifft.

Bis es überhaupt neue Games gibt, die umbedingt mehr als 512MB haben wir eh schon 2008, 65nm und 1gb :)

Gast
2007-05-25, 22:44:15
Ein Min-FPS-Wert sagt absolut nichts aus, wegen des extrem kurzen Zeitraum der hier betrachtet wird.
Wenn schon brauch man einen FPS-Verlauf. ;)

Du kannst dich gerne als Tester bereitstellen und einen 100h Oblivion Marathon mit aufgezeichneten frameverlauf machen. :)

Das liegt halt in der Natur der Benchmarks. Wäre ein wenig zuviel verlangt, jede erdenkliche Ecke eines games zu erkunden und dabei auch noch die Werte aufzuzeichnen. Dann würde so ein Review 2 Jahre dauern :)

AnarchX
2007-05-25, 22:54:25
Du kannst dich gerne als Tester bereitstellen und einen 100h Oblivion Marathon mit aufgezeichneten frameverlauf machen. :)

Das liegt halt in der Natur der Benchmarks. Wäre ein wenig zuviel verlangt, jede erdenkliche Ecke eines games zu erkunden und dabei auch noch die Werte aufzuzeichnen. Dann würde so ein Review 2 Jahre dauern :)

So war es auch nicht gemeint.

Ich sehe absolut kein Problem, dass während der Tester seine Benchmarkprozedur durchführt, eben die FPS aufzeichnet und daraus dann einen entsprechenden Graph generiert.
Irgendwo her werden ja diese Avg und Min-FPS Werte auch genommen.;)

Imo ist der Blick auf die Min-FPS noch sinnloser als der auf die Avg-FPS.

Gast
2007-05-25, 23:08:11
Imo ist der Blick auf die Min-FPS noch sinnloser als der auf die Avg-FPS.

Finde ich eigentlich nicht, denn er beschreibt den "worstcase" in diesem kurzen Durchlauf und der ist mir immer lieber, als ein Durchschnittswert, der gar nix aussagt.

Wenn die fps zwischen 15 und 160fps schwanken und am Ende 62fps rauskommen, was sagt mir dann das? Noch weniger :)

Ronny145
2007-05-25, 23:09:05
Bei den üblichen Benchmark Spielen sieht das recht ordentlich aus, auf den weniger Bekannten Spielen zum Teil ziemlich schlecht aufgrund weniger Optimierung. Die hätten aber auch gerne mal das A.I. deaktivieren können bei so einer Karte.

Marcellus
2007-05-26, 06:39:28
zu den min-fps: das ist doch das einzige, was interessiert!
was nützen mir 200 avg. fps, wenn ich öfter framedrops habe, wo es dann ruckelt. das ist für online shooter extrem schlecht. das spiel läuft dann nicht. auch in anderen spielen ist das nur nervig würde ich sagen.

Gast
2007-05-26, 08:24:01
Nein, ein einzelner min-fps Wert interessiert nicht, der hat genausoviel Aussagekraft wie ein max-fps wert, nämlich keine.

Mumins
2007-05-26, 08:42:07
Würde ich nicht sagen. Selbst wenn ich mir 20 Games die in 2560x1600 4xAA getestet wurden anschaue, fällt die XT nicht ein einziges mal deutlich hinter der GTX zurück!! Also was den Speicher betrifft.


Woher weißt du, dass es nicht öfter Framedrops gibt? Gibt genügend Games, die mehr als 512MB ziehen.

Gast
2007-05-26, 11:36:39
Gibt genügend Games, die mehr als 512MB ziehen.

Das heißt noch gar nichts. Für effiziente Nutzung des VRAMs werden Texturen oft ausgelagert.

Von einem Leistungsverlust würde ich erst sprechen, wenn 700-800 MB Texturen genutzt werden und die Karte nur 512 MB hat.

Gast
2007-05-26, 11:38:00
Nein, ein einzelner min-fps Wert interessiert nicht, der hat genausoviel Aussagekraft wie ein max-fps wert, nämlich keine.

Der einzelne Wert hat sehr wohl Aussagekraft.

Wenn ich weiß, das die min-fps bei 60 liegen, dann weiß ich, das jede gebenchte Stelle absolut flüssig durchlief...

lilgefo~
2007-05-26, 11:40:56
Der einzelne Wert hat sehr wohl Aussagekraft.

Wenn ich weiß, das die min-fps bei 60 liegen, dann weiß ich, das jede gebenchte Stelle absolut flüssig durchlief...

Meistens is das aber nichd er Fall sondern man hat einen Wert von <20 oder so und da nützt es dann eben nichts, da man nicht weiß ob der WErt nur einmal ganz kurz aufgetreten ist oder es öfters solche slowdowns gibt.

Gast
2007-05-26, 11:42:37
Von einem Leistungsverlust würde ich erst sprechen, wenn 700-800 MB Texturen genutzt werden und die Karte nur 512 MB hat.

Du vergisst die nötigen Buffer: In hohen Auflösungen und mit MSAA kann da schonmal 150-200 MByte allein für Color-, Z- und AA-Buffer draufgehen, MRT noch nichtmal mitgerechnet.

Texturen sollten IMO für eine 512-MByte-Karte bei maximal 300 MByte liegen.


Q

up¦²
2007-05-26, 11:51:00
Mal ein interessanter Teilaspekt: HDR und DX10 :smile:
http://www.hwupgrade.it/articoli/stampa/skvideo/1726/ati-radeon-hd-2900-xt-hdr-e-directx-10_index.html

Gast
2007-05-26, 12:34:16
Meistens is das aber nichd er Fall sondern man hat einen Wert von <20 oder so und da nützt es dann eben nichts, da man nicht weiß ob der WErt nur einmal ganz kurz aufgetreten ist oder es öfters solche slowdowns gibt.

Selbst dann hilft der Wert sehr gut, denn man kann dann die Details so einstellen, das sie minimum 30fps ergeben.

Wers genauer haben will, der sollte gleich die frames mitloggen lassen, während er normal spielt.

Adam D.
2007-05-26, 13:33:40
Eine Frage hab ich jetzt doch noch: wie sieht's denn mit dem "HD" im "HD 2900XT" jetzt aus? Hab dazu noch gar nix gescheites gefunden :|

Gast
2007-05-26, 13:37:51
Eine Frage hab ich jetzt doch noch: wie sieht's denn mit dem "HD" im "HD 2900XT" jetzt aus? Hab dazu noch gar nix gescheites gefunden :|
meinst du sowas: http://www.pcgameshardware.de/?article_id=602197 ?

Gast
2007-05-26, 13:50:47
Skandal! Die Karte kann doch kein HD-Material entschlüsseln!

http://www.dailytech.com/Whoops+ATI+Radeon+HD+2900+XT+Lacks+UVD/article7447.htm

AnarchX
2007-05-26, 13:55:13
Skandal! Die Karte kann doch kein HD-Material entschlüsseln!

http://www.dailytech.com/Whoops+ATI+Radeon+HD+2900+XT+Lacks+UVD/article7447.htm

Doch kann sie, aber bei weitem nicht so gut wie HD 2600/2400.

Trotzdem nicht fein, dass hier AMD Presse und Partner getäuscht hat und nicht gleich mit der Wahrheit herausgerückt hat.

Gast
2007-05-26, 13:58:01
Doch kann sie, aber bei weitem nicht so gut wie HD 2600/2400.

Trotzdem nicht fein, dass hier AMD Presse und Partner getäuscht hat und nicht gleich mit der Wahrheit herausgerückt hat.

Auf dem Launch hat AMD gesagt, dass R600 keinen UVD hat. Die Presse hat da wohl nicht richtig zugehört.

flatbrain
2007-05-26, 14:23:22
Skandal! Die Karte kann doch kein HD-Material entschlüsseln!

http://www.dailytech.com/Whoops+ATI+Radeon+HD+2900+XT+Lacks+UVD/article7447.htm

http://www.driverheaven.net/reviews/r600reviewz/flashers/bluray.jpg

http://www.driverheaven.net/reviews/r600reviewz/flashers/hddvd.jpg

Quelle (http://www.driverheaven.net/reviews/r600reviewz/video.php)

Kann also so nicht stimmen...

AnarchX
2007-05-26, 14:30:23
Auf dem Launch hat AMD gesagt, dass R600 keinen UVD hat. Die Presse hat da wohl nicht richtig zugehört.
Aus dem Pressematerial wird es nicht offensichtlich, welche Karten nun UVD unterstützen und Partner wie GeCube oder HIS haben das "UVD" sicherlich nicht aus Spass auf die Packungen gedruckt um sich Klagen von Kunden einzuhandeln.

http://www.driverheaven.net/reviews/r600reviewz/flashers/bluray.jpg

http://www.driverheaven.net/reviews/r600reviewz/flashers/hddvd.jpg

Quelle (http://www.driverheaven.net/reviews/r600reviewz/video.php)

Kann also so nicht stimmen...

Mit UVD läge die Auslastung bei ~5%:
http://www.hardspell.com/english/doc/showcont.asp?news_id=622

flatbrain
2007-05-26, 14:43:08
Aus dem Pressematerial wird es nicht offensichtlich, welche Karten nun UVD unterstützen und Partner wie GeCube oder HIS haben das "UVD" sicherlich nicht aus Spass auf die Packungen gedruckt um sich Klagen von Kunden einzuhandeln.



Mit UVD läge die Auslastung bei ~5%:
http://www.hardspell.com/english/doc/showcont.asp?news_id=622

Skandal! Die Karte kann doch kein HD-Material entschlüsseln!

Ich schrieb bewusst "so"..., es findet eine Beschleunigung in HW statt, nur eben nicht in dem Maße, wie es von der 2400/2600 bekannt ist. Oder wie erklärst du dir eine z.T. doppelte CPU-Last bei deaktivierter HW-Beschleunigung...

Gast
2007-05-26, 16:47:05
Aus dem Pressematerial wird es nicht offensichtlich, welche Karten nun UVD unterstützen
Hast du auch genau hingeschaut? Natürlich wird es dort ersichtlich.


Q

AnarchX
2007-05-26, 16:56:51
Hast du auch genau hingeschaut? Natürlich wird es dort ersichtlich.


Naja soetwas wie "only supported by HD 2600/2400-series" steht aber nun nicht. Es kommt doch der Eindruck auf, dass man es nicht wirklich zugeben will.

TechReport beschreibt den Umstand auch gut:
http://techreport.com/onearticle.x/12552

Gast
2007-05-26, 22:38:19
Auch wieder eine "Treiber" Sache, denn die Videobeschleunigung der HD2900XT liegt noch hinter der einer X1950XTX zurück.
When its fixed oder wie die Gerüchteküche munkelt, when its Refresh arrives...

Sterem
2007-05-26, 23:49:53
Neuer test auf Technic3d.

http://www.technic3d.com/?site=article&action=article&a=501&p=1

Geile Leistung für denn Preis.

Gast
2007-05-27, 00:21:57
Naja soetwas wie "only supported by HD 2600/2400-series" steht aber nun nicht. Es kommt doch der Eindruck auf, dass man es nicht wirklich zugeben will.

Doch, ziemlich genau das sogar.


Q

AnarchX
2007-05-27, 00:28:20
Doch, ziemlich genau das sogar.


Hab auch gerade die Folie bei INQ (http://www.theinquirer.net/default.aspx?article=39884) endeckt, interessanterweise ist sie nicht in der Präsentation enthalten die man im ersten Posting dieses Threads findet.

Und bei INQ sieht man auch wieder, dass die Informationen dazu nicht wirklich ein durchsichtiges Bild ergeben.

Gast
2007-05-27, 00:51:40
Neuer test auf Technic3d.

Testsystem:
Intel 955XE
• Silverstone Temjin 07
• Gigabyte G1-Turbo
• 2 x 1024 MB Super Talent DDR 2 6400
• Jetway HD 2900 XT
• 300GB Maxtor IDE
• 1 x 720W Enermax Infiniti

Da fehlt aber noch was. Welche CPU? Sieht mir irgendwie sehr nach Pentium 4 aus...

Ronny145
2007-05-27, 01:20:12
Testsystem:
Intel 955XE
• Silverstone Temjin 07
• Gigabyte G1-Turbo
• 2 x 1024 MB Super Talent DDR 2 6400
• Jetway HD 2900 XT
• 300GB Maxtor IDE
• 1 x 720W Enermax Infiniti

Da fehlt aber noch was. Welche CPU? Sieht mir irgendwie sehr nach Pentium 4 aus...


Steht doch da: Intel 955XE

Also ziemlich CPU limitiert bei denen.

Gast
2007-05-27, 01:25:38
Steht doch da: Intel 955XE

Die CPU heißt aber "Intel Pentium Processor Extreme Edition 955" und nicht "XE".

Intel 955X ist nämlich auch ein Chipsatz!
Genauer gesagt: "Intel 955X Express-Chipsatz", so stehts auf der Intel Webseite.
abgekürzt heißt das also auch "Intel 955XE" :)

Gast
2007-05-27, 01:29:43
Also das Board ist eines mit 975X Chipsatz, das ist aber Core2 fähig. ;)

Wenn ich mir die 3DMark01 Werte ansehe, wird das sicher ein P4 sein und dann ist der Test für mich unbrauchbar.

Schon der E6600 erreicht da ne ganze Ecke mehr und dann wären die Abstände zwischen den Karten noch größer. Von einem 50% schnelleren Core 2 @ 3,6 GHz ganz zu schweigen.

Ronny145
2007-05-27, 01:30:49
Die CPU heißt aber "Intel Pentium Processor Extreme Edition 955" und nicht "XE".

Intel 955X ist nämlich auch ein Chipsatz!
Genauer gesagt: "Intel 955X Express-Chipsatz", so stehts auf der Intel Webseite.
abgekürzt heißt das also auch "Intel 955XE" :)


Der ist es aber. Du musst dort mal drauf klicken, da gibt es ein review zu genau diesem Prozessor.

Tjell
2007-05-27, 03:41:38
Es soll sich um die "alte" Videobeschleunigung wie auch bei R580 handeln.

Damit wäre klar, dass eine Videobeschleunigung vorhanden und aktiv ist, nur eben nicht wie mit "UVD" propagiert.

Im Grunde genommen ähnlich dumm gelaufen wie bei der VPU des NV40, aber eine Grafikkarte wie die HD 2900 XT wird sicher nicht wegen der Videobeschleunigung gekauft, dafür verbraucht sie zuviel Strom (als Mediacenter-Grafikkarte).

Gast
2007-05-27, 05:34:35
Kann man mit der HD 2900 Serie schon beim Folding@home Projekt teilnehmen?

Wenn ja, hat da jemand mal ein paar Vergleichsbenchmarks?

Gast
2007-05-27, 09:01:47
Hab auch gerade die Folie bei INQ (http://www.theinquirer.net/default.aspx?article=39884) endeckt, interessanterweise ist sie nicht in der Präsentation enthalten die man im ersten Posting dieses Threads findet.

Und bei INQ sieht man auch wieder, dass die Informationen dazu nicht wirklich ein durchsichtiges Bild ergeben.
Dazu gibt's PR: Einfach nachfragen, wenn was unklar ist.


Q

Gast
2007-05-27, 10:55:03
Wie hoch ist eigentlich der Dreiecksdurchsatz der HD 2900 XT?
Weiß jemand was dazu?

=Floi=
2007-05-27, 11:18:30
http://www.bjorn3d.com/read_pf.php?cID=1101
740MTri/s

Gast
2007-05-27, 11:19:31
Danke :)

AnarchX
2007-05-27, 12:47:27
http://www.bjorn3d.com/read_pf.php?cID=1101
740MTri/s

Das ist der maximale Durchsatz, den das Setup verwalten kann (1 Dreieck pro Takt). Der reale Wert liegt wohl doch deutlich darunter.

Dazu gibt's PR: Einfach nachfragen, wenn was unklar ist.


Q

Also waren HIS und GeCube einfach zu dumm bei AMD nachzufragen bevor sie UVD auf ihre Packungen geschrieben haben?

Wann kam eigentlich diese Folie, wo explizit gesagt wird welche Karten UVD unterstützen, in den Umlauf?

horn 12
2007-05-27, 14:29:36
"Neuer" NDA Treiber für die HD 2900 XT
mit altem CC und ATI Tray Tools... GEIL:eek:

http://www.dna-drivers.com/

AnarchX
2007-05-27, 14:32:52
"Neuer" NDA Treiber für die HD 2900 XT
mit altem CC und ATI Tray Tools... GEIL:eek:

http://www.dna-drivers.com/

Und wie sieht es da mit CFAA aus?

Majestic
2007-05-28, 17:42:42
Hab jetzt seit dem Launch hier nicht mehr viel lesen können....:-)
Gibt es schon eine (signifikante) Leistungssteigerung/Troubleshooting bei den 2900XT Karten? Kann man überhaupt noch damit rechnen das man mit den Treiber die Probleme in den Griff bekommen wird?

Sterem
2007-05-28, 17:44:42
http://www.xtremesystems.org/forums/showthread.php?t=145724

Gast
2007-05-28, 17:46:33
Schau mal hier:
http://www.forumdeluxx.de/forum/showthread.php?t=357905&highlight=Treibervergleich

Dukee(A.Wesker @3DC) testet eigentlich jeden neuen Treiber.

up¦²
2007-05-28, 18:23:05
BTW... (bestimmt interessant für einige ...)
Mal ein sehr langes Interview mit Ati-Treiber Chef Phil Rogers:
Let me give you an example. Since yours is an enthusiast site, your readers might appreciate a detailed example. We have a few games right now suffering from a single issue, which is "pipeline stalls due to surface deletes." Graphics performance is all about keeping the pipeline fed, and running as many things in parallel as possible. So synchronization is bad and any software event that causes the graphics pipeline to drain and empty is especially bad. Well, a few games out there delete one surface and create a new one every frame. This is bad practice and we encourage ISVs not to do this. When a surface is deleted, the memory associated with that surface cannot be released until all the rendering that is using that surface is complete. The naive approach to this problem is to wait in the software for the rendering to finish, then free the memory, then continue—which is death to performance.
http://www.extremetech.com/article2/0,1697,2103630,00.asp

horn 12
2007-05-28, 18:33:40
Und was heist dies nun genau, auf gut deutsch?
Danke, aber bin der engl. Sprache nicht mächtig.:tongue:

Daredevil
2007-05-28, 18:37:45
Und wie sieht es da mit CFAA aus?
Wenn man den DNA draufhat kann man das nicht einstellen.
im ATT geht nur AA/AAA/TSAA 2 4 8 sowie HIQAF, wenn man zum DNA Treiber das CCC Installiert kann man im CCC auch kein CFAA einstellen.
Es geht aber das man den RC7 zb. Installiert mit CCC UND das DNA ATT, allerdings beißen sich die Programme, also das AMD Clock Tool , das CCC und das DNA ATT was gern mit einem Bluescreen beendigt wird.

mapel110
2007-05-28, 19:05:40
BTW... (bestimmt interessant für einige ...)
Mal ein sehr langes Interview mit Ati-Treiber Chef Phil Rogers:

http://www.extremetech.com/article2/0,1697,2103630,00.asp
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5535198#post5535198
Extra Thread aufgemacht, sowas muss hier ja nicht untergehen. Gibt imo genug Gesprächsstoff her.

Henroldus
2007-05-29, 12:00:16
hier fehlt noch X-Bit Labs zumindest auf der ersten page:
http://www.xbitlabs.com/articles/video/display/radeon-hd-2900-games.html
die leistung ordnet sich bis auf ausnahmen ziemlich genau
zwischen 8800GTS und 8800GTX
ein und das, bei einem verkaufspreis von bloß noch 20eur über der GTS!
mich stört aber nach wie vor die hohen stromanforderungen und das damit verbundene update des Netzteils sowie die Lautstärke.

Gast
2007-05-29, 13:56:57
Wieder mal viel Wind um nix:confused:

R600 ohne UVD, Unified-Video-Decoding-Technology erst mit nächstem Catalyst
http://www.pcgameshardware.de/?article_id=602231

desert
2007-05-29, 14:16:08
hier fehlt noch X-Bit Labs zumindest auf der ersten page:
http://www.xbitlabs.com/articles/video/display/radeon-hd-2900-games.html
die leistung ordnet sich bis auf ausnahmen ziemlich genau
zwischen 8800GTS und 8800GTX
ein und das, bei einem verkaufspreis von bloß noch 20eur über der GTS!
mich stört aber nach wie vor die hohen stromanforderungen und das damit verbundene update des Netzteils sowie die Lautstärke.

und mal wieder a.i standard gegen nv hq, wann wird endlich mal fair gebencht?

The_Invisible
2007-05-29, 14:34:51
Und was heist dies nun genau, auf gut deutsch?
Danke, aber bin der engl. Sprache nicht mächtig.:tongue:

das die spieleentwickler schuld sind weil sie den grafikchip nicht gut genug auslasten. was ist das den für ne dämliche ausrede?

mfg

und mal wieder a.i standard gegen nv hq, wann wird endlich mal fair gebencht?

spätestens dann wenn ein entsprechender artikel seitens hardtecs4u kommt

btw
gibts überhaupt nen artikel der mal AI off probiert hat oder lässt sich der schalter nicht verstellen?

mfg

Odal
2007-05-29, 15:30:03
die leute mit der hardware die mit abstand die grottigste BQ bietet müssen hier einen heiligen krieg für das ausschalten jeglicher BQ (ver)optimierungen entfachen und sich am lautesten zu wort melden...wenn das nicht blanke ironie ist...würde natürlich der sachverhalt genau umgekehrt liegen käme "das sieht man doch eh nicht" "das ist doch nur in testszenarien überhaupt messbar (noch nichtmal subjektiv feststellbar)"

verdrehte welt?

Gast
2007-05-29, 15:38:28
verdrehte welt?Nö, das ist immer so, wenn einem Hersteller "Optimierungen" erlaubt werden und dem anderen nicht. IMHO zurecht. Entweder beide dürfen alles totoptimieren oder beide dürfen nix und es wird peinlich genau darauf geachtet, dass nicht "aus Versehen" noch "Optimierungen" aktiv sind. Alles andere ist unfair und wird zurecht angeprangert, ungeachtet der praktischen Auswirkungen in einem konkreten Beispiel.

InsaneDruid
2007-05-29, 15:46:22
Also Desert hat ne 88 GTS, und die bringt ja wohl NICHT die mieseste BQ on Earth.

Odal
2007-05-29, 15:49:24
Also Desert hat ne 88 GTS, und die bringt ja wohl NICHT die mieseste BQ on Earth.


ich sprech ja auch von the_invisible ;) wobei noch zu ergründen wäre was desert vorher für ne GPU gehabt hat ^^

desert
2007-05-29, 15:51:03
7900 gtx ;)

HOT
2007-05-29, 15:57:02
Wenn von HT4U überhaupt einer kommt ;). Wenn einer kommt, ist auch dort AI auf Standard meiner Meinung nach.

Odal
2007-05-29, 15:58:57
7900 gtx ;)

dann sollte da aber eigentlich als Antwort R580 oder R520 stehen, wenn du so akribisch genau auf BQ achtest. Wobei ein G71 hinter einem R520/580 in BQ um Welten weiter hinterherhinkt als ein R600 einem G80.

InsaneDruid
2007-05-29, 16:08:27
Na das kommt auch aufs Game an, dank Clamp switch kann NV da einiges reißen, wenn Games zu niedrige Lods setzen, am schlimmsten noch unterschiedliche Lods, die man nicht durch ein positives Driver Lod entschärfen könnte.

Ist natürlich dann eher "Schuld" des Games, aber wenn man die Wahl hat zwischen einem IHV der dagegen einen Fix anbietet, und einem der da nichts hat...

desert
2007-05-29, 16:21:19
habe ich mich nie beschwert, über die bq meiner gf 7900 gtx, hatte meistens hybridmodi an, von daher.

Ausserdem geht es nur um die ungleichbehandlung, ati immer mit a.i standard gegen nv hq.

Was wurde hier für ein aufstand gemacht als nvidia nur mit q gebencht wurde. Und jetzt interessiert es keine sau weil es eben evil nvidia ist, und die haben das nicht anders verdient.

Selbst hier auf der seite auf der doch sowas selbstverständlich sein sollte wird, nur wieder a.i on gebencht. Als bri filter gegen tri, nur so als beispiel, aber alles kein problem, es ist ja "godlike ATI" "the best company in the universe" und nicht "evil nvidia".

Da wird gross drüber berichtet in der PCgameshardware, ganze seiten lang. Da schlage ich die letzte PCgameshardware auf, und war glaube ich sogar ein artikel von raff, in dem die einzeln treibereinstellungen verglichen wurden, und bei a.i. standard war noch das moire muster zu erkennen und unter nv hq nicht, aber hey es ist "godlike ATI" " the best company in universe".

Haben einfach von grund auf die beste bq schon seit anbeginn der zeit an, aber hat ja schon damals keinen gestört das das sehr sehr gute af der gf 4 gegen das schrottige winkelabhängige AF der radeon getestet wurde. War natürlich schneller, sah aber scheisse aus, aber hey es ist "godlike ATI" " the best company in universe".

Oder hybrid-modi gegen einfaches aa, aber hey wieder war die "godlike ATI" besser. Und wie schnell die ati x19XX wirklich sind, sieht man halt ja sehr gut bei hardtecs4u wo sie auch mal ohne a.i getestest werden und sie teilweise hinter einer gf 7 liegen, wo sie auch mal in 1600 x 1200 4 aa und 16 af von 16,8 auf 10,7 fällt und eine nvidia 7900 gtx noch 14,1 fps.

Hat die ati die bessere bq, jo ohne zu zögern, gilt das bei der gf 7 serie.
Aber doch nicht bei r600 gegen g80. Habe mich nie beschwert als bei r520/r580 a.i. standard gegen g70/g71 hq gebencht wurde, nur jetzt wo nvidia in führung liegt bei bq und leistung wird ihr die diese gleichbehandlung abgesprochen, nur weil hier von testern gesagt wird das fast gleich ist, komischerweise haben die leute auch nur "godlike ATI GPU´S".

Halt alles sehr merkwürdig

HOT
2007-05-29, 16:27:28
desert, das ist einfach Blödsinn, von wegen evil-NV und so. Ich frag mich immer was dieser Minderwertigskomplex der nvidianer soll... einer kloppt immer auf den anderen ein, das ist leider normal. Natürlich stellt sich die Frage nach der BQ, aber es stellt sich genauso die Frage nach der Verhältnismässigkeit. ATI hat das mit seinem AI gut raus, da AI off schlicht unverhältnismässig ist. Meiner Meinung nach können die den AI off Schalter auch weg machen, oder sie hätten nie einen implementiert, dann würde es diese dämliche Diskussion nicht immer und immer wieder geben...

InsaneDruid
2007-05-29, 16:33:55
Stopf dir mal ne 88 in den Rechner, schaue dort, und dann sag das mit AI nochmal ;)

desert
2007-05-29, 16:35:17
erstmal ich bin kein nvidianer, nur ein computerbenutzer.
Aber auch für dich ist es also ok wenn ati optimierungen an haben darf und nvidia nicht, weil es "godlike ATI" ist und sie einfach raushaben den user zu bescheissen, ich meine doch gerade wir, die wir uns hier in einen grafikkartenforum tummeln, sollte doch auf einwandfreier bq bestehen, aber halt nur von nvidia und nicht von ati, weil ati ist cool oder wie?

Odal
2007-05-29, 16:40:57
na sicherlich gehts um die vergleichbarkeit und na sicher kann man beste bq fordern...

blos die wenigsten testeten nvidia auf HQ bei der 7xxxx serie....und ich denke viele leute heulen jetzt der BQ nach weil ihr lieblingsihv (nvidia) hier mal leicht die nase vorn hat, wo er bei ihren exkarten weit weit abgeschlagen war...ich empfinde das nicht als objektiv diese denkweise....

leut reviews ist der unterschied zw. G80 und R600 nur mit diversen AF Testern offensichtlich, nicht aber in spielen....

wie und ob da ein unterschied besteht maße ich mir erst an wenn ich selbst verglichen hab...beim G70/71 und dem R580 hab ichs...R600 und G80 steht da noch aus...und wenn die BQ beim G80 wirklich soviel besser ist und nur mit A.I. off ansatzweise verglichen kann muss natürlich mit A.I. off getestet werden und meine nächste hardware wird mal wieder ein nvidia produkt in form eines G80 derivates.....

erstmal ich bin kein nvidianer, nur ein computerbenutzer.
Aber auch für dich ist es also ok wenn ati optimierungen an haben darf und nvidia nicht, weil es "godlike ATI" ist und sie einfach raushaben den user zu bescheissen, ich meine doch gerade wir, die wir uns hier in einen grafikkartenforum tummeln, sollte doch auf einwandfreier bq bestehen, aber halt nur von nvidia und nicht von ati, weil ati ist cool oder wie?


das hat nichts mit godlike ati zutun denn den unterschied zw. g70/71 und r520/580 sah ein blinder mit dem krückstock...das war sowas von offensichtlich wenn erstere nur auf Q statt HQ getestet wurden

Gast
2007-05-29, 16:48:54
leut reviews ist der unterschied zw. G80 und R600 nur mit diversen AF Testern offensichtlich, nicht aber in spielen....Computerbase sieht das anders. Die haben das AF mit Hilfe von Half-Life 2 unter die Lupe genommen und schreiben:
Deaktiviert man nun die Optimierungen, so gibt es kein Halten für den G80 mehr. Kein Flimmern ist erkennbar und die trilineare Filterung arbeitet einwandfrei. Dagegen kommt auch das ATi-Ergebnis auf dem R600 mit deaktiviertem A.I. nicht an.Laut CB ist G80-HQ besser als R600-AI-Off. Wieso also sollte man AI-Standard, das deutlich schlechter als AI-Off ist, gegen G80-HQ benchen?

Die CB-Tests decken sich auch mit meinen Erfahrungen mit G80 und R580. Einen R600 konnte ich selbst noch nicht testen, allerdings soll das AF nur geringfügig besser sein und die Bri-Sauerein und andere Späßé sind mit AI-Standard definitiv noch vorhanden.

desert
2007-05-29, 16:56:55
Treibereinstellungen: nVidia-Grafikkarten (G7x)

Systemleistung: Hohe Qualität
Vertikale Synchronisierung: Aus
MipMaps erzwingen: keine
Trilineare Optimierung: Aus
Anisotrope Mip-Filter-Optimierung: Aus
Optimierung des anisotropen Musters: Aus
Negativer LOD-Bias: Clamp
Gamma-angepasstes AA: Ein
AA-Modus: 1xAA, 4xAA
Transparenz AA: Supersampling


Treibereinstellungen: nVidia-Grafikkarten (G8x)

Texturfilterung: Qualität
Vertikale Synchronisierung: Aus
MipMaps erzwingen: keine
Trilineare Optimierung: Ein
Anisotrope Muster-Optimierung: Aus
Negativer LOD-Bias: Clamp
Gamma-angepasstes AA: Ein
AA-Modus: 1xAA, 4xAA, 8xQAA
Transparenz AA: Supersampling
Treibereinstellungen: ATi-Grafikkarten (R(V)5x0)

Catalyst A.I.: Standard
Mipmap Detail Level: High Quality
Wait for vertical refresh: Always off
AA-Modus: 1xAA, 4xAA
Adaptive Anti-Aliasing: Quality
High Quality AF: Off

Und wenn ich solche testeinstellungen schon lese, also wirklich wo ist das denn vergleichbar, den g70 mit tri-opt aus, g80 mit ein und r580 mit winkelabhängigem af gegen fast winkelunabhängig beim 8800 ultra test.

lilgefo~
2007-05-29, 17:01:11
erstmal ich bin kein nvidianer, nur ein computerbenutzer.
Aber auch für dich ist es also ok wenn ati optimierungen an haben darf und nvidia nicht, weil es "godlike ATI" ist und sie einfach raushaben den user zu bescheissen, ich meine doch gerade wir, die wir uns hier in einen grafikkartenforum tummeln, sollte doch auf einwandfreier bq bestehen, aber halt nur von nvidia und nicht von ati, weil ati ist cool oder wie?

Optimierungen ime igentlichen Sinne sind ja auch gar nicht schlimm. Und ich glaube, dass Problem was hier besteht ist, dass der bq-unterschied zwischen gf7 und r5x weitaus größer (nämlich sichtbar, stichwort texturflimmern) ist als der unterschied zwischen dem r600 und dem g80. Sodenn man denn einen ausmachen kann sichtbar ist er jedenfalls nicht oder kannst du mir sagen welches der unteren Bilder von einem g80 stammt?

http://www.directupload.net/images/070529/6z9uO597.jpghttp://www.directupload.net/images/070529/2HfWVqJb.jpg

p.s.: danke für deinen tollen godlike terminus, nun kann ich mein pc schönreden :D
edit: hab den blidausschnitt verkleinert sonst kann man es ja einer anderen sache erkennen wenn man den cb test kennt

InsaneDruid
2007-05-29, 17:06:53
Rechts G80, links ATI (Nebelbug)

EDIT: ROOFL, das ist jetzt ECHT armselig hoch 3, den Nebelbug wegzuschnippeln.