Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation, Teil 7
AnarchX
2007-04-13, 17:00:00
Eigentlich "müssen" es doch 2 sein, da es GDDR nur mit 32Bit oder 16Bit gibt.
:|
Da muss die HD 2900XT doch eigentlich auf jeden Fall 16 Speichermodule haben(16x 32Bit 256Mbit oder 8 x 2 x 32Bit 256Mbit GDDR3)?
64bit GDDR3 Module sind mir jedenfalls nicht bekannt.
:|
Da muss die ´HD 2900XT doch eigentlich auf jeden Fall 16 Speichermodule haben?
64bit GDDR3 Module sind mir jedenfalls nicht bekannt.
Diese "bit" beziehen sich auf die Speicherzelle der Steine.
Zur Zeit gibt es bei GDDR4 nur Steine mit 8x32bit Zellen. Macht zusammen 512Mbit oder 65Mb.
Nakai
2007-04-13, 17:03:50
Er meinte mit welcher Breite der Verbindung die Speicherzellen angesprochen werden. Jeder Speicherchip kann maximal mit 32 Bit derzeit angesprochen werden.
mfg Nakai
AnarchX
2007-04-13, 17:05:41
Diese "bit" beziehen sich auf die Speicherzelle der Steine.
Zur Zeit gibt es bei GDDR4 nur Steine mit 8x32bit Zellen. Macht zusammen 512Mbit oder 65Mb.
Also kann man so ein Modul auch an einen 64bit Kanal anschliessen?
Aber warum haben alle Karte mit 64bit Kanälen immer 2 Module pro Kanal(z.B. 7900GS)?
Nakai
2007-04-13, 17:07:07
Also kann man so ein Modul auch an einen 64bit Kanal anschliessen?
Aber warum haben alle Karte mit 64bit Kanälen immer 2 Module pro Kanal(z.B. 7900GS)?
Weil ein Speicherchip maximal 32 Bit ausgeben kann, deswegen 2 um 64 Bit zu erreichen.
mfg Nakai
AnarchX
2007-04-13, 17:09:05
Weil ein Speicherchip maximal 32 Bit ausgeben kann, deswegen 2 um 64 Bit zu erreichen.
Also lag ich doch richtig.
Da kann ich mir vorstellen, dass ATi wegen diesem Umstand doch ein 16x32Bit SI hat, wodurch man auch bei den potentiellen 256Bit Modellen eine gute Granularität hat.
Kurz korrigieren:
Sind natürlich 16x32 Zellen und 64Mb.
Weil ein Speicherchip maximal 32 Bit ausgeben kann, deswegen 2 um 64 Bit zu erreichen.
Und wie erreicht die 7800GTX dann sein 256bit Speicherinterface? http://www.ixbt.com/video2/images/g70/gf7800gtx-scan-front.jpg
Es kommt auf den Speichercontroller drauf an, welche Konstellation an Steine benötigt wird.
DrumDub
2007-04-13, 17:22:59
Es kommt auf den Speichercontroller drauf an, welche Konstellation an Steine benötigt wird. genau.
robbitop
2007-04-13, 17:25:26
Also lag ich doch richtig.
Da kann ich mir vorstellen, dass ATi wegen diesem Umstand doch ein 16x32Bit SI hat, wodurch man auch bei den potentiellen 256Bit Modellen eine gute Granularität hat.
Aufgrund der Skalierbarkeit haelt man eigentlich in einer Chipserie die Kanalbreite gleich. Ausserdem senkt man damit kosten. 32 bit pro Kanal kostet viel und bringt wenig.
Nakai
2007-04-13, 17:26:53
8 x 32 Bit.
Vorder und Rückseite beachten.
mfg Nakai
@Drumdub: Du meinst das man sogar mit 4 Speichersteinen theoretisch ein 256Bit SI bekommen kann?
robbitop
2007-04-13, 17:31:37
Die Anzahl der Speicherbausteine sagt nichts ueber die Kanalbreite aus.
G70 hat auch 8 Bausteine bei einem 256 Bit SI und dennoch nur 64 Bit pro Kanal. Genauso auch der G80. Einfach 2 Module pro Kanal. Beim RV630 wird das nicht anders sein. Ansonsten muesste man anstatt einfach weniger Kanaele zu verbauen im Ringbus nochmal ran an die Chipinternas um die Breite auf 32 Bit zu reduzieren.
Auch kostet eine feinere Granularitaet Geld, was man im Midrangebereich nicht hat, wenn die Margen passen sollen. Wenn RV630 ueberhaupt mit einem 256 bit breiten SI kommt.
AnarchX
2007-04-13, 17:38:07
Wenn RV630 ueberhaupt mit einem 256 bit breiten SI kommt.
Mit dem 256Bit Ableger meinte ich eher eine Karte die den R600 nur mit 256Bit nutzt(vielleicht die HD 2900XL).
Zudem wäre ja für den RV630 2x64Bit eher ein Rückschritt, da ja RV530 auch schon 4x32Bit hat. Und was soll dann RV610 sein? 1x64Bit?
DrumDub
2007-04-13, 17:38:20
@Drumdub: Du meinst das man sogar mit 4 Speichersteinen theoretisch ein 256Bit SI bekommen kann? nein. siehe erklärung von robbitop. ich meinte lediglich, dass man nicht sagen kann, wie die anordnung der chips für den speichercontroller aussieht. hier mal die anordnung bei der 8800gts: http://img5.pcpop.com/ProductImages/500x375/0/258/000258750.jpg
robbitop
2007-04-13, 17:43:27
Mit dem 256Bit Ableger meinte ich eher eine Karte die den R600 nur mit 256Bit nutzt(vielleicht die HD 2900XL).
Zudem wäre ja für den RV630 2x64Bit eher ein Rückschritt, da ja RV530 auch schon 4x32Bit hat. Und was soll dann RV610 sein? 1x64Bit?
Dann waere R600 auch ein Rueckschritt in Sachen Kanalbreite. NV30 hatte auch eine 32 bit Breite pro Kanal. Wie gesagt das bringt eh so gut wie nix und sagt so gut wie nix aus. Wenn du ein Quad in den FB schreiben willst, sind das 4x32 bit Farbe + 32 bit Z (bei 4:1 Kompression).
Warum R5xx so eine feine Granularitaet hatte weiss ich nicht mit Sicherheit. AiL vermutete IIRC, dass man den Ringbus mit in den R600 uebernehmen wollte und deshalb den gesamten Ringbus mit 8 Kanaelen ausgestattet hat.
Die Interfacegesamtbreite ist ja nun schon seit Jahren so. 128 bit Mainstream und LowCost und Ultra LC dann 64 Bit. Bei NV schon lange mit 64 Bit Granularitaet.
deekey777
2007-04-13, 17:45:28
Ich will auch mal eine News von Fudo posten:
R600 has 64 Unified Shaders (http://www.fudzilla.com/index.php?option=com_content&task=view&id=526&Itemid=34)
The Shaders are divided in four blocks and each has 16 units. We are working to get the number or TMUs and ROPs and GFLOPs. Well, we dont care as long as it runs faster. Stay tuned
Also noch drei News stehen noch aus: Anzahl der TMUs, ROPs und die GFLOP/s-Leistung. :biggrin:
Nakai
2007-04-13, 17:50:10
GFLOPs bestimmt, bei den TMUs und ROPs bin ich mir nicht so sicher.^^:rolleyes:
mfg Nakai
w0mbat
2007-04-13, 17:52:52
Hehe, Nakai tu nicht so als hättest du Ahnung davon. Sein froh das du durch Fudo wenigstens die Shaderanzahl weißt :D
robbitop
2007-04-13, 17:59:58
Naja die 64xVec5 ALUs geistern ja nun schon ewig durchs Netz.
Das sind bei 800 MHz 512 GFLOPs. Wenn ATI das TMU ALU Verhaeltnis wirklich auf 4:1 bringen, werden es 16 TMUs. Und damit man nun auch noch "single cycle" 4xAA hat, muessen die ROPs insgesamt mindestens 64 Z-Test Units verfuegen.
Tja oder es kommt gannnnz anders X-D
L_ogotech
2007-04-13, 18:06:06
Hehe, Nakai tu nicht so als hättest du Ahnung davon. Sein froh das du durch Fudo wenigstens die Shaderanzahl weißt :D
Meinst du damit Fudzilla?^^ Fudzilla ist doch der gleiche Quark wie der Inquirer und fx57.net;)
R600 ist ja wohl eher ein Flop. 6 Monate später und dann kommt er vom Speed nichtmal an den G80 ran. Hat ATI die 8800er etwa derart krass unterschätzt?
Nakai
2007-04-13, 18:09:41
Nööö^^ gar nicht^^:rolleyes:
Dann fassen wir mal zusammen:
64 UnifiedShader (Vec4+1)
16 TMUs (BiTMUs??)
16 ROPs (4 Z-Berechnung pro ROP)
Oder hat noch wer ne Idee zu den TMUs?
Oder vll sind es gar 32, wenn es insgesamt 128 ALUs, die in 64 Shader angeordnet sind.
mfg Nakai
deekey777
2007-04-13, 18:12:48
Die Zahl 16 geistert eigentlich nicht durch das Netz, sondern die Zahl 64 (und die 320). Klar, 4*16 erscheint sehr logisch, aber die 64 sind auch durch 8 teilbar. Nicht unbedingt 8*8, vielleicht 4*(8+8), sprich die einzelnen Cluster beinhalten zwei voneinander unabhängige Shaderblöcke; 4*(4+4+4+4) wäre noch besser, aber der Verwaltungsaufwand?
16 TMUs? Bestimmt. Gegen mehr als 16 TMUs spricht gerade die 4x16-Spekulation (was soll ein RV610 mit 8 TMUs?). Für mehr als 16 TMUs spricht der G80. X-D
Es geht hier immerhin um einen Zeitabstand von eineinhalb Jahren. ATI muss von vornherein Skalierbarkeit vorsehen, da sie ja eine ganze Chipfamilie entwickeln müssen, und auch nicht die Fortschritte in der Fertigungstechnik exakt voraussagen können. Ich kann mir durchaus vorstellen dass man da zunächst mehr Chipvarianten betrachtet (sowohl nach oben als auch nach unten) als am Ende hergestellt werden.
Wenn R600 64 Vec5 MAD ALUs hat, wie heißt dann der High-End-Chip?
Sollte man immer im Hinterkopf behalten.
horn 12
2007-04-13, 18:13:53
Wenn gar die HD 2900 XT gar 3900 Euro kosten soll. was würde dann eine HD 2900 XL in etwa kosten, 299-329 Euro maximal, oder gar darunter?
Was glaubt/ wisst ihr?
reunion
2007-04-13, 18:21:41
Warum R5xx so eine feine Granularitaet hatte weiss ich nicht mit Sicherheit. AiL vermutete IIRC, dass man den Ringbus mit in den R600 uebernehmen wollte und deshalb den gesamten Ringbus mit 8 Kanaelen ausgestattet hat.
AiL sprach immer von 16 SC auf R600, als 16x32bit. Das scheint aber nun Passé zu sein. Vorher wurde das allerdings durchaus das ein- oder andere mal ins Spiel gebracht.
robbitop
2007-04-13, 18:27:16
16 Kanaele auf einem PCB, dass bezahlbar sein soll neben einem 512 bit SI? Das waere von vorn herein ziemlicher Irrsinn.
themk
2007-04-13, 18:29:43
Wenn gar die HD 2900 XT gar 3900 Euro kosten soll. was würde dann eine HD 2900 XL in etwa kosten, 299-329 Euro maximal, oder gar darunter?
Was glaubt/ wisst ihr?
Die die´s wissen sagen´s nicht, und die anderen die´s wissen wissen´s nicht.
Es kursiert jedoch, wie du einigen Meldungen und Aussagen entnehmen kannst, dass der R600 vergleichsweise zu günstigen Preisen auf den Markt kommt- man darf gespannt sein.
AnarchX
2007-04-13, 19:16:23
Benchmark numbers of RV630 (Radeon HD 2600) (http://my.ocworkbench.com/bbs/showthread.php?%20threadid=61947)
[...] Early Benchmark numbers of RV630 (Radeon HD 2600) shows that this DX10 card which targets the mid range market will probably be around the levels of X1950Pro DX9.
The Radeon HD 2600 (RV630) will come in 2 editions, the XT version. 3Dmark05 score is ~ 12500 and 3DMark06 score is around 5600.
Wobei R6xx durch die 5D-ALUs wohl im 3DM nicht unerheblich profitieren könnte.
reunion
2007-04-13, 19:22:33
Wobei R6xx durch die 5D-ALUs wohl im 3DM nicht unerheblich profitieren könnte.
Inwiefern sollten sie dadurch im 3dmark stärker profitieren als in irgend einer anderen Anwendung?
|MatMan|
2007-04-13, 19:41:11
Benchmark numbers of RV630 (Radeon HD 2600) (http://my.ocworkbench.com/bbs/showthread.php?%20threadid=61947)
Wobei R6xx durch die 5D-ALUs wohl im 3DM nicht unerheblich profitieren könnte.
irre ich mich da oder ist das wirklich nur in etwa die Leistung einer 8600 GTS (was man bisher gehört hat)?? Und das bei fast gleicher Die-größe, kleinerem Prozess und mehr Wärmeabgabe (Dualslot-Kühlung)... wenn das wirklich so kommt - aua!
@reunion
war doch schon mehrmals im Thread angesprochen, dass der 3DMark wohl eher Vertexshader lastig ist, dort wohl viele 5D Operationen vorkommen womit sich die 5D ALUs gut wohl effizienter auslasten lassen als im "Durchschnittsspiel"
dargo
2007-04-13, 19:57:47
irre ich mich da oder ist das wirklich nur in etwa die Leistung einer 8600 GTS (was man bisher gehört hat)?? Und das bei fast gleicher Die-größe, kleinerem Prozess und mehr Wärmeabgabe (Dualslot-Kühlung)... wenn das wirklich so kommt - aua!
Wie willst du das überhaupt ohne Angaben zum restlichen System beurteilen? :|
Wie willst du das überhaupt ohne Angaben zum restlichen System beurteilen? :|
Es ist systemunabhängig...
Schön zu sehen, dass selbst der rv630 "nur" rv570 Niveau spielt. Das dürfte einige Kritiker entweder verstummen oder lauter werden lassen - jedenfalls wird es spaßig.
Die 125 Watt TDP geistern schon lange im Netz rum. Dazu die DIE - Angaben und das Foto von PCGH.
w0mbat
2007-04-13, 20:54:40
Wenn der RV630 die 5600 3D06er Pkt. mit einem E6400 erreicht ist das doch wohl besser wie wenn er dafür einen QX6700 braucht.
Ailuros
2007-04-13, 20:58:16
Nööö^^ gar nicht^^:rolleyes:
Dann fassen wir mal zusammen:
64 UnifiedShader (Vec4+1)
16 TMUs (BiTMUs??)
16 ROPs (4 Z-Berechnung pro ROP)
Oder hat noch wer ne Idee zu den TMUs?
Oder vll sind es gar 32, wenn es insgesamt 128 ALUs, die in 64 Shader angeordnet sind.
mfg Nakai
Also nur 4Z ROPs sind es Gott sei Dank erstmal nicht; ich vermute dass eine wertvolle Kleinigkeit fehlen koennte der einen dritten loop aufhaelt, aber ich behalte es vorruebergehend noch fuer mich.
Wenn der RV630 die 5600 3D06er Pkt. mit einem E6400 erreicht ist das doch wohl besser wie wenn er dafür einen QX6700 braucht.
Aha, die Angaben hast du woher?
Ailuros
2007-04-13, 21:02:01
@reunion
war doch schon mehrmals im Thread angesprochen, dass der 3DMark wohl eher Vertexshader lastig ist, dort wohl viele 5D Operationen vorkommen womit sich die 5D ALUs gut wohl effizienter auslasten lassen als im "Durchschnittsspiel"
=/>3dmark05 sind vertex setup limitiert.
|MatMan|
2007-04-13, 21:29:29
Wie willst du das überhaupt ohne Angaben zum restlichen System beurteilen? :|
ich denke nicht dass für den RV630 Bench eine Lowend CPU verwendet wurde (natürlich reine Speku) und somit die 3DMark Werte (wenn sie denn stimmen) schon eine ungefähre Richtung vorgeben. Ein paar Punkte +/- wegen der CPU sind jetzt nicht so der gravierende Unterschied IMO - aber die grobe Richtung deutet auf etwa Gleichstand beim 3DMark hin (auf den ja beide gut optimieren). Ein Gleichstand wäre aus den von mir genannten Gründen aber schon enttäuschend...
Du weißt aber schon, dass die CPU Leistung einen relativ grossen Einfluss auf das Endergebnis im 3DMark06 hat oder?
Ändert es etwas am Stromverbrauch, dem größeren Kühler und der längeren Platine?
Und ob die Karte nun 300-500 Punkte schneller ist, ist doch da kaum noch relevant.
Es ist systemunabhängig...
Schön zu sehen, dass selbst der rv630 "nur" rv570 Niveau spielt. Das dürfte einige Kritiker entweder verstummen oder lauter werden lassen - jedenfalls wird es spaßig.
Die 125 Watt TDP geistern schon lange im Netz rum. Dazu die DIE - Angaben und das Foto von PCGH.
dem rv570 fehlt halt der für den oem-sektor wichtige dx10-aufkleber. und die alten karten werden wohl dann bald langsam auslaufen...
deekey777
2007-04-14, 00:32:02
FEAR-Diskussion: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=358130
BvB123
2007-04-14, 00:54:50
Schon gesehn?
http://vr-zone.com/index.php?i=4898
[R600XT Scores 12K in 3DMark06]
R600XT will be officially known as Radeon HD 2900 XT when it launches in May. It seems that R600XT will be available first followed the XTX. According to DailyTech, the Radeon HD 2900 series features 320 stream processors and supports 128-bit HDR rendering, 24xAA, physics processing. Other features include integrated HDMI output capabilities with 5.1 surround sound. Although the wait for R600 is unbearable but the consoling part is that R600XT stood up well against NVIDIA GeForce 8800 series. Using a Core 2 Extreme QX6700 processor, R600XT scored 12K in 3DMark06, slightly better than a GeForce 8800 GTX. It is benched on the latest 8.361-RC4 drivers, quite an improvement over the older sets of drivers. The core clock of R600XT stood at 750MHz while the memory is at 820MHz. It looks all decent for a US$399 card.
"Gibbo" aus dem ocUK forum sagte zuerst dazu:
Very good article that, if its all correct.
Zuerst stand dort aber nur:
Very good article that.
http://img92.imageshack.us/img92/333/test2qy1.jpg
Superheld
2007-04-14, 08:45:04
gut gemacht Gast:wink:
mapel110
2007-04-14, 08:46:38
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/april/weitere_details_r600-familie/
nochmal eine Zusammenfassung von CB über die letzten Infos.
AnarchX
2007-04-14, 09:09:24
http://img92.imageshack.us/img92/333/test2qy1.jpg
vom fx57.net-Typen, also etwas fraglich:
http://www.bilgiustam.com/?p=125
vom fx57.net-Typen, also etwas fraglich:
http://www.bilgiustam.com/?p=125
fraglich is alles vor der offi vorstellung.
glaube kaum das ati von 1024 ohne aa af bis zu 1600 aa af mehr einbricht als nv.war nie so und schon garnicht bei der derben bandbreite.
horn 12
2007-04-14, 09:48:42
Vielleicht wegen dem höheren VRAM der 8800 GTX, welche ja 50% mehr besitzt als die R600-ATI Karte. Und Crysis wird ja auf der NV momentan optimiert. Also das Ergebnis nicht schlecht, falls es stimmen sollte.
Nakai
2007-04-14, 10:00:04
Also nur 4Z ROPs sind es Gott sei Dank erstmal nicht;
Wieviel Z-Operationen pro Takt sind den von nützen?
mfg Nakai
Armaq
2007-04-14, 10:15:13
Ein halbes Jahr später und keinerlei echte Vorteile. Schon hart. Rein performancemäßig natürlich.
dargo
2007-04-14, 10:17:54
http://img92.imageshack.us/img92/333/test2qy1.jpg
Ui, ich hoffe nur sehr, dass dies kein Fake ist und eine gpu-limitierte Demo verwendet wurde. Dann kann ich mich beruhigt zurücklehnen was den Hardwarehunger von Crysis angeht (zumindest bei der Grafikkarte). =)
Edit:
Leider scheint diese Demo eher cpu-limitiert zu sein. 1024x768 ist mit der GTX nur ~17% schneller als 1280x1024 4xAA/16xAF. Wenn man dabei bedenkt, dass Timedemos keine KI, Physik Berechnung usw. beinhalten scheint die CPU ganz schön gefordert sein in Crysis.
Sorry für OT.
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/april/weitere_details_r600-familie/
nochmal eine Zusammenfassung von CB über die letzten Infos.
Wenn die 200W der X2900XT wirklich stimmen und sie etwas schneller als eine GTX ist dann finde ich die Pro/Mhz Verlustleistung vom R600 gar nicht mal so schlecht im Vergleich zur Konkurrenz. Man sollte nicht vergessen, dass eine G8800GTX eine TDP von 177W hat. Das wären dann "nur" 23W TDP mehr bei der X2900XT.
reunion
2007-04-14, 10:27:29
Oh mann, diese FX57-Typen haben nicht nur einmal bewiesen, dass sie absolut nichts wissen, sondern nur von jemand anderen ohne Quellenangabe abschreiben, oder sich einfach irgendetwas aus den Fingern saugen. Wie ausgelutscht muss man eigentlich sein, um das - wie einige hier - schon wieder zu glauben, oder gar als Fakt hinzustellen. Ich sollte auch eine solchen Webseite eröffnen, damit lässt sich offensichtlich richtig Geld machen, ihr bekommt auch jede Woche schöne Balken von Spielen, die es noch gar nicht gibt - versprochen.
dargo
2007-04-14, 10:28:38
Vielleicht wegen dem höheren VRAM der 8800 GTX, welche ja 50% mehr besitzt als die R600-ATI Karte. Und Crysis wird ja auf der NV momentan optimiert. Also das Ergebnis nicht schlecht, falls es stimmen sollte.
Nee, diese Theorie kannst du wohl vergessen. :)
Die ATI ist laut diesem Benchmark selbst in 1024x768 ohne AA schneller. Ich glaube kaum, dass der Vram Bedarf schon in dieser BQ >768MB ist. X-D
Ich würde hier eher die Frage stellen wie gut die ATI Treiber momentan sind. Denn der Verlust von ATI zwischen 1024x768 bis 1600x1200 4xAA/16xAF macht bei der hohen Bandbreite keinen Sinn wenn man sich den Verlust der GTX anschaut. Es sei denn, der ATI Graka geht wirklich in höherer BQ in Crysis schon der Vram aus.
Nakai
2007-04-14, 10:31:22
Wenn die 200W der X2900XT wirklich stimmen und sie etwas schneller als eine GTX ist dann finde ich die Pro/Mhz Verlustleistung vom R600 gar nicht mal so schlecht im Vergleich zur Konkurrenz. Man sollte nicht vergessen, dass eine G8800GTX eine TDP von 177W hat. Das wären dann "nur" 23W TDP mehr bei der X2900XT.
Bis zu 50 Watt höheren Verbrauch ist zu erwarten.
mfg Nakai
dargo
2007-04-14, 10:35:34
Bis zu 50 Watt höheren Verbrauch ist zu erwarten.
Diese 50W mehr schwirren hier schon seit Ewigkeiten. Das bezog sich afaik auf eine alte Revision bzw. die XTX.
Nakai
2007-04-14, 10:43:40
Diese 50W mehr schwirren hier schon seit Ewigkeiten. Das bezog sich afaik auf eine alte Revision bzw. die XTX.
Deswegen schrieb ich ja "bis zu". Der R600 wird niemals die 200 Watt Grenze überschreiten.
Mein Tipp ist immernoch 180 Watt.
mfg Nakai
AnarchX
2007-04-14, 10:48:02
Deswegen schrieb ich ja "bis zu". Der R600 wird niemals die 200 Watt Grenze überschreiten.
Wenn man ihn übertaktet wäre ich mir da nicht so sicher.
Immerhin wurde ja desöfteren schon berichtet, dass es für Overdrive 8+6Pin brauch.
Aber wenn man 8800GTX und HD 2900XT beim Stromverbrauch vergleicht sollte man auch bedenken, dass erstere 50% mehr VRAM hat, der auch doch einige Watt ausmacht.
dargo
2007-04-14, 10:52:17
Ein halbes Jahr später und keinerlei echte Vorteile. Schon hart. Rein performancemäßig natürlich.
Für ATI vielleicht, für den Kunden aber eher weniger. Man kann viel über den Preis richten. Und 399$ UVP ist ein Kampfpreis seitens ATI.
Wenn man ihn übertaktet wäre ich mir da nicht so sicher.
Immerhin wurde ja desöfteren schon berichtet, dass es für Overdrive 8+6Pin brauch.
Wenn man eine GTX übertaktet kommt man auch mit dem Stromverbrauch höher. ;)
Aber wenn man 8800GTX und HD 2900XT beim Stromverbrauch vergleicht sollte man auch bedenken, dass erstere 50% mehr VRAM hat, der auch doch einige Watt ausmacht.
Bei den zusätzlichen 256MB Vram würde ich von ca. 7-10W mehr ausgehen. Und dann aber nur wenn die 768MB Vram auch vollständig ausgelastet sind.
Armaq
2007-04-14, 10:55:56
Für ATI vielleicht, für den Kunden aber eher weniger. Man kann viel über den Preis richten. Und 399$ UVP ist ein Kampfpreis seitens ATI.
Wenn man eine GTX übertaktet kommt man auch mit dem Stromverbrauch höher. ;)
Bei den zusätzlichen 256MB Vram würde ich von ca. 7-10W mehr ausgehen. Und dann aber nur wenn die 768MB Vram auch vollständig ausgelastet sind.
Natürlich. Btw. schreib mir nochmal wegen der Benches. Ich bin dann wieder fähig mich mit anderen Dingen zu beschäftigen.
BvB123
2007-04-14, 10:58:37
Ein halbes Jahr später und keinerlei echte Vorteile. Schon hart. Rein performancemäßig natürlich.
Wieso, weil die XT gegen die GTX gewinnt?
Denk dran, es gibt noch eine XTX ;)
Gruß
Ein halbes Jahr später und keinerlei echte Vorteile. Schon hart. Rein performancemäßig natürlich.
wenn sich was verspätet,kann man nicht irgendwas herzaubern.....mr. rosabrille
Denk dran, es gibt noch eine XTX ;)
Gruß
Und eine 8800 Ultra...
Schön dass die XT 10% schneller ist, auch schön das man sie für 399$ in den Markt bringen will.
Aber man ist einfach zu spät.
Naja wer auf jeden gefakten Bench reinfällt, der sollte nicht zuviel Spekulieren, wenn man es nach dem Reinfall noch so nennen darf *g
reunion
2007-04-14, 11:36:05
Wenn man ihn übertaktet wäre ich mir da nicht so sicher.
Immerhin wurde ja desöfteren schon berichtet, dass es für Overdrive 8+6Pin brauch.
Nur beim Topmodell, also der XTX, AFAIK. Rein hypotetisch: Wenn die XTX 20% schneller ist als die GTX, und dafür 20% mehr Strom verbraucht, dann wäre das ein sehr guter Wert. Denn die GTX würde für 20% mehr Leistung mit Sicherheit mehr als 20% mehr Strom benötigen. Denn vergiss nicht: Die Verlustleistung stiegt linear mit der Taktraten, und quadratisch mit der Spannung. Ich bin ja schon gespannt auf die Verlustleistung der Ultra, 15% mehr Takt, und ein/zwei zehntel Volt mehr Spannung, und man hat ganz schnell 50W zusätzlich abzuführen.
Wenn die 200W der X2900XT wirklich stimmen und sie etwas schneller als eine GTX ist dann finde ich die Pro/Mhz Verlustleistung vom R600 gar nicht mal so schlecht im Vergleich zur Konkurrenz. Man sollte nicht vergessen, dass eine G8800GTX eine TDP von 177W hat. Das wären dann "nur" 23W TDP mehr bei der X2900XT.
Was bleibt ist, dass man unterschiedliche TDP-Angaben von verschiedenen Herstellern nicht vergleich kann, und das die Benchs zu 99.999% gefaket sind. Und schon sind wir wieder genauso schlau wie vorher.
Rein hypotetisch: Wenn die XT 20% schneller ist als die GTX, und dafür 20% mehr Strom verbraucht, dann wäre das ein sehr guter Wert.
Genau dann kommt eine 88ultra die is vlt 20% schneller bei 20% mehr Strom verbrauch. dann kommt AMD/ATI, mit einer neuen gfx die 20% schneller is als eine 88Ultra und dabei 20% mehr Strom verbraucht. Soll das immer so weiter gehen? fanboy gut und schön, aber es muss doch mal ein ende haben.
Und im mom sprecht ihr euch den R600 einfach schoen: och 200 watt macht ja nix, sie is ja auch schneller etc.
Schon die 150 watt der gtx is viel. Es muss mal eine grenze geben. Ich hoffe, das auf beiden seiten der Strom verbrauch mal sinkt
reunion
2007-04-14, 11:49:00
Genau dann kommt eine 88ultra die is vlt 20% schneller bei 20% mehr Strom verbrauch. dann kommt AMD/ATI, mit einer neuen gfx die 20% schneller is als eine 88Ultra und dabei 20% mehr Strom verbraucht. Soll das immer so weiter gehen? fanboy gut und schön, aber es muss doch mal ein ende haben.
Und im mom sprecht ihr euch den R600 einfach schoen: och 200 watt macht ja nix, sie is ja auch schneller etc.
Schon die 150 watt der gtx is viel. Es muss mal eine grenze geben. Ich hoffe, das auf beiden seiten der Strom verbrauch mal sinkt
Die Hersteller liefern, was der Markt verlangt, so einfach ist das. Und solange für 90% der High-End-Käufer nur primär die Leistung zählt, wird sich an dieser Einstellung nichts ändern. Wenn diese Karten in den Regalen liegen gelassen werden, dann wird man ganz schnell andere Ansätze verfolgen müssen.
Winter[Raven]
2007-04-14, 12:03:38
*gähn* Also die Diskussion wird langsam langweillig. Alle paar Wochen kaut ihr das selbe Thema auf immer wieder durch. Haltet doch einfach die Füße still und wartet doch ab bis uns AMD mit ihrer Weißheit beglückt...
Hvoralek
2007-04-14, 12:07:11
Nee, diese Theorie kannst du wohl vergessen. :)
Die ATI ist laut diesem Benchmark selbst in 1024x768 ohne AA schneller. Ich glaube kaum, dass der Vram Bedarf schon in dieser BQ >768MB ist. X-DEs wären "nur" >512 MiB erforderlich, damit in diesem Vergleich die GTX einen Vorteil hätte. Allerdings ist für den VRAM- Bedarf der Framebuffer nicht soo wesentlich, viele verschiedene, hochauflösende Texturen machen sich da stärker bemerkbar.
Ich würde hier eher die Frage stellen wie gut die ATI Treiber momentan sind.Nach diesen ganzen Verschiebungen sollten die Treiber mittlerweile mindestens ebenso reif sein wie die des G80 bei dessen Erscheinen.
Denn der Verlust von ATI zwischen 1024x768 bis 1600x1200 4xAA/16xAF macht bei der hohen Bandbreite keinen Sinn wenn man sich den Verlust der GTX anschaut.Einmal angenommen, man glaubt diesem Test einer Grafikkarte, zu der selbst Eingeweihte offiziell erst in 1 1/2 Wochen etwas erfahren, anhand einer "Demo" eines Spieles, bei dem noch gar nicht absehbar ist, wann es erscheint, von einer Seite, die bisher m.W. nur Blödsinn verzapft hat - *lufthol* :wink: -, dann sollte man beachten, dass da nicht nur AA zugeschaltet wird, sondern auch AF. Bei AA sollte auch eine GDDR3- R600 mit etwa 1/3 höherer Bandbreite Vorteile haben. AF dürfte sich bei ihr aber stärker bemerkbar machen als bei einer 8800, insbesondere, wenn sie tatsächlich nur über 16 einfache TMUs verfügen sollte. Selbst bei 32 normalen TMUs @ ~800 MHz wäre die Füllrate nicht so üppig bemessen wie bei G80.
Sphinx
2007-04-14, 12:16:51
Oh mann, diese FX57-Typen haben nicht nur einmal bewiesen, dass sie absolut nichts wissen, sondern nur von jemand anderen ohne Quellenangabe abschreiben, oder sich einfach irgendetwas aus den Fingern saugen. Wie ausgelutscht muss man eigentlich sein, um das - wie einige hier - schon wieder zu glauben, oder gar als Fakt hinzustellen. Ich sollte auch eine solchen Webseite eröffnen, damit lässt sich offensichtlich richtig Geld machen, ihr bekommt auch jede Woche schöne Balken von Spielen, die es noch gar nicht gibt - versprochen.
Mein reden ,=) - allein schon seitens ATI/AMD werden bewußt Falschmeldungen gestreut...
dargo
2007-04-14, 12:16:58
Nur beim Topmodell, also der XTX, AFAIK. Rein hypotetisch: Wenn die XTX 20% schneller ist als die GTX, und dafür 20% mehr Strom verbraucht, dann wäre das ein sehr guter Wert. Denn die GTX würde für 20% mehr Leistung mit Sicherheit mehr als 20% mehr Strom benötigen. Denn vergiss nicht: Die Verlustleistung stiegt linear mit der Taktraten, und quadratisch mit der Spannung. Ich bin ja schon gespannt auf die Verlustleistung der Ultra, 15% mehr Takt, und ein/zwei zehntel Volt mehr Spannung, und man hat ganz schnell 50W zusätzlich abzuführen.
Vollkommen richtig! Dem ist nichts hinzuzufügen. Es sei denn NV hebt für die Ultra keine Spannungen an (ist ja durchaus möglich bei selektierten GPUs).
Ich finds aber trotzdem diese Diskussion lustig. Was habe ich hier schon nicht alles gelesen, von wegen ein R580 hätte eine deutlich schlechtere Pro/Mhz Verlustleistung als der G80. Dass man da völlig unterschiedliche Architekturen (sprich USA) vergleicht ist wohl keinem auf die Idee gekommen. ;)
Und jetzt soll plötzlich eine X2900XT eine deutlich schlechtere Pro/Mhz Verlustleistung haben als der G80?
Da hätten wir 177W vs. 200W. Wenn man sich das mal vor Augen hält sind das lächerliche 13% mehr (was natürlich nicht heißen soll, dass ich das toll finde). Wenn also eine X2900XT ca. 15% schneller als ein G80 ist dann ist doch alles in Ordnung. Ich weiß gar nicht was ihr habt?
Ach, und falls jemand auf die Idee kommt - 80nm vs. 90m. Das ist sicherlich richtig, interessiert aber den Endverbraucher recht wenig.
Was bleibt ist, dass man unterschiedliche TDP-Angaben von verschiedenen Herstellern nicht vergleich kann, und das die Benchs zu 99.999% gefaket sind. Und schon sind wir wieder genauso schlau wie vorher.
Natürlich, aber so gross unterscheiden die Hersteller bei der TDP auch nicht. Ich meine, man wird da keine Unterschiede bei ~50W bei den TDP Angaben sehen.
dargo
2007-04-14, 12:32:16
Es wären "nur" >512 MiB erforderlich, damit in diesem Vergleich die GTX einen Vorteil hätte. Allerdings ist für den VRAM- Bedarf der Framebuffer nicht soo wesentlich, viele verschiedene, hochauflösende Texturen machen sich da stärker bemerkbar.
http://img92.imageshack.us/img92/333/test2qy1.jpg
Ich bezog mich eher auf die Resultate der GTX. Denn angeblich ist sie immer langsamer. Aber du hast recht. Würden die 768MB (was natürlich Quatsch ist) schon limitieren könnte die XT mit den 512MB niemals bei avg. fps schneller werden. Dazu müßte die ATI schon von der Rohleistung locker 100% schneller sein (X-D) damit sie sich bei den avg.fps absetzen kann, wenn überhaupt.
Nach diesen ganzen Verschiebungen sollten die Treiber mittlerweile mindestens ebenso reif sein wie die des G80 bei dessen Erscheinen.
Hehe, der G80 ist schon seit 5 Monaten auf dem Markt. Und die Treiber sind alles andere als reif. ;)
Zumindest was die Spiele-Kompatibilität angeht. Mal davon abgesehen, dass Crysis alles andere als reif momentan ist.
Einmal angenommen, man glaubt diesem Test einer Grafikkarte, zu der selbst Eingeweihte offiziell erst in 1 1/2 Wochen etwas erfahren, anhand einer "Demo" eines Spieles, bei dem noch gar nicht absehbar ist, wann es erscheint, von einer Seite, die bisher m.W. nur Blödsinn verzapft hat - *lufthol* :wink: -, dann sollte man beachten, dass da nicht nur AA zugeschaltet wird, sondern auch AF. Bei AA sollte auch eine GDDR3- R600 mit etwa 1/3 höherer Bandbreite Vorteile haben. AF dürfte sich bei ihr aber stärker bemerkbar machen als bei einer 8800, insbesondere, wenn sie tatsächlich nur über 16 einfache TMUs verfügen sollte. Selbst bei 32 normalen TMUs @ ~800 MHz wäre die Füllrate nicht so üppig bemessen wie bei G80.
Und hier gibts ein riesen Fragezeichen. Verwendet ATI beim R600 immer noch A.I bzw. WA-AF mit A.I Low?
Ich finds aber trotzdem diese Diskussion lustig. Was habe ich hier schon nicht alles gelesen, von wegen ein R580 hätte eine deutlich schlechtere Pro/Mhz Verlustleistung als der G80. Dass man da völlig unterschiedliche Architekturen (sprich USA) vergleicht ist wohl keinem auf die Idee gekommen. ;)
Who cares?
Oder willst du allen erntest behaupten, der r580 hätte keine "deutlich schlechtere Pro/Mhz Verlustleistung als der G80"?
Und jetzt soll plötzlich eine X2900XT eine deutlich schlechtere Pro/Mhz Verlustleistung haben als der G80?
Plötzlich? Vielleicht sollten wir auch erste Werte abwarten. Die TDP zu vergleichen ist einfach lächerlich.
Natürlich, aber so gross unterscheiden die Hersteller bei der TDP auch nicht. Ich meine, man wird da keine Unterschiede bei ~50W bei den TDP Angaben sehen.
Ach nein? Und wenn doch?
dargo
2007-04-14, 12:50:09
Who cares?
Oder willst du allen erntest behaupten, der r580 hätte keine "deutlich schlechtere Pro/Mhz Verlustleistung als der G80"?
Natürlich hat er eine schlechtere Pro/Mhz Verlustleistung. Es macht aber keinen Sinn diese beiden Generationen was die Verlustleistung angeht zu vergleichen. Weil eben der G80 unter anderem durch die USA deutlich an Effizienz zugelegt hat. Wenn, dann bitte auch mit einer USA Generation, sprich R600 Vergleiche anstellen.
Plötzlich? Vielleicht sollten wir auch erste Werte abwarten.
Ich weiß, dass diese 200W TDP für die XT noch nicht offiziell sind. Mir bleibt aber nichts anderes übrig als eben mit diesen 200W momentan zu "arbeiten".
Ach nein? Und wenn doch?
Nehmen wir mal an, die X2900XT hat wirklich eine TDP von 200W und liegt bei realen Anwendungen bei ca. 160W. Eine GTX hat eine TDP von 177W und liegt real bei ca. 135W. Zwischen den beiden Karten sehe ich keine 50W Unterschied real. Das wollte ich damit sagen.
Natürlich hat er eine schlechtere Pro/Mhz Verlustleistung. Es macht aber keinen Sinn diese beiden Generationen was die Verlustleistung angeht zu vergleichen. Weil eben der G80 unter anderem durch die USA deutlich an Effizienz zugelegt hat. Wenn, dann bitte auch mit einer USA Generation, sprich R600 Vergleiche anstellen.
Was hat ein US Design mit dem Stromverbrauch zu tun?
Der Zusammenhang zwischen beiden liegt bei genau 0%.
Nehmen wir mal an, die X2900XT hat wirklich eine TDP von 200W und liegt bei realen Anwendungen bei ca. 160W. Eine GTX hat eine TDP von 177W und liegt real bei ca. 135W. Zwischen den beiden Karten sehe ich keine 50W Unterschied real. Das wollte ich damit sagen.
Warum liegt die r600 Karte nach deiner Ansicht auf einem niedrigen Niveau ausgehen vom TDP wert?
Nvidia gibt anscheinend 185Watt an, die Karte verbraucht nach Xbitlabs Messungen ca. 132 Watt. 7 Watt mehr als die X1950XTX.
Aber wenn die Aufnahme nicht so hoch wäre, warum werde dann anscheinend beim Übertakten der 8Pin und 6Pin Anschluss benötigt, um eine maximale Leistungsaufnahme von 300 Watt zu ermöglichen?
w0mbat
2007-04-14, 13:41:02
So schauts doch nach den aktuellen Infos aus, oder? Und jetzt für alle (damit ich die Tabelle nicht morgen beim INQ mit Berufung auf eine geheime Quelle finde): Das ist eine Tabelle die auf den aktuellen Spekulationen/Infos basiert.
http://img84.imageshack.us/img84/2010/atihd2000xc5.jpg
dargo
2007-04-14, 13:41:51
Was hat ein US Design mit dem Stromverbrauch zu tun?
Der Zusammenhang zwischen beiden liegt bei genau 0%.
Ob durch USA oder was auch immer. Du willst doch nicht bestreiten, dass die Effizienz vom G80 deutlich gestiegen ist in Relation zum Stromverbrauch bei Last oder? Und genau das gleiche wird mit dem R600 (in diesem Fall meine ich die X2900XT) passieren. Und nur mal so nebenbei - wenn ich mir die Verlustleistung der G7900GTX zu G8800GTX und X1950XTX zu X2900XTX (180-190W real, geschätzt) so anschaue (R600 Verlustleistung unter Vorbehalt) dann sieht das Verhältnis für mich gleich bei der Radeon besser aus. ;)
Und wenn man dann noch die Performance in gewissen Games (zb. NfS: Carbon) sich vor Augen hält ist die Pro/Mhz Verlustleistung einer G7900GTX katastrophal!
Warum liegt die r600 Karte nach deiner Ansicht auf einem niedrigen Niveau ausgehen vom TDP wert?
:confused:
Rechne nochmal nach. ;)
Nvidia gibt anscheinend 185Watt an, die Karte verbraucht nach Xbitlabs Messungen ca. 132 Watt. 7 Watt mehr als die X1950XTX.
Bei dieser Messung von xbitlabs (habe ich schon mal erwähnt) sollte man vorsichtig sein. Ein Pentium D 560 @3,6Ghz könnte eine GTX in 1600x1200 ohne AA schon limitieren.
Aber wenn die Aufnahme nicht so hoch wäre, warum werde dann anscheinend beim Übertakten der 8Pin und 6Pin Anschluss benötigt, um eine maximale Leistungsaufnahme von 300 Watt zu ermöglichen?
Das ist:
1. noch nicht offiziell bestätigt
2. bezieht es sich nur auf die XTX, ich habe vorher von den TDP Werten der XT gesprochen.
Hvoralek
2007-04-14, 13:57:17
Natürlich hat er eine schlechtere Pro/Mhz Verlustleistung. Es macht aber keinen Sinn diese beiden Generationen was die Verlustleistung angeht zu vergleichen. Weil eben der G80 unter anderem durch die USA deutlich an Effizienz zugelegt hat. Wenn, dann bitte auch mit einer USA Generation, sprich R600 Vergleiche anstellen.Warum soll man bei der Beurteilung der Pro- Takt- Verlustleistung (Geht es nicht eher um die Verlustleistung im Verhältnis zur Rechenleistung :confused: ) keine Chips mit einheitlichen und dedizierten Shadereinheiten vergleichen, sehr wohl aber welche, die in verschiedenen Strukturbreiten gefertigt werden? Am sinnvollsten wäre mMn ohnehin, schlicht etwa gleich alte Modelle derselben Klasse zu vergleichen.
Nehmen wir mal an, die X2900XT hat wirklich eine TDP von 200W und liegt bei realen Anwendungen bei ca. 160W. Eine GTX hat eine TDP von 177W und liegt real bei ca. 135W. Zwischen den beiden Karten sehe ich keine 50W Unterschied real. Das wollte ich damit sagen.Man kann problemlos mit der TDP arbeiten, wenn bei beiden Herstellern der tatsächliche Verbrauch in etwa im gleichen Verhältnis zu ihr steht (In Deinem Bsp. ist es so mit 77 bzw. 80%). Was aber, wenn eine 2900XT bei 200W TDP z.B. (Ich übertreibe jetzt) 190W real braucht oder nur 120W? Dann wäre es Humbug, die Karten anhand der TDP- Angaben zu vergleichen.
dargo
2007-04-14, 14:05:05
Warum soll man bei der Beurteilung der Pro- Takt- Verlustleistung (Geht es nicht eher um die Verlustleistung im Verhältnis zur Rechenleistung :confused: ) keine Chips mit einheitlichen und dedizierten Shadereinheiten vergleichen, sehr wohl aber welche, die in verschiedenen Strukturbreiten gefertigt werden?
Weil ein R580 eine alte Generation ist.
Man kann problemlos mit der TDP arbeiten, wenn bei beiden Herstellern der tatsächliche Verbrauch in etwa im gleichen Verhältnis zu ihr steht (In Deinem Bsp. ist es so mit 77 bzw. 80%). Was aber, wenn eine 2900XT bei 200W TDP z.B. (Ich übertreibe jetzt) 190W real braucht oder nur 120W? Dann wäre es Humbug, die Karten anhand der TDP- Angaben zu vergleichen.
Ich glaube an die 120W real genau so wenig wie an die 190W, ausgehend von 200W TDP. Aber glauben ist nicht wissen. ;)
Wenn ich nur diese verdammte TDP Angabe der X1950XTX finden würde wäre Vieles einfacher.
Du willst doch nicht bestreiten, dass die Effizienz vom G80 deutlich gestiegen ist in Relation zum Stromverbrauch bei Last oder?
Das machst du...
Und genau das gleiche wird mit dem R600 (in diesem Fall meine ich die X2900XT) passieren. Und nur mal so nebenbei - wenn ich mir die Verlustleistung der G7900GTX zu G8800GTX und X1950XTX zu X2900XTX (180-190W real, geschätzt) so anschaue (R600 Verlustleistung unter Vorbehalt) dann sieht das Verhältnis für mich gleich bei der Radeon besser aus. ;)
Wird der r600 auch bis zu viermal schneller sein?
Und wenn man dann noch die Performance in gewissen Games (zb. NfS: Carbon) sich vor Augen hält ist die Pro/Mhz Verlustleistung einer G7900GTX katastrophal!
Was für eine selektive Wahrnehmung du hast.
Beim G7x ist nVidia Kompromisse für eine hohe Margen eingegangen. Ein 55% höhrere Stromverbrauch ist eine ganze Menge, egal ob die Karte in den einen oder anderen Spiel doppelt so schnell ist. Die Nachteile sind eben nicht einfach selektiv vernachlässigbar (Temperaturentwicklung, Kühlerlautstärke etc.).
[@uote]
Bei dieser Messung von xbitlabs (habe ich schon mal erwähnt) sollte man vorsichtig sein. Ein Pentium D 560 @3,6Ghz könnte eine GTX in 1600x1200 ohne AA schon limitieren.[/Quote]
Vor nicht alzulanger Zeit hast du dich so dermaßen auf Xbitlabs verlassen und jetzt?
Das Ergebnis von Xbitlabs spiegelt sich aber bei vielen anderen wider.
2. bezieht es sich nur auf die XTX, ich habe vorher von den TDP Werten der XT gesprochen.
Laut Gibbo verfügt auch die XT über einen 8 und einen 6 Pin Anschluss - welche für das Übertakten belegt sein müssen.
dargo
2007-04-14, 14:32:41
Das machst du...
Wo?
Wird der r600 auch bis zu viermal schneller sein?
Wenn ein R600 die 4x Leistung der X1950XTX hätte wäre er doppelt so schnell wie ein G80. ;)
Und woher du die vierfache Leistung einer G8800GTX gegenüber einer G7900GTX hast würde mich auch mal interessieren. Ok, bei NfS: Carbon könnten es wirklich deutlich mehr als 100% sein.
Was für eine selektive Wahrnehmung du hast.
Beim G7x ist nVidia Kompromisse für eine hohe Margen eingegangen.
Das mag für NV von Vorteil sein, nicht aber für den Kunden. Und Diesen interessiert nur die Leistung in Relation zum Preis.
Ein 55% höhrere Stromverbrauch ist eine ganze Menge, egal ob die Karte in den einen oder anderen Spiel doppelt so schnell ist. Die Nachteile sind eben nicht einfach selektiv vernachlässigbar (Temperaturentwicklung, Kühlerlautstärke etc.).
Meinst du jetzt G71 zu R580?
Temperaturentwicklung ist abhängig von der Qualität des Kühlers. Hätte ATI sofort beim R580 einen G8800GTS/GTX Kühler verwendet wären beide von dir genannten Nachteile nicht mehr vorhanden. Leider hatte(?) ATI kein gutes Händchen beim Kühlerdesign.
Vor nicht alzulanger Zeit hast du dich so dermaßen auf Xbitlabs verlassen und jetzt?
Das ist auch weiterhin mein Favorit. Die sollten nur gefälligst sich eine schnellere CPU anschaffen. Am besten wäre ein C2D mit >3Ghz. Und dann noch irgendeine graka-lastige Timedemo (Timedemo = weniger CPU-Last) vom Spiel in 2048x1536 mit möglichst viel AA (natürlich immer den Vram im Auge behalten, sonst bringt die ganze Messung nichts) nehmen. Dann kann man auch wirklich von einem 100%-igen Graka-Limit ausgehen. Alles unter einem G80 limitiert im 3DMark06 in 1600x1200 ohne AA. Beim G80 wäre ich mir mit dieser CPU nicht mehr so sicher. Deswegen meine Zweifel.
Laut Gibbo verfügt auch die XT über einen 8 und einen 6 Pin Anschluss - welche für das Übertakten belegt sein müssen.
Was spricht denn gegen 2x 6Pin PCIe Stecker? Bei >150W ist es eh nötig.
Hvoralek
2007-04-14, 14:47:57
Weil ein R580 eine alte Generation ist.Warum soll man nicht auch Karten verschiedener Generationen vergleichen? Und wonach würdest Du dann die "Generationen", die so klar getrennt werden sollen, abgrenzen? Die Shaderorganisation, auf die Du anscheinend ausschließlich abstellt, ist dafür jedenfalls kein brauchbares Kriterium (Das ist für den Endanwender erst einmal völlig egal. Es gäbe dann auch nur drei "Generationen" von GPUs: Nur festverdrahtete Schaltungen, dedizierte Shader und einheitliche Shader. Demnach könnte man z.B. eine Voodoo 1 mit einer Geforce 4 MX vergleichen, aber keine X1950 Pro mit einer 8600GTS. Schließlich wäre dann Xenos einen dieser beiden Generationssprünge weiter als R580, was auch nicht wirklich plausibel ist).
Und sonst?
An das Shadermodel (und ähnliche Features) könnte man anknüpfen und das ist in vielen Fällen auch sinnvoll. Dabei wäre allerdings die Karte mit dem höheren SM im Nachteil bzgl. Chipgröße, Kosten und Energieverbrauch, solange nur das niedrigere genutzt wird. Wenn man das berücksichtigt, steht R5xx ggü. G80 nur noch schlechter dar.
Der Fertigungsprozess wäre als Maßstab noch einigermaßen plausibel, gerade, wenn man den Schwerpunkt auf den Stromverbrauch legt, aber Du findest ihn ja anscheinend völlig unbeachtlich. Außerdem könnte man dann zwar G80 direkt mit R520/580 vergleichen, aber nicht mehr mit R600.
Bleibt im wesentlichen das Erscheinensdatum. Da liegen zwischen R580 und G80 9 1/2 Monate und zwischen G80 und R600 (Vorstellung Mitte Mai angenommen) gut sechs Monate. Wo siehst Du danach die Grenze einer "Generation"? Kann man nur Modelle vergleichen, die innerhalb einer eng begrenzten Frist von z.B. acht Monaten erschienen sind, die dann aber auch 1:1 und alles, was eine Woche nach Ablauf dieser Zeispanne erschienen ist, gar nicht mehr?
Eine Einteilung in Generationen ist unter technologischen Gesichtspunkten sinnvoll. Was Leistung und Stromverbrauch anbelangt, sollte man schlicht das Alter der Modelle beim Vergleich berücksichtigen, das aber als stetigen Prozess auffassen ohne Generationsschubladendenken.
Dabei lag G71 insgesamt ein gutes Stück vor dem knapp älteren R580 (wenn man nicht nur nur einzelne Ausreißer betrachtet, sondern die durchschnittliche Leistung). Wenn ATI mit R600 sechs Monate nach G80 auf einem moderneren Fertigungsprozess (Ja, ich halte den für wichtig, um die Energieeffizienz einer Architektur zu beurteilen) einen Chip mit einem identischen Verlustleistung- Rechenleistungsverhältnis bringt, ist das zwar besser als Anfang 2006, aber bestimmt keine Heldentat.
Nakai
2007-04-14, 15:21:02
Dabei lag G71 insgesamt ein gutes Stück vor dem knapp älteren R580
Wenn ihr wirklich die alte Generation einbezieht, solltet ihr aber auch wenigstens deren Performance richtig einschätzen. Eine X1900XTX zerlegt eine Geforce7900GTX ist fast allen Bereichen. Selbst die X1900XT 256 schafft das noch.
CB (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/24/#abschnitt_performancerating)
Nv hat einfach die Treiber schleifen lassen, naja aber das ist normal jedenfalls bei der älteren Generation.
Man kann keine Generationen vergleichen, nur Modelle die im gleichen Preisniveau liegen.
mfg Nakai
Spasstiger
2007-04-14, 15:24:00
Das mit 24xAA halte ich für unglaubwürdig. In einem Interview der PC Games Hardware mit Vijav Sharma von AMD/ATI heißt es:
Aktuell unterstützen wir mit Crossfire bis zu 14x FSAA und das wird auch noch eine Weile so bleiben.
Quelle: PCGH 05/2007
dargo
2007-04-14, 15:27:00
@Hvoralek
Ich machs dir leicher (auch wenns Blödsinn ist) - D3D10 vs. DX9 GPU.
Wenn ihr wirklich die alte Generation einbezieht, solltet ihr aber auch wenigstens deren Performance richtig einschätzen. Eine X1900XTX zerlegt eine Geforce7900GTX ist fast allen Bereichen. Selbst die X1900XT 256 schafft das noch.
CB (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/24/#abschnitt_performancerating)
Nv hat einfach die Treiber schleifen lassen, naja aber das ist normal jedenfalls bei der älteren Generation.
Man kann keine Generationen vergleichen, nur Modelle die im gleichen Preisniveau liegen.
mfg Nakai
Danke, das leite ich auch gerne an Hvoralek weiter.
reunion
2007-04-14, 15:27:12
Die 24xAA-Meldung kam von AMD, also hat sich das wohl geändert. Dass es nicht 24xMSAA sein wird, sollte klar sein.
Spasstiger
2007-04-14, 15:30:31
Die 24xAA-Meldung kam von AMD, also hat sich das wohl geändert. Dass es nicht 24xMSAA sein wird, sollte klar sein.
Hm, 6xSGMSAA + 4xSGSSAA? *träum*
Das wäre jedenfalls ein Killerargument für den R600.
AnarchX
2007-04-14, 15:35:57
Hm, 6xSGMSAA + 4xSGSSAA? *träum*
Das wäre jedenfalls ein Killerargument für den R600.
Ich hab Zweifel, dass die Generation HD 2000 noch 6xMSAA unterstützen wird.
Vielleicht ist es ja 12xMSAA mit einem 2x SSAA? Oder eben etwas ganz anderes wie eben beim G80 damals das 16xAA, worüber man kurz vor dem Launch auch nicht viel wusste.
Hm, 6xSGMSAA + 4xSGSSAA? *träum*
Das wäre jedenfalls ein Killerargument für den R600.
nö
Knacki99
2007-04-14, 16:31:48
Ich frage mich wirklich, warum ATI die 1GB XTX zurückhält. Wenn ich jetzt aufrüsten wollte und mir den AA+AF @ 1600x1200 VRAM Verbrauch in Dark Messiah und anderen neuen Spielen anschaue, dann fällt eine Karte mit "nur" 512MB schon mal aus...
horn 12
2007-04-14, 16:35:06
Bitte eine interessante Frage am Rande:
So verkehrt sollte es doch nicht sein, wenn man eine X2900 XL zu einem A64 Singlecore 3800+ OC 2,65 Ghz gesellt mit 1,5GB Ram.
Da würde wohl die X2900 XT zu stark werden dafür, und damit zu viel brachliegende Leistung einbüßen. Mit der XL könnte es durchaus ausgeglichener werden, oder ist doch mein Prozzi viel zu schwach für ne
R600 XL?
Ist nicht OT, da dies sicherlich viele interessieren wird, welchen Prozessor man der XL/XT gegenstelles sollte. (C2D ist ja klar, aber habe den mal eben nicht!)
F5.Nuh
2007-04-14, 16:39:05
Bitte eine interessante Frage am Rande:
So verkehrt sollte es doch nicht sein, wenn man eine X2900 XL zu einem A64 Singlecore 3800+ OC 2,65 Ghz gesellt mit 1,5GB Ram.
Da würde wohl die X2900 XT zu stark werden dafür, und damit zu viel brachliegende Leistung einbüßen. Mit der XL könnte es durchaus ausgeglichener werden, oder ist doch mein Prozzi viel zu schwach für ne
R600 XL?
Ist nicht OT, da dies sicherlich viele interessieren wird, welchen Prozessor man der XL/XT gegenstelles sollte. (C2D ist ja klar, aber habe den mal eben nicht!)
Naja singlecore.. ne wird zu schwach sein.
Ist nicht OT, da dies sicherlich viele interessieren wird, welchen Prozessor man der XL/XT gegenstelles sollte. (C2D ist ja klar, aber habe den mal eben nicht!)
Das kommt auf das Display an. Bist du auf 1280x1024 beschränkt, sollte es mind. ein X6800 sein, wenn möglich übertaktet. Hast du dagegen ein 30"-LCD mit 2560x1600 reicht bestimmt auch dein 3800+.
Q
Bitte eine interessante Frage am Rande:
So verkehrt sollte es doch nicht sein, wenn man eine X2900 XL zu einem A64 Singlecore 3800+ OC 2,65 Ghz gesellt mit 1,5GB Ram.
Da würde wohl die X2900 XT zu stark werden dafür, und damit zu viel brachliegende Leistung einbüßen. Mit der XL könnte es durchaus ausgeglichener werden, oder ist doch mein Prozzi viel zu schwach für ne
R600 XL?
Ist nicht OT, da dies sicherlich viele interessieren wird, welchen Prozessor man der XL/XT gegenstelles sollte. (C2D ist ja klar, aber habe den mal eben nicht!)
Was heißt zu schwach? Grakalastige Games werden je nach Vorgängergraka auch mit deiner CPU schneller laufen. Dein Prozzi kann also nicht zu schwach für eine XL sein, höchstens zu schwach für ein CPU-lastiges Game. Außerdem kann man massig GPU Power in BQ-Verbesserungen & hohe Auflösungen stecken.
Hvoralek
2007-04-14, 16:48:24
Ich machs dir leicher (auch wenns Blödsinn ist) - D3D10 vs. DX9 GPU.Nochmal: Warum soll man sie nicht trotzdem miteinander vergleichen? Dass G80 zusätzlich D3D10- kompatibel ist, ist bzgl. des Stromverbrauchs höchstens ein Nachteil und führt eigentlich dazu, dass R580 im Vergleich noch schlechter aussieht, wenn man es berücksichtigen möchte.
Du bestehst immer darauf, nur Karten derselben Generation bzgl. ihrer Energieeffizienz zu vergleichen. Dann grenze die bitte auch dafür sinnvoll ab, das SM bzw. die D3D- Version halte ich, wie oben gesagt, für kein brauchbares Kriterium.
Warum genügt es eigentlich nicht, Sonderfaktoren (wie die D3D- Version) im Einzelfall zu betrachten und bei nennenswerten Unterschieden mit einzubeziehen?
Wenn ihr wirklich die alte Generation einbezieht, solltet ihr aber auch wenigstens deren Performance richtig einschätzen. Eine X1900XTX zerlegt eine Geforce7900GTX ist fast allen Bereichen. Selbst die X1900XT 256 schafft das noch.
CB (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/24/#abschnitt_performancerating)Dort liegt die X1900XTX 12% vor der 7900 GTX. Wenn man die CB- BEnchmarks als repräsentativ annimmt, kann man bei einem um etwa 43% (http://www.xbitlabs.com/articles/video/display/geforce7900gtx_6.html) höheren Stromverbrauch der XTX wohl davon sprechen, dass die GTX bzgl. der Energieeffizienz "ein gutes Stück vor[ne]" liegt :confused:
reunion
2007-04-14, 16:54:27
Dort liegt die X1900XTX 12% vor der 7900 GTX. Wenn man die CB- BEnchmarks als repräsentativ annimmt, kann man bei einem um etwa 43% (http://www.xbitlabs.com/articles/video/display/geforce7900gtx_6.html) höheren Stromverbrauch der XTX wohl davon sprechen, dass die GTX bzgl. der Energieeffizienz "ein gutes Stück vor[ne]" liegt :confused:
Wenn die GPU limitiert, nämlich in 1600 x 1200 4xAA/16xAF sind es 48%. Und nun? Weiteres Beispiel: Eine 7900GTX liegt dort nur noch minimal vor einer X1950pro, und das auch nur, weil noch immer Uraltspiele wie Doom3 und Riddick mitgetestet werden. Und eine X1950pro sollte weniger Strom schlucker als eine 7900GTX.
...und das auch nur, weil noch immer Uraltspiele wie Doom3 und Riddick mitgetestet werden.
Skandalös! Da erlaubt sich doch glatt eine Webseite, auch Spiele zu testen, wo Ati nicht vorn liegt? Tststs...
btw: Wolfgang, wie fließen eigentlich die beiden "nicht möglich"-Wertungen in Oblivion und CoJ für Geforce in Qualitätseinstellungen in das Rating mit ein?
dargo
2007-04-14, 17:03:27
Nochmal: Warum soll man sie nicht trotzdem miteinander vergleichen? Dass G80 zusätzlich D3D10- kompatibel ist, ist bzgl. des Stromverbrauchs höchstens ein Nachteil und führt eigentlich dazu, dass R580 im Vergleich noch schlechter aussieht, wenn man es berücksichtigen möchte.
Ich habe noch keine D3D10 Benchmarks vom G80 in Games gesehen, du etwa?
Sollte also D3D10 die Graka mehr Auslasten wird auch dementsprechend der Stromverbrauch leicht nach oben gehen.
Du bestehst immer darauf, nur Karten derselben Generation bzgl. ihrer Energieeffizienz zu vergleichen. Dann grenze die bitte auch dafür sinnvoll ab, das SM bzw. die D3D- Version halte ich, wie oben gesagt, für kein brauchbares Kriterium.
Ich auch nicht, deswegen auch:
"(auch wenns Blödsinn ist)"
Dort liegt die X1900XTX 12% vor der 7900 GTX. Wenn man die CB- BEnchmarks als repräsentativ annimmt, kann man bei einem um etwa 43% (http://www.xbitlabs.com/articles/video/display/geforce7900gtx_6.html) höheren Stromverbrauch der XTX wohl davon sprechen, dass die GTX bzgl. der Energieeffizienz "ein gutes Stück vor[ne]" liegt :confused:
Du solltest vielleicht dir mal Settings angucken wo die CPU nicht limitiert. ;)
Ich sehe da bei 1600x1200 4xAA/16xAF einen Vorteil von 48% für die X1950XTX im Durchschnitt bei den getesteten Games von CB. Wobei man hier wieder aufpassen muss, die CB Tests sind mit AAA/TSAA gebencht. Ich würde es viel interessanter finden die Unterschiede nochmal mit reinem 4xMSAA Modus zu sehen.
Und spätestens hier soll mir noch jemand sagen, der G71 würde deutlich weniger Energie brauchen. Auch NV kocht nur mit Wasser. ;)
Skandalös! Da erlaubt sich doch glatt eine Webseite, auch Spiele zu testen, wo Ati nicht vorn liegt? Tststs...
Ich glaube er meint OpenGL Games. OpenGL ist aber imho so gut wie tot. Von daher würde ich auf Dauer keine grosse Bedeutung mehr diesen Games geben. :)
reunion
2007-04-14, 17:10:32
Skandalös! Da erlaubt sich doch glatt eine Webseite, auch Spiele zu testen, wo Ati nicht vorn liegt? Tststs...
War ja klar, dass jetzt wieder so eine kindische Bemerkung kommt. Es ist halt auffällig, dass dort durchgehend relativ neue Spiele getestet werden, aber die zwei besagten Spiele aus dem Jahr 2004 noch immer mitgeschleppt werden. Und genau diese zwei verzerren das Rating nicht gerade unerheblich.
Und genau diese zwei verzerren das Rating nicht gerade unerheblich.
Schade, dass du die Bemerkung für kindisch hältst, denn in meinen Augen komplettieren sie das Rating eher. Denn ich spiele gern auch mal ältere Games - dann natürlich in extremen Qualitätseinstellungen.
Aktuell freue ich mich gerade am sinnlosen Geballer in Starship Troopers - liegt der CB-Spiele bei.
Q
reunion
2007-04-14, 17:43:39
Schade, dass du die Bemerkung für kindisch hältst, denn in meinen Augen komplettieren sie das Rating eher. Denn ich spiele gern auch mal ältere Games - dann natürlich in extremen Qualitätseinstellungen.
Aktuell freue ich mich gerade am sinnlosen Geballer in Starship Troopers - liegt der CB-Spiele bei.
Q
Das ist eine Begründung, das vorher war billige Anmache. All in all fordern diese Spiele besagte Grafikkarten kaum noch. Vor allem, da sich der Test ja eigentlich sogar um einen G80 dreht, sollte man doch auf eine Aktualität der Spiele achten. Ich denke das interessiert mehr, als ob jetzt endlich die 200fps-Marke in Doom3 geknackt wird - soweit zumindest meine Meinung.
Das ist eine Begründung, das vorher war billige Anmache. All in all fordern diese Spiele besagte Grafikkarten kaum noch. Vor allem, da sich der Test ja eigentlich sogar um einen G80 dreht, sollte man doch auf eine Aktualität der Spiele achten. Ich denke das interessiert mehr, als ob jetzt endlich die 200fps-Marke in Doom3 geknackt wird - soweit zumindest meine Meinung.
Naja, Starship Troopers hat bsw. schöne Stencilschatten mit Weichspüloption - meine 7900 GTO bricht da in >1280x960 schon ordentlich ein in einigen Szenen, wenn dutzende Arachnoiden auf die Stellung zurennen.
Und dass nur mit 4xAA - von Hybrid-Modi oder TSSAA ganz zu schweigen. Ähnlich finde ich es eben sinnvoll, solche Einstellungen mit ein paar älteren Games zu testen - zumal bei CB ja die neuen Teile nicht zu kurz kommen.
Q
Ich denke das interessiert mehr, als ob jetzt endlich die 200fps-Marke in Doom3 geknackt wird - soweit zumindest meine Meinung.Riddick ist auch heute noch verdammt fordernd für die Grafikkarte. Vorrausgesetzt die Softshadows sind aktiviert, was aber nur auf Nvidia-Karten funktioniert, da eine Nvidia-spezifische-OpenGL-Extension benutzt wird.
Was spricht denn gegen 2x 6Pin PCIe Stecker? Bei >150W ist es eh nötig.
Die fehlende Möglichkeit der Übertaktung. Die ist nur möglich, wenn auch der 8Pin Stecker angeschlossen wurde.
Die fehlende Möglichkeit der Übertaktung. Die ist nur möglich, wenn auch der 8Pin Stecker angeschlossen wurde.
Und das - wenn es denn tatsächlich so ist - würde wiederum die Tatsache stützen, dass 225 Watt nicht nur erreicht, sondern auch im Spielbetrieb übertroffen werden können. Darunter sind ja auch 225 Watt mit 2x6-Pin-Steckern genug.
Zum Vergleich: Nvidia (ok, ist nicht die objektivste Quelle...) gibt die TDP der 8800 GTX mit 185 Watt an, real seien aber nur bis max. 145 Watt erreicht worden im Labor.
Wiederum "wenn" das alles so stimmt, hätte das R600-Topmodell wohl einen deutlich höheren Leistungsbedarf.
Q
Hvoralek
2007-04-14, 18:21:29
Ich habe noch keine D3D10 Benchmarks vom G80 in Games gesehen, du etwa?
Sollte also D3D10 die Graka mehr Auslasten wird auch dementsprechend der Stromverbrauch leicht nach oben gehen.Es gibt aus naheliegenden Gründen noch keine D3D10- Benchmarks. Sinnvoll sind natürlich nur Vergleiche unter den selben Bedingungen, was zumindest bedeutet, dass unter D3D10 nicht mehr Effekte zu berechnen sein dürfen als unter D3D9. Dann wird sich am Stromverbrauch nicht allzu viel ändern, v.a. aber würde auch die Leistung des G80 steigen. Jedenfalls sinkt die Energieeffizienz unter D3D10 sicher nicht, solange die Grafik der unter D3D9 gleicht.
Ich auch nicht, deswegen auch: "(auch wenns Blödsinn ist)"Du bestehst darauf, nur Karten derselben Generation zu vergleichen, hast aber nur "blödsinnige" Kriterien, um zu bestimmen, was man nun vergleichen können/ dürfen soll und was nicht? :confused:
Du solltest vielleicht dir mal Settings angucken wo die CPU nicht limitiert. ;)
Ich sehe da bei 1600x1200 4xAA/16xAF einen Vorteil von 48% für die X1950XTX im Durchschnitt bei den getesteten Games von CB.Jo, da habe ich nicht genau hingesehen. Unter 1600x1200 liegt die X1900XTX mit 4x/16x um 39% vorne, mit 1x/1x 15%. Unter 1280x1024 4x/16x sind es übrigens übrigens bereits 36%. Das liegt also nicht an einem CPU- Limit (Die verwenden auch einen 3,46- GHz- Conroe), sondern an AA/AF. Mit AA hat die X1900 natürlich per se einen gewissen Vorteil, aber wohl nicht in der Größenordnung. Kann es sein, dass die Fälle, in denen NV4x- Karten kein AA können, mit 0 fps in den Durchschnitt eingerechnet wurden? Zu AF wäre zu sagen, dass hier NV- HQ gegen AI Standard gebencht wird, worüber man sich wohl zumindest unterhalten kann.
Was die Spieleauswahl anbelangt, müssen neuere Spiele nicht zwangsläufig besonders zukunftsweisende Anforderungen stellen. Wenn man annimmt, dass v.a. Arithmetikleistung an Bedeutung gewinnen wird, müsste man weniger Riddick wegen unzeitgemäßer Anforderungen kritieren (immerhin einiges an Normal Mapping), sondern eher (auch neuere) Shaderlangweiler und Füllratenfresser wie Serious Sam 2, FEAR, Oblivion- Außengebiete und wahrscheinlich auch Gothic- 3-.
Ungeachtet all dessen liegt eine X1900XTX ohne AA 15% vorne und mit 39% (Ich nehme nicht die X1950XTX, weil die über GDDR4 verfügt. Es geht um die Effizienz des Chips; bei G71 dürfte sich durch Verwendung von stromsparenderem GDDR4 die Energieeffizienz in ähnlichem Maße steigern lassen). Bei 43% höherem Stromverbrauch ist G71 also jedenfalls effizienter. Und zumindest ohne AA/AF (Bei den Durchschnittswerten mit sollte man wie gesagt vorsichtig sein) auch sehr deutlich.
Und spätestens hier soll mir noch jemand sagen, der G71 würde deutlich weniger Energie brauchen. Auch NV kocht nur mit Wasser. ;) R580 ist etwa 1/3 komplexer als G71, beide bestehen fast nur aus Recheneinheiten und die Spitzenmodelle takten gleich schnell. Es ist naheliegend, dass G71 weniger Energie braucht und das tut er ja auch unstreitig. Die Frage ist, ob dem Mehraufwand bei R580 ein entsprechender Leistungszuwachs gegenübersteht (Ein entsprechender Mehrwert sicherlich, auch beim eindeutig vorhandenen Vorsprung und höherer BQ durch Area- AF und MS auf FP-16-Targets. Das ist übrigens das, was ich oben mit "im Einzelfall zu betrachten[den] [Sonderfaktoren]" meinte, auch wenn G7x und R5xx wohl auch für Dich zu derselben Generation gehören würden). Das gehört hier aber auch nicht wirklich hin.
Und eine X1950pro sollte weniger Strom schlucker als eine 7900GTX.Das sollte sie, RV570 wird in 80nm gefertigt. Zudem ist die Karte nur mit AA/AF nur geringfügig langsamer als die 7900 GTX, ohne ist das schon ein erheblicher Abstand.
Nakai
2007-04-14, 19:14:44
Es zeigt einfach nur das NV den Support der alten Generation schleifen lässt.
Und NV war bis jetzt schon immer schlechter mit AA und AF dran.
Hier verliert NV nicht unbedenklich viel an Performance.(etwa 10%)
Jedoch kann die neue Generation hier mit einem kleineren Verlust auftrumpfen.
mfg Nakai
dargo
2007-04-14, 20:41:34
Die fehlende Möglichkeit der Übertaktung. Die ist nur möglich, wenn auch der 8Pin Stecker angeschlossen wurde.
Das musst du mir jetzt mal genauer erklären. Eine TDP von 200W (inoffiziell) und dafür sollen 2x 6Pin Stecker mit max. 225W nicht ausreichen? :|
Wie hoch takten die denn die Karte dann, auf 1200Mhz damit die von geschätzten realen ~160W auf 225W kommt?
Nakai
2007-04-14, 20:44:01
Das musst du mir jetzt mal genauer erklären. Eine TDP von 200W (inoffiziell) und dafür sollen 2x 6Pin Stecker mit max. 225W nicht ausreichen? :|
Wie hoch takten die denn die Karte dann, auf 1200Mhz damit die von geschätzten realen ~160W auf 225W kommt?
Vll benötigt man einfach diesen 8 Pin Stecker um eine Übertaktung zuzulassen.
mfg Nakai
LovesuckZ
2007-04-14, 20:47:04
Das musst du mir jetzt mal genauer erklären. Eine TDP von 200W (inoffiziell) und dafür sollen 2x 6Pin Stecker mit max. 225W nicht ausreichen? :|
Ich frage mich, woher du diesen TDP wert hast?
Und wer sagt, dass dieser TDP Wert nicht eine realistische Angabe ist?
dargo
2007-04-14, 20:54:26
Jo, da habe ich nicht genau hingesehen. Unter 1600x1200 liegt die X1900XTX mit 4x/16x um 39% vorne, mit 1x/1x 15%. Unter 1280x1024 4x/16x sind es übrigens übrigens bereits 36%. Das liegt also nicht an einem CPU- Limit (Die verwenden auch einen 3,46- GHz- Conroe), sondern an AA/AF.
Ähm, was soll das sonst sein wenn die Graka in höherer Auflösung mit AA/AF den Vorsprung weiter ausbauen kann? :|
Die CPU verhindert eben in 1280 immer noch eine vollständige Entfaltung der Graka-Power. Nach deiner Auffassung ist dann laut CB:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/24/#abschnitt_performancerating
eine G8800GTX auch nur 69% schneller (1600x1200 4xAA/16xAF) als die X1950XTX? Komisch, dass ich schon Fälle gesehen habe wo es >100% waren.
Ungeachtet all dessen liegt eine X1900XTX ohne AA 15% vorne und mit 39% (Ich nehme nicht die X1950XTX, weil die über GDDR4 verfügt. Es geht um die Effizienz des Chips; bei G71 dürfte sich durch Verwendung von stromsparenderem GDDR4 die Energieeffizienz in ähnlichem Maße steigern lassen). Bei 43% höherem Stromverbrauch ist G71 also jedenfalls effizienter. Und zumindest ohne AA/AF (Bei den Durchschnittswerten mit sollte man wie gesagt vorsichtig sein) auch sehr deutlich.
Hvoralek, wenigstens von dir hätte ich erwartet, dass du ein CPU-Limit erkennen kannst. ;(
Und wer sagt, dass dieser TDP Wert nicht eine realistische Angabe ist?
Und wer sagt, dass von den 200W TDP nicht real nur 160W bleiben? Was hälst du davon wenn wir dieses Thema nach dem Launch nochmal behandeln?
LovesuckZ
2007-04-14, 20:59:33
Und wer sagt, dass von den 200W TDP nicht real nur 160W bleiben? Was hälst du davon wenn wir dieses Thema nach dem Launch nochmal behandeln?
Du bist der jenige, der davon ausgeht, dass die TDP Angabe nicht realistisch ist.
Daher darfst du gerne erklären, warum dies bei AMD so sein sollte.
dargo
2007-04-14, 21:22:53
Du bist der jenige, der davon ausgeht, dass die TDP Angabe nicht realistisch ist.
Zieht eine G8800GTX auch 177-185W real?
Daher darfst du gerne erklären, warum dies bei AMD so sein sollte.
Ich werde eine Teufel tun. ;)
LovesuckZ
2007-04-14, 21:29:40
Zieht eine G8800GTX auch 177-185W real?
Was hat die 8800GTX oder nVidia mit der Angabe des TDP des r600 zu tun?
w0mbat
2007-04-14, 21:41:32
Er mein daß das TDP des R600 wohl auch zu hoch gegriffen ist wenn nVidia es beim G80 auch so macht.
Fetza
2007-04-14, 22:00:41
Bitte eine interessante Frage am Rande:
So verkehrt sollte es doch nicht sein, wenn man eine X2900 XL zu einem A64 Singlecore 3800+ OC 2,65 Ghz gesellt mit 1,5GB Ram.
Da würde wohl die X2900 XT zu stark werden dafür, und damit zu viel brachliegende Leistung einbüßen. Mit der XL könnte es durchaus ausgeglichener werden, oder ist doch mein Prozzi viel zu schwach für ne
R600 XL?
Ist nicht OT, da dies sicherlich viele interessieren wird, welchen Prozessor man der XL/XT gegenstelles sollte. (C2D ist ja klar, aber habe den mal eben nicht!)
Das kommt auf das Display an. Bist du auf 1280x1024 beschränkt, sollte es mind. ein X6800 sein, wenn möglich übertaktet. Hast du dagegen ein 30"-LCD mit 2560x1600 reicht bestimmt auch dein 3800+.
Q
Meiner meinung nach reicht dein prozzi durchaus noch, immerhin kannst du ja die xl mit ordentliche af/aa auststatten, dafür kann eine gpu nie stark genug sein. Bei so ner utopen auflösung wie der 25er macht nur ein sli system sinn.
greetz
AnarchX
2007-04-14, 22:03:09
Hier gibt es noch einen etwas erweiterten Einblick auf das PCB der RV630XT:
http://img403.imageshack.us/img403/2966/attachment2ca2142fa7.jpg
Auch ein ziemlich aufwendiges PCB.
dargo
2007-04-14, 22:14:55
Hier gibt es noch einen etwas erweiterten Einblick auf das PCB der RV630XT:
http://img403.imageshack.us/img403/2966/attachment2ca2142fa7.jpg
Auch ein ziemlich aufwendiges PCB.
Links hat man aber ziemlich viel Platz am PCB verschwendet. Oder liegts am Foto?
Nakai
2007-04-14, 22:16:09
Hui, der Kühler ist doch nicht so groß.
Ansonsten sieht die Karte heiß aus.
Ein 1 Slotdesign wäre auch möglich gewesen.
mg Nakai
dargo
2007-04-14, 22:33:24
Hui, der Kühler ist doch nicht so groß.
Das könnte auch ein stinknormaler Zalman oder eine Zalman-Kopie sein.
Nakai
2007-04-14, 22:34:28
Zalmankopie;)
Es verdeutlicht nur wieder, dass die Karte nicht so viel Strom frisst.
mfg Nakai
Es verdeutlicht nur wieder, dass die Karte nicht so viel Strom frisst.
mfg Nakai
Kühler dieser Ausmaße gibt es auch für den r520, r580.
Die fressen dann wohl ebenfalls "nicht so viel Strom", gell?
Hvoralek
2007-04-14, 22:40:30
Ähm, was soll das sonst sein wenn die Graka in höherer Auflösung mit AA/AF den Vorsprung weiter ausbauen kann? :|
Die CPU verhindert eben in 1280 immer noch eine vollständige Entfaltung der Graka-Power.Lass mal AA/AF außen vor und betrachte nur die Entwicklung bei höherer Auflösung: In 1280x1024 1x/1x liegt die 7900 GTX bei 89% der Leistung einer X1900XTX, in 1600x1200 immer noch bei 87%. Mit 4x/16x liegt die GTX bei 73% der XTX (1280) bzw. bei 72% (1600). Der Vorsprung steigt zwar mit höherer Auflösung, aber nur noch marginal. Es gibt einen Einfluss des Prozessors, aber der ist nicht mehr der Rede wert. Oder nennst Du *das* CPU- Limit?
Dass die XTX in 1600x1280 4x/16x viel weiter vorne liegt als in 1280x1024 1x/1x, scheint fast komplett am AA/AF zu liegen. Ansonsten müsste der Vorsprung in 1280x1024 4x/16x zumindest ähnlich groß sein wie 1600x1200 1x/1x.
Nach deiner Auffassung ist dann laut CB:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/24/#abschnitt_performancerating
eine G8800GTX auch nur 69% schneller (1600x1200 4xAA/16xAF) als die X1950XTX? Komisch, dass ich schon Fälle gesehen habe wo es >100% waren.Hier sieht es ähnlich aus: Mit 4x/16x steigt der Vorsprung in 1600 um ganze 2 Prozentpunkte gegenüber 1280, von 65% auf 67%. Und das trotz fast 50% höherer Auflösung (In 1280x1024 ohne AA/AF scheint es noch eine leichte CPU- Limitierung zu geben. Da steigt der Vorsprung durch die höhere Auflösung noch von 52 auf 62%). Viel größer als unter 4x/16x würde der Vorsprung wohl auch bei reiner GraKa- Limitierung nicht werden.
Dass man die Durchschnittsergebnisse der CB- Artikel nicht unkritisch als Stein der Weisen nehmen sollte (obwohl die ziemlich gute Arbeit abliefern), habe ich ja oben schon gesagt. Mir kommen "nur" etwa 2/3 Vorsprung für eine 8800 GTX auch etwas wenig vor. Das liegt aber nur zu einem kleinen Teil am verwendeten Prozessor.
Jedenfalls scheint das Bild von pcgh.de, welches sie auf der Cebit geschossen haben, wirklich einen rv630 darzustellen.
Das lässt schlimmer befürchten.
dargo
2007-04-14, 22:49:48
Lass mal AA/AF außen vor und betrachte nur die Entwicklung bei höherer Auflösung: In 1280x1024 1x/1x liegt die 7900 GTX bei 89% der Leistung einer X1900XTX, in 1600x1200 immer noch bei 87%. Mit 4x/16x liegt die GTX bei 73% der XTX (1280) bzw. bei 72% (1600). Der Vorsprung steigt zwar mit höherer Auflösung, aber nur noch marginal. Es gibt einen Einfluss des Prozessors, aber der ist nicht mehr der Rede wert. Oder nennst Du *das* CPU- Limit?
Natürlich liegt ein CPU-Limit vor. Zwar nicht zu 100%, er ist aber da. Sonst wäre der Vorsprung bei höherer Graka-Last nicht größer. Sehe es auch anders - würde man den Test in 1600x1200 ohne AA/AF mit einem C2D @5-6Ghz wiederholen wäre der Vorsprung der X1950XTX genau wieder bei ~48%.
Dass die XTX in 1600x1280 4x/16x viel weiter vorne liegt als in 1280x1024 1x/1x, scheint fast komplett am AA/AF zu liegen. Ansonsten müsste der Vorsprung in 1280x1024 4x/16x zumindest ähnlich groß sein wie 1600x1200 1x/1x.
Das würde bedeuten, dass die Graka-Last bei 1280x1024 4xAA/16xAF genauso hoch ist wie bei 1600x1200 1xAA/1xAF, was garantiert nicht der Fall ist!
Dass man die Durchschnittsergebnisse der CB- Artikel nicht unkritisch als Stein der Weisen nehmen sollte (obwohl die ziemlich gute Arbeit abliefern), habe ich ja oben schon gesagt. Mir kommen "nur" etwa 2/3 Vorsprung für eine 8800 GTX auch etwas wenig vor. Das liegt aber nur zu einem kleinen Teil am verwendeten Prozessor.
Dafür gibts zwei Möglichkeiten. Entweder limitiert der Prozessor die GTX noch, oder der G80 bricht bei TSSAA stärker ein als ein R580 mit AAA.
würde man den Test in 1600x1200 ohne AA/AF mit einem C2D @5-6Ghz wiederholen wäre der Vorsprung der X1950XTX genau wieder bei ~48%.Nicht unbedingt. Die GF7 bricht bei Nutzung von MSAA deutlich stärker ein als die R580-Karten.
dargo
2007-04-14, 23:02:49
Nicht unbedingt. Die GF7 bricht bei Nutzung von MSAA deutlich stärker ein als die R580-Karten.
Dann mach von mir aus aus den 48% 35-40%. Oder willst du mich jetzt auf einstellige Bereiche festnageln?
Ändert nichts daran, dass die Pro/Mhz Verlustleistung vom G71 nahezu gleich dem R580 ist. Und wenn jemand behauptet der G80 hätte eine deutlich bessere P/M V als der R580 dann hat er damit recht. Aber dann sollte man auch erwähnen, dass der G71 genauso schlecht in dieser Hinsicht in Relation zum G80 steht wie ein R580.
Hvoralek
2007-04-14, 23:12:56
Natürlich liegt ein CPU-Limit vor. Zwar nicht zu 100%, er ist aber da. Sonst wäre der Vorsprung bei höherer Graka-Last nicht größer. Sehe es auch anders - würde man den Test in 1600x1200 ohne AA/AF mit einem C2D @5-6Ghz wiederholen wäre der Vorsprung der X1950XTX genau wieder bei ~48%.Der Vorsprung steigt beim Schritt von 1280 auf 1600 (knapp 50% mehr Pixel) von 18% auf 22%. Weil die Bedeutung des Prozessors immer geringer wird, würde er bei noch höherer Auflösung langsamer steigen. Wie hoch soll denn dann die Auflösung sein, bei der ohne AA/AF Deine 48% erreicht würden?
Da werden z.T. ganz andere Anforderungen gestellt. Schau Dir z.B. mal das hier (http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/23/#abschnitt_performancerating) an. Ohne AA/AF liegt in 1280 eine 7800GTX knapp vor einer X1800XT und der Vorsprung steigt in 1600 noch marginal. Mit AA/AF liegt die X1800XT vorne und auch deren Vorsprung steigt mit höherer Auflösung.
Dafür gibts zwei Möglichkeiten. Entweder limitiert der Prozessor die GTX noch, oder der G80 bricht bei TSSAA stärker ein als ein R580 mit AAA.Unter 4x/16x liegt die 8800GTX in 1280 bei 167% der Leistung einer 1950XTX und in 1600 bei 169%. Der Einfluss des Prozessors ist nahe Null. Selbst bei der 8800GTX.
Ändert nichts daran, dass die Pro/Mhz Verlustleistung vom G71 nahezu gleich dem R580 ist.Bei gleichem Takt (650 MHz, also 7900GTX bzw. X1900XTX) braucht R580 etwa 43% mehr Strom. Ich glaube, dass dessen Pro- MHz- Verlustleistung um einiges größer ist, steht außer Frage :wink:
Auch das Verhältnis der Rechen- zur Verlustleistung ist bei G71 in jedem Fall besser, selbst wenn man die 39% mit AA/AF zu Grunde legt. Ohne AA/AF (Ich würde für die X1900XTX et 20% Vorsprung als Grenzwert für reine GraKa- Limitierung schätzen) deutlich besser.
Nakai
2007-04-14, 23:21:26
Sagen wirs so:
Die Leistung pro Watt der X1950XTX steigt mit ansteigender Auflösung und Qualitätsfeatures an, bis zum Gleichstand etwa mit der Geforce 7900GTX.
mfg Nakai
dargo
2007-04-14, 23:33:07
Der Vorsprung steigt beim Schritt von 1280 auf 1600 (knapp 50% mehr Pixel) von 18% auf 22%. Weil die Bedeutung des Prozessors immer geringer wird, würde er bei noch höherer Auflösung langsamer steigen. Wie hoch soll denn dann die Auflösung sein, bei der ohne AA/AF Deine 48% erreicht würden?
Wie kommst du jetzt auf höhere Auflösung? Ich habe gesagt, dass ein C2D@5-6Ghz (was bis zu ~73% mehr Leistung der CB CPU entsprechen würde) höchstwahrscheinlich in 1600x1200 ohne AA/AF eine CPU-Limitierung vollständig ausschließen würde.
Unter 4x/16x liegt die 8800GTX in 1280 bei 167% der Leistung einer 1950XTX und in 1600 bei 169%. Der Einfluss des Prozessors ist nahe Null. Selbst bei der 8800GTX.
Was bringt dich zur dieser Schlussfolgerung? Schau dir mal Oblivion in 1600x1200 ohne AA/AF an:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/16/
Komisch, dass hier selbst ohne AA/AF eine X1950XTX 49% und eine G8800GTX sogar stolze 306% schneller ist als eine G7900GTX. :rolleyes:
Bei gleichem Takt (650 MHz, also 7900GTX bzw. X1900XTX) braucht R580 etwa 43% mehr Strom. Ich glaube, dass dessen Pro- MHz- Verlustleistung um einiges größer ist, steht außer Frage :wink:
Mein Güte, du weiß genau was ich meine. Ein Mhz leistet bei der Graka X x% mehr als bei Graka Y. Was ist dann bei der Pro/Mhz Verlustleistung so schwer zu verstehen?
Kühler dieser Ausmaße gibt es auch für den r520, r580.
Die fressen dann wohl ebenfalls "nicht so viel Strom", gell?
Die Karte wird sich wahrscheinlich auch leistungsmäßig auf dem Niveau befinden, also ist der Stromverbrauch durchaus legitim. Die Stromversorgung auf dem PCB sieht für eine gehobene Mainstreamkarte richtig imposant und qualitativ hochwertig aus.
reunion
2007-04-14, 23:51:19
Und wer sagt, dass dieser TDP Wert nicht eine realistische Angabe ist?
Das lässt sich schon alleine deswegen sagen, weil die TDP von 240W über den 225W liegt, die man mit zwei 6-Pin-Stecker liefern kann, mit welchen die Karten ohne Übertaktung laufen soll. Und da hier noch einiges an Knautschzone für Spitzen, und minderwertige Mainboards, Netzteile, etc. blieben muss, würde ich jede Wette eingehen, dass du damit nicht über 200W kommst. Zumindest gab es bis jetzt noch keine einzige Karten welche diese Spezifikationen auch nur annähernd ausgereizt hätte, und das wohl nicht ganz ohne Grund.
Hier sieht es ähnlich aus: Mit 4x/16x steigt der Vorsprung in 1600 um ganze 2 Prozentpunkte gegenüber 1280, von 65% auf 67%. Und das trotz fast 50% höherer Auflösung (In 1280x1024 ohne AA/AF scheint es noch eine leichte CPU- Limitierung zu geben. Da steigt der Vorsprung durch die höhere Auflösung noch von 52 auf 62%). Viel größer als unter 4x/16x würde der Vorsprung wohl auch bei reiner GraKa- Limitierung nicht werden.
Dass man die Durchschnittsergebnisse der CB- Artikel nicht unkritisch als Stein der Weisen nehmen sollte (obwohl die ziemlich gute Arbeit abliefern), habe ich ja oben schon gesagt. Mir kommen "nur" etwa 2/3 Vorsprung für eine 8800 GTX auch etwas wenig vor. Das liegt aber nur zu einem kleinen Teil am verwendeten Prozessor.
Das liegt zum Teil eben auch daran, dass viele diese älteren Spiele eine solche Karte eben nicht ausreizen.
Jedenfalls scheint das Bild von pcgh.de, welches sie auf der Cebit geschossen haben, wirklich einen rv630 darzustellen.
Das lässt schlimmer befürchten.
Ganz im Gegenteil, dass lässt gutes befürchten. Ein anständiger Kühler, der die warme Luft nach außen führt. Und der nur ca. 5cm breite Streifen des Kühlkörpers zeigt deutlich, dass dies nicht wegen der Verlustleistung so ist.
LovesuckZ
2007-04-15, 00:01:00
Die Karte wird sich wahrscheinlich auch leistungsmäßig auf dem Niveau befinden, also ist der Stromverbrauch durchaus legitim. Die Stromversorgung auf dem PCB sieht für eine gehobene Mainstreamkarte richtig imposant und qualitativ hochwertig aus.
I don't think so.
Die Karte wird leistungsmäßig sich auf rv570 Niveau einpendeln, also genau dort wo auch der g84 sich befindet.
Ganz im Gegenteil, dass lässt gutes befürchten. Ein anständiger Kühler, der die warme Luft nach außen führt. Und der nur ca. 5cm breite Streifen des Kühlkörpers zeigt deutlich, dass dies nicht wegen der Verlustleistung so ist.
Der Kühlkörper besteht aus reinem Kupfer. Damit könnte man wahrscheinlich den g84 passiv kühlen...
Man muss nur beide Bilder der Karten vergleichen, dass der große und wahrscheinlich teure Kühler bestimmt nicht wegen Nächstenliebe verwendet wird.
http://www.pcgameshardware.de/screenshots/medium/8600GTS_2.jpg
http://img368.imageshack.us/img368/9249/imgp5526os5.jpg
deekey777
2007-04-15, 00:10:41
Hier gibt es noch einen etwas erweiterten Einblick auf das PCB der RV630XT:
http://img403.imageshack.us/img403/2966/attachment2ca2142fa7.jpg
Auch ein ziemlich aufwendiges PCB.
'Ne kleine Spinnerei:
RV630: http://www.pcgameshardware.de/?menu=browser&mode=article&article_id=571589&entity_id=-1&image_id=594529&page=1
RV630: http://www.pcgameshardware.de/?menu=browser&mode=article&article_id=571589&entity_id=-1&image_id=594532&page=1
RV560: http://www.xbitlabs.com/articles/video/display/radeon-x1650xt_3.html
RV570: http://www.xbitlabs.com/articles/video/display/x1950pro-gf7900gs_3.html
RV560 = RV570 - 1*Pixelblock - 128 bit.
dargo
2007-04-15, 00:15:10
Der Kühlkörper besteht aus reinem Kupfer. Damit könnte man wahrscheinlich den g84 passiv kühlen...
Man muss nur beide Bilder der Karten vergleichen, dass der große und wahrscheinlich teure Kühler bestimmt nicht wegen Nächstenliebe verwendet wird.
http://www.pcgameshardware.de/screenshots/medium/8600GTS_2.jpg
http://img368.imageshack.us/img368/9249/imgp5526os5.jpg
Außer viel Plastik sehe ich da bei der ATI nicht wirklich viel Kühlkörper was auf eine hohe Verlustleistung deuten könnte.
reunion
2007-04-15, 00:44:55
Der Kühlkörper besteht aus reinem Kupfer. Damit könnte man wahrscheinlich den g84 passiv kühlen...
Man muss nur beide Bilder der Karten vergleichen, dass der große und wahrscheinlich teure Kühler bestimmt nicht wegen Nächstenliebe verwendet wird.
http://www.pcgameshardware.de/screenshots/medium/8600GTS_2.jpg
http://img368.imageshack.us/img368/9249/imgp5526os5.jpg
Sofern das ein RV630 ist (denn selbst das ist nicht sicher, da alle von ATi ausgestellten RV630-Boards deutlich kürzen sind), will ich nicht bestreiten, dass man mit diesen Kühler zumindest theoretisch eine höhere Verlustleistung abführen könnte als mit dem der 8600GTS. Allerdings ist es verdammt gewagt, die Verlustleistung anhand des Kühlers abzuleiten. Man weiß nicht, wie schnell die Lüfter drehen, man weiß nicht, wie heiß die Chips werden, etc. Dass zumindest bei beiden Cores das kleinere Modell ohne externen Stromanschluss auskommt, lässt schonmal darauf schließen, dass es hier keinen riesigen Unterschiede geben wird.
Soll eine R600 mit 512MB GDDR3 sein:
http://img368.imageshack.us/img368/9249/imgp5526os5.jpg
AnarchX
2007-04-15, 06:53:58
Soll eine R600 mit 512MB GDDR3 sein:
http://img368.imageshack.us/img368/9249/imgp5526os5.jpg
Das ist eine HD 2600XT, schau einfach mal das Bild auf der letzen Seite an.
reunion
2007-04-15, 08:05:26
AMD preps lineup including 1024 HD baby: Five models at launch, HD Audio and HDMI supported all the way (http://www.the-inquirer.net/default.aspx?article=38923)
The R600 1GB is very interesting. Originally, we heard about this product as a GDDR-4 only, and it is supposed to launch on Computex. We heard more details, and now you need to order at least 100 cards to get it, it will be available in limited quantities only.
limitiert,schlecht für den preis
Hvoralek
2007-04-15, 09:20:31
Sagen wirs so:
Die Leistung pro Watt der X1950XTX steigt mit ansteigender Auflösung und Qualitätsfeatures an, bis zum Gleichstand etwa mit der Geforce 7900GTX.Kleiner Änderungsantrag: Bei hohen Qualitätsfeatures liegt die Energieeffizienz der beiden in höheren Auflösungen ungefähr gleichauf. So könnte ich das unterschreiben.
Wie kommst du jetzt auf höhere Auflösung? Ich habe gesagt, dass ein C2D@5-6Ghz (was bis zu ~73% mehr Leistung der CB CPU entsprechen würde) höchstwahrscheinlich in 1600x1200 ohne AA/AF eine CPU-Limitierung vollständig ausschließen würde.Weil eine höhere Auflösung die GraKa zusätzlich belastet, den Prozessor aber nicht. Natürlich würde eine noch weitere Übertaktung den Einfluss des Prozessors ebenso noch weiter verringern. Aber wie gesagt, ist der ist auch so schon sehr gering. Bei der 8800 GTX ohne AA/AF meinetwegen auch nur "gering", jedenfalls spielt der auf R580- Niveau fast keine Rolle mehr. In 1600x1200 1x/1x liegt z.B. eine X1900XT 33% vor einer X1950 Pro (Und die ist 1/3 breiter bei marginal höherem Takt und fast gleicher Bandbreite). Selbst wenn die Differenz mit einem angenommen unendlich starken Prozessor 5% größer wäre: Würdest Du das "CPU- limitiert" nennen? :|
Was bringt dich zur dieser Schlussfolgerung? Schau dir mal Oblivion in 1600x1200 ohne AA/AF an:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/16/
Komisch, dass hier selbst ohne AA/AF eine X1950XTX 49% und eine G8800GTX sogar stolze 306% schneller ist als eine G7900GTX. :rolleyes: Was ist neu daran, dass G7x sich in Oblivion völlig blamiert? Dass er dort weit unterdurchschnittlich abschneidet, heißt doch nicht, dass die anderen Ergebnisse nur durch Einfluss der CPU nicht genauso schlecht ausfallen.
Mein Güte, du weiß genau was ich meine. Ein Mhz leistet bei der Graka X x% mehr als bei Graka Y. Was ist dann bei der Pro/Mhz Verlustleistung so schwer zu verstehen?Was soll wohl mein Smilie dort oben?
Das Kuriose ist, dass ich Dich wirklich missverstanden hatte. Ich nahm an, Du meintest mit "Pro/Mhz Verlustleistung" das Verhältnis von Energieverbrauch und Leistung (worum es soweit ich das verstanden habe, bisher auch ging). Wenn Du aber nun die Pro- MHz- Leistung von R580 meinst: Dass die besser ist als bei G71, ist wohl unstrittig, klar. Allerdings ist auch dessen Pro- MHz- Verlustleistung höher.
Das liegt zum Teil eben auch daran, dass viele diese älteren Spiele eine solche Karte eben nicht ausreizen.Was hat die Auslastung der GraKa mit dem Alter oder den Anforderungen des Spiels zu tun? Dafür ist doch v.a. wichtig, dass der Prozessor die Karten nicht ausbremst, was er hier zumindest nicht in erwähnenswertem Maße tut, s.o.. Wofür spielt es eine Rolle, ob ein Spiel nun im Durchschnitt n Takte für einen Frame braucht und z.B. mit 50 fps läuft oder ob es n/2 Takte braucht und mit 100 fps läuft?
dargo
2007-04-15, 09:36:21
Selbst wenn die Differenz mit einem angenommen unendlich starken Prozessor 5% größer wäre: Würdest Du das "CPU- limitiert" nennen? :|
Jep, der Prozessor verhindert eben, dass die Karte noch mehr Frames darstellen kann. :)
Das Kuriose ist, dass ich Dich wirklich missverstanden hatte. Ich nahm an, Du meintest mit "Pro/Mhz Verlustleistung" das Verhältnis von Energieverbrauch und Leistung (worum es soweit ich das verstanden habe, bisher auch ging).
Du hast mich schon richtig verstanden. :)
Eben das Verhältnis von Energieverbrauch und Leistung ist in etwa gleich dem G71.
MechWOLLIer
2007-04-15, 09:43:51
Skandalös! Da erlaubt sich doch glatt eine Webseite, auch Spiele zu testen, wo Ati nicht vorn liegt? Tststs...
btw: Wolfgang, wie fließen eigentlich die beiden "nicht möglich"-Wertungen in Oblivion und CoJ für Geforce in Qualitätseinstellungen in das Rating mit ein?
CoJ fließt in die Qualitätsratings gar nicht mit ein, um das Rating nicht unnötig zu verzerren. In den "Performance"-Einstellungen ist CoJ mit aufgenommen wie die anderen Spiele.
In den bisherigen Artikeln mit dem neuen Testsystem (so viele sind das ja noch gar nicht) legt sich die 7x00 im Qualitätsrating in den Spielen, die sie nicht darstellen kann (Ausnahme CoJ) auf den Boden, sprich, bekommt in den Anwendungen 0 Prozent, als hätte sie da 0 FPS (was sie ja auch irgendwie hat).
Klingt hart, aber wir wollten die Spiele schon mit ins Rating nehmen, weil die doch aussagekräftig sind. Und da die GeForce 8x00 mit HDR+AA kein Problem hat, sahen wir da auch kein Hindernis dran.
Ab dem nächsten Test haben wir aber zusätzlich noch ein weiteres "HDR-bereinigtes" Rating. In diesem wird kein Benchmark mit HDR+AA aufgenommen, sprich ein quasi neutrales Ergebnis für die 7x00. Das ganze sieht in 1600x1200 4xAA+16xAF dann so aus:
nVidia GeForce 8800 GTX
100,0
nVidia GeForce 7950 GX2
72,0
nVidia GeForce 8800 GTS
71,5
ATi Radeon X1950 XTX
63,7
nVidia GeForce 8800 GTS 320
62,5
ATi Radeon X1900 XTX
60,3
ATi Radeon X1900 XT
57,2
ATi Radeon X1900 XT 256
53,1
nVidia GeForce 7900 GTX
50,8
nVidia GeForce 7950 GT
43,9
ATi Radeon X1950 Pro
42,9
War ja klar, dass jetzt wieder so eine kindische Bemerkung kommt. Es ist halt auffällig, dass dort durchgehend relativ neue Spiele getestet werden, aber die zwei besagten Spiele aus dem Jahr 2004 noch immer mitgeschleppt werden. Und genau diese zwei verzerren das Rating nicht gerade unerheblich.
Die Spiele sind da schon absichtlich drin. Nicht jeder spielt auf einer aktuellen Grafikkarte immer das Neueste. Und zudem sehe ich da kein großes Problem an, die Spiele (vor allem Riddick) sind immer noch gut GPU-limitiert. Nur weil da nicht x SM3-Shader drin sind ist ein Programm kein schlechter Benchmark. Mit ATi oder nVidia hat das nichts zu tun.
CoJ fließt in die Qualitätsratings gar nicht mit ein, um das Rating nicht unnötig zu verzerren. In den "Performance"-Einstellungen ist CoJ mit aufgenommen wie die anderen Spiele.
In den bisherigen Artikeln mit dem neuen Testsystem (so viele sind das ja noch gar nicht) legt sich die 7x00 im Qualitätsrating in den Spielen, die sie nicht darstellen kann (Ausnahme CoJ) auf den Boden, sprich, bekommt in den Anwendungen 0 Prozent, als hätte sie da 0 FPS (was sie ja auch irgendwie hat).
Klingt hart, aber wir wollte die Spiele schon mit ins Rating nehmen, weil die doch aussagekräftig sind. Und da die GeForce 8x00 mit HDR+AA kein Problem hat, sahen wir da auch kein Hindernis dran.
Ab dem nächsten haben wir aber zusätzlich noch ein weiteres "HDR-bereinigtes" Rating. In diesem wird ken benchmark mit HDR+AA aufgenommen, sprich ein quasi neutrales Ergebnis für die 7x00. Das ganze sieht in 1600x1200 4xAA+16xAF dann so aus:
nVidia GeForce 8800 GTX
100,0
nVidia GeForce 7950 GX2
72,0
nVidia GeForce 8800 GTS
71,5
ATi Radeon X1950 XTX
63,7
nVidia GeForce 8800 GTS 320
62,5
ATi Radeon X1900 XTX
60,3
ATi Radeon X1900 XT
57,2
ATi Radeon X1900 XT 256
53,1
nVidia GeForce 7900 GTX
50,8
nVidia GeForce 7950 GT
43,9
ATi Radeon X1950 Pro
42,9
Aha - vielen Dank für die Erklärung. Da gibt es sicherlich Meinungen in die eine oder die andere Richtung, aber das so zu machen ist eure Entscheidung und sicherlich auch eine valide Möglichkeit.
Q
Hvoralek
2007-04-15, 10:18:43
Jep, der Prozessor verhindert eben, dass die Karte noch mehr Frames darstellen kann. :)Du sprichst also bereits von CPU- Limitierung, wenn der Prozessor z.B. einen Einfluss von 5% auf das Ergebnis hat und die GraKa einen von 95%? Wenn man das so sieht, ist der Test natürlich "CPU- limitiert", aber ich würde, um das so zu formulieren, schon verlangen, dass der Prozessor einen nennenswerten Anteil zum Gesamtergebnis beisteuert. Für Fälle wie hier würde ich eher von "geringfügiger" oder "leichter" CPU- Beeinflussung (oder meinetwegen auch "- Limititerung") sprechen. Denn irgendeinen 0,2%igen Einfluss anderer Kompontenten wirst Du nicht immer ganz wegbekommen. Die Frage ist nur, ob der groß genug ist, um ausführlich beachtet zu werden und ggf. das Ergebnis ganz zu verwerfen oder ob man sagen kann "n% Differenz +/- Kleinkram wegen Einfluss anderer Komponenten, Messungenauigkeiten usw".
Du hast mich schon richtig verstanden. :)
Eben das Verhältnis von Energieverbrauch und Leistung ist in etwa gleich dem G71.*gnarf* - Naja, dann hatte ich beim ersten Anlauf das verstanden, was Du meintest, und beim zweiten etwas anderes, was aber immerhin eindeutig stimmt :biggrin:
Wenn allederdings selbst in 1600x1200 4x/16x, wenn man nur die Tests bewertet, an denen alle Karten teilnehmen können (Vielen Dank übrigens für die Klarstellung der Berechnungsmethode), nur noch 19% Vorsprung der X1900XTX bleiben, dürfte das bei 43% höherem Stromverbrauch wohl vom Tisch sein.
Und bevor das Argument kommt, es sei eben Pech für G7x, wenn die die technischen Voraussetzungen dafür nicht mitbringen würden: Natürlich ist MS auf FP16- Targets eine tolle Sache, aber ebenso wie wu AF eine Frage der Bildqualität und nicht der Leistung. Dass R5xx auf dem Gebiet weit vorne liegt, bestreitet wohl niemand.
Nakai
2007-04-15, 10:24:57
AMD preps lineup including 1024 HD baby: Five models at launch, HD Audio and HDMI supported all the way (http://www.the-inquirer.net/default.aspx?article=38923)
Kommt aber etwas spät, diese News. Es fehlen aber Modelle.
Kleiner Änderungsantrag: Bei hohen Qualitätsfeatures liegt die Energieeffizienz der beiden in höheren Auflösungen ungefähr gleichauf. So könnte ich das unterschreiben.
Dann passt ja alles.
mfg Nakai
Kommt aber etwas spät, diese News. Es fehlen aber Modelle.
Und um welche Modelle handelt es sich dabei?
dargo
2007-04-15, 10:33:18
Wenn allederdings selbst in 1600x1200 4x/16x, wenn man nur die Tests bewertet, an denen alle Karten teilnehmen können (Vielen Dank übrigens für die Klarstellung der Berechnungsmethode), nur noch 19% Vorsprung der X1900XTX bleiben, dürfte das bei 43% höherem Stromverbrauch wohl vom Tisch sein.
Nein, vom Tisch ist gar nichts hier. Schau dir doch einfach die Benchmarks von neueren Spielen an. Und dann von mir aus in BQ von 1600x1200 ohne AA/AF damit nicht wieder das Argument kommt von wegen A.i Low beim R580.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/8/
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/10/
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/11/
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/14/
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/16/
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/22/
In Gothic 3 ist das Ergebnis für den G71 sogar vernichtend!
AnarchX
2007-04-15, 10:45:59
http://img341.imageshack.us/img341/639/attachment239ce1nt9.jpg (http://imageshack.us)
http://img341.imageshack.us/img341/7116/attachment24b2a7mr1.jpg (http://imageshack.us)
http://we.pcinlife.com/thread-749836-1-1.html
dargo
2007-04-15, 10:55:01
http://img341.imageshack.us/img341/639/attachment239ce1nt9.jpg (http://imageshack.us)
http://img341.imageshack.us/img341/7116/attachment24b2a7mr1.jpg (http://imageshack.us)
http://we.pcinlife.com/thread-749836-1-1.html
Was soll das jetzt sein ? Eine X2900XT?
Hmm, für einen E6600 gar nicht mal so schlecht oder? Der müsste hier noch etwas limitieren denke ich.
PS: wie gut performt 3DMark06 in Vista vs. XP?
Was soll das jetzt sein ? Eine X2900XT?
Hmm, für einen E6600 gar nicht mal so schlecht oder? Der müsste hier noch etwas limitieren denke ich.
"Etwas" ist gut. :)
Wenn die GPU leistungsfähiger ist als alles bisherige, dürfte die CPU Limitierung noch größer sein, als bei allen anderen Chips und eine fast lineare Skalierung die Folge sein. Jedenfalls ohne AA.
Der E6600 ist ja sogar noch untertaktet. Bei 3,46 GHz, wie sie z.B. die computerbase geändert hat, stünden 45 % mehr CPU Power zur Verfügung.
Ronny145
2007-04-15, 11:03:47
Der E6600 ist ja sogar noch untertaktet.
4 Mhz?
Was schafft denn eine 8800 GTX dort mit einem C2D 2,4 Ghz?
reunion
2007-04-15, 11:09:39
4 Mhz?
Was schafft denn eine 8800 GTX dort mit einem C2D 2,4 Ghz?
Ungefähr das gleiche IMO. Leider gibt es im 3dmark06-Thread niemanden mit genau dieser Konfiguration. Wäre schön, wenn das man jemand gegentesten könnte. Auf jeden Fall limitiert dort die CPU. Was am ehestens noch passt: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4997723&postcount=50
Mit einer übertaktetem 8800GTX (630/1000) und einer CPU-Score die geringfügig unter denen des dort verwendeten Prozessores liegt kommt Radeonfreak auf 9323 Punkte.
AnarchX
2007-04-15, 11:11:10
Was soll das jetzt sein ? Eine X2900XT?
AFAIK eine 1GB-Version, immerhin ist es ja auch die Seite welche die OEM-Karte hatte. ;)
Hvoralek
2007-04-15, 11:12:53
Nein, vom Tisch ist gar nichts hier. Schau dir doch einfach die Benchmarks von neueren Spielen an. Und dann von mir aus in BQ von 1600x1200 ohne AA/AF damit nicht wieder das Argument kommt von wegen A.i Low beim R580.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/8/
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/10/
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/11/
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/14/
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/16/
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/22/
In Gothic 3 ist das Ergebnis für den G71 sogar vernichtend!
Ich habe nicht damit angefangen, mich auf das Performance- Rating zu beziehen. Es sollte aber klar sein, dass kein einzelnes Spiel für sich repräsentative Anforderungen stellt. Dass zeitlich später Erschienene nicht unbedingt die größte Aussagekraft für künftige Anforderungen haben müssen, habe ich oben schon dargelegt.
Über den Testparcours kann man sich immer streiten. Wenn man aber unterstellt, dass dieses CB- Performance- Rating einen brauchbaren Durchschnitt darstellt (was abgesehen von Reunion und mir bisher glaube ich niemand bezweifelt hat), ist die Pro- Watt- Leistung zumindest eindeutig besser.
Bei den sechs von Dir genannten Spielen liegt übrigens eine X1900XTX nur in Gothic 3 bzgl. der Leistung deutlich weiter vor der 7900GTX als bzgl. Energieverbrauchs dahinter (71% - Dass G7x da Scheiße ist, ist nun keine neue Erkenntnis). Ansonsten ist nur in CoJ der Vorsprung mit 47% noch etwas größer als der Mehrverbrauch. In Oblivion liegt er mit 43% gleichauf, in allen anderen Spielen verbraucht die XTX mehr mehr als sie mehr leistet. Und bei Oblivion kann ich nur immer wieder betonen, dass das in Innengebieten ganz anders aussieht: Mit AF in FP16 (http://firingsquad.com/hardware/oblivion_high-end_performance/page7.asp) liegt die XTX nur knapp vorne, mit AA und AF in FX8 (http://firingsquad.com/hardware/oblivion_high-end_performance/page8.asp) sogar minimal hinten.
Insgesamt dürfte die Energieeffizienz der beiden Karten bei den von Dir genannten Spielen ziemlich gleichauf liegen (Dank Gothic 3). Insgesamt sieht das aber anders aus.
"Etwas" ist gut. :)
Wenn die GPU leistungsfähiger ist als alles bisherige, dürfte die CPU Limitierung noch größer sein, als bei allen anderen Chips und eine fast lineare Skalierung die Folge sein. Jedenfalls ohne AA.
Der E6600 ist ja sogar noch untertaktet. Bei 3,46 GHz, wie sie z.B. die computerbase geändert hat, stünden 45 % mehr CPU Power zur Verfügung.OMG! Vier MHz mehr würden das Ergebnis natürlich grundlegend verändern :eek: :rolleyes:
Die SM2/3- Ergebnisse sollten nur marginal von der CPU unabhängig sein und mit denen einer 8800GTX ohne weiteres vergleichbar sein. Das Gesamtergebnis dürfte bei so einer Karte mit einem stärkeren Prozessor aber um einiges besser ausfallen.
Logotech
2007-04-15, 11:13:51
Ich habe bei vr-zone.com gelesen,dass eine kleine Chiptakterhöhung zu einem dramatischen Leistungsvorsprung bringen kann:rolleyes: Dann frage ich mich,wieso das nicht bei jeder Karte so ist?
OMG! Vier MHz mehr würden das Ergebnis natürlich grundlegend verändern :eek:
Einschließlich des etwas geringeren Speichertakts kostet das schon ein paar Punkte.
Wenn das Mainboard so sorgsam mit der CPU umgeht, könnte man evtl annehmen, das dieses von den BIOS Einstellungen her gar nicht sehr optimiert ist.
Bei meinem liegen zwischen Standardsettings von CPU+RAM und optimierten Settings fast 5 %, obwohl sich nix am CPU+RAM Takt änderte.
Das ist nicht mehr zu "vernachlässigen".
dargo
2007-04-15, 11:20:46
Der E6600 ist ja sogar noch untertaktet. Bei 3,46 GHz, wie sie z.B. die computerbase geändert hat, stünden 45 % mehr CPU Power zur Verfügung.
LOL, ganze 4Mhz. :D
Als Vegleich:
GTS@standard:
SM2.0 = 3909
SM3.0 = 3750
GTS@612/900Mhz
SM2.0 = 4531
SM3.0 = 4386
System, siehe Sig. Ich habe die CPU Leistung in etwa angeglichen (2640Mhz, also 10% mehr wegen 2MB Cache). Wie man hier sieht limitiert ein E6600 nur minimal. Normalerweise habe ich durch die Graka Übertaktung eine Leistungssteigerung von 19%. Hier kommen 16-17% an.
AFAIK eine 1GB-Version, immerhin ist es ja auch die Seite welche die OEM-Karte hatte. ;)
Für eine XTX finde ich aber das Ergebnis (zumindest im 3DMark06) nicht gerade berauschend. :cool:
Ist in etwa G8800GTX Niveau, zumindest in den HDR Tests.
Edit:
Ach verdammt, da gibts noch einen Test in 1600x1200. :ugly:
Augenblick ...
Edit2:
Mist, bin ich heute besoffen?
Ich habe ja nur einen 19" TFT. :crazy:
Blacksoul
2007-04-15, 11:23:08
Ungefähr das gleiche IMO. Leider gibt es im 3dmark06-Thread niemanden mit genau dieser Konfiguration. Wäre schön, wenn das man jemand gegentesten könnte. Auf jeden Fall limitiert dort die CPU. Was am ehestens noch passt: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4997723&postcount=50
Mit einer übertaktetem 8800GTX (630/1000) und einer CPU-Score die geringfügig unter denen des dort verwendeten Prozessores liegt kommt Radeonfreak auf 9323 Punkte.
Mit einem unübertakteten E6600 und den Treibereinstellungen auf "default" kommt eine unübertaktete GTX auf etwas mehr als 10000 Punkte im 3D Mark 2006. Jedenfalls unter Windows XP. Unter Vista kann ich leider keine Ergebnisse liefern.
t.b.d
reunion
2007-04-15, 11:26:54
Mit einem unübertakteten E6600 und den Treibereinstellungen auf "default" kommt eine unübertaktete GTX auf etwas mehr als 10000 Punkte im 3D Mark 2006. Jedenfalls unter Windows XP. Unter Vista kann ich leider keine Ergebnisse liefern.
t.b.d
Und wieviel CPU bzw. SM2/SM3 Score erreichst du mit diesem System? Da man nicht weiß, wie der dortige PC konfiguriert ist, wäre das wohl ein besserer Anhaltspunkt als die Gesamtpunktzahl. Interessant wären auch noch Ergebnisse in 1600x1200 um die Last mehr in Richtung Graka zu lenken.
dargo
2007-04-15, 11:36:10
Und bei Oblivion kann ich nur immer wieder betonen, dass das in Innengebieten ganz anders aussieht: Mit AF in FP16 (http://firingsquad.com/hardware/oblivion_high-end_performance/page7.asp) liegt die XTX nur knapp vorne, mit AA und AF in FX8 (http://firingsquad.com/hardware/oblivion_high-end_performance/page8.asp) sogar minimal hinten.
Das ist jetzt nicht dein Ernst oder? Schon mal die Test CPU gesehen? X-D
http://firingsquad.com/hardware/oblivion_high-end_performance/page2.asp
CPU-Limit wohin man schaut! Von den Treiberversionen sprechen wir lieber nicht.
Ich habe die Tage mal eine GTX durch den Murks06 gejagt - allerdings mit einem C2E, daher ist das Gesamtergebnis nicht vergleichbar, die SM2/3-HDR-Score jedoch einigermaßen.
SM2: 5019
SM3: 4939
Je nachdem, was für ein "r600-Series"-Ding das dort ist, kann das Ergebnis von enttäuschend (XTX) bis hin zu hervorragend (XL/GT) sein.
Q
CPU-Limit wohin man schaut! Von den Treiberversionen sprechen wir lieber nicht.
Dabei warst du doch immer der Experte in diesen Fragen :(
Siehe dazu auch: http://firingsquad.com/hardware/oblivion_high-end_performance/page7.asp
Und nun die Frage: Liegt hier eine CPU-Limitierung vor?
Insgesamt dürfte die Energieeffizienz der beiden Karten bei den von Dir genannten Spielen ziemlich gleichauf liegen (Dank Gothic 3). Insgesamt sieht das aber anders aus.
Genau wüssten wir's, wenn wir Ergebnisse des SM3-HDR-Tests NR.1 aus dem 3DMark06 hätten - in 1.600x1.200. Damit haben die Xbitlabs ihre direkten Verbrauchsmessungen gemacht (X1950XTX: ~124W, 7900GTX: ~84W). Dort kann man es daher genau ausrechnen - bei Spielen, vor allem einem Mittelwert, spielen ja noch etliche andere Komponenten mit hinein.
Q
LOL, ganze 4Mhz. :D
4 MHz sind 4 MHz.
Außerdem sinds zwischen 2396 und 3466 MHz doch ein paar mehr. :)
System, siehe Sig. Ich habe die CPU Leistung in etwa angeglichen (2640Mhz, also 10% mehr wegen 2MB Cache). Wie man hier sieht limitiert ein E6600 nur minimal. Normalerweise habe ich durch die Graka Übertaktung eine Leistungssteigerung von 19%. Hier kommen 16-17% an.
Null Inhalt dieses Posting. Die Karte wurde auf Vista; E6600@2396 gebencht und nicht auf einem E6400@2640 und bei dir noch XP?
Du verzerrst das Bild völlig.
reunion
2007-04-15, 11:45:52
Ich habe die Tage mal eine GTX durch den Murks06 gejagt - allerdings mit einem C2E, daher ist das Gesamtergebnis nicht vergleichbar, die SM2/3-HDR-Score jedoch einigermaßen.
SM2: 5019
SM3: 4939
Je nachdem, was für ein "r600-Series"-Ding das dort ist, kann das Ergebnis von enttäuschend (XTX) bis hin zu hervorragend (XL/GT) sein.
Q
Wenn ich das mit den Werten von Radeonfreaks übertakteter 8800GTX vergleiche, zeigt das schonmal, dass zumindest der SM2-Test doch relativ deutlich von einer schnelleren CPU profitiert, während der SM3-Test eher weniger mitskaliert. Der am ehesten vergleichbare, da weitgehend plattformunabhängig Wert wäre also wohl der SM3-Test in 1600 x 1200. Aber solange man nichtmal weiß, um welche Karte es sich hier konkret handelt, ist das auch nur wenig von nutzen.
dargo
2007-04-15, 11:51:31
Dabei warst du doch immer der Experte in diesen Fragen :(
Siehe dazu auch: http://firingsquad.com/hardware/oblivion_high-end_performance/page7.asp
Und nun die Frage: Liegt hier eine CPU-Limitierung vor?
Natürlich, was denn sonst?
http://firingsquad.com/hardware/oblivion_high-end_performance/images/1024indoorshdr.gifhttp://firingsquad.com/hardware/oblivion_high-end_performance/images/1600indoorshdr.gif
http://firingsquad.com/hardware/oblivion_high-end_performance/images/indoorsaa1024.gifhttp://firingsquad.com/hardware/oblivion_high-end_performance/images/indoorsaa1600.gif
Mehr brauche ich wohl dazu nicht sagen oder?
Edit:
Moment ... wurde mit AA etwa ohne HDR gebencht? Dann sieht die Sache schon etwas anders aus. Klar, ein G7x kann ja überhaupt kein HDR+MSAA. Wie stark war der Performanceunterschied zwischen Bloom und HDR?
Wenn ich das mit den Werten von Radeonfreaks übertakteter 8800GTX vergleiche, zeigt das schonmal, dass zumindest der SM2-Test doch relativ deutlich von einer schnelleren CPU profitiert, während der SM3-Test eher weniger mitskaliert.
Der SM3-Test ist auch für die Hose.
Radeonfreak:
HDR1: 48,x
HDR2: 43,x
Ich:
HDR1: 45,x
HDR2: 53,x
Schade eigentlich. Also abwarten - von einer Enttäuschung bis zu einer positiven Überraschung ist noch einiges drin.
Q
w0mbat
2007-04-15, 11:58:09
Schaut mal auf die verwendeten Treiber -.-
Natürlich, was denn sonst?
http://firingsquad.com/hardware/oblivion_high-end_performance/images/1024indoorshdr.gifhttp://firingsquad.com/hardware/oblivion_high-end_performance/images/1600indoorshdr.gif
http://firingsquad.com/hardware/oblivion_high-end_performance/images/indoorsaa1024.gifhttp://firingsquad.com/hardware/oblivion_high-end_performance/images/indoorsaa1600.gif
Mehr brauche ich wohl dazu nicht sagen oder?
Was willst du denn dazu sagen? Dass es einen ~43%igen Einbruch beim Wechsel von 1024 auf 1600 gab spricht nicht gerade für ein CPU-Limit. Ebensowenig, dass der Wechsel von einer X1900 XT auf eine marginal schnellere XTX noch 3 Fps bringt.
Q
Mehr brauche ich wohl dazu nicht sagen oder?
Doch eigentlich schon.
Wenn die CPU limitiere, brechen dann immer die Frames von 1024*768 -> 1600*1200 um 73% ein? Wieso limitiere beim Einsatz vom AA (abgesehen vom Wechsel des HDR zu Bloom) dann ausgerechnet die CPU und nicht andere Faktoren (Füllrate, Rechenleistung)?
dargo
2007-04-15, 12:03:58
4 MHz sind 4 MHz.
Ich bitte dich. Mach dich nicht lächerlich. Wen jucken 4Mhz CPU Frequenz bei einem Benchmark wo die GPU zu >90% limitiert? Bei 1600x1200 sollte die GPU schon nahezu zu 100% limitieren.
Außerdem sinds zwischen 2396 und 3466 MHz doch ein paar mehr. :)
Wo hast du die 3466Mhz jetzt her :confused:
Null Inhalt dieses Posting. Die Karte wurde auf Vista; E6600@2396 gebencht und nicht auf einem E6400@2640 und bei dir noch XP?
Du verzerrst das Bild völlig.
Es sollte nur als grober Anhaltspunkt gelten, mehr auch nicht. ;)
Ich habe nicht umsont gefragt wie Vista im Vergleich zu XP mit dem 3DMark06 performt.
Mr. Lolman
2007-04-15, 12:08:54
[...] in allen anderen Spielen verbraucht die XTX mehr mehr als sie mehr leistet. [...]
Es kann auch mit dem Mehrverbrauch anders aussehen. Kommt nur draufan von wo man sich die Zahlen holt. Außerdem ist man wohl selbst schuld wenn man die R580 nicht undervoltet. Meine XTX rennt@default Takten mit 1.375V anstatt 1.45, div. X1900XT packen auch 1.275V.
Die 7900GTX kann kein HDR + AA dafür aber Hybridmodi. Die ATis haben wiederum mit EATM nen schönen Vorteil. Als 7900GTX Käufer kann man halt jetzt nur mehr auf die Hybridmodi und den Verbrauch pochen. Tatsächlich ists schon seit Jahren so, dass NV GraKas schneller alt werden, als ATi Karten...
dargo
2007-04-15, 12:09:04
Doch eigentlich schon.
Wenn die CPU limitiere, brechen dann immer die Frames von 1024*768 -> 1600*1200 um 73% ein? Wieso limitiere beim Einsatz vom AA (abgesehen vom Wechsel des HDR zu Bloom) dann ausgerechnet die CPU und nicht andere Faktoren (Füllrate, Rechenleistung)?
Da hier unter AA kein HDR verwendet worden ist brauchen wir über diesen Benchmark gar nicht weiter zu diskutieren. Dieser Test hat sich für mich somit disqualifiziert. Außerdem frage ich mich was mir dieser Indoor Benchmark zeigen soll? Dass ich mit einem G71 auf Außenlevels verzichten soll? :D
PS: zu den alten Treibern hat sich auch noch keiner geäußert.
Wenn es euch weiter hilft, hier mal eine CPU Score 2537 Marks
Is mit einem E4300@9x333 gemacht. Nun weis ich nich, inwiefern man die 500 punkte aufrechnen kann auf die gesamte Punkte vergabe.
Es kann auch mit dem Mehrverbrauch anders aussehen. Kommt nur draufan von wo man sich die Zahlen holt. Außerdem ist man wohl selbst schuld wenn man die R580 nicht undervoltet. Meine XTX rennt@default Takten mit 1.375V anstatt 1.45, div. X1900XT packen auch 1.275V.
Ich dachte eigentlich, die hätte 1,2V als Standard (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/28/#abschnitt_stromverbrauch). :confused:
dargo
2007-04-15, 12:21:03
Ich dachte eigentlich, die hätte 1,2V als Standard (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/28/#abschnitt_stromverbrauch). :confused:
Das ist die standard Spannung der GPU in Idle.
Mr. Lolman
2007-04-15, 12:21:11
Ich dachte eigentlich, die hätte 1,2V als Standard (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/28/#abschnitt_stromverbrauch). :confused:
Nö, beide haben 1.2V@2D, die X1900XT hat 1.4V@3D und die X1900XTX hat 1.45V@3D.
dargo
2007-04-15, 12:22:40
Nö, beide haben 1.2V@2D, die X1900XT hat 1.4V@3D und die X1900XTX hat 1.45V@3D.
Eine X1900XT hat in 3D 1,45V an der GPU.
Außerdem ist man wohl selbst schuld wenn man die R580 nicht undervoltet.
Nö, da ist Ati schuld dran - niemand sonst.
Q
Mr. Lolman
2007-04-15, 12:27:18
Nö, da ist Ati schuld dran - niemand sonst.
Q
Man ist selbst schuld, wenn man nen R580 besitzt, sich übern Stromverbrauch aufregt, aber nicht auf die Idee kommt, sein Kärtchen selbst zu undervolten - Damit zeig ich ja wie, hinfällig diese Diskussion, mit dem Energieverbauch ist. Entweder ists einem egal, oder man unternimmt was dagegen.
Eine X1900XT hat in 3D 1,45V an der GPU.
Also doch auch. Hm, sollt mal testen wie weit ich mit 1.275V komm...
Man ist selbst schuld, wenn man nen R580 besitzt, sich übern Stromverbrauch aufregt, aber nicht auf die Idee kommt, sein Kärtchen selbst zu undervolten - Damit zeig ich ja wie, hinfällig diese Diskussion, mit dem Energieverbauch ist. Entweder ists einem egal, oder man unternimmt was dagegen.
Nein, wenn es bei allen Karten so problemlos wäre, hätte Ati das ja auch selbst absenken können. Meinst du, die Leute dort sind dumm? Damit hätten sie den einzigen echten Kritikpunkt am R580 zum Erscheinungszeitpunkt aushebeln können.
Q
reunion
2007-04-15, 12:30:06
Insgesamt dürfte die Energieeffizienz der beiden Karten bei den von Dir genannten Spielen ziemlich gleichauf liegen (Dank Gothic 3). Insgesamt sieht das aber anders aus.
So ein Vergleich ist für eine allgemein gültige Aussage ohnehin nicht machbar. Die Karten leisten bei unterschiedlichen Anwendungen in keinster Weise proportional gleiche Ergebnisse, und auch der Stromverbrauch kann sich je nach Beanspruchung stark unterschieden. Xbitlabs misst ausschließlich mit dem 3dmark, eine andere Anwendung kann völlig andere Verbrauchswerte liefern. Auch sollte man nicht vergessen, dass ja nicht nur die Leistung auf die Transistorenanzahl und damit auf den Stromverbrauch schlägt, sondern eben auch zusätzliche Features. Wie willst du das mit einrechnen?
dargo
2007-04-15, 12:35:22
Nein, wenn es bei allen Karten so problemlos wäre, hätte Ati das ja auch selbst absenken können. Meinst du, die Leute dort sind dumm? Damit hätten sie den einzigen echten Kritikpunkt am R580 zum Erscheinungszeitpunkt aushebeln können.
Es ist aber wirklich problemlos möglich bei sehr vielen X1900XTs (ich würde sogar sagen bei allen) die Spannung per Software zu senken wenn man nicht übertakten will. Also wem Stromverbrauch wichtig ist der macht das dann auch wenn er so ein Karte besitzt. Da muss ich Mr. Lolman schon recht geben.
Dass ATI aber einen gewissen Polster der GPU geben muss ist auch selbstverständlich. Erstens gibt es Fertigungstoleranzen und zweitens muss so eine GPU auch noch bei 90-100°C fehlerfrei laufen.
9800ProZwerg
2007-04-15, 13:12:23
Kurz mal ne dumme Frage:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/april/weitere_details_r600-familie/
Da wird behauptet die Radeon HD 2900 XT mit 512 MB würde 200 Watt verbrauchen.
Wie viel verbraucht ne X1800XT unter Last? Deutlich weniger?
laser114
2007-04-15, 13:17:05
Die Sprechen von einer TDP von 200 Watt für die HD 2900 XT, der wirkliche Verbrauch wird aber unter der TDP liegen - das steht hier schon im Thread.
Ich habe aber leider grade keine Angaben über die X1800 XT zur Hand, aber die dürften etwas niedriger gewesen sein.
dargo
2007-04-15, 13:18:27
Kurz mal ne dumme Frage:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/april/weitere_details_r600-familie/
Da wird behauptet die Radeon HD 2900 XT mit 512 MB würde 200 Watt verbrauchen.
Wie viel verbraucht ne X1800XT unter Last? Deutlich weniger?
1. Es handelt sich um die sogenannte TDP bei den 200W
2. Eine X1800XT liegt bei etwa 103W.
9800ProZwerg
2007-04-15, 13:19:46
1. Es handelt sich um die sogenannte TDP bei den 200W
2. Eine X1800XT liegt bei etwa 108W.
Also das doppelte gegenüber der X1800XT:eek: ?
Bzw. was heißt TDP?
dargo
2007-04-15, 13:22:07
Bzw. was heißt TDP?
Thermal Design Power.
horn 12
2007-04-15, 13:25:35
@Dargo
Und eine X1950 PRO, wo liegt diese denn.
Glaubst meine NT Delta 450AA reicht noch aus für die "Neue" HD 2900 XL
Also das doppelte gegenüber der X1800XT:eek: ?
Nein, und zwar deswegen:
Bzw. was heißt TDP?
Thermal Design Power.
Also das doppelte gegenüber der X1800XT:eek:
Eine "Platinum Edition", wie du und ich sie haben, frisst aber nochmals bedeutend mehr als eine normale X1800 XT. Mehr Takt (700/800 MHz) und mehr Spannung (1,5 statt 1,4 Volt GPU, 2,2 statt 1,8 Volt beim RAM) sind nicht günstig. Ich habe meine Karte nach Tests unter Last mal rausgeworfen, dann waren's insgesamt rund 150 Watt weniger Verbrauch. Aber getestet mit 1,55 Volt und 729/891 MHz im 3DMark 2006. Das ist schon in 8800-GTX-Regionen ... X-D
MfG,
Raff
dargo
2007-04-15, 13:35:57
@Dargo
Und eine X1950 PRO, wo liegt diese denn.
Dazu fehlen mir leider Messungen. Ich würde die 512MB bei ca. 70-75W einschätzen.
Glaubst meine NT Delta 450AA reicht noch aus für die "Neue" HD 2900 XL
Das habe ich dir schon bestimmt 3x per PN beantwortet. Und daran wird auch keine andere Grafikkarte was ändern. Ich kann es dir nicht genau sagen da Chieftec bei deinem NT keine Angaben zur combined 12V Power macht. Da aber dein NT anscheinend 14/15 A je 12 V Schiene hat würde ich von mindestens 20-22A combined ausgehen. Hinzu kommt, dass noch gar nicht bekannt ist was eine X2900XL überhaupt an Strom zieht.
Eine "Platinum Edition", wie du und ich sie haben, frisst aber nochmals bedeutend mehr als eine normale X1800 XT. Mehr Takt (700/800 MHz) und mehr Spannung (1,5 statt 1,4 Volt GPU, 2,2 statt 1,8 Volt beim RAM) sind nicht günstig.
Jep, ohne Spannungserhöhung wären es ca. 110W, mit locker >130W.
horn 12
2007-04-15, 13:49:10
Gehen wir von 150-160 Watt aus, wird es da etwa noch reichen?
horn, ohne verlässlich nachgemessene reale Verbrauchswerte einer X2900 XL sind solche Orakeleien wenig sinnvoll.
MfG,
Raff
dargo
2007-04-15, 13:54:12
Gehen wir von 150-160 Watt aus, wird es da etwa noch reichen?
Das würde ich eher der X2900XT zumuten aber egal. Bei 20A combined 12V wird es schon langsam eng mit deiner CPU und 160W an der Graka. Dh. das NT würde am Limit laufen (ca. 85-90% Last).
horn, ohne verlässlich nachgemessene reale Verbrauchswerte einer X2900 XL sind solche Orakeleien wenig sinnvoll.
Rischtisch. :D
@Horn12
Warte doch erstmal reale Messungen der XL ab, ok? :)
AnarchX
2007-04-15, 14:25:53
Die Vista-Treiber des R600 scheinen wohl noch nicht ganz optimal:
http://img404.imageshack.us/img404/6958/attachment13b44fsm3.jpg (http://imageshack.us)
http://we.pcinlife.com/thread-749912-1-1.html
Blutmaul
2007-04-15, 14:33:14
Schon bekannt?
http://uk.theinquirer.net/?article=38925
Und auf Deutsch, etwas komprimiert:
http://de.theinquirer.net/2007/04/15/geforce_8800_ultra_seltener_al.html
Die Vista-Treiber des R600 scheinen wohl noch nicht ganz optimal:
http://img404.imageshack.us/img404/6958/attachment13b44fsm3.jpg (http://imageshack.us)
http://we.pcinlife.com/thread-749912-1-1.html
Sehr schön -deckt sich 1:1 mit meinen GTX-Werten (auch die CPU scheint er hier auf ~2,8 GHz hochgedreht zu haben - zumindest sagt meine CPU-Score nur noch <100 Punkte mehr mit dem X6800). Nur wäre das wirklich schade, wenn es sich hier um das Top-Modell handelte und die Treiber zumindest für den 3DMark schon optimiert worden sind. Dann müsste AMD woanders punkten - und ich befürchte ehrlich gesagt, dass im High-End, ander als im OEM und HTPC-Bereich, integrierte Audio-Durchschleife, Videobeschleunigung und HDMI nicht so besonders markante "Selling Points" sind.
Q
Black-Scorpion
2007-04-15, 14:41:09
Nein, wenn es bei allen Karten so problemlos wäre, hätte Ati das ja auch selbst absenken können. Meinst du, die Leute dort sind dumm? Damit hätten sie den einzigen echten Kritikpunkt am R580 zum Erscheinungszeitpunkt aushebeln können.
Q
Meine läuft Standard mit 1,2V laut ATT.
Und geht damit auf 580MHz Core (mit ATT ermittelt) und 3DMark05/06 getestet.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5400721&postcount=37
Und meine Karte hat keinen 2D/3D Takt.
Das ändert nichts daran, dass immer etwas Toleranz drin sein muss, damit wirklich jeder Fall stabil läuft. Ati hätte mit mehr Spannung auch eine X1950 XTX mit 750/1000 MHz auf den Markt bringen können. Die wäre dann aber wieder extrem ungesund für die Ohren (wie meine X1800 ;)).
MfG,
Raff
dargo
2007-04-15, 14:53:44
Dann müsste AMD woanders punkten - und ich befürchte ehrlich gesagt, dass im High-End, ander als im OEM und HTPC-Bereich, integrierte Audio-Durchschleife, Videobeschleunigung und HDMI nicht so besonders markante "Selling Points" sind.
Das will AMD angeblich auch, nämlich im Preis. Eine X2900XT 512MB soll angeblich eine UVP von 399$ abbekommen. Das nenne ich schon einen Kampfpreis wenn sich herausstellen sollte, dass die XTX kaum schneller ist bis auf den doppelten Vram.
Meine läuft Standard mit 1,2V laut ATT.
Das glaube ich dir gern, genauso wie ich lolmans Ergebnis glaube - trotz allem ändert es nichts daran, dass Ati dort eine Marge einkalkuliert hat, genau wie Nvidia auch. Zudem sind die Tests der GPU-Hersteller sicherlich auch etwas gründlicher als "ich habe keine Artefakte im 3DMark05/06" - die habe ich mit meiner freigeschalteten 6800nU nämlich auch nicht - wohl aber in anspruchsvolleren Shadern.
Und nun stell dir mal vor, wie teuer es eine Firma kommen würde, wenn ein großer Teil einer Charge nicht spezifikationsgemäß läuft, sprich: reproduzierbar abstürzt und sei es auch in einem etwas ungewöhnlichen Lastszenario.
Zudem können Rechenfehler auftreten, die du mit bloßem Auge überhaupt nicht bemerkst - bei GPGPU-Anwendungen aber das Ergebnis unbrauchbar machen.
Q
reunion
2007-04-15, 15:27:18
Die Vista-Treiber des R600 scheinen wohl noch nicht ganz optimal:
http://img404.imageshack.us/img404/6958/attachment13b44fsm3.jpg (http://imageshack.us)
http://we.pcinlife.com/thread-749912-1-1.html
Auffällig an den Werten ist vorallem mal, dass der SM3-Score über einer 8800GTX liegt, und der SM2-Score unter der GTX. Also die Stärken und Schwächen scheinen verschieden verteilt. Auch weiß man natürlich nicht, ob sich mit den finalen Treibern noch was ändern wird, bzw. mit welchen Treibern hier getestet wurde. VR-Zone gab ja erst vor kurzem bekannt, dass eine XT mit 512MB VRAM getaktet mit 750/820 und einem Core 2 Extreme QX6700 ca. 12K in 3dmark06 schafft, was knapp über einer 8800GTX liegen soll. Getestet mit den neuen 8.361-RC4-Treibern, die angeblich die Leistung ggü. früheren Treibern verbessert haben.
Sieht auf jeden Fall sehr spannend aus. Zu guter letzt bleibt allerdings das Totschlagargument, dass sich selbst ein NV30 im 3dmark nach einigen Treibertweaks gut behaupten konnte. Man wird also natürlich Spielebenchs abwarten müssen, und sich ein objektives Urteil erlauben zu können.
dildo4u
2007-04-15, 17:55:19
Hier noch ein 3Dmark Ergebniss wo whol der E6600@Default teilweise limitiert.
http://img341.imageshack.us/img341/639/attachment239ce1nt9.jpg
http://www.xtremesystems.org/forums/showthread.php?t=140848
Ich weiß, es ist kein echter Vergleich, aber wenn ich die Auflösung genug senke, um mit meiner 7900 GTO in diese Bereich zu kommen, liegen bei mir zwischen 390*8 und 390*6 in den Grafik-Tests 102 (SM2) respektive 472 Punkte Unterschied aufgrund der CPU. Ein USC könnte allerdings eine völlig andere Charakteristik aufweisen.
In 1.280x960 sind es nur noch 11 bzw. 6 Punkte Differenz. ;)
Q
Hier noch ein 3Dmark Ergebniss wo whol der E6600@Default teilweise limitiert.
http://img341.imageshack.us/img341/639/attachment239ce1nt9.jpg
http://www.xtremesystems.org/forums/showthread.php?t=140848
hm, wenn das so zutreffen sollte, was sollen dann die AMDler sagen? Da ist das Pro/Mhz ja deutlich schlechter. Das ein E6600 reicht um AMDs schnellste cpu zuvernaschen is klar.
Na da bin ich ja gespannt drauf.
Ronny145
2007-04-15, 18:21:33
Hier noch ein 3Dmark Ergebniss wo whol der E6600@Default teilweise limitiert.
Das ist leider schon alt, wurde schon ein paar Seiten vorher gepostet und diskutiert.
r3ptil3
2007-04-15, 18:47:17
Nö, beide haben 1.2V@2D, die X1900XT hat 1.4V@3D und die X1900XTX hat 1.45V@3D.
Manche X1900 XTX auch nur 1.175V@2D und 1.425V@3D.
Bei Bjoen3d.com erreicht eine 8800GTX mit einem e6600 9109 Punkte in 1600x1200.
http://www.bjorn3d.com/Material/revimages/video/foxconn_8800_gtx/3dm06_1600.jpg
Mr. Lolman
2007-04-15, 20:00:32
Manche X1900 XTX auch nur 1.175V@2D und 1.425V@3D.
Hm. Ich hab ne BBA. Vll drehen manche IHV da noch was rum, auf jedenfall, bleibt das Ding auch schon mit 1.375V deutlich kühler. Mit 1.25V und 600MHz dreht der Lüfter gar nie höher als 36% und bleibt aber trotzdem 10°C kühler als mit 1.45V, 650MHz und 59%...
Da sieht man mal was Spannung alles ausmacht
Hvoralek
2007-04-15, 22:37:24
Außerdem ist man wohl selbst schuld wenn man die R580 nicht undervoltet. Meine XTX rennt@default Takten mit 1.375V anstatt 1.45, div. X1900XT packen auch 1.275V.Ich habe erst einmal Werkseinstellungen angenommen. Wenn Du verlässlische Zahlen dafür hast, dass sich R580er in der Masse deutlich weiter herunterspannen lassen als G71er, kann man das mit einbeziehen.
Ich gehe aber davon aus, dass beide Seiten ungefähr die gleichen Toleranzen akzeptieren. Im Zweifel hatte Nvidia damals noch mehr Spielraum, durch höhere Spannungsreserven auch den Stromverbrauch zu erhöhen als ATI mit dem ohnehin schon höheren Verbrauch.
Es kann auch mit dem Mehrverbrauch anders aussehen. Kommt nur draufan von wo man sich die Zahlen holt.Es gibt leider nicht so viele brauchbare Verbrauchsmessungen. Wenn Du andere hast, immer her damit! Aber bitte bei Werkseinstellungen und keinen heruntergetakteten R580 gg. Standard- G71.
Die 7900GTX kann kein HDR + AA dafür aber Hybridmodi. Die ATis haben wiederum mit EATM nen schönen Vorteil. Als 7900GTX Käufer kann man halt jetzt nur mehr auf die Hybridmodi und den Verbrauch pochen. Tatsächlich ists schon seit Jahren so, dass NV GraKas schneller alt werden, als ATi Karten...Bitte nicht schon wieder eine Grundlagendebatte zwischen R5xx und G7x. Wie gesagt liegt ATI bei der BQ natürlich weit vorne, aber das lässt sich schwer in Zahlen fassen. Leistung/W kann man klar messen, (Leistung+BQ)/W leider nicht. Deshalb sollte man sich auf die Pro- Watt- Leistung beschränken und es bei "soundsoeine Pro- Watt- Leistung bei insoundsofern besserer/schlechterer BQ" belassen.
So ein Vergleich ist für eine allgemein gültige Aussage ohnehin nicht machbar. Die Karten leisten bei unterschiedlichen Anwendungen in keinster Weise proportional gleiche Ergebnisse, und auch der Stromverbrauch kann sich je nach Beanspruchung stark unterschieden. Xbitlabs misst ausschließlich mit dem 3dmark, eine andere Anwendung kann völlig andere Verbrauchswerte liefern.Solange die Karten ausgelastet sind und nicht wegen der CPU dauernd Däumchen drehen, glaube ich kaum, dass es da große Unterschiede gibt. Hast Du irgendwelche Verbrauchsmessungen, die deutlich anders ausfallen? Bei vielen Spielen wärem wohl die VS weniger beschäftigt und dafür die PS mehr, aber ich wäre erstaunt, wenn sich dadurch Abweichungen von mehr als etwa 10% ergeben.
Auch sollte man nicht vergessen, dass ja nicht nur die Leistung auf die Transistorenanzahl und damit auf den Stromverbrauch schlägt, sondern eben auch zusätzliche Features. Wie willst du das mit einrechnen?Ich wüsste nicht, wie man das sinnvoll einrechnen könnte. Unter Verweis auf oben sehe ich nur die Möglichkeit, dass als "soundsoeine Pro- Watt- Leistung bei besserer/schlechterer BQ/ Features" auszudrücken.
Da hier unter AA kein HDR verwendet worden ist brauchen wir über diesen Benchmark gar nicht weiter zu diskutieren. Dieser Test hat sich für mich somit disqualifiziert.Warum das?
Außerdem frage ich mich was mir dieser Indoor Benchmark zeigen soll? Dass ich mit einem G71 auf Außenlevels verzichten soll? :DIn Oblivion haben R5xx nur in Außengebieten einen hohen Vorsprung. Innenareale stellen völlig andere Anforderungen (v.a. spielt dort die Arithmetikeistung eine Rolle), sodass man nur in Außengebieten von einer etwa gleichen Pro- Watt- Leistung von R580 und G71 sprechen kann, nicht aber in Oblivion insgesamt. Natürlich ist man mehr in Außengebieten unterwegs.
PS: zu den alten Treibern hat sich auch noch keiner geäußert.Die Treiber sind die kurz nach Erscheinen des Spieles aktuellen beider Hersteller. Dementsprechend sind die natürlich gut ein Jahr alt, aber neuere Oblivion- Benchmarks, die nicht nur Außengebiete einbeziehen, habe ich nicht gefunden. Und zumindest seit Cataclyst 6,4 und Forceware 84.43 (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2/16/) hat sich nicht mehr viel getan (Beide haben etwas zugelegt, aber nur die 7900GTX in 1280x1024 in erwähnenswertem Maße). Inzwischen gibt es kleinere Verschiebungen, aber ich gehe davon aus, dass die XTX immer noch weit von 40% Vorsprung entfernt ist - Wie gesagt, zumindest in Außengebieten hat die GTX etwas stärker zugelegt. Gibt es konkrete Anhaltspunkte dafür, dass die Ergebnisse mit neuen Treibern deutlich anders aussähen?
Ailuros
2007-04-15, 23:17:51
Auffällig an den Werten ist vorallem mal, dass der SM3-Score über einer 8800GTX liegt, und der SM2-Score unter der GTX. Also die Stärken und Schwächen scheinen verschieden verteilt. Auch weiß man natürlich nicht, ob sich mit den finalen Treibern noch was ändern wird, bzw. mit welchen Treibern hier getestet wurde. VR-Zone gab ja erst vor kurzem bekannt, dass eine XT mit 512MB VRAM getaktet mit 750/820 und einem Core 2 Extreme QX6700 ca. 12K in 3dmark06 schafft, was knapp über einer 8800GTX liegen soll. Getestet mit den neuen 8.361-RC4-Treibern, die angeblich die Leistung ggü. früheren Treibern verbessert haben.
Sieht auf jeden Fall sehr spannend aus. Zu guter letzt bleibt allerdings das Totschlagargument, dass sich selbst ein NV30 im 3dmark nach einigen Treibertweaks gut behaupten konnte. Man wird also natürlich Spielebenchs abwarten müssen, und sich ein objektives Urteil erlauben zu können.
Spiele sind momentan ein gemischter Beutel; manchmal :| und manchmal :eek:
Egal von welchem Modell die angeblichen Benchmarks sind, die hoehere SM3.0/HDR Leistung imponiert mir kein bisschen bei der Bandbreite ;)
no_surrender
2007-04-16, 00:13:04
Ist mir schon bei nem CF gesapnn aus 2 x1950XTX aufgefallen wie hoch da der HDR und SM3 Punkte sind, in SM2 dagegen NV besser.
x1950XTX+CF
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5042674&postcount=74
8800GTX non SLI
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5023724&postcount=66
w0mbat
2007-04-16, 12:46:49
Alle 3DMark Benches wo die GFX als "R600 series" angezeigt wird sind Fake.
AnarchX
2007-04-16, 12:49:14
Alle 3DMark Benches wo die GFX als "R600 series" angezeigt wird sind Fake.
Und wie kommst du zu dieser Erkenntnis?
Es wäre ja nicht das erste Mal, dass ein früher Treiber die Karte noch mit Codenamen bezeichnet.
(+44)
2007-04-16, 12:54:36
Lass ihn doch, unser wombat hat immer alle Infos, darf aber keinem genauere Details verrraten ;)
Alle 3DMark Benches wo die GFX als "R600 series" angezeigt wird sind Fake.
Und wieso behauptest du dann hier genau das Gegenteil?
http://www.computerbase.de/forum/showpost.php?p=2726383&postcount=128
w0mbat
2007-04-16, 13:10:36
Weil ich es nicht genau weiß. Oft steht da noch der Codename, aber Gibbo im OcUk ist für mich glaubwürdiger. Zumal er auch die Ergebnisse für falsch hält.
AnarchX
2007-04-16, 13:16:31
Natürlich fälscht PCinlife die Scores, wenn sie einen OEM-R600 herumliegen haben. ;)
btw.
http://img206.imageshack.us/img206/8844/52472448gr4.jpg (http://imageshack.us)
http://img355.imageshack.us/img355/9987/18242049xh2.jpg (http://imageshack.us)
http://we.pcinlife.com/thread-750362-1-1.html
Blutmaul
2007-04-16, 13:23:44
Das ist jetzt der Beweis, das sie einen Stecker (Adapter) haben?
w0mbat
2007-04-16, 13:26:28
Nein, gab ja schon Bilder von der Karte.
deekey777
2007-04-16, 13:27:01
Das ist jetzt der Beweis, das sie einen Stecker (Adapter) haben?
Das ist der Beweis, dass sie HDMI per Adapter haben. :smile:
Aber warum steht da Rev. B? Ich habe vor Kurzem gelernt, dass es auch bei HDMI Dual-Link gibt (Type B), aber dies ist im Consumer-Markt eher Ausnahme.
Undertaker
2007-04-16, 13:32:12
Das ist der Beweis, dass sie HDMI per Adapter haben. :smile:
lol... dvi ist immer signalkompatibel zu hdmi, der adapter passt auch auf eine geforce 4 :D
deekey777
2007-04-16, 13:33:44
lol... dvi ist immer signalkompatibel zu hdmi, der adapter passt auch auf eine geforce 4 :D
Was heißt hier lol? Das DVI des R600 kann über diesen Adapter auch den Sound ausgeben.
laser114
2007-04-16, 13:34:11
lol... dvi ist immer signalkompatibel zu hdmi, der adapter passt auch auf eine geforce 4 :D
Und wo nimmt die Geforce 4 den Sound her? ;)
Edit: Ach, da wer DK777 schneller. ;)
Undertaker
2007-04-16, 13:40:20
Was heißt hier lol? Das DVI des R600 kann über diesen Adapter auch den Sound ausgeben.
und wer braucht das? realtec onboard hat doch eh jeder... :rolleyes:
PCGH_Carsten
2007-04-16, 13:43:24
Was heißt hier lol? Das DVI des R600 kann über diesen Adapter auch den Sound ausgeben.
Welche unbelegten DVI-Pins werden dafür genutzt?
deekey777
2007-04-16, 13:43:46
und wer braucht das? realtec onboard hat doch eh jeder... :rolleyes:
Hatten wir die Diskussion nicht schonmal?
Wer es genau braucht, spielt doch keine Rolle.
Welche unbelegten DVI-Pins werden dafür genutzt?
Ich habe da keine Ahnung, muss mich selbst auf die Aussage von Xmas verlassen:
It works because HDMI is backwards compatible to DVI, and the graphics card can query device capabillities. So the link will start in "DVI compatibility mode", and when a HDMI capable device is detected the graphics card will add audio output (which is interleaved in the digital stream, so no additional pins are required).
Using a DVI-I connector on the card is the best choice because it can drive DVI single and dual link, HDMI single and dual link, and analog VGA.
Dieses Teil ist zwar nett, was die Soundausgabe angeht, aber was ist mit den neuen HD-Formaten wie True-HD oder DD+? Dafür müsste es HDMI 1.3 sein, was wiederum einen anderen Transmitter braucht (höhere/doppelte Bitrate). DL-HDMI ist im Consumerbereich eher irrelevant.
PCGH_Carsten
2007-04-16, 13:54:50
Aha - da wird dann also die DVI-Bandbreite für beschnitten.
Dann ist auf einem Single-Link DVI jedenfalls nichts mehr mit Full-HD Ausgabe (1920x1080).
deekey777
2007-04-16, 14:07:03
Dann ist auf einem Single-Link DVI jedenfalls nichts mehr mit Full-HD Ausgabe (1920x1080).
Da ist noch genug Platz für 1080p/60 samt Sound (altes DD 5.1 oder PCM Stereo).
PCGH_Carsten
2007-04-16, 14:11:56
Da ist noch genug Platz für 1080p/60 samt Sound (altes DD 5.1 oder PCM Stereo).
Sicher? Immerhin brauchst du dafür schon reduced blanking oder herabgesetzte BW-Rate - IIRC.
Sicher? Immerhin brauchst du dafür schon reduced blanking oder herabgesetzte BW-Rate - IIRC.
IIRC gilt das für 1920x1200.
dr_mordio
2007-04-17, 16:00:42
schon bekannt?
R600 kommt noch später.
am 23/24.4 ist nur ein NDA-Launch.
offizieller launch erst mitte mai?
http://www.fudzilla.com/index.php?option=com_content&task=view&id=560&Itemid=1
warum wird die karte erst unter NDA gelauncht und dann so viel später öffentlich? vorallem wenn das stimmt, das sie seit vor der CeBit fertig ist.
MfG
Alex
Qualität brauch seine Zeit
James Ryan
2007-04-17, 16:03:39
schon bekannt?
R600 kommt noch später.
am 23/24.4 ist nur ein NDA-Launch.
offizieller launch erst mitte mai?
http://www.fudzilla.com/index.php?option=com_content&task=view&id=560&Itemid=1
warum wird die karte erst unter NDA gelauncht und dann so viel später öffentlich? vorallem wenn das stimmt, das sie seit vor der CeBit fertig ist.
MfG
Alex
Also wem das jetzt noch nicht klar war, dem kann niemand mehr helfen!
Das ist doch schon seit Wochen bekannt. ;)
MfG :cool:
oder ist einfach nur kein freak mit ner nv kappe
PCGH_Carsten
2007-04-17, 16:40:21
IIRC gilt das für 1920x1200.
Ja, stimmt. Dann reduziert sich die Nützlichkeit des Audio-Signals aber noch weiter: Nämlich auf Full-HD-Fernseher mit HDMI-Anschluss, die dann auch direkt Audio ausgeben sollen.
Ich denke aber, dass R600 nicht allein darauf baut, um zu überzeugen!
darkvader
2007-04-17, 17:02:50
Ja, stimmt. Dann reduziert sich die Nützlichkeit des Audio-Signals aber noch weiter: Nämlich auf Full-HD-Fernseher mit HDMI-Anschluss, die dann auch direkt Audio ausgeben sollen.
Ich denke aber, dass R600 nicht allein darauf baut, um zu überzeugen!
Ich kann doch den (HT)PC auch an einen Receiver hängen.
reunion
2007-04-17, 17:16:23
Ja, stimmt. Dann reduziert sich die Nützlichkeit des Audio-Signals aber noch weiter: Nämlich auf Full-HD-Fernseher mit HDMI-Anschluss, die dann auch direkt Audio ausgeben sollen.
Ich denke aber, dass R600 nicht allein darauf baut, um zu überzeugen!
Ähm warum? Das sollte doch bei Dual-Link DVI locker mit deutlich über 1920 x 1200 plus Sound klappen? Mit Single-Link wirds eng, aber ich glaube kaum, dass R600 keine Dual-Link hat.
deekey777
2007-04-17, 17:45:40
Ähm warum? Das sollte doch bei Dual-Link DVI locker mit deutlich über 1920 x 1200 plus Sound klappen? Mit Single-Link wirds eng, aber ich glaube kaum, dass R600 keine Dual-Link hat.
Es gibt kein Dual-Link bei HDMI, da ist bei 1080p/60 Ende. 1080p/60 ist bei DVI wirklich nicht ohne reduced blanking möglich, nach etwas Herumstöbern bin ich mir auch bei HDMI nicht mehr sicher.
http://en.wikipedia.org/wiki/High-Definition_Multimedia_Interface#HDMI_1.0
Zu der Audioübertragung: http://en.wikipedia.org/wiki/High-Definition_Multimedia_Interface#TMDS_channel
reunion
2007-04-17, 17:50:06
Es gibt kein Dual-Link bei HDMI, da ist bei 1080p/60 Ende. 1080p/60 ist bei DVI wirklich nicht ohne reduced blanking möglich, nach etwas Herumstöbern bin ich mir auch bei HDMI nicht mehr sicher.
http://en.wikipedia.org/wiki/High-Definition_Multimedia_Interface#HDMI_1.0
Zu der Audioübertragung: http://en.wikipedia.org/wiki/High-Definition_Multimedia_Interface#TMDS_channel
Mhm, danke für die Mühe. :)
Sailor Moon
2007-04-17, 22:36:18
Sicher? Immerhin brauchst du dafür schon reduced blanking oder herabgesetzte BW-Rate - IIRC.
Nein paßt. Gab und gibt ja genügend FullHDs mit HDMI != 1.3, die auch in 1080p60 angesteuert werden können. Die kleineren HDMI Versionen implementieren ja alle nur einen SingleLink. Für TVs ist aber eher eine Ansteuerung in p50 und p24 interessant, das senkt die Bandbreite weiter. Im Broadcastbereich wird es dann sowieso bei Interlacedübertragungen bleiben, alles andere wären unnötige, redundante Informationen.
Es gibt kein Dual-Link bei HDMI, da ist bei 1080p/60 Ende
HDMI 1.3 implementiert wie gesagt einen DualLink - zumindest wenn man von Seiten der Bandbreite betrachtet.
Mit Single-Link wirds eng, aber ich glaube kaum, dass R600 keine Dual-Link hat.
Keinen DualLink Support könnten sie sich gar nicht leisten. Wird es 100%ig geben.
Gruß
Denis
deekey777
2007-04-17, 23:01:37
Moment: Es gibt kein Dual-Link-HDMI im Consumerbereich, sprich HDMI Type B wäre beim R600 eine Totgeburt. HDMI 1.3 nutzt weiterhin Single-Link, aber mit 340 MHz.
Was ich mir beim R600 vorstellen könnte, wäre einerseits DL-DVI samt HDCP für beide Links (Ahoi DELL 30''), andererseits ein TMDS für einen Link, der auch mit 340 MHz arbeitet (zB per Treibereinstellung).
Sailor Moon
2007-04-17, 23:21:48
HDMI 1.3 nutzt weiterhin Single-Link, aber mit 340 MHz.
HDMI 1.3 implementiert wie gesagt einen DualLink - zumindest wenn man von Seiten der Bandbreite betrachtet. :-)
Gruß
Denis
Merlin31
2007-04-18, 01:23:47
Wenn das kein Fake ist, scheint die neue ATI aber nicht viel schneller als die NV zu sein. Wenn man bedenkt das NV auch schon wieder eine neue Version in den Startlöchern hat.
http://www.bilgiustam.com/?p=125
Wenn das kein Fake ist, scheint die neue ATI aber nicht viel schneller als die NV zu sein. Wenn man bedenkt das NV auch schon wieder eine neue Version in den Startlöchern hat.
http://www.bilgiustam.com/?p=125
Im 3D Mark nicht, bei Crysis schon. Noch dazu wurde die XT gegen die GTX getestet, welche nicht ATIs High End ist.
Ailuros
2007-04-18, 02:25:01
Im 3D Mark nicht, bei Crysis schon. Noch dazu wurde die XT gegen die GTX getestet, welche nicht ATIs High End ist.
Angenommen die Crysis Resultate haben Hand und Fuss und die XT hat sagen wir mal 50MHz weniger Taktrate als die XTX. Da kann die letztere Glueck haben wenn sie um ~10% in 1600/4xAA schneller als die XT sein wird.
Ich messe gerade den 158.19 ab und ich sehe bis jetzt eine Leistungssteigerung die sich zwischen 5 und 15% betraegt.
Man sollte beten dass die Crysis Resultate nicht echt sind.
seahawk
2007-04-18, 07:31:23
Wenn das kein Fake ist, scheint die neue ATI aber nicht viel schneller als die NV zu sein. Wenn man bedenkt das NV auch schon wieder eine neue Version in den Startlöchern hat.
http://www.bilgiustam.com/?p=125
Man muss die XT mit der GTS vergleichen, dann stimmt das Verhältnis.
-----------------------------------------
Da geht's weiter: Teil 8. (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=358668)
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.