Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation, Teil 7
Ronny145
2007-04-11, 21:23:04
Die TDP Werte sind doch nichts neues. Fast die gleichen geisterten schon durchs Netz.
http://img147.imageshack.us/img147/9826/attachmentmd4.jpg
http://www.3dcenter.de/artikel/2007/03-16_a.php
da gibt es eigentlich wenig zu übersetzen...
Im kleinen Einleitungsabsatz wird nur gesagt das sich die TDP Werte des langersehnten R600 Chips langsam herauskristallisieren.
Unten drunter dann die Karten aufgeteilt in
High-End Bereich
Mid-Range
und
Einsteigerklasse
was man sich eigentl. auch denken kann :)
Die Werte sprechen ja für sich. Ob wahr oder nicht ist mal so hingestellt.
Über eine Quelle steht nix drin.
deekey777
2007-04-11, 21:30:15
TDP Werte der Radeon X2... -Serie? (http://www.fx57.net/?p=574)
@Bilder:
Bei solch einem komplexen PCB wird man wohl nicht viel verdienen, wenn man die R600-Karten zu einem relativ niedrigen Preis anbieten will. :|
FX57 sollte man kein Vertrauen schenken. Sie "sammeln" einfach Infos und geben sie ohne Quelle weiter. Vor paar Wochen waren es die angeblichen Benchmarks des R600, die wiederum vor mehreren Tagen im HWL-Forum zu sehen waren, dann waren sie so dreist und haben die K-HWs Bilder von der CeBIT genommen (die mit der 8600er) und so beschnitten, dass man das K-Logo nicht sieht.
http://www.fx57.net/?p=495 vs. http://www.k-hardware.de/news.php?s=c&news_id=6389
Und das gilt für die gesamte Seite.
Zu den Bildern: Der R600 hat die Rev. A13.
da gibt es eigentlich wenig zu übersetzen...
Im kleinen Einleitungsabsatz wird nur gesagt das sich die TDP Werte des langersehnten R600 Chips langsam herauskristallisieren.
Unten drunter dann die Karten aufgeteilt in
High-End Bereich
Mid-Range
und
Einsteigerklasse
was man sich eigentl. auch denken kann :)
Die Werte sprechen ja für sich. Ob wahr oder nicht ist mal so hingestellt.
Über eine Quelle steht nix drin.
Die Werte waren doch afaik schon länger bekannt, oder? Jetzt müsste man nur noch wissen wie ein Modell performt, den Rest könnte man mit der TDP und nem Dreisatz hochrechnen. Ich weiß, Milchmädchenrechnung aber einen kleinen Anhaltspunkt würde man schon bekommen.
Aquaschaf
2007-04-11, 21:48:26
Aber seit dem 7.1 glaube ist es wirklich rasend schnell und die reine Treiber-Qualität ist seit langem gut, es funzt alles was man ja bei den 8800er nicht behaupten kann.
Unter D3D ja, unter OpenGL leider nicht.
Daluxx
2007-04-11, 22:36:13
R600 in house pictures - Take that massive cooler off
http://www.fudzilla.com/index.php?option=com_content&task=view&id=483&Itemid=1
Des ist mal nen DIE :eek:
Hast du schon mal die DIE des G80 gesehen?
Sollten die Werte stimmen, dann kann man wohl von einem GAU ausgehen.
Das scheint ein neuer trauriger Rekord zu werden.
dann kauf dir ne nv karte und verschone uns mit solche sprüchen
r3ptil3
2007-04-11, 23:38:45
http://we.pcinlife.com/thread-747857-1-1.html
3DMARK06 1600*1200跑11000 ? Bedeutet so in etwa, dass 3DMark 06 mit R600 "funny" läuft, bei 1600x1200 @ 11k Punkte logisch.
Ist halt alles auf chinesisch...
Superheld
2007-04-11, 23:46:41
wenn das stimmt:eek:
wenn das stimmt:eek:
Wäre eine Enttäuschung, für ein Produkt das ein halbes Jahr später kommt und kaum schneller ist.
Ich sehe da nun wirklich nichts positives dran. Zudem juckt 3D Mark sowieso nicht, da es mit der realen Spieleleistung nix gemeinsam hat.
r3ptil3
2007-04-12, 01:07:11
Wäre eine Enttäuschung, für ein Produkt das ein halbes Jahr später kommt und kaum schneller ist.
Ich sehe da nun wirklich nichts positives dran.
Die Geforce 8800 GTX kommt im besten Fall auf 9000 Punkte im 3DMark06 bei einer Auflösung von 1600x1200.
Knacki99
2007-04-12, 01:08:09
Wäre eine Enttäuschung, für ein Produkt das ein halbes Jahr später kommt und kaum schneller ist.
Ich sehe da nun wirklich nichts positives dran. Zudem juckt 3D Mark sowieso nicht, da es mit der realen Spieleleistung nix gemeinsam hat.
Bei einer 1600x1200 Auflösung?
Die Geforce 8800 GTX kommt im besten Fall auf 9000 Punkte im 3DMark06 bei einer Auflösung von 1600x1200.
Schön, aber wen interessieren 3D Mülls?
Mit der Realität haben die gar nichts, aber nun wirklich überhaupt nichts zu tun.
Siehe GX2. In neueren Games hinkt die vielen Einzelkarten hinterher, obwohl fast GTS Niveau laut 3D Müll.
deekey777
2007-04-12, 01:52:37
Das sind Werte in 3DMark - nicht mehr und nicht weniger.
Sollten diese 11.000 in 2006 stimmen, dann ist es schon beeindrückend.
Sollten diese 11.000 in 2006 stimmen, dann ist es schon beeindrückend.
Finde ich nicht. Beide Hersteller optimieren viel auf 3D Mark, davon bleibt fast nie was in normalen Games hängen.
Außerdem ist er schon relativ alt, er ist nicht auf dem neuesten Stand der Technik und die Bewertung ist höchst fragwürdig.
Man sieht, wie schnell sich das ändern kann, die X1900/X1950 Serie war anfangs nicht so deutlich überlegen, das kam erst mit den neueren Games zustande.
Wie will man die Leistung beurteilen, von etwas, was man nicht mal beschreiben kann? In vielen Games wird die 3DMark Engine verwendet?
Für mich ist das genauso sinnlos wie der Vergleich von X1800XT gegen 7800GTX256 damals. Das die später erscheinende Karte schneller ist, ist nun wahrlich kein Wunder.
Zudem ist es alles andere als ersterbenswert, wenn man für die paar zusätzliche Prozente gleich mit 80-100 W mehr rechnen muss.
Bei gleichen Bedingungen - und auch Stromverbrauch - dürfte man die GTX bis zum anschlag übertakten und sie wäre bei wahrscheinlich immer noch geringeren Verbrauch nicht wirklich langsamer.
Also wo ist die Innovation? Ein halbes Jahr ist ne Ewigkeit!
The_Invisible
2007-04-12, 08:05:07
TDP Werte der Radeon X2... -Serie? (http://www.fx57.net/?p=574)
@Bilder:
Bei solch einem komplexen PCB wird man wohl nicht viel verdienen, wenn man die R600-Karten zu einem relativ niedrigen Preis anbieten will. :|
vielleicht machen sie es ja wie sony mit der ps3 und zahlen selber was drauf damit die hardware im umlauf kommt
mfg
Relic
2007-04-12, 08:19:02
vielleicht machen sie es ja wie sony mit der ps3 und zahlen selber was drauf damit die hardware im umlauf kommt
mfg
Und wie will AMD dann Geld verdienen? Sie verdienen schliesslich nicht an den Games und Zubehör.
Winter[Raven]
2007-04-12, 08:34:31
Sollten diese 11.000 in 2006 stimmen, dann ist es schon beeindrückend.
Was soll daran so beeindruckend sein, bei einem Produkt welches so viel später kommt. Alles andere wäre für ATI.... ahhh AMD eine Blamage...
sind das hier ddr4 speicher:
pics.computerbase.de/1/7/7/1/8/10.jpg
?
James Ryan
2007-04-12, 08:56:49
Ja, sind es. 0,9 ns Zugriffszeit.
MfG :cool:
seahawk
2007-04-12, 09:03:49
Der 3D Mark stellt die Leistungsfähigkeit der XT (!!) im Vergleich zur 8800 gut da.
san.salvador
2007-04-12, 09:09:57
Der 3D Mark stellt die Leistungsfähigkeit der XT (!!) im Vergleich zur 8800 gut da.
Kann es sein, dass deine Aussage 0 Inhalt hat?
Kann es sein, dass deine Aussage 0 Inhalt hat?
sie hat mehr Inhalt als dein Posting. Er will die Glaubwürdigkeit von 3DMark untermauern.
Die 11000 sagen doch erstmal nur aus, dass sie 1. den Treiber schon mal gut auf 3DMark und darin verwendete Funktionen optimiert haben und 2. Dass sie wohl potentiell den schnelleren Chip haben. Aber aber aber... Tee und warten etc pp
san.salvador
2007-04-12, 09:18:59
sie hat mehr Inhalt als dein Posting. Er will die Glaubwürdigkeit von 3DMark untermauern.
Die 11000 sagen doch erstmal nur aus, dass sie 1. den Treiber schon mal gut auf 3DMark und darin verwendete Funktionen optimiert haben und 2. Dass sie wohl potentiell den schnelleren Chip haben. Aber aber aber... Tee und warten etc pp
Wie will er die Glaubwürdigkeit ohne ein Argument untermauern? Da kann mans doch auch gleich bleiben lassen.
Wie will er die Glaubwürdigkeit ohne ein Argument untermauern? Da kann mans doch auch gleich bleiben lassen.
redest du so auch mit freunden,wenn ja ohwe
Nakai
2007-04-12, 09:23:21
Naja 3DMark06 ist nicht wirklich ausschlaggebend für die Leistung.
Fast jede NV-Karte kann etwa 10% mehr Performance aus dem 3DMark06 schöpfen. Im 05er ist es imho andersrum.
Alles andere wäre für ATI.... ahhh AMD eine Blamage...
ATI wird ein Produkt liefern das knapp vor NV liegen wird.
mfg Nakai
Sollten diese 11.000 in 2006 stimmen, dann ist es schon beeindrückend.
Was ist daran beeindruckend?
Ca. 12% mehr als eine 8800GTX auf einem C2D Prozessor ist für ein Produkt, das 6 Monate später erscheint, nun nicht "beeindruckend".
James Ryan
2007-04-12, 09:27:31
sie hat mehr Inhalt als dein Posting. Er will die Glaubwürdigkeit von 3DMark untermauern.
Die 11000 sagen doch erstmal nur aus, dass sie 1. den Treiber schon mal gut auf 3DMark und darin verwendete Funktionen optimiert haben und 2. Dass sie wohl potentiell den schnelleren Chip haben. Aber aber aber... Tee und warten etc pp
Hoffen wir dass ATi den Treiber nicht nur auf den 3DMurks optimiert haben, sondern er auch beim Launch direkt überzeugen kann. Laut INQ kann er es zur Zeit nicht.
Zu den R600 Bildern: Das Ding schaut gut aus. Ich bin der Meinung, dass die OEM-Variante genau das gleiche PCB besitzt, wie die Retail-Variante, bei letzterem wird aber ein kleinerer Kühler eingesetzt.
MfG :cool:
Zum einen sollte bedacht werden, dass der 3DMark-Score zum Teil auch von der CPU beeinflusst wird. Sollte das 11k-zu-9k stimmen, ist die reine Grafikleistung des R600 eher 25-30% höher, als die einer 8800 GTX.
Andererseits stehen aber noch andere Faktoren im Raume:
- Wieviel VRAM braucht der Mark in 1600x1200?
- Nvidia wird sicherlich mit einer mind. ~10% höher getakteten "Ultra" kommen
- Das vermisste MUL kann diese Operation bislang um ca. 18% beschleunigen. Wieviel davon schlägt im 3DMark durch und wieviel in Games?
Q
Winter[Raven]
2007-04-12, 09:38:36
ATI wird ein Produkt liefern das knapp vor NV liegen wird.
Ich zweifle ja auch nicht daran, ich bezog mich einfach darauf, dass die die 11k nunmal bei einer Karte die so spät kommt, bei der die Taktrate an die Konkurrenz angepasst werden konnte nichts was "beeindruckend" ist.
3DFurz als Leistungsparamenter zu nehmen ist sowieso schwachsinnig, was zählt ist die Perf. in den Game.
robbitop
2007-04-12, 09:48:34
Zum einen sollte bedacht werden, dass der 3DMark-Score zum Teil auch von der CPU beeinflusst wird. Sollte das 11k-zu-9k stimmen, ist die reine Grafikleistung des R600 eher 25-30% höher, als die einer 8800 GTX.
Andererseits stehen aber noch andere Faktoren im Raume:
- Wieviel VRAM braucht der Mark in 1600x1200?
- Nvidia wird sicherlich mit einer mind. ~10% höher getakteten "Ultra" kommen
- Das vermisste MUL kann diese Operation bislang um ca. 18% beschleunigen. Wieviel davon schlägt im 3DMark durch und wieviel in Games?
Q
Dass der 3DMark nicht viel aussagt, wurde ja immer wieder eindrucksvoll in der Vergangenheit bewiesen. Auch kuerzlich zeigte der G84 Aehnliches.
3DMark sagt gar nichts aus, wenn man die geleakten Infos zur 8600GTS sich mal anschaut sollte das doch Warnhinweis genug sein das der 3DMark die GPUs nicht mehr wirklich aussagt. Außer das die Karte in 1280*1024 schnell ist *g
seahawk
2007-04-12, 09:52:39
Kann es sein, dass deine Aussage 0 Inhalt hat?
Nein es entspricht den Erwartungen. Hohe Auflösung und ungefähr +20%. Das hat man so als im oberen Bereich angesiedelte Leistungsdifferenz angesehen. Gehe ich nun davon aus, dass der ATI Treiber zumindest in D3D und beim 3DMark einwandfrei funktioniert, dann liegt es im Bereich des was man schon lage weiss / erwartet.
san.salvador
2007-04-12, 09:54:57
Nein es entspricht den Erwartungen. Hohe Auflösung und ungefähr +20%. Das hat man so als im oberen Bereich angesiedelte Leistungsdifferenz angesehen. Gehe ich nun davon aus, dass der ATI Treiber zumindest in D3D und beim 3DMark einwandfrei funktioniert, dann liegt es im Bereich des was man schon lage weiss / erwartet.
Wenn bei einer neuen GraKa irgendwas funktioniert, dann ists wohl der 3Dmark. Aber wie hscon mehrfach gesagt, diese Werte sind von vorn bis hinten unbrauchbar, schließlich will ich nicht 3Dmark spielen. :D
James Ryan
2007-04-12, 09:56:42
;5402001']was zählt ist die Perf. in den Game.
Was ebenso wichtig ist, ist die Bildqualität! Was nützt mir super duper Perfomance bei vergleichsmäßig "schlechter" R580 Bildqualität?
Gerade darum ist der 3DMurks bei den neuen Karten auch so gut wie bedeutungslos, eben weil er ohne FSAA und vor allem AF läuft.
8*MSAA gilt beim R600 ja schon als gesichert, aber ich bete dass am Standard-AF auch noch geschraubt wird, und das winkelabhngige AF komplett gestrichen wird, wie beim G80 auch.
Sonst kommen ein paar Pappnasen wieder auf die Idee, wA-AF gegen wU-AF zu vergleichen wie früher. :rolleyes:
MfG :cool:
Was ebenso wichtig ist, ist die Bildqualität! Was nützt mir super duper Perfomance bei vergleichsmäßig "schlechter" R580 Bildqualität?
jetzt reichts aber,ati liegt mit der qualität seit dem r300 immer über nv.
James Ryan
2007-04-12, 10:03:15
jetzt reichts aber,ati liegt mit der qualität seit dem r300 immer über nv.
Nein, der G80 hat eine bessere BQ als der R580, sei es beim AF wie auch beim FSAA (standardmäßiges wU-AF, 16*QMSAA und Hybrid-SSAA).
MfG :cool:
deekey777
2007-04-12, 10:04:04
;5401875']Was soll daran so beeindruckend sein, bei einem Produkt welches so viel später kommt. Alles andere wäre für ATI.... ahhh AMD eine Blamage...
Was hat der Zeitpunkt der Veröffentlichung des R600 (abgesehen der Treiber, die anders als bei der Kunkurrenz hoffentlich zum Release fertig sein werden) mit den 11.000 3DMarks in 2006 bei 1600x1200 zu tun?
Und erklär auch, was daran nicht beeindruckend sein soll, wo die 8800GTX 9.000 schafft?
Finde ich nicht. Beide Hersteller optimieren viel auf 3D Mark, davon bleibt fast nie was in normalen Games hängen.
Außerdem ist er schon relativ alt, er ist nicht auf dem neuesten Stand der Technik und die Bewertung ist höchst fragwürdig.
Man sieht, wie schnell sich das ändern kann, die X1900/X1950 Serie war anfangs nicht so deutlich überlegen, das kam erst mit den neueren Games zustande.
Wie will man die Leistung beurteilen, von etwas, was man nicht mal beschreiben kann? In vielen Games wird die 3DMark Engine verwendet?
Für mich ist das genauso sinnlos wie der Vergleich von X1800XT gegen 7800GTX256 damals. Das die später erscheinende Karte schneller ist, ist nun wahrlich kein Wunder.
Zudem ist es alles andere als ersterbenswert, wenn man für die paar zusätzliche Prozente gleich mit 80-100 W mehr rechnen muss.
Bei gleichen Bedingungen - und auch Stromverbrauch - dürfte man die GTX bis zum anschlag übertakten und sie wäre bei wahrscheinlich immer noch geringeren Verbrauch nicht wirklich langsamer.
Also wo ist die Innovation? Ein halbes Jahr ist ne Ewigkeit!
So alt ist der 3D 2006 auch wieder nicht. Wieviele Spiele kommen nur ansatzweise in die Nähe der verwendeten Technologie in 3D 2006? 2-3?
Wie gesagt: Das ist die vermeintliche Leistung in 3DMark 2006. Nicht mehr und nicht weniger.
Was ist daran beeindruckend?
Ca. 12% mehr als eine 8800GTX auf einem C2D Prozessor ist für ein Produkt, das 6 Monate später erscheint, nun nicht "beeindruckend".
Und weiter? Die sechs Monate sind so was von egal, wenn der R600 vom Design her längst fertig ist und seit Februar oder gar Ende März fertig. Womit wurden die 1 TFLOP/s Anfang März erreicht?
Und weiter? Die sechs Monate sind so was von egal, wenn der R600 vom Design her längst fertig ist und seit Februar oder gar Ende März fertig. Womit wurden die 1 TFLOP/s Anfang März erreicht?
Aha...
Du findest also 11k Punkte beeindruckend, wenn ein Produkt 6 Monate früher schon fast 98xx Punkte erreicht? Und das bei wahrscheinlich deutlich geringerem Stromverbrauch.
Winter[Raven]
2007-04-12, 10:11:06
Was hat der Zeitpunkt der Veröffentlichung des R60
Vorteil? Man schraubt an der MHz solange bis man das erwünschte Ergebnis hat?
Nebenbei gefragt, warum kommt der R600 nun jetzt "so" spät? an Treiber glaub ich nicht so ganz.
Nein, der G80 hat eine bessere BQ als der R580, sei es beim AF wie auch beim FSAA (standardmäßiges wU-AF, 16*QMSAA und Hybrid-SSAA).
MfG :cool:
Don't feed the troll.
Nakai
2007-04-12, 10:29:08
;5402080']Vorteil? Man schraubt an der MHz solange bis man das erwünschte Ergebnis hat?
Nebenbei gefragt, warum kommt der R600 nun jetzt "so" spät? an Treiber glaub ich nicht so ganz.
Naja ich würde sagen, dass der R600 schon im März gelauncht werden konnte. Es war dann eben kein Hardlaunch und die Treiber wären nicht so toll gewesen.
AMD hat sich dann entschlossen eine komplett neue Serie an Produkten vorzustellen. Den R600, RD790 und den K10.
Dann schreibt man schnell ein neues Motto über das ganze und schon hat man einen geglückten Launch, wobei die Maße der Produkte die kleinen Fehler ausbügeln soll.
mfg Nakai
James Ryan
2007-04-12, 10:43:38
http://www.fudzilla.com/index.php?option=com_content&task=view&id=499&Itemid=34
RV610 und RV630 kommen noch später, vermutlich erst im Juni.
MfG :cool:
Nakai
2007-04-12, 10:47:44
Naja glaub ich nicht. ;)
Die Slides sagen was anderes.
mfg Nakai
Naja glaub ich nicht. ;)
Die Slides sagen was anderes.
mfg Nakai
Welche "Slides"?
Nakai
2007-04-12, 10:52:11
Bei Fudzilla sind nur 3 Stück oder so dargestellt gewesen, das sind natürlich nicht alle gewesen.^^
Naja vll wirds kein Hardlaunch.
mfg Nakai
san.salvador
2007-04-12, 10:53:18
http://www.fudzilla.com/index.php?option=com_content&task=view&id=499&Itemid=34
RV610 und RV630 kommen noch später, vermutlich erst im Juni.
MfG :cool:
Juni? Da können sie es ja gleich sein lassen, bis dahin dürffte Nvidia den Markt mit Low/Midrange-Karten schon gut gefüllt haben.
AnarchX
2007-04-12, 10:57:59
Juni? Da können sie es ja gleich sein lassen, bis dahin dürffte Nvidia den Markt mit Low/Midrange-Karten schon gut gefüllt haben.
Nur ist der Retailmarkt bei weitem nicht so bedeutend, wie die OEM-Deals, die AMD durch das wohl überzeugende Paket des RV610 an Land ziehen konnte.
Die Vorteile des 65nm Prozesses für die GPUs sind nunmal auch an großes Risiko gebunden.
James Ryan
2007-04-12, 10:59:26
Naja vll wirds kein Hardlaunch.
Erst spuckt AMD große Töne vonwegen "Wir machen alles besser als die böse Konkurrenz und machen einen Hardlaunch!" und dann doch nicht?
Peinlich peinlich...
So lange der R600 pünktlich kommt und lieferbar ist, ist es mir persönlichn recht schnuppe. Nur fing es letztes Mal genauso an, und nachmittags hieß es dann "R600 kommt auch später".
Und das wäre dann wahrlich bitter!
MfG :cool:
w0mbat
2007-04-12, 11:00:10
Das die RV6xx Modelle nochmal später kommen habe ich auch gehört, bzw. das es keinen Hardlaunch geben wird. AMD hat eine zu große OEM Nachfrage.
Zu dieser News: http://www.fudzilla.com/index.php?option=com_content&task=view&id=500&Itemid=1
Ich bin nicht Schuld dran. Wenigstens hat er geschrieben daß man es nicht so ernst nehmen soll. Aber in diese gibt es nicht "a cuple sources" sondern nur eine Spekulation.
Nakai
2007-04-12, 11:00:32
Die Vorteile des 65nm Prozesses für die GPUs sind nunmal auch an großes Risiko gebunden.
Eben. Nur das der 65Nm-Bereich mehr Vorteile liefern sollte^^.
Nur ist der Retailmarkt bei weitem nicht so bedeutend, wie die OEM-Deals, die AMD durch das wohl überzeugende Paket des RV610 an Land ziehen konnte.
OEM-Markt wird zuerst bedient. Ob der Retailmarkt dann soviel abbekommt, ist fraglich. Vll hat die News hier ihren Ursprung.
mfg Nakai
san.salvador
2007-04-12, 11:01:07
Erst spuckt AMD große Töne vonwegen "Wir machen alles besser als die böse Konkurrenz und machen einen Hardlaunch!" und dann doch nicht?
Peinlich peinlich...
So lange der R600 pünktlich kommt und lieferbar ist, ist es mir persönlichn recht schnuppe. Nur fing es letztes Mal genauso an, und nachmittags hieß es dann "R600 kommt auch später".
Und das wäre dann wahrlich bitter!
MfG :cool:
Der R600 kommt schon lange nicht mehr pünktlich. ;)
AnarchX
2007-04-12, 11:02:46
Eben. Nur das der 65Nm-Bereich mehr Vorteile liefern sollte^^.
Kleinere Die-Size und niedriger Verbrauch, gegen möglich Yield-Probleme und AFAIK teuere Wafer.;)
Aber wenn die TDP-Werte der RV6xx Chips stimmen sollten, wäre man wohl ohnehin nicht um 65nm herumgekommen.
James Ryan
2007-04-12, 11:03:20
Der R600 kommt schon lange nicht mehr pünktlich. ;)
Das ist mir klar, nur sollte der R600 nun nicht noch später kommen.
Hoffen wir dass DELL nicht, nachdem die RV6xx Chips alle aufgekauft sind, zu den R600ern greift und die auch noch alle wegkauft. ;D
MfG :cool:
Nakai
2007-04-12, 11:04:30
Aber wenn die TDP-Werte der RV6xx Chips stimmen sollten, wäre man wohl ohnehin nicht um 65nm herumgekommen.
Die Werte sollte man mit Vorsicht genießen, die stimmen auf jeden Fall nicht.
mfg Nakai
AnarchX
2007-04-12, 11:10:32
Die Werte sollte man mit Vorsicht genießen, die stimmen auf jeden Fall nicht.
Und wie kommst du zu dieser Annahme? ;)
Wenn ich die Kühler sehe, die auf den R600-Karten verbaut werden, kommt doch sehr schnell der Eindruck, dass das R600-Design generell nicht wohl kein Performance/Watt-Sieger sein wird und somit die auch die kleine Ableger entsprechende Verlustleistungen haben werden.
Sphinx
2007-04-12, 11:14:04
Achja?
Wir sind hier nicht im HWL - Forum. Entweder du hast Quellen oder kannst dich gleich in die Reihe mit Fudo und Wombat einreihen!
Oder wir sind in einem Spekulationsthread und posten unsere Gedanken und Glauben auf Teufel komm raus hier hinein... Hallo ?
Hier wird der Untergang von AMD schon vorrausgesagt..
w0mbat
2007-04-12, 11:17:58
Achja?
Wir sind hier nicht im HWL - Forum. Entweder du hast Quellen oder kannst dich gleich in die Reihe mit Fudo und Wombat einreihen!
Wie kommst du auf die Idee?
Und man kann ja nicht bezweifeln das Fudo gute Quellen hat.
Oder wir sind in einem Spekulationsthread und posten unsere Gedanken und Glauben auf Teufel komm raus hier hinein... Hallo ?
Dir ist der Unterschied zwischen dem Konjunktiv und dem Indikativ bestimmt bekannt?
Er sagt klar, dass die Werte nicht stimmen würden. Also kann er es auch beweisen, da so eine These im Indikativ auch eine Grundlage haben muss.
Henroldus
2007-04-12, 11:19:23
Kleinere Die-Size und niedriger Verbrauch, gegen möglich Yield-Probleme und AFAIK teuere Wafer.;)
was hat die strukturgröße den mit der wafergröße zu tun?
es sind die gleichen wafer, IMO 300mm da ist nix teurer.
ab einem yield von etwa 65% bei 65nm wird die herstellung billiger als bei einem yield von 95% (90nm) da der yield ständig verbessert wird
AnarchX
2007-04-12, 11:25:28
was hat die strukturgröße den mit der wafergröße zu tun?
es sind die gleichen wafer, IMO 300mm da ist nix teurer.
Wohl eben nicht, wenn die Aussagen die ich bei B3D aufgeschnappt hatte, richtig sind:
http://forum.beyond3d.com/showthread.php?p=955139#post955139
Zudem sind ja im Fall G84 vs RV630 beide Chips fast gleich groß, wo eben ein schlechterer Yield bei 65nm doch etwas ausmacht.(Nicht zu vergessen die Spekulation, welche desöftern kam: G84>RV630)
Nakai
2007-04-12, 11:28:01
Er sagt klar, dass die Werte nicht stimmen würden.
Denk mal mit, denkst du wirklich der RV630XT wird wirklich genau 130 Watt verbrauchen, wohl kaum.^^:rolleyes:
Man sollte niemals TDP-Angaben trauen...wirklich niemals.
Hab ich dir nicht schonmal gesagt, das du das nicht so genau nehmen solltest?:biggrin:
mfg Nakai
Dass der 3DMark nicht viel aussagt, wurde ja immer wieder eindrucksvoll in der Vergangenheit bewiesen. Auch kuerzlich zeigte der G84 Aehnliches.
Äh, ja. Das ist so bekannt wie nur was. Trotzdem ist es aktuell - wenn die Werte stimmen sollten - der einzige Anhaltspunkt, an dem wir R600 und G80 vergleichen können. Sollen wir's komplett ignorieren?
Q
AnarchX
2007-04-12, 11:36:05
Denk mal mit, denkst du wirklich der RV630XT wird wirklich genau 130 Watt verbrauchen, wohl kaum.^^
Wie kommst du von einer möglichen TDP von 125W gleich auf 130W Verbrauch?:|
~100W Realverbrauch bei einer 300M+ Transistoren GPU, die vielleicht höher als der R600 taktet um fehlende Einheiten auszugleichen, sind imo auch für 65nm realistisch.
Ein kleinerer Fertigungsprozess bedeutet ja nicht zwangsweise einen niedrigeren Verbrauch.
Aber natürlich könnte es auch passieren, dass man den RV630XT cancelt, wie man es schonmal bei einer Midrange-GPU in der Vergangenheit tun musste, da sie gewisse Grenzen überschritt. ;)
Denk mal mit, denkst du wirklich der RV630XT wird wirklich genau 130 Watt verbrauchen, wohl kaum.^^:rolleyes:
Man sollte niemals TDP-Angaben trauen...wirklich niemals.
Geht es dir hier nur um die genaue Zahl?
Natürlich wird er keine 130 Watt verbrauchen, genauso wenig wie die 8800GTX genau 180 Watt erreichen wird.
Es ist ein Anhaltspunkt. Und wenn du sagst, die TDP - Angaben würden nicht stimmen, dann hast du klar andere Angaben.
Ist es so schwer, diese uns mitzuteilen?
Hab ich dir nicht schonmal gesagt, das du das nicht so genau nehmen solltest?:biggrin:
mfg Nakai
So entstehen Lügen.
Nur ist der Retailmarkt bei weitem nicht so bedeutend, wie die OEM-Deals, die AMD durch das wohl überzeugende Paket des RV610 an Land ziehen konnte.
Gerade für die OEM-Deals müssen sie aber nun mal langsam in die Hände spucken. Die sog. "Back to School"-Season in den US of A ist von Juli aus gesehen nicht mehr lang hin und OEMs kriegen nicht einfach einen Container Karten und stecken die einfach in die rumstehenden PCs - da liegt eine ziemlich aufwändige Validierungsphase vorweg.
Q
Relic
2007-04-12, 11:46:46
was hat die strukturgröße den mit der wafergröße zu tun?
es sind die gleichen wafer, IMO 300mm da ist nix teurer.
ab einem yield von etwa 65% bei 65nm wird die herstellung billiger als bei einem yield von 95% (90nm) da der yield ständig verbessert wird
Man muss bei TSMC mehr für neuere Prozesse bezahlen. Ich denk mal das meint er.
Winter[Raven]
2007-04-12, 11:49:19
Man muss bei TSMC mehr für neuere Prozesse bezahlen. Ich denk mal das meint er.
Was gegen den Gerücht spricht, dass ATI einen Rabatt bekommt, wenn die immer die neueste Technik verwenden ^^.
Das Auge
2007-04-12, 11:50:40
Da ich wirklich keine Lust habe den ganzen Thread zu lesen, sei mir eine Frage erlaubt: Wann kommt laut den letzten, zuverlässigen Informationen der R600 denn nun??!
Was hat der Zeitpunkt der Veröffentlichung des R600 (abgesehen der Treiber, die anders als bei der Kunkurrenz hoffentlich zum Release fertig sein werden) mit den 11.000 3DMarks in 2006 bei 1600x1200 zu tun?
Und erklär auch, was daran nicht beeindruckend sein soll, wo die 8800GTX 9.000 schafft?
So alt ist der 3D 2006 auch wieder nicht. Wieviele Spiele kommen nur ansatzweise in die Nähe der verwendeten Technologie in 3D 2006? 2-3?
Wie gesagt: Das ist die vermeintliche Leistung in 3DMark 2006. Nicht mehr und nicht weniger.
Und weiter? Die sechs Monate sind so was von egal, wenn der R600 vom Design her längst fertig ist und seit Februar oder gar Ende März fertig. Womit wurden die 1 TFLOP/s Anfang März erreicht?
In einem halben Jahr lässt sich viel Optimieren
Das ein Design 6 Monate fertig ist ist sowas von egal wen man nur mit selektierter hartware einigermassen das erreicht was man sich vornahm.
Und wen man hinzu das prob hat das die erforderlichen rams nicht lieferbar sind ist es noch egaler ob das SELEKTIERTE Silizium fertig ist oder nicht
James Ryan
2007-04-12, 11:59:24
Da ich wirklich keine Lust habe den ganzen Thread zu lesen, sei mir eine Frage erlaubt: Wann kommt laut den letzten, zuverlässigen Informationen der R600 denn nun??!
Mitte Mai wird der R600 vorgestellt und zu kaufen sein, laut AMD.
Am 23./24. April ist ein Techday, wo der Presse der R600 gezeigt wird, dies steht jedoch unter NDA und es werden wohl kaum Infos nach außen dringen.
MfG :cool:
MartinRiggs
2007-04-12, 12:09:15
Was ebenso wichtig ist, ist die Bildqualität! Was nützt mir super duper Perfomance bei vergleichsmäßig "schlechter" R580 Bildqualität?
Gerade darum ist der 3DMurks bei den neuen Karten auch so gut wie bedeutungslos, eben weil er ohne FSAA und vor allem AF läuft.
8*MSAA gilt beim R600 ja schon als gesichert, aber ich bete dass am Standard-AF auch noch geschraubt wird, und das winkelabhngige AF komplett gestrichen wird, wie beim G80 auch.
Sonst kommen ein paar Pappnasen wieder auf die Idee, wA-AF gegen wU-AF zu vergleichen wie früher. :rolleyes:
MfG :cool:
Stell doch NV jetzt nicht als heilige Kuh hin nur weil sie mal die BQ auf die Reihe bekommen haben, wenn der R600 die BQ wie die R580 bzw. ein bisschen besser bietet ist das voll i.O, außerdem hast du nicht ne G7x mit der miesen BQ????
=Floi=
2007-04-12, 12:10:44
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/13/#abschnitt_3dmark06
11000 marks entsprechen genau dem 2fachen der X1950XTX also dem ganz normalem werdegang einer neuen generation
das ist realistisch und gewünscht
san.salvador
2007-04-12, 12:23:11
Stell doch NV jetzt nicht als heilige Kuh hin nur weil sie mal die BQ auf die Reihe bekommen haben, wenn der R600 die BQ wie die R580 bzw. ein bisschen besser bietet ist das voll i.O, außerdem hast du nicht ne G7x mit der miesen BQ????
Also eine BQ wie die des R580 würde mich maßlos enttäuschen. Wenn man schon behauptet, die supi-dupi-fette-Eier-GPU zu bringen, dann darf die BQ nicht spürbar hinter der des Konkurrenten zurück bleiben.
Und der G80 schlägt den R580 in jedem Bereich.
btw, ich bin mal gespannt. Nach nochmaligem Überdenken finde ich 11k im Murks doch nicht mehr so prall. Grund: Vertex-Last. Da kommen die spekulierten 5D-ALUs dem R600 sehr zugute. Das dürfte in Games eher weniger eine Rolle spielen.
Q
James Ryan
2007-04-12, 12:43:11
wenn der R600 die BQ wie die R580 bzw. ein bisschen besser bietet ist das voll i.O
Wer wird sich dann einen sechs Monate verspäteten R600 kaufen wollen, wenn die BQ unter derjenigen des G80 liegt?
Für dich mag die R580 BQ in Ordnung sein, im Gegensatz zum G80 ist sie nicht mehr zeitgemäß, ganz einfach.
MfG :cool:
seahawk
2007-04-12, 13:00:29
btw, ich bin mal gespannt. Nach nochmaligem Überdenken finde ich 11k im Murks doch nicht mehr so prall. Grund: Vertex-Last. Da kommen die spekulierten 5D-ALUs dem R600 sehr zugute. Das dürfte in Games eher weniger eine Rolle spielen.
Q
Das meine ich ca. 20% in einem eher günstigen Fall.
Wechselbalg
2007-04-12, 13:02:26
@Bildqualitätsdiskussion:
Wobei man da die Kirche dann doch mal im Dorf lassen sollte. Sonderlich riesig würde ich die Bildqualitätsunterschiede auch zwischen G80 und R580 nicht sehen, da die Luft nach oben schon recht dünn wird. Mehr AA Samples bringen jetzt nicht mehr weltbewegende Verbesserungen und die Winkelabhängigkeit ist bei R580 jetzt ja auch nicht so schlimm.
Einzig die AI Spielereien stören, aber dies ist ja eher eine Softwaresache. Ich würde zwar auch begrüßen, wenn sich da neben dem zu erwartenden 8*MSAA noch mehr tun würde, aber riesige Sprünge kann man glaube ich einfach nicht mehr erwarten. Zumindest kann man über den Punkt sich nicht mehr so gut einen Vorteil erarbeiten mMn, so dass es eher auf Geschwindigkeit, Kosten und sonstige Dinge wie Multimediafähigkeiten oder auch Stromverbrauch als Kaufgrund gehen dürfte.
MartinRiggs
2007-04-12, 13:12:03
Wer wird sich dann einen sechs Monate verspäteten R600 kaufen wollen, wenn die BQ unter derjenigen des G80 liegt?
Für dich mag die R580 BQ in Ordnung sein, im Gegensatz zum G80 ist sie nicht mehr zeitgemäß, ganz einfach.
MfG :cool:
Muaah, so wie du es darstellst zeigt dann deine Geforce 7 uralt oder Klötzchen-Grafik???
Du musst doch wirklich sehr die Kirche im Dorf lassen, außerdem steht dir doch frei den G80 zu kaufen, das willste aber auch nicht, weisst du überhaupt was du willst????
:rolleyes:
deekey777
2007-04-12, 13:18:25
;5402080']Vorteil? Man schraubt an der MHz solange bis man das erwünschte Ergebnis hat?
Nebenbei gefragt, warum kommt der R600 nun jetzt "so" spät? an Treiber glaub ich nicht so ganz.
Man hat an der Taktschraube drehen können...
Wenn man bedenkt, dass seit spätestens Herbst davon ausgeganngen wurde, dass der R600 mit 750-800 MHz kommen wird, stellt sich die Frage, was sie da noch an der Taktschraube drehen konnten, um das erwünschte Ergebnis zu erzielen.
Irgendwie passt deine Aussage nicht.
Nochmals: Monat März. Zwei R600-Streamprozessoren erreichen 1 TFLOP/s, der theoretische Wert je R600 wäre um 512 GFLOP/s, was für einen Takt von 800 MHz spricht. Dem Aussehen nach hat es sich um die "OEM"-Version gehandelt, die mit R600 A13 bestückt ist, der wiederum seit Januar fertig ist.
Was soll man da an der Taktschraube gedreht haben? Oder werden die X2900XTX mit deutlich mehr als 800 MHz getaktet?
Du hast immernoch nicht beantwortet, was an 11.000 Punkten bei 1600x1200 nicht beeindruckend sein soll.
btw, ich bin mal gespannt. Nach nochmaligem Überdenken finde ich 11k im Murks doch nicht mehr so prall. Grund: Vertex-Last. Da kommen die spekulierten 5D-ALUs dem R600 sehr zugute. Das dürfte in Games eher weniger eine Rolle spielen.
Q
Wieso spekuliert? Sie sind doch bestätigt worden.
Vielleicht irre ich mich: 4x16 Vec4+1-ALUs.
James Ryan
2007-04-12, 13:19:19
Muaah, so wie du es darstellst zeigt dann deine Geforce 7 uralt oder Klötzchen-Grafik???
Du musst doch wirklich sehr die Kirche im Dorf lassen, außerdem steht dir doch frei den G80 zu kaufen, das willste aber auch nicht, weisst du überhaupt was du willst????
:rolleyes:
Was hat meine Gf 7 bitteschön mit dem R600 oder G80 zu tun? :confused:
Du kannst doch nicht bestreiten dass der G80 eine bessere BQ als der R580 hat. Warum sollte man sich dann mit einem R600 zufrieden geben, der ebenso in der BQ unterlegen wäre? Der R600 kommt verdammt spät, da sollte ATi dann auch bitteschön die BQ auf G80 Niveau schieben.
Und warum ich keinen G80 habe geht dich sowas von garnix an... :P
MfG :cool:
MartinRiggs
2007-04-12, 13:24:24
Was hat meine Gf 7 bitteschön mit dem R600 oder G80 zu tun? :confused:
Du kannst doch nicht bestreiten dass der G80 eine bessere BQ als der R580 hat. Warum sollte man sich dann mit einem R600 zufrieden geben, der ebenso in der BQ unterlegen wäre? Der R600 kommt verdammt spät, da sollte ATi dann auch bitteschön die BQ auf G80 Niveau schieben.
Und warum ich keinen G80 habe geht dich sowas von garnix an... :P
MfG :cool:
Du reitest doch auf der Bildqualität rum hast aber ne Geforce 7 die nachweislich die mieseste BQ überhaupt hat.
Diskutierst ständig im R600-Thread mit aber scheinbar nur um ATI/AMD schlecht zu machen das passt doch nicht zusammen.
Außerdem vergleichst du die R580 mit der Next-Gen G80 also warum darf ich nicht die Geforce 7 mit den aktuellen vergleichen????
Wenn ich sowas lese wie "Warum sollte man sich dann mit einem R600 zufrieden geben"
Aus deinen Postings liest man ständig das dir der R600 eh nicht passt, also kauf dir ne G80 oder f.....e halten.
stellt sich die Frage, was sie da noch an der Taktschraube drehen konnten, um das erwünschte Ergebnis zu erzielen.
Von November bis März sind es 4 Monate. Viel Zeit um die Taktraten nach oben zu bringen.
Ansonsten ist es toll, wenn zwei Karten ein 1TFlop/s erreichen. Weniger toll ist das Kraftwerk, welches den Strom liefert.
Die 11k Punkte sind erst dann interessant, wenn der Stromverbrauch nicht absolut über den des G80 liegt. Ansonsten ist es vollkommen uninteressant. Das Ergebnis schafft auch nVidia mit einem höheren Stromverrbauch.
Wieso spekuliert? Sie sind doch bestätigt worden.
Vielleicht irre ich mich: 4x16 Vec4+1-ALUs.
Von AMD? Nicht, dass ich wüsste.
Q
James Ryan
2007-04-12, 13:36:32
Diskutierst ständig im R600-Thread mit aber scheinbar nur um ATI/AMD schlecht zu machen das passt doch nicht zusammen.
Ich diskutiere im R600 Thread weil mich der R600 interessiert und ich mir eventuell eine X2900 Karte kaufen werde, dies habe ich ungefähr schon 100 Mal gesagt. Desweiteren mache ich ATi nicht schlecht, sondern sehe neben den positiven Seiten auch die negativen Seiten. Dies habe ich im übrigen beim G80 genauso gemacht.
Außerdem vergleichst du auch die R580 mit der Next-Gen G80 also warum darf ich nicht die Geforce 7 mit den aktuellen vergleichen????
Man kann den G80 nur mit dem R580 vergleichen eben weil ATi nichts anderes bietet. Ich würde liebend gerne den G80 gegen den R600 vergleichen, leider will ATi dass irgendwie seit 6 Monaten nicht. ;) Was bleibt mir übrig?
Die Gf 7 hat in dieser Vergleichsfrage einfach nichts zu suchen. Im übrigen besaß ich sowohl G70/G71 Karten als auch R520/R580 Karten und kann mir ein sehr gutes Bild bezüglich ATi und NVIDIA machen.
Wenn ich sowas lese wie zufrieden geben, aus deinen Postings liest man ständig das dir der R600 eh nicht passt, also kauf dir ne G80 oder f.....e halten.
Was du in meinem Postings angeblich herausliest oder nicht, ist dein Problem.
Den letzten Satz will ich mal dezent überlesen haben.
Und jetzt bitte back to topic.
MfG :cool:
Winter[Raven]
2007-04-12, 13:37:24
Du hast immernoch nicht beantwortet, was an 11.000 Punkten bei 1600x1200 nicht beeindruckend sein soll.
Hmmm ... nun die >= 11k, beeindrucken mich nicht wirlich, bedenkt man an was so ein R600 anghebunden ist, 512bit SI + DDR4....
Du hast immernoch nicht beantwortet, was an 11.000 Punkten bei 1600x1200 nicht beeindruckend sein soll.
Es sind relativ gesehen 15% mehr als eine 8800GTX mit einen X6800 erreicht. Die Differenz von 1500 Punkte sieht zwar beeindruckend aus, aber in anbetracht, dass die Karte ein halbes Jahr später erscheint, ist sie weder beeindruckend noch phantastisch.
Nakai
2007-04-12, 13:56:24
15% liegt im Rahmen des erwartenden Ergebnisses.
mfg Nakai
Die farge is doch die, wie sind die auf die 11k gekommen? nen Quadcore als CPU`? wenn ja sind die 11k nicht wirklich der bringer.
als bsp. ein FX-60 mit einer 88gtx macht runde 9k. und allein da könnte schon nen normale C2D paar punkte mehr holen.
Also es heisst warten warten warten ;)
The_Invisible
2007-04-12, 13:59:49
Wer wird sich dann einen sechs Monate verspäteten R600 kaufen wollen, wenn die BQ unter derjenigen des G80 liegt?
Für dich mag die R580 BQ in Ordnung sein, im Gegensatz zum G80 ist sie nicht mehr zeitgemäß, ganz einfach.
MfG :cool:
mich würde ja mal interessieren ob der r600 per default wuAF anbietet wie der g80. wenn nicht: gott steh uns bei.
mfg
Henroldus
2007-04-12, 14:06:11
Also eine BQ wie die des R580 würde mich maßlos enttäuschen.
wüsste nicht was sich an der guten BQ des r580 seit dem erscheinen der 8800er geändert hat :confused:
das die 8800 nun WU beim AF arbeitet ist natürlich positiv.
ob man den Unterschied im realen Spiel sieht wage ich zu bezweifeln.
ausserdem steht hier immernoch alte gegen neue Generation, was "etwas" unfair ist. Zumindest im AA Bereich wird es beim R600 einige Neuerungen geben, mit dem AF wäre ich zufrieden bei entsprechendem Leistungszuwachs.
deekey777
2007-04-12, 14:09:32
Argh...
R600 to have free FSAA claim? (http://www.fudzilla.com/index.php?option=com_content&task=view&id=500&Itemid=1)
An das freie AF glaube ich nicht, aber freies MSAA ist doch nun wirklich nichts Besonderes, wenn der Grafikarte bis zu 150 GB/s Bandbreite zur Verfügung stehen.
Andererseits: Was nützt die hohe Bandbreite, wenn man diese nicht ausreizt? Verbesserte Xenos-ROPs?
Du reitest doch auf der Bildqualität rum hast aber ne Geforce 7 die nachweislich die mieseste BQ überhaupt hat.
Diskutierst ständig im R600-Thread mit aber scheinbar nur um ATI/AMD schlecht zu machen das passt doch nicht zusammen.
Außerdem vergleichst du die R580 mit der Next-Gen G80 also warum darf ich nicht die Geforce 7 mit den aktuellen vergleichen????
Wenn ich sowas lese wie "Warum sollte man sich dann mit einem R600 zufrieden geben"
Aus deinen Postings liest man ständig das dir der R600 eh nicht passt, also kauf dir ne G80 oder f.....e halten.
*unterschreib* im hardwareluxx gehts genau so ab
Argh...
R600 to have free FSAA claim? (http://www.fudzilla.com/index.php?option=com_content&task=view&id=500&Itemid=1)
An das freie AF glaube ich nicht, aber freies MSAA ist doch nun wirklich nichts Besonderes, wenn der Grafikarte bis zu 150 GB/s Bandbreite zur Verfügung stehen.
Andererseits: Was nützt die hohe Bandbreite, wenn man diese nicht ausreizt? Verbesserte Xenos-ROPs?
Auch der G80 hat "free FSAA".
Alles nur eine Sache der Auslegung und der Einstellung.
jedoch ist da wieder Sache mit Fudo: jeder Furz wird von ihm zitiert. Die News ist wohl vollkommen inhaltslos.
deekey777
2007-04-12, 14:16:30
Auch der G80 hat "free FSAA".
Alles nur eine Sache der Auslegung und der Einstellung.
jedoch ist da wieder Sache mit Fudo: jeder Furz wird von ihm zitiert. Die News ist wohl vollkommen inhaltslos.
Der G80 kann auch wie der Xenos pro Takt 4 Subpixel rausspucken (und einiges mehr). Für echtes 8xMSAA braucht der G80 zwei Takte (der R580 bräuchte vier). Und da stellt sich die Frage: Kann der R600 auch 4xMSAA pro Takt? (Ja, das klingt alles sehr doof.)
http://www.beyond3d.com/content/articles/4/4
http://www.beyond3d.com/content/reviews/1/10
DerKleineCrisu
2007-04-12, 14:21:26
wenn nicht: gott steh uns bei.
mfg
gott kann da auch leider nicht mehr helfen.
AMD hätte lieber den r600 überspringen sollen statt ihn mit über halben jahr verspätung zu bringen.
nvidia sagte ja sie warten ab was da kommt aber angst haben sie nicht da der nächste chip in 6 bis 9 monaten kommt. bis dahin wird sicherlich amd keinen neuen haben.
Das sie nun den neuen chip billiger raus bringen musste jedem klar sein.
Sie können schlecht einem erklären warum sie ü 500 € zahlen sollen wenn man ne 8800´er 640 MB version ab ca. 380 € bekommt :wink: .
@Henroldus
was soll denn da unfair sein ?. wenn AMD die GraKa raus bringt dann hat der nvidia chip auch schon 6 monate auf dem buckel und ist im graka bereich auch schon ein alter chip.
es ist nun mal so das AMD entwas der Zeitplanung hinten liegt. warum das so ist wissen sicherlich nur die manager oda PR leute. die wahren gründe wirste sicherlich nie erfahren warum er so spät kommt.
mfg
James Ryan
2007-04-12, 14:21:49
http://www.fudzilla.com/index.php?option=com_content&task=view&id=506&Itemid=1
Die neuen ATi Karten werden "ATi Radeon HD 2000" heißen, GDDR3 Variante des R600 kommt zuerst, danach die GDDR4 Variante.
MfG :cool:
mich würde ja mal interessieren ob der r600 per default wuAF anbietet wie der g80. wenn nicht: gott steh uns bei.
mfg
Viel wichtiger ist, dass die AF Qualität jetzt auch ohne A.I. off einwandfrei ist. Ob das wuAF jetzt mit einem Schalter aktiviert werden kann oder immer an ist, ist eigentlich egal. Auch wird das wuAF überschätzt. Man kann es ja nur wahrnehmen, wenn die passende Geometrie vorhanden ist (Schräge Wände, Hügel, Mulden usw.) Die A.I. Schummelei ist aber fast bei jedem Spiel zu erkennen und nervt. Auch finde ich die Bezeichnung für das wuAF im CCC als HQAF völlig daneben. Weiß aber nicht, ob das immer noch ist, da ich vor einem halben Jahr mein R520 verkauft habe.
Du reitest doch auf der Bildqualität rum hast aber ne Geforce 7 die nachweislich die mieseste BQ überhaupt hat.
Ja, noch mieser ist nur die R5xx in Standard-Einstellung.
dargo
2007-04-12, 14:43:04
Die Lüfterfirma scheint ne andere zu sein als beim letzten Mal.
Das ist auch gut so. Jetzt hat der Lüfter die gleiche Blätteranordnung wie der GTS/GTX Lüfter. Könnte also ein Hinweis auf "leise" sein.
Nakai
2007-04-12, 14:43:27
Argh...
R600 to have free FSAA claim? (http://www.fudzilla.com/index.php?option=com_content&task=view&id=500&Itemid=1)
An das freie AF glaube ich nicht, aber freies MSAA ist doch nun wirklich nichts Besonderes, wenn der Grafikarte bis zu 150 GB/s Bandbreite zur Verfügung stehen.
Andererseits: Was nützt die hohe Bandbreite, wenn man diese nicht ausreizt? Verbesserte Xenos-ROPs?
Freies AF wäre möglich, aber nur wenn die TMUs so ausgelegt wären. Der G80 performt ja auch schon gut mit AF mit seinen 2 BiTMUs.
Ansonsten ist diese News ja nichts besonderes.
mfg Nakai
Freies AF wäre möglich, aber nur wenn die TMUs so ausgelegt wären.
Wie müssten den die "TMUs ausgelegt" werden, dass "freies AF möglich" wäre?
AF kostet immer Leistung, da der Aufwand zur Realisierung höher ist als bei bilinear/trilinear. "For Free" ist es nur dann, wenn nicht die Texturleistung limitiert.
AnarchX
2007-04-12, 14:52:59
Hier hat jemand schon eine Retail R600-Karte:
Hi there
It arrived at 10:30am this morning, had to sign some NDA forms meaning I cannot disclose to much info.
Initial thoughts are it looks good, its very silent. Having issues at the moment with the alpha/beta drivers and no doubt due to the fact the OS had a NVIDIA card previously installed.
But on noise its quiet, pretty much silent. It runs hotter than a GTX but does not burn to the touch like previous ATI cards.
I will report back later in regard to performance once I've got past installation gremlins.
Hi there
Well got a few things running, though I am not confident at all with the drivers as things do see glitchy, might possibly need a fresh OS installation.
Am impressed though by the fact whilst underload it still remains nice and quiet, the fan control seems to work quite well, certainly a lot better than the old X1950's which seem to be just either on or off with the volume so the improved fan control is an nice improvement as it means now whilst gaming it still remains quiet.
Performance can't really say but at the moment its a mixed bag, some things its very impressive and others am unsure about but the image quality does seem some what better than the GTX with certain settings which could account for the lower FPS on some test, just seems more sharper and more details thrown into the image.
All I can say is wait for official reviews to get the real info on benchmarks and how it performs. For the moment I can not come to a conclusion on the performance until I've had more time with the card.
I feel it will be around GTX performance but has more features, better Vista performance and cost quite a lot less than a GTX.
http://forums.overclockers.co.uk/showthread.php?t=17712718&page=17&pp=30
Fuad hat ja auch schonmal davon gesprochen: kein G80-Killer, aber dafür ein guter Preis... :uponder:
just seems more sharper and more details thrown into the image
Genau so etwas haben wir uns doch alle von ATI erwartet ^^
Genau so etwas haben wir uns doch alle von ATI erwartet ^^
Wahrscheinlich testest er alles on bei der ATi Karte und bei nVidia alles auf off.
Und dann wundert er sich, dass die Ergebnisse niedriger ausfallen...
Anarchy-HWLUXX
2007-04-12, 15:10:16
Genau so etwas haben wir uns doch alle von ATI erwartet ^^
ja klar, wenn man die Detailstufe hochstellt schauts numal besser aus ;D
PS : Jeder mit a wenig phantasie und GraKa wissen könnt sowas posten, glaubwürdigkeit nochmal mehrere stufen unter fuads ...
Nakai
2007-04-12, 15:20:09
Wie müssten den die "TMUs ausgelegt" werden, dass "freies AF möglich" wäre?
AF kostet immer Leistung, da der Aufwand zur Realisierung höher ist als bei bilinear/trilinear. "For Free" ist es nur dann, wenn nicht die Texturleistung limitiert.
Die Texelleistung limitiert beim G80 bei den 2 BiTMUs kaum.
mfg Nakai
"I feel it will be around GTX performance but has more features, better Vista performance and cost quite a lot less than a GTX."
Klingt arg illusorisch mit dem Preis. Amd könnte natürlich die unverbindliche Preisempfehlung niedrig ansetzen evtl. unter den Herstellungskosten dafür aber nur in kleiner Stückzahl. Die Verluste würden sich daurch in Grenzen halten, die Händlerpreise würden mangels Verfügbarkeit explodieren und zusätzlich jede Menge Benchmarks. Die dadurch entstehende Publicity wäre perfekt um die dann wichtigen Mainstreammodelle zu verkaufen.
aylano
2007-04-12, 15:58:31
Die neuen ATi Karten werden "ATi Radeon HD 2000" heißen, GDDR3 Variante des R600 kommt zuerst, danach die GDDR4 Variante.
Wenn das so kommt, ist das eine gute Namensgebund da gerade HD modern ist bzw. flächenmäßig wird.
Erinnert an den Athlon XP zu Zeiten des Windows XP.
Also, der Name könnte von AMD so ausgedacht worden sein.
Fetza
2007-04-12, 16:02:10
Was hat meine Gf 7 bitteschön mit dem R600 oder G80 zu tun? :confused:
Du kannst doch nicht bestreiten dass der G80 eine bessere BQ als der R580 hat. Warum sollte man sich dann mit einem R600 zufrieden geben, der ebenso in der BQ unterlegen wäre? Der R600 kommt verdammt spät, da sollte ATi dann auch bitteschön die BQ auf G80 Niveau schieben.
Und warum ich keinen G80 habe geht dich sowas von garnix an... :P
MfG :cool:
Nochmal zu diesem ganzen unsäglichen bildquali quatsch. Der r580 hat mit ai off, eine hervorragende bildqualität. Ich wüsste nicht, wo die schlechter sein soll als beim g80. Das einzige was ati hier wirklich ändern sollte, wäre das man mit ai off die shaderoptimierung nicht auch deaktiviert. Ansonsten würde mich interessieren, was ein r580 mit dem g80 zu tun hat, wenn du dir vergleiche vom g71 zum r580 verbittest. Ich habe nen g71, und die af qualität ist nicht der hit, aber auch nicht so schlecht wenn man die load bios auf clamp stellt, aber damit kann ich noch leben die ein bis zwei monate.
Gibts bei den g80 treibern eigentlich auch noch den load bias schalter?
Und ausserdem glaube ich nicht, das ati bezüglich der bildquali geschlafen hat, denn bei msaa bricht der g80 ja auch noch recht heftig ein, da sind die ati karten immer effizienter gewesen.
Auch der G80 hat "free FSAA".
Alles nur eine Sache der Auslegung und der Einstellung.
jedoch ist da wieder Sache mit Fudo: jeder Furz wird von ihm zitiert. Die News ist wohl vollkommen inhaltslos.
Naja wie gesagt, ich definiere "free fsaa" immernoch mit aa for free, das heisst also im idealfall msaa ohne performanceverlust im vergleich zur selben auflösung nur ohne aa. Kann das der g80? Also, wüsste ich nicht was es da auszulegen gibt.
greetz
dargo
2007-04-12, 16:13:24
Gibts bei den g80 treibern eigentlich auch noch den load bias schalter?
Ja.
Und ausserdem glaube ich nicht, das ati bezüglich der bildquali geschlafen hat, denn bei msaa bricht der g80 ja auch noch recht heftig ein, da sind die ati karten immer effizienter gewesen.
Sorry, aber das ist der größte Quatsch den ich zum G80 je gelesen habe. :tongue:
Naja wie gesagt, ich definiere "free fsaa" immernoch mit aa for free, das heisst also im idealfall msaa ohne performanceverlust im vergleich zur selben auflösung nur ohne aa. Kann das der g80?
Ja, kann er. Zumindest bei 4xMSAA. For free vielleicht nicht ganz, der Einbruch unter 4xMSAA ist aber so gering, dass man es vernachläßigen kann.
So the fact it is indeed quiet, also remains quiet underload and runs cooler than previous X1950's is all meaningless?
The fact this card has much improved Vista drivers over the Current ATI CAT drivers with new features is also meaningless?
The fact that in OpenGL performance, DOOM3 and Aquamark is quicker than the GTX card is meaningless?
So the fact it is indeed quiet, also remains quiet underload and runs cooler than previous X1950's is all meaningless?
The fact this card has much improved Vista drivers over the Current ATI CAT drivers with new features is also meaningless?
The fact that in OpenGL performance, DOOM3 and Aquamark is quicker than the GTX card is meaningless?
Not at all buddy, but some people over here at the forum start crying as soon they're reading about some positive ATI rumours.
Whatever, in 1 month we'll know more.
Die Texelleistung limitiert beim G80 bei den 2 BiTMUs kaum.
Sagt wer? Du?
Gibt es dafür auch Beweise?
"Having issues at the moment with the alpha/beta drivers and no doubt due to the fact the OS had a NVIDIA card previously installed."
Also wer so einen Bullshit schreibt kann sicher nicht als glaubwürdige Quelle durchgehen.
san.salvador
2007-04-12, 16:48:34
Also wenn ich mir die bisherigen Vista-Treiber so ansehe, möchte ich wissen, woher die einen tollen R600-Treiber zaubern.
Also wenn ich mir die bisherigen Vista-Treiber so ansehe, möchte ich wissen, woher die einen tollen R600-Treiber zaubern.
Was wiederum ziemlich schwer zu bewerten ist, ohne entsprechende Hardware, nicht wahr?
Nakai
2007-04-12, 16:58:03
Sagt wer? Du?
Gibt es dafür auch Beweise?
Naja der G80 hat 64 TMUs. 32 die nur addressieren können und 32 die addressieren und filtern können. Alle TMUs können bisamplen. Durch die 32 TMUs die nur addressieren können, bekommt man 2 BiSamples pro TMU-Pärchen für AF. Sozusagen lastet 4xAF diese TMUs erst richtig aus.
mfg Nakai
Genau so etwas haben wir uns doch alle von ATI erwartet ^^"Sharper" kann vieles bedeuten. Auch Screenshots einer GF7 unter Quality sind meist schärfer als auf G80/R580 m. AI off. Nur kann "schärfer" eben auch bedeuten, dass es bei Bewegung flimmert.
Wer wird sich dann einen sechs Monate verspäteten R600 kaufen wollen, wenn die BQ unter derjenigen des G80 liegt?
Für dich mag die R580 BQ in Ordnung sein, im Gegensatz zum G80 ist sie nicht mehr zeitgemäß, ganz einfach.
MfG :cool:
Und warum kaufen noch leute Nividia G 7XXX serie???
Die war mir dem erscheinen ATis X1XXX serie nicht mehr zeitgemäß
Und warum kaufen noch leute Nividia G 7XXX serie???
Weil die Behandlungskosten für das Pfeifen im Ohr teuer sind...
Viuelleicht haben sie die Karten wegen dem Lüfter gekauft? Oder wegen der fehlenden Konkurrenz (haha@X1600). Oder sie haben die Karten wegen den Enerverbrauch bevorzugt... Achne, der zaehlt ja nicht als Vorteil für nVidia...
robbitop
2007-04-12, 17:18:43
Äh, ja. Das ist so bekannt wie nur was. Trotzdem ist es aktuell - wenn die Werte stimmen sollten - der einzige Anhaltspunkt, an dem wir R600 und G80 vergleichen können. Sollen wir's komplett ignorieren?
Q
Ich weise nur darauf hin, dass der Wert ziemlich nutzlos ist und man diesen bei der Bewertung nicht all zu stark gewichten sollte.
Fetza
2007-04-12, 17:19:25
Sorry, aber das ist der größte Quatsch den ich zum G80 je gelesen habe. :tongue:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/18/#abschnitt_f_e_a_r
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/20/#abschnitt_oblivion
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/21/#abschnitt_prey
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/23/#abschnitt_the_chronicles_of_riddick
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/24/#abschnitt_serious_sam_2
Wobei hier sicherlich das AF auch eine rolle spielt, aber eben nicht nur. Da gibts teilweise derbe performance einbrüche. Oder sehe ich da was falsch?
dargo
2007-04-12, 17:24:20
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/18/#abschnitt_f_e_a_r
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/20/#abschnitt_oblivion
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/21/#abschnitt_prey
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/23/#abschnitt_the_chronicles_of_riddick
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/24/#abschnitt_serious_sam_2
Wobei hier sicherlich das AF auch eine rolle spielt, aber eben nicht nur. Da gibts teilweise derbe performance einbrüche. Oder sehe ich da was falsch?
Ja, du siehst es falsch. Die Tests von Computerbase haben Null Aussagekraft wenn es um MSAA geht. Das habe ich schon immer gesagt. Verstehe nicht, dass man ständig CB bei Performancevergleichen verlinkt. Das Problem an CB ist, dass sie das ressourcenfressende TSAA/AAA bei den Tests verwenden.
Edit:
Ich habe mal die intergrierte Benchmark Funktion von FEAR benutzt. System siehe Sig. (GTS @612/900Mhz).
1280x1024 1xAA/16xAF, max. Details:
101 avg. fps
1280x1024 4xMSAA/16xAF, max. Details:
94 avg. fps
robbitop
2007-04-12, 17:27:38
Der G80 kann auch wie der Xenos pro Takt 4 Subpixel rausspucken (und einiges mehr). Für echtes 8xMSAA braucht der G80 zwei Takte (der R580 bräuchte vier). Und da stellt sich die Frage: Kann der R600 auch 4xMSAA pro Takt? (Ja, das klingt alles sehr doof.)
http://www.beyond3d.com/content/articles/4/4
http://www.beyond3d.com/content/reviews/1/10
Als wuerde der eine laecherliche Extratakt der ROPs fuer 8xMSAA den Kohl fettmachen. Wenn das der Fall waere, wuerden wirklich etliche Gigapixel auf dem Monitor zu sehen sein und damit 3 - 4 stellige FPS Bereiche. Da das offensichtlich nicht der Fall ist, dauert die Berechnung eines Pixels extrem lange. 100erte Takte. Da ist ein Takt fuer das Loopen der ROPs nahezu unbedeutend.
Offensichtlich gibt es chipintern noch andere Bereiche und Flaschenhaelse, die die IHVs von Generation zu Generation weiten, um MSAA immer schneller zu machen.
robbitop
2007-04-12, 17:34:17
Wie müssten den die "TMUs ausgelegt" werden, dass "freies AF möglich" wäre?
AF kostet immer Leistung, da der Aufwand zur Realisierung höher ist als bei bilinear/trilinear. "For Free" ist es nur dann, wenn nicht die Texturleistung limitiert.
Es waere for free, wenn die TMUs genuegend LERPs pro Takt zur Verfuegung stellen. Dazu muesste man die nur entsprechend groesser machen.
reunion
2007-04-12, 17:43:46
Ich weise nur darauf hin, dass der Wert ziemlich nutzlos ist und man diesen bei der Bewertung nicht all zu stark gewichten sollte.
Für den Anspruch, den der 3dmark stellt, ist er nutzlos, da er natürlich keine Allgemeingültigkeit besitzen kann. Genauso ist es "nutzlos" (wobei nutzlos vielleicht das falsche Wort ist), die Performance einer GPU an einem einzigen Spiel festmachen zu wollen. Wie jede andere Anwendung kann der 3dmark natürlich nur die Leistung im 3dmark selbst messen. Man kann damit allerdings sehr wohl eine Leistungsbeurteilung in gewissen Bereichen wagen, denn die höheren fps müssen ja von irgend wo herkommen (sofern dort alles mit rechten Dingen zugegangen ist). Womit sich die Frage stellt, was beim 3dmark bei einem G80 limitiert. Interessant wäre auch zu wissen, warum ein G84 vorallem in 3dmark überzeugen kann. Das würde schon helfen, aufzuzeigen, warum der R600 hier im Vorteil ist, bzw. daraus folgend wo er ev. schneller ist.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=506&Itemid=1
Die neuen ATi Karten werden "ATi Radeon HD 2000" heißen, GDDR3 Variante des R600 kommt zuerst, danach die GDDR4 Variante.
MfG :cool:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=462&Itemid=34
R600, X2900 name confirmed _ vom 10. April... einfach nur LOL der Fuad.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=462&Itemid=34
R600, X2900 name confirmed _ vom 10. April... einfach nur LOL der Fuad.
gehts nur mir so aber ich finds null lustig
PCGH_Carsten
2007-04-12, 18:06:30
So the fact it is indeed quiet, also remains quiet underload and runs cooler than previous X1950's is all meaningless?
The fact this card has much improved Vista drivers over the Current ATI CAT drivers with new features is also meaningless?
The fact that in OpenGL performance, DOOM3 and Aquamark is quicker than the GTX card is meaningless?
Sounds very good, but as i take it, those claims are far from being facts right now. But i sure hope they'll be in due time.
deekey777
2007-04-12, 18:17:10
Warum ist jetzt die Unterhaltung auf Englisch?
Moralelastix
2007-04-12, 18:28:14
Warum ist jetzt die Unterhaltung auf Englisch?
Der Gast is bestimmt Fuad.
dargo
2007-04-12, 18:28:43
Ist das eigendlich schon sicher?
http://www.hartware.de/news_41838.html
Ich denke mal die meinen die X2900XT 512MB oder? Ich finde das natürlich toll, eine X2900XT für ~450-500$ (Strassenpreis von ca. 370-410€). Das würde wieder dazu führen, dass NV die Preise korrigieren müßte. Eine G8800GTX für ~350€ wäre auch mal was feines. :D
Ach hoffendlich kommt es so, dann gibts wieder bissel mehr Bewegung im High-End Grakamarkt.
deekey777
2007-04-12, 18:36:52
Der Gast is bestimmt Fuad.
Ist er nicht. Es sieht nach einem Quote aus einem anderen Forum aus.
Moralelastix
2007-04-12, 18:47:27
Ist er nicht. Es sieht nach einem Quote aus einem anderen Forum aus.
Ja das könnte auch sein.:biggrin:
Ist das eigendlich schon sicher?
http://www.hartware.de/news_41838.html
Ich denke mal die meinen die X2900XT 512MB oder? Ich finde das natürlich toll, eine X2900XT für ~450-500$ (Strassenpreis von ca. 370-410€). Das würde wieder dazu führen, dass NV die Preise korrigieren müßte. Eine G8800GTX für ~350€ wäre auch mal was feines. :D
Ach hoffendlich kommt es so, dann gibts wieder bissel mehr Bewegung im High-End Grakamarkt.
Warum sollte nVidia da mitgehen? Sie haben ihre Karten schon abgesetzt und ihnen sind die Mergen wichtiger als alles anderes.
Im Grunde wird es dazu nicht kommen, da sich AMD dann die ganzen anderen Segmente kaputt macht. Wer kauft schon einen rv630 für 200€, wenn es für 350€ einen r600XT gibt.
laser114
2007-04-12, 18:51:02
Wenn das so kommt, ist das eine gute Namensgebund da gerade HD modern ist bzw. flächenmäßig wird.
Errinert aber auch irgendwie an das zusätzliche Kürzel FX der Geforce-5-Serie. X-D
w0mbat
2007-04-12, 18:51:31
http://www.fudzilla.com/index.php?option=com_content&task=view&id=462&Itemid=34
R600, X2900 name confirmed _ vom 10. April... einfach nur LOL der Fuad.
Weil der Name auf einigen Slides eben noch X2900 ist und jetzt anscheinend auf HD2900 geändert wurde. Einen Namen kann ATi ja schnell ändern.
PCGH_Carsten
2007-04-12, 18:59:13
Weil der Name auf einigen Slides eben noch X2900 ist und jetzt anscheinend auf HD2900 geändert wurde. Einen Namen kann ATi ja schnell ändern.
Ja, richtig. Aber genau das ist der Unterschied zwischen einer gut indizierten Möglichkeit und einem gesicherten Fakt. Und da wird leider von kaum jemandem, heißt er nun Fuad oder schreibt hier im Thread mit, noch vernünftig differenziert.
btw: Fuad spricht und versteht ziemlich gut deutsch - der bräuchte hier nicht englisch zu posten.
HI there
To overclock you will need all 8 pins connected to give the card the power required to higher clock speeds when overclocking.
http://forums.overclockers.co.uk/showpost.php?p=9112202&postcount=671
Dann wird die Karte wohl bis zum Ende der 225Watt Skala bei 2x6 gehen.
Daraus resultiere, dass die Karte deutlich mehr Strom benötigt als die 8800GTX, deren 2x6 Anschlüsse als Sicherung statt Notwendigkeit verwendet werden.
Superheld
2007-04-12, 19:04:37
egal was der da schreibt, ich will Benchmarks sehen:(
dargo
2007-04-12, 19:16:28
Warum sollte nVidia da mitgehen?
Damit die Lager mit nem G80 nicht voll bleiben? ;)
Im Grunde wird es dazu nicht kommen, da sich AMD dann die ganzen anderen Segmente kaputt macht. Wer kauft schon einen rv630 für 200€, wenn es für 350€ einen r600XT gibt.
Falls eine X2900XT ~350-400€ kosten sollte wird ein RV630 schon ~150-170€ kosten. Ich sehe da also keine Probleme eigene Segmente kaputt zu machen. Und einen RV630 für diesen Preis halte ich durchaus für realistisch bei 65nm.
Edit:
So wie es aussieht scheint diesmal ATI die richtige Strategie gewählt zu haben. Denn nichts geht über einen günstigen Preis bei den OEMs.
http://de.theinquirer.net/2007/04/11/dell_kauft_tonnenweise_grafikc.html
Damit die Lager mit nem G80 nicht voll bleiben? ;)
Das Unterscheidet nVidia von AMD. Sie machen sich nicht ihr Geschäft kaputt.
Falls eine X2900XT ~350-400€ kosten sollte wird ein RV630 schon ~150-170€ kosten. Ich sehe da also keine Probleme eigene Segmente kaputt zu machen. Und einen RV630 halte ich durchaus für realistisch bei 65nm.
Schön das du keine Probleme darin siehst, die umsatzstärksten Produkte noch niedriger einzustufen.
Nun gut, du wirst auch sicher keine Probleme haben später den Monopolsondernzuschlag zu bezahlen, wenn ein Hersteller aufgrund fehlender Aussichten sich vom Markt zurückzieht.
http://forums.overclockers.co.uk/showpost.php?p=9112202&postcount=671
Dann wird die Karte wohl bis zum Ende der 225Watt Skala bei 2x6 gehen.
Daraus resultiere, dass die Karte deutlich mehr Strom benötigt als die 8800GTX, deren 2x6 Anschlüsse als Sicherung statt Notwendigkeit verwendet werden.
Der Fakt mit dem OC und dem zusätzlichen Stecker ist auch schon länger bekannt bzw. kursiert schon länger als Gerücht im Internet herum. Ich bin da noch misstrauisch. Der soll mal die Karte so abfotografieren, dass es erkenntlich wird, dass er wirklich in Besitz eines Exemplares ist. NDA hin oder her. Jeder weiß wie die OEM Version aussieht, wieso also daraus ein Geheimnis machen?
horn 12
2007-04-12, 19:27:30
Die Namensändernung kommt aus dem Grund weil A/A die Soundlösung mitvermarkzen will, daher nun HD 2900!
HD Steht nun für HD-Sound oder Hard Sound, wie man es nimmt. Somit dürfte sich die Grafikkarte nochmals weitaus einen besseren Namen verschaffen. Die Karte wird der Knaller werden!
Hoffentlich kommt die HD 2900XT schon im April (23-24) in die Läden ,aber spätestens Anfang Mai sollte es soweit sein.
w0mbat
2007-04-12, 19:30:22
Der Fakt mit dem OC und dem zusätzlichen Stecker ist auch schon länger bekannt bzw. kursiert schon länger als Gerücht im Internet herum. Ich bin da noch misstrauisch. Der soll mal die Karte so abfotografieren, dass es erkenntlich wird, dass er wirklich in Besitz eines Exemplares ist. NDA hin oder her. Jeder weiß wie die OEM Version aussieht, wieso also daraus ein Geheimnis machen?
Er hat aber die Retailversion.
"Because OCUK is one of the biggest resellers there..."
Well according to HFR:
- the X2900 XT 512 MB is priced 399$
- the X2900 XTX is still not a sure product
- the R600 is a little late mid may vs early may
- the RV630 and RV610 are late: available in june
http://forum.beyond3d.com/showpost.php?p=967189&postcount=1944
dargo
2007-04-12, 19:37:43
Das Unterscheidet nVidia von AMD. Sie machen sich nicht ihr Geschäft kaputt.
Ja, ne ist klar. Warum hat NV dann bei der GTX nicht einen Preis von 699$ angesetzt wo es keine Konkurrenz gab/gibt?
Schön das du keine Probleme darin siehst, die umsatzstärksten Produkte noch niedriger einzustufen.
Nun gut, du wirst auch sicher keine Probleme haben später den Monopolsondernzuschlag zu bezahlen, wenn ein Hersteller aufgrund fehlender Aussichten sich vom Markt zurückzieht.
Nochmal, hier steht 80nm (NV) gegen 65nm (ATI) bei den Midrange/Low-End Produkten an. Bei guter Ausbeute beider Hersteller - wer kann da wohl günstiger das Produkt anbieten? ;)
http://forum.beyond3d.com/showpost.php?p=967189&postcount=1944
Wow. :eek:
Also doch 320-330€ Strassenpreis für die X2900XT 512MB bei guter Verfügbarkeit. Das gefällt mir. :D
Die Namensändernung kommt aus dem Grund weil A/A die Soundlösung mitvermarkzen will, daher nun HD 2900!Und diese Erklärung hast du woher? Oder hast du dir mal wieder was aus den Fingern gesaugt?
HD Steht nun für HD-Sound oder Hard Sound, wie man es nimmt.Hard Sound? Willst du uns veräppeln?
w0mbat
2007-04-12, 19:47:10
Lieber Gast, ersteres stimmt fast, letzteres ist Schwachsinn. Aber horn 12 kann man ja verzeihen.
[dzp]Viper
2007-04-12, 19:47:57
Wow. :eek:
Also doch 320-330€ Strassenpreis für die X2900XT 512MB bei guter Verfügbarkeit. Das gefällt mir. :D
Glaube ich persönlich nicht. War bisher immer so, dass die Dollar-Preise am Ende in Deutschland 1:1 übernommen wurden. Also werden es wohl am Anfang auch knapp 400€ werden.
Ja, ne ist klar. Warum hat NV dann bei der GTX nicht einen Preis von 699$ angesetzt wo es keine Konkurrenz gab/gibt?
Musste nVidia doch garnicht. Die geringere Verfügbarkeit und die fehlende Konkurrenz trieb den Preis bis dahin hoch.
Nochmal, hier steht 80nm (NV) gegen 65nm (ATI) bei den Midrange/Low-End Produkten an. Bei guter Ausbeute beider Hersteller - wer kann da wohl günstiger das Produkt anbieten? ;)
Und wann erreicht AMD die "gute Ausbeute"?
Na hoffentlich nicht erst dann, wenn nVidia auf 65nm einen kleineren Chip mit doppelter Geschwindigkeit vorstellt...
Wow. :eek:
Also doch 320-330€ Strassenpreis für die X2900XT 512MB bei guter Verfügbarkeit. Das gefällt mir. :D
Ja, vier Monate nach dem Launch. Aber das hatten wir ja schonmal.
dargo
2007-04-12, 19:54:49
Viper;5403967']Glaube ich persönlich nicht. War bisher immer so, dass die Dollar-Preise am Ende in Deutschland 1:1 übernommen wurden. Also werden es wohl am Anfang auch knapp 400€ werden.
Wer am Anfang Hardware kauft ist selber schuld! Ich habe nicht umsonst von guter Verfügbarkeit gesprochen. ;)
Ca. 1 Monat nach dem Hardlaunch kannst du mit einem 1:1,22 (€ vs. $) Faktor rechnen. :)
horn 12
2007-04-12, 19:55:45
:mad: Sorry, aber nun reicht langasam.:mad: :mad:
Hard Sound meinte ich HD Sound in Hardware integriert.
Nun stimmen viele Infos von mir doch, und alle greifen mich trotzdem an.
Auch DU, Wombat von dem ich jedoch viel halte!
Dann wird es wieder heissen, .... ah dieser Horn12 .... Nichts als Unfug geplaudert, aufgeschnappt udg.
A/A will die verlorene?! Zeit wieder "einholen" und setzt zum Kampf an. Bei den Super Preisen (vor allem HighEnd) und verschiedenen Gimnicks (Sound,Games mit SM4.0 Support, DX10.1 ( Die beiden Games sollen nur auf ATI´s laufen zwecks dem DX 10.1)
ein leichten die Grafikkarten unter das Volk zu bringen, - aber ich rede ja nur Stuss.... DAHER Halt ich nun das Maul:mad: :P
Warum müsst ihr nur alle auf mir rumhacken, wie seinerzeit beim R520 und AGP Varianten, und was ist geschehen?:eek: :eek:
Ca. 1 Monat nach dem Hardlaunch kannst du mit einem 1:1,22 (€ vs. $) Faktor rechnen. :)
Oh, und wenn nicht? Zahlst du ihm dann den Differenzbetrag?
dargo
2007-04-12, 20:01:42
Musste nVidia doch garnicht. Die geringere Verfügbarkeit und die fehlende Konkurrenz trieb den Preis bis dahin hoch.
Wie bitte? Eine GTX kostete am Launchtag 599$ und bis heute hat sich daran nichts geändert. ;)
Und wann erreicht AMD die "gute Ausbeute"?
Na hoffentlich nicht erst dann, wenn nVidia auf 65nm einen kleineren Chip mit doppelter Geschwindigkeit vorstellt...
Soll ich jetzt lachen? Wie performant eine G8600GTS ist haben wir schon in ersten Benchmarks gesehen. X1950Pro Niveau und diese gibts schon für 120-150€.
Ja, vier Monate nach dem Launch. Aber das hatten wir ja schonmal.
Wollen wir wetten, dass du ca. in einem Monat nach Hardlaunch mit einem Faktor von ~1:1,2 (€ vs. $) rechnen kannst?
san.salvador
2007-04-12, 20:02:03
:mad: Sorry, aber nun reicht langasam.:mad: :mad:
Hard Sound meinte ich HD Sound in Hardware integriert.
Nun stimmen viele Infos von mir doch, und alle greifen mich trotzdem an.
Auch DU, Wombat von dem ich jedoch viel halte!
Dann wird es wieder heissen, .... ah dieser Horn12 .... Nichts als Unfug geplaudert, aufgeschnappt udg.
A/A will die verlorene?! Zeit wieder "einholen" und setzt zum Kampf an. Bei den Super Preisen (vor allem HighEnd) und verschiedenen Gimnicks (Sound,Games mit SM4.0 Support, DX10.1 ( Die beiden Games sollen nur auf ATI´s laufen zwecks dem DX 10.1)
ein leichten die Grafikkarten unter das Volk zu bringen, - aber ich rede ja nur Stuss.... DAHER Halt ich nun das Maul:mad: :P
Warum müsst ihr nur alle auf mir rumhacken, wie seinerzeit beim R520 und AGP Varianten, und was ist geschehen?:eek: :eek:
Es zählt nicht nur das was, sondern auch wie man etwas vermittelt. :rolleyes:
dargo
2007-04-12, 20:03:29
Oh, und wenn nicht? Zahlst du ihm dann den Differenzbetrag?
Es hat keinen Sinn mit dir zu diskuttieren. Anscheinend hast du die ersten ~4 Wochen nach dem G80 Launch verpennt.
Heimatloser
2007-04-12, 20:04:20
Boah die Ati sieht so schnell aus - da kann Nvidia gleich einpacken. ;D
Ähh - ach ne is ja gar kein Rennboot. :eek:
Ich dachte nur weil der Lüfter alleine schon 2 Ampere wegbrutzelt, das wäre ne Art Turboaußenborder. ;D
DerHeimatlose
DX10.1Wie kommst du denn jetzt schon wieder darauf, dass der R600 D3D10.1 unterstützen soll?
Es hat keinen Sinn mit dir zu diskuttieren. Anscheinend hast du die ersten ~4 Wochen nach dem G80 Launch verpennt.
Lieht vielleicht auch daran, dass ich mich nicht jeden Tag erfreuen konnte, dass die Preise um einen Euro gefallen sind...
Der Preis der 8800GTX blieb lange Zeit stabil zwischen 550€ und 600€. Erst nach 3-4 Monate nährte man sich der 500€ Marke. Nichts mit 4 Wochen nach dem Launch gibt es die Karte sch für 500€.
Soll ich jetzt lachen? Wie performant eine G8600GTS ist haben wir schon in ersten Benchmarks gesehen. X1950Pro Niveau und diese gibts schon für 120-150€.
Für eine Karte, die einen 40% kleineren DIE hat, ist dies ein gutes Ergebnis. nVidia geht es vorrangig nur um die Wirtschaftlichkeit und die ist mit der Karte gegeben.
dargo
2007-04-12, 20:15:10
Lieht vielleicht auch daran, dass ich mich nicht jeden Tag erfreuen konnte, dass die Preise um einen Euro gefallen sind...
Der Preis der 8800GTX blieb lange Zeit stabil zwischen 550€ und 600€. Erst nach 3-4 Monate nährte man sich der 500€ Marke. Nichts mit 4 Wochen nach dem Launch gibt es die Karte sch für 500€.
Eine GTX hat direkt nach dem Launch bei einigen Shops 650-700€ gekostet. Ca. 4 Wochen später gabs sie schon vereinzelt für ~510€.
http://geizhals.at/deutschland/?phist=226159&age=183
http://geizhals.at/deutschland/?phist=224911&age=183
http://geizhals.at/deutschland/?phist=229015&age=183
So in etwa sah das dann aus.
Bei den GTS sah es auch lustig aus.
http://geizhals.at/deutschland/?phist=226000&age=183
http://geizhals.at/deutschland/?phist=225880&age=183
Was sagt uns das? Erst 4-8 Wochen nach dem Launch kaufen. :)
Eine GTX hat direkt nach dem Launch bei einigen Shops 650-700€ gekostet. Ca. 4 Wochen später gabs sie schon vereinzelt für ~510€.
Ein hat seine Karte für den Preis bekommen.
Alle andere dürften deutlich mehr bezahlen. Bis zum Februar kamen fast alle nicht unter 550€ weg.
themk
2007-04-12, 20:25:47
Die Namensändernung kommt aus dem Grund weil A/A die Soundlösung mitvermarkzen will, daher nun HD 2900!
HD Steht nun für HD-Sound oder Hard Sound, wie man es nimmt. Somit dürfte sich die Grafikkarte nochmals weitaus einen besseren Namen verschaffen. Die Karte wird der Knaller werden!
Hoffentlich kommt die HD 2900XT schon im April (23-24) in die Läden ,aber spätestens Anfang Mai sollte es soweit sein.
HD steht garantiert für High Definition, schließlich will man damit auch den verbauten Video-Prozessor bewerben, der - so hieß es mal - in der Lage sein soll, 2 HD Filme gleichzeitig darzustellen.
DX10.1 halte ich für unwahrscheinlich, schließlich sollte dieses doch erst - klar abgegrenzt - nach DX10 kommen. ^^
reunion
2007-04-12, 20:34:04
http://forums.overclockers.co.uk/showpost.php?p=9112202&postcount=671
Dann wird die Karte wohl bis zum Ende der 225Watt Skala bei 2x6 gehen.
Die "Skala" wird man mit Sicherheit nicht voll ausreizen, da muss immer noch einiges an Puffer für Spitzen und minderwertige Mainboards, Netzteile, etc. bleiben. Wenn die Karte ohne Overdrive (was übrigens schon länger bekannt ist) mit 2x6Pin auskommt, wird der Verbrauch unter Last <200W liegen, da würde ich jede Wette eingehen. Die Spezifikationen wurden noch nie von irgendeiner Karte auch nur annähernd ausgereizt, und das wohl nicht ganz ohne Grund.
Das Unterscheidet nVidia von AMD. Sie machen sich nicht ihr Geschäft kaputt.
Angenommen die Werte hat sich nicht nur jemand aus den Fingern gesaugt: Ein R600 ist nach aktuellem stand der Dinge kleiner als ein G80, und eine 2900XT hat weniger VRAM als bsw. einen 8800GTS, welche für 449$ verkauft wird. Ich denke nicht, dass man sich damit die Geschäfte kaputt macht. Für die XTX mit einem GB wird ATi mit Sicherheit mindestens 100$ Aufpreis verlangen.
reunion
2007-04-12, 20:43:44
fx57.net hat mal wieder 3dmark-Werte, erscheint mir aber wenig glaubwürdig: http://www.fx57.net/?p=576
dargo
2007-04-12, 20:48:26
Angenommen die Werte hat sich nicht nur jemand aus den Fingern gesaugt: Ein R600 ist nach aktuellem stand der Dinge kleiner als ein G80, und eine 2900XT hat weniger VRAM als bsw. einen 8800GTS, welche für 449$ verkauft wird.
Die GTS 640MB liegt momentan bei 399$. :)
dildo4u
2007-04-12, 20:53:02
Angenommen die Werte hat sich nicht nur jemand aus den Fingern gesaugt: Ein R600 ist nach aktuellem stand der Dinge kleiner als ein G80, und eine 2900XT hat weniger VRAM als bsw. einen 8800GTS, welche für 449$ verkauft wird.
Werden nicht alle R600 High-End ATI Karten mit GDDR4 ausgestattet?Dann könnten 512mb GDDR4 teurer sein als 640mb GDDR3.
reunion
2007-04-12, 20:55:44
Werden nicht alle R600 High-End ATI Karten mit GDDR4 ausgestattet?Dann könnten 512mb GDDR4 teurer sein als 640mb GDDR3.
Nein, nur das 1GB Modell hat GDDR4, alle anderen niedrig getakteten GDDR3, was dank 512-bit SI noch immer mehr als genug Bandbreite ergibt.
AnarchX
2007-04-12, 20:56:51
Werden nicht alle R600 High-End ATI Karten mit GDDR4 ausgestattet?Dann könnten 512mb GDDR4 teurer sein als 640mb GDDR3.
Nein, nur die R600XTX soll mit GDDR4 ausgestattet werden. Die kleineren Karten sollen mit GDDR3 kommen, was bei einem 512Bit SI ja auch ausreicht. ;)
Hmm... vielleicht kommt ja die mögliche Preisvorstellung von $999 von nVidia für die 8800Ultra nicht von ungefähr. ;)
Angenommen die Werte hat sich nicht nur jemand aus den Fingern gesaugt: Ein R600 ist nach aktuellem stand der Dinge kleiner als ein G80, und eine 2900XT hat weniger VRAM als bsw. einen 8800GTS, welche für 449$ verkauft wird.
Der DIE sagt erstmal nichts aus. Wieviele Cores können verkauft werden? Wieviele schaffen die Taktung?
Auch sagt der Ram nichts aus. 16 oder 8 Bausteine? Bleibt das 512bit Speicherinterface bei 8 Speichersteinen erhalten? Wenn sie 16 Speichersteine verwenden, dann sind die Kosten höher als bei der GTS.
w0mbat
2007-04-12, 21:38:12
Übrigens ist sich Fuad über das HD vorm Namen nicht 100%tig sicher. Es könnte auch eine Kombi aus HD und dem üblichem X werden.
Slipknot79
2007-04-12, 21:39:15
Ein hat seine Karte für den Preis bekommen.
Alle andere dürften deutlich mehr bezahlen. Bis zum Februar kamen fast alle nicht unter 550€ weg.
Meine habe ich am 3 Jänner um 528EUR gecheckt. Warum? Weil ich bei nem Händler bestellt habe, der die Teile nicht langernd hatte, eine Woche gewartet und gut is :)
- ATi R600XTX 1GB’lık model: Ortalama: 12k - GeForce 8800GTX 768MB: Ortalama: 10,5K
- ATi R600XT 512MB’lık Model: Ortalama: 10k - GeForce 8800GTS: Ortalama: 9K
Quelle: http://www.fx57.net/?p=576
Daluxx
2007-04-12, 23:48:22
:mad: Sorry, aber nun reicht langasam.:mad: :mad:
Hard Sound meinte ich HD Sound in Hardware integriert.
Nun stimmen viele Infos von mir doch, und alle greifen mich trotzdem an.
Auch DU, Wombat von dem ich jedoch viel halte!
Dann wird es wieder heissen, .... ah dieser Horn12 .... Nichts als Unfug geplaudert, aufgeschnappt udg.
A/A will die verlorene?! Zeit wieder "einholen" und setzt zum Kampf an. Bei den Super Preisen (vor allem HighEnd) und verschiedenen Gimnicks (Sound,Games mit SM4.0 Support, DX10.1 ( Die beiden Games sollen nur auf ATI´s laufen zwecks dem DX 10.1)
ein leichten die Grafikkarten unter das Volk zu bringen, - aber ich rede ja nur Stuss.... DAHER Halt ich nun das Maul:mad: :P
Warum müsst ihr nur alle auf mir rumhacken, wie seinerzeit beim R520 und AGP Varianten, und was ist geschehen?:eek: :eek:
Der R600 hat kein DX10.1;)
Fetza
2007-04-13, 01:01:39
Ja, du siehst es falsch. Die Tests von Computerbase haben Null Aussagekraft wenn es um MSAA geht. Das habe ich schon immer gesagt. Verstehe nicht, dass man ständig CB bei Performancevergleichen verlinkt. Das Problem an CB ist, dass sie das ressourcenfressende TSAA/AAA bei den Tests verwenden.
Edit:
Ich habe mal die intergrierte Benchmark Funktion von FEAR benutzt. System siehe Sig. (GTS @612/900Mhz).
1280x1024 1xAA/16xAF, max. Details:
101 avg. fps
1280x1024 4xMSAA/16xAF, max. Details:
94 avg. fps
Hmm, gut - das sind natürlich erfreuliche werte. Danke für den kleinen bench, "for free" is aber was anderes :) Aber der fps einbruch ist wirklich gering.
For Free gibts gar nix...
Das 4xMSAA maximal 25% FPS Verlust gegenüber MSAA Off beim G80 resultiert ist aber seit Release vor 6Monaten bekannt...
Bin echt gespannt ob wir jemals erfahren was am R600 defekt war das er nicht released wurde wie geplant oder mit dem 1. Restep...
Wenn er wirklich jetzt "nur" GTX Leistung bringt dann hat AMD ehemals ATI sich wiederholt in die Nesseln gesetzt. Kann mir keiner sagen sie haben die GPU zurückgehalten für nen großen Release und bla das die Karte günstig herzustellen ist und das an die Kunden weitergegeben wird. Ohne nen angepassten Preis an jetzige G80 Produkte kannste doch gar nix verkaufen, wie Rot muss man sein das man das nicht erkennt?
Schwächeres Bild als beim R520 Release ^^ 6Monate keine Revenues, kein OEM Vertrag keine quasi Open Beta des Vista Treibers *g
Bin gespannt welchen Witz wir zum Release (der ja nochmal nach hinten gewandert ist) erleben werden. Und RV630 kommt erst Mitte Juni? Knapp fürs Back to School order program...
For Free gibts gar nix...
Das 4xMSAA maximal 25% FPS Verlust gegenüber MSAA Off beim G80 resultiert ist aber seit Release vor 6Monaten bekannt...
Bin echt gespannt ob wir jemals erfahren was am R600 defekt war das er nicht released wurde wie geplant oder mit dem 1. Restep...
Wenn er wirklich jetzt "nur" GTX Leistung bringt dann hat AMD ehemals ATI sich wiederholt in die Nesseln gesetzt. Kann mir keiner sagen sie haben die GPU zurückgehalten für nen großen Release und bla das die Karte günstig herzustellen ist und das an die Kunden weitergegeben wird. Ohne nen angepassten Preis an jetzige G80 Produkte kannste doch gar nix verkaufen, wie Rot muss man sein das man das nicht erkennt?
Schwächeres Bild als beim R520 Release ^^ 6Monate keine Revenues, kein OEM Vertrag keine quasi Open Beta des Vista Treibers *g
Bin gespannt welchen Witz wir zum Release (der ja nochmal nach hinten gewandert ist) erleben werden. Und RV630 kommt erst Mitte Juni? Knapp fürs Back to School order program...
Ich glaube, da war nichts defekt, sondern er war einfach zu langsam.
Ich denke, daß die Resultate dann im Mai zumindest ATI Käufer zufrieden stellen werden, wenngleich ich den Geschwindigkeitsvorteil auf max 10% schätze.
Horn, schön daß hier auch Leute mit einer gewissen Leidenschaft posten, also lass dich nicht provozieren. :wink:
http://forum.beyond3d.com/showpost.php?p=967189&postcount=1944
not sure produkt...hört sich ja an als obs die ned geben wird.
naja wenn nicht dann mit anderem namen
fx57.net hat mal wieder 3dmark-Werte, erscheint mir aber wenig glaubwürdig: http://www.fx57.net/?p=576
hier gibs aufeinmal ne xtx
was is mit der dualcorekarte ?
Ailuros
2007-04-13, 06:12:08
Afaik D3D10.1 = R7x0.
Was jetzt die vorigen G80/AA-Resultate betrifft, sollte es klar sein dass der Verlust in 1280 relativ klein ist da man in der Aufloesung sowieso verdammt CPU limitiert ist mit solchen GPUs.
Zur Erinnerung: http://users.otenet.gr/~ailuros/AAPerf.pdf
Wenn man von 1280 auf 2048 steigt wird eben aus den ~20% Verlust (hier) von 1x auf 4xAA dann eben doch 40+% in 2048.
Ob jetzt R600 tatsaechlich "AA for free" haben kann ist genauso fraglich. Die Anzahl der ROPs ist nicht gleich im Vergleich zu G80 (so wie bei G7x/R5x0). Persoenlich erwarte ich fuer die X2900XTX einen kleineren Einbruch von 1x auf 4xAA als bei einer 8800GTX, eben wegen den 25% mehr Speicher. Ob jetzt eine X2900XT mit 512MB immer noch weniger verlieren kann als eine G80 bleibt wohl abzusehen.
Dailytech berichtet uebrigens von angeblichem 24xAA maximal fuer R600. Tolle Marketing-nummer; ich kann seit neuestens auch relativ nutzloses 32xS auf der G80 einschalten.
AnarchX
2007-04-13, 06:39:11
Dailytech berichtet uebrigens von angeblichem 24xAA maximal fuer R600. Tolle Marketing-nummer; ich kann seit neuestens auch relativ nutzloses 32xS auf der G80 einschalten.
ATI Releases More "R600" Details - 320-stream processors, named ATI Radeon HD 2900 (http://www.dailytech.com/article.aspx?newsid=6903)
Ob es sich bei diesem "24x" AA um einen Modus für Einzelkarten handelt?
Aber ein Hybrid mit S/RGSSAA-Anteil wäre imo auch interessant.
ATI Releases More "R600" Details - 320-stream processors, named ATI Radeon HD 2900 (http://www.dailytech.com/article.aspx?newsid=6903)
Ob es sich bei diesem "24x" AA um einen Modus für Einzelkarten handelt?
Aber ein Hybrid mit S/RGSSAA-Anteil wäre imo auch interessant.
ATI brauch mehr zeit aber dafür kommt ne tolle karte die viel kann,anders wie nv.
MuLuNGuS
2007-04-13, 07:54:24
ATI brauch mehr zeit aber dafür kommt ne tolle karte die viel kann,anders wie nv.
eine karte die im gegensatz zur nV viel kann?
man man man...wie verbohrt und wie viele rosa brillen muß man eigentlich tragen um solche sachen zu bringen..lol.
das teil wird sicherlich schnell, aber ATI jetzt sicher auch nicht zum hexenmeister erheben, dafür kommt der R600 eh viel zu spät.
®
p.s. bis jetzt lief ich immer mit Adidas, dann können die anderen schuhe ja nur shice sein
ATI brauch mehr zeit aber dafür kommt ne tolle karte die viel kann,anders wie nv.
Da gebe ich meinem Gastkollegen recht.
nVidia kann nur tolle Karten mit in weniger Zeit herstellen. :(
seahawk
2007-04-13, 08:03:19
ATI hat überlegen Features abseits der 3D Leistung.
James Ryan
2007-04-13, 08:05:49
ATI Releases More "R600" Details - 320-stream processors, named ATI Radeon HD 2900 (http://www.dailytech.com/article.aspx?newsid=6903)
Ob es sich bei diesem "24x" AA um einen Modus für Einzelkarten handelt?
Aber ein Hybrid mit S/RGSSAA-Anteil wäre imo auch interessant.
Komisch, AFAIK kann der G80 32*S FSAA, und nicht nur 16*FSAA wie es in der Meldung steht.
News -> Mülltonne
Wäre aber trotzdem gut wenn der R600 höhere MSAA-Modi kann. Fehlt nur noch das SSAA. :)
MfG :cool:
Adam D.
2007-04-13, 08:32:12
ATI hat überlegen Features abseits der 3D Leistung.
Sie hatten auch ein dreiviertel Jahr, um sich was zu überlegen ;)
Daredevil
2007-04-13, 08:43:15
Heißt ja nix, ATI wird sich ( Höchstwahrscheinlich hoffe ich doch ) die Performance Krone zurückholen und wenn die Basis der Karte gut ist kann man da viel drauß machen.( Siehe R300 )
Es kann nur von Vorteil sein wenn im Regal mehr als 1-2 Karten von einer Firma liegt. Konkurenz belebt halt das geschäfft.
MuLuNGuS
2007-04-13, 08:43:46
ATI hat überlegen Features abseits der 3D Leistung.
zugegeben wenn sie neben der 3D leistung auch noch kaffee kochen kann wird sie definitiv ein verkaufsschlager :D
®
James Ryan
2007-04-13, 08:49:34
Nochmal zu diesem ganzen unsäglichen bildquali quatsch. Der r580 hat mit ai off, eine hervorragende bildqualität. Ich wüsste nicht, wo die schlechter sein soll als beim g80.
Eigentlich dachte ich, dass ich das jetzt nicht posten muss, aber bei soviel Unwissenheit:
R580, 16*AF, "HQ": http://www.computerbase.de/bild/article/614/77/
G80, 16*AF, default: http://www.computerbase.de/bild/article/614/86/
Von den Hybrid-FSAA und CSAA fange ich jetzt garnicht an.
Fakt ist, der G80 bietet eine bessere BQ als der R580.
Das einzige was ati hier wirklich ändern sollte, wäre das man mit ai off die shaderoptimierung nicht auch deaktiviert.
Full Ack! Das war mit ein Grund mich von meiner X1900 XT zu trennen.
Ansonsten würde mich interessieren, was ein r580 mit dem g80 zu tun hat, wenn du dir vergleiche vom g71 zum r580 verbittest.
Der R580 ist ATis aktuellester Chip. Also ist es doch logisch, diesen mit NVIDIAs aktuellstem Chip, den G80 zu vergleichen.
Kann ich was dafür wenn ATi seit 6 Monaten nicht inne Pötte kommt?
Der G71 ist quasi Schnee von gestern und interessiert in diesen Vergleichen nicht.
Ich habe nen g71, und die af qualität ist nicht der hit, aber auch nicht so schlecht wenn man die load bios auf clamp stellt, aber damit kann ich noch leben die ein bis zwei monate.
Ich habe auch einen G71 (mein dritter ;D ) und bin von einem R580 umgestiegen, trotz schlechterer AF-Qualität, da der G71 andere Stärken hat:
Den perfekten Kühler, wenig Stromverbrauch, für mich persönlich bessere Treiber.
So, das war es jetzt aber endgültig von meiner Seite bezüglich der BQ-Diskussion.
MfG :cool:
ATI brauch mehr zeit aber dafür kommt ne tolle karte die viel kann,anders wie nv.
naja zumindest in jüngerer vergangenheit haben sie bewiesen das es so ist, aber ob es diesmal genauso sein wird oder bei ati einfach nur was schief lief erfahren wir dann zum release bzw. ein bisschen später
Daredevil
2007-04-13, 08:56:22
@James Ryan
Das ist doch Äpfel und Birnen vergleich.
Eine NexGen DX 10 Grafikkarte mit einer Lastgen DX 9 Karte zu vergleichen, natürlich hat der G80 die bessere Bildqualität, der hat ja auch bedeutent mehr Power damit das überhaupt möglich wird.
Vergleich lieber wenn die Zeit kommt mit dem R600, das ist nicht so Unfair wie dein jetziger Sinnloser Vergleich.
deekey777
2007-04-13, 08:56:49
ATI Releases More "R600" Details - 320-stream processors, named ATI Radeon HD 2900 (http://www.dailytech.com/article.aspx?newsid=6903)
Ob es sich bei diesem "24x" AA um einen Modus für Einzelkarten handelt?
Aber ein Hybrid mit S/RGSSAA-Anteil wäre imo auch interessant.
The R600-based ATI Radeon HD 2900-series products also support 128-bit HDR rendering. AMD has also upped the ante on anti-aliasing support. The ATI Radeon HD 2900-series supports up to 24x anti-aliasing. NVIDIA’s GeForce 8800-series only supports up to 16x anti-aliasing. AMD’s ATI Radeon HD 2900-series also possesses physics processing
Was soll das denn?
Etwas zu HD: Erinnert sich jemand an die mobile X2300 (veraltete Technik mit neuem Namen) und X2300HD (auf dem RV610 basierend)?
Lawmachine79
2007-04-13, 09:04:48
Habe ich richtig verstanden, daß das Ding erst im Mai kommt? So langsam wird dieser Thread zur Farce...
Anarchy-HWLUXX
2007-04-13, 10:14:00
Habe ich richtig verstanden, daß das Ding erst im Mai kommt? So langsam wird dieser Thread zur Farce...
Wohl mehr eine ausführliche dokumentation der besagten farce ...
=Floi=
2007-04-13, 10:26:26
noch immer besser als bei der ps3 wo das produkt immer stärker abgespeckt wird...
Die Namensändernung kommt aus dem Grund weil A/A die Soundlösung mitvermarkzen will, daher nun HD 2900!
HD Steht nun für HD-Sound oder Hard Sound, wie man es nimmt. Somit dürfte sich die Grafikkarte nochmals weitaus einen besseren Namen verschaffen. Die Karte wird der Knaller werden!
Ich freue mich schon auf das Paper von Nvidia, in welchem sie schreiben, dass es sowas bei Ihnen bereits vor 10 Jahren gab: NV1. :)
Hoffentlich ergeht es AMD mit dem R600 nicht so wie Nvidia damals. ;)
Q
Mr. Lolman
2007-04-13, 10:31:37
Komisch, AFAIK kann der G80 32*S FSAA, und nicht nur 16*FSAA wie es in der Meldung steht.
News -> Mülltonne
Wäre aber trotzdem gut wenn der R600 höhere MSAA-Modi kann. Fehlt nur noch das SSAA. :)
MfG :cool:
Eigentlich kann der G80 sogar nur 8xAA. Denn das CSAA erhöht zwar die Abtastgenauigkeit, aber nicht die Anzahl der sichtbaren Zwischenstufen. Die Hybridmodi (32xS) zählen nicht, weil SS kein Feature in dem Sinne ist.
Andersrum könnte man sonst auch behaupten, dass der G80 256xS könnte -theoretisch. Einfach 16xQ mit 4x4SS mixen.
Ein R600 ist nach aktuellem stand der Dinge kleiner als ein G80,
Welcher Stand der Dinge? Der, dass "geschätzt" wurde?
Q
ATI hat überlegen Features abseits der 3D Leistung.
Und welches "Featureset" soll das sein? Darf ich dich dran erinnern, dass D3D10 ein fixes Featureset hat, dass eine G80 ebenso 128-Bit-HDR kann (sogar mit 16Q CSAA) und dass das angebliche 24xAA bei R600 völliger Bullshit ist (abgesehen von zusätzlichem Supersampling)?
Und der Hype um die "Soundkarte" wie ihr sie nennt ist total lächerlich. Das ist nichts weiteres als ein absolut minimaler digitaler Audio-Transceiver.
Avalox
2007-04-13, 10:53:58
Und welches "Featureset" soll das sein? Darf ich dich dran erinnern, dass D3D10 ein fixes Featureset hat,
Ist denn am zeitnahen DX10.1 Start nichts mehr dran?
James Ryan
2007-04-13, 10:55:44
@James Ryan
Das ist doch Äpfel und Birnen vergleich.
Eine NexGen DX 10 Grafikkarte mit einer Lastgen DX 9 Karte zu vergleichen, natürlich hat der G80 die bessere Bildqualität, der hat ja auch bedeutent mehr Power damit das überhaupt möglich wird.
Vergleich lieber wenn die Zeit kommt mit dem R600, das ist nicht so Unfair wie dein jetziger Sinnloser Vergleich.
Die BQ-Diskussion wurde durch meine Äußerung in Gang gesetzt, dass der R600 hoffentlich ein besseres AF als der R580 bringen wird.
Danach hieß es, dass der R580 bereits "eine perfekte BQ besitzt", ich habe nur gezeigt, dass dies nicht so ist.
Verstehst du das jetzt?
MfG :cool:
AnarchX
2007-04-13, 11:01:08
Ist denn am zeitnahen DX10.1 Start nichts mehr dran?
Ohne WDDM2.1 kein D3D10.1.
Da nocht nichtmal D3D10 richtig ins laufen gekommen ist, wäre so eine Entscheidung nicht die klügste und auch für ATi eher untypisch.
Ist denn am zeitnahen DX10.1 Start nichts mehr dran?
R600 ist kein D3D10.1. Garantiert nicht.
deekey777
2007-04-13, 11:11:22
Ich freue mich schon auf das Paper von Nvidia, in welchem sie schreiben, dass es sowas bei Ihnen bereits vor 10 Jahren gab: NV1. :)
Hoffentlich ergeht es AMD mit dem R600 nicht so wie Nvidia damals. ;)
Q
Ich freue mich schon auf das Gegenpaper: "Und daran seid ihr zu Grunde gegangen!:P "
Und auf das Gegenpapergegenpaper: "Ja. Und wir haben was daraus gelernt: Man implementiert keine Audiofunktionen auf einer Grafikkarte!:P "
Zu 24xAA:
The R600-based ATI Radeon HD 2900-series products also support 128-bit HDR rendering. AMD has also upped the ante on anti-aliasing support. The ATI Radeon HD 2900-series supports up to 24x anti-aliasing. NVIDIA’s GeForce 8800-series only supports up to 16x anti-aliasing. AMD’s ATI Radeon HD 2900-series also possesses physics processing.
Steht da irgendwas von einer einzelnen Zwoneuner und 24xAA?
SuperAA 12xS wäre schon "24x", oder? Oder noch besser: simFUSION 600q hatte bis zu 24xAA.
Im Ernst: Da war doch was...
http://www.firingsquad.com/news/newsarticle.asp?searchid=12508
FiringSquad: One of CrossFire’s chief advantages over SLI is your Super AA performance scaling. Considering this, have you considered adding additional AA/AF modes to CrossFire for even better image quality?
Godfrey Cheng ATI: Yes one of many advantages that CrossFire has over SLI is our image quality. We plan on introducing a new AA mode shortly even for single card PCs. Stand by
EATM war es nicht.
Und der Hype um die "Soundkarte" wie ihr sie nennt ist total lächerlich. Das ist nichts weiteres als ein absolut minimaler digitaler Audio-Transceiver.
Die HDMI-Schnittstelle ist nur ein kleiner Aspekt der überlegenen 2D-Features des R600.
AnarchX
2007-04-13, 11:14:39
Fuad hat ein paar neue Informationen zum P/L-R600:
R600 XT GDDR3 is faster than 8800 GTX - In some of the tests (http://www.fudzilla.com/index.php?option=com_content&task=view&id=513&Itemid=34)
Radeon HD 2900 XT costs $ / € 399 - More expensive one delayed (http://www.fudzilla.com/index.php?option=com_content&task=view&id=512&Itemid=34)
Ein möglicher Preiskampf mit einer 512bit-Karte und einer wahrscheinlich nicht so günstigen Kühllösung und einigen anderen Extras auf dem PCB. :| Dazu gehört Mut...
Aber eine andere Wahl hat man wohl auch nicht.
Zu 24xAA:
Steht da irgendwas von einer einzelnen Zwoneuner und 24xAA?
SuperAA 12xS wäre schon "24x", oder? Oder noch besser: simFUSION 600q
Vielleicht gibt es diesen "24x" AA Modus auch nichtmal auf 2 Radeon HDs. ;)
Die HDMI-Schnittstelle ist nur ein kleiner Aspekt der überlegenen 2D-Features des R600.Dann rück doch mal raus mit den "überlegenen 2D-Features". Was macht R600 hier besser als G80?
deekey777
2007-04-13, 11:18:05
Die HDMI-Schnittstelle ist nur ein kleiner Aspekt der überlegenen 2D-Features des R600.
Ich frag mich immernoch, wie es mit Duallink-DVI-> HDMI+Audio funktionieren wird. HDMI Type B ist im Consumerbereich irrelevant.
Dann rück doch mal raus mit den "überlegenen 2D-Features". Was macht R600 hier besser als G80?
UVD. :)
Fuad hat ein paar neue Informationen zum P/L-R600:
[B]R600 XT GDDR3 is faster than 8800 GTX - In some of the tests (http://www.fudzilla.com/index.php?option=com_content&task=view&id=513&Itemid=34)
Schön wie er von Gibbo abschreibt und ihn nichtmal nennt.
Er sagt genau nichts.
Dann rück doch mal raus mit den "überlegenen 2D-Features". Was macht R600 hier besser als G80?
Ein Theater 200 Videodecodeprozessor, eine Bild-in-Bild-Funktion, besagte HDMI-Schnittstelle,... Um nur mal die zu nennen, die mir jetzt spontan einfallen.
Welcher Stand der Dinge? Der, dass "geschätzt" wurde?
Q
Das wurde nicht geschätzt, sondern das wurde von der Person, die die ersten R600-Pics brachte behauptet. Angeblich nachgemessen.
Ein Theater 200 Videodecodeprozessor,
Das ist Stand der Technik von vor 5 Jahren, dieser Theater Chip wurde schon auf der Radeon 8500 eingesetzt.
Vermutlich geht ATI diesen Schritt zurück, weil der R600 selbst beim DVD-Abspielen viel zu viel Strom frisst.
deekey777
2007-04-13, 12:35:12
Das ist Stand der Technik von vor 5 Jahren, dieser Theater Chip wurde schon auf der Radeon 8500 eingesetzt.
Vermutlich geht ATI diesen Schritt zurück, weil der R600 selbst beim DVD-Abspielen viel zu viel Strom frisst.
Nein, da war der alte Rage Theater drauf. Theater200 ist deutlich besser und er war nie auf einer Desktopgrafikkarte (außer der letzten AIW ab 9700 AIW, ihnen wurde wiederum der 550 vorenthalten).
Man sollte sich aber auch fragen, ob mehr als Theater 200 überhaupt nötig ist.
Daluxx
2007-04-13, 12:44:50
Heißt das,es wird keine X2900XTX geben??
Link:KLICK (http://www.pcgameshardware.de/?article_id=574002)
Heißt das,es wird keine X2900XTX geben??
Link:KLICK (http://www.pcgameshardware.de/?article_id=574002)
Nicht geben, sondern auf einen späteren Zeitpunkt verschoben.
Es ist aber eine sehr gewagte Entscheidung eine neue High-End Karte in den markt zu bringen, welche nichtmal gleichviel Speicher hat.
James Ryan
2007-04-13, 13:04:30
Nicht geben, sondern auf einen späteren Zeitpunkt verschoben.
Es ist aber eine sehr gewagte Entscheidung eine neue High-End Karte in den markt zu bringen, welche nichtmal gleichviel Speicher hat.
Nunja, sollte die 2900 XT trotz 512 MB VRam die GTX schlagen können, ist das doch kein Problem.
Eigentlich gar nichtmal so dumm von ATi: Kommt die 2900 XT raus, zeigt NVIDIA kurz darauf mit Sicherheit die Gf 8800 Ultra. Darauf kann ATi dann nochmal mit einer 2900 XTX kontern, mit GDDR4 und angepasstem Takt, sollte die Ultra die XT zu sehr deklassieren.
MfG :cool:
AnarchX
2007-04-13, 13:28:46
[R600XT Scores 12K in 3DMark06] (http://vr-zone.com/index.php?i=4898)
[...]Using a Core 2 Extreme QX6700 processor, R600XT scored 12K in 3DMark06, slightly better than a GeForce 8800 GTX. It is benched on the latest 8.361-RC4 drivers, quite an improvement over the older sets of drivers. The core clock of R600XT stood at 750MHz while the memory is at 820MHz. It looks all decent for a US$399 card.
Da wird die XTX wohl doch einen höheren Core-Takt haben.
w0mbat
2007-04-13, 13:32:10
Schön wie er von Gibbo abschreibt und ihn nichtmal nennt.
Er sagt genau nichts.
Glaub mir, er schreibt nicht von Gibbo ab :rolleyes:
Nunja, sollte die 2900 XT trotz 512 MB VRam die GTX schlagen können, ist das doch kein Problem.
Erstmal sollte man gucken, wann die Karte die GTX schlägt.
512Mib sind natürlich nicht wenig Speicher, aber für eine Karte, die 8xMSAA untersützt und in hohen Auflösungen eingesetzt wird, kann dies zum Flaschenhals werden.
Glaub mir, er schreibt nicht von Gibbo ab
Tragischerweise bringt er keine neuen Informationen. Es ist exakt das gleiche, das Gibbo gestern gesagt hat.
Aber du kannst gerne den Gegenbeweis antreten, weil glauben vollbringe ich nur in der Kirche.
Undertaker
2007-04-13, 13:48:00
- ATi R600XTX 1GB’lık model: Ortalama: 12k - GeForce 8800GTX 768MB: Ortalama: 10,5K
- ATi R600XT 512MB’lık Model: Ortalama: 10k - GeForce 8800GTS: Ortalama: 9K
Quelle: http://www.fx57.net/?p=576
die 512mb variante schlechter als eine 8800gtx? hmm das ist vorallem bzgl des stromverbrauches eine herbe enttäuschung... aber wer weiß ob die werte stimmen (oder wie es in realen games ausschaut)
AnarchX
2007-04-13, 13:50:15
die 512mb variante schlechter als eine 8800gtx? hmm das ist vorallem bzgl des stromverbrauches eine herbe enttäuschung... aber wer weiß ob die werte stimmen (oder wie es in realen games ausschaut)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5405918&postcount=719 ;)
FX-57 sollte man eher vergessen, da die News dort wahrscheinlich entweder geklaut oder frei phantasiert sind.
Das wurde nicht geschätzt, sondern das wurde von der Person, die die ersten R600-Pics brachte behauptet. Angeblich nachgemessen.
Ah, also auch wieder nur ein "angeblich". Na, ich lasse mich mal überraschen. Wie wir vor einigen Tagen anhand eines anderen Shots gesehen haben, ist R600 anscheinend deutlich größer als R580 - vom Verhältnis her gesehen leicht im 500mm²-Bereich. Was stimmt nun?
Q
dargo
2007-04-13, 14:39:12
Was jetzt die vorigen G80/AA-Resultate betrifft, sollte es klar sein dass der Verlust in 1280 relativ klein ist da man in der Aufloesung sowieso verdammt CPU limitiert ist mit solchen GPUs.
CPU-limitiert mit einem C2D @3,3Ghz und einer Timedemo in FEAR (keine Physik und KI Berechnung!)???
Werde das mal gegentesten.
Bleibt das 512bit Speicherinterface bei 8 Speichersteinen erhalten? Wenn sie 16 Speichersteine verwenden, dann sind die Kosten höher als bei der GTS.
Natürlich. Oder glaubst du eine X2900XT 512MB hätte nur 256Bit SI? X-D
DrumDub
2007-04-13, 14:46:03
Natürlich. Oder glaubst du eine X2900XT 512MB hätte nur 256Bit SI? X-D jupp. 8x64bit si ist bestätigt.
AnarchX
2007-04-13, 14:47:13
Natürlich. Oder glaubst du eine X2900XT 512MB hätte nur 256Bit SI? X-D
Das wäre durchaus möglich, wenn die 16 Chips je an einen einzelnen Kanal angebunden sind(16*32Bit) und man nun nur 8 Chips verbaut.
Also entweder sind es bei der HD 2900XT nun 16 256MBit Chips oder der Ringbus hat den Aufbau von 8x64Bit, womit man das 512Bit SI auch nur bei 8 Chips hätte.
jupp. 8x64bit si ist bestätigt.
Wo und wann? :|
robbitop
2007-04-13, 14:50:28
8x64 = 512
Da ist doch nichts neues dran
andererGast
2007-04-13, 14:53:04
Natürlich. Oder glaubst du eine X2900XT 512MB hätte nur 256Bit SI? X-DVielleicht hat ja der R600 generell nur ein 256-bit-SI. ;)
dargo
2007-04-13, 14:54:47
Also entweder sind es bei der HD 2900XT nun 16 256MBit Chips oder der Ringbus hat den Aufbau von 8x64Bit, womit man das 512Bit SI auch nur bei 8 Chips hätte.
Das kann nur die einzige Möglichkeit sein, oder wie willst du die 1GB Vram der XTX realisieren?
Vielleicht hat ja der R600 generell nur ein 256-bit-SI. ;)
Ja, ne ist klar. Man verdoppelt die Rohleistung und läßt die GPU an zu wenig Bandbreite krepieren. :|
8x64 = 512
Da ist doch nichts neues dran
ATi hat beim r5xx (bis auf dem rv510?) eine Unterteilung in 32bit Kanäle. Jeder Speicherstein war mit einem 32-bit Kanal an den Memorycontroller verbunden - jedoch waren immer zwei gebündelt.
Es bleibt daher die Frage, ob sie ihren Memorycontroller weiter verwenden undverbessetr haben oder ebenfalls auf einen 64bit Kanal "zurück" gegangen sind.
Hat der r600 jetzt 8 oder 16 Speichersteine? Hat er einen 32bit Kanal oder 64bit?
robbitop
2007-04-13, 14:57:10
Man hat ein 512 Bit SI wenn man eine Anzahl an RAM Chips hat, die durch 8 teilbar ist. (x element n)
dargo
2007-04-13, 14:59:16
ATi hat beim r5xx (bis auf dem rv510?) eine Unterteilung in 32bit Kanäle. Jeder Speicherstein war mit einem 32-bit Kanal an den Memorycontroller verbunden - jedoch waren immer zwei gebündelt.
Es bleibt daher die Frage, ob sie ihren Memorycontroller weiter verwenden undverbessetr haben oder ebenfalls auf einen 64bit Kanal "zurück" gegangen sind.
Hat der r600 jetzt 8 oder 16 Speichersteine? Hat er einen 32bit Kanal oder 64bit?
Die XTX soll ja 1GB Vram haben. Die einzige Möglichkeit ist also ein 64Bit Kanal.
robbitop
2007-04-13, 14:59:28
ATi hat beim r5xx (bis auf dem rv510?) eine Unterteilung in 32bit Kanäle. Jeder Speicherstein war mit einem 32-bit Kanal an den Memorycontroller verbunden - jedoch waren immer zwei gebündelt.
Es bleibt daher die Frage, ob sie ihren Memorycontroller weiter verwenden undverbessetr haben oder ebenfalls auf einen 64bit Kanal "zurück" gegangen sind.
Hat der r600 jetzt 8 oder 16 Speichersteine? Hat er einen 32bit Kanal oder 64bit?
Wenn man bei einer Granularitaet von 32 geblieben waere, waere das PCB zu komplex geworden. Der Gewinn durch eine so feine Granularitaet ist eh sehr gering. P/L ist hier schlecht. (Gesetz des sinkenden Grenzertrages)
Ausserdem werden die Caches immer besser (hitrate, groesse), so dass mehr geburstet wird.
Vieleicht hatte man auch als Vorbereitung fuer ein 512 bit SI bereits im R5xx ein Layout mit 8 Unterteilungen.
AnarchX
2007-04-13, 15:00:40
Das kann nur die einzige Möglichkeit sein, oder wie willst du die 1GB Vram der XTX realisieren?
16*512Mbit GDDR4, genauso solche Speichermodule hat übriges auch die OEM-Karte von PCinlife:
http://img155.imageshack.us/img155/6376/10hc3.th.jpg (http://img155.imageshack.us/my.php?image=10hc3.jpg)
http://www.samsung.com/Products/Semiconductor/common/product_list.aspx?family_cd=GME1101
So oder so sind es 16 Module bei der 1GB Version, bleibt nur die Frage ob es nun 2 Module pro Kanal(wie bei 1GB R5xx-Karten eins auf der Rückseite) oder eben pro Modul ein Kanal ist, was dann Konsequenzen für die 512B XT hat.
Ja, ne ist klar. Man verdoppelt die Rohleistung und läßt die GPU an zu wenig Bandbreite krepieren. :|Wo verdoppelt der R600 denn die Rohleistung? Mit 256-bit-SI und schnellem GDDR4 hat man eigentlich auch genug Bandbreite. Sieht man ja an den 8800ern, die auch nicht bandbreitenlimitiert sind.
Aber das war auch nur so eine laute Überlegung. Die gedrehte Platzierung der GPU auf dem PCB spricht auch irgendwie für 512 bit. Allerdings hat man beim R520 auch bis zuletzt an 32 Pipelines festgehalten. ;)
dargo
2007-04-13, 15:09:40
16*512Mbit GDDR4, genauso solche Speichermodule hat übriges auch die OEM-Karte von PCinlife:
http://img155.imageshack.us/img155/6376/10hc3.th.jpg (http://img155.imageshack.us/my.php?image=10hc3.jpg)
http://www.samsung.com/Products/Semiconductor/common/product_list.aspx?family_cd=GME1101
Das ist mir schon klar. :wink:
Ich kann mir aber kaum vorstellen, dass das XT PCB 16 Speicherchips aufnehmen kann. Dann wäre es das gleiche PCB wie bei der XTX, nur halt GDDR3 kompatibel.
So oder so sind es 16 Module bei der 1GB Version, bleibt nur die Frage ob es nun 2 Module pro Kanal(wie bei 1GB R5xx-Karten eins auf der Rückseite) oder eben pro Modul ein Kanal ist, was dann Konsequenzen für die 512B XT hat.
Welche Konsequenzen?
AnarchX
2007-04-13, 15:14:39
Welche Konsequenzen?
Eben 16 Speicherchips, sonst ergeht es ihr wie der X800GT 128MB, der man einfach die Hälfte der Speicherchips klaute -> von 256Bit auf 128Bit.
Aber es werden wohl doch 8x64Bit sein, ATi kann wohl kaum ein 16 Chips PCB für $399 "verschenken".
LovesuckZ
2007-04-13, 15:29:21
Aber es werden wohl doch 8x64Bit sein, ATi kann wohl kaum ein 16 Chips PCB für $399 "verschenken".
Samsung bietet zur Zeit nur Module mit 512Mbit bzw. 64Mb an.
Bei nur 8 Speicherchips würde dies bedeuten, dass eine Karte mit 1024Mb physikalisch nicht exisitieren kann.
AnarchX
2007-04-13, 15:31:26
Samsung bietet zur Zeit nur Module mit 512Mbit bzw. 64Mb an.
Bei nur 8 Speicherchips würde dies bedeuten, dass eine Karte mit 1024Mb physikalisch nicht exisitieren kann.
Man kann an einen Speicherkanal auch mehr als ein Modul anbinden und zudem kann man auch wie schon gesagt diese beiden Module auf Vorder- und Rückseite des PCBs platzieren, obwohl sie an einem Kanal hängen.( 8 x 2 x 512Mbit)
Wieso werden die Speicherchips bei den neuen Grakas eigentlich nur noch auf die Vorderseite und nicht mehr auf die Rückseite gemacht?
Wegen der Kühlung? So warm werden die Speicherchips doch garnicht...
LovesuckZ
2007-04-13, 15:36:41
Man kann an einen Speicherkanal auch mehr als ein Modul anbinden
Da es nur spekulativ ist:
Beim G80 müssen immer zwangsweise 2 Chips an eine ROP - Partition angebunden sein.
Beim r520 (und Abkömmlinge) mussten ebenfalls immer 2 Chips an einen "Controller" verknüpft werden.
Da wir nichts über den jetzigen Memory-Controller wissen, kann es eben sein, dass die XT Version entweder nur über ein 256bit Speicherinterface verfügt oder aber es keine XTX Version mit 1024MB GDDR4 Speicher geben wird.
Wieso werden die Speicherchips bei den neuen Grakas eigentlich nur noch auf die Vorderseite und nicht mehr auf die Rückseite gemacht?
Wegen der Kühlung? So warm werden die Speicherchips doch garnicht...die "lange r600 oem karte" hat auch chips auf der rückseite verbaut.
DrumDub
2007-04-13, 15:40:45
die "lange r600 oem karte" hat auch chips auf der rückseite verbaut. jo. die hat ja auch 1gb gddr4 drauf.
AnarchX
2007-04-13, 15:45:51
Beim r520 (und Abkömmlinge) mussten ebenfalls immer 2 Chips an einen "Controller" verknüpft werden.
Nein, die haben alle 32Bit pro Kanal, also pro Chip ein Speicherkanal.
Einzig die FireGL 1GB oder die FireStream mit 1GB hatte 2 Chips an einem Kanal.
robbitop
2007-04-13, 15:56:54
Da es nur spekulativ ist:
Beim G80 müssen immer zwangsweise 2 Chips an eine ROP - Partition angebunden sein.
Nein. Es muss mind 1 Speicherbaustein sein, es koennen auch mehr sein. GTS640 - 320.
dargo
2007-04-13, 15:58:09
Nein. Es muss mind 1 Speicherbaustein sein, es koennen auch mehr sein. GTS640 - 320.
:confused:
Die GTS 320 hat doch auch 10 Speicherchips.
AnarchX
2007-04-13, 16:01:24
Nein. Es muss mind 1 Speicherbaustein sein, es koennen auch mehr sein.
Eigentlich "müssen" es doch 2 sein, da es GDDR nur mit 32Bit oder 16Bit gibt.
robbitop
2007-04-13, 16:09:35
Dann haben sie die 320er GTS einfach nur mit "kleineren" RAM Bausteinen anstatt mit einer geringeren Anzahl realisiert.
dargo
2007-04-13, 16:12:32
Dann haben sie die 320er GTX einfach nur mit "kleineren" RAM Bausteinen anstatt mit einer geringeren Anzahl realisiert.
Jep, 10x 32MB Chips. :)
PS: 320GTS. :)
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.