Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - AMDs 55nm GPUs: R680, RV670, RV660, RV635, RV620
Hvoralek
2007-10-05, 15:13:29
Bessere AA-Leistung? Dann sollte erstmal der Grund gefunden werden, warum die 2900XT und 2600 Karten so dermaßen einbrechen.Der ist doch offensichtlich: Viel zu geringere Filterleistung. Die liegt bei einer 2900XT nur um knapp 50% über der einer X800 XT.
Bei RV670 ist immer nur von 320 SPs die Rede. Ich würde gerne auf mehr als vier Teturblöcke hoffen, aber bei 194 mm² ist das wohl unrealistisch. Auch glaube ich nicht, dass man die Teile auf je acht volle TMUs aufgebohrt hat.
reunion
2007-10-05, 16:11:52
Der ist doch offensichtlich: Viel zu geringere Filterleistung. Die liegt bei einer 2900XT nur um knapp 50% über der einer X800 XT.
MSAA hat keine Einfluss auf den Bedarf der Texelfüllrate.
Bei RV670 ist immer nur von 320 SPs die Rede. Ich würde gerne auf mehr als vier Teturblöcke hoffen, aber bei 194 mm² ist das wohl unrealistisch. Auch glaube ich nicht, dass man die Teile auf je acht volle TMUs aufgebohrt hat.
Ne, das kann man vergessen. Ich hoffe wenigstens, dass es volle 16 ROPs bleiben bei halbierten SI.
sklave_gottes
2007-10-05, 16:20:31
Ne, das kann man vergessen. Ich hoffe wenigstens, dass es volle 16 ROPs bleiben bei halbierten SI.
Ich auch sonnst sag ich mal r600 leistung Tschau...
Der ist doch offensichtlich: Viel zu geringere Filterleistung. Die liegt bei einer 2900XT nur um knapp 50% über der einer X800 XT.
Es reicht aber trotzdem bei 1600 4aa/16af für 8800gts leistung.
MSAA hat keine Einfluss auf den Bedarf der Texelfüllrate.
Hat es.
reunion
2007-10-05, 16:29:37
Hat es.
Aber nur minimalst.
Aber nur minimalst.
Das hängt von der Architektur ab und was die Textureinheiten sonst noch so alles aus den Caches/VRAM zu den ALUs transportieren müssen.
robbitop
2007-10-05, 17:04:40
Es haengt vor allem davon ab, wieviele Pixel durch Polygonkanten u.a MSAA Targets bedeckt werden.
Hvoralek
2007-10-05, 18:03:19
MSAA hat keine Einfluss auf den Bedarf der Texelfüllrate.*argh* Ich hatte AF gelesen :ugly:
Bzgl. des AA hatte doch Eric Demers iirc praktisch zugegeben, dass die 16 R600- ROPs zusammen nur 32 z/stencil- Operationen pro Takt schaffen und mit MSAA linear einbrechen? Das ist ohnehin nicht besondes üppig und könnte fast schon alleine diese Verluste erklären.
reunion
2007-10-05, 18:12:13
*argh* Ich hatte AF gelesen :ugly:
Bzgl. des AA hatte doch Eric Demers iirc praktisch zugegeben, dass die 16 R600- ROPs zusammen nur 32 z/stencil- Operationen pro Takt schaffen und mit MSAA linear einbrechen? Das ist ohnehin nicht besondes üppig und könnte fast schon alleine diese Verluste erklären.
Sieh dir R580 an. Nur weil nV bei G80 auf einmal Monster-ROPs verbaut, haben diese auch nicht an Bedeutung zugenommen.
Hvoralek
2007-10-05, 18:29:51
Sieh dir R580 an. Nur weil nV bei G80 auf einmal Monster-ROPs verbaut, haben diese auch nicht an Bedeutung zugenommen.Selbst die R5xx- ROPs schaffen afaik zumindest 2x MSAA in einem Takt. Wenn es auf die z- Füllrate nicht ankäme, könnte der Mehrbedarf durch MSAA auch nicht zu Einbrüchen führen, genau das tut er aber bei R600 anscheinend (oder woher kommt das sonst?). Auch der Abstand zwischen R600 und RV630 ist z.T. so groß, dass das wohl zumindest auch an der Füllrate (RV630 hat nur 1/4 der RBEs) liegen wird.
Der R580 kann 16z/clk bei 1xFSAA und 32z/clk bei 2x FSAA - für 4xMSAA müssen die ROPs bereits loopen. Beim R600 sind's 32z/clk - das sind 32 Pixel ohne FSAA, 16 Pixel mit 2x FSAA und 8 Pixel mit 4xMSAA.
AnarchX
2007-10-05, 21:23:09
Sieh dir R580 an. Nur weil nV bei G80 auf einmal Monster-ROPs verbaut, haben diese auch nicht an Bedeutung zugenommen.
Der hat aber auch eine geringe Grundleistung als R600 und leidet deshalb wohl nicht so unter den schwachen ROPs, aber R600 wohl doch, obwohl er 32Z ohne MSAA hat.
Mal sehen was man beim RV670 da geändert hat, aber momentan würde ich nicht mehr als ein besser funktionierendes Shader-Resolve erwarten.
w0mbat
2007-10-05, 23:30:38
AMD sponsort ja die aktuellen WCG. Ich würde jetzt einfach mal drauf tippen das sie dort auch neue Hardware zeigen werden. Vielleicht ist ja auch eine HD2950er dabei, wer weiß :)
AnarchX
2007-10-05, 23:51:02
AFAIK soll doch dort die 2600 X2 gezeigt bzw. in Systemen verbaut sein und eben in auch Quad-Crossfire.
edit: http://www.finanzen.net/nachrichten/AMD_and_SAPPHIRE_to_Showcase_HD_Gaming_Innovation_at_the_World_Cyber_Games_59721 1
w0mbat
2007-10-06, 00:12:35
Ja, heißt aber nicht das man kein RV670 sehen wird.
sklave_gottes
2007-10-06, 00:41:33
Der hat aber auch eine geringe Grundleistung als R600 und leidet deshalb wohl nicht so unter den schwachen ROPs, aber R600 wohl doch, obwohl er 32Z ohne MSAA hat.
Mal sehen was man beim RV670 da geändert hat, aber momentan würde ich nicht mehr als ein besser funktionierendes Shader-Resolve erwarten.
Kommt nicht ganz hin, wenn du den r580 mit 740mhz fährst bei max ram takt müste er mit aa/af fast so schnell sein wie r600, traurig aber war.
Also irgendwas ist am r580 schneller als am r600, das wissen wir ja sowieso schon.
AnarchX
2007-10-06, 00:48:28
Also irgendwas ist am r580 schneller als am r600, das wissen wir ja sowieso schon.
Wohl eben das Shader-Resolve, wenn ihm 32Z, 100GB/s und eine funktionierende Farbkompression laut Dave Baumann zur Verfügung stehen.
Das wird wohl ATi sicherlich zum RV670-Launch verraten bzw. andeuten.
deekey777
2007-10-06, 01:05:34
Wohl eben das Shader-Resolve, wenn ihm 32Z, 100GB/s und eine funktionierende Farbkompression laut Dave Baumann zur Verfügung stehen.
Das wird wohl ATi sicherlich zum RV670-Launch verraten bzw. andeuten.
Das Shader-Resolve ist eigentlich schnell.
http://forum.beyond3d.com/showpost.php?p=1020463&postcount=99
AA resolve shoud be very fast on R600 given its 512 bits bus and its 64 processors.
At the same time I wonder how subsamples are fetched/decompressed and passed to the shaders core, if your AA resolve shader is just using TMUs to fetch those data I can see why it could be held back by the ALUs/TMUs ratio (in AA resolve shader you need a ALUs/TMUs ratio close to 1)
http://forum.beyond3d.com/showpost.php?p=1004630&postcount=61
...
So R600 is doing the MSAA resolve on the shaders even for the box filter? Well that would certainly help explain why performance tanks with AA applied. And thanks for the sampling chart - nice one stop shop for comparing different formats and point vs bilinear sampling
If the samples are fetched through the TMU at a rate of 16 per clock (and since they're unfiltered it's more likely 32, though maybe only the filter pipeline can apply sRGB correction), you could resolve 11.87 Gsamples/s. At that rate it should never be bandwidth limited, assuming 32 bits per pixel and framebuffer compression.
With 2048x1536, 8xAA box filtered at 60 fps you need to read 1.51 Gsamples/s - roughly 13% of the time spent on AA resolve. Double that for the wide tent filter, half if it can read 32 samples per clock.
I don't think this alone can explain the performance drop with higher AA modes. But it again raises some issues with the "average fps" representation, since the relative cost of AA resolve increases with fps.
Ab hier:
http://forum.beyond3d.com/showthread.php?p=1005253#post1005253
Hardware resolve is actually done in the ROP on R600, but only for fully compressed tiles. I write that in the article. So I don't need to state that it was the plan to use the ROP for downsampling, because that's actually what's happening (unless you argue that reading just one value doesn't count, because there was no math involved to weight other samples) for one case.
And I also say that I lean towards the case that the hardware is broken because they have to downsample on the shader core for non fully compressed tiles, even if they can pass the decompressed samples back with a fast path.
So Damien and I say pretty much the exact same thing, just with different language.
I assume that sample decompression doesn't happen in the sampler hardware (TMUs), rather in the ROP itself (or in the memory controller).
And the current state in R600 seems to be that if a tile is fully compressed, there's no need for downsampling since the colour is fixed for all pixels in the tile. If there is math to be done for the downsampling (because of partially compressed tiles), that's not being done in the ROP (it has a MUL ALU), but the shader core. So it's possible the ALU is broken, or some other logic in there is borked. Or they simply just want to use CFAA as the default resolve path regardless, even if the hardware does work, and I'm just completely wrong.
So it depends how samples get where they need to be, but I think the R600 path is to feed back directly into the shader core from the ROP/MC decompressor, with no pass through the samplers.
http://forum.beyond3d.com/showpost.php?p=1005269&postcount=294
If I understand what you're saying, if every sample within a pixel is identical ('fully compressed') they can downsample on the shader core, but if not, they send the partially compressed data as an input to a shader (which is then decompressed by the TMUs?) where the filter kernel is applied?
So somehow, the programmable resolve on the ROP (a programmatic set of NxN filter weights?) doesn't work if all the samples within a pixel aren't the same?
I assume that sample decompression doesn't happen in the sampler hardware (TMUs), rather in the ROP itself (or in the memory controller).
And the current state in R600 seems to be that if a tile is fully compressed, there's no need for downsampling since the colour is fixed for all pixels in the tile. If there is math to be done for the downsampling (because of partially compressed tiles), that's not being done in the ROP (it has a MUL ALU), but the shader core. So it's possible the ALU is broken, or some other logic in there is borked. Or they simply just want to use CFAA as the default resolve path regardless, even if the hardware does work, and I'm just completely wrong.
So it depends how samples get where they need to be, but I think the R600 path is to feed back directly into the shader core from the ROP/MC decompressor, with no pass through the samplers.
RV670 on display
All the AMD folks involved with this are on their way to the event and by the time they check back here this post will have already rolled off, LOL, so I think I can get away with it.
For those of you attending the World Cyber Games this weekend you are in for a treat. AMD is going to be showing an RV670 in action!!!
http://www.teamati.com/showthread.php?t=4750
Bin gespannt...
Das Shader-Resolve ist eigentlich schnell.
Und nun nochmal mit eigenen Worten...
Shader-Resolve, also das Verrechnen der Samples in den Shadern ist sicherlich kein großer Akt, besonders bei der schieren Anzahl der Shader-ALUs im R600.
Was allerdings konsequent vergessen wird, ist, dass ein (fast) kompletter Pass durch die Shader nötig ist: Read - Modify - Write. Was im B3D als "schnell" beschrieben wird, ist lediglich der Mittelteil.
Auch wenn es im R600 einen "fast path" gibt bedeutet das lediglich, dass nicht die komplette Pipeline neu durchlaufen werden muss, nicht, dass die (idR vier) Samples pro Bildschirmpixel sich im Shader einfach so materialisieren.
Ferner kann niemand (außerhalb von AMD) so genau sagen, wie MSAA gehandhabt wird: Als separate Threads unter vielen anderen oder ob eines der SIMDs komplett dafür abgestellt wird und sonst gar nichts mehr rechnet.
Im allergünstigsten Falle macht man sich nur den L2-Tex-Cache kaputt, da die Sampler alle Zugriffe durch diesen erledigen müssen. Was für MSAA-Samples verbraucht wird, steht logischerweise nicht mehr für andere Texturdaten zur Verfügung.
AnarchX
2007-10-06, 11:09:08
Jetzt bin ich etwas verwirrt...
http://img166.imageshack.us/img166/5093/r680wt1.jpg
http://www.vr-zone.com/?i=5325
Wenn es R670 sein soll warum steht da aber etwas von GDDR3? :|
2950X2X sollte AFAIK auf GDDR4 setzen.
dargo
2007-10-06, 11:12:59
Jetzt bin ich etwas verwirrt...:|
http://img166.imageshack.us/img166/5093/r680wt1.jpg
http://www.vr-zone.com/?i=5325
Solche Verwirrungen liebe ich. ;D
Mich würds freuen. :)
dildo4u
2007-10-06, 11:16:06
Jetzt bin ich etwas verwirrt...
Wenn es R670 sein soll warum steht da aber etwas von GDDR3? :|
2950X2X sollte AFAIK auf GDDR4 setzen.
Wozu unbedingt GDDR4 wenn der R680 wieder ein 512Bit Speicherinterface haben könnte?
reunion
2007-10-06, 11:17:22
Nicht schlecht, wenn R670 mit 2x RV670 nicht das High-End von AMD ist, dann muss R680 ja ganz schön rocken.
AnarchX
2007-10-06, 11:19:26
We even heard faintly that R680 could be AMD's ambitious plan to integrate two RV670 into a single die, if not on the same package.
VR-Zone has got hold of a presentation slide recently that gave some clues that R680 is a dual GPU (RV670 slide shows only one GPU pic)
Tatsächlich...
???
R670 -> simple Gemini
R680 -> Dual-Die-Package mit kombinierten MC
???
Wozu unbedingt GDDR4 wenn der R680 wieder ein 512Bit Speicherinterface haben könnte?
Weil R680 wohl eben ein doppelter R600 sein könnte wo sich über 50GB pro GPU doch nicht schlecht machen, die 2950XT hat ja auch 76GB/s.
dildo4u
2007-10-06, 11:20:36
Nicht schlecht, wenn R670 mit 2x RV670 nicht das High-End von AMD ist, dann muss R680 ja ganz schön rocken.
Laut dem Text auf VRzone ist der R680 eine Dual RV670 nur halt direkt auf einem Die.
"We even heard faintly that R680 could be AMD's ambitious plan to integrate two RV670 into a single die, if not on the same package.
VR-Zone has got hold of a presentation slide recently that gave some clues that R680 is a dual GPU (RV670 slide shows only one GPU pic). Our good buddy, CJ told us R680 is indeed a dual RV670 solution and is 1.5X faster than a Radeon HD 2900 XT in Crossfire. Another source told us that R680 "
reunion
2007-10-06, 11:22:06
Wenn es R670 sein soll warum steht da aber etwas von GDDR3? :|
2950X2X sollte AFAIK auf GDDR4 setzen.
Es gab ja schon vor längerem eine AMD-Folie, wo sowohl von R670, als auch von R680 geredet wurde. Beide existieren, und da R680 eine höheren Zahl abbekommen hat, liegt die Vermutung nahe, dass dieser schneller ist als R670.
???
R670 -> simple Gemini
R680 -> Dual-Die-Package mit kombinierten MC
???
Dann würde R670 aber keinen Sinn machen. Durchaus möglich, dass R680 ein doppelter RV670 ohne die bekannten CF-Nachteile ist und R670 nur ein Lückenfüller ist bis R680 kommt.
Laut dem Text auf VRzone ist der R680 eine Dual RV670 nur halt direkt auf einem Die.
"We even heard faintly that R680 could be AMD's ambitious plan to integrate two RV670 into a single die, if not on the same package.
VR-Zone has got hold of a presentation slide recently that gave some clues that R680 is a dual GPU (RV670 slide shows only one GPU pic). Our good buddy, CJ told us R680 is indeed a dual RV670 solution and is 1.5X faster than a Radeon HD 2900 XT in Crossfire. Another source told us that R680 "
Das wäre dann eine 640SP GPU mit 32TMUs, 512-bit SI und ca. 1.2Mrd Transistoren. Und dann würde auch die Leistungsangabe von 1.5x R600XT CF Sinn machen, da man damit natürlich die CF-Nachteile eliminiert.
w0mbat
2007-10-06, 11:27:41
@AnarchX: Die Präsentation hat über 15 Seiten, hört aber da auf wo zum ersten mal über den R680 gesprochen wurde. Am anfang kommen nur RV670 und R670 vor, dann hört sie mit dem Überblick auf die Spider-Platform auf. Und dort steht was von einem R680-DDK.
Mal sehen ob da noch mehr kommt. AMD scheint gerade ein sehr gutes Marketingspiel zu spielen. Ähnlich damals mit dem R650. Da gab es z.B. auch ganze Marketingfolien, aber den R650 gab es nicht. Oder es gab ihn schon und er wurde zum R680 umgelabled?
Wenn RV670 = 320SP @ 825MHz w/ 512MB GDDR4 @ 256Bit @ 1,2GHz, was ist dann der R680? Dort steht was von über 800MHz Coreclock, also wird es sich (wenn es nicht der Dual-RV670 ist, was komisch währe) um einen Chip mit mehr als 320SP handeln. Vielleicht ein R680 mit 480SP und 20-24ROPs @ 512Bit und somit wäre auch das GDDR3 erklärt.
Also langsam blicke ich rein gar nichts mehr, obwohl ich ja eigentlich den Durchblick haben sollte. Dazu kommt noch das man nicht weiß was nVidia macht und ob ein G90 bzw. besserer G92 existiert.
Wobei beim R680 auch dieses DDK dahinter stand, was ja Dual-Design-Kit heißt. Vielleicht Nutzt AMD auch einfach nur zwei Codenamen um geleakte Infos besser einordnen zu können und um genaue Infos zu unterbinden.
Die 15+ Seiten können nämlich auch zwei Präsentationen sein. Eine mit dem R670 und eine Mit dem R680-DDK.
deekey777
2007-10-06, 11:28:19
Laut Text ist es unklar, wie man zwei RV670-Kerne auf eine GPU packt: in einem Die oder auf einem Package.
In einem Die? Das wäre ein Die mit grob 400 mm² mit zweimal 700 Mio Transistoren? Wo ist die Ersparnis? (Bis auf R&D)
AnarchX
2007-10-06, 11:30:38
Es gab ja schon vor längerem eine AMD-Folie, wo sowohl von R670, als auch von R680 geredet wurde. Beide existieren, und da R680 eine höheren Zahl abbekommen hat, liegt die Vermutung nahe, dass dieser schneller ist als R670.
Naja, R430 war auch nicht schneller als R420. ;)
Dann würde R670 aber keinen Sinn machen. Durchaus möglich, dass R680 ein doppelter RV670 ohne die bekannten CF-Nachteile ist und R670 nur ein Lückenfüller ist bis R680 kommt.
Aber warum dann gerade GDDR3, wenn R680 so ein Monster sein soll?:|
Imo würde es mich nicht wundern, wenn R680 als Flagship vielleicht nur die stärkste GPU von AMD bedeutet, aber eben nicht die stärkste SKU.
Ein 55nm R600-512Bit würde sich ja wie ich schon öfter sagte im FireGL/Stream-Markt auch nicht schlecht machen, da dieser nachwievor eine beachtliche MADD-Performance bietet und mit einer bessere Energie-Effizienz sicherlich auch besser bei den Kunden ankommen.
Wobei auch ein R680-DDK als die Grafiklösung die mit dem Phenom-FX kombiniert werden sollte, genannt wurde.
Aber was bedeutet dieses DDK?:|
edit: Oha, w0mbat hat es geklärt....
reunion
2007-10-06, 11:34:04
Laut Text ist es unklar, wie man zwei RV670-Kerne auf eine GPU packt: in einem Die oder auf einem Package.
Wäre es nicht auf einem Die, dann würde R670 wenig Sinn machen. Oder warum sollte man zwei Versionen eine RV670 CF Systems bauen?
In einem Die? Das wäre ein Die mit grob 400 mm² mit zweimal 700 Mio Transistoren? Wo ist die Ersparnis? (Bis auf R&D)
Ein Rv670 hat 194mm². Wenn man die Funktionseinheiten verdoppelt, benötigt man dafür nie die doppelte Transistorenanzahl. Ein doppelter Rv670 in 55nm hätte wohl etwas unter 350mm² Die-Fläche.
dargo
2007-10-06, 11:37:27
Aber warum dann gerade GDDR3, wenn R680 so ein Monster sein soll?:|
Du meinst 128GB/s (1Ghz GDDR3) wären für einen R680 immer noch zuwenig? :|
Edit:
Wenn man es auf die Spitze treiben möchte wären auch 140.8GB/s mit GDDR3 möglich.
reunion
2007-10-06, 11:37:55
Naja, R430 war auch nicht schneller als R420. ;)
Einzige Ausnahme. Diese entstand dafür in einem moderneren Fertigungsprozess. Also irgendwas wird ein R680 eine R670 wohl voraus haben, wenn dieser überhaupt existiert und nicht nur ein Verwirrspiel von AMD ist.
Aber warum dann gerade GDDR3, wenn R680 so ein Monster sein soll?:|
Bei einem 512-bit SI sollte das locker reichen.
Imo würde es mich nicht wundern, wenn R680 als Flagship vielleicht nur die stärkste GPU von AMD bedeutet, aber eben nicht die stärkste SKU.
Ein 55nm R600-512Bit würde sich ja wie ich schon öfter sagte im FireGL/Stream-Markt auch nicht schlecht machen, da dieser nachwievor eine beachtliche MADD-Performance bietet und mit einer bessere Energie-Effizienz sicherlich auch besser bei den Kunden ankommen.
Auch möglich. Allerdings ist die Überschrift der Folie "R680: The next ATi Radeon Flagship" doch ziemlich eindeutig.
gegen ein "riesen-die" spricht aber, dass AMD seine high-end GPUs aus 2 kleinen bauen will (2*RV670). zudem ist es wirtschaftlich sinnvoller nur einen chip zu entwickeln, der dank kleiner fläche auch eine gute yield hat, und dann auf vielen SKUs (von 199$-599$) einstztbar ist.
robbitop
2007-10-06, 11:40:29
Wenn R680 wirklich ein DIE ist, dann werdens ganz sicher nicht 2xRV670 sein, sondern ein hochskalierter RV670. Das ist besser und transistorsparender. So einen Unsinn wuerde ATI nie machen. 2 separate RV670 DICE hingegen sind wieder eine andere Geschichte.
Ob ein grosser R680 (single) noch Sinn machen wuerde, wenn schon ein RV670 gemini existiert, ist IMO hoechstens eine Frage der Wirtschaftlichkeit. Ein R680 ist (habe ich ja schon an anderen Stellen erlaeutert) wirtschaftlicher ab einer gewissen Stueckzahl als ein RV670 Gemini. Moeglicherweise soll der RV670 Gemini (weil man ihn ja nicht direkt entwickeln musste und man ihn sowieso da hatte) den Sinn, schonmal ein Flaggschiff auf den Markt zu werfen, was ein paar Monate spaeter dann durch den R680 ersetzt wird.
Oder aber der R680 ist ein hoax, wie der R650, um die Leaks bei ATI zu entdecken (man gibt ja seit einer Weile gezielt Fehlinfos raus, um die Leute zu kriegen...beim R600 wars besonders heftig).
Wäre es nicht auf einem Die, dann würde R670 wenig Sinn machen. Oder warum sollte man zwei Versionen eine RV670 CF Systems bauen?
Warum macht ein R670 mit zwei Kerns auf einem Package keinen Sinn?
Ein Rv670 hat 194mm². Wenn man die Funktionseinheiten verdoppelt, benötigt man dafür nie die doppelte Transistorenanzahl. Ein doppelter Rv670 in 55nm hätte wohl etwas unter 350mm² Die-Fläche.
Dann ist das kein doppelter RV670, sondern eine Täuschungsaktion.
w0mbat
2007-10-06, 11:43:40
http://imghost.webspell.eu/image.php?id=aff2443d2f1214158d2a87260e65dd9e
robbitop
2007-10-06, 11:43:52
gegen ein "riesen-die" spricht aber, dass AMD seine high-end GPUs aus 2 kleinen bauen will (2*RV670). zudem ist es wirtschaftlich sinnvoller nur einen chip zu entwickeln, der dank kleiner fläche auch eine gute yield hat, und dann auf vielen SKUs (von 199$-599$) einstztbar ist.
Das stimmt eben so nicht. Nicht mit derzeitigem CF/SLI. Denk mal drueber nach. :)
Deshalb hoffe ich, dass bald mal ein neuer, anstaendiger Ansatz kommen wird.
@DDK
das kling nach Dual Die ...irgendwas...
AnarchX
2007-10-06, 11:44:42
Oder aber der R680 ist ein hoax, wie der R650, um die Leaks bei ATI zu entdecken (man gibt ja seit einer Weile gezielt Fehlinfos raus, um die Leute zu kriegen...beim R600 wars besonders heftig).
R680 scheint aber in der Cat-Inf zu stehen, neben den 4 bekannten RV670-SKUs (siehe Post #1).:|
Du meinst 128GB/s (1Ghz GDDR3) wären für einen R680 immer noch zuwenig? :|
Edit:
Wenn man es auf die Spitze treiben möchte wären auch 140.8GB/s mit GDDR3 möglich.
Warum sollte man aber einen Schritt zurückgehen, ab 1GHz hatte ATi ja bisher immer GDDR4 verwendet, welchen sie mit Samsung zusammen entwickelt hatten und daher wohl eine entsprechend guten Zugriff auf diesen haben? :|
reunion
2007-10-06, 11:47:43
Lovesuckz, nicht wahr?
Warum macht ein R670 mit zwei Kerns auf einem Package keinen Sinn?
Es macht keinen Sinn zwei Varianten eines Dual-RV670 vorzustellen. Entweder zwei Kerne auf einem Package oder zwei Packages mit einem Die auf einer Platine. Aber beides zu bauen und diese nebeneinander zu verkaufen macht keinen Sinn.
Dann ist das kein doppelter RV670, sondern eine Täuschungsaktion.
Na wenn du das sagtst.
Wenn R680 wirklich ein DIE ist, dann werdens ganz sicher nicht 2xRV670 sein, sondern ein hochskalierter RV670. Das ist besser und transistorsparender. So einen Unsinn wuerde ATI nie machen. 2 separate RV670 DICE hingegen sind wieder eine andere Geschichte.
Ob ein grosser R680 (single) noch Sinn machen wuerde, wenn schon ein RV670 gemini existiert, ist IMO hoechstens eine Frage der Wirtschaftlichkeit. Ein R680 ist (habe ich ja schon an anderen Stellen erlaeutert) wirtschaftlicher ab einer gewissen Stueckzahl als ein RV670 Gemini. Moeglicherweise soll der RV670 Gemini (weil man ihn ja nicht direkt entwickeln musste und man ihn sowieso da hatte) den Sinn, schonmal ein Flaggschiff auf den Markt zu werfen, was ein paar Monate spaeter dann durch den R680 ersetzt wird.
Oder aber der R680 ist ein hoax, wie der R650, um die Leaks bei ATI zu entdecken (man gibt ja seit einer Weile gezielt Fehlinfos raus, um die Leute zu kriegen...beim R600 wars besonders heftig).
So sehe ich das auch.
robbitop
2007-10-06, 11:48:03
R680 scheint aber in der Cat-Inf zu stehen, neben den 4 bekannten RV670-SKUs (siehe Post #1).:|
Warum sollte man aber einen Schritt zurückgehen, ab 1GHz hatte ATi ja bisher immer GDDR4 verwendet, welchen sie mit Samsung zusammen entwickelt hatten und daher wohl eine entsprechend guten Zugriff auf diesen haben? :|
Ich sagte ja nur, dass es eine Moeglichkeit ist. Eine andere ist, dass R680 der RV670 Gemini ist und ein R670 gar nicht existiert. Namen sind nur Schall und Rauch.
Der Grund fuer GDDR3 auf dem Gemini koennte ganz einfach ein Kostengrund sein.
dargo
2007-10-06, 11:50:16
Warum sollte man aber einen Schritt zurückgehen, ab 1GHz hatte ATi ja bisher immer GDDR4 verwendet, welchen sie mit Samsung zusammen entwickelt hatten und daher wohl eine entsprechend guten Zugriff auf diesen haben? :|
Keine Ahnung, aber der GDDR4 ist mir eh etwas merkwürdig. Warum will NV diesen wohl nicht?
DDK (http://www.microsoft.com/whdc/devtools/ddk/default.mspx) steht für Driver Development Kit.
Q
Keine Ahnung, aber der GDDR4 ist mir eh etwas merkwürdig. Warum will NV diesen wohl nicht?
Weil er bisher kaum was bringt - die Taktziele wurden bisher nicht erfüllt, 1,1 GHz (HD2600 XT) sind das höchste der Gefühle, was bisher auf Serienkarten eingesetzt wurde und das bekommt man auch noch beinahe mit GDDR3 (8800U) hin.
robbitop
2007-10-06, 11:52:05
DDK (http://www.microsoft.com/whdc/devtools/ddk/default.mspx) steht für Driver Development Kit.
Q
Sicher, dass ATI die Abkuerzung auch dafuer nutzt?
Sicher, dass ATI die Abkuerzung auch dafuer nutzt?
Nicht einhundertprozentig, aber solche Abkürzungen sind üblicherweise relativ fest besetzt. "Dual-Die-Kit" könnte natürlich auch sein.
Q
reunion
2007-10-06, 11:54:29
Ich sagte ja nur, dass es eine Moeglichkeit ist. Eine andere ist, dass R680 der RV670 Gemini ist und ein R670 gar nicht existiert. Namen sind nur Schall und Rauch.
Der Grund fuer GDDR3 auf dem Gemini koennte ganz einfach ein Kostengrund sein.
Beide existieren laut dieser älteren Folie:
http://img440.imageshack.us/img440/184/amd2cb6vo8.jpg
http://forum.beyond3d.com/showpost.php?p=1040947&postcount=38
Wenn R680 wirklich ein DIE ist, dann werdens ganz sicher nicht 2xRV670 sein, sondern ein hochskalierter RV670. Das ist besser und transistorsparender. So einen Unsinn wuerde ATI nie machen. 2 separate RV670 DICE hingegen sind wieder eine andere Geschichte.
Ob ein grosser R680 (single) noch Sinn machen wuerde, wenn schon ein RV670 gemini existiert, ist IMO hoechstens eine Frage der Wirtschaftlichkeit. Ein R680 ist (habe ich ja schon an anderen Stellen erlaeutert) wirtschaftlicher ab einer gewissen Stueckzahl als ein RV670 Gemini. Moeglicherweise soll der RV670 Gemini (weil man ihn ja nicht direkt entwickeln musste und man ihn sowieso da hatte) den Sinn, schonmal ein Flaggschiff auf den Markt zu werfen, was ein paar Monate spaeter dann durch den R680 ersetzt wird.
Oder aber der R680 ist ein hoax, wie der R650, um die Leaks bei ATI zu entdecken (man gibt ja seit einer Weile gezielt Fehlinfos raus, um die Leute zu kriegen...beim R600 wars besonders heftig).
Ich habe noch eine sehr schöne Folie zum R650 in meinem Posteingang.
Das Problem bei Gemini ist, dass man weiterhin auf einen externen Chip setzt, um eine X2-Radeon zu ermöglichen.
dargo
2007-10-06, 11:55:14
Weil er bisher kaum was bringt - die Taktziele wurden bisher nicht erfüllt, 1,1 GHz (HD2600 XT) sind das höchste der Gefühle, was bisher auf Serienkarten eingesetzt wurde und das bekommt man auch noch beinahe mit GDDR3 (8800U) hin.
Eben das ist es, und der wird sicherlich auch nicht billiger sein wie GDDR3. Ich sehe in GDDR4 keine Zukunft. Bei NV wird man wohl gleich zu deutlich höher getakteten GDDR5 überspringen.
Das stimmt eben so nicht. Nicht mit derzeitigem CF/SLI. Denk mal drueber nach. :)
Deshalb hoffe ich, dass bald mal ein neuer, anstaendiger Ansatz kommen wird.
die frage ist ein "großer" R680 oder ein R680=2*RV670 (die wie auch immer auf einer platine landen)
natürlich hat ein großer R680 das bessere P/L verhältnis für ATi als 2 RV670, aber nur, wenn man den R680 in einer hohen stückzahl absetzten kann. denn den RV670 entwickelt man ja eh. ein zusätzliches tape-out + eine eigene fertigungsstraße für einen ultra-high-end-chip bedeutet recht hohe fixkosten.
w0mbat
2007-10-06, 11:59:03
@reunion: ok, wenn R670 und R680 (DDK?) existieren müssen wir jetzt nur noch erörtern was was ist. Der R670 sollte ein Dual-RV670 sein (HD2950 X2X). In Zusammenhang mit ihm wird auch von GDDR4 gesprochen.
Der R680 kann also ein doppelte RV670 auf einem Die sein oder eine neue single-chip high-end GPU.
robbitop
2007-10-06, 11:59:04
Wie wirklich diese Folien sind, kann wohl keiner Beurteilen. Vieleicht ist es nur zum Leaker-Jagen vieleicht aber auch die Wahrheit.
reunion
2007-10-06, 12:01:37
Es sind auch beide in den Catalyst .infs vertreten. Das wäre schon ein verdammt weitsichtiges Täuschungsmanöver, wenn AMD sich auch noch die Arbeit macht und die Treiber dafür manipuliert.
robbitop
2007-10-06, 12:01:39
die frage ist ein "großer" R680 oder ein R680=2*RV670 (die wie auch immer auf einer platine landen)
natürlich hat ein großer R680 das bessere P/L verhältnis für ATi als 2 RV670, aber nur, wenn man den R680 in einer hohen stückzahl absetzten kann. denn den RV670 entwickelt man ja eh. ein zusätzliches tape-out + eine eigene fertigungsstraße für einen ultra-high-end-chip bedeutet recht hohe fixkosten.
Dafuer braucht man nicht den doppelten VRAM zu verbauen (obwohl man effektiv nur 1/2 nutzen kann), dafuer hat man geringere Packaging Kosten, das PCB wird unkomplexer, die Spannungsversorgung ebenfalls.
Ab einer gewissen Stueckzahl ist der Deckungsbeitrag pro Stueck hoch genug und der Break-Even erreicht.
Das muss gar nicht mal eine so hohe Stueckzahl sein, denn sonst haetten die IHVs die High End Karten seit Jahren in SLI/CF Manier gebastelt.
robbitop
2007-10-06, 12:02:37
Es sind auch beide in den Catalyst .infs vertreten. Das wäre schon ein verdammt gutes Täuschungsmanöver, wenn AMD sich auch noch die arbeit macht und die Treiber manipuliert.
Die infs sind doch einfach zu editieren. Dazu noch ein paar Eintraege in den Treiber. Das ist fuer einen Treiberentwickler fix gemacht. Dein Einwand ist allerdings sehr berechtigt. :)
Ich bin gespannt.
w0mbat
2007-10-06, 12:05:13
Another source told us that R680 could reach 20K in 3DMark06 or rather the target AMD is trying to achieve.
http://www.vr-zone.com/articles/R680_To_Score_20K_In_3DMark06/5325.html
Hmm, ATI hat wohl große Pläne. Aber 20k Pkt. würde zu einem doppelten R600 (RV670) passen.
reunion
2007-10-06, 12:08:19
Hmm, ATI hat wohl große Pläne. Aber 20k Pkt. würde zu einem doppelten R600 (RV670) passen.
Außerdem würde dann auch der Codename RV670 Sinn ergeben. Hätte mich schon gewundert, wenn ATi dem High-End-Core ein "V" beifügt. Die Frage, die sich mir nur stellt, ist, welchen Marketingnamen R680 dann bekommen soll. Mit HD2950PRO/XT/X2X für RV670 scheint ja das höchst mögliche schon belegt.
Wenn die 2 voll ist geht's mit was wohl weiter?
Q
Ich dachte, der R680 wäre gestrichen worden... Falls nicht, hoffe ich es wird ein Single High-End Core werden.
reunion
2007-10-06, 12:16:48
Wenn die 2 voll ist geht's mit was wohl weiter?
Q
Naja, die 3 dürfte erst bei der R7xx-Serie benutzt werden. AMD hat den R600 wohl noch ohne Grund gleich 2900 genannt. Und ob ein R680 irgendwann 2008 noch Sinn macht, wenn angeblich im Q2 2008 schon R700 kommt, ist auch fraglich.
dargo
2007-10-06, 12:18:59
Hmm, ATI hat wohl große Pläne. Aber 20k Pkt. würde zu einem doppelten R600 (RV670) passen.
Wenn die 20k stimmen hat die GPU eh mehr Potenzial. Da limitiert schon lange die CPU.
Naja, die 3 dürfte erst bei der R7xx-Serie benutzt werden.
Was macht dich da so sicher? Fände ich wahrscheinlicher, als eine HD2987,5 XTS
Zudem gibt's ja auch die X1050 und die Mobility HD2300, welche technologisch und generationstechnisch auch nur bedingt zu ihren Nummern passen.
Q
Dafuer braucht man nicht den doppelten VRAM zu verbauen (obwohl man effektiv nur 1/2 nutzen kann), dafuer hat man geringere Packaging Kosten, das PCB wird unkomplexer, die Spannungsversorgung ebenfalls.
Ab einer gewissen Stueckzahl ist der Deckungsbeitrag pro Stueck hoch genug und der Break-Even erreicht.
Das muss gar nicht mal eine so hohe Stueckzahl sein, denn sonst haetten die IHVs die High End Karten seit Jahren in SLI/CF Manier gebastelt.
allerdings ist der RV670 schon recht komplex und daher schon eigentlich "highest-end", weshalb eine steigerung (wie bei der GX2 damals) nur noch über das eigentlich unsinnige multi-GPU-verfahren läuft.
reunion
2007-10-06, 12:22:33
Was macht dich da so sicher? Fände ich wahrscheinlicher, als eine HD2987,5 XTS
AMD hat dem R600 wohl nicht ohne Grund gleich zur 2900-Serie gemacht. Wenn da noch so viel kommen würde, wäre die übliche 2800-Bezeichnung angebracht gewesen. Aber abwarten, das wäre wohl das kleinste Problem.
Zudem gibt's ja auch die X1050 und die Mobility HD2300, welche technologisch und generationstechnisch auch nur bedingt zu ihren Nummern passen.
Deine Beispiele stelle alle unterstes Low-End dar. Was glaubst du wie eine HD3100(?) aufgenommen werden würde, wenn dann bald darauf die gesamte HD3000-Serie vorgestellt wird?
allerdings ist der RV670 schon recht komplex und daher schon eigentlich "highest-end", weshalb eine steigerung (wie bei der GX2 damals) nur noch über das eigentlich unsinnige multi-GPU-verfahren läuft.
Das Die hat unter 200mm², das ist alles andere als "highest-end".
laser114
2007-10-06, 12:23:59
AMD hat dem R600 wohl nicht ohne Grund gleich zur 2900-Serie gemacht. Wenn da noch so viel kommen würde, wäre die übliche 2800-Bezeichnung angebracht gewesen.
Hmm, wenn sie aber gleich überlegt haben den Refresh HD 3xxx zu nennen, dann nicht unbedingt. ;)
Wobei ich auch nicht unbedingt daran glaube.
Edit: Widersprüchlich sind jedenfalls die Angaben GDDR3 beim R680, das macht nur bei nativen 512-Bit noch Sinn, nicht aber bei 2x 256 Bit.
AMD hat dem R600 wohl nicht ohne Grund gleich zur 2900-Serie gemacht. Wenn da noch so viel kommen würde, wäre die übliche 2800-Bezeichnung angebracht gewesen.
Wieso? Hier wird doch jedem möglichen Codenamen direkt >R600-Performance nachgesagt.
Q
@reunion:
700 millionen transistoren sind schon recht komplex. besonders wenn man bedenkt, dass R680=RV670 on one die ca. 1,3 MILLIARDEN transistoren hätte.
VR Zone:
Fudzilla reported that AMD plans to introduce a dual chip card called Radeon HD 2950X2X and it will have two RV670 chips on a single PCB. They called this dual GPU solution R670. On the other hand, we are still hearing R680 from our sources but both of us could be referring to the same thing. We even heard faintly that R680 could be AMD's ambitious plan to integrate two RV670 into a single die, if not on the same package.
VR-Zone has got hold of a presentation slide recently that gave some clues that R680 is a dual GPU (RV670 slide shows only one GPU pic). Our good buddy, CJ told us R680 is indeed a dual RV670 solution and is 1.5X faster than a Radeon HD 2900 XT in Crossfire. Another source told us that R680 could reach 20K in 3DMark06 or rather the target AMD is trying to achieve.
das klingt imo eher nach einer 2 die lösung.
reunion
2007-10-06, 12:34:39
Wieso? Hier wird doch jedem möglichen Codenamen direkt >R600-Performance nachgesagt.
Q
Wie meinst du das? Die Folien sprechen eine ziemlich deutliche Sprache. RV670 soll zur HD2950-Serie werden, was er wohl kaum werden würde, wenn er von R600 geschlagen werden würde. Und R680 wird als "next Flagship" bezeichnet, also auch kaum langsamer als R600. R670 soll ein Dual RV670 sein. Ich sehe da wenig Spielraum. Die Frage die bleibt, ist natürlich, was davon der Realität entspricht, und was ev. eine bewusste Täuschungsaktion war/ist.
Wie meinst du das? Die Folien sprechen eine ziemlich deutliche Sprache. RV670 soll zur HD2950-Serie werden, was er wohl kaum werden würde, wenn er von R600 geschlagen werden würde. Und R680 wird als "next Flagship" bezeichnet, also auch kaum langsamer als R600. R670 soll ein Dual RV670 sein. Ich sehe da wenig Spielraum.
Das widerspricht dem:
AMD hat dem R600 wohl nicht ohne Grund gleich zur 2900-Serie gemacht. Wenn da noch so viel kommen würde, wäre die übliche 2800-Bezeichnung angebracht gewesen.
Nach den ganzen Folien haben wir noch mindestens drei, eher mehr Produkte, welche eine höhere Nummer als R600 verdient hätten.
Allerdings gabs früher schon höhere Nummern ohne höhere Performance.
reunion
2007-10-06, 12:43:38
Das widerspricht dem:
Das ist eben das was mir auch spanisch vorkommt.
Nach den ganzen Folien haben wir noch mindestens drei, eher mehr Produkte, welche eine höhere Nummer als R600 verdient hätten.
Allerdings gabs früher schon höhere Nummern ohne höhere Performance.
Mhm, zumindest R680 passt da überhaupt nicht rein, R650 war wohl eine Ente. Bis jetzt sah es so aus:
HD2950X2X - 2x Rv670 aka R670
HD2950XT - Rv670 "Gladiator"
HD2950Pro - Rv670 "Revival"
HD2950GT - niedrig getakteter und ev. teil-deaktivierter Rv670
Höchstens die XTX wäre noch frei, aber das wäre dann schon extrem gestaucht.
dargo
2007-10-06, 12:47:39
Das ist eben das was mir auch spanisch vorkommt.
Mhm, vielleicht nicht drei, aber zumindest R680 passt da überhaupt nicht rein. Bis jetzt sah es so aus:
HD2950X2X - 2x Rv670 aka R670
HD2950XT - Rv670 "Gladiator"
HD2950Pro - Rv670 "Revival"
HD2950GT - niedrig getakteter und ev. teil-deaktivierter Rv670
Was spricht gegen eine HD2980 für den R680?
wenn man bedenkt, dass der R560 ein teildeaktivierter R670 war, könnte es doch sein, dass einige "R670" produkte also 2800 oder 2700 verkauft werden.
reunion
2007-10-06, 13:03:24
Was spricht gegen eine HD2980 für den R680?
Im Prinzip natürlich nichts, es wäre nur etwas seltsam den R600 gleich HD2900 zu nennen, wenn man noch so viele schnellere Chips in der Hinterhand hält, und diese dann irgendwie reinquetschen muss.
So passt es aber:
HD2950X2X - 2x Rv670 aka R680
HD2950XT - Rv670 "Gladiator"
HD2950Pro - Rv670 "Revival"
HD2950GT - niedrig getakteter und ev. teil-deaktivierter Rv670
Den R670 hat Fudy bestimmt erfunden und meint damit den R680.
reunion
2007-10-06, 13:06:59
So passt es aber:
HD2950X2X - 2x Rv670 aka R680
HD2950XT - Rv670 "Gladiator"
HD2950Pro - Rv670 "Revival"
HD2950GT - niedrig getakteter und ev. teil-deaktivierter Rv670
Den R670 hat Fudy bestimmt erfunden und meint damit den R680.
Wie schon gesagt, auch AMD nennt beiden Codenamen nebeneinander und es scheinen auch beide in den .infs des Treibers auf.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5907422&postcount=547
vll gibt es ja noch eine art 2950xtx mit 512bit SI und 900mhz chiptakt.
Wenn man das neue Line-Up bisher so sieht, wäre die Bezeichnung X2800 für den R600 auf jeden Fall angebracht. Der Schritt von 2900 zu 2950 ist für ATI untypisch klein, wenn man die neuen Features, Prozesstechnik und wahrscheinlich auch Leistung berücksichtigt. Aber letzlich ist die Bezeichnung egal und es ist nur wichtig was hinter der Zahl steckt.
robbitop
2007-10-06, 13:24:30
allerdings ist der RV670 schon recht komplex und daher schon eigentlich "highest-end", weshalb eine steigerung (wie bei der GX2 damals) nur noch über das eigentlich unsinnige multi-GPU-verfahren läuft.
< 200 mm^2 sind bei dir highest end? :|
@reunion:
700 millionen transistoren sind schon recht komplex. besonders wenn man bedenkt, dass R680=RV670 on one die ca. 1,3 MILLIARDEN transistoren hätte.
steht etwas weiter oben.
robbitop
2007-10-06, 13:28:02
@reunion:
700 millionen transistoren sind schon recht komplex. besonders wenn man bedenkt, dass R680=RV670 on one die ca. 1,3 MILLIARDEN transistoren hätte.
steht etwas weiter oben.
Nicht die Transistoranzahl zaehlt, sondern die DIE-Flaeche. Die Transistorzahl steigt sowieso stetig (wenn du an den Herrn Moore zurueckdenken magst..).
Vieleicht ist R680 auch nur ein R670 mit mehr bums. Also mehr Takt.
reunion
2007-10-06, 13:28:34
Zähen tut die Die-Größe, und da wären dank 55nm eben auch 1.5Mrd Transistoren möglich, ohne die Größe eines R600 zu überschreiten.
laser114
2007-10-06, 13:30:34
In 130nm waren 175 Millionen Transistoren eine große Herausforderung, inzwischen pappen mehr auf den Billigprodukten der aktuellen Serie. Man muss diese Zahl doch in Verhältnis zur Fertigung sehen, und während rund 700 in 90 und 80nm eben noch relativ viel sind, sind das in 55nm für GPUs nur noch mäßig viele, von Highest-End keine Spur. Highest-End ist in der Fertigung irgendwas im Milliarden-Bereich.
reunion
2007-10-06, 13:31:24
Vieleicht ist R680 auch nur ein R670 mit mehr bums. Also mehr Takt.
Deshalb ein eigener Codename? Glaube ich kaum. Dann müsste ja auch jeder andere Chip haufenweise Codenamen haben. Auch wenn man sich die Folie so ansieht, alles was da draufsteht zu CF ist "support for Multi-GPU configuration". Das klingt gar nicht so, als ob ein R680 schon aus zwei Dice bestehen würde.
In 130nm waren 175 Millionen Transistoren eine große Herausforderung, inzwischen pappen mehr auf den Billigprodukten der aktuellen Serie. Man muss diese Zahl doch in Verhältnis zur Fertigung sehen, und während rund 700 in 90 und 80nm eben noch relativ viel sind, sind das in 55nm für GPUs nur noch mäßig viele, von Highest-End keine Spur. Highest-End ist in der Fertigung irgendwas im Milliarden-Bereich.
222 Mio. ;)
Deshalb ein eigener Codename? Glaube ich kaum. Dann müsste ja auch jeder andere Chip haufenweise Codenamen haben. Auch wenn man sich die Folie so ansieht, alles was da draufsteht zu CF ist "support for Multi-GPU configuration". Das klingt gar nicht so, als ob ein R680 schon aus zwei Dice bestehen würde.
R350 - R360?
reunion
2007-10-06, 13:39:34
R350 - R360?
R360 war ein neuer Chip mit eigenem Tapeout. Das es keine Verbesserungen bis auf den höheren Takt gab, spielt keine Rolle.
laser114
2007-10-06, 13:47:01
222 Mio. ;)
OK, dann eben doch etwas mehr. ;)
Mal ein paar Gedanken von mir:
Wenn es den R680 wirklich gibt und er mit mehr Funktionseinheiten kommt sowie auch noch eine etwas höhere DirectX-Version unterstützt, dann würde ich denn nicht noch in die 2xxx-Serie reinpropfen. Dann doch lieber die HD-3-Serie eröffnen.
Die wäre dann natürlich etwas leer ... aber der RV670 würde da auch reinpassen. Wie sicher sind denn 2950 XT/Pro als Produktbezeichnungen?
Wenn der R680 aber nur ein RV670@512 Bit ist, dann gilt das natürlich nicht. Nur wofür braucht man den dann, gerade wenn auch 2x RV670-Chips im Gespräch sind?
R360 war ein neuer Chip mit eigenem Tapeout. Das es keine Verbesserungen bis auf den höheren Takt gab, spielt keine Rolle.
Und wer sagt dir, dass R670/R680 nicht genauso sind?
R420/R480 waren ja auch "gleich".
reunion
2007-10-06, 14:12:52
Weil dann diese beiden nicht parallel existieren dürften. Außerdem müsste es ja dann eigentlich auch noch einen RV680 geben, da R670 ja auch nur 2x RV670 ist. Das ein weiterer Refresh so kurzfristig noch Sinn macht, glaube ich nicht.
AnarchX
2007-10-06, 14:14:10
Wenn der R680 aber nur ein RV670@512 Bit ist, dann gilt das natürlich nicht. Nur wofür braucht man den dann, gerade wenn auch 2x RV670-Chips im Gespräch sind?
FireStream, wo 500GFLOPs+ mit einer Bandbreite von 100GB/s+ bei bestimmten Workloads vielleicht gar nichtmal so verkehrt sind vorallem, wenn man einen Verbrauch von <=100W hat?
btw.
R670 2x RV670 A11 R680 2x RV670 A12?
Naja, ohne weitere Infos kann man da wohl noch lange herumraten...
reunion
2007-10-06, 14:27:00
Da zwischen der HD2950XT mit einem RV670 Gladiator und der X2X mit zwei Revival sowohl preismäßig als auch leistungsmäßig eine ziemlich große Lücke entstehen würde, könnte es auch so ablaufen wie bei RV570/RV560. Also das R670 ein teildeaktivierter Dual-Rv670 ist, der die Lücke schließt und erst R680 aus zwei vollen RV670 besteht.
Doch dazu passt die Folie einfach nicht. Zum einen wird von 1GB oder 512MB GDDR3 gesprochen, zum anderen nur von "multi GPU support". Kein Wort zu einer Dual-Lösung. Wenn R680 wirklich existiert, und diese Folie nicht nur eine bewusste Täuschung ist, dann besteht dieser IMHO nur aus einem Die und wird ziemlich fett, wenn er als "next Radeon Flagship" die X2X ausstechen muss
AnarchX
2007-10-06, 14:28:54
Bei R670 soll nichts deaktiviert sein gegenüber RV670 laut AMD.
Weil dann diese beiden nicht parallel existieren dürften.
Kapier ich so nicht. Was meinst du damit?
reunion
2007-10-06, 14:31:26
Bei R670 soll nichts deaktiviert sein gegenüber RV670 laut AMD.
Achja, stimmt. Da wird ja auch von 320SPs gesprochen.
Kapier ich so nicht. Was meinst du damit?
Ich habe es ja nachher versucht zu erklären. Ob da noch ein weiterer Refresh Sinn macht, ist fraglich. Aber mal sehen, wenn bald auch ein RV680 auftaucht, hast du wohl recht.
mir kommt noch ein anderer gedanke: könnte es sein, dass tripple/quad CF NUR mit dem R680 funktionieren wird und nicht mit dem RV670 ? vll ist der R680 einfach ein RV670 bei dem ein multi-CF chip drin ist oder so.
AnarchX
2007-10-06, 14:42:50
Auch etwas merkwürdig ist, dass ja R680 mit seinen 1GB GDDR3 mehr effektiven Speicher hat als die 2950X2X mit 2x512MB GDDR4:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=3476&Itemid=1
300-400mm² @55nm oder gar eine Lösung wo zwei Dies ohne CF zusammengeschalten werden, würde mich aber für Ende 2007 sehr überraschen, erst recht wenn R700 im Q2/Q3 08 antretten soll.:|
reunion
2007-10-06, 14:53:43
Eben, R680 ist ganz klar über der Dual-RV670 Karte angesiedelt. Das sagt der Codename, das sagen die 1GB VRAM und das sagt ja auch die Folie selbst (Flagship).
300-400mm² @55nm oder gar eine Lösung wo zwei Dies ohne CF zusammengeschalten werden, würde mich aber für Ende 2007 sehr überraschen, erst recht wenn R700 im Q2/Q3 08 antretten soll.:|
Da sollte locker sechs Monate dazwischenliegen. Hat AMD nicht vor kurzem gesagt alle sechs Monate einen neuen High-End-Chip vorstellen zu wollen?
laser114
2007-10-06, 15:08:49
Ein doppelter R600 in 55nm und 512-Bit-Speicherinterface ist nach meinen Berechnungen wohl irgendwas zwischen 345 und 370 mm² groß.
Durchaus möglich, dass die Konstrukteure das in Betracht gezogen haben. Stellt sich die Frage, wie gut der 55nm-Prozess läuft...
AnarchX
2007-10-06, 15:18:23
Da sollte locker sechs Monate dazwischenliegen. Hat AMD nicht vor kurzem gesagt alle sechs Monate einen neuen High-End-Chip vorstellen zu wollen?
Wobei hier von Dual-Chip die Rede war um in den neuesten Prozessen, die man verwenden will, keine Probleme zu haben.
Imo macht R680 als RV670-512Bit doch am meisten Sinn, der dann vielleicht als 2950XTX* kommt und somit weiterhin, das Radeon-Single-GPU-Flagship ist und eben aber auch für die Refreshes der stromfressenden R600-FireGL/Stream-Karten mit 512Bit eingesetzt wird.
Dies wird übrigens ja auch auf der Folie betont -> "Advanced Stream Processing". ;) (was ich den RV670-Folien nicht endeckt habe)
*Die gab es nämlich auch schonmal in alten Folien, nur war da die 2900XT unter dieser, da war man wohl noch nicht so sicher welche Taktraten RV670 schafft. ;)
R680 = abgespeckter R700 (HD3900XT) = HD3800XT ?
horn 12
2007-10-06, 15:29:02
Dann dürfte das 512bit SI wohl doch nicht soo falsch sein wie oft angenommen und ATI setzt bei High End weiter drauf.
Ist nur zu hoffen das mit dem CAT 7.10/11 8.0/8.1 Amd_Ati die Performance des R600 mit aktivem AA/AF erneut und nicht zu knapp gesteigert werden kann,- denn die R600 Nachfolger werden in dem sicher einen Vorteil haben.... Und wenn diese releast werden, wage ich zu behaupten dass der R600 etwas links liegen gelassen wird,- was Optimierungen betreffen, vor allem zwecks des AA Problems. Wegen dem AF kann man nicht viel machen, hoffe da ist der RV670 weitaus besser unterwegs.
R680 = abgespeckter R700 (HD3900XT) = HD3800XT ?
ne bestimmt nicht. die R700 = HD3xxx reihe kommt frühensdens sommer 08
http://www.vr-zone.com/articles/R680_To_Score_20K_In_3DMark06/5325.html
Hat AMD nicht bereits mehrfach gesagt, dass die Zeit der großen monolithischen GPU-Designs vorüber sei?
horn 12
2007-10-06, 18:20:50
http://www.theinquirer.net/gb/inquirer/news/2007/10/06/working-rv670-phenom-system
Hier sieht man 2 RV670 im Crossfire und auch den verwendeten Lüfter....
Geil Geil, da kommt was gutes auf uns zu :cool::cool:
(Habe schon die 2900XT, und werde dabei bleiben... auch wenn Stromstärke und Lautstärke niedriger ist beim RV670).
reunion
2007-10-06, 18:29:12
Endlich hat mal jemand eine RV670 "Gladiator" Karte zumindest seitlich abgelichtet:
http://img520.imageshack.us/img520/6329/wcgrv670testrv670b19633er6.jpg (http://imageshack.us)
Bis jetzt gabs ja nur diese Zeichnung:
http://img404.imageshack.us/img404/8261/rv6ts9.jpg
/Edit: Auch wenn es OT ist, aber diese Einstellung finde ich ja mal krass:
http://img210.imageshack.us/img210/5938/wcgrv670testpcie0119944fi7.jpg (http://imageshack.us)
Offensichtlich kann man beim RD790 Chipsatz zuweise wieviel Watt jeder PCie2.0-Slot bekommen soll.
laser114
2007-10-06, 18:33:11
Und die werden auf den WCG präsentiert?
Dann aber her mit mehr Infos. :)
dargo
2007-10-06, 18:36:13
/Edit: Auch wenn es OT ist, aber diese Einstellung finde ich ja mal krass:
http://img210.imageshack.us/img210/5938/wcgrv670testpcie0119944fi7.jpg (http://imageshack.us)
Offensichtlich kann man beim RD790 Chipsatz zuweise wieviel Watt jeder PCie2.0-Slot bekommen soll.
Und welchen Sinn soll das haben? :|
reunion
2007-10-06, 18:37:48
Und welchen Sinn soll das haben? :|
Man kann (zugegeben etwas unkonventionell) testen wieviel die Karte über den Slot zieht. :D
Ist natürlich eine reine Spielerei.
dargo
2007-10-06, 18:44:23
Man kann (zugegeben etwas unkonventionell) testen wieviel die Karte über den Slot zieht. :D
Das kann xbitlabs ohne solche Spielerei schon lange. :D
StefanV
2007-10-06, 18:49:56
/Edit: Auch wenn es OT ist, aber diese Einstellung finde ich ja mal krass:
http://img210.imageshack.us/img210/5938/wcgrv670testpcie0119944fi7.jpg (http://imageshack.us)
Offensichtlich kann man beim RD790 Chipsatz zuweise wieviel Watt jeder PCie2.0-Slot bekommen soll.
Ach, auch schon gemerkt, das es das gibt? ;)
Hat eigentlich jedes Brett mit aktuellerem ATI Chipsatz, mit ausnahme des MSI K9A Platinum...
z.B. A9RX480, DFI CFX3200
PCGH vermutet, dass R680 ein dual-chip wird:
http://www.pcgameshardware.de/?article_id=616110
reunion
2007-10-07, 10:36:55
RV670 Gladiator nackt:
http://img119.imageshack.us/img119/2378/rv670g1qq7.jpg
http://img119.imageshack.us/img119/392/rv670g2ri5.jpg
http://www.pcgameshardware.de/?article_id=616111&page=1
Doch eine Dualslotkühlung? Was meint ihr? Oder wurde hier lediglich das Referenzdesign der XT gezeigt und die Pro hat dann einen Singleslotkühler?
laser114
2007-10-07, 11:20:20
Oder wurde hier lediglich das Referenzdesign der XT gezeigt und die Pro hat dann einen Singleslotkühler?
So stand es in den letzten Berichten die ich gelesen habe.
Heh man wäre ich jetzt gerne in Seattle aber das System von Sapphire ist schon klasse nur schade, dass nicht mehr im PC gezeigt wurde also mehr von dem Motherboard und ein besseres Bild von dem GPU Kühler wäre auch toll gewesen aber sieht dennoch spitze aus.
Würde ich mich nicht so auf den RV670 freuen hätte ich jetzt schon eine HD 2900Pro in der Hand.
dargo
2007-10-07, 11:29:20
http://www.pcgameshardware.de/?article_id=616111&page=1
Ist da was dran an dem behobenen AA-Problem oder ist es nur wieder reine Spekulation?
Ist da was dran an dem behobenen AA-Problem oder ist es nur wieder reine Spekulation?
"Dabei sollen Schwächen des R600-Chips wie die hohe Leistungsaufnahme, die nötige Doppelslot-Kühlung und der starke Einbruch beim FSAA-Einsatz behoben worden sein."
Aufgabe: Finde den Konjunktiv.
Ist da was dran an dem behobenen AA-Problem oder ist es nur wieder reine Spekulation?
Klingt nach Spekulation. Seid wann ist eine Doppelslot-Kühlung ansich eine Schwäche? Ich dachte immer der hohe Stromverbrauch ist die Schwäche und der Dualslot-Kühler die Lösung. Ich finde es allerdings nicht problematisch bei einer TDP von 135 Watt einen Dualslot-Kühler einzusetzen. Das könnte auch den Vorteil haben, dass die Karte schön leise ist.
dargo
2007-10-07, 12:18:12
Seid wann ist eine Doppelslot-Kühlung ansich eine Schwäche? Ich dachte immer der hohe Stromverbrauch ist die Schwäche und der Dualslot-Kühler die Lösung. Ich finde es allerdings nicht problematisch bei einer TDP von 135 Watt einen Dualslot-Kühler einzusetzen. Das könnte auch den Vorteil haben, dass die Karte schön leise ist.
Da bin ich voll deiner Meinung. Ich würde es eh Schwachsinn finden bei einer 135W TDP Graka einen Singleslotkühler zu verbauen. Wann lernt AMD/ATI endlich, dass wir keinen Staubsauger im Rechner haben wollen? :mad:
laser114
2007-10-07, 12:27:05
Singleslot wird ja auch nicht bei dem 135W-Modell verwendet sondern nur bei Revival. Welche TDP der hat stand auch schon mal irgendwo.
AnarchX
2007-10-07, 12:28:45
104W
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5566533&postcount=1
dargo
2007-10-07, 12:38:21
104W
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5566533&postcount=1
Auch bei 104W TDP ist eine Singleslotkühlung viel zu schwach um leise zu bleiben. Eine X1800XL Kühlung war ein Staubsauger und die Karte hatte 59W real (TDP meine ich zwischen 80 und 90W).
Auch bei 104W TDP ist eine Singleslotkühlung viel zu schwach um leise zu bleiben. Eine X1800XL Kühlung war ein Staubsauger und die Karte hatte 59W real (TDP meine ich zwischen 80 und 90W).
Gibt es irgendwo eine Übersicht zu den TDP-Angaben der ATI Chips (von R300 an)? google konnte nicht helfen.
dargo
2007-10-07, 12:56:59
Gibt es irgendwo eine Übersicht zu den TDP-Angaben der ATI Chips (von R300 an)? google konnte nicht helfen.
Puh, ist mir nicht bekannt. Die 80-90W TDP der X1800XL waren von mir eher geschätzt. Wobei, ich meine ich hätte was von um die 90W mal gelesen. :uponder:
Ist aber schon sehr lange her.
X800 XT hatte schon knapp 65-70 Watt
Eine X1950 Pro hat einen ähnlichen Verbrauch. 75 Watt etwa.
Wenn so ein ähnlicher Sprung zufinden ist, kann die Zukunft doch kommen
Nakai
2007-10-07, 13:12:59
Der neue Kühler hat doch Heatpipes integriert, ergo könnte sich dadurch die Kühlleistung etwas verbessert haben.
IMO kann man keinen Leisetreter erwarten.
mfg Nakai
dargo
2007-10-07, 13:22:14
Der neue Kühler hat doch Heatpipes integriert, ergo könnte sich dadurch die Kühlleistung etwas verbessert haben.
Mit HPs kannst du höchstens die Wärme von A nach B schneller transportieren. Dadurch wird der Kühler aber auch nicht wirklich leiser. Schließlich muss die Wärme vom Kühler weg und dementsprechend der Lüfter schnell drehen. Eine große Kühlfläche kann keine HP ersetzen.
Botcruscher
2007-10-07, 13:42:14
Eine große Kühlfläche kann keine HP ersetzen.
Die bestehende Kühlerfläche wird aber besser genutzt. Der schnellere Wärmetransport sorgt dafür das die Energie schneller transportiert wird und der Kühler damit wärmer ist. Höhere Differnztemperatur = schnellere Wärmeabgabe. Dadurch ist entweder der Chip kühler oder man kann die Luftmenge reduzieren.
Auch bei 104W TDP ist eine Singleslotkühlung viel zu schwach um leise zu bleiben. Eine X1800XL Kühlung war ein Staubsauger und die Karte hatte 59W real (TDP meine ich zwischen 80 und 90W).
Ich erwarte nix anders als wenigstens soeine passive Lösung:
http://geizhals.at/eu/a240360.html
und die kommt! :wink:
dargo
2007-10-07, 13:45:57
Die bestehende Kühlerfläche wird aber besser genutzt. Der schnellere Wärmetransport sorgt dafür das die Energie schneller transportiert wird und der Kühler damit wärmer ist. Höhere Differnztemperatur = schnellere Wärmeabgabe. Dadurch ist entweder der Chip kühler oder man kann die Luftmenge reduzieren.
Ja, natürlich. Es hängt aber auch von der Verlustleistung der GPU ab. Es macht zb. keinen Sinn HPs bei einer 20W GPU zu verwenden.
Ich erwarte nix anders als wenigstens soeine passive Lösung:
http://geizhals.at/eu/a240360.html
und die kommt! :wink:
Ich finde zb. diese Lösung nicht gut da die gesamte Wärme im Gehäuse verbleibt. Außerdem wird die GPU bei dieser Lösung ziemlich warm.
Ja, natürlich. Es hängt aber auch von der Verlustleistung der GPU ab. Es macht zb. keinen Sinn HPs bei einer 20W GPU zu verwenden.
Ich finde zb. diese Lösung nicht gut da die gesamte Wärme im Gehäuse verbleibt. Außerdem wird die GPU bei dieser Lösung ziemlich warm.
Wieso das denn? Der PC - jedenfalls meiner - hat 1A-Luftzirkulation, was denn sonst!?
Die Lösung ist elegant und genial einfach, ...und wird auch die neuen Karten bestens kühlen!
dargo
2007-10-07, 14:13:45
Wieso das denn? Der PC - jedenfalls meiner - hat 1A-Luftzirkulation, was denn sonst!?
Die Lösung ist elegant und genial einfach, ...und wird auch die neuen Karten bestens kühlen!
Du bräuchtest schon einen Windkanal (:D) damit sich die anderen Komponenten im PC von dieser lösung nicht aufheizen. Natürlich nur wenn die Grafikkarte viel Abwärme abgibt.
Ich hatte schon früher eine Zalman HP auf meiner R9700Pro. Nee, passiv mag ich nicht. Gibt bessere Lösungen. :)
Ferengie
2007-10-07, 14:29:26
Gibt es irgendwo eine Übersicht zu den TDP-Angaben der ATI Chips (von R300 an)? google konnte nicht helfen.
Eine bessere Seite ist mir ned bekannt.
http://www.atomicmpc.com.au/forums.asp?s=2&c=7&t=9354
dargo
2007-10-07, 14:37:04
Eine bessere Seite ist mir ned bekannt.
http://www.atomicmpc.com.au/forums.asp?s=2&c=7&t=9354
Das sind keine TDP Werte sondern reale Verlustleistungen. :)
AnarchX
2007-10-08, 08:27:38
AMD R680 can't even reach 18600 in 3Dmark06 (http://my.ocworkbench.com/bbs/showthread.php?p=421816#post421816)
There are some rumours on the net claiming that he R680 will score or rather aim for 20,000 points in 3Dmark06.
Speculations and rumours goes around whenever there is an upcoming product. From our source, it is said that R680 won't even get beyond the 18600 mark.
Warum gerade 18600? NVs High-End?;)
AMD R680 can't even reach 18600 in 3Dmark06 (http://my.ocworkbench.com/bbs/showthread.php?p=421816#post421816)
Warum gerade 18600? NVs High-End?;)
Wenig aussagekräftig. In diesem Punktebereich zählt ohnehin nur mehr die CPU.
reunion
Ja, das sollten die ganzen Leaker wirklich langsam gelernt haben: beim 3DMark gehört IMMER die CPU mit dazu.
Slowest RV670 works at 600MHz: HD2950GT is the name
Three terations of the RV670 are coming this year and at least one is planned for 2008. The top one in this year is called Radeon HD 2950XT, the runner up is HD 2950PRO while the last one is called HD 2950GT.
The RV670 is a 55 nanometre chip but at a 600MHz clock and the whole card will have an 80W TDP. This is enough to help get rid of the power connector on the card but for the safety reasons we believe that ATI will include one.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=3515&Itemid=1
reunion
Extra Anschluss ist gut für's Übertakten. Aber so wie es aussieht, hat ATi hier wirklich eine Überraschung auf Lager :up:
Kann man von ATI erwarten das dieses jahr noch eine Graka kommt die schneller als die 8800gtx ist?
Adam D.
2007-10-09, 06:55:31
Kann man von ATI erwarten das dieses jahr noch eine Graka kommt die schneller als die 8800gtx ist?
Moment, ich werf eben die Glaskugel an. Aha, wie ich sehe, kommt der R670/R680 erst nächstes Jahr. Nein, die 8800GTX bleibt für dieses Jahr spitze.
w0mbat
2007-10-09, 16:37:14
Ok, es wurde jetzt anscheinend bestätigt das R670 und R680 Codenamen für die gleiche GPU sind. Nur über den verwendeten Speicher gibt es noch Verwirrung, da AMD von GDDR3 und GDDR4 spricht.
R670 wurde intern verwendet und R680 ging an die AIB´s.
gibts ne quelle für die bestätigung bzw noch mehr news dazu?
laser114
2007-10-09, 16:38:52
R670 wurde intern verwendet und R680 ging an die AIB´s.
Wenn das so wäre - irgendwo musst du die Info ja auch her haben - ist das interessant zu wissen, wo Fudo seine Kontakte so hat.
AnarchX
2007-10-09, 16:42:32
Nur über den verwendeten Speicher gibt es noch Verwirrung, da AMD von GDDR3 und GDDR4 spricht.
Und es taucht in der Folie nichts über "Revolutionary Multi-GPU-Architecture" oder so auf und dann noch die andere Folie mit R670 und R680. :|
Hmm... vielleicht ist ja R680 = RV670 und letzerer hat doch ein 512Bit SI, was aber nicht für die Consumer-SKUs verwendet wird um die PCBs günstig zu halten.
reunion
2007-10-09, 16:50:18
Und es taucht in der Folie nichts über "Revolutionary Multi-GPU-Architecture" oder so auf und dann noch die andere Folie mit R670 und R680. :|
Eben. Wenn ich eine Folie über eine Dual-RV670 machen müsste, wäre die Zusammensetzung (also 2x RV670) wohl das erste was drin steht. Stattdessen ist alles was über CF zu finde ist eine dünne Zeile "multi-GPU-Support".
Hmm... vielleicht ist ja R680 = RV670 und letzerer hat doch ein 512Bit SI, was aber nicht für die Consumer-SKUs verwendet wird um die PCBs günstig zu halten.
Bei den Kosten, die ein Tapeout inkl. alle nötigen Vorkehrungen verschlingt, kannst du das vergessen. Man würde nie nur wegen dem sehr kleinen Workstation-Markt ein eigenen Chip produzieren.
w0mbat
2007-10-09, 17:55:08
Wie gesagt, anscheinend wurde es bestätigt. Ich bin noch etwas skeptisch, da beim R670 ja auch von 2x512MB gesprochen wurde und beim R680 von 1GB bzw. 512MB. Zumal es sicher beide Codenamen bei AMD gibt, wie der eine Ausschnitt zeigt wo R670 & R680 hinter einander genannt wird. Oder AMD nutzt die Codenamen um Verwirrung zu stiften (hat mim R650 ja gut geklappt).
robbitop
2007-10-09, 18:07:44
Ein doppelter RV670 (und damit R600) haette mich als Refreshchip stark gewundert.
AnarchX
2007-10-10, 09:51:40
Bald gehts los...
http://img512.imageshack.us/img512/3390/2007101002f339d503be76eka1.th.jpg (http://img512.imageshack.us/my.php?image=2007101002f339d503be76eka1.jpg)
Ein paar Meldungen von Fudzilla:
RV620 and R635 taped out: In the driver (http://www.fudzilla.com/index.php?option=com_content&task=view&id=3552&Itemid=1)
RV635 and RV620 shaping up: ATI goes 55 nm all the way (http://www.fudzilla.com/index.php?option=com_content&task=view&id=3550&Itemid=1)
ATI plans to come back in 2008: Big OEM wins (http://www.fudzilla.com/index.php?option=com_content&task=view&id=3554&Itemid=1)
Wenn RV635 und RV620 wirklich nur shrinks sind, dann wären die Chips verdammt klein:
RV630 = 143mm² x 55²/65² = 102.38 mm²
RV620 = 82mm² x 55²/65² = 58.7mm²
reunion
ist zwar eigentlich über nvidia, aber hat auch einige hinweise zum R680:
http://www.nordichardware.com/news,6911.html
AnarchX
2007-10-10, 11:16:04
Imo deutet doch RV620 auf mehr als einen RV610@65nm hin, was ja eher RV615 wäre, der vielleicht dann schon zu klein wäre.
Vielleicht hat man ihn von den 2 SIMDs auf mehr aufgebohrt oder doch der Schritt zurück auf 128Bit?
Imo deutet doch RV620 auf mehr als einen RV610@65nm hin, was ja eher RV615 wäre, der vielleicht dann schon zu klein wäre.
Vielleicht hat man ihn von den 2 SIMDs auf mehr aufgebohrt oder doch der Schritt zurück auf 128Bit?
Möglich. Wobei der Chip bei einem nur 64bit breiem SI und sehr wenig Stromverbrauch wohl auch nicht viele Kontakte benötigt. An ein aufbohren auf 128-bit glaube ich nicht, dann bräuchte ja wieder zusätzliche Kontakte. Und seine wir uns mal ehrlich: Leistung ist in diesem Preisbereich praktisch irrelevant, da zählen Features und Stromverbauch.
reunion
StefanV
2007-10-10, 12:30:34
Ich finde zb. diese Lösung nicht gut da die gesamte Wärme im Gehäuse verbleibt. Außerdem wird die GPU bei dieser Lösung ziemlich warm.
Ich finds dafür umso besser, denn so kann ich mit relativ wenig Aufwand die Karte excelent kühlen, ohne dabei die Garantiebedingungen in irgendeiner Weise zu verletzen, ganz einfach in dem man einen Slotkühler (ja, gibt 80mm Lüfter die man am Slot anschraubt) benutze oder aber indem ich da einen/mehrere 80 oder 92mm Lüfter draufspanne, z.B. per Gummiband, besser gehts nimmer...
Nakai
2007-10-10, 12:39:47
@StefanV:
Meinste sowas? (http://geizhals.at/a231013.html)
Das würde natürlich die Kühlung verbessern.
mfg Nakai
dargo
2007-10-10, 13:11:18
Ich finds dafür umso besser, denn so kann ich mit relativ wenig Aufwand die Karte excelent kühlen, ohne dabei die Garantiebedingungen in irgendeiner Weise zu verletzen, ganz einfach in dem man einen Slotkühler (ja, gibt 80mm Lüfter die man am Slot anschraubt) benutze oder aber indem ich da einen/mehrere 80 oder 92mm Lüfter draufspanne, z.B. per Gummiband, besser gehts nimmer...
Ja, klar. In dieser Hinsicht schon. Aber dann ist es auch nicht mehr passiv (sprich geräuschlos). Und die Wärme (Höhe abgängig von den Lüftern) bleibt trotzdem im Gehäuse.
reunion
2007-10-10, 17:29:51
Bald gehts los...
http://img512.imageshack.us/img512/3390/2007101002f339d503be76eka1.th.jpg (http://img512.imageshack.us/my.php?image=2007101002f339d503be76eka1.jpg)
Der Vollständigkeit halber:
http://www.techpowerup.com/img/07-10-10/RV670-retail.jpg
http://www.techpowerup.com/img/07-10-10/RV670-retail_2.jpg
http://www.techpowerup.com/img/07-10-10/RV670-retail_3.jpg
http://www.techpowerup.com/?41758
Wenn jetzt schon Bilder von Retailkarten auftauchen, dann kann man zum Launch in über einem Monat wohl schon mit zahlreichen Karten im Handel rechnen.
StefanV
2007-10-10, 17:35:05
Ja, klar. In dieser Hinsicht schon. Aber dann ist es auch nicht mehr passiv (sprich geräuschlos). Und die Wärme (Höhe abgängig von den Lüftern) bleibt trotzdem im Gehäuse.
Schon aber ich hab 'ne äußerst leise GraKa, kann den Lüfter jederzeit ohne Probleme tauschen und leiser als eine 'normale Retailkarte' ists idR auch ;) ;)
@reunion
Die Karte ist nicht Retail, zoome bitte das letzte Bild, da steht auf dem grünen Aufkleber Engineering Sample...
reunion
2007-10-10, 17:49:32
@reunion
Die Karte ist nicht Retail, zoome bitte das letzte Bild, da steht auf dem grünen Aufkleber Engineering Sample...
Du hast recht. Besser lesbar auf dem weißen Aufkleber: "not for sales". Trotzdem ist das zumindest schonmal eine Herstellerkarte, die nicht direkt von AMD kommt, wenn auch noch nicht final.
Fällt euch was auf? Der Aufkleber spricht von DX10…
w0mbat
2007-10-10, 21:31:09
Ja, ist doch klar das der RV670 DX10 kann. Und wenn du jetzt auf DX10.1 anspielst - hast du schon mal auf eine GPU-Verpackung DX9c gelesen?
w0mbat
2007-10-10, 22:18:07
AUf meiner X1900 XT Verpackung steht einfach DirectX 9.
Henroldus
2007-10-11, 14:37:08
CJ sagt im Beyond3d-Forum:
My sources say it is... before the Crysis launch even. On the 15th. (http://forum.beyond3d.com/showpost.php?p=1078039&postcount=462)
also auch bei ATI eine Verschiebung nach vorn? (ursprünglich war der RV670 ja für den 19. Nov angesetzt)
seahawk
2007-10-11, 14:44:38
Geil nur kurz nach dem G92. :up.
Adam D.
2007-10-11, 15:02:48
CJ sagt im Beyond3d-Forum:
My sources say it is... before the Crysis launch even. On the 15th. (http://forum.beyond3d.com/showpost.php?p=1078039&postcount=462)
also auch bei ATI eine Verschiebung nach vorn? (ursprünglich war der RV670 ja für den 19. Nov angesetzt)
So geil, dass alles auf diesen einen Tag (Crysis-Launch) hinarbeitet. Als ob's der Tag des Weltfriedens wär :biggrin:
AnarchX
2007-10-11, 15:03:12
"Kurz" ist hier vielleicht schon zu lang, wenn man sich anschaut was zwischen 29.10 und dem 15.11. so alles kommt und wenn die 8800 GT wirklich, dass ist nachdem es momentan ausschaut.;)
So geil, dass alles auf diesen einen Tag (Crysis-Launch) hinarbeitet. Als ob's der Tag des Weltfriedens wär :biggrin:
In der Tat: Phenom X4, Penryn-XE, nF780i mit T-SLI, AMD 790FX mit T-CF, 8800 GT, HD2950XT/Pro - da kommt einiges kurz davor...
seahawk
2007-10-11, 15:19:53
Gut, aber wenn man die 8800GT dann eben 14 Tage später deutlich besiegt, dann paßt es locker wieder.
Adam D.
2007-10-11, 15:29:05
In der Tat: Phenom X4, Penryn-XE, nF780i mit T-SLI, AMD 790FX mit T-CF, 8800 GT, HD2950XT/Pro - da kommt einiges kurz davor...
Das erinnert mich an die Aussage eines Spieleherstellers, dass man den Tag des Crysis-Starts fürchte, weil die Relationen im Grafikgeschäft dann völlig anders werden ;D
Gut, aber wenn man die 8800GT dann eben 14 Tage später deutlich besiegt, dann paßt es locker wieder.
:usad: :ulol: Warte den Preis und die Leistung aller Karten ab, dann kannst du immer noch solche Sprüche ablassen.
GeneralHanno
2007-10-11, 16:07:01
eine interessante feinheit:
So sollen die 320 Streamingprozessoren des RV670 gleich zwei Aktionen gleichzeitig ausführen können.
quelle: http://www.hardware-infos.com/news.php?news=1460
Ailuros
2007-10-11, 16:09:44
Gut, aber wenn man die 8800GT dann eben 14 Tage später deutlich besiegt, dann paßt es locker wieder.
Das Ding soll also nicht nur eine 8800GT besiegen, sondern auch noch deutlich. :|
Die Anzahl der ROPs zwischen den beiden wird gleich sein; jetzt denk nochmal scharf nach wie es unter allen Faellen mit den Z-Fuellraten aussieht und sag mir woher genau diese Hoffnung kommt. Moment die Treiber haben noch Probleme oder?
Ailuros
2007-10-11, 16:13:40
eine interessante feinheit:
So sollen die 320 Streamingprozessoren des RV670 gleich zwei Aktionen gleichzeitig ausführen können.
quelle: http://www.hardware-infos.com/news.php?news=1460
Arithmetische Leistung ist das letzte was einer R6x0/RV6x0 fehlt.
Ok Leute eine Frage
Habe eine x1900xtx drinne möchte aber ! Call of Duty 4,UE3,Crysis etc @ 1680x1050 max details mit AA+AF am besten zocken(ok crysis wird hart)
was soll ich machen
8800gtx kaufen, oder lieber noch abwarten was nun wirklich kommt um november was würdet ihr machen?
rest des systems
c2d 3.1ghz
4gb ram
(x1900xtx)
GeneralHanno
2007-10-11, 16:22:31
stimmt. z-fill+ texelfill wären wesentlich wichtiger. aber das zeigt wenigstens das ATi auch an der IPC arbeitet.
ich bin mir nicht sicher ob ich die meldung (die ja etwas flapsig geschrieben ist) richtig verstehe:
der R600 hat 64 Vec4+1 ALUs, die szwar "superskalar" sein sollen, aber in wirklichkeit kann jede Vec4+1 ALU nur an einer gemeinsamen "aktion" arbeiten -> also nur pseudo-skalar. jetzt soll jede Vec4+1 ALU an 2 Aktionen arbeiten dürfen. das dürfte die auslastung doch optimieren. hab ich das so richtig interpretiert?
Henroldus
2007-10-11, 16:35:53
Ok Leute eine Frage
Habe eine x1900xtx drinne möchte aber ! Call of Duty 4,UE3,Crysis etc @ 1680x1050 max details mit AA+AF am besten zocken(ok crysis wird hart)
was soll ich machen
8800gtx kaufen, oder lieber noch abwarten was nun wirklich kommt um november was würdet ihr machen?
rest des systems
c2d 3.1ghz
4gb ram
(x1900xtx)
abwarten, wenn schon kein leistungswunder kommt, würfeln wenigstens die preise durcheinander
Die Anzahl der ROPs zwischen den beiden wird gleich sein
G92 hat 16 ROPs?
GeneralHanno
2007-10-11, 16:58:14
wenn man an dem aufbau nix ändert, dann bedeuten 256bit SI zwangläufig 16ROPs (@600mhz) (beim G92)
zwar hat der R600 auch 16ROPs, diese können aber weniger, also die von nvidia.
[...]In der Tat: Phenom X4, Penryn-XE, nF780i mit T-SLI, AMD 790FX mit T-CF, 8800 GT, HD2950XT/Pro - da kommt einiges kurz davor...
Die ganze NF7 Serie (bis auf C73 aka NB vom NF790i und MCP79 aka GF8050/NF710i/730i, MCP78 aka GF8050/NF710/730a ist bisher unsicher) kommt, also auch für AMD, in der Zeitspanne. Der MCP72 Chip wird ja vorgestellt und das betrifft etliche Chipsätze, also NF780i/a, NF750a und sämtliche Derivate. Wir werden also haufenweise neue Boards sehen mit dem Penryn/Phenom Start.
[...]
zwar hat der R600 auch 16ROPs, diese können aber weniger, also die von nvidia.
Was für Änderungen bei beiden Chips gemacht wurden in der Hinsicht ist schwer vorherzusehen. Kann ja sein, dass ATI genau hier eine Schwäche sah und die mit den 55nm RV6xx Chips eliminiert hat.
reunion
2007-10-11, 17:12:20
Die Anzahl der ROPs zwischen den beiden wird gleich sein;
Das ist immerhin schon ein Fortschritt für AMD im Vergleich zu heute, selbst wenn daran nichts verbessert wurde.
GeneralHanno
2007-10-11, 17:12:30
ich hab auch extra R600 geschrieben ;) weil ich selber hoffe, dass ATi die ROPs nochmal aufbohrt. aber sie optimieren ja schon den kern (siehe post letzte seite)
reunion
2007-10-11, 17:14:46
eine interessante feinheit:
So sollen die 320 Streamingprozessoren des RV670 gleich zwei Aktionen gleichzeitig ausführen können.
quelle: http://www.hardware-infos.com/news.php?news=1460
Das ist Blödsinn, die wissen doch gar nicht wovon sie schreiben. Ein R6xx kann auch heute schon an bis zu fünf "Aktionen" pro ALU gleichzeitig arbeiten, wenn diese nicht voneinander abhängig sind. Die vec5-ALUs beherrschen einen 1:1:1:1:1-Split.
der R600 hat 64 Vec4+1 ALUs, die szwar "superskalar" sein sollen, aber in wirklichkeit kann jede Vec4+1 ALU nur an einer gemeinsamen "aktion" arbeiten -> also nur pseudo-skalar.
So wie du es beschreibst wäre gar kein Split möglich, das wäre ziemlich ineffizient.
reunion
2007-10-11, 17:23:17
CJ sagt im Beyond3d-Forum:
My sources say it is... before the Crysis launch even. On the 15th. (http://forum.beyond3d.com/showpost.php?p=1078039&postcount=462)
also auch bei ATI eine Verschiebung nach vorn? (ursprünglich war der RV670 ja für den 19. Nov angesetzt)
Sehr schön, da es schon häufig Meldungen gab, dass AMD die gesamte Spider-Plattform am gleichen Tag releasen wird, bedeutet das wohl auch den Phenom und 790FX Chipsatz am 15. November.
GeneralHanno
2007-10-11, 17:27:31
So wie du es beschreibst wäre gar kein Split möglich, das wäre ziemlich ineffizient.
ich meine mal gelesen zu haben (weis aber nicht mehr wo), dass die Vec4+1 ALU nicht wirklich skalar arbeitet, da alle kanäle aus einem shaderprogramm kommen müssen (oder so ähnlich). d.h. es liegt keine echte skalarität vor. vll kann jmd anderes nochmal mehr zur R600 ALU sagen, weil ich mir da nicht gnaz sicher bin ...
seahawk
2007-10-11, 17:37:12
Das Ding soll also nicht nur eine 8800GT besiegen, sondern auch noch deutlich. :|
Die Anzahl der ROPs zwischen den beiden wird gleich sein; jetzt denk nochmal scharf nach wie es unter allen Faellen mit den Z-Fuellraten aussieht und sag mir woher genau diese Hoffnung kommt. Moment die Treiber haben noch Probleme oder?
Es muss die 8800Gt zumindest entsprechend der Preisdifferenz besiegen, etwas mehr wäre besser. Gehe ich von 299 vs. 249 aus, dann sollte die RV670 schon 20% besser sein um konkurrenzfähig zu sein.
Evtl. hat ATI ja die ROPs aufgebohrt.
robbitop
2007-10-11, 17:46:22
Das ist immerhin schon ein Fortschritt für AMD im Vergleich zu heute, selbst wenn daran nichts verbessert wurde.
Naja 128x Z-Tester im G92 sind immernoch eine ganze Ecke mehr als die 32x im RV670. Bei Blendern. Bei Blendern ist dann allerdings Gleichstand. (was kein Flaschenhals ist)
Ist nur die Frage, wieviele Cluster der G92 wirklich hat. Wenn der Chip tatsaechlich 289 mm^2 gross ist, sind's wohl 8 Cluster. Und dann duerfte RV670 nichts zu Lachen haben. Wenn's nur 4 Cluster sind, ist's hingegen ein klarer Sieg fuer die RV670.
reunion
2007-10-11, 17:55:47
Naja 128x Z-Tester im G92 sind immernoch eine ganze Ecke mehr als die 32x im RV670. Bei Blendern. Bei Blendern ist dann allerdings Gleichstand. (was kein Flaschenhals ist)
Keine Offenbarung, aber ein Fortschritt. :)
Ein R600 schafft es heute ja auch trotz noch größerer Unterlegenheit mit einer 8800GTS mitzuhalten.
Ist nur die Frage, wieviele Cluster der G92 wirklich hat. Wenn der Chip tatsaechlich 289 mm^2 gross ist, sind's wohl 8 Cluster. Und dann duerfte RV670 nichts zu Lachen haben. Wenn's nur 4 Cluster sind, ist's hingegen ein klarer Sieg fuer die RV670.
nV verkauft keinen 8 Cluster G92-Chip als 8800GT um 199-249$. Vielleicht hat ein G92 tatsächlich 8 Cluster, dann sind diese aber bei der 8800GT mit Sicherheit nicht alle aktiviert. Sonst würde nicht nur der Verkaufsnamen keinen Sinn machen, sondern man würde sich mit dem Chip nur selbst unnötig Konkurrenz machen. Auch die Speicherbandbreite wäre zu gering.
AnarchX
2007-10-11, 18:02:01
Wenn's nur 4 Cluster sind, ist's hingegen ein klarer Sieg fuer die RV670.
Aber nicht wenn wir über 64/96SPs(4x24) @1.8GHz+ reden würden. ;)
Hvoralek
2007-10-11, 18:04:13
Keine Offenbarung, aber ein Fortschritt. :)
Ein R600 schafft es heute ja auch trotz noch größerer Unterlegenheit mit einer 8800GTS mitzuhalten.Vier ROP- Blöcke mit 600 MHz würden auf 77 GZixel/s hinauslaufen, eine 8800 GTS ist da mit 80 GZixel/s kaum stärker.
reunion
2007-10-11, 18:05:49
Vier ROP- Blöcke mit 600 MHz würden auf 77 GZixel/s hinauslaufen, eine 8800 GTS ist da mit 80 GZixel/s kaum stärker.
Ein RV670 ist aber dank 11.5% höherem Takt auf jeden Fall stärker als R600 was die Zixel/s betrifft. Und vielleicht wurde ja auch noch was verbessert. Wie schon gesagt: Keine Offenbarung, aber ein Fortschritt. :)
Hvoralek
2007-10-11, 18:19:45
Ein RV670 ist aber dank 11.5% höherem Takt auf jeden Fall stärker als R600 was die Zixel/s betrifft. Und vielleicht wurde ja auch noch was verbessert. Wie schon gesagt: Keine Offenbarung, aber ein Fortschritt. :)Die Z- Füllrate wäre wohl neben der Filterleistung das, was am dringendsten in Ordnung gebracht werden müsste. Ich würde mir ja >2 z- Tests pro RBE und Takt wünschen oder auch zusätzliche Sampler und Fltereinheiten für die Texturblöcke. Aber bei 194 mm² würde ich nicht allzu viel erwarten. Ein idealer R600- Shrink läge bei 199 mm², dazu kommt das halbierte SI (viele Transistoren werden das wohl nicht sein) und Redundanz/ Fülltransistoren. Allzu viel Luft für Verbesserungen sehe ich leider nicht. Wobei ich denke, dass das Ding sich mit besseren RBEs und acht ganzen TMUs pro Texturblock @ 825 MHz (Das wären dann vlt. 250 mm²) durchaus mit einer 8800 Ultra messen können sollte.
robbitop
2007-10-11, 18:47:22
Keine Offenbarung, aber ein Fortschritt. :)
Ein R600 schafft es heute ja auch trotz noch größerer Unterlegenheit mit einer 8800GTS mitzuhalten.
Ich habe jetzt mit dem neuen Forceware (der ja ordentliche Performancezuwaechse gebracht hat) keinen Sieg der HD 2900XT gegenueber selbst der GTS320 gesehen:
http://www.guru3d.com/article/review/463/7
(Messungen sind mit ingame AA/AF)
Wenn du andere Artikel zur Hand hast, immer her damit (Voraussetzung: mind ein 163er FW und mit AA/AF an)
Und dabei ist noch immer das Schummel-AF, was ja einiges an Fuellrate spart, an.
reunion
2007-10-11, 19:00:32
Ich habe jetzt mit dem neuen Forceware (der ja ordentliche Performancezuwaechse gebracht hat) keinen Sieg der HD 2900XT gegenueber selbst der GTS320 gesehen:
Zumindest in "World in Conflict", "Fear" und "Tom Clancy's Ghost Recon: Advanced Warfighter" liegt die 2900XT vorne. Aber insgesamt sieht es zugegebenermaßen ziemlich düster aus. Wobei hier auch je nach Spieleauswahl ein stark unterschiedliches Bild entstehen kann.
http://www.guru3d.com/article/review/463/7
(Messungen sind mit ingame AA/AF)
Wenn du andere Artikel zur Hand hast, immer her damit (Voraussetzung: mind ein 163er FW und mit AA/AF an)
Da es davon noch kaum Tests gibt, ist dem schwer zu entgegnen. Aber der nächste Showdown mit neuer Hard- und Software lässt ja nicht mehr lange auf sich warten. Dann wird man wieder einen klareres Bild erhalten.
Und dabei ist noch immer das Schummel-AF, was ja einiges an Fuellrate spart, an.
Ein G8x filtert auf Quality auch gleich mal zu 50% rein bi. Als ob das besser wäre.
James Ryan
2007-10-11, 19:01:47
Ein G8x filtert auf Quality auch gleich mal zu 50% rein bi. Als ob das besser wäre.
Niemand mit einem G80 spielt mit Quality! :rolleyes:
MfG :cool:
reunion
2007-10-11, 19:06:17
Niemand mit einem G80 spielt mit Quality! :rolleyes:
MfG :cool:
Es ging um die Vergleichbarkeit, und um nichts anderes. Ich verstehe nicht das es für manche immer so schwer ist Zusammenhänge zu sehen. Wer mit was spielt ist dabei völlig irrelevant.
dargo
2007-10-11, 19:11:56
Niemand mit einem G80 spielt mit Quality! :rolleyes:
Dann bin ich wohl "niemand". :D
Warum sollte ich auf ~20% Leistung (in Extremfällen) mit HQ verzichten wenn ich mit der BQ bei Quality zufrieden bin?
robbitop
2007-10-11, 19:12:30
Ein G8x filtert auf Quality auch gleich mal zu 50% rein bi. Als ob das besser wäre.
Das sehe ich ebenso. Q ist suboptimal. (obwohl's Flimmertechnisch und subjektiv ziemlich iO ist selbst bei HF Texturen) HQ ist allerdings astrein (IMO) und bricht kaum ggue Q ein. (Fuellrate)
Nakai
2007-10-11, 19:17:10
Mir wärs lieb, wenn nicht alle das BQ-Problem der Grakas ansprechen würden.
Die wenigsten können wir BQ-Unterschiede feststellen, deswegen gehe ich auf solche Diskussionen nicht ein.
RV670 wird ein Problem haben, ich denke NV hat die angepeilte Konkurrenz einen deut zu schwach gemacht. Deswegen könnte NV nun eine sehr viel stärkere Version ins Rennen schicken, eventuell mit mehr aktivierten Einheiten.
mfg Nakai
dargo
2007-10-11, 19:17:34
Ich habe jetzt mit dem neuen Forceware (der ja ordentliche Performancezuwaechse gebracht hat) keinen Sieg der HD 2900XT gegenueber selbst der GTS320 gesehen:
http://www.guru3d.com/article/review/463/7
(Messungen sind mit ingame AA/AF)
Wenn du andere Artikel zur Hand hast, immer her damit (Voraussetzung: mind ein 163er FW und mit AA/AF an)
Und dabei ist noch immer das Schummel-AF, was ja einiges an Fuellrate spart, an.
Oh man. Es ist echt schon teilweise dramatisch was die R6x0 Riehe unter Einsatz von AA/AF leistet, und das bei der Verlustleistung. :usad:
Es wird höchste Zeit für eine neue Architektur bei AMD.
LovesuckZ
2007-10-11, 19:18:05
Warum sollte ich auf ~20% Leistung (in Extremfällen) mit HQ verzichten wenn ich mit der BQ bei Quality zufrieden bin?
Weil der Leistungseinbruch nicht annährend so stattfindet? ;)
Nakai
2007-10-11, 19:18:53
Tja, so isses. AMD/ATI hats sehr verkackt. R700 wird erst wieder Abhilfe bringen.
mfg Nakai
dargo
2007-10-11, 19:18:56
Weil der Leistungseinbruch nicht annährend so stattfindet? ;)
Wenn du wüsstest? Ich teste meine Sachen selbst. ;)
LovesuckZ
2007-10-11, 19:20:15
Wenn du wüsstest? Ich teste meine Sachen selbst. ;)
Und wo sind 20% zwischen Q und HQ zu stande gekommen?
LovesuckZ
2007-10-11, 19:27:41
nV verkauft keinen 8 Cluster G92-Chip als 8800GT um 199-249$. Vielleicht hat ein G92 tatsächlich 8 Cluster, dann sind diese aber bei der 8800GT mit Sicherheit nicht alle aktiviert. Sonst würde nicht nur der Verkaufsnamen keinen Sinn machen, sondern man würde sich mit dem Chip nur selbst unnötig Konkurrenz machen. Auch die Speicherbandbreite wäre zu gering.
ich verstehe es nicht. Wieso darf AMD nach dir einen vollwertigen r600 Core mit 256bit für 250$ verkaufen, aber bei nVidia ist dies ein "NoGo".
Nakai
2007-10-11, 19:33:29
Weil das Nv nicht machen wird. Wieso sollte man ein schnelleres Produkt für den gleichen Preis verkaufen?
Da kann man wieder gutes geld scheffeln.
mfg Nakai
robbitop
2007-10-11, 19:39:04
Nunja wenn sich eine Karte Vorteile durch schlechtere BQ erkauft, ist das schon nicht unwichtig.
Nakai
2007-10-11, 19:40:08
Die meisten Käufer stört das ja nicht so, BQ ist subjektiv. Nur wenn es zu weit geht, kanns problematisch werden.
mfg Nakai
dargo
2007-10-11, 19:42:43
Und wo sind 20% zwischen Q und HQ zu stande gekommen?
TDU. Q war ca. 20% (könnten auch 17% gewesen sein, ist schon etwas länger her) schneller als HQ.
GeneralHanno
2007-10-11, 19:43:38
der G80 hat in sache BQ (u.a. AA/AF) meilensteine gesetzt. ich glaube kaum, dass nvidia wieder auf G70 niveau zurück fällt ;)
und hier ist ja eigentlich nur R6xx diskussion ;)
LovesuckZ
2007-10-11, 19:45:16
TDU. Q war ca. 20% (könnten auch 17% gewesen sein, ist schon etwas länger her) schneller als HQ.
Mit oder ohne TSAA?
reunion
2007-10-11, 19:53:21
ich verstehe es nicht. Wieso darf AMD nach dir einen vollwertigen r600 Core mit 256bit für 250$ verkaufen, aber bei nVidia ist dies ein "NoGo".
Deine Unterstellungen, die nur darauf abzielen, deinen Diskussionspartner zu diffamieren, sind wie immer äußerst charmant. Ich habe dies nicht nur im dem vom dir gerade gequoteten Post, sondern auch sonst bereits mehrfach begründet. Ich schreibe bestimmt nicht zehnmal das gleiche, nur um das letzte Wort zu haben. Wenn dir das nicht reicht, dann warte auf den Launch.
LovesuckZ
2007-10-11, 20:02:17
Du kannst es gerne begründen, warum es für AMD vollkommen in Ordnung wäre einen vollwertigen r600 Core zu shrinken und zu verkaufen, aber es für nVidia ein NoGo ist. Das hast du nämlich noch nicht getan.
dargo
2007-10-11, 20:10:27
Mit oder ohne TSAA?
Ohne TSAA, allerdings mit 4xMSAA.
GeneralHanno
2007-10-11, 20:33:23
So sollen die 320 Streamingprozessoren des RV670 gleich zwei Aktionen gleichzeitig ausführen können.
quelle: http://www.hardware-infos.com/news.php?news=1460
dieses frische zitat von HWI hat die frage aufgeworfen, warum eine Vec4+1 ALU des R600 nur eine aktion ausführen kann, wo sie doch "superskalar" sein soll. ich habe etwas geforscht und habe ein brauchbares review der R600 bei anandtech gefunden (woanders findet man sowas ja nicht mehr!!!)
The big difference comes in the fact that AMD only executes one thread (vertex, primitive or pixel) across a group of five SPs.
What this means is that each of the five SPs in a block must run instructions from one thread. While AMD can run up to five scalar instructions from that thread in parallel, these instructions must be completely independent from one another. This can place a heavy burden on AMD's compiler to extract parallel operations from shader code. While AMD has gone to great lengths to make sure every block of five SPs is always busy, it's much harder to ensure that every SP within each block is always busy.
quelle: http://www.anandtech.com/video/showdoc.aspx?i=2988&p=4
hieraus geht hervor, dass die 5 SP einer ALU zwar alle skalar arbeiten können (also jede eine vec1 operation ausführen), diese aber aus einem thread kommen muss. das schränkt den R600 in seiner effizienz natürlich ein. scheinbar kann der R670 2threads / ALU(5SP) ausführen.
Das glaube ich noch nicht so ganz. das würde eine ziemlich merkwürdige und krumme Architektur bedingen.
Aktuell kann der R600 an 64 Pixeln gleichzeitig arbeiten (daher auch die Einschränkung, dass für eine Vec4+1-ALU alle Einheiten am gleichen Thread, eher noch am gleichen Pixel arbeiten müssen.
Sollte das jetzt aufgebohrt werden, so hätten wir 128 Pixel auf's Mal und das bei einem haliberten SI. Die würden verhungern.
AnarchX
2007-10-11, 20:48:46
So sollen die 320 Streamingprozessoren des RV670 gleich zwei Aktionen gleichzeitig ausführen können.quelle: http://www.hardware-infos.com/news.php?news=1460
Da hat man doch nicht etwas mit DP durcheinander gebracht, 320SPs mit doppelter Genauigkeit, wo wohl nur das doppelte/double betrachtet wurde.;D
reunion
2007-10-11, 20:59:30
Du kannst es gerne begründen, warum es für AMD vollkommen in Ordnung wäre einen vollwertigen r600 Core zu shrinken und zu verkaufen, aber es für nVidia ein NoGo ist. Das hast du nämlich noch nicht getan.
Bitte. Auch wenn ich mich frage, warum ich mir die Mühe überhaupt mache. AMD verkauft bereits heute einen vollwertigen R600, sogar mit 512-bit SI um ~210€ in Form der 2900PRO, die GT wird noch billiger werden. Ein geshrinkter R600 mit höheren Taktraten (2950XT) um ~300€, sowie die Abstufung 2950PRO (250€) bis runter zu ~200€ mit der 2950GT mit ähnlich niedrigen Taktraten wie bei der 2900PRO/GT würden gut ins Portfolio passen. Auch aus Sicht der Margen sollte das dank eines <200mm² Dice (im Gegensatz zur jetzt) kein Problem sein. Die X2X mit zwei RV670 runden das ganze nach oben ab. RV630/RV610 werden dank Shrinks auf 55nm weiter im Preis sinken. Ein RV560, bestehend aus einem teildeaktiviertem RV670 (nach Vorbild RV570/560) im Preisbereich um die 150€ ist wahrscheinlich. Das ganze ist aus meiner Sicht stimmig.
Bei nV ist die Situation völlig anders. Man verkauft seit fast einem Jahr den G80 im Preisbereich von 300-550€. Jetzt soll eine 8800GT kommen, die sich nicht nur vom Namen, sondern auch vom Preis klar unter den G80-Chips einordnet. Sollte eigentlich klar sein, wo dann die Leistung anzusiedeln ist.
Trotzdem erwarten manche hier einen geshrinkten G80 mit höheren Taktraten. Vielleicht wäre das in 65nm sogar wirtschaftlich halbwegs machbar. Doch der Punkt ist, dass man damit mit einem Schlag das gesamte Portfolio extrem unattraktiv machen würde. Doch lernt man schon ziemlich bald in jeder höheren Schule gewisse Grundregeln, an die sich jedes Unternehmen halte sollte, wenn es erfolgreich sein will. Einer der wichtigsten: Mache dir niemals selbst Konkurrenz. Auch nV wird das mit Sicherheit nicht machen. Also müsste man gleichzeitig mit dieser 8800GT praktisch das gesamte Portfolio austauschen. Und da es jetzt wenige Wochen vor dem Launch bis auf besagte 8800GT und eine neue Version der 8800GTS keinerlei weitere Karten zu erahnen gibt, wird das wohl nicht passieren. Deshalb glaube ich, dass die 8800GT die Lücke zwischen G80 und G84 schließen wird (was nicht bedeuten muss, dass im verwendeten G92-Chip nicht noch mehr Leistung schlummert). Alles weitere wird sich zeigen. Aber da man die 8800-Serie mit G92 ergänzt, anstatt eine neue einzuführen, erwarte ich nicht so schnell deren ablöse.
Lange Rede, kurzer Sinn: Ich sage nicht, dass nV nicht auch einen geshrinkten G80 um 250$ anbieten könnte, ich halte es nur aus oben geschilderten Gründen für verdammt unwahrscheinlich. Bei AMD hingegen würde es aus oben geschilderten Gründen Sinn machen. Ich hoffe das reicht als Begründung.
GeneralHanno
2007-10-11, 21:00:25
leider keine quellenangabe. sonst könnte man die quelle mal näher betrachten.
ist jmd bei HWI registriert und kann da per PM nachhaken oder kommentar?
Nakai
2007-10-11, 21:02:19
Stichwort G71!
Die 7900GT war auch ein G71, aber nur 66% so schnell wie die 7900GTX.
mfg Nakai
seahawk
2007-10-11, 21:03:00
Ich würde auch eher eine verdoppelten G64 erwartn, als eine geshrinkten G80, wenn es um 8800GT geht.
Ailuros
2007-10-12, 06:04:28
Es muss die 8800Gt zumindest entsprechend der Preisdifferenz besiegen, etwas mehr wäre besser. Gehe ich von 299 vs. 249 aus, dann sollte die RV670 schon 20% besser sein um konkurrenzfähig zu sein.
Evtl. hat ATI ja die ROPs aufgebohrt.
Inwiefern genau "aufgebohrt" und welche andere notwendige Aenderungen in der gesamten Architektur wurden ausgefuehrt?
Ailuros
2007-10-12, 06:05:00
Ich würde auch eher eine verdoppelten G64 erwartn, als eine geshrinkten G80, wenn es um 8800GT geht.
G80 skaliert von oben nach unten.
AnarchX
2007-10-12, 08:16:02
2950GT nur für Asien? (http://my.ocworkbench.com/bbs/showthread.php?p=421992#post421992)
was wird die 2950 denn für eine karte?
bei computerbase steht, sie wird mehr Gflops haben, als die 2900xt.
dafür aber nur ein 256bit interface und nur 250$/€.
:confused:
und wie ist es zu erklären, daß ATI/AMD schon GPUS in 55nm herstellt, die cpus aber immer noch in 90 und 65nm?
AnarchX
2007-10-12, 13:52:22
was wird die 2950 denn für eine karte?
bei computerbase steht, sie wird mehr Gflops haben, als die 2900xt.
dafür aber nur ein 256bit interface und nur 250$/€.
:confused:
Schaust du in Post #1! ;)
wie ist es zu erklären, daß ATI/AMD schon GPUS in 55nm herstellt, die cpus aber immer noch in 90 und 65nm?
Nunja, 55nm ist nur ein Halfnode von 65nm (ein optischer Shrink), diese werden von den CPU-Herstellern aber meist ausgelassen, wenn man dann die GPUs im H2 2008 bei 45nm sind, wird es auch AMD sein. (Intel ist hier eh außerhalb der Konkurrenz...)
Schaust du in Post #1!
ja, (vergessen) ;)
jetzt ist alles klar.
da bin ich mal auf den R680 gespannt, muss ja ein monster werden.
zumindest auf papier. :wink:
stimmt das noch mit der TDP von 130W für den RV670?
w0mbat
2007-10-12, 15:42:13
RV670GT = 80W
RV670PRO = 105W
RV670XT = 135W
GeneralHanno
2007-10-12, 15:47:26
die xt hatte doch einen dualslotkühler (siehe atis vorführ-PC) oder irre ich mich? die pro und die GT haben nur einen singelslotkühler.
Adam D.
2007-10-12, 15:54:20
Beide Single.
LovesuckZ
2007-10-12, 16:10:40
RV670GT = 80W
RV670PRO = 105W
RV670XT = 135W
Das ist ziemlich hoch für einen 1:1 Shrink des r600...
reunion
2007-10-12, 16:19:29
RV670GT = 80W
RV670PRO = 105W
RV670XT = 135W
RV670X2X = 210W :)
Das ist ziemlich hoch für einen 1:1 Shrink des r600...
Das sind nur TDP-Angaben. Kein RV670 wird real merklich über 100W brauchen, und das trotz des höheren Taktes. Ich finde das nicht hoch, wenn man sich R600 als Vergleich ansieht.
LovesuckZ
2007-10-12, 16:23:06
Das sind nur TDP-Angaben. Kein RV670 wird real merklich über 100W brauchen, und das trotz des höheren Taktes. Ich finde das nicht hoch, wenn man sich R600 als Vergleich ansieht.
AMD hat wesentlich "niedrige" TDP-Angaben als nVidia. Wenn die schon 135 Watt angeben, wird eine RV670XT auch annährend an die 100 Watt benötigen.
reunion
2007-10-12, 16:25:01
AMD hat wesentlich "niedrige" TDP-Angaben als nVidia. Wenn die schon 135 Watt angeben, wird eine RV670XT auch annährend an die 100 Watt benötigen.
Achja? R600XT hat eine TDP von 240W bei einem Verbrauch laut xbitlabs von 161W.
dargo
2007-10-12, 18:39:47
Achja? R600XT hat eine TDP von 240W bei einem Verbrauch laut xbitlabs von 161W.
Es sind afaik 200W TDP beim R600.
Nakai
2007-10-12, 18:44:36
Dann nehmen wir das Verhältnis.
200/160 = 1,25
135/1,25 = 108 Watt...
Naja um die 100 Watt reeller Verbrauch wirds werden.
mfg Nakai
reunion
2007-10-12, 18:47:38
Es sind afaik 200W TDP beim R600.
Steht wo? In allen Folien von AMD wird AFAIK von 240W gesprochen. Die gecancelte XTX sollte sogar 270W haben.
/Edit: Hier eine NV-Folie, das sollte als Beweis reichen:
http://img130.imageshack.us/img130/5805/1178061598dfpefhgdqm11lau8.jpg
Dann nehmen wir das Verhältnis.
200/160 = 1,25
135/1,25 = 108 Watt...
Naja um die 100 Watt reeller Verbrauch wirds werden.
mfg Nakai
240/160=1.5
135/1.5 = 90W
Nakai
2007-10-12, 19:22:55
Dann so...
Die 90 Watt scheinen gut zu sein. NV spricht von 110 Watt vom G92.
Also auch mal das Zahlenspielchen.
8800GTX:
177/135 ~ 1,31
G92:
110/1,31 ~ 84
----> etwa gleicher Stromverbrauch mit leichtem Vorteil für den G92.
Wenn man aber das Verhältnis der 8800Ultra nimmt, siehts schlechter aus.
Ultra:
175/145 ~ 1,20
G92:
110/1,20 ~ 91,6
Um ehrlich zu sein, beide Karten werden in etwa gleich viel verbrauchen, mal schaun wer die höhere Performance hat...
mfg Nakai
LovesuckZ
2007-10-12, 19:25:52
Du könntest auch die Angabe und die Messung der 8600GTS nehmen.
71 TDP gegen 49 Watt gemessen (xbitlabs). Dann käme der G92 auf ca. 77 Watt.
Und AMD gibt die TDP der 2600XT mit 45 Watt an. Was auch den gemessenen Werten entspricht.
Nakai
2007-10-12, 19:31:18
Könnte man auch, da der G92 aber wohl 8 Cluster hat, sollte man ihn eher mit dem G80 vergleichen. Jedoch sehe ich das nicht so eng.
Beide Karten werden wohl etwa auf gleichem Energieniveau sein, vll 5 bis 10 Watt abweichend.
mfg Nakai
reunion
2007-10-12, 19:45:31
Bei B3D gibt es Infos zu RV635/RV620: http://www.beyond3d.com/content/news/464
Die Chips sollen im Januar kommen und pinkompatibel zu RV610/RV630 sein. Namen sind angeblich HD 2500 bzw. HD 2650. Neue Features wie erwartetet: DX10.1, PCIe 2.0, Display-Port, 55nm.
laser114
2007-10-12, 19:49:38
Und AMD gibt die TDP der 2600XT mit 45 Watt an. Was auch den gemessenen Werten entspricht.
Die 45 Watt TDP bezieht sich meines Wissens nur auf den RV630XT (also den Chp), nicht aber auf die gesamte Grafikkarte.
AnarchX
2007-10-12, 19:50:02
@reunion
Monday 10th September 2007
Ist schon in #1 mit drin.
Beide Karten werden wohl etwa auf gleichem Energieniveau sein, vll 5 bis 10 Watt abweichend.
Am interessantesten wird imo der 2D-Verbrauch sein, wenn NV wieder nicht die Notwendigkeit für einen 2D-Modus inkl. Spannungssenkung sieht.;)
Die 45 Watt TDP bezieht sich meines Wissens nur auf den RV630XT (also den Chp), nicht aber auf die gesamte Grafikkarte.
Ganz genau, Board sind es 70 bzw. 75W TDP!
http://img214.imageshack.us/img214/1082/tdpwd4.th.jpg (http://img214.imageshack.us/my.php?image=tdpwd4.jpg)
reunion
2007-10-12, 19:53:12
@reunion
Ist schon in #1 mit drin.
Oh sorry.
Am interessantesten wird imo der 2D-Verbrauch sein, wenn NV wieder nicht die Notwendigkeit für einen 2D-Modus inkl. Spannungssenkung sieht.;)
Das außerdem.
Die 45 Watt TDP bezieht sich meines Wissens nur auf den RV630XT (also den Chp), nicht aber auf die gesamte Grafikkarte.
Natürlich, ist ja auch vollkommen ausgeschlossen, das die Karte die TDP unter normalen Bedingungen auch nur erreicht.
AnarchX
2007-10-12, 20:03:00
Das außerdem.
Wobei sich die Frage vielleicht auch bei HD2950 stellt, die X1950Pro kannte ja auch keine 2D-Spannung, weil beim PCB gespart wurde...
Aber das wird ja dann Xbit-Labs klären.;)
Nakai
2007-10-13, 11:04:04
Eine Sache hab ich bis jetzt noch nicht verstanden. Wieso taktet der RV670 nicht höher. Selbst der R600 in 80Nm kann schon so hoch takten. Der Rv670 sollte da schon nahe an 1 Ghz rankommen.
mfg Nakai
Weil AMD auch so schon angebliche 25 Watt TDP höher liegt und dann wahrscheinlich wieder mit zwei Stromsteckern hantieren müsste und einen lauten single-slot oder teuren Doppelslot-Kühler verbauen müsste.
robbitop
2007-10-13, 11:08:09
Yields, Prozessreife, Leistungsaufnahme, PCB Kosten, Verdrahtungsebenen, Kritische Pfade ...dafuer gibt es viele potenzielle Gruende.
AnarchX
2007-10-13, 11:09:00
Eine Sache hab ich bis jetzt noch nicht verstanden. Wieso taktet der RV670 nicht höher. Selbst der R600 in 80Nm kann schon so hoch takten. Der Rv670 sollte da schon nahe an 1 Ghz rankommen.
750MHz -> 62W
825Mz -> 85W
1000MHz -> 150W?
Es lohnt sich wohl einfach nicht, da sind 2x750MHz mit 124W wohl doch sinnvoller, die bei guter CF-Effizienz mehr leisten sollten.
edit:
Und eben auch die Gründe die robbitop nennt...
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.