PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Kommende Evergreen/Manhattan/RV8xx-GPUs


Seiten : 1 [2] 3 4

aylano
2009-10-16, 14:55:09
Es ist natürlich aus kostensicht ein Nachteil, aber sonst.
Nur wenn die Yield die selbe ist.
------

Von einem ATI-Typen wurde doch letztens berichtet, dass Cedar eine Überraschung wird. Und SOI-GPU wäre ja eine.
Gewöhnlich bringen Low-End-GPUs keine Überraschungen.

Nun ja, ich war über die 4.DX11-GPU bei der Einführung überrascht. So ergibt es einen Sinn.

Vielleicht testet AMD ihre erste GPU-in-Dresden eben in 45nm und nicht 32nm/28nm. Schließlich gäbe es bei den Namen 56x0(Reenwood?)/57x0(juniper)/58x0(cypress)/59x0(Hemlock)
auch keinen Platz mehr für einen neuen GPU-Die, wie es z.B. bei RV770 ala 47x0 zwischen 46x0 & 48x0 es gab.

aylano
2009-10-16, 14:58:03
Es ist natürlich aus kostensicht ein Nachteil, aber sonst.
Nur wenn die Yield die selbe ist.
---
Von einem ATI-Typen wurde doch letztens berichtet, dass Cedar eine Überraschung wird. Und SOI-GPU wäre ja eine.
Gewöhnlich bringen Low-End-GPUs keine Überraschungen und obengenanntes wäre die einzige Überraschung, die ich mir vorstellen könnte.

Nun ja, ich war über die 4.DX11-GPU bei der Einführung überrascht. So ergibt es einen (wirtschaftlichen) Sinn.

Vielleicht testet AMD ihre erste GPU-in-Dresden eben in 45nm und nicht 32nm/28nm. Schließlich gäbe es bei den Namen 56x0(Reenwood?)/57x0(juniper)/58x0(cypress)/59x0(Hemlock)
auch keinen Platz mehr für einen neuen GPU-Die, wie es z.B. bei RV770 ala 47x0 zwischen 46x0 & 48x0 es gab.

PS: Fusion wird ein monolitischer Die. Na ja, laut Earnings Call

AnarchX
2009-10-22, 21:28:17
Retail Name ASIC ID
Broadway/ATI Mobility Radeon HD 5800 Series
ATI Mobility Radeon HD 5800 Series EG BROADWAY XT 68B0
ATI Mobility Radeon HD 5800 Series EG BROADWAY XT 68A0
ATI Mobility Radeon HD 5800 Series EG BROADWAY PRO/LP 68A1
ATI Radeon HD 5000 Series
ATI Radeon HD 5450 EG CEDAR PRO 68F9
ATI Radeon HD 5700 Series EG JUNIPER XT 68B8
ATI Radeon HD 5700 Series EG JUNIPER LE 68BE
ATI Radeon HD 5800 Series EG CYPRESS XT 6898
ATI Radeon HD 5800 Series EG CYPRESS PRO 6899
ATI Radeon HD 5900 Series EG HEMLOCK XT 689C
http://developer.amd.com/drivers/pc_vendor_id/Pages/default.aspx

Hier gibt es jedenfalls noch keinen Hemlock PRO, also wohl erstmal nur eine 5970.

mboeller
2009-10-24, 12:42:21
http://developer.amd.com/drivers/pc_vendor_id/Pages/default.aspx

Hier gibt es jedenfalls noch keinen Hemlock PRO, also wohl erstmal nur eine 5970.

Cedar als 54xx ??

Wo ist der Redwood?

Gast
2009-10-27, 11:44:43
Sapphire HD 5750 Vapor-X

http://www.hardwarecanucks.com/news/video/sapphire-launching-hd-5750-vaporx-video-card/

pest
2009-10-28, 08:50:18
HD59xx ist anscheinend 2xCypress

http://www.tipidpc.com/viewtopic.php?tid=201769

Google-Cache (http://209.85.229.132/search?hl=en&source=hp&q=cache%3Ahttp%3A%2F%2Fwww.overclock.net%2Fati%2F598425-i-have-5870x2-aka-5970-my.html&btnG=Google+Search&meta=&aq=f&oq=)

Sorkalm
2009-10-28, 12:15:14
Idle Wattage: 54 Watts
Max Wattage: 376 Watts

Hmm, das kriegt man selbst mit 2x 8-Pin nicht spezifiziert, wäre genau 1 Watt zu viel...

2B-Maverick
2009-10-28, 12:43:47
Hmm, das kriegt man selbst mit 2x 8-Pin nicht spezifiziert, wäre genau 1 Watt zu viel...

Sind auf den Fotos nicht sogar nur ein 6x und ein 8x Anschluss zu sehen?

KonKorT
2009-10-28, 12:45:52
Hmm, das kriegt man selbst mit 2x 8-Pin nicht spezifiziert, wäre genau 1 Watt zu viel...
Auf die Werte kannst Du nicht setzen, da hat einer schlichtweg die der HD 5870 genommen und mit zwei multipliziert. Es werden im Idle < 54 Watt sein und unter Last ebenfalls < 376 Watt.

Sorkalm
2009-10-28, 12:51:37
Achso, na gut, dann nicht. Ich dachte das wären die aus den Folien, die hatten ja zumindest auch ne Karte.

AnarchX
2009-10-28, 13:19:10
Da ist noch ein alter Prototyp.
Momentan ist es wohl noch fraglich, ob man schon die finalen Taktraten festgelegt hat, ebenso wie einen Launch-Termin.
Letzteres ist ja im Bezug auf Fermi wohl so bald noch nicht nötig und die generelle Verfügbarkeit an Cypress, spricht wohl auch noch nicht für eine ~$500 Dual-GPU-SKU.

Botcruscher
2009-10-28, 13:40:25
Dann verkauft man ihn für 600+;) Die Verfügbarkeit ist doch in der Preisregion kein Problem.

Schlammsau
2009-10-29, 19:47:27
http://pics.computerbase.de/2/7/3/1/0/10.jpg

http://www.computerbase.de/bildstrecke/27311/12/

Bilder, Daten und Erscheinungstermin zur HD 5970? (http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/oktober/bilder_daten_erscheinungstermin_hd_5970/)

derguru
2009-10-29, 19:57:01
coretakt ist aber nicht berauschend was aber klar war aber wieso wird beim speichertakt gespart?
jetzt begreif ich auch den nameswechsel.:wink:

Schlammsau
2009-10-29, 20:14:17
coretakt ist aber nicht berauschend was aber klar war aber wieso wird beim speichertakt gespart?
jetzt begreif ich auch den nameswechsel.:wink:

Stromverbrauch?!

LovesuckZ
2009-10-29, 20:19:57
Ah, die Karte ist nur 13,5 inches lang, hat ausreichende 1GB pro Chip und besitzt die Taktraten der 5850 - da soll noch jemanden sagen, dass es sich beim rv870 um ein "Performancechip" handelt.

reunion
2009-10-29, 20:31:55
Ah, die Karte ist nur 13,5 inches lang, hat ausreichende 1GB pro Chip und besitzt die Taktraten der 5850 - da soll noch jemanden sagen, dass es sich beim rv870 um ein "Performancechip" handelt.

Wie so oft ergibt dein geschreibsel wenig Sinn. Was hat das eine mit dem anderen zu tun? Nichts. War ein G92 kein Performancechip? Mal sehen wie die finalen Taktraten dann wirklich aussehen. Ich erwarte zumindest den vollen Speichertakt.

derguru
2009-10-29, 21:00:23
Stromverbrauch?!
das macht doch den braten auch nicht mehr fett.:D

Reaping_Ant
2009-10-29, 21:52:36
das macht doch den braten auch nicht mehr fett.:D

Der Einfluss des Speichertakts auf die Leistungsaufnahme ist nicht zu unterschätzen. Bei meiner GTX 285 machen 200 MHz (von 1250 auf 1050 MHz) weniger locker mal 10 W Verbrauch aus. Wenn ich mich korrekt erinnere, war das bei meiner 4870 noch wesentlich stärker ausgeprägt.

Selbst wenn es pro GPU "nur" 10 W sind, sind 20 W bei so einem engen Power-Budget eine Menge Holz. Wer will, kann ja immer noch übertakten.

Henroldus
2009-10-30, 07:51:25
Stromverbrauch?!
6pin + 8 pin also 75W+150W+75W maximale LEISTUNGSAUFNAHME bzw TDP laut den Fotos
vorgestern hieß es noch 376W X-D

Tarkin
2009-10-30, 08:54:17
Mobile DirectX 11 chips from AMD launches January, 2010 (http://www.nordichardware.com/news,10142.html)

Jake Dunn
2009-10-30, 16:11:56
Was soll Hemlock kosten?

499$?

Schlammsau
2009-10-30, 16:19:19
Also ich glaube diese Karte ist eine 5950, also 2x die 5850. Dafür sprechen der Takt und die 2x 1GB VRAM.

Die 5970, wird dann wohl die spekulierten 380W TDP und wohl auch 2x 2GB VRAM haben.

Erinnert euch an die 4870X2, die ist auch sofort mit 2x 1GB gekommen, obwohl die 5870/512MB Variante sehr viel mehr Anklang gefunden hat.

Jake Dunn
2009-10-30, 16:30:14
Also ich glaube diese Karte ist eine 5950, also 2x die 5850. Dafür sprechen der Takt und die 2x 1GB VRAM.



Die hat aber 2x 1600SPs ;) also 5870er GPUs

Schlammsau
2009-10-30, 16:31:47
Die hat aber 2x 1600SPs ;) also 5870er GPUs

Hmm....aber die Taktraten einer 5850. :confused:

2x 1GB wären zu wenig für die Karte!

Jake Dunn
2009-10-30, 16:35:16
Hmm....aber die Taktraten einer 5850. :confused:



Ja wie z.b. bei der GTX295, die hat auch 2x240SPs und den Takt der 260er

Dural
2009-10-30, 17:53:48
also wenn die karte wirklich so kommt ist man mit einer 5870 2GB @ 1000MHz+ deutlich besser dran und erst noch billiger...

EDIT:
Mir fällt grad was auf, das gerücht das Fermi es mit der X2 auf nehmen kann könnte ja so durchaus was wares dran sein! Min. 500MB mehr Speicher, kein AFR und die reinen Rohdaten liegen auch nicht mehr so weit weg... zb. Speicherbandbreite

Dazu müsste sich aber Fermi auch richtig gut takten lassen, naja mal schauen...

Jake Dunn
2009-10-30, 18:16:54
also wenn die karte wirklich so kommt ist man mit einer 5870 2GB @ 1000MHz+ deutlich besser dran und erst noch billiger...



Bei hohen Settings und oder einem 30" Monitor, kommt das vom "Spielgefühl" sicherlich hin.


Was ist zur HD5950 bekannt?

Könnte mir vorstellen das 2x1440SPs, ~650mhz GPU und 2x6Pin (225W TDP) zum einsatzt kommen.

Dural
2009-10-30, 18:30:02
die karte wäre dann im vergleich zu einer 5870 2GB @ 1000MHz+ wirklich komplett sinnlos ;D

Nakai
2009-10-31, 15:30:19
Irgendwie sieht es danach aus, dass die HD6er-Serie bald kommt. Das 5er-Schema is scho fast voll...HD5890 wär noch frei.


mfg Nakai

S940
2009-10-31, 16:27:40
Irgendwie sieht es danach aus, dass die HD6er-Serie bald kommt. Das 5er-Schema is scho fast voll...HD5890 wär noch frei.

Also die "Northern Islands" Chips (höchstwahrscheinlich die HD6xxx Serie) kommen nach der AMD Roadmap erst 2011 ...
http://www.semiaccurate.com/forums/showthread.php?p=10911

Ausserdem: Manhatten ist auch schon 32nm.

ciao

Alex

AnarchX
2009-10-31, 16:41:02
Und wer soll für Anfang 2010 32nm GPUs produzieren? :D

HD 5800 kommt wohl eindeutig mit 40nm GPUs, aber vielleicht probiert man sich bei Cedar gar schon mit 32nm aus, wenn er später als Fusion-IGP dienen soll.
Deshalb vielleicht auch seine hohe Bedeutung laut Napoleon@Chiphell...

Aber vielleicht sollte man die Roadmap nicht so ernst nehmen, laut dieser ist Manhattan nur D3D10.1. :D

Sorkalm
2009-10-31, 16:56:50
Aber vielleicht sollte man die Roadmap nicht so ernst nehmen, laut dieser ist Manhattan nur D3D10.1. :D

Isses mit einem RS880M auch. Links steht da wo DX10.1 steht nämlich "IGP" dran.

Jedenfalls scheint Manhatten (32 nm) nicht mit N. Islands (32 nm) übereinzustimmen, auf der Notebookfolie gibts nämlich beides.

S940
2009-10-31, 17:05:09
Aber vielleicht sollte man die Roadmap nicht so ernst nehmen, laut dieser ist Manhattan nur D3D10.1. :D
Hmm wieso nicht, für mobil reichts vielleicht .. erstens hat nVidia auch nichts besseres, und zweitens spart man einiges an Transistoren. Drittens kann man mit dem einfachen Design wohl den Prozess einfahren, ähnlich wie mit dem RV740.
Und wer soll für Anfang 2010 32nm GPUs produzieren?
Wo steht was von Anfang 2010 ?

ciao

Alex

AnarchX
2009-10-31, 17:09:33
Hmm wieso nicht, für mobil reichts vielleicht .. erstens hat nVidia auch nichts besseres, und zweitens spart man einiges an Transistoren. Drittens kann man mit dem einfachen Design wohl den Prozess einfahren, ähnlich wie mit dem RV740.
Siehe Sorkalm.


Wo steht was von Anfang 2010 ?

Die bisherigen Akündigungen sehen die ersten Manhattan GPUs Anfang 2010, Device-IDs gibt es auch schon öffentlich bei AMD.

Aber wie auch RV7xx in der Roadmap mit 40nm ergänzt wurde, muss sich das wohl nicht auf die gesamte Serie beziehen.
Deshalb könnt es sich wohlmöglich wirklich um Cedar handeln, als erste 32nm GPU.

aylano
2009-10-31, 17:51:11
HD 5800 kommt wohl eindeutig mit 40nm GPUs, aber vielleicht probiert man sich bei Cedar gar schon mit 32nm aus, wenn er später als Fusion-IGP dienen soll.
Deshalb vielleicht auch seine hohe Bedeutung laut Napoleon@Chiphell...

Bisher war es immer so, dass jene Low-End-GPU, die dann später als onboard-GPU auf die Mainboards kamen, nachher immer noch in der selben Fertigung produziert wurde.
Aus dieser Sicht, wäre ein Cedar @ 32 die logisch Folgerung.

Zuerst dachte ich, mit Cedar würde AMD ihre erste Fertigung in 40nm-SOI probieren, die dann später auf 32nm geshrinkt wird, da sie in die Fusion kommt.

Denn in der 5000er-Serie ist dann nur mehr ein Platz frei a la 55x0er.
(51x0-53x0-Chipsätze, 54x0-Cedar, 56x0-Redwood, 57x0-Juniper, 58x0-Cypress, 59x0-2xCypress)

reunion
2009-10-31, 18:00:41
Also die "Northern Islands" Chips (höchstwahrscheinlich die HD6xxx Serie) kommen nach der AMD Roadmap erst 2011 ...
http://www.semiaccurate.com/forums/showthread.php?p=10911

Ausserdem: Manhatten ist auch schon 32nm.

ciao

Alex

Evergreen steht auch erst 2010 auf der Roadmap obwohl man Cypress seit dem Q3/2009 bekommt.

Blacksoul
2009-10-31, 18:10:36
Also die "Northern Islands" Chips (höchstwahrscheinlich die HD6xxx Serie) kommen nach der AMD Roadmap erst 2011 ...
http://www.semiaccurate.com/forums/showthread.php?p=10911

Ausserdem: Manhatten ist auch schon 32nm.

ciao

Alex

Ich will doch mal schwer hoffen, dass es nicht so lange mit der HD6000-Serie dauert. Die 4870 wird mit zu langsam, die 5870 ist mir nicht schnell genug. Man wird sicherlich nicht ein Jahr warten, bis man einen Nachfolger präsentiert. Ich bin gespannt, was man aus den Refreshchips machen wird, sofern sie denn kommen.


t.b.d

Nakai
2009-10-31, 18:33:56
Also die "Northern Islands" Chips (höchstwahrscheinlich die HD6xxx Serie) kommen nach der AMD Roadmap erst 2011 ...

Natürlich wird AMD erst die gesamte Serie rausbringen, aber was ist dann?
H1 2010 kommt ein Mini-Refresh des RV870, ähnlich dem RV790. Ebenso wird wohl am Anfang von H2 2010 ein 32nm-Chip erscheinen um den Prozess zu testen. Ende 2010 sehen wir wohl die HD6er-Serie.

Versteht mich nicht falsch. AMD wird wohl nicht die Performancekrone behalten können. Ich bleibe dabei, dass der GT300 sehr stark wird. Selbst der R800 wird nur knapp bestehen können. Bis H2 2010 wird AMD wohl nicht viel gegen NV tun können. Natürlich ist das nur Speku und gilt nur wenn NV richtig reinhaut.

AMD muss also alle unteren Segmente breit bedienen können um die zu erreichen.

Ich will doch mal schwer hoffen, dass es nicht so lange mit der HD6000-Serie dauert. Die 4870 wird mit zu langsam, die 5870 ist mir nicht schnell genug. Man wird sicherlich nicht ein Jahr warten, bis man einen Nachfolger präsentiert. Ich bin gespannt, was man aus den Refreshchips machen wird, sofern sie denn kommen.

HD5890(RV890) wird wohl einige kleine Änderungen haben. Ergo wohl schnelleren Speicher und vorallem einen höheren Coretakt.



mfg Nakai

Dural
2009-10-31, 19:34:08
glaube nicht das wir jemals einen Mini-Refresh des RV870 sehen werden wie es bei RV770 zum RV790 war! Würde derzeit auch gar keinen Sinn machen, wenn Fermi das ist was auf dem Papier steht würde ein RV890 @ 950MHz und dann vileicht noch grösser wie es bei RV790 war gerade mal gar nichts bringen...

Viel mehr werden wir in 32nm einen richtigen Refresh des RV870 sehen, zuerst aber eine kleinere GPU, gut möglich das es schon Cedar ist! Danach kommt die neue "richtige" DX11 Architektur.

Wenn Fermi das ist was sich NV erhofft stehen sie nicht ein mal so schlecht da, AMD könnte erst 2011 mit der neuen Architektur reagieren und ob die überhaupt besser sein wird steht noch in den Sternen, aber ist alles egal bevor Fermi sich nicht beweissen kann und lieferbar ist...

Sorkalm
2009-11-01, 11:18:23
Evergreen steht auch erst 2010 auf der Roadmap obwohl man Cypress seit dem Q3/2009 bekommt.

Ist ja auch eine Plattform Roadmap. ;)

Nakai
2009-11-01, 11:55:15
glaube nicht das wir jemals einen Mini-Refresh des RV870 sehen werden wie es bei RV770 zum RV790 war! Würde derzeit auch gar keinen Sinn machen, wenn Fermi das ist was auf dem Papier steht würde ein RV890 @ 950MHz und dann vileicht noch grösser wie es bei RV790 war gerade mal gar nichts bringen

AMD/ATI muss Cypress kleiner machen! Im unteren Segment ist AMD sehr gut aufgestellt, sobald es zum Launch kommt. AMD muss aber früher kommen als Fermi und wenn, dass muss man die Massen befriedigen können. Falls AMD dies schafft, dann muss NV erstmal mit ihren Chips kommen.

Ebenso hat AMD gesagt, dass man alle ~6 Monate etwas Neues bringt! Im H1 2010 sollte AMD also im höheren Segment etwas rausbringen.


mfg Nakai

Psychopat
2009-11-01, 12:33:58
Also für mich ist es ziemlich offensichtlich das noch eine 5890 kommt. Evtl. braucht man dazu nicht mal einen refresh sondern kommt mit selektierten RV870ern aus (bzw. neues Stepping).
Fakt ist, die 5870 hat einen gemäßigten Verbrauch durch eine relativ niedrige vCore. Selektiere da mal ein bisschen und mehr Spannung, dann sind 1Ghz+ leicht machbar. Dann bau noch ordentlich schnellen Speicher drauf (vielleicht ist 1500 MHz dann schon bezahlbar) und fertig.
So kann AMD ohne viel Aufwand noch gut 20% mehr Leistung als eine 5870 realisieren. Damit wäre man dann schon dicht genug an Fermi dran das es sich lohnt, evtl. schlägt man sogar die teildeaktivierte Variante.

aylano
2009-11-01, 13:23:59
glaube nicht das wir jemals einen Mini-Refresh des RV870 sehen werden wie es bei RV770 zum RV790 war! Würde derzeit auch gar keinen Sinn machen, wenn Fermi das ist was auf dem Papier steht würde ein RV890 @ 950MHz und dann vileicht noch grösser wie es bei RV790 war gerade mal gar nichts bringen...
Sowas wie einen RV790 wird es höchstwahrscheinlich bzw. IMO nicht geben, da der RV870 im Gegensatz zum RV770 nicht ausgereift ist a la Yieldrate.
Und vielleicht konnte AMD beim RV870 nicht das ganze Takt-Potential nutzen, sodass 2 Respin den Selben Effekt bewirken können, wie beim RV790

Viel mehr werden wir in 32nm einen richtigen Refresh des RV870 sehen,
In der 5000er-Bezeichnung gäbe es dafür keinen Platz.


Wenn Fermi das ist was sich NV erhofft stehen sie nicht ein mal so schlecht da, AMD könnte erst 2011 mit der neuen Architektur reagieren und ob die überhaupt besser sein wird steht noch in den Sternen, aber ist alles egal bevor Fermi sich nicht beweissen kann und lieferbar ist...
Oder man kann auch so schreiben.
Ob FERMI überhaupt besser sein wird steht noch in den Sternen, wenn R900 IM JAHR 2010 das ist was sich AMD erhofft, stehen sie nicht ein mal so schlecht da, DENN Nvidia KANN MIT FERMI erst 2010 mit IHRER neuen Architektur reagieren, aber ist alles egal bevor Fermi & R900 sich nicht beweissen kann und lieferbar ist...

Na ja, "Spaß" beiseite;-)

Wobei der R900 deshalb interessant werden kann, wenn Fermi sich in Performance pro watt & performance pro mm² nicht von der R8x0-Serie absetzen kann, wenn überhaupt.

Fakt ist, die 5870 hat einen gemäßigten Verbrauch durch eine relativ niedrige vCore. Selektiere da mal ein bisschen und mehr Spannung, dann sind 1Ghz+ leicht machbar. Dann bau noch ordentlich schnellen Speicher drauf (vielleicht ist 1500 MHz dann schon bezahlbar) und fertig.
So kann AMD ohne viel Aufwand noch gut 20% mehr Leistung als eine 5870 realisieren. Damit wäre man dann schon dicht genug an Fermi dran das es sich lohnt, evtl. schlägt man sogar die teildeaktivierte Variante.
Ich schätze, diese Reserve will sich AMD noch bis zum Fermi bzw/& RV870-Respinns aufheben.
Vorallem, wenn sie bei RV870-Respinns noch in Sachen Effizienz nicht unwesentlich zulegen können.

Dural
2009-11-01, 16:23:40
wie wäre es mit 5890 ;) und eine GPU zu bringen die anscheinend gegen Fermi nötig sein wird dürfte das Namen "Problem" so ziemlich egal sein!

In der AMD Roadmap ist der "native" DX11 Chips erst für 2011 vorgesehen, das bedeutet das Fermi min. ca. 1Jahr Vorsprung hat...

Das einzige logische Ziel für AMD dürfte sein der RV870 so schnell wie möglich so klein wie möglich zu machen :)

NV war in Performance pro watt immer vor AMD, wüsste gar nicht mehr wann das nicht der fall war? Also im selben Prozess natürlich...

Performance pro mm² wird klar bei AMD liegen den Fermi ist ca. 50% grösser als RV870 und das werden sie ausnützen und ausbauen mit 32nm (es geht AMD ja eh schon lange nur noch um das) obwohl das bei den kleinen Fermi Ableger nicht mal der fall sein muss, da NV ja schon angedeutet hat das einige sachen die man für Tesla und co. benötigt die kleinen wohl nicht mehr drin haben...

Aber wie so reiten die leute immer auf diese Performance pro mm² rum? Für die End-User ist das doch absolut egal, da geht es bei den Hersteller doch nur um etwas mehr oder weniger Gewinn.

Also ich hab zb. lieber grössere DIE, da bekomm ich mehr für Geld über :D

reunion
2009-11-01, 16:38:28
In der AMD Roadmap ist der "native" DX11 Chips erst für 2011 vorgesehen, das bedeutet das Fermi min. ca. 1Jahr Vorsprung hat...


Warum stellt man sich hier bewusst dumm? Das ist doch ein absolut unbrauchbarer Diskussionsstil. Das ist eine Plattform-Roadmap und keine Grafikroadmap. Es ist mehr als wahrscheinlich das man es genauso plant wie aktuell auch mit Evergreen, den man ja auch schon 2009 bekommt obwohl er erst 2010 auf der Plattformroadmap steht. Also Q3 2010 High-End - rechtzeitig für die "back to school" Periode und das Weihnachtsgeschäft - und dann im Laufe der nächsten Monate Midrage und Lowend inkl. Notebookchips, etc. So gesehen sollte NV mit Fermi schon schön langsam mal ankommen wenn man länger als 6-9 Monate in Führung sein will.


Das einzige logische Ziel für AMD dürfte sein der RV870 so schnell wie möglich so klein wie möglich zu machen :)

Viel zu aufwändig für zu wenig Nutzen. Da kommt maximal noch eine höher getaktete Version und fertig. Ich erwarte Lowend Evergreen zumindest in einer Ausführung in 32nm um sich auf die nächste Generation vorzubereiten.


NV war in Performance pro watt immer vor AMD, wüsste gar nicht mehr wann das nicht der fall war?

Bis R5xx war ATi durchgehend vorne, mit R6xx drehe sich dann das Bild deutlich zugunsten NV, mit Rv7xx war es relativ ausgeglichen bis NV auf 55nm shrinke und aktuell ist AMD auch vorne zumindest bis die Dx11 Gen von NV kommt. Fermi scheint hier allerdings laut Gerüchte sehr gut zu sein.

Dural
2009-11-01, 16:46:19
Gibt es eine andere Roadmap die das Aussagt?

und wie war das noch mal das alle 6 Monate was neues kommen soll? würde so gar nicht aufgehen... ;) wie so stellt du dich so dumm an? kann ich jetzt auch sagen...

G71 war auch hier klar besser!!! Der R580 hat ziemlich viel verbraucht, glaube sogar mehr als eine 7950GX2 mit zwei G71, bin ich mir aber nicht mehr so sicher...

Wir werden Evergreen in 32nm sehen, Wetten?

aylano
2009-11-01, 16:50:55
wie wäre es mit 5890 ;) und eine GPU zu bringen die anscheinend gegen Fermi nötig sein wird dürfte das Namen "Problem" so ziemlich egal sein!

Es gibt da kein Problem, weil AMD ja weiß, welche GPUs kommen und deshalb dementsprechend Platz übrig lässt bzw. nichts übrig lässt, wenn nichts kommt.

Gerade die x9x0er-Bezeichnung wurde in der Vergangenheit immer für GPU-Shrink im High-end-Bereich verwendet.


In der AMD Roadmap ist der "native" DX11 Chips erst für 2011 vorgesehen, das bedeutet das Fermi min. ca. 1Jahr Vorsprung hat...

Diese AMD-Plattform-Roadmaps sind das Ungenauste was so präsentiert wird oder Kommt Cypress wirklich erst 2010?


Das einzige logische Ziel für AMD dürfte sein der RV870 so schnell wie möglich so klein wie möglich zu machen :)
Das sehe ich nicht so.
Denn AMD plante/machte auch nicht einen ganzen Shrink der RS7x0er-Serie.
Und aus diesem Grund kann AMD dann die DX11-Low-End & Mainstream-CPUs recht früh rausbringen und sich dann voll auf die R900-Einführung (2H 2010) sowie RV870-Refresh (März 2010?) sowie GF-GPU-SOI-Einführung (Jänner Cedar @ 40nm und später Cedar @ 32nm?) konzentrieren.
Praktisch so, wie AMD es mit RV740 sowie RV790 und Evergreen machte.
Nur ist dürte Cedar eine Test-GPU für Fusion werden.

Also, IMO könnte AMD das gut packen. Mehr wäre IMO zuviel und so schnell kommt Nvidia auch wieder nicht.
Und im Schlimmsten Fall wäre AMD eine Zeit lang mal nicht überall besser. (siehe jetzt im Low-End & Mainstream wo Nvidia 40nm anbietet und AMD eben nicht.)

Und ich verstehe nicht, warum AMD den RV870 so schnell wie möglich klein machen sollte.
Eher hat Nvidia das Problem des großen Dies.

Dural
2009-11-01, 16:57:22
Keiner hat verstanden wie so der RV790 noch in 55nm kam, das war wohl ganz klar eine schnell schuss weil 40nm Probleme gemacht hat und wohl immer noch macht. Oder glaubt ihr wirklich ERNSTHAFT das AMD für diese GPU so lange gebraucht hat??? Zwischen RV770 und RV790 lagen immerhin mehr als 6Monate... Gut möglich das ein RV770 in 40nm sogar mal in der Entwicklung war dieser dann aber eigestellt wurde, wie es zb. auch NV mit GT212 gemacht hat...

Ein neuer Prozess testet man so guet wie IMMER mit der alten Architektur

reunion
2009-11-01, 16:58:52
Gibt es eine andere Roadmap die das Aussagt?


Hat AMD bei ihrer CPU-Conference eine Garfikroadmap vorgestellt? Du siehst schon das die zeitliche Einteilung auch bei Evergeen nicht passt. Oder willst du das nicht verstehen?


und wie war das noch mal das alle 6 Monate was neues kommen soll? würde so gar nicht aufgehen... ;)

Warum nicht? Im März ein höher getakteter Chip und im September dann eben Northern Island. Alle sechs Monate.


wie so stellt du dich so dumm an? kann ich jetzt auch sagen...

Sagen kannst du viel, einen Sinn ergibt es aber nicht.


G71 war auch hier klar besser!!! Der R580 hat ziemlich viel verbraucht, glaube sogar mehr als eine 7950GX2 mit zwei G71, bin ich mir aber nicht mehr so sicher...

Ich habe geschrieben bis R5xx. Ich hoffe du bist in der Lage das zu verstehen. G7x war besser, zumindest zu Lebzeiten. Heute ist er leistungstechnisch deutlich unterlegen.


Wir werden Evergreen in 32nm sehen, Wetten?

Habe ich ja eben geschrieben. Aber niemals RV870.

reunion
2009-11-01, 17:00:46
Keiner hat verstanden wie so der RV790 noch in 55nm kam, das war wohl ganz klar eine schnell schuss weil 40nm Probleme gemacht hat und wohl immer noch macht. Oder glaubt ihr wirklich ERNSTHAFT das AMD für diese GPU so lange gebraucht hat??? Zwischen RV770 und RV790 lagen immerhin mehr als 6Monate..

Ein neuer Prozess testet man so guet wie IMMER mit der alten Architektur

So etwas stellt man nicht um ohne ein komplettes Redesign. RV790 war von Anfang an auf 55nm ausgelegt. Als 40nm Testchip nimmt man natürlich etwas zeitlich unkritisches wie RV740.

Dural
2009-11-01, 17:04:55
ja so wie es NV gmacht hat von G80 auf G92 nicht war? ;D oder R600 auf RV670...

aylano
2009-11-01, 17:45:18
ATI fertigte 1/2 Jahr davor schon 65nm-Chips.

Somit hatte TSMC schon eine ausgereifte 65nm-Fertigung für G92 bzw. es war nicht mehr so kritisch.

Bei ATI war der Sprung von 65nm-153mm² auf 55nm-196mm² nach einem halben Jahr 65nm-Erfahrung nicht mehr so groß.

StefanV
2009-11-01, 18:07:26
Habe ich ja eben geschrieben. Aber niemals RV870.
Naja, wenn 32nm GF, könnt das schon möglich sein...

Dural
2009-11-01, 18:29:05
Die Roadmap ist ja sehr deutlich!

Es steht ja ganz klar das man 2010 Evergreen hat, aber nichts von DX11 oder 40nm / 32nm !!!!

Jedoch steht bei 2009 ganz klar 7xx Serie DX10.1 40nm und bei 2011 "N. Islands" in 32nm

Ja wie so hat man den Fertigungs-Prozess wohl gerade bei "Evergreen" ausgelassen..... ;D

AnarchX
2009-11-01, 18:29:43
Wobei 32nm erst im H2 verfügbar sein soll und gleich zu Anfang einen 2 Mrd. Transitor-Chip fertigen zu lassen klingt auch nicht so glaubwürdig.

Und da es kein optischer Shrink ist, lohnt es sich hier wohl eher gleich neues Design zu entwerfen, was dann wohl Northern Islands ist.

reunion
2009-11-01, 18:53:30
Ja wie so hat man den Fertigungs-Prozess wohl gerade bei "Evergreen" ausgelassen..... ;D

Sag es uns.

reunion
2009-11-01, 18:56:21
ja so wie es NV gmacht hat von G80 auf G92 nicht war? ;D oder R600 auf RV670...

Ja, oder mit NV30 oder mit R520. Man hat es schon gemacht und ist nicht selten auf die Schnauze gefallen. Wenn nicht unbedingt nötig wird man das vermeiden. Deine zwei Beispiele passen nicht wirklich. Bei RV670 gab es vorher schon 65nm Chips und 55nm war nur ein Half-Node, also selbe Library. G92 war zwar NVs erster 65nm Chip, aber zu dem Zeitpunkt war 65nm auch nicht mehr wirklich ein neuer Prozess.

PulsarS
2009-11-02, 02:32:54
Ja, oder mit NV30 oder mit R520. Man hat es schon gemacht und ist nicht selten auf die Schnauze gefallen. Wenn nicht unbedingt nötig wird man das vermeiden. Deine zwei Beispiele passen nicht wirklich. Bei RV670 gab es vorher schon 65nm Chips und 55nm war nur ein Half-Node, also selbe Library. G92 war zwar NVs erster 65nm Chip, aber zu dem Zeitpunkt war 65nm auch nicht mehr wirklich ein neuer Prozess.
So sieht es aus.
Ich glaube der liebe Dural hat nicht wirklich Anhnung davon, aber man kann nicht ueberall sein...
Nur sollte man sich dann nicht an der Diskussion beteiligen, wenn man keine Ahnung hat....

StefanV
2009-11-02, 09:51:45
Wobei 32nm erst im H2 verfügbar sein soll und gleich zu Anfang einen 2 Mrd. Transitor-Chip fertigen zu lassen klingt auch nicht so glaubwürdig.

Und da es kein optischer Shrink ist, lohnt es sich hier wohl eher gleich neues Design zu entwerfen, was dann wohl Northern Islands ist.
Das ist richtig, aber wenn TMSC nicht so wirklich den 40nm Prozess gebacken bekommt, würd ich vermuten, das man sich überlegt bei GF zu fertigen.

Dural
2009-11-02, 10:29:23
was hat das mit NV30 zutun?

Das war eine neue Architektur mit einem neuen Prozess! Ich hab keine ahnung ja klar... Dann kommen sie mit NV30 daher, ein besseres Eigentor kann man ja wohl nicht machen... Gerade in anbetracht das ich der Meinung bin das AMD 32nm zuerst auf der Evergreen Famillie ausprobiert... lol

Wer lesen kann weis was ich geschrieben habe, aber das ist für einige wohl zu viel verlangt?

Den ich habe ganz klar zusammem gefasst geschrieben:

zuerst kleiner Evergreen in 32nm danach der RV870

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7631397&postcount=290

Gerade für die X2 karte wären ein 32nm RV870 sogar ganz sehr gut, da man villeicht sogar den vollen 5870 takt fahren könnte wenn nicht sogar mehr, das würde dann gleich min. 20% mehr Leistung bedeuten.

ist schon traurig wenn man hier nicht einmal Diskutieren kann und gewisse Herren (alle wohl mehr aus dem AMD lager...) das gefühl haben alles besser zuwisse, obwohl sie sich sogar mehrfach geirrt haben...

AnarchX
2009-11-03, 08:42:47
Bei Chiphell meint man, dass AMD ein 32nm Tape-out für einen Chip im 1. Quartal 2010 hat. Aber nicht bei GF, sondern noch bei TSMC:
http://bbs.chiphell.com/viewthread.php?tid=58867&extra=page%3D1

reunion
2009-11-03, 08:43:37
TSMC hat keinen 32nm high-performance Prozess AFAIK. Außer das hat sich geändert.

StefanV
2009-11-03, 10:25:01
was hat das mit NV30 zutun?
Der war verspätet und als erster in 130nm.


Das war eine neue Architektur mit einem neuen Prozess! Ich hab keine ahnung ja klar... Dann kommen sie mit NV30 daher, ein besseres Eigentor kann man ja wohl nicht machen... Gerade in anbetracht das ich der Meinung bin das AMD 32nm zuerst auf der Evergreen Famillie ausprobiert...
Richtig und das ist Fermi auch (OK, nicht ganz)...
Parallelen unverkennbar, nur wissen wir noch nix über die Performance und die Kühlung, die wohl nicht so übel wie beim nV30 sein wird - der Rest aber.

Ailuros
2009-11-03, 12:10:55
http://www.brightsideofnews.com/news/2009/11/2/amds-next-gen-gpu-manhattan-and-northern-islands-use-32nm-process.aspx


Richtig und das ist Fermi auch (OK, nicht ganz)...
Parallelen unverkennbar, nur wissen wir noch nix über die Performance und die Kühlung, die wohl nicht so übel wie beim nV30 sein wird - der Rest aber.

Welche falsche Design-Entscheidungen betrefffen denn GF100, damit man ueberhaupt eine Parallele zu NV30 ziehen kann?

StefanV
2009-11-03, 13:18:13
Es gibt Parallelen, aber eben nicht in jedem Punkt.
Der nV30 war auch gar nicht soo schlecht, war halt ein '1 Quad Design', entsprechend war der Konkurent der RV350 (Radeon 9600 PRO) und nicht die R300 bzw R350.
Es fehlte einfach an ALUs...

Das ist aber auch nicht das Thema, Parallelen gibts hier mehr bei der Wahl des Fertigungsprozesses und der verzögerung.
Beim nV30 war nV auch deutlich nach ATi aufm Markt.

Ailuros
2009-11-03, 13:50:36
Es gibt Parallelen, aber eben nicht in jedem Punkt.
Der nV30 war auch gar nicht soo schlecht, war halt ein '1 Quad Design', entsprechend war der Konkurent der RV350 (Radeon 9600 PRO) und nicht die R300 bzw R350.
Es fehlte einfach an ALUs...

Ob es an ALUs fehlte oder ob die ALUs selber Opfer falscher Design-Entscheidungen waren (eigentlich beides) ist eine ziemlich lange Geschichte die schon seit einer Ewigkeit ausgekaut wurde.

Das ist aber auch nicht das Thema, Parallelen gibts hier mehr bei der Wahl des Fertigungsprozesses und der verzögerung.
Beim nV30 war nV auch deutlich nach ATi aufm Markt.

Dass NV30 spaeter als R300 auf den Markt ist die einzige Parellele momentan. R300 wurde unter 150nm hergestellt (und es war fuer ATI damals eine sehr bewusste Entscheidung) waehrend NV30 auf dem ziemlich beschissenen damals 130nm ankam. Die ersten chip samples die von NV30 damals zurueckkamen waren so tot dass man sie unter keiner Bedingung zum Leben bringen konnte und man brauchte einen respin damit man erstmal mit dem debugging anfangen konnte.

GF100 sowohl wie Cypress werden unter 40G TSMC hergestellt; zwar kommt GF100 um ein paar Monate spaeter als Cypress an, aber es ist erstens nicht die gleiche Zeitspanne wie bei der NV30 Verzoegerung, A1 funktionierte und sie sollen gerade A2 bekommen haben. Wenn alles nach Plan gelaufen ist koennen sie mit dem letzteren in Produktion gehen und man hat sich etwas mehr als ein Quartal verspaetet.

NV30 war ein Design-FLOP hauptsaechlich fuer NVIDIA. Bis jetzt gibt es keine Indizien die in die Richtung deuten fuer GF100. Wenn das Ding jetzt einen zu kleinen Leistungsunterschied zu Cypress haben sollte, koennen wir zwar von einem FLOP reden aber keineswegs im Aussmass von NV30.

Tarkin
2009-11-05, 11:24:07
http://www.digitimes.com/news/a20091105PD213.html

Monica Chen, Taipei; Joseph Tsai, DIGITIMES [Thursday 5 November 2009]

Tight supply of AMD GPUs has caused several PC vendors to delay their mass shipment schedules by about two months to the first quarter of 2010, according to sources at the companies.

AMD's 40nm ATI Radeon HD 5000 series and 55nm ATI Radeon HD 4000 series GPUs are currently both facing shortages; the former due low yields on Taiwan Semiconductor Manufacturing Company's (TSMC's) 40nm process and the later due to AMD's conservative attitude towards its 55nm GPU sales after the launch of 40nm products, the sources noted.

In addition to graphics cards and desktops, the shortage is also forcing AMD to delay the mass shipment schedule of its ATI Mobility Radeon HD 5000 series (Manhattan) GPUs for notebooks to the first quarter of 2010 from the originally planned fourth quarter of 2009.

AMD commented that the company is positioned to supply orders placed by partners to meet consumer demand.


Ganz prima TSMC...

lingua
2009-11-05, 19:18:31
Gibt es denn schon weitere Infos über die für Spieler nicht so interessanten GPUs Redwood und Cedar? Laut Roadmap sollen die ja Q1/2010 kommen - Gerüchte, wie sie vor Erscheinen des Cypress oder Juniper kursierten, habe ich noch keine gesehen. Weder über den internen Aufbau noch über die Taktraten / Fertigungsprozesse etc.

lingua

w0mbat
2009-11-05, 19:28:18
Cedar soll wohl etwas besonderes werden, man munkelt 32nm oder SOI.

lingua
2009-11-05, 19:45:24
Ja stimmt, da war was von GlobalFoundries als Fertiger im Gerede. Aber am Design wird es keine Überraschungen geben (32 Bit SI mit günstigstem GDDR5 als Kleinst-Variante mit 1 Speicherchip pro Seite für billigst Layout und trotzdem erträglicher Bandbreite..)?

S940
2009-11-05, 22:45:57
Cedar soll wohl etwas besonderes werden, man munkelt 32nm oder SOI.

Ah hier passt die Grafik dann wohl besser rein:
http://pc.watch.impress.co.jp/docs/2009/0323/global_7.jpg

Stimme wegen des 32nm Ramp-Ups eindeutig für 32nm, 45nm SOI ist dagegen ziemlich unwahrscheinlich.

ciao

Alex

Ailuros
2009-11-06, 08:16:40
SOI fuer standalone GPUs? Nein. Fuer zukuenftige SoCs ja.

StefanV
2009-11-06, 12:50:16
Warum nicht?

SOI würd hier einen derben Vorteil bei der Leistungsaufnahme geben, leider würde das aber auch den Preis (deutlich?) erhöhen.
Ich halte es durchaus für möglich, das man diesen Schritt wagt.

Ailuros
2009-11-06, 13:10:10
Warum nicht?

SOI würd hier einen derben Vorteil bei der Leistungsaufnahme geben, leider würde das aber auch den Preis (deutlich?) erhöhen.
Ich halte es durchaus für möglich, das man diesen Schritt wagt.

Seit wann ist SOI optimal fuer GPUs?

Gast
2009-11-06, 13:13:05
Seit wann ist SOI optimal fuer GPUs?
ist es nicht und wird es wohl auch nie sein. ich stimme Dir zu.

reunion
2009-11-06, 13:14:21
Seit wann ist SOI optimal fuer GPUs?

Vielleicht testet man es für den kommenden Fusion?

Ailuros
2009-11-06, 13:16:01
ist es nicht und wird es wohl auch nie sein. ich stimme Dir zu.

In 9 von 10 Faellen handelt sich um ein Missverstaendnis. Sowohl AMD als auch NVIDIA experimentieren momentan mit SOI und da kommen so manche lachhafte Schlussfolgerungen dabei raus. Das Zeug ist fuer zukuenftige SoCs gedacht und ja natuerlich hat da SOI den Vorteil da man bei solchen SoCs sowieso mehr die area fuer die CPU Einheiten normalerweise dediziert.

Vielleicht testet man es für den kommenden Fusion?

Siehe oben mit Sekunden-Unterschied ;)

StefanV
2009-11-06, 13:29:40
Seit wann ist SOI optimal fuer GPUs?
Warum soll das nicht optimal sein??

Schlammsau
2009-11-06, 14:23:57
Radeon HD 5870 Eyefinity Edition mit mehr Speicher (http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/november/radeon_hd_5870_eyefinity_edition_speicher/)

http://pics.computerbase.de/2/7/3/8/7/10_m.jpg

Botcruscher
2009-11-06, 14:27:59
Da dies allein wohl keinen neuen Namen rechtfertigt, sind die Gerüchte um alle möglichen alternativen Bezeichnungen als falsch zu bewerten.

Bei NV wäre es gleich eine neue Generation.;D Aber schön das endlich 2GB Versionen kommen.

Raff
2009-11-06, 14:53:59
Bei NV wäre es gleich eine neue Generation.;D Aber schön das endlich 2GB Versionen kommen.

Hey, die Leistung in 2.560 x 1.600 inklusive 8x AA bzw. Eyefinity-Wahn-Auflösungen dürfte zwischen 20 und 300 Prozent zulegen, von daher ist das schon irgendwie eine neue Generation. ;D

MfG,
Raff

Coda
2009-11-06, 15:16:08
Warum soll das nicht optimal sein??
Z.B. ist die Wärmeleitfähigkeit stark reduziert.

Außerdem schält bei einer GPU sowieso jeden Takt fast alles, das heißt die Vorteile sind viel geringer.

StefanV
2009-11-06, 17:02:03
Also im Prinzip wärs für den Idle Verbrauch bzw Low End Karten und Chipsätze optimal, da man hier die Leistungsaufnahme stark reduzieren könnte?

Coda
2009-11-06, 17:11:03
Vielleicht, ja.

Es wird aber vielleicht zu aufwändig sein für Low-End extra nochmal für SOI zu entwickeln.

35007
2009-11-08, 13:40:25
Ist schon etwas über neue IGPs auf Basis der aktuellen HD5xxx Generation bekannt? Mag nicht in den Thread passen, aber ich wüsste nicht, wo ich posten soll.

Grüße
35007

AnarchX
2009-11-08, 13:42:01
Ist schon etwas über neue IGPs auf Basis der aktuellen HD5xxx Generation bekannt? Mag nicht in den Thread passen, aber ich wüsste nicht, wo ich posten soll.

AMD D3D11 IGPs wird es erst 2011 in Fusion-CPUs geben:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7632634&postcount=1692

2010 könnte es D3D11-IGPs vielleicht noch in Form eines ION3 von Nvidia geben und als IGP in Intels Sandy Bridge.

35007
2009-11-08, 13:45:59
D3D11 IGPs wird es erst 2011 in Fusion-CPUs geben:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7632634&postcount=1692

Danke dir! Hab die Folien eben auch per Google gefunden (hätte ich auch früher drauf kommen können ...)

Schade.

Mit dem 785g ist multi-display-support an den Digitalen Ports nicht möglich, oder hat sich da was geändert?

AnarchX
2009-11-11, 15:01:00
Hemlock/5970 Listungen ab 485€:
http://geizhals.at/eu/a481050.html

Man scheint wohl nun den effektiven VRAM zu listen.

Ailuros
2009-11-11, 15:27:50
Hemlock/5970 Listungen ab 485€:
http://geizhals.at/eu/a481050.html

Man scheint wohl nun den effektiven VRAM zu listen.

Tja die gute Neuigkeit ist dass ausser dass NV wieder einen blonden Moment hat, dass GF100 auf keinen Fall teurer als die 5970 sein sollte.

StefanV
2009-11-11, 16:00:35
Vielleicht, ja.

Es wird aber vielleicht zu aufwändig sein für Low-End extra nochmal für SOI zu entwickeln.
Nicht wenn Low End in die CPU soll bzw wandert.

Ailuros
2009-11-11, 18:03:22
Nicht wenn Low End in die CPU soll bzw wandert.

Kommt ganz drauf an was man genau mit "low end" meint; im gegebenen Fall ist es wurscht ob es sich um einen integrierten (IGP) oder eingebetteten (SoC) Grafikprozessor handelt. Wenn Du in einem SoC zu viel die area fuer Grafik investierst, musst Du dann auch an den CPU cores zurueckschneiden. Bei einem low end PC dass sowieso nichts besonderes auf die Beine stellen kann was 3D betrifft, profitiert der Verbraucher wohl doch mehr von einer relativ starken CPU, anstatt diesen abzuschwaechen und die eher redundanten GPU Einheiten in der Mehrzahl der Faelle dumm herumhocken zu lassen.

Ausser Du stellst Dir vor dass GPGPU so schnell jegliche heutige Verhaeltnisse aendern koennte.

Gast
2009-11-11, 19:53:29
Meine Informationen zur Verfügbarkeit der Radeon 58xx Karten (arbeite im Einkauf):

Erst haben AMD und ihre Boardpartner zum Start der 58xx Serie den E-Tail massiv bevorzugt und Retail (MM, Satan, Medimax, Euronics, Expert, etc ...) so gut wie keine Karten gegeben.

Das sieht für Ende November nun sehr wahrscheinlich anders aus, denn da wird der gute "Mario" diese Karten in einem bundesweit gestreuten Flyer anpreisen, und MM besteht ja auf Verfügbarkeit.

Ausserdem gingen nun erste nennenswerte Mengen von 58xx Karten zu den OEMs.
Ich tippe dabei auf Acer und Medion, die in Deutschland ab Ende November / Anfang Dezember Fertig PCs mit 58xx und 57xx auch in grösseren Stückzahlen in überregionalen Werbungen anbieten werden können.

By the way:
Im neuen Acer Notebook Line Up für Februar 2010 sind so gut wie keine NVIDIA Grafikchips mehr zu finden.
Es wimmelt aber durch alle Preisklassen von HD 56xx, 57xx und 5850 SKUs.

Erfreulich für AMD: auch Toshiba stellt dann spätestens zur CeBit komplett auf die HD 5xxx um.

Zu guter Letzt gibt es noch dann die OEMs die wohl in Q1/2010 wieder AMD Notebooks auflegen werden.
Vielleicht auch in der Hoffnung bei der Verteilung der Grafikkarten eher berücksichtigt zu werden ... Kanditaten wären da, so erzählt man sich gerade, Sony und Lenovo ...

AnarchX
2009-11-11, 21:39:30
Vorerst keine 32nm GPUs für Mobile:
http://img69.imageshack.us/img69/6393/40nmmobile.jpg (http://img69.imageshack.us/i/40nmmobile.jpg/)
http://phx.corporate-ir.net/External.File?item=UGFyZW50SUQ9MjAzMjl8Q2hpbGRJRD0tMXxUeXBlPTM=&t=1

Interessant ist jedoch der GDDR5-Support bei Park.

Deinorius
2009-11-11, 21:52:20
Vorerst keine 32nm GPUs für Mobile:


Nicht überraschend, wenn nichtmal der 40 nm Prozess zufriedenstellend genug läuft.

Anscheinend dürfte der Einsatz von GDDR5 billiger sein, als ein höheres SI. Glaub ich sogar gern.

reunion
2009-11-12, 19:08:18
Vorerst keine 32nm GPUs für Mobile:
http://img69.imageshack.us/img69/6393/40nmmobile.jpg (http://img69.imageshack.us/i/40nmmobile.jpg/)
http://phx.corporate-ir.net/External.File?item=UGFyZW50SUQ9MjAzMjl8Q2hpbGRJRD0tMXxUeXBlPTM=&t=1

Interessant ist jedoch der GDDR5-Support bei Park.

Hm, was ist mit dem vierten Core?

Coda
2009-11-12, 19:12:53
Interessant ist jedoch der GDDR5-Support bei Park.
Könnte billiger sein, wenn man nur ein 32-Bit-SI mit Clamshell-Mode macht statt 64-Bit-GDDR3.

MR2
2009-11-12, 21:13:44
AMD werde im ersten Quartal 2010 außerdem eine neue Grafikkarte namens Radeon HD 5870 XTX veröffentlichen, für die handverlesene Grafikchips verwendet werden sollen.

http://www.gamestar.de/hardware/news/grafikkarten/2310491/amd.html

AnarchX
2009-11-12, 21:16:22
Wobei man da nicht gerade auf eine werbewirksame Speichermenge kommt.
Dafür braucht man wohl schon 4 Speicherchips, die man zwar auch ein 32-Bit SI anbinden könnte.

Einzige Vorteile bei einem 32-Bit SI wäre wohl, dass man das Pad noch etwas weiter verkleinern kann. Aber Cedar (was wohl Park ist) soll immerhin P2x00 in Vantage erreichen.

AMD werde im ersten Quartal 2010 außerdem eine neue Grafikkarte namens Radeon HD 5870 XTX veröffentlichen, für die handverlesene Grafikchips verwendet werden sollen.

http://www.gamestar.de/hardware/news/grafikkarten/2310491/amd.html
Wenn dann wohl eher Cypress XTX, der dann eine passende SKU-Bezeichnung bekommt: 5890 oder 5950/30?

Auf dem Analyst Day hat man übrigens geäußert, dass man an einer 5 TFLOPs Grafikkarte arbeitet. Entweder hat man da großzügig aufgerundet oder Hemlock wird doch einen GPU-Takt in Richtung 800MHz haben.

S940
2009-11-12, 23:43:26
AMD werde im ersten Quartal 2010 außerdem eine neue Grafikkarte namens Radeon HD 5870 XTX veröffentlichen, für die handverlesene Grafikchips verwendet werden sollen.

http://www.gamestar.de/hardware/news/grafikkarten/2310491/amd.html
Auszug daraus am Ende:
Doch AMD plant angeblich für den gleichen Zeitraum auch eine »große Überraschung«, bei der es sich dann anscheinend nicht um die XTX-Karte handelt. Hat AMD ein weiteres Ass gegen die Fermi-Geforce im Ärmel?
Große Überraschung ? Immer diese Geheimniskrämerei ^^
Ob sie wohl den vermutlichen 32nm Chip Cedar meinen ?

Wenn sie gleich Cypress @32nm brächten wäre das wirklich eine dicke Überraschung :biggrin:

ciao

Alex

AnarchX
2009-11-12, 23:52:53
Naja, ein 32nm Cypress für Q1 ist wohl höchstens als Wafer zeigbar.
Und Cedar/Park wird wohl im Q1 erst noch in 40nm kommen.
Im Endeffekt könnte der GDDR5-Support vielleicht das sein, was man bei Chiphell als besonders ansieht.

AnarchX
2009-11-13, 08:58:49
Der MSRP der 5970 liegt wohl bei $599:
http://www.google.com/products?q=HIS%20H597F1GDG&hl=en&ie=UTF-8&tab=nf
... wozu unsere ~500€ passen.

Der tatsächliche Marktpreis könnte dann wohl aber doch noch etwas höher ausfallen.

AnarchX
2009-11-14, 11:22:51
"Hemlock will get launched next week," said AMD Senior Vice President Rick Bergman, speaking Wednesday morning at the conference which was streamed live. "It's in production. You'll be able to buy it at e-tailers around the world. You can see there are two GPUs. Five Teraflops out of this baby," he said. (GPU stands for graphics processing unit. A teraflop is a trillion floating point operations per second, a key indicator of graphics performance.)
http://news.cnet.com/8301-13924_3-10395304-64.html?tag=mncol;posts

reunion
2009-11-14, 11:30:40
Das bedeutet wohl Minimum 800Mhz Takt. An eine krumme Zahl zwischen 782-799Mhz glaube ich nicht.

Deinorius
2009-11-14, 19:45:51
Jessas Maria, wie hoch da bloß der Stromverbrauch sein wird? :ucrazy3:
Der Spieleverbrauch mit unter 300 W geht sich ja noch aus, aber die 380 W, die dieser unter 3dmark Vantage verbrauchen dürfte, müssen doch auch versorgt werden.

deekey777
2009-11-15, 22:58:48
"EG CEDAR" = ati2mtag_Evergreen, PCI\VEN_1002&DEV_68F8
"EG CEDAR " = ati2mtag_Evergreen, PCI\VEN_1002&DEV_68FE
"EG REDWOOD" = ati2mtag_EvergreenGL, PCI\VEN_1002&DEV_68C9
"EG REDWOOD " = ati2mtag_Evergreen, PCI\VEN_1002&DEV_68DE

Aus 8.68. Hm...
(5900er sind auch dabei)

AnarchX
2009-11-16, 09:13:33
Die sind auch neu:
"ATI Radeon HD 5450" = ati2mtag_Evergreen, PCI\VEN_1002&DEV_68F9
"ATI Radeon HD 5570" = ati2mtag_Evergreen, PCI\VEN_1002&DEV_68D9
"ATI Radeon HD 5670" = ati2mtag_Evergreen, PCI\VEN_1002&DEV_68D8
Die erste ein Cedar, die anderen beiden offenbar Redwood (68Dx).

Wobei das zum Teil auch OEM-SKUs sein könnten, wovon es bei HD 4000 auch reichlich im Treiber gab.

AnarchX
2009-11-16, 12:31:29
Das bedeutet wohl Minimum 800Mhz Takt. An eine krumme Zahl zwischen 782-799Mhz glaube ich nicht.
Oder man hat sehr großzügig aufgerundet:
http://www.fudzilla.com/content/view/16437/1/
...4,64 TFLOPs und 294W TDP.

Gast
2009-11-16, 13:01:18
Oder man hat sehr großzügig aufgerundet:
http://www.fudzilla.com/content/view/16437/1/
...4,64 TFLOPs und 294W TDP.

Oder Fuzilla hat einfach die 725MHz genommen und mit der Anzahl der Shader multipliziert. ;)

w0mbat
2009-11-16, 18:29:42
http://forum.beyond3d.com/showpost.php?p=1359262&postcount=4698

294W TDP o.O

Coda
2009-11-16, 18:36:01
Doch ne PLX-Bridge? :|

Gast
2009-11-16, 18:46:18
http://forum.beyond3d.com/showpost.php?p=1359262&postcount=4698

294W TDP o.O

Mit der "massive Vapor Chamber" könnte das ganze doch sogar recht leise gekühlt werden.
Der PLX Chip ist natürlich eine Entäuschung - aber damit war zu rechnen. Vielleicht gibt es wenigstens AFR ohne Mikroruckler.

Botcruscher
2009-11-16, 18:48:17
TDP war doch genau so erwartet. Die Paintpfeile und das Preisschild sehen lustiger aus.:freak:

Coda
2009-11-16, 18:53:39
Mit der "massive Vapor Chamber" könnte das ganze doch sogar recht leise gekühlt werden.
Der PLX Chip ist natürlich eine Entäuschung - aber damit war zu rechnen. Vielleicht gibt es wenigstens AFR ohne Mikroruckler.
Bitte was? X-D

"Och ne, da isn PLX drauf, aber das Crossfire funktioniert perfekt ohne MR. Na dann kauf ich's doch nich" ;D

Ernsthaft: Der PLX ist nur für ATi ein Problem, weil er teuer zugekauft werden muss und mehr Platz verbraucht.

reunion
2009-11-16, 19:16:52
Doch ne PLX-Bridge? :|

Was hast du denn erwartet? Wo ist das Problem?
Enttäuschend finde ich vorllem das der Speichertakt trotz 5Gbps Chips nur bei einem Ghz liegt. Der Chiptakt ist wohl eine Notwendigkeit um unter 300W zu bleiben.
Gut scheint auf jeden Fall wieder die geringe idle-Leistungsaufnahme. Spannend wird dann noch die Vapor-Chamber Kühlung, vielleicht schafft man es ja damit erstmals 300W halbwegs leise zu kühlen. Der Preis liegt wie erwartet bei $599.

AnarchX
2009-11-16, 19:43:52
Eine 8+8 Pin Option wäre auch nicht schlecht gewesen, wenn man schon so mit OCing wirbt.

Sorkalm
2009-11-16, 20:18:54
Enttäuschend finde ich vorllem das der Speichertakt trotz 5Gbps Chips nur bei einem Ghz liegt. Der Chiptakt ist wohl eine Notwendigkeit um unter 300W zu bleiben.

Man wird wohl hochwertige Speicherchips brauchen, damit die bei niedrigere Spannung die Leistungsaufnahme nicht so erhöhen. Mit 4 Gbps wäre die Leistungsaufnahme wohl deutlich höher (bei 1 GHz versteht sich).

Deinorius
2009-11-16, 20:35:47
Warum gibt ATI für die 5870 und 5850 immer noch 27 W Idle an, obwohl doch überall knapp 21 W gemessen wurden? Für die 5970 werden ja auch 42 W angegeben, was ja ziemlich genau zwei 58xx Karten entspricht.

reunion
2009-11-16, 20:42:12
Warum gibt ATI für die 5870 und 5850 immer noch 27 W Idle an, obwohl doch überall knapp 21 W gemessen wurden? Für die 5970 werden ja auch 42 W angegeben, was ja ziemlich genau zwei 58xx Karten entspricht.

AMD gibt natürlich Maximalwerte an. Die 5970 wird unter 2x 58xx liegen, das war auch schon bei 4870 X2 und 3870 X2 so. Da kann man wohl einen Chip großteils komplett abschalten im idle.

N0Thing
2009-11-16, 20:46:32
Wie sieht es mit Eyefinity bei der Karte aus? Bisher ist es bei Crossfire noch nicht möglich, oder?

reunion
2009-11-16, 20:52:04
Wie sieht es mit Eyefinity bei der Karte aus? Bisher ist es bei Crossfire noch nicht möglich, oder?

Kommt mit dem Cat 9.11 (oder wars 9.12?) der morgen kommt. Die Karte hat 2xDVI plus 1 x Mini DP, könnte also zumindest drei Displays ansprechen.

Deinorius
2009-11-16, 21:08:47
AMD gibt natürlich Maximalwerte an. Die 5970 wird unter 2x 58xx liegen, das war auch schon bei 4870 X2 und 3870 X2 so.


Maximalwerte mit zwei Monitoren sind das aber nicht. ;D Der Idle-Verbrauch ist bei beiden 58xx Karten relativ gleich, da dürfte das kaum einen großen Unterschied machen.

Da kann man wohl einen Chip großteils komplett abschalten im idle.


Das wär' ja ganz was Neues.

Sorkalm
2009-11-16, 21:16:21
Maximalwerte mit zwei Monitoren sind das aber nicht. ;D Der Idle-Verbrauch ist bei beiden 58xx Karten relativ gleich, da dürfte das kaum einen großen Unterschied machen.

Ne, aber wohl für den Powerstate 157E/400M, der nur mit einem Monitor läuft.
Außerdem meint reunion, dass eine Dual-Karte weniger verbraucht, als zwei einzelne Karten, weil nicht alles doppelt vorhanden ist.

Deinorius
2009-11-16, 21:25:01
Ach so, ja dann liegt der realistisch Verbrauch vielleicht sogar bei unter 35 W. Für eine Dual-GPU Karte verdammt gut.

reunion
2009-11-16, 21:32:19
Außerdem meint reunion, dass eine Dual-Karte weniger verbraucht, als zwei einzelne Karten, weil nicht alles doppelt vorhanden ist.

Richtig. :)

Coda
2009-11-16, 21:43:11
Was hast du denn erwartet? Wo ist das Problem?
Ne Custom-Bridge wie bei NVIDIA auch. Das Problem ist wie gesagt, dass sie dafür mehr zahlen. Bei den Absatzzahlen sollte sich das eigentlich lohnen was eigenes zu entwickeln.

AnarchX
2009-11-16, 22:00:58
Oder gleich einen Hydra. :D

YfOrU
2009-11-16, 22:37:17
Eine 8+8 Pin Option wäre auch nicht schlecht gewesen, wenn man schon so mit OCing wirbt.

Das PCB auf der Folie hat auch 8+8. Die Buchsen sind im Referenzdesign als 6+8 ausgeführt. "supports up to 400w" sagt dann eigentlich schon wo die Richtung hingehen wird. Bleibt nur noch die Frage ob die Hersteller direkt übertaktete Varianten anbieten dürfen oder ob es dem Endkunden überlassen wird um im Auslieferungszustand innerhalb der Spezifikationen bleiben zu können.

Eine 5870 in dem Stil mit selektierten Chips wäre mir lieber :)

Coda
2009-11-16, 22:47:47
Weiß man eigentlich wann die 2GiB 5870-Boards zu kaufen sind?

Coda
2009-11-16, 22:50:04
Richtig. :)
Was ist denn nicht doppelt vorhanden was irgendwie relevant wäre?

Die absoluten Hauptverbraucher sind die GPUs, die Spannungsregler und der Speicher. Das ist alles doppelt da.

Dazu kommt noch der PLX-Chip mit Spannungsregelung.

pest
2009-11-16, 22:56:22
ich könnte mir vorstellen das die niedrigen Takte der HD5970 tatsächlich der PCIe-Spec geschuldet sind. Sonst würden sie das Ding wohl nicht als OC-Monster bewerben.

YfOrU
2009-11-16, 23:06:34
Auch sehr interessant, das PCB ist wie bei fast allen Karten (Referenzdesign) etwas länger als nötig. Hierbei ist gut zu sehen das sich eine 5850 bzw. 5870 deutlichst kürzer konstruieren lassen würde solange eine leistungsfähigere Kühlung verbaut wird. Es scheint aber das ein größeres PCB (das ebenfalls Wärme ableitet) und ein flächenmäßig größerer Kühlkörper die günstigere Variante sind.

CompuJoe
2009-11-17, 05:39:12
Sehe ich das richtig?

http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/november/hd_5970_grafikmonster_luft/

Memory Bandwidth 256GB/s

Würde für mich bei den etwas geringeren Takt auf ein 512Bit SI hindeuten.

Coda
2009-11-17, 05:48:10
Es sind natürlich 2x256 Bit.

CompuJoe
2009-11-17, 05:49:53
Dacht ich mir schon ^^
Haben wieder mal zusammengerechnet.

deLuxX`
2009-11-17, 07:30:05
Dacht ich mir schon ^^
Haben wieder mal zusammengerechnet.

Wie sonst alles andere auch auf der Folie.:rolleyes:

AnarchX
2009-11-17, 08:44:15
Das PCB auf der Folie hat auch 8+8. Die Buchsen sind im Referenzdesign als 6+8 ausgeführt.
Das Referenz-Design sollte schon 8+8 unterstützen.

Hier gibt es noch ein paar Folien mit Benchmarks:
http://www.czechgamer.com/hardware/76/ATI-Radeon-HD-5970-vykon-v-grafech.html

Reaping_Ant
2009-11-18, 06:56:16
Schon mal ein paar Reviews der 5970:

Computerbase (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5970/)
PCGH (http://www.pcgameshardware.de/aid,699599/Test-Radeon-HD-5970-Hemlock-Die-schnellste-DirectX-11-Grafikkarte-der-Welt/Grafikkarte/Test/?page=12)
HardOCP (http://www.hardocp.com/article/2009/11/18/amd_ati_radeon_hd_5970_video_card_review/1)

Wie erwartet kaum schneller als 5850 Crossfire, dafür überraschend gut was Lautstärke und Leistungsaufnahme angeht.

EDIT: Hoppla, hatte gar nicht gesehen, dass es im Grafikchip Forum schon einen (P)Review Thread zur 5970 gibt. Da passt mein Beitrag wohl besser hin.

Ascenca
2009-11-30, 19:24:46
Hallo zusammen

Gibt es schon Neuigkeiten bzgl. des Releases der Radeon 5670 oder Spekulationen/Gerüchte zu den Specs der Karte?
Würde mich für meinen HT-/Gaming-PC Hybrid sehr interessieren.

Grüsse
Ascenca

AnarchX
2009-12-02, 09:49:14
HD 5670:

http://img4.imageshack.us/img4/6881/34184165.png (http://img4.imageshack.us/i/34184165.png/)


http://img691.imageshack.us/img691/7956/img0810h.jpg (http://img691.imageshack.us/i/img0810h.jpg/)

http://www.hardforum.com/showthread.php?t=1471938

Laut den Benchmarks 20-40% schneller als die HD 4670, was zu 400SPs @775MHz passen würde.
Da man hier wohl auch wieder 0.4ns GDDR5 einsetzen muss, ist die Bandbreite wohl schon fast etwas zuviel des guten. :D

Botcruscher
2009-12-02, 09:53:56
Redwood? PS: Steht ja sogar da. XD

StefanV
2009-12-02, 09:56:22
Oh, singleslot, nett.
Aber nur DVI, DP HDMI und VGA, doof.
Oder unterstützt das Teil keine 3 Ausgänge?? (nach dem PCB Layout müssts das eigentlich)

Ascenca
2009-12-02, 10:06:46
Hoffe auf eine passive Version! Hat ja schon mit der 5750 geklappt (von Club3D (http://www.golem.de/0911/71013.html)). Sollte darum kein Problem darstellen...

Bin auf die Verlustleistungswerte der 5670 gespannt, vermute mal sie werden im Idle im Bereich der 5750 liegen (+/- 15W), vielleicht noch was darunter (hoffe sogar unter 10W) und unter Last nicht mehr als 40W (5750 bei 60-70W unter Last).

Quelle für Werte der 5750: HT4U (http://ht4u.net/reviews/2009/sapphire_radeon_hd5750_vaporx/index12.php)

Zu utopisch?

Ascenca

Sorkalm
2009-12-02, 13:00:55
Hmm, 20 oder 40 TMUs? Bei den Ergebnissen würde ich ja auf 40 tippen, dann wäre es in der Hinsicht auch nicht geviertelt worden von Cypress aus, sondern (wie auch bei der Speicherbandbreite) nur halbiert.

X.Perry_Mental
2009-12-02, 14:11:18
HD 5670:
http://img4.imageshack.us/img4/6881/34184165.png (http://img4.imageshack.us/i/34184165.png/)

103,3 GTexel/s scheinen etwas zu viel... da wird wohl eine neue Version von GPU-Z fällig sein.

Gast
2009-12-02, 16:37:50
Die Performance sieht ja ganz gut, wenn nun auch noch die Leistungsaufnahme unter load auf 35w-40w zurück geht, hat ATI alles richtig gemacht. Ich kann mir aber nicht vorstellen, dass sie die Leistungsaufnahme im idle der 4670 unterbieten können.

Ronny145
2009-12-02, 16:54:11
Bin auf die Verlustleistungswerte der 5670 gespannt, vermute mal sie werden im Idle im Bereich der 5750 liegen (+/- 15W), vielleicht noch was darunter (hoffe sogar unter 10W) und unter Last nicht mehr als 40W (5750 bei 60-70W unter Last).


Eigentlich müsste die drunter liegen. Die Karte ist noch ein Stückchen kleiner, hat weniger Leistung und der gute 2D Modus sollte doch auch bei der Karte vorhanden sein.

AnarchX
2009-12-02, 16:56:46
Dafür sind aber auch 1GiB GDDR5 verbaut und von Cypress zu Juniper sinkt der Verbrauch auch nicht so sehr, als dass die GPU hier der Hauptverbraucher im Idle ist.

katzi
2009-12-02, 17:04:13
Wie groß ist eigentlich Redwood? Gibt es schon irgendwelche Informationen dazu?

Deinorius
2009-12-02, 19:48:01
Spricht eigentlich irgendwas dagegen, im Idle-Betrieb z.B. die Hälfte bzw. 3/4 des Grafik RAM zu deaktivieren? Es würde ja immer noch völlig ausreichen.

Limit
2009-12-04, 09:20:38
Spricht eigentlich irgendwas dagegen, im Idle-Betrieb z.B. die Hälfte bzw. 3/4 des Grafik RAM zu deaktivieren? Es würde ja immer noch völlig ausreichen.

Es ist möglich, aber nicht so ganz trivial, wie man auf den 1. Blick denken könnte. Das kleinere Problem ist, dass man eine zusätzliche Schaltung braucht um Teile des Speichercontrollers + VRAMs deaktivieren zu können.

Das größere Problem ist, dass man keinen Teil des VRAMs abschalten kann, solange auch nur ein einziges Byte darin in Benutzung ist. Lösung dafür wäre es, dass man den VRAM grundsätzlich statisch aufteilt und Bereiche nur für spezielle Zwecke reserviert, was aber reichlich unflexibel ist. Alternativ erweitert man die Logik des Speichercontrollers, so dass dieser Speicheradressen ummappen kann, d.h. wenn ein Speicherbereich schlafen gelegt werden soll, werden die noch benutzten Teile verschoben und die neue Logik lenkt alle Zugriffe auf diese Adressen transparent für den Benutzer auf die neuen Adressen um. Hier an der Uni wird an an solch einer Erweiterung (allerdings für "dicke" Server) gearbeitet.

Sorkalm
2009-12-04, 14:31:07
Dieses Notebook hier soll eine Mobility Radeon HD 5850 mit 1 GB DDR3 besitzen...:
http://www.comdeal.de/PC-Systeme/NOTEBOOKS/nach-Prozessor/Intel-Core-2-Duo/Aspire-8942G-728G1280TWn::81274.html

AnarchX
2009-12-04, 14:37:26
DDR3 klingt etwas mager für eine HD 5850, gerade auch bei einem Gerät für >1800€.

reunion
2009-12-04, 15:10:51
Ich denke es wird keinen Cypress für NBs geben. AMD hat nur drei Chips für NBs auf der Roadmap. Daher ist die Mobility HD5800 wohl Juniper. Aber interessant dass das NB schon am 18.Dezember erhältlich sein soll. AMD wird die Chips wohl zu CES Anfang Januar vorstellen:

http://img705.imageshack.us/img705/4576/filek.jpg (http://img705.imageshack.us/i/filek.jpg/)

Sorkalm
2009-12-04, 15:53:05
Ich denke es wird keinen Cypress für NBs geben. AMD hat nur drei Chips für NBs auf der Roadmap. Daher ist die Mobility HD5800 wohl Juniper. Aber interessant dass das NB schon am 18.Dezember erhältlich sein soll. AMD wird die Chips wohl zu CES Anfang Januar vorstellen:

Hab ich zwar auch schon mal überlegt, aber dann wäre DDR3 extrem unwahrscheinlich.

Botcruscher
2009-12-04, 16:12:32
Womöglich auch einfach ein Druckfehler? Der Preis von DDR3 dürfte inzwischen auch nicht besser sein und der Verbrauch ist auch nicht besser.

AnarchX
2009-12-04, 16:47:48
Ein Juniper als Mobilty HD 5800 wäre doch etwas enttäuschend, ein Cypress @550/1000MHz wäre hier wohl durchaus möglich gewesen, ohne TDP-Probleme zu bekommen.

Die 3 GPUs auf der Mobile-Roadmap sind natürlich ein Argument.

Nakai
2009-12-04, 16:55:03
Cypress wird wohl dann als HD59xx-Mobility auf den Markt kommen. Natürlich mit deutlich reduzierten Taktraten.
Anscheinend kann man derzeit keine Cypress-Chips für den Notebookmarkt entbehren. Verständlich, da hier die kleineren Chips mehr gefragt sind.


mfg

Botcruscher
2009-12-04, 17:16:02
Dann soll man das Ding aber nicht 5850 nennen. Die übliche M-Verarsche zieht hier auch nicht. Das läuft ja schon fast wie bei NV. Die 5850 ist ein klar definiertes Produkt.

Sorkalm
2009-12-04, 20:01:14
Die übliche M-Verarsche zieht hier auch nicht.

Doch, steht ja nen Mobility davor. Und egal ob Juniper oder Cypress, an Desktop HD 5850 wird man eh nicht heranreichen (wenn dann sowieso nich durch Taktraten).
Sind halt alles nur gewinnmaximierende Unternehmen. ;)

Aber naja, erstmal abwarten und dann schauen was wird. Einen Juniper würde ich als Mobility HD 5800 zumindest GDDR5 vorschreiben, den @ (G)DDR3 kann ich mir für die Bezeichnung nicht vorstellen.

reunion
2009-12-05, 08:50:05
Ein Juniper als Mobilty HD 5800 wäre doch etwas enttäuschend, ein Cypress @550/1000MHz wäre hier wohl durchaus möglich gewesen, ohne TDP-Probleme zu bekommen.

Die 3 GPUs auf der Mobile-Roadmap sind natürlich ein Argument.

Ohne TDP-Probleme zu bekommen ist halt ein sehr relativer Begriff. Die Mobility HD4850/4870 sind die mit Abstand schnellsten mobilen GPUs, trotzdem werden sie kaum verbaut. Die Leistungsaufnahme ist einfach schon zu hoch für ein Notebook. Ein RV870 wird man kaum sparsamer als eine RV770 bekommen, ganz im Gegenteil. Ich glaube so eine GPU hätte in einem NB wenig Sinn.

reunion
2009-12-05, 09:01:36
BTW, erster Die-Shot eines Cypress:

http://img51.imageshack.us/img51/411/filer.jpg (http://img51.imageshack.us/i/filer.jpg/)

http://www.planet3dnow.de/vbulletin/showthread.php?t=371501#content_start

reunion
2009-12-05, 09:03:07
Und nochwas: ATI preps 12 new graphics cards for CES 2010 launch

AMD - ATI is not exactly sitting still. It is now rumoured that during CES 2010 (January) in Las Vegas ATI will introduce the entry level graphics cards. You can expect no less than twelve new models (give or take) !

We'll see Radeon HD 5400, HD 5500 and 5600 series graphics cards. Apparently in the 5600 series there will be six models alone.

http://www.guru3d.com/news/ati-preps-12-new-graphis-cards-for-ces-2010-launch/

Deinorius
2009-12-05, 09:14:06
Hä? Haben die sich verzählt?

S940
2009-12-05, 09:14:45
BTW, erster Die-Shot eines Cypress:

[/URL][URL]http://img51.imageshack.us/img51/411/filer.jpg (http://img51.imageshack.us/i/filer.jpg/)

Sicher ? Abgesehen von der Farbe sehe ich da keinen Unterschied zur Vorgängerversion:
http://www.planet3dnow.de/photoplog/file.php?n=8097&w=o
http://www.planet3dnow.de/photoplog/file.php?n=8096&w=o

Sieht mir also weniger nach Cypress sonder eher nach eingefärbten RV770 aus ..

ciao

Alex

reunion
2009-12-05, 09:17:34
Sicher ? Abgesehen von der Farbe sehe ich da keinen Unterschied zur Vorgängerversion:
http://www.planet3dnow.de/photoplog/file.php?n=8097&w=o
http://www.planet3dnow.de/photoplog/file.php?n=8096&w=o

Sieht mir also weniger nach Cypress sonder eher nach eingefärbten RV770 aus ..

ciao

Alex

Stimmt, hast recht. Dann bleibt weiter nur das:

http://img36.imageshack.us/img36/9695/diapo00618fa9f21903558a.jpg (http://img36.imageshack.us/i/diapo00618fa9f21903558a.jpg/)

AnarchX
2009-12-05, 09:48:34
Stimmt, hast recht. Dann bleibt weiter nur das:

http://img36.imageshack.us/img36/9695/diapo00618fa9f21903558a.jpg (http://img36.imageshack.us/i/diapo00618fa9f21903558a.jpg/)
Was nachweislich ein Fake ist.

Hä? Haben die sich verzählt?
Vielleicht zählt man hier Mobile und Desktop zusammen, wobei 3 HD5600 für Desktop doch etwas merkwürdig wären, einen großen preislichen Spielraum hat man bei wohl <=70€ eher nicht.

Deinorius
2009-12-05, 09:53:27
Das wärs vielleicht, aber zwei Desktop und 4 Mobile Varianten klingen auch nicht wirklich plausibel. Und eine mögliche Green Edition für Desktop wäre irgendwie unnötig. Die 5600 Reihe ist schon green genug.

reunion
2009-12-05, 09:55:05
Vielleicht zählt man hier Mobile und Desktop zusammen, wobei 3 HD5600 für Desktop doch etwas merkwürdig wären, einen großen preislichen Spielraum hat man bei wohl <=70€ eher nicht.

Modelle mit unterschiedlicher Speicherausstattung, mit oder ohne Eyefinity, etc. Da kann schon was zusammen kommen. Aber mal abwarten.

AnarchX
2009-12-09, 17:10:07
HP mit HD 5330 und HD 5570:
http://www.engadget.com/2009/12/09/hp-leaks-forthcoming-radeon-gpus-core-i3-cpus-hulu-and-netflix/

Spasstiger
2009-12-09, 18:01:18
Sind Jaguar und Evora Cedar zwei GPU-Serien, die unabhängig voneinander gefertigt werden, oder sind das produktionstechnisch gesehen dieselben Chips?

Gast
2009-12-16, 13:21:26
MSI will launch HD5870 Lightning at the CES: http://vr-zone.com/forums/521468/msi-will-launch-hd5870-lightning-at-the-ces.html

WTF?!?!?!

Botcruscher
2009-12-16, 13:45:48
Lol, was soll das werden? Eine 1,1GHz OC Version?

Tarkin
2009-12-16, 20:08:34
Laut CJ im Beyond3d Forum soll die Karte "Not "just" overclocked." sein ... was auch immer er damit wieder meint :biggrin:

ES war ja mal von einer "Überraschung" die Rede... hm

S940
2009-12-16, 20:38:22
ES war ja mal von einer "Überraschung" die Rede... hmJa, aber das war doch beim Cedar ...
Vielleicht verbauen sie ja 4GB RAM oder so und verkaufen das als super toll ...

Coda
2009-12-16, 21:59:38
12 Phasen Spannungswandler und nen dicker Kühler halt. Auch wenn sie nicht übertaktet ausgeliefert wird ist sie auf jeden Fall prädestiniert dafür.

S940
2009-12-16, 22:03:11
Hm, ne 5890 ?
http://vr-zone.com/forums/521275/ati-radeon-hd-5830-5890-nvidia-geforce-gts-350-gtx-360-and-380-are-coming.html

derguru
2009-12-17, 15:40:42
schon länger nicht reingeschaut,schon bekannt?
http://www.abload.de/img/bhegrp50.jpg

Undertaker
2009-12-17, 15:43:41
28nm Q1 2010? 384Bit SI? Extra Chips mit 1920/1760 Shadern?

Ich denke nicht...

AnarchX
2009-12-17, 15:43:46
Spekulationen ohne Substanz, wie sie schon öfters bei Wikipedia eingetragen wurden.

derguru
2009-12-17, 15:45:39
ach das ist von wiki? ja dann.:biggrin:

StefanV
2009-12-17, 15:51:19
Ich denke nicht...
Ich halte das für möglich.

Meine Infos zur 5890 sagen ebenfalls, dass das nicht nur ein übertakteter Cypress sein soll...

mapel110
2009-12-17, 15:56:12
28nm ist jedenfalls nur ein feuchter Traum. Vor Mitte 2011 wird das nichts.

AnarchX
2009-12-17, 16:02:30
@StefanV
Was aber noch lange nicht heißt, dass irgendwas an dieser abenteuerlichen Spekulation (28nm@Q1, 384-Bit SI) dran ist.

Für einen Refresh Mitte 2010 gäbe es wohl weiterhin nur 40nm, wo man jetzt schon bei 334mm² ist.
Q1 2010 wird wohl eher im Zeichen von 2GiB HD 5800 und Karten auf Basis des Design-Kits stehen.

Sorkalm
2009-12-17, 16:46:09
ach das ist von wiki? ja dann.:biggrin:

Ja, das ist von der englischen Wikipedia. In der dt. würde sowas Ruckzuck wieder rausfliegen, weil als Spekulation eben nicht unterlegt...

StefanV
2009-12-17, 17:41:00
@StefanV
Was aber noch lange nicht heißt, dass irgendwas an dieser abenteuerlichen Spekulation (28nm@Q1, 384-Bit SI) dran ist.Also ich hab schon gehört, dass AMD an einem 512bit Chip arbeiten soll bzw sowas 'im Labor' haben.
Was denn nun passieren wird, abwarten und Tee rauchen.
Ich halte es durchaus für möglich.
Für einen Refresh Mitte 2010 gäbe es wohl weiterhin nur 40nm, wo man jetzt schon bei 334mm² ist.
Q1 2010 wird wohl eher im Zeichen von 2GiB HD 5800 und Karten auf Basis des Design-Kits stehen.
Warum sollte man bei TMSC bleiben?

Ich denke, dass AMD äußerst verärgert über die 40nm Situation bei TMSC ist und parallel zu den RV870 ebenso an einem CHip für die 'Eigenfertigung' bei GF gearbeitet hat.
Ob das jetzt 32nm oder schon 28nm sein wird, ist die Frage, fakt ist, dass man wohl kaum (noch) Lust hat, auf eine bessere Fertigung bei TMSC zu warten und hier eventuell auch deshalb nicht allzu viele Chips da bestellt hat, weil man auch noch einen 'Plan B' Hat...

AnarchX
2009-12-17, 17:56:34
Simulieren kann man viel, zu GT200@GDDR5 gab es wohl auch Simulationen.
Aber ob man bei AMD in naher Zukunft nochmal ein 512-Bit SI sieht, halte ich eher für zweifelhaft. Mit der aktuellen Strategie fährt man doch ziemlich gut und für Northern Islands sollte schon 6Gbps GDDR5 bereitstehen. Auch wäre es eher ratsam, daran zu arbeiten, dass man den IMC auch wie NV in 64-Bit Schritte skalieren kann, was wohl momentan noch nicht möglich ist.


Warum sollte man bei TMSC bleiben?

Ich denke, dass AMD äußerst verärgert über die 40nm Situation bei TMSC ist und parallel zu den RV870 ebenso an einem CHip für die 'Eigenfertigung' bei GF gearbeitet hat.
Ob das jetzt 32nm oder schon 28nm sein wird, ist die Frage, fakt ist, dass man wohl kaum (noch) Lust hat, auf eine bessere Fertigung bei TMSC zu warten und hier eventuell auch deshalb nicht allzu viele Chips da bestellt hat, weil man auch noch einen 'Plan B' Hat...
Dazu muss sich erstmal zeigen, ob die Fertigung von GPUs @ GF soviel besser läuft als bei TSMC.
Und 32nm kann wohl frühestens im H2 2010 erwarten, was dann eher zu Norhern Islands als zu Evergreen passt.

Undertaker
2009-12-17, 17:58:02
Ich halte das für möglich.

Meine Infos zur 5890 sagen ebenfalls, dass das nicht nur ein übertakteter Cypress sein soll...

Woher hast du denn deine Infos? Und wie lauten die?

Undertaker
2009-12-17, 18:12:01
Mobility HD5650 im Test:

http://www.notebookjournal.de/tests/notebook-review-deviltech-fire-dtx-nkmo-1073

Etwa auf Höhe einer GTS250M.

reunion
2009-12-17, 18:22:37
Für nur DDR3 eine sehr gute Leistung. Die 5650 dürfte wohl auf Redwood basieren, also 400SPs. Auch erstaunlich preiswert.

Undertaker
2009-12-17, 18:27:24
Finde ich auch... Hier auch schon konfigurierbar:

http://www.deviltech.de/deviltech.php/sid/4e9e818a4331eff42c0fbca8536378c9/cl/details/cnid/8a142c3e4143562a5.46426637/anid/8a647c904ec905467.19202626/Fire-DTX/

Nur der hohe Stromverbrauch stört, da wird im obigen Test der i7 aber nicht unschuldig dran sein... Mit einem Core i5 540QM, 4GB Ram und FullHD Display für um die 800€, sehr lecker. :)

Sorkalm
2009-12-25, 14:48:31
AMD Promo-Video für die kleineren Modelle:
http://www.youtube.com/watch?v=K0SIcFMLGeo

Damit wäre zumindest Eyefinity auch in diesem Bereich bestätigt. ;)

AnarchX
2009-12-31, 08:24:56
Redwood/Madison:
http://img190.imageshack.us/img190/7818/35df732b92.jpg (http://img190.imageshack.us/i/35df732b92.jpg/)

ATI Mobility Radeon HD 5650 graphics card review (http://www.notebookcheck.com/ATI-Mobility-Radeon-HD-5650-Grafikkarte-im-Test.23823.0.html)

Wenn man von ~13 mm Seitenlänge beim Clarkfield Die ausgeht, dürften das wohl gar unter 100mm² sein.

Wenn man Neliz glaubt, dann ist wohl Mobility HD 5800 wirklich nur Juniper und Park/Cedar hat nur 80SPs: http://forum.beyond3d.com/showpost.php?p=1373752&postcount=4904

Gast
2009-12-31, 09:53:42
ATI Mobility Radeon HD 5650 graphics card review (http://www.notebookcheck.com/ATI-Mobility-Radeon-HD-5650-Grafikkarte-im-Test.23823.0.html)



Im Rahmen unserer Tests ist die ATI Mobility Radeon HD 5650 wohl am ehesten im Bereich der GTS 250M von Nvidia anzusiedeln, eventuell sogar etwas über dieser. Während die 3DMark Benchmarktests noch das Gegenteil behaupten, kann der praktische Test anhand einer ganzen Reihe an Games durch die Bank überzeugen. In vielen Spielen wird die GTS 250M überboten, vereinzelt bleibt man gleich bzw. knapp unter ihren Ergebnissen. Bedenkt man, dass es sich bei dem Grafikchip in unserem Testsample um ein Modell mit DDR3 Speicher handelte, so würde sogar nach oben hin bei der Ausstattung mit GDDR3 Speicher noch etwas Luft bleiben.


Eine 5650M mit 400 MHz DDR3 ist also schon ein wenig schneller als eine GTS250M. Wie schnell sind dann die Versionen mit GDDR3 und GDDR5 Speicher? 25,6 GB/sec ist nicht gerade viel für eine RV830 GPU. Mit mehr Bandbreite sollten nochmals 20-30% mehr drin sein, oder?

AnarchX
2009-12-31, 10:03:49
Es sind 800MHz beim DDR3 der 5650 und die GTS 250M hat hier auch nur GDDR3.

Wenn man GT 240 DDR3 vs GDDR5 als Basis nimmt, dürften hier wohl noch ~20% zusätzliche Leistung durch den GDDR5 möglich sein:
http://www.pcper.com/article.php?aid=822&type=expert&pid=3

Interessant wird sein, ob sich diese "Mobility HD 5850 DDR3 (http://www.comdeal.de/PC-Systeme/NOTEBOOKS/nach-Prozessor/Intel-Core-2-Duo/Aspire-8942G-728G1280TWn::81274.html)" bestätigen wird. Mit einem Juniper-Die wäre das nur 1/4 der Bandbreite einer Desktop HD 5850 und damit doch eine ziemlich dreiste Bezeichnung.

CJ schreibt ähnliches wie Neliz, dazu aber genauere Transistorzahlen:
De Mobility Radeon HD5870 (Broadway) is zoals het er nu naar uit ziet niet gebaseerd op Cypress, maar op Juniper. De GPU heeft 1.04 Miljard transistors en 800 Streamprocessors en kan gekoppeld worden aan GDDR5, GDDR3 en DDR3 geheugen. De Mobility Radeon 5700 en 5600 Series (Madison) zijn gebaseerd op Redwood en bevatten 400 streamprocessors in een GPU van 626 miljoen transistors. Ook deze GPU is geschikt voor GDDR5, GDDR3 en DDR3 geheugen. De 5400 Serie (Park) is gebaseerd op Cedar en bevat waarschijnlijk 80 streamprocessors in een GPU van 242M transistors. Deze budget GPU kan gekoppeld worden aan GDDR5, GDDR3, DDR3 en DDR2.
http://gathering.tweakers.net/forum/list_messages/1385125/0

Bei Cedar/Park fragt sich wie man da auf P2x00 Vantage kam. Wobei der exakt gleiche Transitorcount wie bei RV710 für gleiche SPs-Anzahl mit zusätzlichen GDDR5 und D3D11 etwas sehr sonderbar klingen...

aylano
2009-12-31, 11:15:13
Interessant wird sein, ob sich diese "Mobility HD 5850 DDR3" bestätigen wird. Mit einem Juniper-Die wäre das nur 1/4 der Bandbreite einer Desktop HD 5850 und damit doch eine ziemlich dreiste Bezeichnung.
Sieht für mich schon fast so aus, als ob ATI die Bezeichnungen mehr an die Watt-Zahlen anpasst, weil das Notebook schließlich niedrigere Grenzen hat, wo ein Juniper dann schon als High-End-Karte gilt.
(Wobei AMD immer noch eine 5900-Karte alias RV870 rausbringen kann)

Das ist wahrscheinlich für die Masse klüger, da sie die Leistung besser einschätzen können bzw. die Leistung/Watt der mobilen GPU zur Moblien CPU ist wieder im selben / ähnlichen Verhältnis wie das Verhältnis im Desktop.

Ein Computer-Interessente, der auch Desktop-GPUs hat, wird sich wahrscheinlich etwas verarscht fühlen, aber viele von der Masse kaufen sich eh nur mehr einen Notebook.

---

Momentan & schon länger versucht AMD ihre Produkte so zu entwerfen (Architektur & Chipgrößen), dass sie möglichst schnell am Markt kommen und trotzdem wirtschaftlich sind.

Somit hat HD 5650 M eben nur 400 Shader und nicht 640.
Mit 25% mehr Shader & 50 Mhz mehr Takt macht man zwar keine doppelten Sprunge, aber ein Gesunden Schritt, der noch mehr als gut gegen die Konkurrenz bestehen kann.

Aber mit einem Gesunden Schritt kann man die Mobilen Versionen sofort auf dem Markt bringen, anstatt durch einem weiteren Respin & Mehr um Monate später.
Siehe 710 & 730, die im Desktop Anfnag 4Q 2008 rauskamen, aber Anfang 1Q 2009 mit kaum Verfügbaren Modellen veröffentlicht wurden, aber weil höchstwahrscheinlich die Yieldraten zu niedrig dafür waren bzw. der Stromverbrauch für die Takte zu hoch war, kam die Massen-Verfügbarkeit erst Anfang 2Q 2009.

Also, von damals 6 Monate, wird das dann auf 3 Monate reduziert oder gar auf 0 Monate, wenn die Verfügbarkeit jetzt dann auch gut ist.

AnarchX
2009-12-31, 11:37:57
Ein Cypress mit 500-550MHz hätte doch im Bereich des möglichen liegen können für Notebook High-End und hätte wohl auch einen ordentlichen Leistungsschub gegenüber der aktuellen HD4870 mit 550/1600MHz geliefert:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_ati_radeon_hd_5000_weitere_details/12/#abschnitt_part_1

Bei Juniper wird sich zeigen müssen, ob man hier überhaupt die 850MHz GPU-Takt der HD 5770 ins Notebook bringen kann.

Gast
2009-12-31, 11:47:27
Ein Computer-Interessente, der auch Desktop-GPUs hat, wird sich wahrscheinlich etwas verarscht fühlen, aber viele von der Masse kaufen sich eh nur mehr einen Notebook.


Na dann. Aber immer schön bei nVidia ein Fass aufmachen. Wäre ja zutraurig, wenn es einen wirklich interessieren würde. :lol:

reunion
2009-12-31, 12:45:37
Ein Cypress mit 500-550MHz hätte doch im Bereich des möglichen liegen können für Notebook High-End und hätte wohl auch einen ordentlichen Leistungsschub gegenüber der aktuellen HD4870 mit 550/1600MHz geliefert:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_ati_radeon_hd_5000_weitere_details/12/#abschnitt_part_1

Bei Juniper wird sich zeigen müssen, ob man hier überhaupt die 850MHz GPU-Takt der HD 5770 ins Notebook bringen kann.

Die Mobility HD4870 wird genau nirgends verbaut. Ein Cypress ist nicht sparsamer als ein RV770, sondern das Gegenteil ist der Fall. Ein Cypress in einem NB macht keinen Sinn. Juniper erreicht die Leistung der 4870 mit erheblich weniger Stromverbrauch und D3D11, das ist das was zählt in NBs. Kritisieren kann man die Bezeichnung, nicht diese Entscheidung IMHO.

aylano
2009-12-31, 13:39:56
Na dann. Aber immer schön bei nVidia ein Fass aufmachen. Wäre ja zutraurig, wenn es einen wirklich interessieren würde. :lol:
War ja klar, dass du sowas sagen musstens. Als Feiglich natürlich versteckt als Gast.

Macht ja auch nichts, dass ich sowas nie sagte.

Ich bin gegen Umlabeln, wenn die Firma es nicht zusammenbringt, Produkte schnell zu entwickeln, aber nicht um eine bessere Übersicht für die meisten Kunden zu machen.
Und ja, das gilt auch für die X2300M, oder wie die auch geheißen hat.

Hingegen hielt ich nie was von einem High-End-GPUs in Notebooks, der ein x-faches mehr Strom verbraucht als die CPU und extrem Rar sind, weils einfach kaum jemand braucht bzw. sinnlos sind.

Ein Cypress mit 500-550MHz hätte doch im Bereich des möglichen liegen können für Notebook High-End und hätte wohl auch einen ordentlichen Leistungsschub gegenüber der aktuellen HD4870 mit 550/1600MHz geliefert:
Möglich ja, aber

a) schon in paar Tagen?
b) mit welcher Yieldrate bzw. mit welcher Verfügbarkeit?
c) warum dann nicht als HD5970M?
Ein Notebook mit RV870 bzw. RV770 wird höchstwahrscheinlich viel weniger gekauft als ein HD 5970-Desktop-GPU


Bei Juniper wird sich zeigen müssen, ob man hier überhaupt die 850MHz GPU-Takt der HD 5770 ins Notebook bringen kann.
Warum so viel Takt? Damit wäre ich überrascht.
Eher 550 (pro) bis 650/700 (XT) Mhz, so wie bei Notebooks-GPUs üblich ist.

BiG OnE
2009-12-31, 14:03:10
Die Mobility HD4870 wird genau nirgends verbaut.
Mein ASUS W90Vp hat aber 2 davon verbaut.

Bis denne ...

reunion
2009-12-31, 14:06:15
Mein ASUS W90Vp hat aber 2 davon verbaut.

Bis denne ...

The one and only....

AnarchX
2010-01-01, 11:29:31
HD 5570 (650/900MHz DDR3):
http://translate.google.de/translate?u=http%3A%2F%2Fwww.pcpop.com%2Fdoc%2F0%2F483%2F483970.shtml&sl=zh-CN&tl=en&hl=&ie=UTF-8

mboeller
2010-01-01, 14:02:39
HD 5570 (650/900MHz DDR3):
http://translate.google.de/translate?u=http%3A%2F%2Fwww.pcpop.com%2Fdoc%2F0%2F483%2F483970.shtml&sl=zh-CN&tl=en&hl=&ie=UTF-8


Na die Karte ist aber putzig! :)

StefanV
2010-01-01, 14:18:49
Kühler fast größer als Karte :freak:

Gast
2010-01-04, 22:59:20
HD 5570 (650/900MHz DDR3):
http://translate.google.de/translate?u=http%3A%2F%2Fwww.pcpop.com%2Fdoc%2F0%2F483%2F483970.shtml&sl=zh-CN&tl=en&hl=&ie=UTF-8

Ist abzusehen wie schnell die sein wird? z.B im Verhältnis zur 4670!?!

deekey777
2010-01-04, 23:07:05
...

Wenn NV's "Spionage" recht hat, dann kommt irgendwo Anfang Juni ein 25 cluster RV8x0.
http://sa09.idav.ucdavis.edu/docs/SA09_AMD_IHV.pdf

Es muss schon was sein, was durch Zwei teilbar ist (also 24 Compute Devices (X-D) und eins für alle Fälle).

Ob AMD sich traut, den Speicherbus zu erweitern?

Gast
2010-01-05, 10:50:58
http://sa09.idav.ucdavis.edu/docs/SA09_AMD_IHV.pdf

Es muss schon was sein, was durch Zwei teilbar ist (also 24 Compute Devices (X-D) und eins für alle Fälle).

Ob AMD sich traut, den Speicherbus zu erweitern?

Yep, 25 ist seltsam. Die Gerüchte haben bisher immer von 1920 Shadern gesprochen (seit Juli 2009) und das sind dann 24 Einheiten.

Ich dachte immer, das die Speicherbandbreite für die 5870 ausreicht? Es hat doch einige Tests gegeben und die haben gezeigt, das die 5870 eigentlich nicht bzw. nur geringfügig Bandbreitenbegrenzt ist.

Soweit ich das bisher gelesen und hoffentlich auch verstanden habe, ist der RV870 Setup-limited, oder? Was wäre also, wenn AMD die Setup-Engine für den 5890 aufbohrt bzw. mit höherer Taktrate laufen lässt. Würde so was was bringen?

Gast
2010-01-05, 11:05:19
...

Ob AMD sich traut, den Speicherbus zu erweitern?

wozu? speicherbandbreite limmitiert beim rv870 nicht (siehe CB und beyond3d artikel). sinnvoller wärs der karte 2GB zu spendieren und die GPU auf 1ghz zu prügeln :)

Gast
2010-01-05, 11:17:07
Die Mobility HD4870 wird genau nirgends verbaut.


Paperlaunch oder Vaporware?

Gast
2010-01-05, 11:21:18
wozu? speicherbandbreite limmitiert beim rv870 nicht (siehe CB und beyond3d artikel). sinnvoller wärs der karte 2GB zu spendieren und die GPU auf 1ghz zu prügeln :)
Bei beyond3d.com gibt's in den Artikeln nur das hier dazu:

--
Cypress is twice the chip that an RV790 is, but has only ~23% extra bandwidth compared to that – this seems a bit on the low side, to say the least. We can see the technical reasons for not widening the memory interface, as that would've implied rather serious transistor and wiring costs, and the budget for both was probably becoming rather tight. However, we can't help but wonder if this won't end up being a limiting factor in many scenarios, and it will be interesting to see how things went.
--
Oder was meinst du genau?

AnarchX
2010-01-05, 11:21:23
Ob AMD sich traut, den Speicherbus zu erweitern?
Wenn der nächstmögliche Schritt 512-Bit heißt, dann wohl kaum.
Zudem sollte im Q2 auch 6Gbps GDDR5 in Massenproduktion sein, was dann ~20% mehr Speicherbandbreite bedeutet.

Gast
2010-01-05, 11:48:11
Bei beyond3d.com gibt's in den Artikeln nur das hier dazu:

--
Cypress is twice the chip that an RV790 is, but has only ~23% extra bandwidth compared to that – this seems a bit on the low side, to say the least. We can see the technical reasons for not widening the memory interface, as that would've implied rather serious transistor and wiring costs, and the budget for both was probably becoming rather tight. However, we can't help but wonder if this won't end up being a limiting factor in many scenarios, and it will be interesting to see how things went.
--
Oder was meinst du genau?

z.b. das hier: http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_ati_radeon_hd_5000_weitere_details/12/#abschnitt_part_1

"Eins lässt sich mit Garantie sagen: Die Radeon HD 5870 (und somit wahrscheinlich auch ein Großteil der restlichen Radeon-HD-5000-Serie) ist interessanterweise nicht speicherbandbreitenlimitiert"

derguru
2010-01-05, 12:02:24
naja was ist den mit stalker,cryostasis mit 13% und 12% oder anno mit 24%,das ist nicht gerade wenig.

Gast
2010-01-05, 12:51:25
naja was ist den mit stalker,cryostasis mit 13% und 12% oder anno mit 24%,das ist nicht gerade wenig.

Im Mittel, siehe Rating bei CB sind es aber nur ~8,6% bei 23% Unterschied in der Bandbreite.

StefanV
2010-01-05, 13:09:29
Ob AMD sich traut, den Speicherbus zu erweitern?
Ich hab gehört, dass AMD wohl schon Chips mit 512bit SI im Hinterzimmer haben könnte, ist also nicht auszuschließen, vorallen nicht bei einem breiteren Cypress.

Möglich, dass man mit mehr Einheiten + mehr Speichherbandbreite am Fermi vorbeiziehen kann.

derguru
2010-01-05, 13:20:20
Im Mittel, siehe Rating bei CB sind es aber nur ~8,6% bei 23% Unterschied in der Bandbreite.
ja was haste denn gedacht,1 zu 1 oder was?

Botcruscher
2010-01-05, 14:18:22
Es ist schon sehr unwahrscheinlich. Ein bisschen mehr Takt für den Refreshchip und das wird es gewesen sein. Die Nächste Generation ist bei Ati nun nicht so unendlich weit entfernt.

aylano
2010-01-05, 14:20:39
Ich hab gehört, dass AMD wohl schon Chips mit 512bit SI im Hinterzimmer haben könnte, ist also nicht auszuschließen, vorallen nicht bei einem breiteren Cypress.

Möglich, dass man mit mehr Einheiten + mehr Speichherbandbreite am Fermi vorbeiziehen kann.
Warum eigentlich nicht.
Es war immer schon klar, dass wenn ATI die Performance-Krone will, dann müssen sie ca. 25% (oder etwas mehr) breiter gehen.

Für RV790 war die Zeit vielleicht noch zu kurz um so einen zu design. Außerdem hätte es sich damals für die paar Monate weniger ausgezahlt aus als so einen Mitte 2010 zu bringen, wo ATI schon annehmen konnte, dass der viel größere Fermi nicht so schnell kommen wird, da sie selber genug Probleme mit 40nm haben.

Außerdem wäres es ja ein ziemlicher Image-Gewinn bzw. Prestige-Gewinn Femi zu schlagen bzw. bei der Einführung einer neuen Architektur erster zu sein.

Na ja, irgendwas muss kommen.
Zwischen den letzten 700er-GPU-Dies und ersten 800-GPU-Dies war ein Jahr, indem sie RV790 & RV740 rausbrachten.
Die Zeitspanne ins wieder die selben und irgendwas muss da kommen.

reunion
2010-01-05, 14:33:13
Es muss schon was sein, was durch Zwei teilbar ist (also 24 Compute Devices (X-D) und eins für alle Fälle).


Gibt es dafür auch eine Begründung? Eine 5750 läuft ganz gut mit den neun aktiven Clustern. Ich sehe nichts was gegen 25 spricht.

Wenn der nächstmögliche Schritt 512-Bit heißt, dann wohl kaum.
Zudem sollte im Q2 auch 6Gbps GDDR5 in Massenproduktion sein, was dann ~20% mehr Speicherbandbreite bedeutet.

Ein 384-bit SI einzuführen sollte kein unlösbares Problem sein. Aber vermutlich beschränkt man sich auf 6Gbps GDDR5, das ist billiger.

Nakai@Gast
2010-01-05, 14:34:44
Gibt es dafür auch eine Begründung? Eine 5750 läuft ganz gut mit den neun aktiven Clustern. Ich sehe nichts was gegen 25 spricht.

Der hat auch nur einen Rasterizer.


mfg

reunion
2010-01-05, 14:37:49
Der hat auch nur einen Rasterizer.


mfg

Cypress auch.

reunion
2010-01-05, 14:38:58
Im Mittel, siehe Rating bei CB sind es aber nur ~8,6% bei 23% Unterschied in der Bandbreite.

Ist die Frage was man unter Bandbreitenlimitierung versteht. Wenn du eine lineare Skalierung erwartest hast du vermutlich auch mit einem 128-bit SI bei Cypress noch keine Bandbreitenlimitierung. Ein 384-bit SI zB, also 50% mehr Bandbreite sollte sich allerdings durchaus in 10-15% mehr Leistung niederschlagen, und das ist ja auch was.

V2.0
2010-01-05, 14:43:20
Warum eigentlich nicht.
Es war immer schon klar, dass wenn ATI die Performance-Krone will, dann müssen sie ca. 25% (oder etwas mehr) breiter gehen.

Für RV790 war die Zeit vielleicht noch zu kurz um so einen zu design. Außerdem hätte es sich damals für die paar Monate weniger ausgezahlt aus als so einen Mitte 2010 zu bringen, wo ATI schon annehmen konnte, dass der viel größere Fermi nicht so schnell kommen wird, da sie selber genug Probleme mit 40nm haben.

Außerdem wäres es ja ein ziemlicher Image-Gewinn bzw. Prestige-Gewinn Femi zu schlagen bzw. bei der Einführung einer neuen Architektur erster zu sein.

Na ja, irgendwas muss kommen.
Zwischen den letzten 700er-GPU-Dies und ersten 800-GPU-Dies war ein Jahr, indem sie RV790 & RV740 rausbrachten.
Die Zeitspanne ins wieder die selben und irgendwas muss da kommen.

Und ihre bsiherigen Vorteile des kleineren Chips aufgeben? Der Abstand in der Chipgröße ist jetzt schon kleiner als bei der Vorgängergeneration. AMD schlägt NV in dem man sie nicht zu schlagen versucht.

Nakai@Gast
2010-01-05, 14:43:24
Cypress auch.

Ich versteh zwar nix von Computerarchitektur, aber es sind nach dem Diagramm zwei Rasterizer und zwei Hierachical Z im Cypress vorhanden.

http://www.computerbase.de/bildstrecke/26939/3/


mfg

Dural
2010-01-05, 14:46:51
Ich hab gehört, dass AMD wohl schon Chips mit 512bit SI im Hinterzimmer haben könnte, ist also nicht auszuschließen, vorallen nicht bei einem breiteren Cypress.


den R600? :freak:

reunion
2010-01-05, 14:49:57
Ich versteh zwar nix von Computerarchitektur, aber es sind nach dem Diagramm zwei Rasterizer und zwei Hierachical Z im Cypress vorhanden.

http://www.computerbase.de/bildstrecke/26939/3/


mfg

Nicht von irgend welchen Marketingdiagrammen verarschen lassen. Hier bekommst du etwas brauchbares: http://www.beyond3d.com/content/reviews/53/5

Und hier die Erklärung:
One of the possible limiting factors on tessellation was the rasteriser, since one could imagine that beyond a certain amplification factor triangle setup/raster rate would become a bottleneck. To ensure this was not the case, it initially seemed like ATI had chosen a rather simple solution: the addition of another setup and raster unit! This would have allowed them to (theoretically) fetch 32 vertex attributes from memory per cycle and setup 2 full triangles per cycle for a theoretical rate of 1.7GTris/s at the 5870's clock rate of 850Mhz. Practically, things proved to be slightly different: after banging our heads against an ~830 MTris/s rate, which we couldn't surpass irrespective of how simple our triangles were, or how we fed the hardware, we checked back and it appears that triangle setup rate hasn't been bumped up, remaining at the good old 1 triangle/cycle (we can see certain reasons for it). So, in practice, we're dealing with a fatter rasteriser with doubled scan conversion rate, but constant triangle setup rate.
http://www.beyond3d.com/content/reviews/53/6

Nakai
2010-01-05, 15:15:48
Nicht von irgend welchen Marketingdiagrammen verarschen lassen. Hier bekommst du etwas brauchbares: http://www.beyond3d.com/content/reviews/53/5

Und hier die Erklärung:

Vielen Dank für den Hinweis.

Ich sagte doch, dass ich nix von Computerarchitektur verstehe. :freak:;D

Ich finde es sehr gut möglich, dass der RV870 sich wegen den Rasterizer nicht so toll vor dem Vorgänger absetzen kann.
Ebenso sind die TMUs wohl dank einem anderem Algorithmus nicht mehr so schnell beim Filtern, was dank besserer Qualität auch irgendwie logisch ist.

Egal woran es liegt. ATI muss da dran Arbeiten um mögliche Engpässe zu eliminieren.


mfg

Knuddelbearli
2010-01-05, 15:17:16
naja es gibt auch einige !GAMES! wo die Speicherbandbreite doch bereits ganz gut limitiert

aylano
2010-01-05, 15:59:18
Und ihre bsiherigen Vorteile des kleineren Chips aufgeben? Der Abstand in der Chipgröße ist jetzt schon kleiner als bei der Vorgängergeneration. AMD schlägt NV in dem man sie nicht zu schlagen versucht.
So gesehen, spricht es gegen die Wirtschaftlichkeits-Konzepte.

Aber es heißt eben nicht, dass sie eine Prestige-GPU rauswerfen können.
Im gegensatz zu Nivida hat ATI schon bzw. in kürze die ganze Palette draußen, die sie nicht nur weiterverwenden sondern auf dem können sie noch eine draufsetzen ailas das Pünktchen auf dem i.
Teildeaktivierte könnten immer noch als HD5870 verkauft werden.

(Wäre zwar nicht ganz wie ein Instanbul, aber dieser wurde eigentlich ja nur für Server designt)

Außerdem ist die Die von 260 (auf 285) und dann auf 333 mm² angewachsen, was jetzt mit einer 400mm² enden könnte.

Hauptziel von ATI mit dem Wirtschaftskonzept, unteranderem indem sie so schnell wie möglich die GPUs einführen wollen.
Und das geht mit ungereiften bzw. frühen Fertigungen eben mit Performance-Größe viel besser und somit können sie dann auch die Low-End & Mainstream-GPUs recht früh einführen, wodurch sie dann gut verdienen können. 6-9 Monate später & einer ausgereiften Fertigung könnnen sie mit einem größeren Chip und guten Yieldraten nachschieben.
Nvidia musste hingegen seinen Big-Chip und somit Low-end & Mainstream verschieben und in dieser Zeit hinterherrennen.

Sobald das Angebot in der Breite sehr früh & gut aufgestellt ist, ist ja wurscht, wie ein neuer Chip aussieht. Ob (zu) groß oder irgendwo drinnen.

RV740 war zwar ein Probe-Chip aber IMO falsch aufgestellt, aber er fiel wegen vorhandenem gutem Angebot nicht auf.
Ein RV730 @ 40nm hätte als Probe-Chip IMO viel mehr sinn gehabt, da man diesen nicht nur gegen die Nvidia-Konkurrenz aufstellen hätte können, und zwar bis 7.Jänner, sondern sie hätte in auch als Green Edition, oder sonst was in der Masse gut verkaufen können.

Als für im Herbst über eine RV790 spekulierten, gabs ja Gerüchte über einen Dual-GPU, deren verbesserte Verbindungstechnologie deutlich besser als Cf ist, und andererseits gabs die +25% Gerüchte.

Ersteres ist irgendwie doch im RV870 eingetreten, zweiteres nicht. Vielleicht noch nicht und bei den RV870-Gerüchten gab es wieder die +25% Gerüchte.

Da es keine Anhaltspunkte gibt und aller höchste Spekulation wären, kann man sich nur zurücklehen und abwarten.
Zuerst bin ich mal auf die mobilen HD5x00-Versionen gespannt, die mich bisher wahrscheinlich wegen der Wirtschaftlichkeit & schnellen Einführung mich Leistungsmäßig (=Performance Pro Watt) noch nicht vom Hocker, geworfen haben, wenn man den Fortschritt bzw. die Leistungsteigerung mit den bisherigen 800er vergleicht

Gipsel
2010-01-05, 16:05:39
Nicht von irgend welchen Marketingdiagrammen verarschen lassen. Hier bekommst du etwas brauchbares: http://www.beyond3d.com/content/reviews/53/5
Na dann schau Dir mal an, was AMD selber ganz frisch auf der Siggraph gezeigt hat ;):

http://139.30.40.11/Cypress.png

reunion
2010-01-05, 16:15:52
Und das hältst du für authentischer als das von B3D? Warum dann nicht mehr Tris/s? Das es AMD besser weiß sollte klar sein, aber sie müssen ja nicht die Wahrheit sagen.

Coda
2010-01-05, 16:20:42
Tri/s werden vom Tri-Setup limitiert. Da hat man ja noch ein FIFO vor dem/den Rasterizer/n.

Zwei Rasterizer beziehen sich wohl aber darauf, dass die Fragment-Output-Rate verdoppelt wurde, d.h. wenn die Dreiecke groß genug sind sollte man mit einfachen Shadern auch mehr Durchsatz messen können als eigentlich möglich wäre.

G80 konnte zumindest schon zwei Dreiecke in der Pipeline haben, deshalb geh ich stark davon aus, dass das bei AMD schon einige Zeit auch so ist.

Gast
2010-01-05, 16:20:58
Solche Blockdiagramme müssen nicht immer die physikalische Aufteilung zeigen, sondern können auch nur die logische Aufteilung zeigen.

Gipsel
2010-01-05, 16:21:11
Und da hältst du für authentischer als das von B3D? Das es AMD besser weiß sollte klar sein, aber sie müssen ja nicht die Wahrheit sagen.
Ja, B3D haben im Prinzip nur geraten, zwar gut informiert geraten, aber was Genaues hat ATI selber zu dem Zeitpunkt noch nicht rausgerückt. Übrigens schreibt B3D in dem von Dir zitiertem Text doch sogar, daß die Scan Conversion (die Dreiecke auf das Pixel-Raster abbilden) schneller geworden ist. Und jetzt rate doch mal was so ein Rasterizer eigentlich im Kern macht. Genau, die Scan Conversion! Daß das Triangle Setup nicht auch aufgebohrt wurde, ändert nichts daran, daß die Rasterizer-Kapazität verdoppelt wurde.

Die Folie oben kommt übrigens aus einem Vortrag über die GPGPU-Fähigkeiten von Cypress, der untypischerweise durchaus einiges von den Hardwaredetails preis gibt.

Coda
2010-01-05, 16:23:56
Das Missverständnis ist, dass wohl einige davon ausgehen, dass "Dual Rasterizer" bedeutet, dass nicht nur ein Tri sondern zwei in der Pipeline sein können.

Das war aber wohl nie ein Problem.

reunion
2010-01-05, 16:27:39
Ja, B3D haben im Prinzip nur geraten, zwar gut informiert geraten, aber was Genaues hat ATI selber zu dem Zeitpunkt noch nicht rausgerückt. Übrigens schreibt B3D in dem von Dir zitiertem Text doch sogar, daß die Scan Conversion (die Dreiecke auf das Pixel-Raster abbilden) schneller geworden ist. Und jetzt rate doch mal was so ein Rasterizer eigentlich im Kern macht. Genau, die Scan Conversion! Daß das Triangle Setup nicht auch aufgebohrt wurde, ändert nichts daran, daß die Rasterizer-Kapazität verdoppelt wurde.

Die Folie oben kommt übrigens aus einem Vortrag über die GPGPU-Fähigkeiten von Cypress, der untypischerweise durchaus einiges von den Hardwaredetails preis gibt.

Ja okay, die Rasterizer-Kapazität wurde schon öfter erhöht, aber nie wurde von einem "Dual Rasterizer" gesprochen. Was ist jetzt der Unterschied zwischen einem Rasterizer mit 32Pixel/Takt oder eben zwei mit je 16 Pixel/Takt?

Coda
2010-01-05, 16:29:00
Na, dass er eben 32 Pixel/Takt an die Shader schicken kann. Wobei man aufpassen muss, weil bei kleinen Dreiecken gibt es Verschnitt.

G80 rastert z.B. immer in Blöcken mit Breite 8 und Höhe 4.

Gipsel
2010-01-05, 16:29:41
Ja okay, die Rasterizer-Kapazität wurde schon öfter erhöht. Aber was ist jetzt der Unterschied zwischen einem Rasterizer mit 32Pixel/Takt oder eben zwei mit je 16 Pixel/Takt?
RV770 hat einen Rasterizer mit 16 Pixel/Takt, Cypress hat 2 Rasterizer mit 16 Pixel pro Takt. Was ist denn jetzt nicht klar?

Coda
2010-01-05, 16:30:25
Eher ein Rasterizer mit 2x16 Pixel/Takt ;)

Gipsel
2010-01-05, 16:31:28
G80 rastert z.B. immer in Blöcken mit Breite 8 und Höhe 4.Aber über zwei Takte verteilt, oder?

reunion
2010-01-05, 16:32:14
Na, dass er eben 32 Pixel/Takt an die Shader schicken kann. Wobei man aufpassen muss, weil bei kleinen Dreiecken gibt es Verschnitt.


Und das kann man mit einem Rasterizer mit 32 Pixel/Takt nicht?

RV770 hat einen Rasterizer mit 16 Pixel/Takt, Cypress hat 2 Rasterizer mit 16 Pixel pro Takt. Was ist denn jetzt nicht klar?

Warum man die Anzahl der Rasterizer verdoppelt hat und nicht die Fähigkeiten des schon vorhandenen. Also warum nicht ein Rasterizer mit 32 Pixel/Takt.

Gipsel
2010-01-05, 16:33:43
Eher ein Rasterizer mit 2x16 Pixel/Takt ;)
Und das unterschiedet sich wie von zwei Rasterizern, die z.B. in einer Round-Robin-Manier abwechselnd die Dreiecke vom Setup bekommen? Sprich, falls die beiden Teile, die jeweils maximal 16 Pixel ausspucken, nicht miteinander kommunizieren, sind es doch getrennte Einheiten, oder sehe ich das falsch?

Coda
2010-01-05, 16:33:55
Und das kann man mit einem Rasterizer mit 32 Pixel/Takt nicht?
Nö. Wie auch? Sollen die Fragmente aus der Luft kommen?

Und das unterschiedet sich wie von zwei Rasterizern, die z.B. in einer Round-Robin-Manier abwechselnd die Dreiecke vom Setup bekommen?
Du willst zuerst ein Dreieck fertighaben bevor du das nächste rasterst (aus Gründen von Cachelokalität beim Texturieren z.B.)

Sonst hast du eine Wavefront mit 2x16 Pixeln von einem Dreieck und 2x16 Pixeln von einem anderen. Schlechte Idee, auch was das Branching angeht.

Gipsel
2010-01-05, 16:34:20
Warum man die Anzahl der Rasterizer verdoppelt hat und nicht die Fähigkeiten des schon vorhandenen. Also warum nicht ein Rasterizer mit 32 Pixel/Takt.
War einfacher.

Gipsel
2010-01-05, 16:35:41
-gelöscht-

Gipsel
2010-01-05, 16:41:00
Du willst zuerst ein Dreieck fertighaben bevor du das nächste rasterst (aus Gründen von Cachelokalität beim Texturieren z.B.)

Sonst hast du eine Wavefront mit 2x16 Pixeln von einem Dreieck und 2x16 Pixeln von einem anderen. Schlechte Idee, auch was das Branching angeht.
Wenn ich das richtig verstanden habe, füllen die beiden Rasterizer sowieso zwei verschiedene Wavefronts parallel. Die 16 Pixel aus einem sehen die 16 Pixel aus dem anderen frühestens im Framebuffer wieder.

Coda
2010-01-05, 16:44:45
Okay das mag sein.

Dann wäre ein Rasterizer wohl aber trotzdem effizienter, weil man wirklich zwei völlig verschiedene Dreiecke in der Pipeline haben kann. Das könnte die Cachelokalität im L2 stören.

Aber viel wird es wohl nicht sein.

Gast
2010-01-05, 16:47:57
In dem netten "SA09_AMD_IHV" PDF von AMD findet man auf Seite 10, das ein RV870 1 DP-FMA pro Takt schafft. Ich dachte bisher, das ein RV870 nur bei ADDs 2 DP pro Takt schafft. Damit erreicht ein RV870 ja bereits die gleiche DP-FP Rate wie ein Fermi, oder?

Also sieht es damit doch so aus, oder?

SP: 2720 GFLOPS
DP: 544 GFLOPS (MUL)
DP: 1088 GFLOPS (ADD)
DP: 1088 GFLOPS (FMA)

die Special-Function-Unit lasse ich mal außen vor (außer bei SP).

Gipsel
2010-01-05, 16:52:02
Dann wäre ein Rasterizer wohl aber trotzdem effizienter, weil man wirklich zwei völlig verschiedene Dreiecke in der Pipeline haben kann. Das könnte die Cachelokalität im L2 stören.

Aber viel wird es wohl nicht sein.
Für die Caches ist es wirklich nicht ganz optimal, aber wahrscheinlich war es so einfacher so skalieren. Und irgendwo müssen ja ein paar Haken sein, da Cypress in den meisten Situationen ja keinen 100% Vorteil aus dem in weiten Teilen verdoppelten Layout ziehen kann ;)