PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Fusion - neue Details - Llano APU@32nm


Seiten : [1] 2 3

AnarchX
2007-05-28, 20:44:11
NEW MOTHERBOARD FOR FUSION PROCESSOR
According to the words of AMD technologist it is possible to understand that fusion processor will not cost more than standard today collection ( processor and integrated chipset ). The price positioning Of fusion was determined by the word mainstream - at least, in desktop segment.

Today appeared new information, which relate to fusion processors . Let us recall that fusion processors propagation will start in 2009 ( in the mobile segment )- at this moment they will be released on 45 nm technical process. Some time later fusion architecture will become ordinary for desktop and mobile processors AMD, it can appear even in server segment. According to AMD representatives estimations , fusion architecture will become standard for processors approximately through two or three generations.[...]
http://img406.imageshack.us/img406/691/fusionamdnewdata01r1f5eko8.jpg (http://imageshack.us)http://img523.imageshack.us/img523/2528/fusionamdnewdata021f5f4nu1.jpg (http://imageshack.us)

http://xtreview.com/addcomment-id-2534-view-New-motherboard-for-fusion-processor.html

100mm² bei 45nm für die GPU sind ja allerhand. eDRAM?

Wer sich noch etwas in das Thema Fusion einlesen will kann es hier tun:
http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=2986
http://www.tgdaily.com/content/view/31995/118/

Update:
http://img692.imageshack.us/img692/6632/fusion.jpg (http://img692.imageshack.us/i/fusion.jpg/)

http://phx.corporate-ir.net/External.File?item=UGFyZW50SUQ9MjAzMjR8Q2hpbGRJRD0tMXxUeXBlPTM=&t=1

http://img689.imageshack.us/img689/7512/a26e301a4558854.png (http://img689.imageshack.us/i/a26e301a4558854.png/)
http://forum.beyond3d.com/showpost.php?p=1357640&postcount=18

Das sähe dann ja eher nach 480SPs und wohl gar einem 192-Bit Triple-Channel-IMC aus.

Oder doch nur alles Photoshop-Vorschauen?

Dieser Fusion kommt wohl hier her:
http://img94.imageshack.us/img94/7783/0911121218012b980328ced.png (http://img94.imageshack.us/i/0911121218012b980328ced.png/)
http://bbs.chiphell.com/viewthread.php?tid=59785&extra=page%3D1

OBrian
2007-05-28, 22:08:55
100mm² bei 45nm für die GPU sind ja allerhand. eDRAM?Das muß ja nicht so eindeutig sein. Möglich ist auch, daß die geheimnisvolle Quelle nur was von "40mm² pro CPU-Core" gesagt hat und der Schreiber dann eine entsprechende Zeichnung gemalt hat, in der der Rest komplett der GPU zugedacht wird.

Aber es kann gut sein, daß mit "CPU-Core" wirklich nur der Core ohne Cache gemeint ist, zumindest ohne L3. Außerdem gehen ja noch einige mm² für HT-Link, Speichercontroller usw. drauf.

Ich halte es auch für möglich bzw. realistisch, daß die GPU nicht einfach nur mit aufs Die gedruckt wird und dabei CPU und GPU so getrennt bleiben wir jetzt, sondern daß man da einen Schritt weitergeht und beide stärker verschmilzt. Also etwa so, als würde man in einem Barcelona zwei der vier Kerne durch Grafikcores ersetzen, L3 usw. wird gemeinsam genutzt.

=Floi=
2007-05-31, 04:07:59
und wo ist der sinn wenn selbst amd daneben octa core bietet und der andere prozessor nur dual core?
für office ok aber für den rest sehe ich da keine richtigen vorteile
ans oc will ich garnicht denken....

saddevil
2007-05-31, 07:35:26
das ist ja gerade die richtige schiene dafür

dualcore und ein "kleiner" kern wie eine midrangelösung auf einem teil
da RAM auch über nen kontroller läusft ist das wie eine viel scnellere onboardlösung

eben als office und HTPC gedacht

AnarchX
2007-07-26, 19:31:05
AMD hat zum heutigen Techday einige interessante Roadmaps veröffentlicht mit einigen "Details" zum Fusion-Projekt:

AMD Roadmaps bis 2009 @P3DNow: (http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1185467188)
http://www.iian.ibeam.com/events/thom001/22876/browser/slides/20070726084721294707/default_large/Slide134.JPG
http://www.iian.ibeam.com/events/thom001/22876/browser/slides/20070726084721294707/default_large/Slide135.JPG

Pompos
2007-07-26, 19:42:51
AMD hat zum heutigen Techday einige interessante Roadmaps veröffentlicht mit einigen "Details" zum Fusion-Projekt:

AMD Roadmaps bis 2009 @P3DNow: (http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1185467188)
http://www.iian.ibeam.com/events/thom001/22876/browser/slides/20070726084721294707/default_large/Slide134.JPG
http://www.iian.ibeam.com/events/thom001/22876/browser/slides/20070726084721294707/default_large/Slide135.JPG
Komisch... sollte 2008 nicht schon lange der Phenom vorhanden sein?

AnarchX
2007-07-26, 19:44:39
Komisch... sollte 2008 nicht schon lange der Phenom vorhanden sein?

Das ist Mainstream und Mobile. ;)
Roadmaps mit Phenom gibt es natürlich auch bei P3DNow...

AnarchX
2007-09-10, 10:57:26
AMD Fusion so schnell wie aktuelle Mid- und High-Range-Grafikkarten? (http://www.pcgameshardware.de/?article_id=612472)
Während des Influence Forum 2007 in Australien blickte Michael Apthorpe, Technical Manager bei AMD für Australien, ein Stück in die Zukunft: Fusion soll bei seiner Einführung etwa die Leistung aktueller Mid-Range- und High-Range-Karten erreichen.

Wie soll denn das gehen? :|

Würde aber jedoch zu den 100mm²@45nm für die GPU aus Post #1 passen...

Winter[Raven]
2007-09-10, 11:00:04
AMD Fusion so schnell wie aktuelle Mid- und High-Range-Grafikkarten? (http://www.pcgameshardware.de/?article_id=612472)


Wie soll denn das gehen? :|

Nach der 29xx Reihe und der neuen CPU, musst du die Versprechungen der AMD PR-Abteilung immer ein Stück nach unten korrigieren...

Neomi
2007-09-10, 11:38:52
Wie soll denn das gehen?

Wahrscheinlich ist jetzt aktuelle Hardware gemeint, nicht bei der Vorstellung aktuelle Hardware. Abhängig davon, wann die Vorstellung ist, kann das durchaus hinkommen, bloß ist jetzt aktuelle Highend-Hardware dann eben nur noch so schnell wie dann aktuelle Lowend-Hardware.

AnarchX
2007-09-10, 11:45:57
Ist schon klar, dass man die aktuelle HW meint und Fusion eben erst 2009 kommt.
Trotzdem finde ich für diesen Zeitraum die angepeilte Leistung ziemlich hoch, da ich bisher, wie wohl auch andere eher von einem herkömlichen IGP on Die/Package ausgegangen bin.
Aber da scheint AMD höhere Ziele wohl zu haben.

Relic@work
2007-09-10, 12:09:24
Woher soll den bitte die benötigte Speicherbandbreite kommen um die Leistung heutiger Highendkarten zu erreichen?

micki@work
2007-09-14, 15:11:32
Woher soll den bitte die benötigte Speicherbandbreite kommen um die Leistung heutiger Highendkarten zu erreichen?von dort wo die highendkarten es auch haben?

Hendrikhey@home
2007-09-14, 20:36:46
Diese Speicherbandbreite wirst Du auch mit DD3 nicht erreichen können, da aktuelle GPUs mit >256bit angebunden sind und DDR nur mit 2x64bit. Dazu kommen noch niedrige Latenzen und hohe Taktraten auf Grund niedriger Signalwege.
Das wirst Du mit einer CPU, auch mit integr. Speichercontroller, niemals schaffen. Allein schon, da der Speicher gesockelt ist.
Die Leistung, die momentan aktuell ist, ließe es sich höchstens mit eDRAM verwirklichen.

SavageX
2007-09-14, 21:26:12
Vielleicht findet AMD ja auch mal eine Anwendung für das lizensierte zRAM ;)

Ailuros
2007-09-14, 21:58:54
Wahrscheinlich ist jetzt aktuelle Hardware gemeint, nicht bei der Vorstellung aktuelle Hardware. Abhängig davon, wann die Vorstellung ist, kann das durchaus hinkommen, bloß ist jetzt aktuelle Highend-Hardware dann eben nur noch so schnell wie dann aktuelle Lowend-Hardware.

Zwar ist es eine ziemlich uebliche Uebertreibung die ich selbst oefters benutze, aber damit das obrige zustande kommt muesste das Low-End Segment verdammt zulegen. Welche heutige low-end GPU ist denn eigentlich schneller als eine GF6800-wasauchimmer?

Angenommen das Ding kommt in 2009, duerfte AMD vollkommen zufrieden sein wenn Fusion eine heutige 8600/2600 schlagen kann, anstatt sich mit zu optimistischem Marketing-Gefusel das Maul vollzustopfen.

Neomi
2007-09-14, 23:00:43
Angenommen das Ding kommt in 2009, duerfte AMD vollkommen zufrieden sein wenn Fusion eine heutige 8600/2600 schlagen kann, anstatt sich mit zu optimistischem Marketing-Gefusel das Maul vollzustopfen.

Es war auch nicht die Rede von aktuellem Highend alleine, sondern von aktuellem Midrange bis Highend. Mit der Performance einer 8600 oder 2600 wäre das Ziel also schon erreicht.

Ailuros
2007-09-15, 06:06:11
Es war auch nicht die Rede von aktuellem Highend alleine, sondern von aktuellem Midrange bis Highend. Mit der Performance einer 8600 oder 2600 wäre das Ziel also schon erreicht.

Nur ist eben der Abstand zwischen mainstream und high end ziemlich gross. Man stopft sich eben das Maul zu voll wenn man noch "high end" in den Satz dazufuegt, denn so manche von den Lesern denken natuerlich sofort an ~2900/8800 Leistung.

Es bleibt abzusehen ob Fusion bzw. Larabee wirklich zu quasi einer Revolution fuehren werden; oder ob sich am Ende jegliche Behauptungen nur auf ausgekapselte Faelle (z.B. GPGPU Andwendung oder Gott hilf 3dfart-Quark) beziehen, was aber wiederum ueblich in der Marketing Welt ist.

micki@psp
2007-09-15, 06:27:07
Diese Speicherbandbreite wirst Du auch mit DD3 nicht erreichen können, da aktuelle GPUs mit >256bit angebunden sind und DDR nur mit 2x64bit.

um dich mal auf den neusten stand zu bringen: AMD hat ati gekauft. sie haben also die tech um die noetige bandbreite zu ereichen. sie sind sicherlich faehig nicht auf 64bit stecken zu bleiben.

Ailuros
2007-09-15, 06:44:09
um dich mal auf den neusten stand zu bringen: AMD hat ati gekauft. sie haben also die tech um die noetige bandbreite zu ereichen. sie sind sicherlich faehig nicht auf 64bit stecken zu bleiben.

Man breicht keine ausserordentliche engineering Talente um einen breiteren Bus einzubauen. Das zeitige low-end Segment wird momentan mit 64bit bzw. 128bit breiten Bussen bedient und ich sehe nicht dass sich an diesem etwas so schnell aendern wird.

So wie es aussieht werden alle zukuenftigen hybride CP/GPUs einen gesunden Kopfschmerz haben was die Bandbreite generell fuer Grafik (Larabee inklusive) betrifft, was aber auch indirekt andeutet dass das Resultat nicht allzu teuer werden darf und dass eben am Ende womoeglich mehr Marketing-Rauch dahinter steckt als Realitaet.

256bit Busbreite auf so einem Ding? Dann schlag mal vor wieviele Filterungs-einheiten so ein Dingsbums haben koennte und was fuer eine Fuellrate Du fuer die Dinger genau einschaetzt.

micki
2007-09-15, 08:29:56
Man breicht keine ausserordentliche engineering Talente um einen breiteren Bus einzubauen. Das zeitige low-end Segment wird momentan mit 64bit bzw. 128bit breiten Bussen bedient und ich sehe nicht dass sich an diesem etwas so schnell aendern wird.zZ gibt es keine fusion chips, wie willst du wissen wie sie gerade bedient werden? fusion als name sagt schon dass es eine verschelzung von cpu und gpu ist, wieso sollte man da auf das langsamme cpu zurueckgreifen, statt die 180gb/s der gpus zu nutzen?
ich weiss echt nicht wieso ihr dauernt auf den 64bit stecken bleibt. oder habt ihr quellen zum fusion was das betrifft?

reunion
2007-09-15, 10:36:40
zZ gibt es keine fusion chips, wie willst du wissen wie sie gerade bedient werden? fusion als name sagt schon dass es eine verschelzung von cpu und gpu ist, wieso sollte man da auf das langsamme cpu zurueckgreifen, statt die 180gb/s der gpus zu nutzen?
ich weiss echt nicht wieso ihr dauernt auf den 64bit stecken bleibt. oder habt ihr quellen zum fusion was das betrifft?


Sehe ich auch so. AMD hat jetzt bereits mehrmals angedeutet, dass Fusion nicht nur ein reiner IPG Ersatz werden soll, sondern durchaus auch eine gewisse Leistung erreichen wird.

AnarchX
2007-09-15, 10:46:14
Triple-Channel DDR3, wie bei Nehalem, der ja auch teilweise einen IGP besitzen soll, mit ~40GB/s(DDR3-1600) sollte ja eigentlich für eine Mid-Range(GF8600+)-Grafik und einen kleinen Quad/Triplecore reichen.
Fusion zielt ja eigentlich mehr auf Mainstream bzw Mid-Mobile laut den Roadmaps ab.
Wenn die 100mm² stimmen, sollten da eigentlich schon ein 2/3 R600 draufpassen.

micki
2007-09-15, 11:46:28
Triple-Channel DDR3, wie bei Nehalem, der ja auch teilweise einen IGP besitzen soll, mit ~40GB/s(DDR3-1600) sollte ja eigentlich für eine Mid-Range(GF8600+)-Grafik und einen kleinen Quad/Triplecore reichen.
Fusion zielt ja eigentlich mehr auf Mainstream bzw Mid-Mobile laut den Roadmaps ab.
Wenn die 100mm² stimmen, sollten da eigentlich schon ein 2/3 R600 draufpassen.
naja, man sollte immer bedenken dass es ne kombination aus cpu und gpu ist, somit sind zum einen die anforderungen anders, zum anderen werden die dinge anders geloest.
bisher gibt es entweder alles voll in software ->cpu
voll in hardware -> gpu

hat beides vor und nachteile und mit dem fusion koennte man nun diese vor (und nachteile) zu vielleicht mehr vorteilen kombinieren indem man dann das vorteilhafterere waehlt.
wenn man nun z.b. nur 40gb/s schafft, statt den sonst 180gb/s (sind es ja glaube ich bei 2600), hat man dafuer vielleicht die von den cpus bekannten riesigen caches und faengt somit einiges ab. mit HyperTransport umgeht man vielleicht die bottlenecks die sonst entstehen wuerden wenn man uebers ram kommunizieren wuerde, etc.

zudem denke ich ist die zielgruppe, wie bei SSE, eher bei HPC zu sehen und ueber die gamer macht man sich nur ein image. das ist natuerlich sehr spekulativ von mir, aber ich hab bei sse bis heute den wichtigsten befehl: dot-produrct, nicht gesehen.

AnarchX
2007-09-15, 11:49:37
wenn man nun z.b. nur 40gb/s schafft, statt den sonst 180gb/s (sind es ja glaube ich bei 2600)

180GB/s? :|
Ich hatte von der Speicherbandbreite geredet und die liegt bei einer 2600XT GDDR4 momentan bei 35GB/s.

robbitop
2007-09-15, 11:55:09
zZ gibt es keine fusion chips, wie willst du wissen wie sie gerade bedient werden? fusion als name sagt schon dass es eine verschelzung von cpu und gpu ist, wieso sollte man da auf das langsamme cpu zurueckgreifen, statt die 180gb/s der gpus zu nutzen?
ich weiss echt nicht wieso ihr dauernt auf den 64bit stecken bleibt. oder habt ihr quellen zum fusion was das betrifft?
Die Frage ist, woher man auf bezahlbaren Mainboards die Bandbreite hernehmen will. Dazu braeuchte man fest verloeteten GDDR3 oder 4 Speicher mit nem breiten Interface. Das wuerde wieder uebel kosten. (Layer, Verdrahtung, Pins) In dem Falle wuerde der Markt sowas dann gar nicht kaufen. Zumal die Nachruestbarkeit von RAM dann ein Problem wird.

Relic
2007-09-15, 12:50:25
Technisch kann man viel machen. Man muss aber sehen, dass das alles kostet und man ab einem bestimmten Zeitpunkt mit einer extra Grafikkarte Preis/Leistungs und auch Aufrüstungstechnisch besser fährt. Ich denke es wird schwierig abseits des des Lowend und Mobilmarktes den Fusion vernünftig zu platzieren.

robbitop
2007-09-15, 12:54:54
IMO wird das Ding vorerst nur als IGP fuer Notebooks gut sein (ist ja damit fast ein SoC) und spaeter, wenn die Durchsetzung besser ist, als GPGPU. Waere natuerlich nicht schlecht, wenn jeder in einigen Jahren auf der CPU noch einen Streamingcore haette. Dann koennte man Spiele und Simulationen und Videobearbeitung ectpp noch deutlich aufbohren.

Ailuros
2007-09-15, 15:19:45
zZ gibt es keine fusion chips, wie willst du wissen wie sie gerade bedient werden?

Weil mich meine Schnueffelnase fuer Marketing-BS eher selten im Stich laesst. Aehnlichen Quark erzaehlt (oder will dass es erzaehlt wird ohne offiziellen Stempel) auch Intel fuer Larabee.

fusion als name sagt schon dass es eine verschelzung von cpu und gpu ist, wieso sollte man da auf das langsamme cpu zurueckgreifen, statt die 180gb/s der gpus zu nutzen?

Wie waere es wenn Du erstmal meine vorigen Fragen beantwortest und mir erzaehlst wie man den Spass hinbekommt ohne dass es mehr als eine standalone GPU am Ende kostet?


ich weiss echt nicht wieso ihr dauernt auf den 64bit stecken bleibt. oder habt ihr quellen zum fusion was das betrifft?

Weil 64 bzw. 128bit noch fuer einige Zeit im low-end Segment existieren werden. Was soll Dir denn irgenwelche hoehere Bandbreite genau anstellen, wenn es keine anstaendigen Fuellrate zum fuettern gibt? Ausser Ihr habt irgend eine merkwuerdige Vorstellung dass Fusion bzw. Larabee ploetzlich die Mehrzahl der GPUs ersetzen werden.

Im besten Fall steigt die Leistung insgesamt im low-end Segment und da braucht man keine tollen Aufloesungen und auch kein AA, da wohl keiner dafuer bezahlen wird.

Ailuros
2007-09-15, 15:27:51
IMO wird das Ding vorerst nur als IGP fuer Notebooks gut sein (ist ja damit fast ein SoC) und spaeter, wenn die Durchsetzung besser ist, als GPGPU. Waere natuerlich nicht schlecht, wenn jeder in einigen Jahren auf der CPU noch einen Streamingcore haette. Dann koennte man Spiele und Simulationen und Videobearbeitung ectpp noch deutlich aufbohren.

Nur braucht man fuer die Mehrzahl der obrigen Faehigkeiten keine besondere Fuellrate bzw. Bandbreite ;)

robbitop
2007-09-15, 18:05:55
Nur braucht man fuer die Mehrzahl der obrigen Faehigkeiten keine besondere Fuellrate bzw. Bandbreite ;)
Naja für GPGPU-Anwendungen brauchst du Bandbreite. Wie willst du sonst die ALUs füttern?

micki
2007-09-15, 18:36:35
180GB/s? :|
Ich hatte von der Speicherbandbreite geredet und die liegt bei einer 2600XT GDDR4 momentan bei 35GB/s.
sorry, da war ein durcheinander in meinem kopf, ich meinte die 2900, deren speicherbandbreite soll (laut 10s googlen) 140.8GB/s sein. nicht hauen wenn es nicht stimmt, einigen wir uns auf +100gb/s :)

micki
2007-09-15, 18:38:35
Die Frage ist, woher man auf bezahlbaren Mainboards die Bandbreite hernehmen will. Dazu braeuchte man fest verloeteten GDDR3 oder 4 Speicher mit nem breiten Interface. Das wuerde wieder uebel kosten. (Layer, Verdrahtung, Pins) In dem Falle wuerde der Markt sowas dann gar nicht kaufen. Zumal die Nachruestbarkeit von RAM dann ein Problem wird.
die frage ist, wieso ihr bei einer kombination von cpu und gpu immer von nem motherbard artigen gebilde statt einem graka-artigen gebilde ausgeht. am ende wuerde doch ein 100terraflop chip nichts bringen wenn der mit simplen sockets auf nem mobo sitzt, weil er 99% seiner zeit aufs ram warten wuerde.

edit: die aussage von AMD dass es ein mobile-chip sein koennte, koennte auch auf fest verloetete speicherbausteine hinweisen. ;) reine vermutung. aber es waere eher moeglich, war ja frueher so ;)

micki
2007-09-15, 18:47:18
Weil mich meine Schnueffelnase fuer Marketing-BS eher selten im Stich laesst. Aehnlichen Quark erzaehlt (oder will dass es erzaehlt wird ohne offiziellen Stempel) auch Intel fuer Larabee.
in beiden faellen ist fraglich ob du rechts hast, ich sehe weder hinweise fuer noch gegen deine aussage.


Wie waere es wenn Du erstmal meine vorigen Fragen beantwortest und mir erzaehlst wie man den Spass hinbekommt ohne dass es mehr als eine standalone GPU am Ende kostet? naja, standalone gpus wuerden auch unmengen kosten wenn man sich seperat die boards dazu kaufen muesste, sie sind so guenstig und haben trotzdem 10x der speicherbandbreite, weil sie eben nicht standalone, sondern mit speicher etc. auf einem board fertig sind. und bisher weiss kaum jemand was ueber den funsion, jedenfalls wir hier nicht. niemand weiss ob das ding am ende ein reiner cpu ersatz mit intergrierter gpu wird, oder ein graka-ersatz mit cpu drinne oder je nach system mal das und mal das andere.
es steht auf jedenfall fest, dass AMD die noetige bandbreite bereitstellen muss damit das ding nicht hauptberuflich idle ist. und wie du schon sagtest, mit 64 oder 128bit und ddr2 riegeln wird das nicht fruchten.






Im besten Fall steigt die Leistung insgesamt im low-end Segment und da braucht man keine tollen Aufloesungen und auch kein AA, da wohl keiner dafuer bezahlen wird.in diesem falle haette sich amd aber auch das ganze tadam von fusion sparen koennen und einfach noch ne onboard gpu auf die cpu (neben den speichercontroller) integrieren koennen. mehr als kostenreduzierung waere es am ende dann nicht.

AnarchX
2007-09-15, 20:00:31
sorry, da war ein durcheinander in meinem kopf, ich meinte die 2900, deren speicherbandbreite soll (laut 10s googlen) 140.8GB/s sein. nicht hauen wenn es nicht stimmt, einigen wir uns auf +100gb/s :)
Nein, 100GB/s sind Unsinn, da selbst der R600 diese nicht wirklich nutzen kann und man diese eher auf einer Ultra-High-End-Karte findet, wo sie etwas Sinn machen -> 8800Ultra. Und das zielt Fusion definitiv nicht an.

Imo sind 30GB/s exklusiv für die GPU imo absolut ausreichend um in einigen Bereichen die aktuelle Mid-Range-Leistung zu erreichen und das geht schon mit halbwegs machbaren Triple-Channel-DDR3.

Windi
2007-09-15, 21:01:32
Der Fusion erscheint also zu einer Zeit in der es Octa-Cores gibt und hat selbst gerade einmal 2 Stück. Das riecht doch ganz stark nach Low-End!
Auch ist die mögliche Bandbreite, selbst bei einem Triple- oder gar Quadro-Channel Speicherinterface, nicht High-End tauglich. Für ein solches Speicherinterface bräuchte man aber mindestens ein 6 lagiges Mainboard, was aber garantiert nicht Low-End tauglich wäre.

Alles was bis jetzt erschienen ist, deutet am ehesten auf einen Low-End Chip hin. Ein Low-End Chip mit recht guter Leistung aber halt Low-End.
Ideal für sparsame Notebooks, Set-Top Boxen, Thin Clients oder billige Office-PCs. Der Markt dafür ist riesig und das Konzept hinter Fusion scheint gut zu sein.
Einfach abwarten und Tee rauchen. Weitere Infos werden früh genug kommen.

micki
2007-09-16, 18:20:45
Nein, 100GB/s sind Unsinn, da selbst der R600 diese nicht wirklich nutzen kann und man diese eher auf einer Ultra-High-End-Karte findet, wo sie etwas Sinn machen -> 8800Ultra. Und das zielt Fusion definitiv nicht an.
mit ein wenig suchen findet man
105.GB/s bei gddr3
140.GB/s bei gddr4


Imo sind 30GB/s exklusiv für die GPU imo absolut ausreichend um in einigen Bereichen die aktuelle Mid-Range-Leistung zu erreichen und das geht schon mit halbwegs machbaren Triple-Channel-DDR3.
muessen die nicht recht hoch getaktet sein? imho is das zu krass fuer AMDs mobile plaene.

AnarchX
2007-09-16, 18:28:31
muessen die nicht recht hoch getaktet sein? imho is das zu krass fuer AMDs mobile plaene.

3x64Bit @ 800MHz DDR3 = 38.4GB/s, imo doch durchaus realistisch, dass es solche SO-Dimms 2009 gibt.

Coda
2007-09-16, 18:29:11
zZ gibt es keine fusion chips, wie willst du wissen wie sie gerade bedient werden? fusion als name sagt schon dass es eine verschelzung von cpu und gpu ist, wieso sollte man da auf das langsamme cpu zurueckgreifen, statt die 180gb/s der gpus zu nutzen?
Weil der Systemspeicher dann auf das Mainboard gelötet werden müsste.

Zudem müsste man dann Latenz für diese Bandbreite opfern, was der CPU überhaupt nicht schmecken würde.

micki
2007-09-16, 22:27:56
Weil der Systemspeicher dann auf das Mainboard gelötet werden müsste.war frueher bei notebooks immer so, wenn ich hier richtig gelesen hatte, ist das erstlingswerk vom fusion dann auch ein notebook?

Zudem müsste man dann Latenz für diese Bandbreite opfern, was der CPU überhaupt nicht schmecken würde.
alternativ opferst du bandbreite fuer latenz. beides ist suboptimal fuer den fusion.

aber wenn man schon nen mix aus cpu+gpu macht, koennte man das beim speicher ebenso machen, oder? ein bisschen fest verloetet und dann noch ein paar sockets. das ist vor ein paar jahren garnicht so unueblich gewesen.

mich wuerde viel eher interesieren wie man das ding anspricht, ob normale x86 binaries drauf laufen, ob es nen backend fuer gcc gibt das spezielle binaries generiert oder ob AMD auch etwas wie cuda generiert.

weiter waere es sehr interesant wie die aufteilung ist bei den ganzen cores. ob die gpu cores als coprozessoren normal von OS sheudler bedient werden, oder man ein spezielles api braucht, ob die gpus dynamisch zwischen dem os und z.b. directx bzw dem treiber davon aufgeteilt werden.

ob fusion ueberhaupt graphik macht? ein HPC mobile device waere wohl aber weniger sinnvoll als ein pc.

fragen ueber fragen. los jungs, links her :)

Coda
2007-09-16, 23:20:00
war frueher bei notebooks immer so, wenn ich hier richtig gelesen hatte, ist das erstlingswerk vom fusion dann auch ein notebook?
Das ist nicht praktikabel. AMD kann kaum alle Fusion-Notebooks mit festverlötetem RAM verkaufen.

weiter waere es sehr interesant wie die aufteilung ist bei den ganzen cores. ob die gpu cores als coprozessoren normal von OS sheudler bedient werden, oder man ein spezielles api braucht, ob die gpus dynamisch zwischen dem os und z.b. directx bzw dem treiber davon aufgeteilt werden.
Es sind keine x86-Cores, deshalb hat da der OS-Scheduler auch nichts damit zu tun.

Auch bedeutet Fusion nicht, dass GPU und CPU die gleichen Einheiten besitzen. Es ist einfach eine GPU und eine CPU auf einem Package.

Ailuros
2007-09-17, 12:26:00
in beiden faellen ist fraglich ob du rechts hast, ich sehe weder hinweise fuer noch gegen deine aussage.

Es gibt schon ein gutes Stueck von Indizien sowohl fuer Larabee als auch fuer Fusion, nur hab ich keine Lust jetzt schon irgend etwas rauszulassen.

naja, standalone gpus wuerden auch unmengen kosten wenn man sich seperat die boards dazu kaufen muesste, sie sind so guenstig und haben trotzdem 10x der speicherbandbreite, weil sie eben nicht standalone, sondern mit speicher etc. auf einem board fertig sind. und bisher weiss kaum jemand was ueber den funsion, jedenfalls wir hier nicht. niemand weiss ob das ding am ende ein reiner cpu ersatz mit intergrierter gpu wird, oder ein graka-ersatz mit cpu drinne oder je nach system mal das und mal das andere.

Skalierbar fuer verschiedene Anwendungen, ergo faellt eher Deine letztere Beschreibung zu. Das heisst aber trotzdem nicht dass das potentiellste Grafik-Resultat dieser Varianten zur Zeit ihrer Veroeffentlichung mehr als fuer low-end am Ende Wert sein werden. Schneller als heutige IGPs auf jeden Fall schon und vielleicht mit etwas Glueck schneller als heutige mainstream GPUs, aber dann auch nur in streng ausgewaehlten Anwendungen die nicht unbedingt das ganze Spektrum der Echtzeit-Leistung in Spielen wiederspiegeln wird.

es steht auf jedenfall fest, dass AMD die noetige bandbreite bereitstellen muss damit das ding nicht hauptberuflich idle ist. und wie du schon sagtest, mit 64 oder 128bit und ddr2 riegeln wird das nicht fruchten.

Und nochmal wie sieht es mit den Fuellraten genau aus? Denn wenn es nicht genuegend Fuellrate geben wird, hockt die Mehrzahl der Bandbreite auch nur dumm rum, was auf jeden Fall Spiele betrifft.


in diesem falle haette sich amd aber auch das ganze tadam von fusion sparen koennen und einfach noch ne onboard gpu auf die cpu (neben den speichercontroller) integrieren koennen. mehr als kostenreduzierung waere es am ende dann nicht.

Low end wird schon etwas schneller werden insgesamt und deshalb auch die ganz idiotische Trommelei seitens AMD. Nur werden die Dinger eben die GPU so wie wir sie kennen nicht ersetzen.

Radeonator
2007-09-20, 11:40:35
Hmmm, nichts besonderes eigentlich

http://www.via-tech.de/de/products/processors/corefusion/

deekey777
2008-08-04, 22:39:34
AMD ändert Planung für den CPU/GPU-Fusions-Chip (http://www.heise.de/newsticker/AMD-aendert-Planung-fuer-den-CPU-GPU-Fusions-Chip--/meldung/113785)
Statt der Verschmelzung eines AM2-Dual-Core-Phenom (Kuma, 65 nm) mit RV710 Grafik-Kern soll nun gleich ein AM3-Dual-Core-Phenom aus der 45-nm-Linie mit RV800-Grafik zum Einsatz kommen

up¦²
2008-08-04, 23:12:45
Heise irrt: nicht Strike, sondern Shrike:
http://media.arstechnica.com/news.media/shrike.gif
http://arstechnica.com/news.ars/post/20080126-amd-ditches-dozer-taps-phenom-for-cpugpu-fusion-edit.html
aktuell dazu Theo Valich:
The first Fusion processor is code-named Shrike, which will, if our sources are right, consist of a dual-core Phenom CPU and an ATI RV800 GPU core. This news is actually a big surprise, as Shrike was originally rumored to debut as a combination of a dual-core Kuma CPU and a RV710-based graphics unit.
http://www.tgdaily.com/html_tmp/content-view-38703-135.html

AnarchX
2009-11-11, 18:21:36
Fusion?

http://img692.imageshack.us/img692/6632/fusion.jpg (http://img692.imageshack.us/i/fusion.jpg/)

http://phx.corporate-ir.net/External.File?item=UGFyZW50SUQ9MjAzMjR8Q2hpbGRJRD0tMXxUeXBlPTM=&t=1
Seite 4

Also 4 Kerne ohne L3-Cache und offenbar 6 SIMDs bei dem IGP.

Ailuros
2009-11-11, 18:52:34
Hilf mir auf die Beine hier; wo steht was von 6 SIMDs (ausser ich hab's im pdf ueberlesen) oder anders wie kommst Du auf 6 SIMDs im die shot?

Ich zaehle 80 Kaestchen pro Unterteilung und 4*80=320 oder anders 4 clusters. Bei nur 600+MHz hat man die GFLOPs Marke damit schon mal erreicht, 1Mrd. Transistoren fuer den SoC sind auf erwartetem Nivaeu fuer 2011 und in etwa 4670 GPU Leistung in einem 2011 SoC zu sehen steht auch nicht ausserhalb Erwartungen.

AnarchX
2009-11-11, 19:00:28
Die grünen Kästchen sind doch der L2-Cache der CPU-Cores. X-D
Der offenbar auf 1MiB pro Kern gewachsen ist.

Der untere Teil ist eindeutig der IGP und da sind entsprechend dem R7xx/R8xx-Design wohl 6 SIMDs zu erkennen, wieviele SPs es nun sind, ist die Frage.

Der Die liegt wohl bei ~280mm² und der IGP-Anteil etwa bei 80mm². Als vollwertige GPU wäre man wohl bei ~100mm²@32nm.
Da es 32nm sind, wohl eher ~150mm² gesamt 40mm² IGP.

Ailuros
2009-11-11, 19:13:53
Die grünen Kästchen sind doch der L2-Cache der CPU-Cores. X-D
Der offenbar auf 1MiB pro Kern gewachsen ist.

Dachte ich gerade als ich mir das Ding nochmal genauer ansah.

Der untere Teil ist eindeutig der IGP und da sind entsprechend dem R7xx/R8xx-Design wohl 6 SIMDs zu erkennen, wieviele SPs es nun sind, ist die Frage.

240 wohl dann schon aber dann much man schon auf 800+MHz auf der GPU um "GigaFLOPs" (ergo zumindest 2.0) zu erreichen. Die brennendere Frage ist eher wieviel TMUs insgesamt, denn die scharzen Kasten im unteren Rand scheinen nicht gerade viel Platz einzunehmen fuer einen >1Mrd. Transistoren SoC.

S940
2009-11-11, 19:17:09
Die grünen Kästchen sind doch der L2-Cache der CPU-Cores. X-D
Der offenbar auf 1MiB pro Kern gewachsen ist.
Vielleicht sinds ja auch mehrere MB T-RAM ;-)
Edit: Wobei - das taugt wg. den Latenzen nur max. für L3 Cache, also vergessen wirs besser.

AnarchX
2009-11-11, 19:26:51
Auch interessant ist, dass die Fusion APUs ein jährliches Upgrade erfahren sollen

Pirx
2009-11-11, 19:27:44
Vielleicht ist die "GPU" ja auch wie die "CPU" getaktet.:D

Ailuros
2009-11-11, 19:31:29
Vielleicht ist die "GPU" ja auch wie die "CPU" getaktet.:D

Weil man mit den SoCs Stromverbrauch-rekorde brechen will?

S940
2009-11-11, 19:32:47
Weil man mit den SoCs Stromverbrauch-rekorde brechen will?Naja ... die kann man für die Notebook / Desktop Plattform unterschiedlich takten ;-)

ciao

Alex

Ailuros
2009-11-11, 19:38:09
Naja ... die kann man für die Notebook / Desktop Plattform unterschiedlich takten ;-)

ciao

Alex

Unter 2GHz wird die CPU auf dem SoC wohl nicht takten. Bist Du Dir sicher dass solche Frequenzen fuer eine jegliche GPU in 2011 unter 32nm einfach nur so geht? Wenn es um eine solche Frequenz gehen wuerde, waere ein grosser Anteil der clusters erstmal ueberflussig.

***edit: und damit das Ganze nicht ganz beleglos von sich geht: so wie es aussieht wird im naechsten SONY handheld eine vier core GPU bei 400MHz hocken. Die eingeschaetzte die area fuer die GPU Einheiten ist irgendwo um die 20mm2@45nm.

Bei 32nm und 4-facher DIE area sind bis zu 800MHz noch logisch; mehr aber dann nicht.

AnarchX
2009-11-12, 09:31:41
http://img689.imageshack.us/img689/7512/a26e301a4558854.png (http://img689.imageshack.us/i/a26e301a4558854.png/)
http://forum.beyond3d.com/showpost.php?p=1357640&postcount=18

Das sähe dann ja eher nach 480SPs und wohl gar einem 192-Bit Triple-Channel-IMC aus.

Oder doch nur alles Photoshop-Vorschauen?

Dieser Fusion kommt wohl hier her:
http://img94.imageshack.us/img94/7783/0911121218012b980328ced.png (http://img94.imageshack.us/i/0911121218012b980328ced.png/)
http://bbs.chiphell.com/viewthread.php?tid=59785&extra=page%3D1

reunion
2009-11-12, 10:26:11
AMD „Fusion“ Anfang 2011 mit 1 Mrd. Transistoren
http://www.computerbase.de/news/hardware/prozessoren/amd/2009/november/amd_fusion_anfang_2011_1_mrd_transistoren/

S940
2009-11-12, 12:10:43
Unter 2GHz wird die CPU auf dem SoC wohl nicht takten. Bist Du Dir sicher dass solche Frequenzen fuer eine jegliche GPU in 2011 unter 32nm einfach nur so geht? Wenn es um eine solche Frequenz gehen wuerde, waere ein grosser Anteil der clusters erstmal ueberflussig.

Wenn Du stromsparen willst taktest Du die GPU niedriger (also z.B. für die Notebooks), wenn nicht, dann kannst Du höher takten, eben z.B. im Llano Fall.

Wieviel das am Ende ist, weiss im Moment keiner ;-)

Eventuell haben wir uns mißverstanden :)

Zum letzten Foto:
Schaut besser aus, mir kam das ursprüngliche Foto arg "abgeschnitten" vor. Viel erkennen kann man zwar eh nicht, aber der untere Rand ist untypisch.

Wenn kein L3 verbaut wird, wäre Triple Channel sicherlich nicht verkehrt. Ausserdem soll der Sockel auch wieder eine Weile halten -> ich wäre dafür ;-)

ciao

Alex

AnarchX
2009-11-12, 12:18:36
Oder ein GDDR5-Sideport.:D

2x 64-Bit DDR3-1600 ~ 25,6GB/s
1x 32-Bit GDDR5-5000 ~ 20GB/s

Ailuros
2009-11-12, 12:20:32
Wenn Du stromsparen willst taktest Du die GPU niedriger (also z.B. für die Notebooks), wenn nicht, dann kannst Du höher takten, eben z.B. im Llano Fall.

Wieviel das am Ende ist, weiss im Moment keiner ;-)

Eventuell haben wir uns mißverstanden :)

Ich meinte lediglich dass mir eine universale Frequenz fuer CPU und GPU zu uebertrieben klingt.

S940
2009-11-12, 12:22:55
Ja natürlich, das wäre wahrscheinlich sogar die bessere/billigere Lösung :)
Zwar etwas unflexibler, aber sollte auch reichen.

In dem Fall könnte man dann über OnChip RAM reden, ähnlich wie beim Xenos.
(Für diejenigen, denen das nichts sagt:
http://www.beyond3d.com/content/articles/4/2
)

@Ailuros:
Meinst du mit "univeral" eine gleiche Taktfrequent für CPU / GPU ?
Nee da wäre ich auch nicht dafür ... die wird ziemlich sicher eine extra Taktdomäne bekommen.

ciao

Alex

Ailuros
2009-11-12, 12:31:37
@Ailuros:
Meinst du mit "univeral" eine gleiche Taktfrequent für CPU / GPU ?
Nee da wäre ich auch nicht dafür ... die wird ziemlich sicher eine extra Taktdomäne bekommen.

ciao

Alex

Ich hab auf das hier http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7654424&postcount=52 original geantwortet ;)

S940
2009-11-12, 12:34:59
Oh sorry, Mißverständnis ^^
Da sind wir dann eh einer Meinung ;-)

Headman
2009-11-13, 02:09:51
Von den Einheiten (wenn es tatsächlich 480 sind) her entspräche die Llano GPU in etwa dem was ich für Redwood (RV830?) erwarte.
Würde ja sinn machen, die vorjahres Mainstream GPU wandert in die Mainstream Fusion-Cpu.

Dann spekulier ich mal fröhlich weiter und sage das in Ontario ein Cedar neben den zwei Bobcats steckt. Wäre ja dann das gleiche für Low-End.

Gibt es schon was Handfestes darüber wie Llano und Ontario mit der Southbridge kommunizieren?

Ailuros
2009-11-13, 07:24:00
Wenn man die Zeitspanne realistisch einschaetzt und was standalone GPUs bis dahin leisten koennten, ist die Leistung auch nicht mehr so gigantisch aber trotzdem auf einem Pegel dass es unmoeglich ist fuer jeglichen Konkurrenten die GPU Power erreichen zu koennen.

Bandbreite wird stets ein Kopfschmerz fuer SoCs sein und unter normalen Umstaenden muss sich die CPU mit der GPU die vorhandene Bandbreite (unter UMA) teilen. Dieses kastriert leider auch die Moeglichkeiten einer jeglichen GPU ihre Beine voll ausstrecken zu koennen.

StefanV
2009-11-13, 11:02:13
Naja, es besteht ja noch die Möglichkeit des 'Sideport Memorys', das man, wenn das DIe nicht zu groß wird, man noch Speicher aufs Package klatschen könnte.

deekey777
2009-11-13, 14:45:38
Kann mir jemand erklären, was der Sinn der APU bei Llano hat?
Ok, dadurch ist möglich, Chipsätze zu bauen, die keine integrierte Grafikeinheit haben. Aber sonst?

S940
2009-11-13, 14:49:38
Kann mir jemand erklären, was der Sinn der APU bei Llano hat?
Ok, dadurch ist möglich, Chipsätze zu bauen, die keine integrierte Grafikeinheit haben. Aber sonst?
Schau Dir mal die bunten Folien zu heterogeneous computing an ;-)

deekey777
2009-11-13, 15:37:13
Schau Dir mal die bunten Folien zu heterogeneous computing an ;-)

Das ist genau das, was mich stutzig macht. Llano ist ein Mainstream-Prozessor (zumindest ist Lynx das). Da sind zusätzliche GRafikkarten nicht selten. IMO ist die APU einfach eine Verschwendung, wenn es daneben nicht eine weitere CPU geben wird (kleiner Bulldozer?).

AnarchX
2009-11-13, 15:43:01
Vielleicht investiert man in Zukunft mehr in heterogenes Crossfire, sodass die APU bei einer dedizierten GPU nicht sinnlos Silizium verschwendet.

S940
2009-11-13, 15:43:47
APU = CPU+GPU

Sind doch 4 K10 Kerne beim lynx an Bord.

Halt kein high-end, aber in der Zukuft wird sicherlich ein Bulldozer Fusion kommen. Da kann man dann die onboard GPU für Physik oder sonstigen Filefanz hernehmen.

Lynx dagegen ist erstmal Mainstream: mittelmäßige Grafikfähigkeit mit ausreichend CPU Power. Enthusiasten sollen 2011 Zambezi plus 28nm GPUs kaufen.

ciao

Alex

AnarchX
2009-11-14, 09:43:33
http://img208.imageshack.us/img208/4966/apuu.jpg (http://img208.imageshack.us/i/apuu.jpg/)
http://bbs.chiphell.com/viewthread.php?tid=59785&extra=page%3D1&page=3

Hier sieht es wieder nur nach 240SPs aus.
24 TMUs und einen Die-Space von fast 100mm², wären schon etwas sonderbar für einen IGP, der für Co-Processing genutzt werden soll.

Hier sieht man nun auch das PCIe vernünftig, was wohl 2x x16 entsprechen sollte. Vgl. RV770: http://techreport.com/r.x/radeon-hd-4870/die-shot.jpg

Einen GDDR5-Sideport oder ähnliches kann man hier aber eher nicht ausmachen.

AnarchX
2009-11-14, 14:29:49
Llano wäre wohl 315mm² @ 45nm groß:
http://forum.beyond3d.com/showpost.php?p=1358709&postcount=69

Da sollte man bei 32nm doch deutlich unter 200mm² landen, was dann auch nur 240SPs erklärt.

Undertaker
2009-11-14, 15:46:24
Wie darf man sich das mit der GPU als Coprozessor vorstellen? Läuft das vollkommen intransparent und wird von der CPU selbst verwaltet (bringt ergo auch Nutzen in nicht speziell optimierter Software) oder muss das von Programmen explizit vorgesehen sein?

AnarchX
2009-11-14, 15:54:29
Ohne OpenCL/DirectCompute/Stream-unterstützender Software wird man bei Fusion 1 nicht auskommen.

Aber Microsoft geht ja schon in die entsprechende Richtung, wie z.B. dem Videoencoding unter Win7. Langfristig könnte da DirectCompute Unterstützung in noch weit mehr Software einfließen.

deekey777
2009-11-14, 16:14:36
Oder die APU (ohne die CPU) den CPU-Code ausführen kann.
Nur dann hat das Ganze Sinn. Sonst ist das Ding nur ein Ersatz für IGP.

Gast_mboeller
2009-11-14, 16:17:20
http://img208.imageshack.us/img208/4966/apuu.jpg (http://img208.imageshack.us/i/apuu.jpg/)
http://bbs.chiphell.com/viewthread.php?tid=59785&extra=page%3D1&page=3

Hier sieht es wieder nur nach 240SPs aus.



Laut Hans de Vries handelt es sich bei diesem Die-Shot um ein Bild von einem alten 45nm Prototypen der noch normale Regor-CPUs besitzt.

Link: http://aceshardware.freeforums.org/amd-fusion-t925.html


Das würde auch die mageren 240SP erklären.

AnarchX
2009-11-14, 16:26:54
Laut Hans de Vries handelt es sich bei diesem Die-Shot um ein Bild von einem alten 45nm Prototypen der noch normale Regor-CPUs besitzt.

Llano soll ja auch noch K10.5 Cores mit je 1MiB L2-Cache besitzen oder glaubt Hans es wären Bulldozer Cores?

Coda
2009-11-14, 16:35:37
Vielleicht investiert man in Zukunft mehr in heterogenes Crossfire, sodass die APU bei einer dedizierten GPU nicht sinnlos Silizium verschwendet.
Total geil mit AFR und so.

reunion
2009-11-14, 16:38:16
Llano soll ja auch noch K10.5 Cores mit je 1MiB L2-Cache besitzen oder glaubt Hans es wären Bulldozer Cores?

Es sieht auf jeden Fall ein Blinder mit dem Krückstock das die beiden Dice nicht identisch sind. Und nachdem der eine direkt von AMD gezeigt wurde und als Llano betitelt wurde kann der andere nur was anderes sein.

AnarchX
2009-11-14, 17:07:16
Es ging um das Argument, dass es keine K10-Cores sein sollen.
Beim IGP-Teil gibt es natürlich ein paar Unterschiede.

Wobei man auch nicht annehmen muss, dass das Marketing die allerneuesten Die-Shots bekommt für die Folien. Bei Evergreen-Folien kommt ja auch noch RV770, wenn auch etwas umgefärbt, zum Einsatz. ;)

reunion
2009-11-14, 17:27:26
Wobei man auch nicht annehmen muss, dass das Marketing die allerneuesten Die-Shots bekommt für die Folien. Bei Evergreen-Folien kommt ja auch noch RV770, wenn auch etwas umgefärbt, zum Einsatz. ;)

Das ist aber keine Marketingfolie mit irgend einem Dummy, sondern ein Die-Shot.

Gast_mboeller
2009-11-14, 17:29:02
Llano soll ja auch noch K10.5 Cores mit je 1MiB L2-Cache besitzen oder glaubt Hans es wären Bulldozer Cores?

Hans de Vries:

Quad core + 4 x 1MB L2
Compleetly redesigned FP/SSE units. (separate Legacy x87 unit?)
480 shader units(?)
128 bit IMC (GDDR5 option?)
4 x 8bit(?) Hypertransport



no@spam.com:

You should expect Llano to consist of four Greyhound cores


Ergo, keine Bulldozer-Cores aber verbesserte K10-Cores (möglicherweise "Lisbon-Cores" ohne L3)

Coda
2009-11-14, 17:34:43
Wie kommt er denn auf veränderte FP-Units? Die Cores auf dem Die-Shot stimme genau mit einem Phenom II überein.

AnarchX
2009-11-14, 17:38:31
Das ist aber keine Marketingfolie mit irgend einem Dummy, sondern ein Die-Shot.

Auf beiden AMD-Folien ist der Die beschnitten. Und bei der Analyst Day Folie deutlich.
Insofern geht es hier eher um etwas CPU+IGP-artiges zu zeigen, als Llano an sich.

@mboeller
Gerade im Core-Bereich sind bis auf die andere Farbgebung durch unterschiedliche Fotographie und Kompressionsartefakte, wohl keine solchen Unterschiede zu sehen.
Und wenn man sich nochmal RV770 genauer anschaut, sind es wohl auch keine 480SPs beim weniger abgeschnitten Bild.

Wie kommt er denn auf veränderte FP-Units? Die Cores auf dem Die-Shot stimme genau mit einem Phenom II überein.
Aus diesen Die-Shots will er das wohl erkennen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7654222#post7654222
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7655574&postcount=56

Coda
2009-11-14, 17:46:13
Da seh ich aber keine Veränderungen an der FP-Pipe :|

Ich sehe auch überhaupt keinen guten Grund dafür, dass man x87 von SSE abtrennt. Code in dem beides gleichzeitig verwendet wird ist praktisch nicht existent und um beides zu nützen bräuchte man auch mehr Ports.

Und einfach so splitten würde einfach nur Transistoren verschwenden.

reunion
2009-11-14, 17:53:37
Da seh ich aber keine Veränderungen an der FP-Pipe :|


Das siehst du anhand eines derart unscharfen und völlig verkomprimierten Die-Shots? Ich erkenne da kaum mehr als den Unterschied zwischen Cache und Logik, ganz zu schweigen von einzelnen Funktionsblöcken oder deren genaue Anordnung bzw. ob es da Änderungen gibt.

Coda
2009-11-14, 18:59:24
Da sieht man das schon:
http://img208.imageshack.us/img208/4966/apuu.jpg

Und wie gesagt ergibt es auch einfach keinen Sinn.

HOT
2009-11-15, 17:40:09
Das werden normale K10-Kerne wohl in der Rev.E werden. Da wirds keine mordsmässigen Änderungen geben, eben die GPU-Integration und mehr Cache. Ich sehe das Teil sowieso eher als Lernstück an. Llano ist ein notwendiger Zwischenschritt um eine neue Infrastruktur einzuführen und die vollständige GPU-Integration vorzubereiten.

Gipsel
2009-11-16, 15:04:48
Da sieht man das schon:
http://img208.imageshack.us/img208/4966/apuu.jpg
Photoshop. Das ist aus mindestens zwei Die-Shots zusammengebastelt.

Coda
2009-11-16, 17:26:07
Woran erkennst du das?

Wie auch immer, ich glaube trotzdem nicht daran. Auch auf dem ersten Shot ist die FPU-Sektion nicht größer geworden als bei K10.

Gipsel
2009-11-16, 17:32:56
Woran erkennst du das?
Der GPU-Part ist ein umgefärbtes (invertiert und die Farben/Kontrast verschoben) und neu zusammengestückeltes Bild des bekannten RV770 Dieshots (man muß nur die richtige Variante finden, damit es pixelgenau paßt). Hans de Vries sieht das übrigens auch so (http://aceshardware.freeforums.org/post12301.html#p12301):
Looking at the way how the IO-area is cut off to make room for the shader units proves that this is indeed a photoshop job of Llano.

Coda
2009-11-16, 17:34:39
Brauchst dich nicht noch mit anderen Personen rechtfertigen. Ich hab nur nicht näher nachgeforscht ;)

Gast
2009-12-03, 07:26:31
ich bin ein wenig verwirrt:


AMD Medek: release early next year, the first APU
+
According to him, at present this new chip will be named as the APU (accelerated computing unit), will use 32-nanometer technology and integrate one billion transistors


Link: http://translate.google.de/translate?u=http%3A%2F%2Fmsn.yesky.com%2Fa%2F11050183.shtml&sl=zh-CN&tl=en&hl=de&ie=UTF-8

[Translation von Chinesisch auf Englisch, da ich festgestellt habe, das diese Übersetzung wesentlich besser funktioniert als die xxx-Sprache -> Deutsch Übersetzung]

AnarchX
2009-12-03, 08:26:00
Da wird man wohl die Verfügbarkeit der Samples als Launch missverstanden haben.

robbitop
2009-12-03, 08:36:00
Bräuchte man Photoshop Shots, wenn es Samples gäbe?
Die CPU in Liano soll zumindest beim L1 Cache 8T-Zellen bekommen, da diese besser zum Stromsparen geeignet sind. Der ein oder andere Tweak zum Stromsparen wird wohl drin sein.

Was mich allerdings sehr wundert: wieso bringt man 2011 Bobcat in einem total veralteten Prozess (40 nm)?

AnarchX
2009-12-03, 16:32:59
Diskussion zu Bobcats Fertigungsprozess: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7695468#post7695468

AnarchX
2010-02-09, 08:45:34
http://img28.imageshack.us/img28/4001/llano.jpg
http://anandtech.com/cpuchipsets/showdoc.aspx?i=3736

Sorkalm
2010-02-09, 12:47:43
Ist das hier ein vollständiger Core (also inkl. L2-Cache)?:

http://scr3.golem.de/screenshots/1002/AMD_Fusion/thumb480/3.jpg

Wenn ja, mal ne Milchmädchenrechnung:

Ein x86-Core: ~ 10 mm²
+ 1 MiB L2-Cache: ~ 6 mm²
--------------------
Summe: 16 mm²
Vier Kerne: x4
-------------------
CPU-Teil: ~ 64 mm²

Da bliebe ne ganze Menge für Verwaltungseinheiten und GPU übrig. Wo sind die groben Fehler der Milchmädchenrechnung? ;)

Undertaker
2010-02-09, 12:56:32
Ein Nehalem-Kern inkl. L2 ist auch nur etwas knapp über 25mm². Trotzdem ist der Quad am Ende etwas mehr als gut 100mm² groß. ;) IMC, L3, HT-Interface und Switch... Da kommt noch einiges mehr zusammen.

Sorkalm
2010-02-09, 12:59:32
Ein Nehalem-Kern inkl. L2 ist auch nur etwas zwischen 25-30mm². Trotzdem ist der Quad am Ende etwas mehr als gut 100mm² groß. ;) IMC, L3, HT-Interface und Switch... Da kommt noch einiges mehr zusammen.

Gut, aber L3 hat doch Llano nicht, oder? War jedenfalls mein Stand.

Das das restliche Zeugs zwecks Anbindung, Speichersteierung etc. noch kommt, ist klar, aber bei den mal gelesen > 200mm² für einen Llano-Die dürfte da immer noch viel Platz für die GPU bleiben.

Undertaker
2010-02-09, 13:07:31
OK, ohne L3 spart man noch ein bisschen was ein... Dennoch denke ich, dass 4 Kerne + der ganze Krimskrams schon auf 120-150mm² kommen dürften. Dazu kommt jetzt die GPU, da könnte man mit der Größenordnung von Redwood (400SP, 100mm² @ 40nm) spekulieren.

Henroldus
2010-02-09, 13:32:50
schön wäre ein nativer quadcore samt GPU auf einem monolitischen DIE @ 32nm
damit wäre man ach kostenmässig vor den Intel clarkdales, leistung ist ne andere frage.
nuja, dauert eh noch bis 2011

AnarchX
2010-02-09, 13:39:12
schön wäre ein nativer quadcore samt GPU auf einem monolitischen DIE @ 32nm
damit wäre man ach kostenmässig vor den Intel clarkdales, leistung ist ne andere frage.
2011 steht dann aber schon Sandy Bridge mit nativen Quad- und Dual-Cores an, die ebenfalls eine GPU auf dem Die haben.
Momentan könnte wohl auch Intels Ansatz mit dem 45nm IGP-IMC-Die bei den Kosten vom Vorteil sein gegenüber einem nativen 32nm Die.

Gast
2010-02-09, 13:44:18
2011 steht dann aber schon Sandy Bridge mit nativen Quad- und Dual-Cores an, die ebenfalls eine GPU auf dem Die haben.
Momentan könnte wohl auch Intels Ansatz mit dem 45nm IGP-IMC-Die bei den Kosten vom Vorteil sein gegenüber einem nativen 32nm Die.

Nur das Intels DX10 GPU mit hoher Wahrscheinlichkeit gegen einen Evergreen-Derivaten bei AMD aber sowas von unterlegen sein wird.

Sorkalm
2010-02-09, 14:08:26
OK, ohne L3 spart man noch ein bisschen was ein... Dennoch denke ich, dass 4 Kerne + der ganze Krimskrams schon auf 120-150mm² kommen dürften. Dazu kommt jetzt die GPU, da könnte man mit der Größenordnung von Redwood (400SP, 100mm² @ 40nm) spekulieren.

So jetzt das ganze noch mal als Rechnung mit Transistoren :biggrin:

Laut Heise:
http://www.heise.de/ct/meldung/AMD-Fusion-Stromspar-Feinheiten-im-32-nm-Chip-925111.html

Kommen die 4 x86-Cores auf insgesamt 140 Millionen Transistoren, der zusätzliche L2-Cache auf 37,8 Millionen Transistoren, macht 177,8 Mio für 4x86-Cores + L2-Cache.

Ich vergleich mal mit Propus, da haben wir ja bekanntlich Zahlen, außerdem dürften die Cores am ähnlichsten sein, wenn auch nur 512K L2-Cache. Der hat insgesamt 234 Millionen Transistoren (bei 169 mm² @ 45 nm).

Mal grob übern Daumen gepeilt schätze ich, dass bei Propus der x86-Core etwas kleiner ist (sagen wir mal 120 Mio. Transistoren und der Cache ca. die Häfte ausmacht; wären 20 Mio; blieben ca. 100 Mio. Transistoren für den ganzen Rest, also etwas weniger als die Hälfte der Gesamtanzahl...

Damit wäre man bei ~ 280 Mio. Transitoren. Laut Heise hat Llano allerdings auch mehr als eine Milliarde Transistoren. So klein kann die GPU da gar nicht werden. Was um Redwood kann man wohl schon erwarten.

Wenn man die Die-Fläche mal genauso Milchmädchenmäßig hochrechnet, kommt man auf 64 mm² * (45/32)² ~ 127 mm²; davon etwas weniger weil kleinere Cache und x86-Cores, schlag ich also mal auf 100 ab - wären das rund 70 mm² für den anderen Krimsram @ 45 nm.

Auch so bliebe also viel Platz für die GPU... (bei meiner Milchmädchenrechnung sind noch 750 Mio Transitoren+ und ca. 100 mm² zur Verfügung. :P )


Naja, man kommt alles in allem immer auf das Ergebnis, dass die GPU wohl dtl. größer ist als so ein Minimalkonsens zurzeit. Redwood würde ich da mindestens ewarten.
Da stellt sich mir die Frage: Wie bindet man denn da den Hauptspeicher an? In entsprechenden Anwendungen dürften da die Bandbreitenanforderungen doch dtl. höher sein.

Gast
2010-02-09, 14:51:38
Gut, aber L3 hat doch Llano nicht, oder? War jedenfalls mein Stand.

So eine Art L3-Cache bzw. eDRAM muss die APU doch haben! Wo soll man denn sonst den Framebuffer lassen?

Spasstiger
2010-02-09, 15:12:33
Der Framebuffer landet im Arbeitsspeicher oder im Sideport-Speicher (falls AMD einen Sideport verbaut). Die Anbindung der GPU (bzw. in AMD-Sprech APU) an den Speichercontroller der CPU wird wohl wie auch bei den Chipsatzlösungen über Hypertransport erfolgen.
An Stelle des Speicherinterfaces und des PCIe-Interfaces sitzt in der GPU/APU eine Crossbar, die wiederum an einem HT-Interface hängt.

Gipsel
2010-02-09, 15:59:52
So jetzt das ganze noch mal als Rechnung mit Transistoren :biggrin:

Laut Heise:
http://www.heise.de/ct/meldung/AMD-Fusion-Stromspar-Feinheiten-im-32-nm-Chip-925111.html

Kommen die 4 x86-Cores auf insgesamt 140 Millionen Transistoren, der zusätzliche L2-Cache auf 37,8 Millionen Transistoren, macht 177,8 Mio für 4x86-Cores + L2-Cache.
Direkt das heise-Zitat:
Allerdings kommen zu den eigentlichen Kern-Transistoren noch jeweils die L2-Cache-Blöcke hinzu, die aus je 1 MByte SRAM bestehen; sofern – wie üblich – 6T-SRAM-Zellen mit ECC-Fehlerschutz zum Einsatz kommen, sind dafür jeweils rund 9,4 Millionen Transistoren nötig, bei vier Kernen also weitere 37,8 Millionen Transistoren.
Da empfehle ich mal heise, das nochmal nachzurechnen. Kleiner Tipp, 6T-SRAM heißt 6T-SRAM, weil für pro Bit 6 Transistoren benötigt werden. Wie da für 1 MByte L2 9,4 Millionen Transistoren reichen sollen, kann heise ja mal gerne erklären. Das dürfte eher so gute 50 Millionen Transistoren pro 1MB L2-Block (1MB * 9 [8+1 wegen ECC] * 6 + Tags + Redundanz + Kleinkram) werden, also eher 226-240 Millionen für den Quadcore insgesamt. Nur für den L2 wohlgemerkt, mit den Kernen zusammen sind es dann ~370 Millionen. Dazu kommen noch die Northbridge, Speichercontroller und HT-Interfaces. Dann kann sich jeder selbst ausrechnen, wieviel vielleicht für die GPU übrigbleibt, damit man bei den etwas über 1 Milliarde Transistoren landet, die für Llano im Raum stehen.

Sorkalm
2010-02-09, 17:18:25
Der Framebuffer landet im Arbeitsspeicher oder im Sideport-Speicher (falls AMD einen Sideport verbaut). Die Anbindung der GPU (bzw. in AMD-Sprech APU) an den Speichercontroller der CPU wird wohl wie auch bei den Chipsatzlösungen über Hypertransport erfolgen.
An Stelle des Speicherinterfaces und des PCIe-Interfaces sitzt in der GPU/APU eine Crossbar, die wiederum an einem HT-Interface hängt.

Hab dazu grade was gelesen, das was anderes aussagt:

According to Sam Naffziger, a senior fellow at AMD, the Llano chip will use a 32 nanometer silicon-on insulator process and will have an on-chip DDR3 main memory controller as well as four cores and a DirectX 11 compatible GPU on the die. Naffziger would not divulge the feeds and speeds of the graphics unit, but he said that the GPU is a derivative of the current Radeon HD5000 series and that it will not link to the cores through a HyperTransport link. Instead, it will use a more direct link on the die. The architectural specifics of that link are not being discussed today at ISSCC.
http://www.theregister.co.uk/2010/02/09/amd_llano_chip_preview/



Direkt das heise-Zitat:

Danke für die Korrektur. Wenn man mal drüber nachdenkt wärs echt wenig gewesen, denn das gäbs weniger Gründe da noch 512K einzusparen.

Gast
2010-02-09, 17:36:00
Mindestens eben so interessant und in der Diskussion bisher völlig untergegangen finde ich da den 32nm SOI Prozess für Fusion. Lange wurde ja mit bulk spekuliert, aber hiermit ist klar das die GPU in SOI kommt. Das nährt natürlich auch Spekulationen um zukünftige GPUs mit SOI-Prozess.

AnarchX
2010-02-09, 17:46:14
Hier nimmt man wohl eher die geringere Packdichte gegenüber Bulk für den IPG in Kauf, als die CPU ohne SOI zu fertigen.
Bei dedizierten GPUs ist der Einsatz von SOI doch eher fragwürdig.

Triskaine
2010-02-09, 19:02:20
Hier meine eigenen wohlbegründeten Spekulationen für Llano:

Wichtigster Anhaltspunkt für jegliche Spekulation ist AMD's Angabe zur Transistorzahl, nämlich ungefähr ~1 Milliarde (siehe die allerste Folie mit Llano drauf).
Anhand der Core Größe von 9,7 mm² können wir auf die Skalierung
45nm -> 32nm schließen, diese liegt wie so oft beim Faktor 1,66. Ausgehend von der Transistordichte des jetzigen 45nm Prozesses bei GF (ca. 2,8 Millionen Transistoren pro mm²) kämen wir auf etwa 4,66 Millionen pro mm² für den 32nm SOI Prozess (Intel erreicht übrigens 4,8 Millionen xtors pro mm² bei Westmere). Also sollte ich mit dieser Schätzung ziehmlich dicht an der Wahrheit liegen.
Da wir die Transistorzahl wissen, ergibt sich eine ungefähre Die Größe von 220 mm². Desweiteren wissen wir über Llano das der CPU Teil ein Propus mit mehr Cache ist der auf LowPower optimiert wurde. Der Transistoraufwand dafür ist aber eher gering und dementsprechend vernachlässigbar.
Propus hat mit 2MB L2 ca. 300 Millionen xtors (laut AMD's eigenen Angaben). Der Propus in Llano hat 4MB L2. Diese zusätzlichen 2MB kosten ziehmlich genau 100 Millionen xtors, macht also insgesamt 400 Millionen xtors für den CPU Teil.
Es bleiben also ca. 600 Millionen über. Da es sehr wahrscheinlich ist das AMD eine bereits existierende GPU verwendet, kommt nur eine DX11 GPU in Frage die hier reinpasst: Redwood (400 SPs, 20TMUs, 8 ROPs, DX11, UVD2, 626 Millionen xtors). Als IGP mit Zugriff auf den System RAM sollte bei anständigem Takt die Performance einer 4670/3870/2900Xt erreicht werden.

AnarchX
2010-02-09, 19:11:05
Damit wäre man wieder bei der Performance-Aussage von 2007:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5830341&postcount=8

Wobei selbst mit Dual-Channel DDR3-1600/1833 die Bandbreite doch etwas knapp ist, wenn man sie sich mit der CPU teilen muss.

Wenn noch nicht bei Llano, dann wäre wohl bei der nächsten Generation ein schneller Speicher zwischen CPU-GPU und RAM denkbar.

S940
2010-02-09, 19:24:39
Da empfehle ich mal heise, das nochmal nachzurechnen. Kleiner Tipp, 6T-SRAM heißt 6T-SRAM, weil für pro Bit 6 Transistoren benötigt werden.
Hmm irgendwo stand doch mal, dass AMD auf 8T Zellen wechseln wollte, da die stromsparender wären ... weiss nur jetzt nicht wo das war.

Ansonsten, Hans De Vries hat Photoshop angeworfen:
http://chip-architect.com/news/Llano_comp2.jpg

Redwood (400 SPs, 20TMUs, 8 ROPs, DX11, UVD2, 626 Millionen xtors). Als IGP mit Zugriff auf den System RAM sollte bei anständigem Takt die Performance einer 4670/3870/2900Xt erreicht werden.Nur zur Info, die Leistung einer 2900er (320 Shader), war auch das Designziel, hat mal ein AMDler kurz nach der Fusion Vorstellung vor Jahren gesagt ;-)

Triskaine
2010-02-09, 19:26:18
Wenn DDR3-1600/1833 verwendet wird, dann wird die Performance sich eher bei einer 5570 einordnen, da man ja eine ähnliche Bandbreite wie diese hätte. Abhängig von dem endgültigen GPU Takt, könnte sie dann zwischen 5570 und 5670 liegen. Für eine integrierte Lösung wäre das eine sehr respektable Leistung, die Intels IGP in Sandy Bridge sehr wahrscheinlich vernichten wird.
Allerdings wird Sandy Bridge auch um einiges mehr CPU Power haben als Llano.

EDIT: Da liege ich mit meinen ~220 mm² ja ziehmlich gut, wenn wir einen besseren Die-Shot kriegen, können wir das ja noch etwas präzisieren. Die CPU
Kerne werden für den L1-D$ und den L1-I$ tatsächlich 8T-SRAM verwenden, das mact circa 1,5 Millionen mehr Transistoren aus. Die Quelle kann ich aber grade auch nicht finden. :freak:

S940
2010-02-09, 19:28:48
Allerdings wird Sandy Bridge auch um einiges mehr CPU Power haben als Llano.
Jo, aber ich hoffe doch schon auf erste OpenCL / Directcompute Progrämmchen 2011.
Das könnte dann teilweise lustige Ergebnisse liefern, wenn ein billiger Llano die Videos schneller konvertiert als ein teurer SB ;-)

ciao

Alex

AnarchX
2010-02-09, 19:37:13
Vielleicht bringt SNBs IGP auch OpenCL mit, wenn man das selbst bei S3 implementiert bekommt.
Damit könnte Fudos Dual-IGP-SNB mit den 1.6GHz von Ailuros immerhin 300GFLOPs zusätzliche Rechenleistung bieten.

S940
2010-02-09, 19:58:33
Vielleicht bringt SNBs IGP auch OpenCL mit, wenn man das selbst bei S3 implementiert bekommt.
Damit könnte Fudos Dual-IGP-SNB mit den 1.6GHz von Ailuros immerhin 300GFLOPs zusätzliche Rechenleistung bieten.
Schaffen 2x12 Intel Shader wirklich 300 GFlops ? Naja egal, ich glaubs mal, Redwood (mit 80 Shader, 400 nach AMD Zählart, in 40nm bulk) hat um die 500-600 je nach Takt, da kann man 32nm SOI hK wohl von ~600 GFlops ausgehen.

Dann ist wie immer die Frage nach der Effektivität .. das wird spannend, ATi hat ja schon Caches bzw. Local Datastores eingebaut, gibts bei Intel Ähnliches ?

ciao

Alex

Gast
2010-02-09, 21:29:35
Das Ding ist im übrigen so ganz nebenbei der perfekte Server-Chip:

The server GPU acceleration market holds much potential for AMD. The only way Nvidia can accelerate servers currently is by selling workstation graphics cards - whose shape and size, as mentioned earlier, is an inconvenience for server systems. While Intel may have the stronger CPU in its upcoming APU (i.e. CPU + GPU), Sandy Bridge's GPU is unlikely to be much of a GPU accelerator, with Larrabee indefinitely delayed and unlikely to feature in an Intel CPU anytime soon.

http://vr-zone.com/articles/amd-gpus-to-accelerate-servers-in-two-years/8415.html

Gerd
2010-02-09, 21:38:43
Wurde schon etwas über GPU-Computing auf AMDs Fusion gesagt? Will AMD 2011 einen ähnlichen Weg gehen wie nvidia mit der Fermi-Generation?

Gast
2010-02-09, 21:43:05
Wurde schon etwas über GPU-Computing auf AMDs Fusion gesagt? Will AMD 2011 einen ähnlichen Weg gehen wie nvidia mit der Fermi-Generation?

Was ist der Weg von Nvidia?
Und hetrogenes Computing wird wohl eher ein Thema für die Nachfolger werden.
Bei Llano geht es wohl hauptsächlich um die Integration möglichst vieler Komponenten.

mboeller
2010-02-10, 07:30:05
Das Ding ist im übrigen so ganz nebenbei der perfekte Server-Chip:
http://vr-zone.com/articles/amd-gpus-to-accelerate-servers-in-two-years/8415.html

Server sehe ich hier nicht als großen Markt für Llano, aber dafür HPC. Wenn AMD nichts falsch gemacht hat und Llano mit 3 HT3 Interfaces ausgestattet hat sollte ein Board mit 4 APU's eine ziemlich hohe DP Leistung haben. ECC gibts auch und bis 64GB RAM oben drauf.... Man muss nur ein wenig geduldig sein. Mal schauen wie AMD das ganze handhabt.

Ailuros
2010-02-10, 08:21:19
Was ist der Weg von Nvidia?
Und hetrogenes Computing wird wohl eher ein Thema für die Nachfolger werden.
Bei Llano geht es wohl hauptsächlich um die Integration möglichst vieler Komponenten.

Damit heterogenes computing ein Thema fuer jeglichen Nachfolger sein kann muss es aus eine anstaendige Anzahl von relevanter hw geben, sonst setzt sich auch kein GP Applikations-Entwickler hin und krempelt seinen code fuer GPGPU um.

NVIDIA kann OpenCL bzw. CUDA in ihrem ION Zeug unterstuetzen; das eigentliche Nachsehen im GPGPU Feld fuer diese Maerkte hat dann Intel. Es waere leicht zu sagen dass Intel den groessten Marktanteil an integriertem bzw. eingebettetem Zeug hat, aber NV und AMD verkaufen nicht nur low end Grafik Loesungen. Jeglicher Schritt in die GPGPU Richtung ist dann nicht ausschliesslich fuer mainstream bzw. high end GPUs, sondern wird wohl auch jegliche Grafik Loesung betreffen.

Da AMD nicht nur Llano fuer low end PC/notebooks haben wird sondern auch Ontario fuer =/< netbooks sind sie momentan der einzige IHV der mit DX11 Loesungen von smart phones bis zu supercomputers bedienen koennen.

Undertaker
2010-02-10, 10:12:54
Server sehe ich hier nicht als großen Markt für Llano, aber dafür HPC. Wenn AMD nichts falsch gemacht hat und Llano mit 3 HT3 Interfaces ausgestattet hat sollte ein Board mit 4 APU's eine ziemlich hohe DP Leistung haben. ECC gibts auch und bis 64GB RAM oben drauf.... Man muss nur ein wenig geduldig sein. Mal schauen wie AMD das ganze handhabt.

Das wäre doch dann aber weder recht Fleisch noch Fisch. Habe ich eine Anwendung, die die GPU in Liano wirklich ausnutzen kann, wäre es doch viel sinnvoller gleich auf einen GPU-Cluster zu setzen. Schon eine HD5970 hätte grob die 8x DP Leistung und wäre im Jahre 2011 noch nicht einmal mehr absolutes High-End.

Gast
2010-02-10, 10:28:19
Das wäre doch dann aber weder recht Fleisch noch Fisch. Habe ich eine Anwendung, die die GPU in Liano wirklich ausnutzen kann, wäre es doch viel sinnvoller gleich auf einen GPU-Cluster zu setzen. Schon eine HD5970 hätte grob die 8x DP Leistung und wäre im Jahre 2011 noch nicht einmal mehr absolutes High-End.

Das nennt man maximale Flexibilität - Unbezahlbar. Zeige mit einem Supercomputer der rein auf GPUs setzt, wirst du nicht finden. Es ist immer eine Mischung aus klassischen CPUs und Streamprozessoren. AMD vereint das auf einem Chip und erlaubt damit eine noch nie dagewesene Flexibilität, auch was zukünftige Aufrüstbarkeit oder den Formfaktor betrifft hat man dadurch natürlich erhebliche Vorteile.

Gast
2010-02-10, 10:37:34
Damit heterogenes computing ein Thema fuer jeglichen Nachfolger sein kann muss es aus eine anstaendige Anzahl von relevanter hw geben, sonst setzt sich auch kein GP Applikations-Entwickler hin und krempelt seinen code fuer GPGPU um.

NVIDIA kann OpenCL bzw. CUDA in ihrem ION Zeug unterstuetzen; das eigentliche Nachsehen im GPGPU Feld fuer diese Maerkte hat dann Intel. Es waere leicht zu sagen dass Intel den groessten Marktanteil an integriertem bzw. eingebettetem Zeug hat, aber NV und AMD verkaufen nicht nur low end Grafik Loesungen. Jeglicher Schritt in die GPGPU Richtung ist dann nicht ausschliesslich fuer mainstream bzw. high end GPUs, sondern wird wohl auch jegliche Grafik Loesung betreffen.

Da AMD nicht nur Llano fuer low end PC/notebooks haben wird sondern auch Ontario fuer =/< netbooks sind sie momentan der einzige IHV der mit DX11 Loesungen von smart phones bis zu supercomputers bedienen koennen.

Ehrlich gesagt messe ich GPGPU in den nächsten Jahren keine große Bedeutung im Consumermarkt zu (vill mal ein Videoconverter oder Photoshopfilter etc.)
Ich denke eher, dass vor allem im HPC-Markt Prozessoren mit ALU-Erweiterungen (dann wohl ohne FF-Einheiten) die Zukunft solcher Lösungen liegt.
Die meisten User können nicht mal mit der jetzt verfügbaren Leistung etwas Sinnvolles anfangen. In dem Markt wird es wahrscheinlich wichtiger sein den Stromverbrauch/die Kosten zu senken, nicht die Leistung durch GPGPU zu erhöhen.

Ailuros
2010-02-10, 11:28:53
Ehrlich gesagt messe ich GPGPU in den nächsten Jahren keine große Bedeutung im Consumermarkt zu (vill mal ein Videoconverter oder Photoshopfilter etc.)
Ich denke eher, dass vor allem im HPC-Markt Prozessoren mit ALU-Erweiterungen (dann wohl ohne FF-Einheiten) die Zukunft solcher Lösungen liegt.
Die meisten User können nicht mal mit der jetzt verfügbaren Leistung etwas Sinnvolles anfangen. In dem Markt wird es wahrscheinlich wichtiger sein den Stromverbrauch/die Kosten zu senken, nicht die Leistung durch GPGPU zu erhöhen.

Es aendert am obrigen wenig; denn Intel's insgesamter "Eimer" ist nach wie vor "lehrer" als mit Larabee.

S940
2010-02-10, 11:29:32
Server sehe ich hier nicht als großen Markt für Llano, aber dafür HPC. Wenn AMD nichts falsch gemacht hat und Llano mit 3 HT3 Interfaces ausgestattet hat
Llano hat genau 0 HT3 Interfaces :freak:

Warte mal auf die Bulldozer Fusions 2012.

Über den HPC Nutzen muss man nicht spekulieren, Fusion ist vom Grobkonzept her nur ein (ganz) dicker x86 Cell Prozessor. Wofür Cell ursprünglich konzipiert wurde, sollte bekannt sein.

ciao

Alex

Gast
2010-02-10, 12:11:41
Es aendert am obrigen wenig; denn Intel's insgesamter "Eimer" ist nach wie vor "lehrer" als mit Larabee.

Wo habe ich was von Intel geschrieben?
Es geht doch hier um Llano und um das künftige Konzept solcher Prozessoren.
Intel muss überhaupt erst mal etwas zeigen.
Das was jetzt in Arrandale und später in Sandybridge verbaut ist, ist dazu untauglich.

OBrian
2010-02-10, 12:35:41
Der eigentliche Lichtblick bei Fusion ist doch, daß man der breiten Clientel, die bisher mit CPU plus Onboardgrafik ausgekommen ist, eine ernsthafte GPGPU-Lösung unterjubelt, die sie zwar erstmal nicht braucht, aber auch nicht extra bezahlen muß. Dadurch schafft man aber eine wesentlich breitere Hardwarebasis, die Softwareentwickler dazu anregen wird, diese Ressourcen auch zu nutzen. Intels Arbeit an Larrabee zeigt ja, daß die grundsätzlich auch an vielseitig verwendbaren Grafikkernen interessiert sind, man muß sich also nicht so weit aus dem Fenster lehnen, um anzunehmen, daß spätere Intel-CPUs mit integrierter Grafik auch GPGPU-fähig sein werden. Damit bleibt die GPGPU-fähige Hardwarebasis nicht auf den kleinen AMD-Marktanteil beschränkt, sondern dürfte in einigen Jahren so Richtung 80-100% gehen.

Auf die Weise bekommen wir in einiger Zeit nicht nur Nischenanwendungen, die von GPUs profitieren, sondern auch kleine Dinge für jeden. Ich weiß nicht genau, was alles, aber bisher war es immer so, daß ein Hardwaresprung auch zu Anwendungen geführt hat, die bisher nicht machbar waren (z.B. WYSIWYG-Textverarbeitung dank grafischer Benutzeroberfläche, Youtube dank Breitband-Internet usw.)

AMD muß nur gleichzeitig auch wesentlich mehr Energie in die Unterstützung der Softwareentwicklung stecken, d.h. Compiler, Entwicklungstools, auch individuellen Support usw. - da sind Intel und Nvidia beide deutlich weiter.

HOT
2010-02-10, 17:06:27
Llano hat genau 0 HT3 Interfaces :freak:

Warte mal auf die Bulldozer Fusions 2012.

Über den HPC Nutzen muss man nicht spekulieren, Fusion ist vom Grobkonzept her nur ein (ganz) dicker x86 Cell Prozessor. Wofür Cell ursprünglich konzipiert wurde, sollte bekannt sein.

ciao

Alex
Auf dem Die-Plot hat Llano aber derer 4...

S940
2010-02-10, 17:09:12
Auf dem Die-Plot hat Llano aber derer 4...Welcher ? Der von #115 ? Dann drück mal auf reload ;-)

OBrian
2010-02-10, 19:27:26
Er braucht zumindest keinen HT: Die SB wird wie alle Ati-Chipsätze per PCIe angebunden, der NB-Chip fällt ja komplett weg und das Ding ist auch nicht für Serverplattformen vorgesehen, wo mehrere Sockel verbunden werden müssen. Für eine HPC-Plattform schraubt man dann lieber mehrere Bulldozer zusammen und packt noch einige fette Grafikkarten in Steckplätze - ist auch besser, weil man damit dann keine RAM-Bandbreitenprobleme bekommt. Die 128bit bei Llano für CPU+GPU sind wohl noch die schwächste Stelle, aber man muß ja nicht gleich alles wollen, 256bit oder vier RAM-Channels würden das ganze reichlich teuer machen, wer will das denn im Notebook verdrahten, wo sich eh alles schon gegenseitig auf die Füße tritt?

HOT
2010-02-11, 00:13:21
Welcher ? Der von #115 ? Dann drück mal auf reload ;-)
Hui das ist ja PCIe, hups :D.

AnarchX
2010-02-11, 11:16:20
Die 128bit bei Llano für CPU+GPU sind wohl noch die schwächste Stelle, aber man muß ja nicht gleich alles wollen, 256bit oder vier RAM-Channels würden das ganze reichlich teuer machen, wer will das denn im Notebook verdrahten, wo sich eh alles schon gegenseitig auf die Füße tritt?
Man könnte Llano schon mit einem 3-Kanal 192-Bit SI ausstatten, ob der Notebook-Hersteller es dann nutzt bzw. verdrahtet könnte man ihm überlassen.

In den kommenden Versionen dürfte wohl ein Fast-RAM-Konzept zum Einsatz kommen, erst recht wenn man den IGP noch mit FP-starken BD-Cores koppelt.

S940
2010-02-11, 12:05:31
Bitte um Aufklärung: Was ist ein "Fast-RAM Konzept" ? :)
Fast Page Mode RAMs hatte ich schon vor ein paar Jahren, das ist es hoffentlich nicht ;-)

Allgemeint zur RAM Geschwindigkeit:
2011 wird DDR3-1866 Standard sein, das sollte für Llano + GPU gut ausreichen. Eventuell sogar mit 1,35V VDimm, wird aus den Pressemitteilungen nicht ganz klar:
http://www.planet3dnow.de/vbulletin/showthread.php?t=375962

@HOT:
Das wurde nachträglich editiert, nicht Dein Fehler ^^

ciao

Alex

AnarchX
2010-02-11, 12:53:09
Ein schneller Speicher zwischen letzem Cache und Hauptspeicher.
Hier gibt es ein paar Überlegungen zur Implementierung von Intel:
http://translate.google.ch/translate?u=http%3A%2F%2Fpc.watch.impress.co.jp%2Fdocs%2F2008%2F1226%2Fkaigai483 .htm&sl=ja&tl=de&hl=de&ie=UTF-8

Und auch zu Gesher aka Sandy Bridge gibt es diese alte Folie, wo man einen schnellen 512MiB Speicher mit ~64GB/s vorsah:
http://img70.imageshack.us/img70/9112/geshervslarabeear9.jpg

S940
2010-02-11, 15:36:46
Aha, Danke, wieder was gelernt.

Also eigentlich quasi ne Art L4 Cache aus GDDR (oder vermutlich auch eDRAM).

Oder ist das eher ein extra RAM Bereich, ohne Cache Funktion wie die Local Datastores bei den GPUs ?

Sorkalm
2010-02-14, 13:22:33
Ist das hier schon bekannt?

http://img59.imageshack.us/img59/4940/amdfusionanalystday03.png

http://www.xtremesystems.org/forums/showthread.php?t=244887&page=3

TeraFlops GPU!?

mboeller
2010-02-14, 13:44:36
Ist das hier schon bekannt?

http://img59.imageshack.us/img59/4940/amdfusionanalystday03.png

http://www.xtremesystems.org/forums/showthread.php?t=244887&page=3

TeraFlops GPU!?


Ja schon lange. Stammt aus der Präsentation "AMD 2009 Analyst Day Rick Bergman.pdf" vom 11. November 2009 auf Seite 43.

S940
2010-02-14, 14:43:29
TeraFlops GPU!?
Na da steht ja noch GPU, und nicht APU dabei. Die spielen deshalb erstmal auf Ihre TFLop GPUs an, also RV770 und neuer.

Sorkalm
2010-02-14, 14:43:40
Jop. Wobei mir die Folie mit dem GPU-Teraflop-Hinweis noch nie aufgefallen ist, wie wurde das denn damals verstanden?

Heinz-Norbert
2010-02-14, 16:33:41
Ja was gibt es denn da falsch zu verstehen? Fusion wird mehr als ein TeraFLOP bieten können. Kommt ja auch schließlich erst 2011 ;-)

Sorkalm
2010-02-14, 16:46:00
Ja was gibt es denn da falsch zu verstehen? Fusion wird mehr als ein TeraFLOP bieten können. Kommt ja auch schließlich erst 2011 ;-)

Fusion kommt ziemlich sicher 2010, als K10-Adaption auf 32 nm. Und ein Teraflops halte ich da für sehr viel. Das haben im Moment die 5700er-Karten. Guck mal in die Diskussion 1-2 Seiten davor, da hatten wir eher Redwood vermutet. Wie will man das überhaupt sinnvoll mit Speicherbandbreite austatten?

Oder meinst du, dass sich diese Folie auf spätere Fuison-APUs bezieht?

S940
2010-02-14, 17:00:12
Jungs habt ihr mein Posting oben übersehen ?

Auf der Folie steht 1 TFLOP GPU, nicht APU ;-)

Wobei man 1 TFLOP auch mit 400 Shader hinbekommen könnte, wenn die doppelt so schnell wie in den RV770ern takten. Wäre mit 32nm SOI hK eventuell sogar drin.

Aber es bliebe das Speicherbandbreitenproblem und sonderlich stromsparend wären 1,5 GHz Takt sicherlich auch nicht.

Undertaker
2010-02-14, 17:04:18
Fusion kommt ziemlich sicher 2010, als K10-Adaption auf 32 nm.

Nope, 2011 ist der Termin laut Roadmap.

http://www.abload.de/img/amd_roadmap_november_0kauz.jpg (http://www.abload.de/image.php?img=amd_roadmap_november_0kauz.jpg)

Dieses Jahr werden wir voraussichtlich keine 32nm Parts mehr von AMD sehen.

Sorkalm
2010-02-14, 17:24:39
Nope, 2011 ist der Termin laut Roadmap.

Passt. Bei mir war grade das Jahr 2009, und 2010 das nächste Jahr. :freak:

Heinz-Norbert
2010-02-14, 17:26:14
Wie will man das überhaupt sinnvoll mit Speicherbandbreite austatten?
eDRAM oder Sideport-RAM

Oder meinst du, dass sich diese Folie auf spätere Fuison-APUs bezieht?

Fusion-APUs für 2011

davidzo
2010-03-22, 21:06:18
eDRAM oder Sideport-RAM

Fusion-APUs für 2011

EDRAM = unmöglich 180mm², sehr sehr teuer und wenig brauchbar für die cpu. In Konsolen mag EDram etwas bringen, weil die Inhalte/Anwendungen entsprechend schlank gehalten werden können, für eine GPU kann man 2011 aber die 10MB vom Xenos als lächerlich bezeichnen und die CPU braucht sowieso viel größere Rammengen und besitzt bereits schnelle caches. Möglich wäre natürlich, dass die GPU über dieselbe Crossbar mit dem L3 verbunden ist wie die CPU, aber mahl erhlich, die 40gb/s die der L3 da gerademal schafft reißen die GPU auch nicht wirklich vom Hocker...


Sideport Ram wäre im Prinzip dasselbe wie zusätzliche Speicherkanäle, Schließlich müssen Diese im Chip vorhanden sein um ein Mehr an Bandbreite zu erziehlen und ob man nun DDR3 DIMMs oder aufgelöteten Speicher verwendet macht keinen großen Unterschied für den Chip. Ein 64bit DDR3 Kanal ist ein 64bit Kanal.
Für 1 Teraflop Leistung sollten schon mindestens 50 gb/s zur Verfügung stehen, die 1,3 teraflop HD5770 hat schließlich 76gb/s. Alles Andere macht keinen Sinn, wozu die GPU so groß auslegen wenn die Bandbreite sie verstümmelt?

1 Teraflop GPU? Quad Channel DDR3 1600? 120 5D Shader?

...klingt für mich alles nicht nach einer idealen Labtop CPU schon gar nicht nach nur 180mm² Diefläche. Alleine schon 4 dimms... - in einem Labtop???

Naja, zwei Kanäle (128bit) könnte man ja mit 512mb auflöten, demnach wären 51,2gb/s (256bit) bis 1GB Speichernutzung gegeben und ab dann "nur" noch 25,6gb/s. Den ersten teil könnte man für die GPU reservieren, während sich die CPU nur in speziellen Fällen etwas vom ersten Gigabyte leisten darf und dabei dann hübsche Geschwindigkeitsüberraschungen bereit haben dürfte.

Sehr abenteuerlich wirds, wenn man versucht die 50gb/s aus zwei DDR3 und einem GDDR5 64bit Speicherkanal zusammen zu setzen. Da das aber wohl ziemliche Probleme mit den Latenzen geben würde und solche asynchronen Lösungen in der Vergangenheit wohl eher selten von AMD Ingenieuren ausprobiert wurden halte ich diese Variante für extrem unwahrscheinlich. DDR3 ist außerdem deutlich günstiger und womöglich auch sparsamer (notebooks).


Shader über 1Ghz durch SOI? - denke eher nicht, wenn SOI potential bei der GPU freisetzt so wird das eher genutzt um den Verbrauch zu senken um Llano Labtoptauglich zu machen. Genau so wenig können wir eine neue Grafikarchitektur erwarten die andere Shader oder andere Taktraten besitzt, schließlich wissen wir, dass dies bei der CPU ebenfalls nicht der Fall ist und auf einen alten Phenom II Core gesetzt wir statt auf Bulldozer oder Bobcat die zur selben zeit erscheinen. Die CPU ist auf jeden fall der Part von Llano, der schon jetzt veraltet ist, die aktuelle ATI diskrete GPUtechnik ist aber unerreicht in effizienz und Features derzeit, hier wird also alles beim alten bleiben.
Apropos, wieviel Platz für Shader haben wir denn überhaupt?

- RV840 hat 800Shader, ein 128bit Interface, 1040mio Transistoren und ist in 45nm 166mm² groß
- Deneb hat 4 Stars Cores und 6mb L3 cache sowie ein paar überflüssige HTlinks (Opetron) ist in 45nm 258mm² groß
- Propus hat 4 Stars Cores ohne L3cache und lediglich 300mio und ist in 45nm 169mm² groß
- Wenn 32nm gut funktioniert sinkt die Diegröße auf nur noch 50% der Größe eines vergleichbaren Chips in 45nm

Was sagt uns das?
- Offensichtlich verwendet AMD weniger Layer bei den CPUs als TSMC bei den GPUs. Oder CPU Transistoren sind eben deutlich teurer als GPU Transistoren. Ich denke es ist womöglich beides und AMD hat seine Gründe dafür so bei der CPU vor zu gehen. Es gibt aber eigentlich keine Gründe auch bei der GPU, die sich ja so hervorragend parallelisieren lässt mehr auf Takt zu spielen und die Diefläche auf Kosten des shadercounts zu vergrößern, wie man das bei CPUcores macht. Im gegenteil, verbrauch senken ist die Devise, also runter mit dem Takt.
- Deneb wäre bei einem perfekten shrink (den es nicht gibt, aber Llano ist ja auch kiein shrink sondenr ein natives design) nurnoch 130mm² groß.
- RV840 hätte in 32nm bei einem perfekten shrink nur noch 85mm²
- Ein 1,8 mllrde Transistoren Chip hätte in 32nm nur 215mm² (CPU + GPU Packdichte kombiniert)
- Mit 180mm² sind 1,6mllrde Transistoren machbar in einem Mix aus CPU und GPU Packdichte und dem Mittelwert der Layer beider Chips.

Imho sind ein Budget von 1,6milliarden Trannies doch wirklich genug um 4 Stars Cores, einen 4mb L3Cache, vier Speicherkanäle a 64bit und 640-800 Shadereinheiten bei einem niedrigeren Takt unterzubringen. Nur wie das ganze als Mobilchip genutzt werden soll ist mir noch schleierhaft... vielleicht meinte AMD mit mobilfusion aber auch gar nicht Llano sondern die Bobcat Dualcores, die dann eher in Richtung Cedar+AthlonII gehen...

AnarchX
2010-03-22, 21:20:46
1 TFLOPs mag ich für 32nm SOI doch etwas bezweifeln, mit 40nm Bulk benötigt ein 400SPs Redwood schon 104mm², wenn dann vielleicht 480SPs, aber mehr würde ich bei einem ~200mm² Llano nicht sehen, und da bräuchte man immer noch über 1GHz.

600-800GFLOPs sollte auch von der Stromverbrauchsperspektive ein vernünftiger Anfang sein, wo man mit 2-Ch-DDR3-1600/1833 noch auskommen sollte.

Beim Llano-Nachfolger sollte man dann aber wohl einen Fast-DRAM in der Speicherhierarchie zwischen letztem Cache und Hauptspeicher einbringen, wodurch man dann die Bandbreite vernünftig zur Rechenleistung erhöhen kann.

davidzo
2010-03-22, 22:48:29
1 TFLOPs mag ich für 32nm SOI doch etwas bezweifeln, mit 40nm Bulk benötigt ein 400SPs Redwood schon 104mm², wenn dann vielleicht 480SPs, aber mehr würde ich bei einem ~200mm² Llano nicht sehen, und da bräuchte man immer noch über 1GHz.

600-800GFLOPs sollte auch von der Stromverbrauchsperspektive ein vernünftiger Anfang sein, wo man mit 2-Ch-DDR3-1600/1833 noch auskommen sollte.

Beim Llano-Nachfolger sollte man dann aber wohl einen Fast-DRAM in der Speicherhierarchie zwischen letztem Cache und Hauptspeicher einbringen, wodurch man dann die Bandbreite vernünftig zur Rechenleistung erhöhen kann.

klingt alles deutlich vernünftiger.

aber man sollte nicht vergessen, dass der Gegner für Llano von Intel Sandy Bridge heißt und der kommt zwar mit einer wohl deutlich schlechteren Grafik (ca. 180% clarkdale), aber mit vier Cores bei bis zu 3.4ghz (3.8 in turbomode) und Dualchannel DDR3 1600.
Da kommt AMDs Phenon II Stars Quadcore Leistungsmäßig normalwerweise nie heran, auch nicht wenn er in 32nm eventuell sogar an ähnlichen Taktbereichen kratzt und auch wenn er ebenfalls einen funktionierenden turbomodus besitzt. Mit einem Quadchannel Interface hätte man aber sozusagen einen CPUturbo für die Szenarien wo wenig Grafikbandbreite gebraucht wird. Damit könnte man wenigstens zum Teil die ineffzientere Architektur kaschieren. Irgendwelche Synergien muss sich AMD von Llano ja erhoffen, sonst würden sie ein MCM aus bulldozer und northern islands machen und danach lieber gleich mit dem total integrierten Fusion kommen.

S940
2010-03-22, 23:12:37
Da kommt AMDs Phenon II Stars Quadcore Leistungsmäßig normalwerweise nie heran,
Soll er auch gar nicht, das wird schließlich die Mainstream CPU.
Für die Leute die Höchstleistung brauchen, gibts 2011 dann Bulldozer. Für alle andren reicht ein K10 Core locker aus ... manchen soll ja sogar ein Atom reichen ^^

Gast
2010-03-24, 15:46:55
EDRAM = unmöglich 180mm²
na und?

In Konsolen mag EDram etwas bringen, weil die Inhalte/Anwendungen entsprechend schlank gehalten werden können, für eine GPU kann man 2011 aber die 10MB vom Xenos als lächerlich bezeichnen

Es paßt aber immerhin ein framebuffer für 1366x768 locker rein. Bei 20MB kannst du einen Framebuffer für 1920x1200 nutzen und da bleibt sogar noch was übrig.

mboeller
2010-03-24, 16:07:38
na und?

Es paßt aber immerhin ein framebuffer für 1366x768 locker rein. Bei 20MB kannst du einen Framebuffer für 1920x1200 nutzen und da bleibt sogar noch was übrig.


20MB = ca. 1 Mrd. Transistoren in 6T-SRAM (und AMD nutzt jetzt sogar 8T)

Als Alternativen (die es aber in der Serie noch nicht gibt) blieben nur Z-RAM oder T-RAM. Z-RAM gibt es jetzt übrigens auch für Bulk-Si (wurde von Hynix lizenziert).

G.A.S.T.
2010-03-24, 17:41:11
20MB = ca. 1 Mrd. Transistoren in 6T-SRAM (und AMD nutzt jetzt sogar 8T)

Mir wäre neu, das bei der GPU der xbox360 6T-SRAM verwendet wird.

Gast
2010-03-24, 17:47:26
20MB = ca. 1 Mrd. Transistoren in 6T-SRAM (und AMD nutzt jetzt sogar 8T)

Als Alternativen (die es aber in der Serie noch nicht gibt) blieben nur Z-RAM oder T-RAM. Z-RAM gibt es jetzt übrigens auch für Bulk-Si (wurde von Hynix lizenziert).

E-DRAM!=SRAM

mboeller
2010-03-25, 07:33:21
E-DRAM!=SRAM

sicher, und dann zeigst du mir wo AMD eDRAM einsetzt. Die haben/können bisher nur 6T od. 8T SRAM.

Anfi
2010-03-25, 08:27:40
Mit einem Quadchannel Interface hätte man aber sozusagen einen CPUturbo für die Szenarien wo wenig Grafikbandbreite gebraucht wird.

können cpus überhaupt wesentlich von so einer hohen bandbreite profitieren? ich meine mich an cpu-benchmarks zu erinnern, wo das triple channel interface des i7 kaum messbare vorteile bringt.

S940
2010-03-25, 08:55:07
können cpus überhaupt wesentlich von so einer hohen bandbreite profitieren? ich meine mich an cpu-benchmarks zu erinnern, wo das triple channel interface des i7 kaum messbare vorteile bringt.
Fusion ist keine CPU ;D

Undertaker
2010-03-25, 10:12:59
Natürlich ist Fusion = Liano = K10.5 Kern eine CPU. Mit Grafikkern, aber den hat z.B. auch ein Clarkdale. Das die Marketingabteilung hier schöne neue Namen erfindet, mag jeder sehen wie er will.

Gast
2010-03-25, 11:33:48
sicher, und dann zeigst du mir wo AMD eDRAM einsetzt. Die haben/können bisher nur 6T od. 8T SRAM.
Was für ein Quatsch!

Natürlich setzt AMD/ATI eDRAM ein und es müsste dir auch direkt einfallen wo.

Wieso sollten die das nicht können? Hälst du die für Idioten?


Und das eDRAM nicht für normale CPUs eingesetzt wird, ist hoffentlich klar.

mboeller
2010-03-25, 12:26:11
Was für ein Quatsch!

Natürlich setzt AMD/ATI eDRAM ein und es müsste dir auch direkt einfallen wo.

Wieso sollten die das nicht können? Hälst du die für Idioten?


Und das eDRAM nicht für normale CPUs eingesetzt wird, ist hoffentlich klar.


Du meinst die XBox360. Tja, nur stellt die AMD nicht her :P

Gast
2010-03-25, 12:30:00
Du meinst die XBox360. Tja, nur stellt die AMD nicht her :P
als ob das irgendeine Rolle spielen würde

Gast
2010-03-25, 12:53:01
Natürlich ist Fusion = Liano = K10.5 Kern eine CPU. Mit Grafikkern, aber den hat z.B. auch ein Clarkdale. Das die Marketingabteilung hier schöne neue Namen erfindet, mag jeder sehen wie er will.

Clarkdale hat eine IPG, die nur eine Zweck hat, nämlich ein Bild darzustellen. Das Fusion-Konzept ist ein gänzlich anderes.

Gast
2010-03-25, 13:35:34
GPGPU ist auch dort denkbar.

Coda
2010-03-25, 14:53:05
als ob das irgendeine Rolle spielen würde
Natürlich tut es das. Das Problem bei eDRAM ist, dass man dafür den Prozess auslegen muss.

Der Chip wird deshalb auch von NEC gefertigt, und nicht von Chartered/TSMC bei der Xbox wenn ich mich richtig erinnere.

Gast
2010-03-25, 16:06:27
Natürlich tut es das. Das Problem bei eDRAM ist, dass man dafür den Prozess auslegen muss.

Der Chip wird deshalb auch von NEC gefertigt, und nicht von Chartered/TSMC bei der Xbox wenn ich mich richtig erinnere.
Klar, aber es spielt in so fern keine Rolle, weil...

1. AMD genug Zeit hat (bzw. hatte) um sowas auch selber fertigen zu können

2. AMD zur Not auch internen Fast-RAM für Fusion woanders fertigen lassen kann.

mboeller
2010-03-26, 07:25:51
Klar, aber es spielt in so fern keine Rolle, weil...

1. AMD genug Zeit hat (bzw. hatte) um sowas auch selber fertigen zu können

2. AMD zur Not auch internen Fast-RAM für Fusion woanders fertigen lassen kann.


Seufz...

eDRAM ist völlig sinnlos für AMD. Warum willst du das nicht einsehen?

1) Die Herstellprozesse von AMD sind nicht dafür ausgelegt.
2) damit würde AMD einen extern gefertigten eDRAM-Chip zukaufen müssen
3) und damit würde AMD alle Vorteile von Llano verlieren (1 Spezial eDRAM-chip incl. HT3.1 Interface würde wahrscheinlich mehr kosten als eine normale Northbridge mit IGP)

Ergo, falsche Richtung. IMHO natürlich ;)

Ailuros
2010-03-26, 07:46:14
Die eigentliche Frage ist ob ein SoC wie Fusion fuer die Llano APU wirklich eDRAM als "Teil-framebuffer" wie auf Xenos wirklich braucht. Es handelt sich so oder so um fundamental verschiedene Designs und es hat sich auch zwischen Xenos und Evergreen so einiges in der Architektur geaendert.

Zwar hat Llano nichts direkt mit Tegra2 zu tun (da ist selbst Ontario schon einige Generationen weiter), aber NV hat hier fuer die GPU 1MB SRAM was aber auch leider die GPU die area viel zu viel beinflusst. Schaetzungsweise duerfte die T2 GPU + SRAM irgendwo leicht unter 10mm2 liegen bei 40LP (240MHz). In etwa so gross duerfte eine SGX540 sein mit doppelt so viel ALUs und die geben sich mit 32 bis 128KB SRAM zufrieden. Tegras haben auch kein earlyZ, welches es noch komplizierter macht.

Alles in allem es wird fuer AMD durchaus moeglich sein so viele Daten wie moeglich auf der GPU selber zu halten ohne wirklich eDRAM zu benoetigen. Man wird auch wohl von einer entry level PC/notebook Loesung auch nicht irgend eine extravagante AA Leistung erwarten.

***edit:

http://forum.beyond3d.com/showpost.php?p=1413250&postcount=199

Before GPU + Bulldozer fusion we will see a GPU + Bobcat Fusion.

But the K10 core in Llano is not just the "same" core as 2008 Barcelona, it has many small improvements, the most important being changing L1 cache type which should allow much higher clock speeds while still keeping voltage down.

But yes, sandy bridge will also have many improvements, so it will definetely be faster. But Llano will have much better GPU, and Llano is not a high-end product anyway.

Gast
2010-03-26, 13:56:30
ist der L3 nicht schon wie ein embeded framebufferspeicher? der wird doch zwischen den cores geshared und ist auch gross genug beim aktuellen X2/X3/X4/X6

Gast
2010-03-27, 13:59:05
Alles in allem es wird fuer AMD durchaus moeglich sein so viele Daten wie moeglich auf der GPU selber zu halten ohne wirklich eDRAM zu benoetigen.

Das wäre ja noch geiler, als embedded RAM zu verwenden.
Aber wenn das so einfach möglich wäre, kaum noch Bandbreite für Framebuffer zu benötigen, warum hat nicht schon längst ein GPU-Hersteller was in diese Richtung unternommen?

S940
2010-03-27, 15:07:38
ist der L3 nicht schon wie ein embeded framebufferspeicher? der wird doch zwischen den cores geshared und ist auch gross genug beim aktuellen X2/X3/X4/X6
Llano kommt ohne L3 ...

davidzo
2010-03-29, 23:12:50
können cpus überhaupt wesentlich von so einer hohen bandbreite profitieren? ich meine mich an cpu-benchmarks zu erinnern, wo das triple channel interface des i7 kaum messbare vorteile bringt.
Das liegt eher daran, dass Lynnfield DDR1333 dualchannel unterstützt und Bloomfield offiziell nur DDR1066, womit der Bandbreitenvorteil von triplechannel wirklich marginal ausfällt. Außerdem enthält Lynnfield diverse kleine Core-Verbesserungen gegenüber Bloomfield. Ich denke schon, dass die CPU von gesteigerter Bandbreite profitieren kann, besonders in Multithreaded Anwendungen. In letzter Zeit steigerte sich nämlich die IPC, sowie die Anzahl der Cores, die zur Verfügung stehende Bandbreite allerdings ist seit Jahren bei AMD kaum gestiegen.

But yes, sandy bridge will also have many improvements, so it will definetely be faster. But Llano will have much better GPU, and Llano is not a high-end product anyway.

Schade, dass es mal wieder an AMDs mittelmäßigen CPUs scheitert. Denn GPUseitig wird es ein leichtes sein die sandybridge GPU zu schlagen, auch in performance/watt und performance/diefläche. GPUseitig ist Fusion im Gegensatz zu sandybridge dann nämlich schon (mobiles) highend.

ist der L3 nicht schon wie ein embeded framebufferspeicher? der wird doch zwischen den cores geshared und ist auch gross genug beim aktuellen X2/X3/X4/X6

Guck dir mal die Bandbreite von AMDs L3 an. Sieht für ne Grafikkarte nicht wirklich brauchbar aus, da haben ja schon die midrangechips mehr. Macht echt keinen Sinn in L3 zu investieren bei Llano, erst recht nicht für die GPU. Da stimme ich s940 zu, Llano ist Propus based! Alleine der TDPunterschied vom Athlon II zum Phenom sollte das deutlich machen.
Eher Sinn macht es da schon ein wenig DIEspaße für ein bis zwei zusätzliche memcontroller zu opfern.

HOT
2010-03-30, 12:45:36
Clarkdale hat eine IPG, die nur eine Zweck hat, nämlich ein Bild darzustellen. Das Fusion-Konzept ist ein gänzlich anderes.
Zudem ist Clarkdale kein Fusion, weil hier immernoch 2 Chips verwendet werden wie bei der Pentium2-Core2 Architektur. Ob die Northbridge jetzt auf dem Träger oder auf dem Mobo sitzt ist vollkommen hupe.

Gast
2010-03-30, 13:03:06
Es ist ebenso Banane, wieviele Chips sich unter dem HS befinden. Prinzipiell ist bei jeder integrierten Grafik mit ausreichendem Techlevel, ob auf dem Die, auf dem Chip oder auf dem Board, gleiches wie bei Fusion möglich. Einzig die Geschwindigkeit der Anbindung leidet verständlicherweise.

Gast
2010-04-19, 10:08:20
news?
http://www.gamestar.de/hardware/news/prozessoren/2314285/prozessoren_mit_directx_11_kern.html


Guck dir mal die Bandbreite von AMDs L3 an. Sieht für ne Grafikkarte nicht wirklich brauchbar aus, da haben ja schon die midrangechips mehr. Macht echt keinen Sinn in L3 zu investieren bei Llano, erst recht nicht für die GPU. Da stimme ich s940 zu, Llano ist Propus based! Alleine der TDPunterschied vom Athlon II zum Phenom sollte das deutlich machen.
Eher Sinn macht es da schon ein wenig DIEspaße für ein bis zwei zusätzliche memcontroller zu opfern.
Ansicht ist die latenz wichtiger als die bandbreite. Je mehr random zugriffe vorhanden sind, desto wichtiger wird das.

aber wenn es eh keinen L3 gibt, hat sich das eh erledigt.

S940
2010-04-19, 10:22:49
Ansicht ist die latenz wichtiger als die bandbreite. Je mehr random zugriffe vorhanden sind, desto wichtiger wird das.
Für eine single thread CPU ja, für eine multithread GPU nein.
Dazwischen gibts dann SMT CPUs und GPUs mit single-thread Anteilen aufgrund GPGPU Apps.

Anders gesagt: Je mehr parallel gerechnet werden kann, desto unwichtiger wird die Latenz. In der Wartezeit rechnet man in dem Fall einfach an irgendwas anderem weiter.

Undertaker
2010-04-19, 10:26:06
Das lässt sich so pauschal auch nicht konstatieren. Wenn bei vielen Threads starke Abhängigkeiten mit hohem Kommunikationsaufwand bestehen, bleibt auch hier die Latenz von großer Bedeutung - dies ist also fallabhängig.

Gast
2010-04-19, 11:50:05
Für eine single thread CPU ja, für eine multithread GPU nein.
Dazwischen gibts dann SMT CPUs und GPUs mit single-thread Anteilen aufgrund GPGPU Apps.

Anders gesagt: Je mehr parallel gerechnet werden kann, desto unwichtiger wird die Latenz. In der Wartezeit rechnet man in dem Fall einfach an irgendwas anderem weiter.
hmm, du darfst GPU und CPU nicht vermischen bei sowas, der workload ist komplett anders und der grund weshalb GPUs mit kaum caches auskommen und CPUs wiederrum seit 4x86 ohne garnicht koennten.

S940
2010-04-19, 12:06:08
hmm, du darfst GPU und CPU nicht vermischen bei sowas, der workload ist komplett anders und der grund weshalb GPUs mit kaum caches auskommen und CPUs wiederrum seit 4x86 ohne garnicht koennten.
Öh ja eben ... ist doch das gleiche. Das was Du "unterschiedlichen" Workload nennst, nenne ich auf der einen Seite parallel, auf der anderen Seite seriell. Unterschiedlicher gehts kaum ;-)

Undertaker
2010-04-19, 13:40:27
hmm, du darfst GPU und CPU nicht vermischen bei sowas, der workload ist komplett anders und der grund weshalb GPUs mit kaum caches auskommen und CPUs wiederrum seit 4x86 ohne garnicht koennten.

Womit lässt sich das begründen, mit der viel schnellere Speicheranbindung einer GPU? :confused:

Gast
2010-04-19, 14:11:00
In Llano steckt aber 'nur' eine "GPU"? Oder gleich mehrere "GPUs"?

Gast
2010-04-19, 15:00:25
In Llano steckt aber 'nur' eine "GPU"? Oder gleich mehrere "GPUs"?

Natürlich nur eine.
Das sagt aber überhaupt Nichts über die Leistungsfähigkeit aus.
Wenn die Gerüchte mit 480SP+ Takt über 1Ghz stimmen, wird das wohl eine ganz neue Leistungsdimension der IGPs sein.

AnarchX
2010-04-19, 17:01:07
Womit lässt sich das begründen, mit der viel schnellere Speicheranbindung einer GPU? :confused:
Wohl eher damit das bei einem typischen GPU-Workload Latenzen nicht so kritisch sind bzw. es waren.
Für GPGPU nimmt die Bedeutung des Caches wohl mittlerweile zu, wenn auch der Cache-Anteil auf die theoretische Rechenleistung gesehen immer noch sehr gering ist im Vergleich zu CPUs.

Gast
2010-04-23, 08:33:07
Womit lässt sich das begründen, mit der viel schnellere Speicheranbindung einer GPU? :confused:
Die schnelle im sinne von bandbreite, langsam im sinne von latenz (ca 4 bis 6mal langsammer als bei einer cpu).
Der grund ist, wie schon gesagt, der workload und hat nicht viel mit parallel oder nicht zu tun, sondern mit koherenz.
wenn du auf der cpu einfach 100 speicherzugriffe mitschneidest, wirst du in den meisten faellen wild im speicher springende addressen sehen. sie sind nicht komplett verstreut, aber zugriffe sind nicht koherent, ein simples beispiel


class Foo
{
std::vector<int> bar;
public:
virtual int bla(int index){return bar.at(index);}
};

ruft nun jemand die funktion "bla" auf, gibt es einen read auf den pointer der auf das objekt zeigt(1m). die ersten 32bit zeigen dann auf die tabelle mit funktions-offsets (+1m), die tabelle verweist nun beim sprung in die funktion auf den anfang (+1m), es gibt ein read von der addresse von "bar" (+1c), deren ersten 32bit zeigen auf ein array, die zweiten auf das ende die nun gelesen werden (+1c) um zu pruefen ob der index nicht out of bound ist und dann wird endlich von dem gewuenschten speicherbereich gelesen(+1m).

m steht memory read, c fuer cached.
du siehst, ganz normaler code ueber den sich niemand grossartig gedanken macht, generiert jede menge random speicherzugriffe.

was passiert wenn du einen core hast der das ausgiebig macht?
die ersten zugriffe sind ein "cache hit", der letzte ein "miss" (weil er bei jedem "indx" ganz woanders hinzeigt). beim "miss" wartest du nun z.b. 100cycles aufs memory.
was passiert wenn du 2, 4 oder 8 cores hast? jeder einzelne wartet, und zwar nicht nur seine 100 cycles, sondern auch die zeit bis die anderen cores versorgt sind.
mit 2 cores bzw auch hyperthreads hast du dann ein "sweet spot" erreicht, denn waehrend einer wartet, kann der andere zumindestens die "cache hit" operationen ausfuehren.
wie optimierst du das? mehr cores? vermutlich laeuft ein einziger core dessen cache gross genug ist um das ganze array aufzunehmen weit aus schneller als die 2 oder n cores die aufs memory warten.


was ist ein typischer gpu work-load? analysieren wir mal nur den (einen idealisierten) fragment pipeline part.
sagen wir der bildschirm ist in 8x8pixel blocks eingeteilt. jeder block der ein dreieck beruehrt ist nun in der fragment pipeline.

das erste fragment will eine textur auslesen (+1m)
63weitere fragments wollen aus der textur lesen (+63c)

wieso das? einfach, weil alle pixel in einem block sehr benachbarte texel lesen wollen.
wie kann man sich da so sicher sein?
auch einfach, weil die mipmaps immer so gewaehlt werden, dass in etwas 1pixel:1texel ratio eingehalten wird. dafuer wurden mipmaps erfunden.

jetzt magst du sagen, wenn das erste ein miss war, ist 1cycle spaeter noch kein speicher im cache und es ist ein miss.
jetzt kommen wir zu dem was "empfohlen" wird von den herstellern, dass du in etwa 6:1 alu:memory operationen hast.
ich schrieb explizit, dass ein fragment lesen "will", es liest noch nicht. wir haben noch 6 mal 64 alu operationen bis das "gewollte" texel benutzt wird, also ca 400cycles bis es wirklich gelesen wird. ziemlich viel an latenz was versteckt wird, aber auch ziemlich viel bandbreite, denn im falle von 32bit texturen hast du 256byte. du kannst nicht davon ausgehen dass die in einer cacheline liegen, also hast du im schlimsten fall zu der kachel die du liest noch 5weitere kacheln "gepingt", also 6x256byte.


du hast 1.5kb bandbreit bei 400cycle latenz gelesen. ganz was anderes als die 4byte bei 100cycle latenz der cpu;


und was passiert beim naechsten durchgang? vermutlich wird aus einer ganz anderen textur gelesen, der ganze 1.5kb cache hat nichts verwertbares. 2kb bei 32bit/texel reichen dir also vollkommen aus.

wozu dann der cahe ueberhaupt?
naja, vielleicht willst du ja bilinear filterung haben, dann wird 4mal pro fragment mit garantierten cache-hits gelesen.


das ist natuerlich, wie schon gesagt, idealisiert. eine GPU hat natuerlich SIMD einheiten, die rechnen 8pixel auf einmal bei der g80. eine gpu muss auch code lesen. eine gpu muss zwischen z-,color-,texture-buffern load balancing betreiben und wenn man sowas alles spezialisiert fuer den workload "graphik" macht, kann man schon beim ersten design genau ausrechnen wieviel von was sinn macht, damit es den workload auch schafft.

aber ich denke es zeigt dennoch, dass ein groessere cache auf einer gpu rein garnichts braechte (ich spreche von graphik, nicht von gpgpu), und dass mehr cores bei einer cpu ganz dringend auf mehr cache angewiesen sind.

Undertaker
2010-04-23, 11:24:53
Ah OK, besten Dank für die ausführliche Erklärung. :)

Duplex
2010-04-25, 18:31:02
einige Spekulieren das Liano K10.5 in 32nm auch AVX besitzt

Gast
2010-04-25, 19:09:54
http://www.xtremesystems.org/forums/showthread.php?t=250241

Gast
2010-04-26, 16:50:18
einige Spekulieren das Liano K10.5 in 32nm auch AVX besitzt
ja, aber nur eine avx einheit pro zwei cores :O
intels sandy bridge gpu soll angaeblich den cache mitnutzen, ich halte die hoffnung dass fusion das auch machen wird. eventuell gibt es doch wieder nen L3 auf dem mobo? (so wie zu K6-3 zeiten).

S940
2010-04-26, 17:09:21
ja, aber nur eine avx einheit pro zwei coresHäh ?
Du verwechselst da was .. oder meinst Du die 128bit Breite ?

deekey777
2010-06-01, 20:26:17
AMD to show Fusion tomorrow (http://www.semiaccurate.com/2010/06/01/amd-show-fusion-tomorrow/)
Yeeha!

AnarchX
2010-06-01, 20:34:40
Als Antwort auf Intels nichtssagende SNB-Demo, sollte man Llano mit FPS-Counter gegen einen i5-661 vergleichen.
Da sollte auch mit frühem Silizium ein vielfaches an FPS erreichbar sein. :D

LovesuckZ
2010-06-01, 20:55:35
Ich wäre für einen MCP89 Vergleich. Aber leider gibt nVidia den ja nicht für Windows frei.

G.A.S.T.
2010-06-01, 22:40:50
Ich wäre für einen MCP89 Vergleich. Aber leider gibt nVidia den ja nicht für Windows frei.
was ist an dem Kommentar so schlimm, dass LovesuckZ jetzt dafür gesperrt wurde? :confused:

Ansonsten: Es wird Zeit, dass AMD mal etwas mehr über Fusion verrät (gespannt bin)

BlackBirdSR
2010-06-02, 00:02:29
was ist an dem Kommentar so schlimm, dass LovesuckZ jetzt dafür gesperrt wurde? :confused:


Dieser ominöse N* M*P** darf hier im Forum nicht angesprochen werden ;).
Im Ernst: War nicht wegen diesem Post.


Ansonsten: Es wird Zeit, dass AMD mal etwas mehr über Fusion verrät (gespannt bin)

Wobei ich die Erwartungen nicht all zu hoch schrauben würde. Viel die Mehrzahl der hier anwesenden, dürfte Fusion weniger von Interesse sein (zu Beginn). Die Grafikleistung wird wohl viel zu niedrig sein, um als Spiele-CPU durchgehen zu können.
Interessant wird das schon eher für Notebooks und sparsame Media-Rechner. Also in Richtung Atom, Nano und Pentium, welche mit relativ mieser GPU-Performance kämpfen müssen. Mittels OpenCL z.B, könnte AMD mit Fusion durchaus interessante Perspektiven eröffnen.

AnarchX
2010-06-02, 07:49:51
http://www.amd.com/us/press-releases/Pages/amd-demonstrates-2010june02.aspx

http://www.4gamer.net/games/100/G010001/20100602020/

http://www.youtube.com/watch?v=eg5mKP5R8B8

komplette Konferenz: http://www.ustream.tv/recorded/7382763

Die Demo basierte aber wohl nur auf dem 40nm Ontario.

robobimbo
2010-06-03, 11:18:35
Fusion: AMD zeigt Demo und nennt Termin:
http://www.heise.de/newsticker/meldung/Fusion-AMD-zeigt-Demo-und-nennt-Termin-1013746.html

Gast
2010-06-03, 13:46:41
Wobei ich die Erwartungen nicht all zu hoch schrauben würde. Viel die Mehrzahl der hier anwesenden, dürfte Fusion weniger von Interesse sein (zu Beginn). Die Grafikleistung wird wohl viel zu niedrig sein, um als Spiele-CPU durchgehen zu können.
Da hat AMD aber was anderes behauptet.

aylano
2010-06-03, 14:05:26
Die Demo basierte aber wohl nur auf dem 40nm Ontario.
... wohl nur ... finde ich lustig.

Das ist ein DX11-Spiel was live lief und mit etwas ruckeln angeblich um geschätzte 20(-25) fps oder so erreicht haben soll.
Das wäre nicht schlecht für Ontario, der dann auch in Netbooks verbaut wird.

deekey777
2010-06-03, 14:45:50
Da hat AMD aber was anderes behauptet.
Was hat AMD denn behauptet?

Gast
2010-06-03, 14:55:34
Was hat AMD denn behauptet?
So wie ich mich erinnern kann, wollten sie mit Mainstream-Grafikkarten mithalten können.

Falls du mich jetzt nach einem Link fragst: Vergiss es!
Und widersprechen will ich dir auch nicht, weil dann wäre ich ja ein Troll. :D

Iruwen
2010-06-03, 15:15:42
"Mainstream" ist aber auch schon recht breit gefasst. Eine 5570 läuft auch noch unter Mainstream und ist nur mit viel gutem Willen noch als gamertauglich zu bezeichnen.

PS: "Das System selbst zeigte AMD nicht, doch versicherte Product PR Manager Gary Silcott nach der Pressekonferenz gegenüber heise online, dass es tatsächlich da gewesen sei."

Genial :biggrin: Das toppt ja fast ihn hier:

http://www.abload.de/img/fermih3cw.jpg

Gast
2010-06-03, 15:25:58
"Mainstream" ist aber auch schon recht breit gefasst. Eine 5570 läuft auch noch unter Mainstream und ist nur mit viel gutem Willen noch als gamertauglich zu bezeichnen.

PS: "Das System selbst zeigte AMD nicht, doch versicherte Product PR Manager Gary Silcott nach der Pressekonferenz gegenüber heise online, dass es tatsächlich da gewesen sei."

Genial :biggrin: Das toppt ja fast ihn hier:

http://www.abload.de/img/fermih3cw.jpg

Hätte man beischei... wollen, hätte man Das sicher auf einer Lösung gezeigt, auf der AvP nicht ruckelt.

Iruwen
2010-06-03, 15:29:13
Von Bescheißen hab ich auch nichts gesagt ;) Es klingt nur urlustig.
Es war da, aber nu isses wieder wech.

BlackBirdSR
2010-06-03, 15:45:37
Da hat AMD aber was anderes behauptet.

Wir werden sehen ok?

Spiele-CPU wäre für mich im Bereich aktuell 5750 bis 5770. Das soll man erstmal erreichen, dann sehen wir weiter.
AMD hat IMO gar kein Interesse daran, sich diesen Markt aktuell selbst streitig zu machen.

Avalox
2010-06-03, 15:49:08
Da kann mal AMD ja einen ordentlich optimierten SPECmark zusammen bauen.

davidzo
2010-06-03, 15:58:40
So wie ich mich erinnern kann, wollten sie mit Mainstream-Grafikkarten mithalten können.

fragt sich nur mainstream von wann, nehme an das bezog sich auf das mainstream zum Zeitpunkt der aussage und nicht auf das von 2011. Außerdem bezog sich das auf Llano und nicht auf Ontario.
Wir werden sehen ok?

Spiele-CPU wäre für mich im Bereich aktuell 5750 bis 5770. Das soll man erstmal erreichen, dann sehen wir weiter.
AMD hat IMO gar kein Interesse daran, sich diesen Markt aktuell selbst streitig zu machen.

Wir werden sehen ok?

Spiele-CPU wäre für mich im Bereich aktuell 5750 bis 5770. Das soll man erstmal erreichen, dann sehen wir weiter.
AMD hat IMO gar kein Interesse daran, sich diesen Markt aktuell selbst streitig zu machen.
es gibt ne cpu namens 5750und 5770?

im übrigens ist die verzerrte marktwahrnehmung des 3dcenter nicht für den rest der welt gültig. der markt teilt sich nach amd folgendermaßen auf und ich denke daran richtet es sich:
entry level - 5400 series
mainstream - 5500 series
mid-range - 5600 series
performance - 5700 series
enthusiast - 5800 series

im Grunde richtet Intel seine GMA 3150 im atom auch an den "mainstream" und die GMAX4500 ist da schon eine highend IGP - lolz

für Ontario würde ich nicht mehr als 80 shader erwarten, alles andere macht für netbooks einfach keinen sinn. mehr shader heißt mehr TDP und bei netbooks ist der stromverbrauch nunmal deutlich wichtiger als die 3Dleistung, hauptsache es reicht um intel die tür zu zeigen. inwieweit die dann mit der cpu verstrickt sind, bzw. welche taktraten man erreicht ist dann eine andere frage.

geiler Gast
2010-06-03, 17:46:42
fragt sich nur mainstream von wann, nehme an das bezog sich auf das mainstream zum Zeitpunkt der aussage und nicht auf das von 2011.
auch dazu hat AMD, soviel ich weiß, sehr wohl Mainstream 2011 gesagt

Bucklew
2010-06-03, 21:28:31
PS: "Das System selbst zeigte AMD nicht, doch versicherte Product PR Manager Gary Silcott nach der Pressekonferenz gegenüber heise online, dass es tatsächlich da gewesen sei."

Genial :biggrin: Das toppt ja fast ihn hier:
Bei AMD ist das natürlich was völlig anderes. Ich vermisse auch noch die News von Semiaccurate dazu, nachdem ja beim Fermi ein riesen Fass aufgemacht wurde. Aber gut, der direkte Redirect von semiaccurate.com auf amd.com folgt sicher die nächsten Tage ;)

deekey777
2010-06-03, 22:16:16
Bei AMD ist das natürlich was völlig anderes. Ich vermisse auch noch die News von Semiaccurate dazu, nachdem ja beim Fermi ein riesen Fass aufgemacht wurde. Aber gut, der direkte Redirect von semiaccurate.com auf amd.com folgt sicher die nächsten Tage ;)
Oh, eine Sekunde Mitleid für dich. :comfort:

Gast
2010-06-04, 08:36:36
"Mainstream" ist aber auch schon recht breit gefasst. Eine 5570 läuft auch noch unter Mainstream und ist nur mit viel gutem Willen noch als gamertauglich zu bezeichnen.

PS: "Das System selbst zeigte AMD nicht, doch versicherte Product PR Manager Gary Silcott nach der Pressekonferenz gegenüber heise online, dass es tatsächlich da gewesen sei."

Genial :biggrin: Das toppt ja fast ihn hier:

http://www.abload.de/img/fermih3cw.jpg

Das toppt es nicht mal annähernd. NV tat so als ob und zeigte letztlich nur eine Fake, das war erbärmlich.

StefanV
2010-06-04, 11:22:29
So wie ich mich erinnern kann, wollten sie mit Mainstream-Grafikkarten mithalten können.
Mit damaligen Mainstream, AFAIR war das 'ne HD4670 oder HD3850, oder sowas um den Dreh.
AMD hat IMO gar kein Interesse daran, sich diesen Markt aktuell selbst streitig zu machen.
Warum sollten sie es nicht?!

Du musst auch mal die andere Seite sehen:
Wenn sie bei der IGP richtig auf die Kacke hauen, hat man einen gewaltigen Vorteil gegenüber 'der Konkurenz' (nein, nicht die grüne).

geiler Gast
2010-06-04, 11:56:46
Mit damaligen Mainstream, AFAIR war das 'ne HD4670 oder HD3850, oder sowas um den Dreh.

das hab ich anders in Erinnerung, so wie auch was von über einem Teraflop gesagt wurde

aber warten wir es einfach ab

Gast
2010-06-06, 13:11:07
Wird man auf der E3 mehr über Fusion erfahren, oder wird es weitere Spiele-Demos auf Fusion geben?

HOT
2010-06-07, 10:48:03
Llano dürfte sich maximal auf dem Niveau einer 56x0 befinden. Man bedenke, dass wenn Llano da ist die 6xxx Generation aktuell ist, die 66xx also wohl schneller wird. Damit ist AMD schneller als Intel (mit ziemlicher Sicherheit) und langsamer als die dann aktuelle Mainstreamgeneration. Passt also.

geiler Gast
2010-06-07, 15:05:43
Llano dürfte sich maximal auf dem Niveau einer 56x0 befinden.
Soll es nicht auch eine Variante für den Desktop geben? Da wäre die Leistung einer 56xx viel zu schwach. Eher die Leistung einer 57xx, das entspricht dann auch AMDs Versprechen von über einem TF Leistung.

Gast
2010-06-07, 15:21:00
Llano soll ~1 Mrd. Transistoren haben, da ist für die GPU nicht viel mehr als 600 Mio. übrig. Juniper allein läge schon über 1 Mrd..

Und als Mainstream definiert man wohl eher Lösungen <50€.

AffenJack
2010-06-07, 15:24:57
vergiss es, da reicht die speicherbandbreite erstens schon gar nicht und zweitens wäre das völliger overkill. Wer soll denn dann noch grafikkarten kaufen, wennde soviel leistung im prozessor hast? da würde amd sich selber kanibalisieren. Mit 5600 niveau kann man schon die meisten spiele auf hohen einstellungen ohne aa in 1280iger auflösung spielen. Das ist meilenweit über igp niveau

Undertaker
2010-06-07, 16:12:09
Auch HD5600er Niveau dürfte schwer werden, wenn für GPU und CPU zusammen nur ~25GB/s an einem DC DDR3-1600 Interface bereitstehen. Schon eine HD5570 hat mehr, und das exklusiv. Sofern man sich also keinen zusätzlichen Sideportspeicher o.ä. einfallen lässt (möglichst auch deutlich schneller als die aktuellen 32Bit DDR3-1333 auf aktuellen Boards), wird kaum mehr als diese Performance möglich sein, eher weniger. Und das dürfte im Jahr 2011 kaum mehr als einer 50€ Einstiegs-GPU entsprechen - also definitiv nichts für Spieler.

davidzo
2010-06-07, 17:18:51
vergiss es, da reicht die speicherbandbreite erstens schon gar nicht und zweitens wäre das völliger overkill. Wer soll denn dann noch grafikkarten kaufen, wennde soviel leistung im prozessor hast? da würde amd sich selber kanibalisieren. Mit 5600 niveau kann man schon die meisten spiele auf hohen einstellungen ohne aa in 1280iger auflösung spielen. Das ist meilenweit über igp niveau

genau, jungs bevor euch das wasse im mund zusammenlauft, denkt an die speicherbandbreite!
das ist der richtige pfeffer in dieser suppe, wozu auf eine diskussion einlassen was mainstream ist, wenn man doch am dann verfügbaren speicher genau ablesen kann was sache sein wird.

Auch HD5600er Niveau dürfte schwer werden, wenn für GPU und CPU zusammen nur ~25GB/s an einem DC DDR3-1600 Interface bereitstehen. Schon eine HD5570 hat mehr, und das exklusiv. Sofern man sich also keinen zusätzlichen Sideportspeicher o.ä. einfallen lässt (möglichst auch deutlich schneller als die aktuellen 32Bit DDR3-1333 auf aktuellen Boards), wird kaum mehr als diese Performance möglich sein, eher weniger. Und das dürfte im Jahr 2011 kaum mehr als einer 50€ Einstiegs-GPU entsprechen - also definitiv nichts für Spieler.

DDR3-1600 DC halte ich für 2011 für gesichert, alles andere wäre zu konservativ oder zu teuer.
ich hielte es für sinnvoll bei ca. 600mio transistoren für die IGP auch ein sideportinterface einzubauen. das halte ich nicht für unrealistisch, da amd es ja bereits bei den aktuellen igp chipsätzen so macht. 256MB GDDR5 an 64bit wären da durchaus im bereich des Möglichen und würden für eine erheblich höhere speicherbandbreite sorgen (32gb/s sideport + 25GB/s DDR3-1600).
die ersten 512mb des kombinierten speichers würden dann eben für die igp reserviert werden, allerdings auch für die cpu freigegeben werden können, was einige synergieffekte bei reinen 2danwendungen erzielen sollte.

streicht man redwood(627mio.) auf ein 64bit interface herunter, was ja bei einer sideportvariante der Fall wäre, sollte man auf unter 600mio transistoren kommen und schon ist man wieder im budget. vor allem braucht der derzeitige redwood XT seine 64gb/s speicherbandbreite meistens nicht wirklich, selbst wenn die speicherbandbreite in manchen gamingfällen dann zur 5570 tendiert wird das die 80 5D shader dann nicht wirklich ausbremsen.
mit 700-1ghzmhz shadertakt rechne ich in 32nm dann schon, aber eher näher an ersterem um die TDp in schach zu halten, mobil dann entsprechend weniger (500-650mhz).

Gast
2010-06-07, 22:03:54
Llano soll ~1 Mrd. Transistoren haben, da ist für die GPU nicht viel mehr als 600 Mio. übrig.
Laß man nicht vor kurzem noch was von 1,8 Mrd. Transistoren?

Naitsabes
2010-06-07, 22:13:33
Waren es nicht 1.1? 1.8 bringe ich irgendwie mit SandyBridge in Verbindung.

Triskaine
2010-06-08, 08:27:04
Bei Sandybridge hat Intel 1.12 Milliarden Transistoren angekündigt. Für Llano steht klar ~ 1 Milliarde auf der Folie.

davidzo
2010-06-09, 16:33:06
was haltet ihr denn von einem sideport Interface um die grafikspeicherbandbreite aufzustocken und es womöglicherweise als schnelleren Ram bzw. L4 zu nutzen?

Ich würde da mal 256MB 64bit GDDR5 @ 2GHZ = 32Gb/s in den Raum werfen. Zusammen mit dem 128bit DDR3 (64bit DC) sind das dann fast 60gb/s Gesamtspeicherbandbreite für die ersten 512MB des Rams. genug für Mittelklassegrafik denke ich.
Transistorenmäßig dürfte das sideportinterface auch nicht sonderlich ins Gewicht fallen und PCBtechnisch sind das die boardhersteller ja vom 780G, 785G und 890GX schon gewohnt. Das würde aber einige zusätzliche Sockelpins erklären. Da die TDP nicht steigt sondern wohl eher sinkt brauch man wohl eher keine neuen Stromversorgungspins, DDR2support fällt ebenfalls weg, möglicherweise wird da einiges möglich bzgl. Sideport.

irgendein spinner bei brightsideofnews hat was von 722pin auf 35*35 geschrieben. letzteres mag ja realitisch sein, aber wieso zum teufel nur 722 pins? das ist n pinabstand wie man ihn seit dem sockel462 nicht mehr gesehen hat, wozu soll amd das machen?
denke eher es werden 1000+ und ne BGAvariante für die lowpowerdinger mit ~800 und kleinerem package.

Inqui
2010-06-10, 01:24:27
Wir werden sehen ok?

Spiele-CPU wäre für mich im Bereich aktuell 5750 bis 5770. Das soll man erstmal erreichen, dann sehen wir weiter.
AMD hat IMO gar kein Interesse daran, sich diesen Markt aktuell selbst streitig zu machen.

Seh ich anders:
Einerseits ist es ein großer Anreiz auf AMD Prozessoren zu greifen. Wenn man bedenkt, hier liegt das Geschäft (nicht bei stagnierenden respektiven 50% Low Cost Chips) Kann man die Prozessorsparte ordentlich steigern (und das könnte mit einem so riskanten Schritt durchaus möglich sein), und verliert dagegen die Low Cost Grafiksparte ist das immer noch dem normalen Weg vorzuziehen! (Falls das ganze schief geht, kann man ja wieder das Produkt vom Markt nehmen)

Andererseits drückt man die Einnahmen von Nvidia und beginnt das Grafikkartengeschäft zu dominieren.

Tarkin
2010-06-11, 08:12:53
http://www.softnology.biz/work/fusion_details.png

die Spannung steigt :). Bemerkenswert ist, dass mit 2 Chips alle TDPs bedient werden - von 5W single core (teildeaktivierter 40nm Ontario) bis 100W quad core (voller 32nm Liano)

http://www.xtremesystems.org/forums/showthread.php?t=253664

Leonidas
2010-06-16, 15:21:39
Ich sehe nicht, wie man bei einem integrierten Grafikchip jemals besseres als LowCost verbauen wird. Und LowCost ist anno 2011 bestenfalls 200 SE bei ATI, vielleicht auch nur 160 SE. Und das wäre dann das maximal mögliche, was in eine CPU reinkommt - üblicherweise wird ja weniger verbaut, also die 80 SE des RV810-Chips.

Zudem kann sich jeder ausrechnen, daß 600M Transistoren oder 100mm² Chipfläche einfach zu viel für eine kostenlos oben drauf gelegte GPU sind, wenn der gesamte Chip im Mainstream-Bereich (Llano ist klar Mainstream) nur etwas mehr als 1000M Transistoren habenl und die Chipfläche unter 200mm² bleiben soll. Ich sage kühl, daß mehr als 50mm² Chipfläche niemals für die integrierte GPU übrig sein wird, dies ist auf sparsamen Designs dann auch schon 1/4 der Fläche.

Das Fusion-Projekt ist IMO seitens der Presse (und AMD macht dabei natürlich mit) von Anfang an fälschlicherweise viel höher eingestuft worden als es wirklich wert ist. AMD und Intel geht es hierbei in erster Linie um Marktkontrolle, nicht um mehr Performance. Mehr Performance ist mit diesem Ansatz sowieso schlecht möglich, weil das ganze schließlich nichts kosten darf.

Gast
2010-06-16, 17:54:20
Ich denke es ist nur der Anfang und man sieht wohin es geht, die einzelnen Einheiten werden abstrakter. Den Anfang macht die vector fpu, die von zwei Kernen geteilt wird. Es spricht nichts dagegen, dass auch mal ein shader-core sich die FPU einheiten zu nutzen macht, falls sie brach liegt.
Am Ende wird der gewinnen, der die effizienterere Auslastung der Einheiten hat.
Es ist in etwa wie es schon mit den Shadern passiert ist, es wird unified mit leicht anderem Interface.

HOT
2010-06-16, 18:20:56
Wenn Llano 1,1Mrd Transistoren hat, entfällt davon auf die CPU maximal 5Mio (300Mio Propus + 200Mio für 2MiB mehr L2-Cache, aber grosszügig gerechnet) - dann kann man sich ja ausrechnen, was für die GPU übrigbleibt und wieviele SP das Ding haben muss...

aylano
2010-06-16, 18:35:13
Ein Reedwood hat mit 400 Shader & Co 104 mm².
In 32nm eben deutlich weniger.
Wobei da ja noch einige Sachen drinnen sind, die dann in Fusion nicht mehr gebraucht werden.

Also, möglich ist es schon.

HOT
2010-06-16, 18:48:52
Also ich finde 400-480 Shader vllt sogar eher im SI-Design (oder besser, der Stammvater des SI-Designs?), sind ein guter Wert für ca. 600Mio Transistoren.

Undertaker
2010-06-16, 18:58:01
SI wird bei gleicher Fläche wohl weniger SPs unterbringen können, zudem wäre der Tapeout vermutlich zu spät gewesen - die Vorlaufzeit ist da bei CPUs doch erheblich länger. 400 SPs auf RV800 Basis, das würde von der Transistorenzahl sehr gut passen. Da die je nach Takt in 40nm abzgl. Board/VRAM etc. auch schon ihre ~30-40W fressen, würden darüber hinaus gehende Werte selbst bei 32nm Fertigung auch zuviel vom TDP-Budget wegfressen.

G.
2010-06-17, 12:56:12
Seh ich anders:
Einerseits ist es ein großer Anreiz auf AMD Prozessoren zu greifen. Wenn man bedenkt, hier liegt das Geschäft (nicht bei stagnierenden respektiven 50% Low Cost Chips) Kann man die Prozessorsparte ordentlich steigern (und das könnte mit einem so riskanten Schritt durchaus möglich sein), und verliert dagegen die Low Cost Grafiksparte ist das immer noch dem normalen Weg vorzuziehen! (Falls das ganze schief geht, kann man ja wieder das Produkt vom Markt nehmen)

Andererseits drückt man die Einnahmen von Nvidia und beginnt das Grafikkartengeschäft zu dominieren.
so ist es!

letztendlich ist Fusion auch einer der Hauptgründe für die Fusion von ATI und AMD ;)
der Name kommt nicht von Ungefähr und die haben noch einiges damit vor

Dural
2010-06-17, 13:36:52
wie will den AMD mit dem Fusion das CPU geschäft steigern? schon Intel vergessen oder was? und im gegensatz zu AMD hat Intel wenigstens schon CPU in 32nm inkl. GPU auf den markt... ;)

Am marktanteil wird das garantiert rein gar nichts ändern...

ich sehe es schon eher als nicht kunden orientiert an, den egal ob der kunde die GPU benödigt oder nicht, am ende wird er immer zur kasse gebeten!

Ich hab ein 651 und die GPU darin interessiert mich rein gar nicht da ich eine 5770 im System habe, die kosten für die GPU hab ich aber trotzdem mit bezahlt das sollte jedem klar sein!!!

CPU+GPU kombi werden immer low end sein, es geht auch gar nicht anders! und auch wenn er die 400SP oder was auch hat, mal ganz ehrlich was will man im Jahr 2011 mit 400SP schon anfangen?!? das wird dann nicht mal mehr für die "PhysX" reichen und da kommen wir schon zum thema Software, ohne die bringt das alles so wie so rein gar nichts... ;)

Gast
2010-06-17, 13:41:45
wie will den AMD mit dem Fusion das CPU geschäft steigern? schon Intel vergessen oder was? und im gegensatz zu AMD hat Intel wenigstens schon CPU in 32nm inkl. GPU auf den markt... ;)

Am marktanteil wird das garantiert rein gar nichts ändern!!!

ich sehe es schon eher als nicht kunden orientiert an, den egal ob der kunde die GPU benödigt oder nicht, am ende wird er immer zur kasse gebeten!!!

Troll said...

Gast
2010-06-17, 14:08:36
wie will den AMD mit dem Fusion das CPU geschäft steigern? schon Intel vergessen oder was? und im gegensatz zu AMD hat Intel wenigstens schon CPU in 32nm inkl. GPU auf den markt... ;)

Am marktanteil wird das garantiert rein gar nichts ändern...

ich sehe es schon eher als nicht kunden orientiert an, den egal ob der kunde die GPU benödigt oder nicht, am ende wird er immer zur kasse gebeten!

Ich hab ein 651 und die GPU darin interessiert mich rein gar nicht da ich eine 5770 im System habe, die kosten für die GPU hab ich aber trotzdem mit bezahlt das sollte jedem klar sein!!!

CPU+GPU kombi werden immer low end sein, es geht auch gar nicht anders! und auch wenn er die 400SP oder was auch hat, mal ganz ehrlich was will man im Jahr 2011 mit 400SP schon anfangen?!? das wird dann nicht mal mehr für die "PhysX" reichen ;)

Troll wo anders. Intel hat eine Crap-IPG die man nur für den 2D-Desktop verwenden kann, sowas kann man wohl kaum mit einem DX11 Stream-Prozessor vergleichen. General Purpose Kerne mit Stremprozessoren zu kombinieren ist die Zukunft, wenn du das nicht siehst dann ist jede weitere Diskussion überflüssig. Gerade für Server ein Traum, aber auch am Desktop. Wer braucht schon High-End? Die Zahlen sind verschwindend gering im Vergleich zu Midrage/Lowend. AMD kann als einziger alles mit einem Chip liefern und senkt damit Stromverbrauch, Kosten, Platzbedarf auf ein noch nie dagewesenes Niveau.

Für High-End gibt es im übrigen eh Bulldozer ohne GPU. Aber auch dort werden Streamprozessoren Einzug halten. Siehe Amdahl's Law. Es macht keinen Sinn teure OoO-Core ewig weiter zu skalieren. Diese muss man dann auch nicht zwangsläufig für Grafikberechnungen verwenden, sondern für ganz alltägliche Aufgaben einer CPU, das scheinst du noch immer nicht gerafft zu haben. Und so weiter. Das alles zu erklären würde ewig dauern. Jedenfalls muss ich immer wieder lachen wenn gewisse Leute meinen man wolle ja nur die IPG von Chipsatz in die CPU transferieren. Das ist lachhaft.

MiamiNice
2010-06-17, 14:47:43
Oh ja :wink:
AMD wird mit Fusion die Marktmacht an sich reissen ...

Träumt mal weiter, den Quark braucht in Zeiten von iPads und Co. kaum ein Mensch mehr. Und die Menschen die einen PC zum arbeiten und spielen brauchen werden sich imho nicht mit Low End zufrieden geben.

Gast
2010-06-17, 14:57:57
4 K10.5 Cores und ~400SPs sind 2011 kein Low-End und für Notebooks/All-in-One-PCs/Mini-PCs eine sehr gute Basis.
Für die Konsumfenster aka Pads wäre ein Low-Power-Ontario denkbar.

aylano
2010-06-17, 15:11:20
Oh ja :wink:
AMD wird mit Fusion die Marktmacht an sich reissen ...

Tja, mit Fusion konnte AMD den Intel-Exklusive-Vertrag bei Sony & Apple aufreißen;)
Es reicht mal, einen Schritt nach dem anderen zu machen

Dural
2010-06-17, 15:43:03
lol...

ich glaube die selben die hier wider von "mehr marktanteilen" schreiben waren auch die die damals bei der ATI übernahme von mehr CPU verkäufe dank "alles aus einem haus" geschriben haben... und wo sind sie? sie haben sogar weniger als damals!

und das die aktuellen intel CPU+GPU nicht direkt mit Fusion vergleichbar/zutun haben ist glaub jedem klar, das ist erst der anfang... aber man muss schon richtig grün hinter den ohren sein wenn man tatsächlich so naiv ist und glaubt das intel früher oder später nicht die richtige antwort auf fusion hat...

und ich war der einzige der das thema software angesprochen hat, ohne grosse unterstütztung wird amd in diesem bereich kein land gegen intel sehen und das ist fakt!

träumt doch wo anders weiter!

Gast
2010-06-17, 15:48:02
lol...

ich glaube die selben die hier wider von "mehr marktanteilen" schreiben waren auch die die damals bei der ATI übernahme von mehr CPU verkäufe dank "alles aus einem haus" geschriben haben... und wo sind sie? sie haben sogar weniger als damals!

und das die aktuellen intel CPU+GPU nicht direkt mit Fusion vergleichbar/zutun haben ist glaub jedem klar, das ist erst der anfang... aber man muss schon richtig grün hinter den ohren sein wenn man tatsächlich so naiv ist und glaubt das intel früher oder später nicht die richtige antwort auf fusion hat...

und ich war der einzige der das thema software angesprochen hat, ohne grosse unterstütztung wird amd in diesem bereich kein land gegen intel sehen und das ist fakt!

träumt doch wo anders weiter!

Na wo ist denn die Intelgrafikkarte die Alles schlägt?
Sollte doch überhaupt kein Problem sein?
Aber bestimmt kommt es später ... irgendwann oder so;)
Und die Softwareunterstützung bei Intel erst...

aylano
2010-06-17, 19:51:13
ich glaube die selben die hier wider von "mehr marktanteilen" schreiben waren auch die die damals bei der ATI übernahme von mehr CPU verkäufe dank "alles aus einem haus" geschriben haben... und wo sind sie? sie haben sogar weniger als damals!

Man sollte halt wissen, dass die ganzen AMD-Probleme (K10-Bug & viele Verschiebungen) erst nach dem Kauf begannen. Klar konnte AMD mit ATI nicht zulegen.;)
Oder man weiß es halt nicht.

Na ja, absolut konnten sie nicht zulegen. Aber relative vielleicht eben schon und dafür gibt es eben keine Zahlen.

Chipsätze hatten einen Beträchtlich einfluss auf die Verkäufe gehabt.
Vor RS690 galt der K8 als Stromfresser, weil die ganzen Tester den K8 auf 590SLI-Boards testeten.
Nach der RS690-Einführung war das Image des K8 ganz anders und AMD konnte im 2Q 2007 einen großen Haufen an CPUs verkaufen, die sie davor ohne der RS690-Plattform eben nicht wegbrachten.


und das die aktuellen intel CPU+GPU nicht direkt mit Fusion vergleichbar/zutun haben ist glaub jedem klar, das ist erst der anfang... aber man muss schon richtig grün hinter den ohren sein wenn man tatsächlich so naiv ist und glaubt das intel früher oder später nicht die richtige antwort auf fusion hat...

Stimmt
Larrabee macht AMD ja so richtig die Hölle heiß.
WiMax verdrängt gerade LTE.
Atom ist ja verdammt erfolgreich im Smartphone-Markt.
[Dream Ende]
Tja, Intel tut sich da schon etwas schwer, wenn sie was neues Einführen wollen.
Intel kocht auch nur mit Wasser und es gelingt auch nicht immer.



... , ohne grosse unterstütztung wird amd in diesem bereich kein land gegen intel sehen und das ist fakt!

Fusion wäre auch ohne OpenCL interessant genug.
Eben weil Power-Gating und High-K (& Ultra-Low-K) in 32nm eingeführt wird.
(Dazu gibts ja noch USB 3.0 in der South-bridge)

Natürlich braucht AMD die Software-Unterstützung von anderen Firmen.
Aber möglich ist es.
Wenn Apple, die ja auch bei OpenCl mit gewirkt haben, voll dahinter ist, dann ist es möglich. Denn Aplle weiß, wie sie neue Ären (iPod, iPhone, iPad) eingeleitet und gestaltet haben.

HOT
2010-06-17, 23:09:42
Hm ich würde angesichts des doch recht guten Leistungsvorsprung der Intel-CPUs grade zu K8 und K10 Rev.B Zeiten eher als erstaunlich ansehen, dass der Marktanteil von AMD nicht ins Bodenlose abgestürzt ist. Und hier kommt dann doch die Plattform wieder ins Spiel. Die guten 6er und 7er Chipsätze und nicht zuletzt die ATI-Grafik haben AMD unheimlich geholfen in den Märkten zu bleiben, trotz CPUs, die eigentlich absolut nicht mehr konkurrenzfähig waren (Core2 65nm vs K8 und Core2 45nm vs K10 Rev.B). Wir dürfen nicht vergessen, dass AMD erst ab Anfang 2009 mit den K10 Rev.C wieder halbwegs konkurrenzfähig sind, aber die Fertigungskapazitäten problematisch waren, weil es natürlich gedauert hat, GF herauszulösen uvm.
Der Gesamtmarkt ist in 2009 wieder heftig gewachsen, und den Mehr-Output, den GF in Dresden erreicht hat, schlug sich aufgrund des recht heftigen Wachstums deshalb nicht im relativen Marktanteil nieder. Absolut dürfte AMD deutlich mehr CPUs abgesetzt haben.
Mit Fusion kommt da aber ne ganz neue Qualität hinzu:
1.) Ontario wird nicht in Dresden gefertigt sondern aller veraussicht nach in Singapur (ehemals Chatred, jetzt GF) und das im ganz grossen Stil.
2.) Llano stösst neue Türen auf. Er ist auch keineswegs identisch mit SB zu sehen. Llano betritt absolutes Neuland, weil eine eher mässige, aber kleine CPU mit einer relativ starken GPU gekoppelt wird. Entweder floppt das Ding total (die Chance besteht durchaus) oder er wird die PC-Landschaft fundamental verändern - und zwar deshalb, weil er jeden Durchschnitts-PC zu einer Multimediamaschine macht. Das könnte eine Messlatte werden, an der sich Intel messen lassen muss und genau da wird der GMA-Schrott plötzlich zum Problem. Man sieht das auch z.B. an den Smartphones. Eigentlich braucht diese Multimediaspielerei rein objektiv keine Sau, es wird trotzdem genutzt und es hat auch einen gewissen Nutzen bewiesen. Wenn die Hardware ein Minimum von 400SP vorsieht (voruassichtlich) und auch Intel den Minimal-PC mit einem Grundstock der Multimedialeistung bietet, kann der Softwarehersteller plötzlich ganz anders agieren. Er kann sich am SB-IGP als Minimum orientieren und den Llano als Optimum sehen, was sich dann im Endeffekt auch einen Einfluss auf die langristen Benchmarkauswahl niederschlagen wird.

Undertaker
2010-06-18, 00:49:29
Der aktuell zumindest immerhin stabile Stand von AMD hat in erster Linie einen Grund: Dumpingpreise! Gerade im stückzahlenstarken Low-End haben wir aktuell Preisdifferenzen, die es in dieser Größenordnung wohl noch nie gab: Ein X3 435 dreht geradezu Kreise um einen G6950 und kostet dabei noch deutlich weniger. Ohne solche Maßnahmen hätte man wohl massiv Marktanteile eingebüßt, gerade im Retailgeschäft.

Von Fusion erwarte ich weder einen Flop, noch eine "Bombe" - beides absolut unrealistisch. Noch vor kurzem hatten wir im IGP-Geschäft ähnlich große Unterschiede, wie wir sie wohl mit SB vs. Llano sehen werden - die GMA4500 war der HD3200 in den AMD-Chipsätzen haushoch unterlegen, letztere konnte sogar auf einem Level mit damaligen Einstiegs-GPUs wie der HD3450 spielen. Ähnliches wird auch für eine Hauptspeicher-angebundene IGP in Fusion gelten, 400SPs bieten zwar viel Rechenleistung für GPGPU, aber der fehlende dezidierte VRAM wird mehr oder weniger die Leistung bestimmen.
Warum sollte das jetzt eine Revolution für den PC bedeuten, wenn es zu HD3200-IGP Zeiten nicht dazu kam? 80% aller PCs werden vermutlich nur zum arbeiten eingesetzt, evntl. noch Gelegenheitsspiele auf Flashbasis oder die Videowiedergabe - dafür reicht auch jede aktuelle IGP. "Multimedia" ist nuneinmal nichts anderes.
Laptopnutzer werden sich sicherlich freuen, auch ohne dezidierte GPU etwas besser als in der jüngeren Vergangenheit für Gelegenheitsspiele gewappnet zu sein, doch für ernsthafte Ambitionen wird die Leistung im Jahre 2011 nicht reichen.

Ich denke, viele verkennen auch einfach das Fusion-Konzept: Es geht nicht darum, Spieletauglichkeit zu schaffen. In der ersten Generation sollen einfach Kosten gesenkt werden, genau wie es auch Intel bereits im Sinn hat(te). Der zweite Punkt besteht darin, eine Basis für zukünftige GPGPU-Software zu schaffen: Bestimmte Aufgaben lassen sich mit einer Vielzahl einfacher Streamprozessoren einfach viel effizienter lösen, als auf einer klassischen CPU - viel Rechenleistung, für die auch keine sonderlich hohe Bandbreite zum Speicher nötig ist (verglichen mit einer Spieleengine). CPU und GPU verschmelzen dabei immer weiter miteinander, einzelne Teile werden universeller einsetzbar, Performance und Effizienz steigen.

LadyWhirlwind
2010-06-18, 10:38:00
Hm, korrigier mich einer wenn ich falsch liege, aber reduziert sich mit Fusion nicht die Komplexität der (passiven) Kühlung? Sprich geringere Kosten, einfacheres Design für kleine Formfaktoren bei ansprechenderer Grafikleistung zum etwa gleichen Preis einer IGP?

Wie stark Fusion einschlagen wird, muss sich noch zeigen, bei guter
Leistung seh ich da potential.

MR2
2010-06-18, 16:00:29
Early next year AMD plans to launch the code-named Llano accelerating processing unit (APU) with up to four Phenom II-class x86 cores and with up to ATI Radeon HD 5000-class 480 stream processors.

http://www.xbitlabs.com/news/video/display/20100617124722_ATI_Low_End_Graphics_Cards_Will_Continue_to_Exist_Even_After_Fusi on_Launch.html

Gast
2010-06-18, 16:24:34
480 wären schon ziemlich viel.
Da kann man nur hoffen dass die Speichbandbreite nicht zu limitiert ist.

Undertaker
2010-06-18, 16:28:52
Hm, korrigier mich einer wenn ich falsch liege, aber reduziert sich mit Fusion nicht die Komplexität der (passiven) Kühlung? Sprich geringere Kosten, einfacheres Design für kleine Formfaktoren bei ansprechenderer Grafikleistung zum etwa gleichen Preis einer IGP?

Jep. Kostensenkung ist sicherlich der Hauptpunkt für die erste Generation.

Gast
2010-06-18, 17:08:01
Jep. Kostensenkung ist sicherlich der Hauptpunkt für die erste Generation.

Nur das AMD die erste Generation mit IPG auf dem Träger direkt überspringt.