PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - R8xx im Q4 2008, Multicore und 45/40 nm


Seiten : 1 2 3 [4] 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23

AnarchX
2009-05-02, 11:54:08
Die da wären?
Primäres Ziel von AMD waren laut deren Aussage in Interviews mit RV770 eben G92-Karten.
Die erreichbaren Taktraten waren durch 65/55nm jedoch weit unter den Erwartungen beider Hersteller, so projezierte NV gegen Anfang 2007 G92 wohl mit einer Shadertakt noch ein gutes Stück über 2GHz, dazu hatte Nvidia G92 im Bezug auf die Speicheranbindung relativ stark kastriert und auch auf GDDR3 beschränkt.

Zu guter letzt entpuppte sich NVs 1.4Mrd Transitoren schweres Monster als Hängemattenlösung, deren Leistunganstieg (primär 3D-Grafik) im Bezug auf den Transitorcount eher unterirdisch war und somit pötzlich AMDs $299 HD4870 gegen einer für ursprünglich $449 geplante GTX 260 mithalten konnte.

Die hohen Preise kamen wohl davon, dass AMDs Informationspolitik NV bis Mitte 2008 noch vortäuschen konnte, dass RV770 ebenfalls nur ein Minimalupdate sei, mit maximal 50% mehr Leistung als bei RV670, was eben G92 entsprach.

Tarkin
2009-05-02, 12:17:17
Tiefgreifende Architekturveränderungen oder vielleicht wirklich ein Multi-Chip-Module(MCM)-Design?

Mal von dem MCM ausgehend:

RV870-MCM:
-48 TMUs
-960SPs (höhere Effizienz?)
-128 bis 192-Bit GDDR5
-16 ROPs (128Z?)
-D3D11
-MCM-Logik
~ ein Die knapp unter bzw. um 200mm² @ 40nm ~ 1200M Transistoren

Gehen wir nun davon aus, dass durch das MCM-Konzept der Speicher gemeinsam verwendet wird und vielleicht einen Skalierung von 80% ohne AFR? erreicht wird.

Da würde ein RV870-MCM@ moderaten 750MHz schon etwas mehr als die doppelte GPU-Leistung einer HD4870 besitzen. Mit einer eher schlechten Crossfire-Skalierung von 60% zwischen den zwei MCM-Packages dann auf der $499+ SKU wäre man schon bei fast 3.5-facher HD4870-Leistung. Und mit höherem Takt und besseren Skalierungsfällen, wäre hier wohl ein Faktor 4 drin.

Hä? Ein einziger rv870 mehr als doppelt so schnell wie rv770???

Das wäre schlicht revolutionär wenn ATi so ein MCM-Design hinbekommt!

Ailuros
2009-05-02, 17:35:31
Immer dieses Rätselraten bei dir. :biggrin:
Ok, dann gehst du davon aus, dass der RV870 an ca. 400mm² kommt?

Nein. =/<300mm2

Ich meine mich zu erinnern, dass du den GT300 auf ~575mm² einschätzst. ;)

Ich kann mich nicht erinnern eine so genaue Zahl erwaehnt zu haben; ich sagte lediglich dass GT3x0 in etwa so gross wie GT200 sein wird unter 40nm. Das einzige wahre Raetsel hier ist welchen GT200 ich genau meinte.

Tiefgreifende Architekturveränderungen oder vielleicht wirklich ein Multi-Chip-Module(MCM)-Design?

Fuer was genau sollte denn das MCM Zeug ueberhaupt gedacht sein?

Gehen wir nun davon aus, dass durch das MCM-Konzept der Speicher gemeinsam verwendet wird und vielleicht einen Skalierung von 80% ohne AFR? erreicht wird.

Dieses ohne AFR und die angebliche bis zu 80% Skalierung will ich erstmal erklaert bekommen.

Da würde ein RV870-MCM@ moderaten 750MHz schon etwas mehr als die doppelte GPU-Leistung einer HD4870 besitzen. Mit einer eher schlechten Crossfire-Skalierung von 60% zwischen den zwei MCM-Packages dann auf der $499+ SKU wäre man schon bei fast 3.5-facher HD4870-Leistung. Und mit höherem Takt und besseren Skalierungsfällen, wäre hier wohl ein Faktor 4 drin.

Wie waere es nochmal an die Moeglichkeit an mehr als einer rasterizing/Geometry Einheit pro chip zu denken?

dargo
2009-05-02, 19:11:12
Nein. =/<300mm2

Ich kann mich nicht erinnern eine so genaue Zahl erwaehnt zu haben; ich sagte lediglich dass GT3x0 in etwa so gross wie GT200 sein wird unter 40nm. Das einzige wahre Raetsel hier ist welchen GT200 ich genau meinte.

Irgendwie schwirrt bei mir im Kopf diese Zahl, keine Ahnung wo ich die her habe. :D
Dann meinst du also der GT300 wird bei ca. 420mm² liegen?

Hugo
2009-05-02, 19:19:12
@Ailuros
sagen wir mal die Die-Size von RV870 ist unsere 100%.
Wo denkst (vielleicht sogar weißt) du würde GT300 und LRB liegen?

dargo
2009-05-02, 20:11:23
@Ailuros
sagen wir mal die Die-Size von RV870 ist unsere 100%.
Wo denkst (vielleicht sogar weißt) du würde GT300 und LRB liegen?
Er hat es hier schon angedeutet. :whisper:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7271565&postcount=734

nagus
2009-05-03, 00:16:56
Wenn man sich so manche Andeutungen und Gerüchte aus der Vergangenheit anhört, dann gab es doch schon einige Forschung bei AMD in diese Richtung.
Bleibt natürlich die Frage, wie groß der Umfang wirklich war und wie die Resultate aussahen.

geredet bzw. spekuliert wird ja schon mindestens 2 jahre... wenn ich mich recht erinnere gingen viele schon bei der rv770 generation davon aus, dass sich in diese richtung endlich mal was tut.. vielleicht wirds ja ENDLICH bei der rv870 wirklichkeit. währe geil :)

Gast
2009-05-03, 08:37:20
Primäres Ziel von AMD waren laut deren Aussage in Interviews mit RV770 eben G92-Karten.
Ja, und der R600 sollte nur gegen G80, zweite Wahl antreten? :)


Tiefgreifende Architekturveränderungen oder vielleicht wirklich ein Multi-Chip-Module(MCM)-Design?
Für tiefgreifende Veränderungen ist das R&D Budget zu klein und das RV7x0-Design schon zu dicht an DX11.

MCM? Und wie weiß "die Arbeit" wo sie hin soll so ganz ohne Loadbalancer? Oder sollen beide Chips die Stati ihrer SIMDs über den PCIe zurück an die CPU melden, die dann entsprechen die Treiber konfiguriert? Klänge nicht nach 60% skalierung und schon gar nicht nach 80.

Wie gut passt MCM mit DirectX 11 und dem Global Data Share zusammen? Der sollte ja on-Chip und nicht im VRAM residieren.

Die Alternative, ein asynchrones MCM mit einer "richtigen GPU" und mehreren Rechenknechten (also ohne VGA, Video, etc.) würde wieder mehr Entwicklungsaufwand bedeuten, da man verschiedene GPUs bräuchte. Zudem sollte für eine Top-to-Bottom-Lösung die Basis-GPU klein und günstig genug für Low-End sein: DDR3-tauglich, 64 Bit SI und minimale Features wie bisher. Für die ca. 70mm² schätze ich da 320 ALUs, die möglich wären. Dummerweise müsste man da aber auch DP einbauen, Kompression und eben alles, was die High-End-Lösung später auch braucht.

Mein Fazit: MCM wäre aus wirtschaftlicher Sicht zwar wünschenswert, aber ich sehe das noch nicht so ganz.

Ailuros
2009-05-03, 09:53:15
Irgendwie schwirrt bei mir im Kopf diese Zahl, keine Ahnung wo ich die her habe. :D
Dann meinst du also der GT300 wird bei ca. 420mm² liegen?

Gibt es einen GT200 der nur 420mm2 gross ist? Ich sagte dass ich den Unterschied etwas ueber 40% einschaetze....

GT200@65nm = 583mm2
RV770@55nm = 264mm2
-------------------------------
Unterschied ~55%

Hugo,

IMHLO nach die size:

GT3x0
LRB
RV870

Ailuros
2009-05-03, 10:01:39
Für tiefgreifende Veränderungen ist das R&D Budget zu klein und das RV7x0-Design schon zu dicht an DX11.

AMD hat IMHLO auch in diesem Stadium keine besonders tiefgreifenden Aenderungen noetig (stets unter der Begrenzung dass sie keine Ambitionen haben den Durchbruch der Grafikabteilung in anderen Maerkten zu erweitern).

MCM? Und wie weiß "die Arbeit" wo sie hin soll so ganz ohne Loadbalancer? Oder sollen beide Chips die Stati ihrer SIMDs über den PCIe zurück an die CPU melden, die dann entsprechen die Treiber konfiguriert? Klänge nicht nach 60% skalierung und schon gar nicht nach 80.

Ist leider so und ich will hier selbst die 60% bezweifeln.


Die Alternative, ein asynchrones MCM mit einer "richtigen GPU" und mehreren Rechenknechten (also ohne VGA, Video, etc.) würde wieder mehr Entwicklungsaufwand bedeuten, da man verschiedene GPUs bräuchte. Zudem sollte für eine Top-to-Bottom-Lösung die Basis-GPU klein und günstig genug für Low-End sein: DDR3-tauglich, 64 Bit SI und minimale Features wie bisher. Für die ca. 70mm² schätze ich da 320 ALUs, die möglich wären. Dummerweise müsste man da aber auch DP einbauen, Kompression und eben alles, was die High-End-Lösung später auch braucht.

Mein Fazit: MCM wäre aus wirtschaftlicher Sicht zwar wünschenswert, aber ich sehe das noch nicht so ganz.

Dumme Frage: gibt es ueberhaupt eine Garantie dass bei "shared memory" auf solchen Architekturen nie Texturen ueber einmal gelesen werden muessen?

Gast
2009-05-03, 10:13:40
AMD hat IMHLO auch in diesem Stadium keine besonders tiefgreifenden Aenderungen noetig (stets unter der Begrenzung dass sie keine Ambitionen haben den Durchbruch der Grafikabteilung in anderen Maerkten zu erweitern).
Denke ich auch nicht (außer die Kompression der HDR-Texturen in ROP/TMU - und das kann ich kaum einschätzen, wieviel Arbeit das wäre), aber AnarchX schließt diese Möglichkeit ja zu recht nicht komplett aus.

Dumme Frage: gibt es ueberhaupt eine Garantie dass bei "shared memory" auf solchen Architekturen nie Texturen ueber einmal gelesen werden muessen?
Dumme Fragen gibt es nicht - schon gar nicht für Leute, die sie nichtmal sicher beantworten können. :) Jedenfalls denke ich, dass das der Global Data Share hauptsächlich für während der Arbeit veränderte Daten, die aus einem SIMD kommen, gebraucht wird. Bei jeder Änderung müsste dann ein Broadcast an alle angeschlossenen Multi-Chips erfolgen. Und um die Daten kohärent zu halten muss dann auch noch abgeglichen werden, ob nicht einer der anderen Chips/SIMDs inzwischen auch Daten überschrieben hat. Was sich schon innerhalb eines Chips ziemlich Albtraumhaft anhört, dürfte über mehrere Module zu ekligen Stalls führen.

Bei CPUs gibt es ja ausgedehnte Bereiche des Dies, die nur für die Cache-Kohärenz und dergleichen zuständig sind. Solche Ausmaße will man für GPUs sicherlich vermeiden.

Hvoralek
2009-05-03, 11:33:00
Gibt es einen GT200 der nur 420mm2 gross ist? Ich sagte dass ich den Unterschied etwas ueber 40% einschaetze....

GT200@65nm = 583mm2
RV770@55nm = 264mm2
-------------------------------
Unterschied ~55%Du meinst also nicht, GT300 sei ≈40% größer als RV870, sondern, RV870 sei ≈40% kleiner als GT300? Wenn ich für RV870 etwa 300 mm² annehme, würde das für GT300 ≈500 mm² bedeuten.

Andererseits waren die vor kurzem gezeigten Larrabees >= 600 mm². Zumindest das Spitzenmodell müsste demnach größer als GT300 sein. Eine 32- nm- Version davon läge aber wohl bei etwa 350 - 400 mm². Das würde dann auch hierzu passen:

IMHLO nach die size:

GT3x0
LRB
RV870

Gaestle
2009-05-03, 20:46:34
Ich vermute, es soll heißen entweder ca. 583 x 0,6 (ATi ist 40% kleiner als NV) oder ca. 583 x 0,71 (NV ist 40% größer als ATi). G200 wäre also die (halbwegs bekannte) Basis der Berechnung.

Ailuros
2009-05-04, 14:12:50
....

Nagel/Kopf/Treffer :)

nagus
2009-05-07, 21:16:50
RV870 won't come in Q3 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=13550&Itemid=1)

irgendwie klingt diese meldung "ein bisschen" silly
typische fudzilla sinnlos-meldung.

_flx
2009-05-07, 21:50:31
Was ich mir vorstellen könnte:
Man bringt im Sommer '09 einen "RV7xx" umgelabelt auf "RV8xx" inkl. D3D11 und 40nm auf den Markt welcher ~30 mehr Performance hat als der RV790.

Also ohne großartige Architekturveränderungen.


So lngsam aber sicher stößt mir dieses "Chip X, welcher feature A und B und obendrein noch Revolution C mitbringt, wurde auf Grund bla blubb gecancelt und stattdessen kommt Chip Y, welcher 'nur" eine Evolution von Chip Z ist" negativ auf.

Erst der 'ursprüngliche' R700 jetzt der 'R800' und bei nV G(T?)300?
Also so langsam glaub ichs nimmer. Riecht für mich nach gefaketen Leaks, welche von irgendwelchen tollen 'Dingen' um sich im Gespräch zu halten...

Gast
2009-05-07, 22:59:35
Naja, seitdem AMD das Ruder übernommen hat ist die (Des-)Informitionspolitik viel undurchsichtiger geworden. Mann wird kaum unterscheiden können, welche Meldungen aus der letzten Zeit stimmen werden und welche Falschmeldungen extra von AMD in Umlauf gebracht worden sind. Mich würde es gar nicht wundern, wenn der RV 870 plötzlich was komplett anderes ist als dass die (Falsch)Meldungen zur Zeit suggerieren.

nagus
2009-05-08, 07:57:31
ich glaube die meisen seiten wie "fudzilla" etc... posten einfach irgendwelche "news", nur um traffic auf der webpage zu generieren. ob frei erfunden oder echt, ganz egal. hauptsache es geht dabei um die nächste grafikkarten- CPU oder whatever-generation.

Ailuros
2009-05-08, 08:48:40
ich glaube die meisen seiten wie "fudzilla" etc... posten einfach irgendwelche "news", nur um traffic auf der webpage zu generieren. ob frei erfunden oder echt, ganz egal. hauptsache es geht dabei um die nächste grafikkarten- CPU oder whatever-generation.

Ich kann mich an eine Aussage von einem ATI Angestellten erinnern der erwaehnte dass 58x0 fuer Q4 09' projeziert ist. Hast Du irgend eine aehnliche offizielle Aussage die dagegen spricht?

Natuerlich reimt Fudo einen Haufen Mist in dem newsblurb zusammen, aber wenn Du wenigstens den Bruder der Cousine des Freundes des Bekannten der bei TSMC kennen wuerdest haettest Du eine bessere Vorstellung der eigentlichen Realitaet.

***edit: ich weiss zwar nicht auf welchem 40nm AMD herstellt, ich kann Dir aber sagen dass die 40G yields momentan ziemlich beschissen sind.

Tarkin
2009-05-08, 09:08:13
http://www.hartware.de/news_46778.html

zwar nichts offizielles von AMD/ATi aber ich denke heise news kann man mehr trauen als fudzilla "ich-schreib-einfach-irgendwas-ein-beitrag-stimmt-dann-vielleicht-sogar" ;-)

und das ist jetzt gerade mal drei Wochen her.

Ailuros
2009-05-08, 09:11:42
http://www.hartware.de/news_46778.html

zwar nichts offizielles von AMD/ATi aber ich denke heise news kann man mehr trauen als fudzilla "ich-schreib-einfach-irgendwas-ein-beitrag-stimmt-dann-vielleicht-sogar" ;-)

und das ist jetzt gerade mal drei Wochen her.

Nur gibt es einen klitzekleinen Unterschied zwischen produktionsreifen samples zu haben und diese auch mir nichts dir nichts auf den Markt mit ehlendigen yields zu bringen. NV's G300 ist auch schon in dem Stadium. Du wolltest sagen?

reunion
2009-05-08, 09:16:43
***edit: ich weiss zwar nicht auf welchem 40nm AMD herstellt, ich kann Dir aber sagen dass die 40G yields momentan ziemlich beschissen sind.

Bei einem kleinen Die ist das aber wesentlich leichter zu verschmerzen als bei einem >400mm² Ding. Eine 4770 kann ich ja heute auch schon kaufen in 40nm.

http://www.hartware.de/news_46778.html

zwar nichts offizielles von AMD/ATi aber ich denke heise news kann man mehr trauen als fudzilla "ich-schreib-einfach-irgendwas-ein-beitrag-stimmt-dann-vielleicht-sogar" ;-)

und das ist jetzt gerade mal drei Wochen her.

Man sollte mal etwas runter kommen. Es wird unglaublich viel FUD erzählt. Man kann momentan wohl rein gar nichts aus oder einschließen. Es könnte genau so NV mit ihrem G300 früher dran sein wie AMD mit RV870.

Ailuros
2009-05-08, 09:45:24
Bei einem kleinen Die ist das aber wesentlich leichter zu verschmerzen als bei einem >400mm² Ding. Eine 4770 kann ich ja heute auch schon kaufen in 40nm.

Nur ist RV740 auch nur 137mm2 gross und ist lediglich auf 750MHz getaktet (stets im Vergleich zur 55nm chip Komplexitaet und Frequenzen). Noch schlimmer ich sehe kein 1100MHz GDDR5 auf dem Ding.

nagus
2009-05-10, 11:17:27
CB hat auch wieder was "neues" zu vermelden: http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/mai/kommt_atis_rv870_winter/

Gast
2009-05-10, 12:18:24
CB bezieht sich doch nur auf die Fudzilla Meldung, also nichts neues.

Ailuros
2009-05-12, 18:05:13
http://www.brightsideofnews.com/news/2009/5/11/tsmc-has-to-improve-40nm---or-atinvidia-are-gone!.aspx

Alleine fuer den letzten Paragraphen im obrigen newsblurb haette ich das Ganze im GT300 Thread posten sollen aber was soll's ;)

reunion
2009-05-12, 18:14:04
NV arbeitet an SOI GPUs bei Globalfoundries?

Ailuros
2009-05-12, 18:23:25
NV arbeitet an SOI GPUs bei Globalfoundries?

Ob es bei Globalfoundries ist oder nicht keine Ahnung; auf jeden Fall suchen sie momentan nach engineers mit SOI Erfahrung. Ein single chip schon nur nicht ausschliesslich GPU ;)

[fu]121ah@home
2009-05-12, 18:58:11
Ob es bei Globalfoundries ist oder nicht keine Ahnung; auf jeden Fall suchen sie momentan nach engineers mit SOI Erfahrung. Ein single chip schon nur nicht ausschliesslich GPU ;)
wobei ich das gar nicht mal für so unwahrscheinlich erachte - globalfoundries wird wohl - zumindest am anfang - kucken dass der deckel drauf bleibt - was bei TSMC oder UMC nicht gegeben ist (wenn ich all den blubber im netz mal "interpretiere")

|MatMan|
2009-05-12, 20:15:06
Ein single chip schon nur nicht ausschliesslich GPU ;) Du redest doch nicht etwa von Tegra? (ich weiß total falscher Thread hier)

Botcruscher
2009-05-12, 20:47:06
Damit relativiert sich auch das Geblubber welcher Chip eher da ist. Also gbts irgendwan gleichzeitig einen schönen Paperlaunch beider Hersteller. Vollverfügbarkeit sehen wir gegen Ende des Jahres. Weil dann 40nm ordentliche yields liefert.

Sorkalm
2009-05-12, 21:26:30
Ob es bei Globalfoundries ist oder nicht keine Ahnung; auf jeden Fall suchen sie momentan nach engineers mit SOI Erfahrung. Ein single chip schon nur nicht ausschliesslich GPU ;)

Welcher andere nenneswerter Auftragsfertiger bietet denn SOI an?

mboeller
2009-05-13, 09:24:14
Seltsam, die Info auf heise.de zu der Verschiebung ist hier noch nicht durchgekaut worden (obwohl sie doch die meisten Infos hat):

Wahrscheinlicher sind jedoch Probleme, die der taiwanesische Auftragsfertiger TSMC mit dem 40-Nanometer-Fertigungsprozess hat. So soll in Testläufen die Ausbeute von funktionierenden RV870-Chips, die aus mehreren Milliarden Transistoren bestehen, mit rund 30 Prozent nicht akzeptabel sein. Im Gespräch mit heise online ging auch eine unternehmensnahe Quelle nicht von einem Marktstart vor dem vierten Quartal des Jahres aus.



Link: http://www.heise.de/newsticker/Grafik-Geruechte-Verschieben-sich-DirectX-11-Grafikchips--/meldung/137627

LovesuckZ
2009-05-13, 10:30:01
Soviel zu heise, dass sie bezüglich solcher News ernstzunehmen wären. Es zeigt einfach nur, dass niemand über richtige Quellen verfügt, solange wie der Launchtermin > 1 Monat ist.

reunion
2009-05-13, 10:32:54
Sieht für mich so aus als ob die Chips fertig wären aber der Fertigungsprozess beiden eine Strich durch die Rechnung macht. Da wäre es natürlich gold wert gewesen wenn AMD oder NV bei 55nm geblieben wären und so wohl einen beachtlichen Vorsprung auf den Konkurrenten hätten.

BlackBirdSR
2009-05-13, 10:36:53
Oauf jeden Fall suchen sie momentan nach engineers mit SOI Erfahrung.

Sieht so aus, als sucht Nvidia ein Mittel um noch massivere Integrationsdichten bei sehr hohen Taktraten unterzubringen. Nach vielen kleineren Chips weg von Transistormonstern klingt das nicht.

LovesuckZ
2009-05-13, 10:44:54
Sieht für mich so aus als ob die Chips fertig wären aber der Fertigungsprozess beiden eine Strich durch die Rechnung macht. Da wäre es natürlich gold wert gewesen wenn AMD oder NV bei 55nm geblieben wären und so wohl einen beachtlichen Vorsprung auf den Konkurrenten hätten.

Ohne eine radikale Architekturänderung und somit eine deutlich erhöhte Effizienz ist man jetzt schon fast am Ende vom 55nm Prozeß.
AMD benötigt mit 970 Millionen Transistoren fast genauso viel Strom wie nVidia mit 430 Millionen mehr. Auf der selben architekturaufbauend wäre 55nm Prozeß nicht das Allheilmittel in dieser Situation.

aylano
2009-05-13, 12:10:02
Da wäre es natürlich gold wert gewesen wenn AMD oder NV bei 55nm geblieben wären und so wohl einen beachtlichen Vorsprung auf den Konkurrenten hätten.
Lachender Dritte könnte Intel werden. Zumindestens, dürfte die Einführung dadurch eichter werden.

Mal sehen, ob AMD die 32nm von Dresden jetzt stärker anvisiert, was Anfang 4Q fertig entwickelt sein soll.

KonKorT
2009-05-13, 14:14:06
Soviel zu heise, dass sie bezüglich solcher News ernstzunehmen wären. Es zeigt einfach nur, dass niemand über richtige Quellen verfügt, solange wie der Launchtermin > 1 Monat ist.
Nein, das zeigt es nicht (wobei nicht vollkommen ausgeschlossen). Es zeigt eher, dass > 1 Monat vor einem Launchtermin noch eine Menge an Komplikationen auftreten können.

Gast
2009-05-13, 14:16:18
Nein, auch das zeigt es nicht, sondern daß es keine festen Launchtermine im Voraus geben kann.

robbitop@work
2009-05-13, 15:49:49
Wenn man pro funktionsfähigen Chip bezahlt (was ja nicht zuviel verlangt ist, wenn man den neusten Prozess zur Serienreife verhilft durch Optimierungen an eigenen Produkten), wären 30 % Yield doch ok für einen Launch. Für einen RV870 könnte ATI heute locker 500 EUR verlangen, da er alles was auf dem Markt ist deutlich schlagen müsste und ein neues Featureset bringt. So ein zeitlicher Vorsprung vor NV wäre goldwert. Für die Gewinnspanne, für das Image (das Topprodukt ist immer ein super Zugpferd für die restliche Serie) und natürlich auch für den Marktanteil.
Das RV870 schon relativ weit sein müßte, ist ja mittlerweile klar. Ich hoffe, dass der Prozess nicht so übel ist, dass man einen quasi fertigen Chip um 6 Monate nach hinten schieben müßte. Ich hoffe, ein Respin mit einer Verschiebung um 3 Monate reicht dort. Da würde man ja eine Riesenchance verpassen.
Ganz unbrauchbar kann der Prozess ja nicht sein (RV740) aber er scheint hinter den Erwartungen zu hinken (PCB Größe, Stückzahl und Leistungsaufnahme des RV740 sind dort Indikatoren).

Gast
2009-05-13, 15:57:34
Ich hoffe, ein Respin mit einer Verschiebung um 3 Monate reicht dort.
Kann man bei so einem Respin auch gleich noch Verbesserungen in der Taktrate und im Verbrauch erzielen, oder ist rein mit Anpassungen zugunsten der Yieldrate zu rechnen?

Gast
2009-05-13, 16:02:21
Wenn man pro funktionsfähigen Chip bezahlt (was ja nicht zuviel verlangt ist, wenn man den neusten Prozess zur Serienreife verhilft durch Optimierungen an eigenen Produkten), wären 30 % Yield doch ok für einen Launch.

Da wird sich TSMC aber nicht drauf einlassen, die wollen ja schließlich auch Geld verdienen und nicht nur Schrott zu ihren Lasten produzieren.

Gast
2009-05-13, 16:04:46
Kann man bei so einem Respin auch gleich noch Verbesserungen in der Taktrate und im Verbrauch erzielen, oder ist rein mit Anpassungen zugunsten der Yieldrate zu rechnen?

Das kann man pauschal nicht beantworten, weil wir ja nicht wissen, was an dem Prozeß derzeit faul ist, also warum die Ausbeute so schlecht ist.

robbitop@work
2009-05-13, 16:07:20
Da wird sich TSMC aber nicht drauf einlassen, die wollen ja schließlich auch Geld verdienen und nicht nur Schrott zu ihren Lasten produzieren.
Das haben die schon oft genug gemacht. NV30 ahoi.

Gast
2009-05-13, 16:14:43
"Oft genug" und dann nennst du ein Beispiel? Welche denn sonst noch?
Zudem sollte man nicht vergessen, daß Nvidia viel höhere Stückzahlen bei TSMC geordert hat und daß nach der NV3x Verzögerung Nv eine Teil der Nv4x Chips woanders fertigen ließ.

Ailuros
2009-05-13, 16:26:16
Sieht so aus, als sucht Nvidia ein Mittel um noch massivere Integrationsdichten bei sehr hohen Taktraten unterzubringen. Nach vielen kleineren Chips weg von Transistormonstern klingt das nicht.

Brutal vereinfacht es koennte sein dass NVIDIA noch aggressiver gegen Intel konkurrieren will langfristig und ja ausserhalb ihrem gewoehnlichen Arbeitsgebiet. Ich hab trotzdem so meine Zweifel dass daraus je ein Treffer werden koennte.

robbitop@work
2009-05-13, 16:48:32
"Oft genug" und dann nennst du ein Beispiel? Welche denn sonst noch?
Zudem sollte man nicht vergessen, daß Nvidia viel höhere Stückzahlen bei TSMC geordert hat und daß nach der NV3x Verzögerung Nv eine Teil der Nv4x Chips woanders fertigen ließ.
1x ist ein Präzedenzfall und damit oft genug. Zumindest ist es immerhin 1x Fall der öffentlich bekannt ist. Wieviele öffentlich nicht bekannt sind, kann man nur erraten. Es wäre jedenfalls mit Sicherheit nicht das erste Mal. Alles andere ist Erbsenzählerei in der Formulierung.

Gast
2009-05-14, 18:36:54
Nein, das zeigt es nicht (wobei nicht vollkommen ausgeschlossen). Es zeigt eher, dass > 1 Monat vor einem Launchtermin noch eine Menge an Komplikationen auftreten können.

Seh ich auch so. :)

AnarchX
2009-05-19, 20:08:46
Was spräche eigentlich dagegen, dass ATi beim RV870 die ALUs etwas umstrukturiert?

Nämlich von: 4 MADs + fette ALU auf 3 MADs + fette ALU.
Womit man die Auslastung um 25% im Worst-Case bei gleicher Gesamt-SPs-Zahl erhöhen könnte.

Damit bestände dann eine Quad-ALU aus 16 SPs, der Sheduler bei RV7xx basiert offenbar auf Doppel-Quad-ALUs als kleinste Einheit.

Also kämen 32, 64 oder 96 in Frage pro SIMD Core. Wobei sich natürlich letzeres als sinnvollstes anhört.

Bei spekulierten 48 TMUs also 12 SIMD Cores, ergäbe das dann 1152SPs.
Taktbereinigt bei voller Auslastung von RV770 und RV870 +44%, im Worstcase +80%.

Und dann als "Geschenk" an die GPGPU-Community, pro SIMD ein Quad DP-ALUs mit Fähigkeiten, wie bei GT200.

Ergibt insgesamt 1200 SPs. :D

Bleibt natürlich die Frage, inwieweit ATi in der Lage ist in der Architektur solche Veränderungen vorzunehmen oder ob man bei einem solchen Schritt noch weiter gehen würde.

reunion
2009-05-19, 20:15:27
Was spräche eigentlich dagegen, dass ATi beim RV870 die ALUs etwas umstrukturiert?

Nämlich von: 4 MADs + fette ALU auf 3 MADs + fette ALU.
Womit man die Auslastung um 25% im Worst-Case bei gleicher Gesamt-SPs-Zahl erhöhen könnte.

Damit bestände dann eine Quad-ALU aus 16 SPs, der Sheduler bei RV7xx basiert offenbar auf Doppel-Quad-ALUs als kleinste Einheit.

Also kämen 32, 64 oder 96 in Frage pro SIMD Core. Wobei sich natürlich letzeres als sinnvollstes anhört.

Bei spekulierten 48 TMUs also 12 SIMD Cores, ergäbe das dann 1152SPs.
Taktbereinigt bei voller Auslastung von RV770 und RV870 +44%, im Worstcase +80%.

Und dann als "Geschenk" an die GPGPU-Community, pro SIMD ein Quad DP-ALUs mit Fähigkeiten, wie bei GT200.

Ergibt insgesamt 1200 SPs. :D

Bleibt natürlich die Frage, inwieweit ATi in der Lage ist in der Architektur solche Veränderungen vorzunehmen oder ob man bei einem solchen Schritt noch weiter gehen würde.

Macht IMO keinen Sinn, die Einteilung in Vec5 kommt ja nicht von ungefähr und die Auslastung liegt ja auch bei sehr guten ~3.5/5 im Schnitt. Matrizenberechnungen u.ä. in VS und PS die immer häufiger werden lasten eine Vec5-ALU meist perfekt aus.

Und dann als "Geschenk" an die GPGPU-Community, pro SIMD ein Quad DP-ALUs mit Fähigkeiten, wie bei GT200.

Und das macht schon überhaupt keinen Sinn IMO.

Gipsel
2009-05-19, 20:54:19
Was spräche eigentlich dagegen, dass ATi beim RV870 die ALUs etwas umstrukturiert?

Nämlich von: 4 MADs + fette ALU auf 3 MADs + fette ALU.
Womit man die Auslastung um 25% im Worst-Case bei gleicher Gesamt-SPs-Zahl erhöhen könnte.
Wie Reunion schon meinte, werden bei ATI eine Menge Simulationen gelaufen sein, bevor man vom R580 mit 4 ALUs pro Einheit auf 5 Alus pro Einheit bei R600 aufwärts umgesattelt hat. Die Auslastung wäre mit 3+1 höher, das stimmt. Allerdings bräuchte man dann mehr Einheiten (mit mehr Verwaltungsoverhead) um wieder auf die gleiche Leistung zu kommen. Was ich mir eher vorstellen könnte, wären weniger Einheiten pro SIMD. Da liegt ATI ja mit 16 schon deutlich über den 8 bei nv.

Damit bestände dann eine Quad-ALU aus 16 SPs, der Sheduler bei RV7xx basiert offenbar auf Doppel-Quad-ALUs als kleinste Einheit.

Also kämen 32, 64 oder 96 in Frage pro SIMD Core. Wobei sich natürlich letzeres als sinnvollstes anhört.
Da mußt Du mal erklären, wie Du das meinst. Bei ATI besitzen die letzten GPUs alle 16 VLIW-Einheiten (je 4+1) pro SIMD. Das ist auch die kleinste Einheit, die der Scheduler halbwegs unabhängig mit Instruktionen versorgen kann (im Prinzip ist eine Wavefront sogar 64 Einheiten groß, jeder Befehl arbeitet über 4 Takte verteilt immer auf 64 "Threads", ein Quad eines Pixelshaders wird über 4 Takte von einer VLIW-Einheit abgearbeitet). Das heißt also 1 Befehl gilt immer für 16 Quads. Für jede Einheit (sogar für jeden "Thread") werden allerdings die Thread-IDs oder z.B. die Predication Masks getrennt verwaltet. Seit RV770 sind die Quads nicht mehr ganz so fest gefügt wie noch beim RV670.

Spasstiger
2009-05-19, 21:06:08
Und dann als "Geschenk" an die GPGPU-Community, pro SIMD ein Quad DP-ALUs mit Fähigkeiten, wie bei GT200.
So würde sich die Peak-Leistung bei Double Precision gegenüber dem RV770 aber mehr als halbieren (48 DP-MADD pro Takt vs. 120 160 DP-MADD beim RV770).

Gipsel
2009-05-19, 21:34:27
So würde sich die Peak-Leistung bei Double Precision gegenüber dem RV770 aber mehr als halbieren (48 DP-MADD pro Takt vs. 120 DP-MADD beim RV770).
RV770 kann 160 DP MADD pro Takt ;)
RV740 kann schon 128 DP MADD pro Takt.
Wenn daraus ein wirkliches FMA wird (bei gleichzeitiger Steigerung der Leistung entsprechend der Anzahl der Shadereinheiten), wäre ich für RV870 schon fast zufrieden. Bei 1280 Shader-ALUs (256 VLIW-Einheiten, könnten 16 SIMDs mit ähnlichem Aufbau wie jetzt sein, d.h. mit je 16 Einheiten) und 850MHz Takt würde man auch schon auf 435 GFlops DP kommen. Daß wäre im Prinzip ja nur ein doppelter RV740 (+DX11) und sollte wohl mindestens die Meßlatte sein.

Spasstiger
2009-05-19, 21:52:33
RV770 kann 160 DP MADD pro Takt ;)
RV740 kann schon 128 DP MADD pro Takt.
Richtig, danke für die Korrektur. Irgendwie hatte ich die 120 im Kopf, warum auch immer.

Gast
2009-05-19, 22:03:04
Warum stürzt ihr euch immer auf die ALUs ? Wenn ATI wirklich mehr Leistung rausholen will/wird, dann werden die doch sicher bei den Flaschenhälsen ansetzen, die hier die Pixel und vor allem die Texturfüllraten wären.

deekey777
2009-05-19, 22:19:40
Was spräche eigentlich dagegen, dass ATi beim RV870 die ALUs etwas umstrukturiert?

Nämlich von: 4 MADs + fette ALU auf 3 MADs + fette ALU.
Womit man die Auslastung um 25% im Worst-Case bei gleicher Gesamt-SPs-Zahl erhöhen könnte.

Damit bestände dann eine Quad-ALU aus 16 SPs, der Sheduler bei RV7xx basiert offenbar auf Doppel-Quad-ALUs als kleinste Einheit.

Also kämen 32, 64 oder 96 in Frage pro SIMD Core. Wobei sich natürlich letzeres als sinnvollstes anhört.

Bei spekulierten 48 TMUs also 12 SIMD Cores, ergäbe das dann 1152SPs.
Taktbereinigt bei voller Auslastung von RV770 und RV870 +44%, im Worstcase +80%.

Und dann als "Geschenk" an die GPGPU-Community, pro SIMD ein Quad DP-ALUs mit Fähigkeiten, wie bei GT200.

Ergibt insgesamt 1200 SPs. :D

Bleibt natürlich die Frage, inwieweit ATi in der Lage ist in der Architektur solche Veränderungen vorzunehmen oder ob man bei einem solchen Schritt noch weiter gehen würde.
Nur so ein Gedanke:
Gibt es wirklich jemanden, der sich über die Möglichkeit, fünf unabhängige Operations in einem Wisch auszuführen (oder waren es sechs oder zehn oder zwölf?), beschwert hat?

Ailuros
2009-05-20, 09:41:20
Was spräche eigentlich dagegen, dass ATi beim RV870 die ALUs etwas umstrukturiert?

IMHLO waere ein guter Grund dass die heutigen Vec5 ALUs ziemlich effizient sind beim unabhaengigem branching.


Und dann als "Geschenk" an die GPGPU-Community, pro SIMD ein Quad DP-ALUs mit Fähigkeiten, wie bei GT200.

Die zusaetzlichen Faehigkeiten koennten sie auch in die existierende ALUs einbauen wenn sie als notwendig empfinden. Da LRB wohl auch auf SP=1/4 DP liegt was die Leistung betrifft (stets theoretisch, in Echtzeit ist es selbst auf den Radeons eher 1/5 was wohl auch auf LRB nicht anders sein wird), gibt es wohl keinen besonderen Grund an unabhaengige Einheiten zu denken.


Bleibt natürlich die Frage, inwieweit ATi in der Lage ist in der Architektur solche Veränderungen vorzunehmen oder ob man bei einem solchen Schritt noch weiter gehen würde.

Ich glaube zwar schon dass ATI gewisse wichtige Aenderungen vorgenommen hat, aber an fundamentale Aenderungen der existierenden RV7x0 Grundarchitektur zweifle ich eher.

Gipsel
2009-05-20, 12:00:06
IMHLO waere ein guter Grund dass die heutigen Vec5 ALUs ziemlich effizient sind beim unabhaengigem branching.
Bei "richtigem" Branching (oder z.B. Schleifen mit datenabhängiger variabler Durchlaufzahl) sind sie tendenziell etwas im Nachteil, wegen der 64 Threads pro Wavefront statt 32 pro Warp bei nv. Der Vorteil der Fünfer-VLIW-Einheiten ist aber, daß der Compiler ziemlich häufig (wenn die einzelnen Zweige kurz sind, der benutzt eine Heuristik um das zu entscheiden) einfach beide Zweige wirklich simultan ausführen kann (sind ja unabhängig) und das Ergebnis dann per conditional move setzt. Die Auslastung der Einheiten wird bei solchen Branches ziemlich maximal. Diese Strategie funktioniert bei nv wegen der skalaren Einheiten nicht. Hier müssen wirklich immer beide Wege nacheinander ausgeführt werden.

Ailuros
2009-05-20, 12:03:24
http://www.fudzilla.com/index.php?option=com_content&task=view&id=13768&Itemid=1


Bei "richtigem" Branching (oder z.B. Schleifen mit datenabhängiger variabler Durchlaufzahl) sind sie tendenziell etwas im Nachteil, wegen der 64 Threads pro Wavefront statt 32 pro Warp bei nv. Der Vorteil der Fünfer-VLIW-Einheiten ist aber, daß der Compiler ziemlich häufig (wenn die einzelnen Zweige kurz sind, der benutzt eine Heuristik um das zu entscheiden) einfach beide Zweige wirklich simultan ausführen kann (sind ja unabhängig) und das Ergebnis dann per conditional move setzt. Die Auslastung der Einheiten wird bei solchen Branches ziemlich maximal. Diese Strategie funktioniert bei nv wegen der skalaren Einheiten nicht. Hier müssen wirklich immer beide Wege nacheinander ausgeführt werden.

Dumme Laien-Frage: waere es moeglich auf NV's X11 GPUs solche Faelle mit VLiW zu behandeln?

Gipsel
2009-05-20, 12:33:41
Dumme Laien-Frage: waere es moeglich auf NV's X11 GPUs solche Faelle mit VLiW zu behandeln?Wenn die Einheiten es nicht können, geht es nicht. Skalare Einheiten laufen eben immer mit hoher Auslastung, da kann man nichts mehr herausholen. Im Prinzip ist das ja nur eine Möglichkeit für die ATIs ihre 5 ALUs pro Einheit besser auszunutzen.
Oder hast Du etwa Informationen, daß der G(T)300 keine skalaren Einheiten mehr hat? Ich dachte eigentlich, daß soll in etwa so bleiben wie jetzt ;)
Alternative wäre noch, daß nv doch MIMD statt SIMD benutzt (dann kann jeder Thread wirklich einzeln branchen). Aber hat mal irgendwer ausgerechnet, welche Bandbreite man dann für die Instruktionscaches benötigt? Also bei NV weiß ich es nicht, aber bei ATI ist eine VLIW-Instruktion immer 56Bytes groß (bei NV sollte es irgendwas zwischen 8 und 16 Bytes oder so sein). Kann ja mal wer Überschlagen, was bei 1.6GHz und 512 Einheiten da zusammenkommt ;)

Ailuros
2009-05-20, 12:43:07
Wenn die Einheiten es nicht können, geht es nicht. Skalare Einheiten laufen eben immer mit hoher Auslastung, da kann man nichts mehr herausholen. Im Prinzip ist das ja nur eine Möglichkeit für die ATIs ihre 5 ALUs pro Einheit besser auszunutzen.
Oder hast Du etwa Informationen, daß der G(T)300 keine skalaren Einheiten mehr hat? Ich dachte eigentlich, daß soll in etwa so bleiben wie jetzt ;)

"Skalar" kann eine ziemlich breite Beschreibung sein fuer Einheiten und es gibt stets den Unterschied zwischen skalar im heutigen "GPU-Land" und skalar im "CPU-Land".

Und ja G300 wird weiterhin 1D ALUs haben IMHLO womoeglich nach wie vor (MADD+MUL/SP).

Was ich nicht verstehen kann als Laie ist warum man nicht eine skalare Einheit so anlegen kann dass sie sowohl skalare als auch VLiW Instruktionen mit gleicher Effizienz bearbeiten koennen. Oder braeuchte man dafuer dann echte MIMD Einheiten?

***edit: ich frag eigentlich nur (und ja ich hab Deinen obrigen edit gerade gelesen weil ich weiss dass IMG's eingebetteter SGX mit seinen MIMD in etwa so vorgeht...

Coda
2009-05-20, 13:05:38
IMHLO waere ein guter Grund dass die heutigen Vec5 ALUs ziemlich effizient sind beim unabhaengigem branching.
Das musst du mir jetzt genauer erklären. Ich komme auf keinen guten Grund warum das darauf Auswirkungen haben sollte.

Da ist eigentlich nur die Wavefront-Size ausschlaggebend.

Was ich nicht verstehen kann als Laie ist warum man nicht eine skalare Einheit so anlegen kann dass sie sowohl skalare als auch VLiW Instruktionen mit gleicher Effizienz bearbeiten koennen.
Das kapier ich auch nicht.

Gipsel
2009-05-20, 14:57:44
Was ich nicht verstehen kann als Laie ist warum man nicht eine skalare Einheit so anlegen kann dass sie sowohl skalare als auch VLiW Instruktionen mit gleicher Effizienz bearbeiten koennen. Oder braeuchte man dafuer dann echte MIMD Einheiten?

***edit: ich frag eigentlich nur (und ja ich hab Deinen obrigen edit gerade gelesen weil ich weiss dass IMG's eingebetteter SGX mit seinen MIMD in etwa so vorgeht...
Ich habe jetzt von dem SGX keinen Schimmer, allerdings bezeichnet das VLIW/MIMD dort vielleicht was anderes. In Bezug auf die ATIs meint VLIW, daß alle 4 Takte immer 5 Befehle für eine Wavefront abgesetzt werden, und nicht 1 (oder 2) Befehle alle 4 Takte für einen Warp (eigentlich ist es noch ein wenig komplizierter, aber das tut nichts zur Sache).
"Echtes MIMD" würde ich so verstehen, daß jeder "Thread" (evtl. auch nur jede Einheit eines SIMDs/TPCs) einer Wavefront/Warp einen eigenen Befehl bekommen kann, also die Wavefronts als solches zu existieren aufhören. Dieses würde die Branch Granularität sehr stark herabsetzen (von 32 oder 64 Threads auf einen einzigen oder 4 Threads), aber mit sehr großem Verwaltungsaufwand erkauft (könnte aber in einigen Szenarien ordentlich was bringen). Insbesondere wenn jeder Thread einzeln branchen könnte, wäre das Problem vollends gelöst.
Aber solange die Granularität größer ist und eine Einheit nur einen skalaren Befehl pro Takt annimmt, kann das mit dem simultanen Abarbeiten zweier Zweige (wie bei ATIS VLIW-Einheiten) natürlich nicht funktionieren. Oder habe ich Dich jetzt falsch verstanden?

Aber um nochmal auf das Banbreitenargument zurückzukommen, ATIs zehn L1 Texture Caches haben beim RV770 (bei 750MHz) zusammen 480GB/s Bandbreite (48GB/s pro Cache). Wollte ATI wirklich eine MIMD-Version des RV770 bauen, würde man insgesamt 6720 GB/s (6,7 TB/s) Instruktions-Cache-Bandbreite benötigen. Selbst bei einer Verteilung auf 10 getrennte L1-I-Caches (momentan gibt es nur einen gemeinsam für alle SIMDs) sieht das für mich ziemlich utopisch aus.
Das musst du mir jetzt genauer erklären. Ich komme auf keinen guten Grund warum das darauf Auswirkungen haben sollte.

Da ist eigentlich nur die Wavefront-Size ausschlaggebend.
Das hatte ich oben schon mal versucht zu erklären:
Bei "richtigem" Branching (oder z.B. Schleifen mit datenabhängiger variabler Durchlaufzahl) sind sie tendenziell etwas im Nachteil, wegen der 64 Threads pro Wavefront statt 32 pro Warp bei nv. Der Vorteil der Fünfer-VLIW-Einheiten ist aber, daß der Compiler ziemlich häufig (wenn die einzelnen Zweige kurz sind, der benutzt eine Heuristik um das zu entscheiden) einfach beide Zweige wirklich simultan ausführen kann (sind ja unabhängig) und das Ergebnis dann per conditional move setzt. Die Auslastung der Einheiten wird bei solchen Branches ziemlich maximal. Diese Strategie funktioniert bei nv wegen der skalaren Einheiten nicht. Hier müssen wirklich immer beide Wege nacheinander ausgeführt werden.
Der Vorteil der ATIs ist, daß sie bei Branches einfach eine höhere Auslastung der 5 Slots der VLIW-Einheiten erreichen. Bei NV kann sich in der Beziehung ja nichts verändern.

Coda
2009-05-20, 15:41:00
Ja okay das leuchtet ein. Sowas würde ich aber nicht unbedingt als Vorteil verbuchen weil bei NV die Auslastung eh immer quasi perfekt ist.

Gast
2009-05-20, 16:15:11
Bei spekulierten 48 TMUs also 12 SIMD Cores, ergäbe das dann 1152SPs.
Das soll doch wohl ein Scherz sein.

Gipsel
2009-05-20, 16:31:55
Ja okay das leuchtet ein. Sowas würde ich aber nicht unbedingt als Vorteil verbuchen weil bei NV die Auslastung eh immer quasi perfekt ist.
Dann ist der Vorteil eben die höhere Rohleistung, die in solchen Situationen zum Tragen kommt ;)
Ich schrieb ja schon:
Skalare Einheiten laufen eben immer mit hoher Auslastung, da kann man nichts mehr herausholen. Im Prinzip ist das ja nur eine Möglichkeit für die ATIs ihre 5 ALUs pro Einheit besser auszunutzen.

Coda
2009-05-20, 17:01:08
Naja aber Ail hat doch gemeint dass sie gerade wegen Branching das Vec5 beibehalten werden.

Ich halte das für ein komisches Argument, denn die Vec5-Einheiten verhindern meiner Meinung nach etwas MIMD artiges (dyn. Wavefronts) viel eher als bei NVIDIA. Das wird das Branching verbessern.

Gipsel
2009-05-20, 17:10:19
Naja aber Ail hat doch gemeint dass sie gerade wegen Branching das Vec5 beibehalten werden.

Ich halte das für ein komisches Argument, denn die Vec5-Einheiten verhindern meiner Meinung nach etwas MIMD artiges (dyn. Wavefronts) viel eher als bei NVIDIA. Das wird das Branching verbessern.
Das Problem ist, das es gar nicht so einfach ist, irgendwie "dynamische Wavefronts" einzuführen (zumindest fällt mir auf die Schnelle nichts Einfaches ein, was immer funktionieren würde und nicht nur in ein paar Spezialfällen), ohne wirklich echtes MIMD zu machen, was meiner Meinung nach im Moment vom Verwaltungsaufwand her ziemlich utopisch ist.

Man muß einfach sehen, daß (solange man bei SIMD bleibt) bei Branch-intensivem Code breite VLIW-artige Einheiten meist das beste Verhältnis von Performance pro Transistor besitzen.

Und ich sehe eigentlich keinen unterschiedliche Schwierigkeiten bei einer möglichen Umstellung auf MIMD zwischen skalaren und VLIW-Einheiten. Warum sollte das irgendeine Auswirkung haben? Gut, die VLIW-Instruktionen sind im Schnitt etwas größer, aber das sind effektiv vielleicht 50%, also nichts, was eine Umsetzung wirklich verhindern würde. Das Problem ist da eher der Faktor 32 bis 64 von Warp/Wavefront -> einzelne Instruktionen, den man für MIMD aufwenden müßte. Das ist ein Hinderungsgrund.

Edit:
Oder man beschränkt das auf zwei Zweige beim Branching, schickt für die komplette Wavefront/Warp immer zwei Befehle los und entscheidet mit einer Art Predication Mask, welcher davon ausgeführt wird. Wäre aber ganz schöne Verschwendung für die überwiegende Zeit, in der keine Branches auftreten. Ergo glaube ich nicht wirklich dran, daß das so gelöst wird.

Coda
2009-05-20, 17:17:18
Das Problem ist, das es gar nicht so einfach ist, irgendwie "dynamische Wavefronts" einzuführen (zumindest fällt mir auf die Schnelle nichts Einfaches ein, was immer funktionieren würde und nicht nur in ein paar Spezialfällen), ohne wirklich echtes MIMD zu machen, was meiner Meinung nach im Moment vom Verwaltungsaufwand her ziemlich utopisch ist.
Z.B.: http://www.ece.ubc.ca/~aamodt/papers/wwlfung.micro2007.pdf

NVIDIA wird kein MIMD machen. Das ist ziemlich sicher. Dennoch wird es dort eine Verbesserung geben in irgendeiner ähnlichen Form wie das Paper oben beschreibt.

Und ich sehe eigentlich keinen unterschiedliche Schwierigkeiten bei einer möglichen Umstellung auf MIMD zwischen skalaren und VLIW-Einheiten. Warum sollte das irgendeine Auswirkung haben.
Weil man viel mehr Abhängigkeiten hat innerhalb eines Instruction-Slots. Man kann viel einfacher eine skalare Operation verschieben, als eine ganze VLIW-Anweisung.

Gipsel
2009-05-20, 17:20:59
Weil man viel mehr Abhängigkeiten hat innerhalb eines Instruction-Slots. Man kann viel einfacher eine skalare Operation verschieben, als eine ganze VLIW-Anweisung.
Zwischen den Slots einer VLIW-Instruktion hat man per Definition keine Abhängigkeiten. Eine VLIW-Instruktion kann man genauso verschieben wie eine skalare. Oder was meinst Du?

Coda
2009-05-20, 17:27:02
Man hat bis zu 5 verschiedene Abhängigkeiten in einem Instruction-Slot auf unterschiedliche vorhergegangene Berechnungen.

Gipsel
2009-05-20, 17:58:08
Man hat bis zu 5 verschiedene Abhängigkeiten in einem Instruction-Slot auf unterschiedliche vorhergegangene Berechnungen.
Die egal sind, da man in jeder Anweisung schon auf die Ergebnisse der vorherigen Berechnungen zugreifen kann, ohne das es einen Stall gibt. Logisch gesehen (physisch natürlich nicht, daß wird durch die Ausführung verteilt über 4 Takte und mehrere laufenden Warps/Wavefronts erreicht) haben alle Instruktionen eine Latenz von nur einem Takt.

Habe jetzt mal das verlinkte Paper überflogen und muß sagen, daß es für mich nicht so überzeugend aussieht. Die behaupten bei geschätzten 5% größerem Die im Schnitt etwa 20% mehr Performance zu erreichen (wohlgemerkt nicht bei Grafik, sondern bei GPGPU-Anwendungen). Mit 5% Die-Fläche investiert in mehr Einheiten erreicht man locker 10% mehr Shaderleistung, und das immer, also auch bei Grafik. Außerdem geht ihre Simulation von absolut unrealistischen Cachegrößen aus (512kB pro SIMD-Array, wären für GT200 15MB Cache! GT200 hat aber nur 240kB L1-Cache). Es gibt ja durchaus Fälle, in denen ihre Simulation für dynamisches Branching eine niedrigere Performance als für das heute bei GPUs angewandte System (PDOM in dem Paper) vorhersagt. Dies wird gerade durch schlechtere Hitrates der Caches verursacht, vergrößert sich also sehr stark bei realistischen Annahmen für die Größe der Caches.

Außerdem mag das vielleicht in irgendeiner Simulation was bringen, aber ich glaube die haben den Rattenschwanz vergessen, den das noch hinter sich herzieht. Insbesondere bei GPGPU wird der Datenaustauch zwischen einzelnen Threads bzw. Warps/Wavefronts immer wichtiger. Die gesamten Mechanismen dazu beruhen aber auf den Wavefronts und Thread-Blöcken um das zu managen. Man muß ja festlegen können, welcher Thread mit welchem Daten austauscht. Wenn die GPU anfängt, das dynamisch umzusortieren, wird das ziemlich schwer bis unmöglich mit dem Local Memory (Local Data Share) zu arbeiten.

Coda
2009-05-20, 18:02:09
Wie gesagt, ich weiß nicht was NVIDIA implementieren wird, aber sie werden etwas tun in diese Richtung.

Die egal sind, da man in jeder Anweisung schon auf die Ergebnisse der vorherigen Berechnungen zugreifen kann, ohne das es einen Stall gibt. Logisch gesehen (physisch natürlich nicht, daß wird durch die Ausführung verteilt über 4 Takte und mehrere laufenden Warps/Wavefronts erreicht) haben alle Instruktionen eine Latenz von nur einem Takt.
Wer redet denn von Latenzen? Man wird wohl aber eher nichts in Richtung Out-Of-Order machen, deshalb isses wohl wirklich egal.

AnarchX
2009-05-20, 18:23:12
AMD to sponsor Chinese gaming conference
[...]Vanoy Wong, general manager of AMD Greater China, said that it will help with display zones and tech sessions to get into bed further with Chinese game developers.

He promised that at this year's conference, which starts on July 24th, in Shanghai, AMD will deliver its new technologies, although he didn't specify what those technologies will be.[...]

http://www.tgdaily.com/content/view/42528/135/


Zudem soll laut CJ RV840 auch noch für Ende 2009 geplant sein.

Sorkalm
2009-05-20, 18:30:16
Zudem soll laut CJ RV840 auch noch für Ende 2009 geplant sein.

Das würde sich mit der Aussage von Meyer decken, dass in 2009 noch eine Welle an DX11-Produkten kommen würde. Mit zwei Chips hat man ja dann doch schon einige Grafikkarten.

KonKorT
2009-05-20, 19:23:58
Zudem soll laut CJ RV840 auch noch für Ende 2009 geplant sein.
Kannst Du bitte den entsprechenden Link dazu angeben?

horn 12
2009-05-20, 19:59:23
Also sollte doch wiederum der RV870 im Juli kommen, doch früher als es hies und wenn der Preis stimmt sdahnt man richtig ab bis NV an der Reihe ist, auch wenn dessen GPU vielleicht 40-50% schneller ist kontert ATI mit einer überarbeiteten HD4870 X², nun als HD5870 X² "OHNE Multiruckler" ?

Der Preis der HD 5870-er Serie könnte gar auch unter 300 Euro liegen.. also mit einer X² auf etwa 500-550 Euro. Somit wäre man sicher wiederum gut schneller als der GT300, mit den bekannten Nachteilen allerdings,- oder es kommt bereits Besserung hinzu.

Spasstiger
2009-05-20, 20:29:17
nun als HD5870 X² OHNE Multiruckler ?
Mikroruckler werden so schnell nicht verschwinden, da das Beseitigen von Mikrorucklern immer mit Performanceverlusten verbunden ist.Und kürzere Balken in Benchmarks sind schlecht fürs Marketing.

Gipsel
2009-05-21, 00:23:32
Wer redet denn von Latenzen? Man wird wohl aber eher nichts in Richtung Out-Of-Order machen, deshalb isses wohl wirklich egal.
Ja, das mit den Latenzen war ein wenig von hinten durch die Brust. Im Prinzip meinte ich genau das, die Abhängigkeiten sind schon alle aufgelöst, wenn der nächste Befehl kommt. Also ist es egal.

KonKorT
2009-05-21, 02:51:50
Also sollte doch wiederum der RV870 im Juli kommen, doch früher als es hies [...]
Juli stand mal zwischenzeitlich als best case im Raum, aber spätestens seit TSMC mit 40 nm kein Bein vor das andere kriegt, ist dies nur noch reines Wunschdenken. Rechne mal frühestens im September mit RV870.

Ailuros
2009-05-21, 12:21:36
http://www.tgdaily.com/content/view/42528/135/


Zudem soll laut CJ RV840 auch noch für Ende 2009 geplant sein.

Geplant haben beide IHVs fuer TSMC 40nm vieles. Wie vieles letzendlich von TSMC selber herauskommt und in welchen Mengen ist eher die momentane Frage.

Ailuros
2009-05-21, 12:35:08
Also sollte doch wiederum der RV870 im Juli kommen,...

Juli? Nein. Beide IHVs konfrontieren momentan Probleme die sie selber nicht kontrollieren koennen und nochmal die beiden werden wohl mit allhoechster Wahrscheinlichkeit mit relativ kleinem zeitlichen Abstand erscheinen.


doch früher als es hies und wenn der Preis stimmt sdahnt man richtig ab bis NV an der Reihe ist, auch wenn dessen GPU vielleicht 40-50% schneller ist kontert ATI mit einer überarbeiteten HD4870 X², nun als HD5870 X² "OHNE Multiruckler" ?


Eine Idee gegen jegliche Micro-ruckler waere kein AFR zu benutzen auf multi-chip SKUs; nur muss mir aber in dem Fall jemand erklaeren wie die Geometrie auf solchen ohne AFR genau skalieren soll.

Der Preis der HD 5870-er Serie könnte gar auch unter 300 Euro liegen.. also mit einer X² auf etwa 500-550 Euro. Somit wäre man sicher wiederum gut schneller als der GT300, mit den bekannten Nachteilen allerdings,- oder es kommt bereits Besserung hinzu.

Was genau ist sicher? Da es sich in beiden Faellen um einen neue Technologie-Generationen handelt steht jegliche Vorhersage was die Leistung betrifft im Kaffeesatz. Wenn die bisherigen Infos stimmen sollten erhoeht sich auf Papier die arithmetische Leistung zwischen G300 und GT200 um einen Faktor 2.7x und zwischen 4870X2 und 58x0X2 um einen Faktor 1.9x. Das erste "soll" mehr Aenderungen mit sich fuehren das zweite weniger. Ergo wenn NV nicht brutal Mist gebaut hat, haben sie gute Chancen den Unterschied zu verkleinern wie zwischen GT200 und RV770.

Ailuros
2009-05-21, 14:24:05
Wie gesagt, ich weiß nicht was NVIDIA implementieren wird, aber sie werden etwas tun in diese Richtung.


Wer redet denn von Latenzen? Man wird wohl aber eher nichts in Richtung Out-Of-Order machen, deshalb isses wohl wirklich egal.

Auf jeden Fall gibt es bis jetzt keine Indizien weder von ATI noch von NVIDIA dass sie auf ihren X11 GPUs echte MIMD Einheiten haben werden. Wie jeglicher ihre optimierten SIMD Einheiten dann am Ende nennt ist natuerlich ein anderes Kapitel.

Ein bisschen klarer zu dem was ich meinte (obwohl ihr beide den Pfad schon gefunden habt):

http://forum.beyond3d.com/showpost.php?p=1288798&postcount=806

Originally Posted by nAo
Please define "very low branch granularity GPU"

A GPU with 5 wide VLIW or even scalar cores capable of independent branching.


http://forum.beyond3d.com/showpost.php?p=1288905&postcount=815

It doesn't matter, even if a bunch of scalar cores run the same shader program if they can independently branch they are autonomic (apart from the fact that to make good use of the shared memory they should be well coordinated with eachother).

Well, that was what I was getting at with the earlier statement about putting 4 wide crossbars on the shared memory (and potentially the registers as well). That is exactly what it would allow you to do.

horn 12
2009-05-24, 09:38:14
Warum ist es derzeit wieder so still um den RV870, da NV ja einen Mosnterchip bringen soll,- wird sich ATI mit der kleinen Variante zufrieden geben müssen,. und bis jetzt sind sie damit suverän gefahren. Die womöglich HD5870 X² kann ja vieles wieder zurechtbiegen, und auch eine Leistungsteigerung von HD4870 auf 5870 mit ca. 50-60% ist sicher nicht die Welt, aber um womögliche 300 Euro auch nicht schlecht.

Die NV wird die HD4870 wohl um ca. 120-140% schlagen können, aber zudem nicht unter 500 Euro zu haben sein...

turboschlumpf
2009-05-24, 13:58:28
Könnte es sein, dass AMD den ursprünglichen RV870 gecancelt hat, nachdem die geplante Strategie aufgrund der Probleme bei TSMC nicht mehr aufgeht?

Der_Korken
2009-05-24, 22:46:31
Könnte es sein, dass AMD den ursprünglichen RV870 gecancelt hat, nachdem die geplante Strategie aufgrund der Probleme bei TSMC nicht mehr aufgeht?

Das hätte dann aber schon sehr lange her sein müssen, damit a) rechtzeitig ein neuer Chip am Start ist und b) der dann alte RV870 nicht schon zu viele Entwicklungskosten verschlungen hat. Es könnte höchstens sein, dass man noch zusätzliche Cluster drangeklatscht hat, aber den ganzen Chip werden die wohl nicht fallen gelassen haben. Dann lieber in den sauren Apfel beißen und den Chip ein paar Monate später bringen.

turboschlumpf
2009-05-24, 23:12:29
Ich dachte eher daran, dass AMD eventuell gleich den Refresh-Chip bringt.

KonKorT
2009-05-25, 23:17:43
RV870 wurde nicht gecancelled. AMD plant noch für dieses Jahr mindestens drei DX11-Chips, und zwar neben RV870 auch noch R800 und RV840.

Quelle: Hardware-Infos (http://www.hardware-infos.com/news.php?news=2966)

Botcruscher
2009-05-25, 23:22:32
Ist R800 ein Chip oder nicht viel eher nur eine Dual-Karte?! Dann wärens nur noch zwei.

KonKorT
2009-05-26, 00:02:06
Steht doch in der Quelle: Dual-Chip.

Ailuros
2009-05-26, 08:49:10
Ich dachte eher daran, dass AMD eventuell gleich den Refresh-Chip bringt.

RV790 hatte eine hoehere Frequenz als RV770. Ich bin mir zwar nicht sicher aber ein "RV870-Refresh" wuerde sich eher in der Region bewegen. Wenn man yield Probleme hat mit einem Herstellungs-Prozess dann sind die ATI engineers wohl nicht so besoffen an hoehere Frequenzen als geplant zu denken.

Warum ist es derzeit wieder so still um den RV870, da NV ja einen Mosnterchip bringen soll,- wird sich ATI mit der kleinen Variante zufrieden geben müssen,. und bis jetzt sind sie damit suverän gefahren. Die womöglich HD5870 X² kann ja vieles wieder zurechtbiegen, und auch eine Leistungsteigerung von HD4870 auf 5870 mit ca. 50-60% ist sicher nicht die Welt, aber um womögliche 300 Euro auch nicht schlecht.

Wir wissen alle schon seit einer Ewigkeit dass ATI nur noch Performance GPUs baut und dass NV weiterhin auf single chip high end bei jeglichem "Neustart" beharrt. Ergo fuer beide Seiten nichts Neues.

Was jetzt betreffend Leistung bzw. Effizienz in G300 und oder RV870 jeweils steckt kann wohl schwer jemand wissen momentan.

Die NV wird die HD4870 wohl um ca. 120-140% schlagen können, aber zudem nicht unter 500 Euro zu haben sein...

Lassen wir mal lieber die Kaffeesatzleserei weg was die Leistung betrifft. G300 soll 495mm2 gross sein; selbst wenn RV870 unter 250mm2 die area hat (was mir persoenlich etwas zu wenig klingt) sind es zwei solcher dies und unter 1GB pro GPU wird mal wohl eine X2 nicht ausstatten. Eine G300 mit 2GB Speicher kann sich durchaus preislich einer X2 (je nach Leistungs-Unterschied) anpassen ohne dass es so stark in die Kosten beisst wie bei GT200-RV770X2 Vergleichen.

deekey777
2009-05-27, 13:44:02
AMD to get DX11 cards out this year (http://www.theinquirer.net/inquirer/news/1137488/amd-dx11-cards)
All the cards are expected to be Direct X11 and the two higher end cards will most likely be 40nm too, thanks to a quick ramp at Global Foundries' Dresden fab.
:|

Ailuros
2009-05-27, 16:23:09
AMD to get DX11 cards out this year (http://www.theinquirer.net/inquirer/news/1137488/amd-dx11-cards)

:|

Kann durchaus sein und ein natuerlich auch ein sehr guter Schachzug. Wenn die Aenderung rechtzeitig genug stattgefunden hat, wuerde man somit auf Nummer Sicher setzen und nicht die Daumen druecken bis TSMC ihren Misthaufen aufraeumt.

Falls etwas daran stimmen sollte wuerde ich auch in diesem Fall nicht frueher als ~Oktober schaetzen. So oder so gibt es keine echte Verspaetung seitens AMD denn oeffentlich haben sie nie frueher als Q4 09' erwaehnt fuer ihre X11 GPUs.

reunion
2009-05-27, 16:26:45
AFAIK gibt es von Globalfoundries nicht mal einen 40nm bulk Prozess. Der erste bulk Prozess sollte 32nm sein.

Ailuros
2009-05-27, 16:27:40
AFAIK gibt es von Globalfoundries nicht mal einen 40nm bulk Prozess. Der erste bulk Prozess sollte 32nm sein.

Hab es erst auch bei B3D gelesen. Ergo wohl doch nicht.

aylano
2009-05-27, 16:40:34
AFAIK gibt es von Globalfoundries nicht mal einen 40nm bulk Prozess. Der erste bulk Prozess sollte 32nm sein.
Der erste Bulk soll laut Analyst Day Nov 2008 45nm sein, was Anfang 4Q 2009 fertig entwickelt sein soll.
Von 40nm steht nichts.

32nm Bulk soll dann gleich danach 6 Monate "entwickelt" werden.

KonKorT
2009-05-27, 17:54:09
AMD to get DX11 cards out this year (http://www.theinquirer.net/inquirer/news/1137488/amd-dx11-cards)

:|
Schau mal hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7321658&postcount=839).

Dass The Inquirer keine Quelle angibt, ist mir neu. In der Regel ignorieren sie einfach derarlei News, wenn sie sich nicht selbst als Quelle ausweisen können.

deekey777
2009-05-27, 18:06:13
Schau mal hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7321658&postcount=839).

Dass The Inquirer keine Quelle angibt, ist mir neu. In der Regel ignorieren sie einfach derarlei News, wenn sie sich nicht selbst als Quelle ausweisen können.
Und was soll ich da sehen?
Die Vorposter haben genau erkannt, worum es in dieser Meldung geht: um (un-)mögliche Fertigung bei GF.

KonKorT
2009-05-27, 19:07:52
Darum geht es in dieser Meldung nicht. Es geht darum, dass AMD für dieses Jahr noch mehrere DirectX 11-Grafikchips anbieten wird.

Globalfoundries wird in dieser Newsmeldung nicht einmal erwähnt. Im letzten Satz heißt es lediglich:

"Nvidia had better hope and pray that TSMC can patch up its leaky 40nm bucket in time to catch up."

Deutet damit, was ihr wollt. Ihr werdet ihm keinen tieferen Sinn abgewinnen können.

horn 12
2009-05-27, 20:27:47
Nun, es ist verdammt still um den RV870.
Hoffe doch sehr darauf dass der Termin Ende Juli, Anfang August dennoch hinhaut,- und somit die ATI_AMD Karten noch Monate vor Win7 erhältlich sind.
Die RV740 Gpu hält sich auch extrem begrenzt zurück, und der heutige Hinweis mit der Fertigung in Dresden lässt hoffen...
Nun in ca. 2 Monaten müsste man es langsam wissen!

KonKorT
2009-05-27, 20:34:28
Hoffe doch sehr darauf dass der Termin Ende Juli, Anfang August dennoch hinhaut
Nicht mehr als eine Hoffnung.

Gast
2009-05-28, 01:42:02
gibt es eigentlich einen technischen grund, warum man bulk für gpus und soi für cpus verwendet ?
oder könnte gf die r800 chips auch theoretisch mit dem selben soi 45nm verfahren wie die aktuellen phenoms fertigen ?

Coda
2009-05-28, 01:46:25
Nunja, SOI reduziert soweit ich weiß Ströme solange ein Gatter nicht schält, da aber GPUs ihre Schaltungen weitaus stärker auslasten könnte der Effekt dort geringer sein und damit würde es sich nicht lohnen. Ist aber reine Spekulation.

Ailuros
2009-05-28, 09:04:11
Nunja, SOI reduziert soweit ich weiß Ströme solange ein Gatter nicht schält, da aber GPUs ihre Schaltungen weitaus stärker auslasten könnte der Effekt dort geringer sein und damit würde es sich nicht lohnen. Ist aber reine Spekulation.

Nach dem was ich gehoert habe soll SOI tatsaechlich nicht optimal fuer GPUs sein aber den eigentlichen Grund weiss ich auch selber nicht. Es koennte aber trotz allem sein dass wir in der weniger vorhersehbaren Zukunft single chip CPU+GPU Kombos von diversen IHVs sehen die unter SOI hergestellt wurden.

Ailuros
2009-05-28, 11:42:58
http://www.theinquirer.net/inquirer/news/1137498/ati-ups-gpgpu-ante

Tarkin
2009-05-28, 12:29:54
hat das schon jemand gesehen?

http://www.techpowerup.com/95286/AMD_to_Unleash_R800_RV870_RV840_and_RV810_Within_2009.html

http://img.techpowerup.org/090526/Untitled998.png

Nakai
2009-05-28, 12:43:53
Naja beim RV770 waren es 80SPs pro TexturQuad. Nun sind es 100SPs?

Sieht für mich wie ein R600-Desaster aus. Kaum erhöhte Texturleistung(AI sei Dank), und etwas mehr Shaderleistung. Aber zum Glück is bis etz nix bestätigt.


mfg Nakai

Spasstiger
2009-05-28, 12:56:14
Mit diesen Daten wäre eine HD 5870 etwa 59% schneller als eine HD 4870 und etwa 42% schneller als eine HD 4890.

robbitop@work
2009-05-28, 13:28:14
Diese Daten wären sehr enttäuschend. NV verdoppelt ihre Rohleistung bei nichtmal einer Verdopplung der Transistoranzahl.
40 nm gibt eine Verdopplung der Transistoranzahl bei gleicher Kernfläche her. RV770 konnte eh nicht kleiner als 250 sqmm werden aufgrund der Padlimitierung. Also müsste RV870 auch in der Größenordnung liegen. Also müßte doch eine Verdopplung der Rohleistung drin sein. Andernfalls braucht man gegen GT300 gar nicht anzutreten IMO.

reunion
2009-05-28, 13:37:02
Gegen GT300 tritt man eh nicht an, dafür gibt es eine X2. DX11 Features werden auch nicht ganz billig sein, und nV hat bei GT200 wahrlich genug Platz für Optimierungen um es mal freundlich auszudrücken. Hoffentlich macht ATi bei RV870 nicht wieder dieselben Fehler wie bei den vergangenen neuen Generationen und integriert irgendwelche neuen und teuren Features in "fullspeed" die noch niemand benötigt. R520 hatte u.a. schnelles dB das keiner brauchte, R600 hatte u.a. FP16-TMUs und ein 512-bit SI das keiner brauchte. Wichtig ist bei der ersten DX11-Gen vorallem ein schneller DX10 Chip mit guter Bildqualität/Stromverbrauch. Bei den DX11-Effekten reicht es diese als Checklistenfeatures zu unterstützen. Verwendet werden die zu Lebzeiten des Chips ohnehin nicht/kaum.

Aber man darf natürlich auch nicht vergessen das AMD auch nicht zaubern kann. Ein ~250mm² Chip kann eben unter normalen Umständen nicht so schnell sein wie ein ~500mm² Chip wenn keiner von beiden patzt. Den GDDR5-Vorteil und den Vorteil der extrem teuren DP-ALUs bei GT200 wird man wohl nicht ein zweites mal haben.

deekey777
2009-05-28, 13:39:32
Der R520 hatte "nur" deswegen schnelles dynamisches Branching, weil er nur 4 Shader-Quads hatte. An sich war das ganze Threading-Design der X1000er unnötig bzw. verfrüht und kostet wohl zu viele Transistoren.

reunion
2009-05-28, 13:43:18
Selbst an die 36 Pixel des R580 kommt bis heute kein Chip ran. Aber stimmt schon, auch das Threadingkonzept zahlte sich erst aus als schon längst der Nachfolger da war.

deekey777
2009-05-28, 13:56:39
Selbst an die 36 Pixel des R580 kommt bis heute kein Chip ran. Aber stimmt schon, auch das Threadingkonzept zahlte sich erst aus als schon längst der Nachfolger da war.
48.
Und doch: G80 und alle seine Nachfolger.

robbitop@work
2009-05-28, 15:37:36
Gegen GT300 tritt man eh nicht an, dafür gibt es eine X2.
Selbst mit der X2 hätte man dann echte Probleme. Von der effektiven Framerate und der nicht 100%igen Kompatibilität mit Spielen braucht man gar nicht anzufangen.
Heutiges AFR ist dafür IMO nicht geeignet.

DX11 Features werden auch nicht ganz billig sein, und nV hat bei GT200 wahrlich genug Platz für Optimierungen um es mal freundlich auszudrücken.
Das ja, aber RV7xx ist dafür schon deutlich näher an D3D11 dran als GT200.


Aber man darf natürlich auch nicht vergessen das AMD auch nicht zaubern kann. Ein ~250mm² Chip kann eben unter normalen Umständen nicht so schnell sein wie ein ~500mm² Chip wenn keiner von beiden patzt. Den GDDR5-Vorteil und den Vorteil der extrem teuren DP-ALUs bei GT200 wird man wohl nicht ein zweites mal haben.
Das nicht aber man sollte schon 1,8 - 2 Mrd Transistoren unterbringen können. Und das sollte IMO schon für eine Verdopplung der Leistung reichen. Zwischen 2x Archs sollte es immer in etwa einen Leistungssprung von knapp 2x geben. R600 und NV30 schafften das nicht und wurden dementsprechend auch verschmäht.

robbitop@work
2009-05-28, 15:39:44
Der R520 hatte "nur" deswegen schnelles dynamisches Branching, weil er nur 4 Shader-Quads hatte. An sich war das ganze Threading-Design der X1000er unnötig bzw. verfrüht und kostet wohl zu viele Transistoren.
Das gilt vieleicht für den R520. R580 war ein verdammt guter ASIC. Die G7x hat er doch vorgeführt. Man konnte mit leichten Einschränkungen sogar Crysis spielen (hab ich getan) und man erreichte in Spielen ab 2007 dann auch 2x Performance von R520 aufgrund der Shaderlast.
Das Ding war damals die GPU schlechthin!

Coda
2009-05-28, 15:47:21
Der R520 hatte "nur" deswegen schnelles dynamisches Branching, weil er nur 4 Shader-Quads hatte.
Nein, das ist nicht der Grund. Da war schon einiges mehr deutlich fortgeschrittener ggü. NV4x.

Das ja, aber RV7xx ist dafür schon deutlich näher an D3D11 dran als GT200.
Das deutlich kannst du streichen. RV7xx implementiert maximal 25% von dem was an Arbeit nötig wäre für vollen D3D11-Support. Das wird völlig überbewertet.

robbitop@work
2009-05-28, 16:10:54
Das deutlich kannst du streichen. RV7xx implementiert maximal 25% von dem was an Arbeit nötig wäre für vollen D3D11-Support. Das wird völlig überbewertet.
25 % ist in meinen Augen deutlich.

Coda
2009-05-28, 17:06:50
Ich schrieb maximal 25%. Es ist eher weniger.

Das einzige was sie haben ist die Tesselator-Logik und Fetch4. Da gibt's wesentlich schwerwiegendere Probleme.

reunion
2009-05-28, 17:12:23
Naja, in D3D10.1 gibt es schon noch andere Dinge wie Fetch4.

Coda
2009-05-28, 17:37:10
Die NVIDIA seit G80 aber auch implementiert hat.

reunion
2009-05-28, 17:38:04
Beim MSAA fehlt da AFAIK auch noch einiges. Und alles andere wird man ohne offizielle Stellungnahme nur schwer nachvollziehen können.

Coda
2009-05-28, 17:40:48
Beim MSAA fehlt da AFAIK auch noch einiges.
Nein. Die Chips können dort exakt das gleiche. Das Z-Readback wird rein durch API-Restriktionen geblockt in 10.0.

Und alles andere wird man ohne offizielle Stellungnahme nur schwer nachvollziehen können.
Natürlich kann man das, weil es entweder in OpenGL oder über die NVAPI verfügbar ist.

reunion
2009-05-28, 17:42:38
Nein.

Dafür sind die Sample Positionen bei den ganzen Hybrid- und SLi-Modi aber ganz schön starr.

Coda
2009-05-28, 17:43:00
Das ist keine Voraussetzung für 10.1. ATI bietet dort auch nur ein Samplemuster an.

Auch in 11 wird das nicht gefordert, man kann also davon ausgehen, dass sich da auch bei GT300 nichts tun wird.

robbitop@work
2009-05-29, 09:24:50
Ich bin mal gespannt, ob es was Neues in Richtung BQ-Features gibt. Ich würde ja auch bei NV mir etwas in Richtung neuer Downsampling Filterkernel wünschen. Ansonsten stirbt die Hoffnung für (SG-)SSAA natürlich nicht. ;)

Und selbst wenn es nur unter CF/SLI verfügbar wäre (man erinnere sich an Crossfire-RGSSAA im R5xx) *seufz*

Ailuros
2009-05-29, 10:10:35
Gegen GT300 tritt man eh nicht an, dafür gibt es eine X2. DX11 Features werden auch nicht ganz billig sein, und nV hat bei GT200 wahrlich genug Platz für Optimierungen um es mal freundlich auszudrücken.

RV770 war auch nicht per se als GT200 Gegner gedacht aber man sah die Resultate. Im X11 Fall koennte aber 2 wichtige Faktoren mitspielen:

1. Beide stellen auf 40nm her und beide benutzen GDDR5.
2. NV hat tatsaechlich einen "laengeren Weg" zu X11 Komplianz und ist daher zu fundamentaleren Aenderungen in der Architektur gezwungen. Der Nachteil ist fuer NV dass es um einiges mehr gekostet hat in R&D und der Vorteil ist dass wenn man fuer X mit einer tabula rasa anfaengt bessere Chancen hat um einiges hoehere Effizienz zu erreichen.

Von den beiden ist wohl RV870 der eher "statische" Design mit den kleinsten insgesamt Aenderungen, welches aber der Konkurrenz den Vorteil gibt sich noch weiter anzustrengen.

Hoffentlich macht ATi bei RV870 nicht wieder dieselben Fehler wie bei den vergangenen neuen Generationen und integriert irgendwelche neuen und teuren Features in "fullspeed" die noch niemand benötigt. R520 hatte u.a. schnelles dB das keiner brauchte, R600 hatte u.a. FP16-TMUs und ein 512-bit SI das keiner brauchte. Wichtig ist bei der ersten DX11-Gen vorallem ein schneller DX10 Chip mit guter Bildqualität/Stromverbrauch. Bei den DX11-Effekten reicht es diese als Checklistenfeatures zu unterstützen. Verwendet werden die zu Lebzeiten des Chips ohnehin nicht/kaum.

Persoenlich mach ich mir darueber keine Sorgen. Ihre Hausaufgaben bei RV770 waren ausgezeichnet und die relativ winzige "Macke" der zu dichten Transistoren wurde auf RV790 schon zurechtgebogen, was Hoffnung laesst dass die Packdichte auf RV870 sogar noch besser sein koennte.

Aber man darf natürlich auch nicht vergessen das AMD auch nicht zaubern kann. Ein ~250mm² Chip kann eben unter normalen Umständen nicht so schnell sein wie ein ~500mm² Chip wenn keiner von beiden patzt. Den GDDR5-Vorteil und den Vorteil der extrem teuren DP-ALUs bei GT200 wird man wohl nicht ein zweites mal haben.

Ohne zu wissen wo der jegliche Leistungsunterschied zwischen den beiden liegt, kann man wohl schwer irgend etwas vorhersagen. Keiner kann momentan garantieren dass sich die GT200 vs. RV770 (selbst mit geringerem Mass) nicht wiederholen koennte.

Aber angenommen G300 hat eine ziemlich grosse Distanz vom RV870 wird wohl NV gegen den letzteren immer noch GT200b GPUs stellen koennen bis zum Punkt wo NV auch Performance G3x0 haben wird. Wichtig ist dann aber auch zu welchem Preis NV anfangs anbieten wird. Je kleiner der Abstand einer G300 preislich zum RV870 desto besser fuer NV und fuer uns Verbraucher natuerlich.

Godmode
2009-05-29, 12:12:40
Ich bin mal gespannt, ob es was Neues in Richtung BQ-Features gibt. Ich würde ja auch bei NV mir etwas in Richtung neuer Downsampling Filterkernel wünschen. Ansonsten stirbt die Hoffnung für (SG-)SSAA natürlich nicht. ;)

Und selbst wenn es nur unter CF/SLI verfügbar wäre (man erinnere sich an Crossfire-RGSSAA im R5xx) *seufz*

Ich frage mich auch, ob wir vielleicht bessere Filterung bekommen? Oder warum sollten sie im AF-Tester mit Cat. 9.5 sonst die Colored-Mipmap Erkennung ausschalten?

Coda
2009-05-29, 14:42:07
Colored-Mip-Erkennung verlangsamt das Laden von Texturen in allen Applikationen.

reunion
2009-05-30, 12:10:55
Noch ein paar interessante Details zur Fertigung:

""The Wafer Supply Agreement will govern the terms by which the Company (AMD) will purchase products manufactured by The Foundry Company. Pursuant to the Wafer Supply Agreement, the Company will, subject to limited exceptions, purchase all of its microprocessor unit (“MPU”) product requirements from The Foundry Company. If the Company acquires a third-party business that manufactures MPU products, the Company will have up to two years to transition the manufacture of such MPU products to The Foundry Company. In addition, once The Foundry Company establishes a 32nm-qualified process, the Company will purchase from Foundry Company sales entities, where competitive, specified percentages of its graphics processor unit (“GPU”) requirements at all process nodes, which percentage will increase linearly over a five-year period. At the Company’s request, The Foundry Company will also provide sort services to the Company on a product-by-product basis. The Company will provide The Foundry Company with product forecasts of its MPU and GPU product requirements. The price for MPU products is related to the percentage of the Company’s MPU-specific total cost of goods sold. The price for GPU products will be determined by the parties when The Foundry Company is able to begin manufacturing GPU products for the Company...""

http://www.globalfoundries.com/sites/default/files/8-k_Filing.pdf

Damit ist verbindlich festgelegt, dass AMD seine Grafikchips ab 32nm von Globalfoundries beziehen wird. Laut eigenen Angaben wird man Ende 2009 damit beginnen und man kann mit verfügbaren Produkten ab Mitte 2010 rechnen.

Noch ein paar interessante Angaben bei einem Interview mit Bright Side of News:

"We're killing the latency between Intel and us in 32nm. AMD was late with 65nm and introduced 45nm with a nine month delay. With 32nm we are reducing this on just a single quarter or three months. Also, please note that we are implementing this model for a fraction of the cost, thanks to the shared cost model inside the IBM alliance."

"The Fab1 Module 1 [ex-Fab36] is currently configured as a 100% 45nm High-Performance SOI Fab production. The move to 32nm SOI is in progress and we're moving closely aligned with AMD"

"Fab1 Module 2, formerly known as Fab30 and Fab38 is bringing up the 32nm bulk-technology. We are currently installing the equipment in the F1M2 and adding more units than there were in the past. We are on track to be ready for initial customer designs in 4Q09 with products available in mid-2010. From 32nm bulk, we are going to introduce a 28nm half-node die-shrink, so that our customers can extract enhanced performance from their original 32nm bulk silicon."

"Our competition plans to bring only 1% of WSPM in 45/40nm, while we want to ramp-up aggressively in 32nm, 28nm and moving on forwards, bring 22nm process in both SOI and bulk silicon flavors to the foundry market."

"Right now, we have two priorities. Our number one priority is Fab 1 Module 2 and its ramp up with 32nm bulk technology. This is a key for swift transition to future manufacturing processes, such as 28nm "half-node" shrink. Our second priority is getting our initial Fab in place in Saratoga County."

"High Performance SOI for CPU & GPU, Performance Bulk for GPUs and Low Power bulk for the wireless chips."

"with 32nm we are also going to introduce both High-K and Ultra-Low-K technologies."

http://www.brightsideofnews.com/news/2009/5/26/the-future-of-globalfoundries-revealed.aspx?pageid=0

Zusammenfassung von hier:
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1243677245

Ailuros
2009-05-30, 13:37:34
Da RV870 nicht auf 32nm hergestellt wird sondern auf TSMC 40nm:

http://www.fudzilla.com/content/view/13944/1/

reunion
2009-05-30, 13:46:46
Das ist schon klar, aber die kleineren Ableger könnten durchaus schon von Globalfoundries kommen.

Ailuros
2009-05-30, 14:18:34
Das ist schon klar, aber die kleineren Ableger könnten durchaus schon von Globalfoundries kommen.

Wenn AMD frueh genug Zugang zu den dementsprechenden libraries hat ja. Denn der Umschwung braucht auch seine Zeit.

deekey777
2009-05-30, 15:31:25
AMD will be first to DirectX 11 (http://www.bit-tech.net/news/hardware/2009/05/29/amd-will-be-first-to-directx-11/1)

Sieht nett aus.

AnarchX
2009-05-30, 15:44:00
ATI to be a 28nm launch customer at GlobalFoundries

[...]According to this source, AMD will switch its GPU production to GlobalFoundries in H1 2010, most notably with the launch of 28nm Bulk silicon process. This will be followed with the release of first "native" DirectX 11 architecture by AMD, not the "Radeon HD 4890 with DirectX 11".
[...]
Now, AMD/ATI will skip the 32nm process and go directly to 28nm. [...]

http://www.brightsideofnews.com/news/2009/5/29/ati-to-be-a-28nm-launch-customer-at-globalfoundries.aspx

Also wohl R900 und 28nm in 2010.

Laut Digitimes soll wohl NV der erste 28nm TSMC-Kunde sein.

edit:
Um den RV800-Thread nicht weiter zu belasten:
R900 - 28nm, DX11-nativ, 2010 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7331229#post7331229)

deekey777
2009-06-01, 14:26:13
Da RV870 nicht auf 32nm hergestellt wird sondern auf TSMC 40nm:

http://www.fudzilla.com/content/view/13944/1/
Was nicht bedeutet, dass es (später) keine R800-Produkte in 32 nm geben wird - von GF hergestellt (gilt auch für die BSoN).

Ailuros
2009-06-01, 14:47:19
Was nicht bedeutet, dass es (später) keine R800-Produkte in 32 nm geben wird - von GF hergestellt (gilt auch für die BSoN).

Theoretisch ja; kommt natuerlich drauf an wann Globalfoundries mit 28nm fertig sein wird. Es waere nicht das erste Mal dass ATI einen full node dank eines kleineren half node ueberspringt (R600 vs. RV670/770).

reunion
2009-06-01, 14:51:09
Naja, da waren dazwischen aber auch noch die 65nm Ableger RV630/RV610.

Ailuros
2009-06-01, 15:16:27
Naja, da waren dazwischen aber auch noch die 65nm Ableger RV630/RV610.

Es ist wohl offensichtlich dass ich mich lediglich auf high(-er) end SKUs bezogen habe. TSMC 40nm mobilen Quark wird es auch bald von NV geben.

nagus
2009-06-02, 17:22:35
RV870 - Doch im Juli? (http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/484-rv870-doch-im-juli)

bisschen zu sehr optimistisch finde ich. aber geil wärs ;D

Botcruscher
2009-06-02, 17:28:58
Bei Ministückzahlen und damit hohen Preisen wäre es machbar. Na mal sehn...

reunion
2009-06-02, 17:45:41
AMD to show off DX11 hardware tomorrow
http://www.semiaccurate.com/2009/06/02/amd-show-dx11-hardware-tomorrow/

_DrillSarge]I[
2009-06-02, 17:45:54
schon im anderen thread gepostet (dort darph anscheinend ned spekuliert werden)

http://www.semiaccurate.com/2009/06/02/amd-show-dx11-hardware-tomorrow/
€:zu lahm

interessant:

The cards that will be showed off are Evergreen/Cypress, what is commonly referred to as R870. That code name however is not used internally, so if you ever see any leaked specs or charts with R870 on them, they are flat out faked. There have been several of these bandied around, but they are all laughably off.

€: hat jemand im ati-news thread was gelöscht? :confused:

reunion
2009-06-02, 17:51:22
Das Spiel ist ja schon bekannt von AMD. Siehe RV770 mit den 480SPs. Da werden offizielle Folien direkt von AMD geleaket um möglichst viele zu täuschen und der tatsächliche Chip sieht dan völlig anders aus.

deekey777
2009-06-02, 17:56:24
Ich kann mit vollem Herzen :cop:Fuad:cop: trauen, aber Charlie und seinem Technikverständnis (wie auch Theo) kaum.

LovesuckZ
2009-06-02, 18:03:48
Solange wie es auf keiner anderen Gossip steht, ist das nichtmal mehr Spekulations - sondern purer Unsinn. Laut Charlie hätte Huang gestern auch den Verkauf von nVidia verkünden sollen - weil Huang nVidia verkaufen möchte...

_DrillSarge]I[
2009-06-02, 18:05:32
Solange wie es auf keiner anderen Gossip steht, ist das nichtmal mehr Spekulations - sondern purer Unsinn. Laut Charlie hätte Huang gestern auch den Verkauf von nVidia verkünden sollen - weil Huang nVidia verkaufen möchte...
auch amd-leute verweisen auf die seite ;)
http://twitter.com/catalystmaker
http://twitter.com/ianmcnaughton

LovesuckZ
2009-06-02, 18:07:46
Ja, das ist schon wesentlich glaubwürdiger.

V2.0
2009-06-02, 18:10:22
Da ist ja gar nichts richtig.

R870 nicht RV870
kein G300 tape-out
keine 40nm Chips von Nv

reunion
2009-06-02, 18:11:23
Das ist nicht nur wesentlich glaubwürdiger, das ist damit offiziell.

w0mbat
2009-06-02, 18:23:15
NH bestätigt -> http://www.nordichardware.com/news,9394.html

Coda
2009-06-02, 18:38:47
Find ich jetzt nicht weiter überraschend, es gibt auch schon lauffähige G300-Karten. Das Problem das derzeit alles verzögert sind die TSMC-Yields.

reunion
2009-06-02, 18:43:34
Es ist zumindest mal wichtig für AMD das man nicht wieder zu spät kommt und viel Geld verschenkt. Und wenn es wirklich nur noch an den Yields hängt hat man mit dem kleineren Chip sicher keine schlechten Karten.

Coda
2009-06-02, 19:18:47
Schlechte Yields in einem Prozess treffen alle Chipgrößen relativ gleich. Du kannst nicht davon ausgehen, dass sich so ein Trauerszenario bei Performance/Chipfläche bei GT200 wiederholt, von daher kann man darüber genau gar keine Aussage treffen.

reunion
2009-06-02, 19:25:09
Schlechte Yields in einem Prozess treffen alle Chipgrößen relativ gleich.


Das darfst du jetzt aber genauer ausführen. Wenn eine Wafer im Durchschnitt 50 Fehler hat um jetzt mal eine Hausnummer zu nennen und ich aus einer Wafer nur 120 Dice heraus bekomme habe ich sicherlich wesentlich schlechtere Yields als wenn ich an die 300 Dice heraus bekomme.



Du kannst nicht davon ausgehen, dass sich so ein Trauerszenario bei Performance/Chipfläche bei GT200 wiederholt, von daher kann man darüber genau gar keine Aussage treffen.

Natürlich nicht. Darum ging es ja gar nicht. Ich sehe keinen Zusammenhang.

S940
2009-06-02, 20:45:03
Schlechte Yields in einem Prozess treffen alle Chipgrößen relativ gleich. Du kannst nicht davon ausgehen, dass sich so ein Trauerszenario bei Performance/Chipfläche bei GT200 wiederholt, von daher kann man darüber genau gar keine Aussage treffen.
Schade, erst letztens hatte ich eine Erklärung samt Bildchen und Illustrationen gesehen, die genau das widerlegt, aber den Link hab ich leider nicht mehr :(

Kannst Du Dir logischerweise aber eigentlich auch selbst überlegen, bei kleineren DIE Größen passen ein oder mehrere gute Chips zw. 2 defekte Stellen, während bei nem größeren DIE schlimmstenfalls gleich 2 unterschiedliche DIEs defekt sind.

ciao

Alex

deekey777
2009-06-02, 20:59:14
Geht es um fehlerhafte Chips oder um Chips, die die gewünschte Taktraten (auch einzelner Einheiten innerhalb des Chips) nicht erreichen können?

Coda
2009-06-02, 21:05:33
Das darfst du jetzt aber genauer ausführen.
War vielleicht etwas blöd ausgedrückt. Der Zusammenhang ist nicht linear, aber die größeren Chips werden ja auch teurer verkauft. Zumindest wenn alles gut geht.

Daredevil
2009-06-02, 21:16:30
AMD demonstrates tessellation on the worlds first DirectX 11 graphics processor

http://www.youtube.com/watch?v=Cw6OO4pTrkI&hd=1

nagus
2009-06-02, 21:30:26
den satz find ich auch geil "so if you ever see any leaked specs or charts with R870 on them, they are flat out faked. There have been several of these bandied around, but they are all laughably off."

also ich schätze mal die 1200 shader sind blödsinn ;)

aylano
2009-06-02, 22:02:15
also ich schätze mal die 1200 shader sind blödsinn
Mal sehen, was kommt.
Ich habe eh schon fast ein Déjà-vu-Erlebnis alis RV770 vs. GT200.

Damals "hätte" der GT200 2x so schnell werden sollen, während viele bim RV770 nicht mal 480 SP (+50%) zutrauten. Gekommen sind 150% SP (ungefähr 100% mal so schnell wie der Vorgänger)
Heute sagt man, der GT300 wird (wieder) 100% schneller als der Vorgänger, aber beim RV870 zweifelt man immerhin die 1200SP (+50%) nicht an.

Interessant wie wenig Infos bisher über den RV870 durchgekommen sind.
Und in der Vergangenheit hat AMD meistens enttäuscht (K10, Griffin, R600, sonstige Bugs & Verschiebungen) oder sehr überrascht (K10.5, RV770) und eher selten ein evolutionäres Produkt alias RV790 rausgebracht.

LovesuckZ
2009-06-02, 22:07:58
Und ich habe den verdacht, dass es ein rv670 zu G92 wird. :rolleyes:

AnarchX
2009-06-03, 06:32:28
Computex 2009: AMD Demonstrates working 40nm DirectX 11 Silicon (http://www.pcper.com/article.php?aid=724)

http://img197.imageshack.us/img197/6966/dx11chip3480472.jpg (http://img197.imageshack.us/my.php?image=dx11chip3480472.jpg)

~180mm² Dies (laut Text), entweder RV840 oder RV870 wird doch kleiner als gedacht.

edit:
Scheint wohl durchaus zu stimmen, könnten jedoch auch fast ~200mm² sein. Vielleicht 205mm²? ;)

Damit könnten es 1.2 bis 1.3 Mrd. Transistoren sein.

At the very least, we can expect the upcoming chip to be slightly faster than the current HD 4890, but with the added bonus of full DX11 support. I am unsure if the jump from DX10.1 to DX11 will be as transistor intensive as going from DX9 to DX10, but I do not think that it is going to be as drastic a change.

Also wohl doch nur eine HD4890 mit DX11 und offensichtlich sehr kleinem Die? ;)

Vielleicht doch noch MCM im Spiel?

Schlammsau
2009-06-03, 08:02:51
AMD zeigt lauffähige DirectX-11-Grafikkarte (http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/juni/amd_directx-11-grafikkarte/)

http://pics.computerbase.de/2/5/8/2/9/7.jpg

reunion
2009-06-03, 09:07:59
Computex 2009: AMD Demonstrates working 40nm DirectX 11 Silicon (http://www.pcper.com/article.php?aid=724)

http://img197.imageshack.us/img197/6966/dx11chip3480472.jpg (http://img197.imageshack.us/my.php?image=dx11chip3480472.jpg)

~180mm² Dies (laut Text), entweder RV840 oder RV870 wird doch kleiner als gedacht.

edit:
Scheint wohl durchaus zu stimmen, könnten jedoch auch fast ~200mm² sein. Vielleicht 205mm²? ;)

Damit könnten es 1.2 bis 1.3 Mrd. Transistoren sein.


Also wohl doch nur eine HD4890 mit DX11 und offensichtlich sehr kleinem Die? ;)

Vielleicht doch noch MCM im Spiel?

Das Ding ist auf jeden Fall deutlich kleiner als RV770. Ich zähle grob überschlagen 400 Dice. Bei RV770 waren es noch unter 300 pro Wafer. Ich kann mir auch nicht vorstellen dass es sich hier um etwas anderes wie den RV870 handelt.

Schlammsau
2009-06-03, 09:11:58
^^ Ich empfinde ihn aber als zu klein, für einen High End Chip.

Vielleicht ist wiklich MCM im Spiel.

igg
2009-06-03, 09:18:26
Oder das andere Gerücht bewahrheitet sich: RV870 ist nur ein leicht gesteigerter RV770 mit DX11 Addon. Im Q2 2010 dann ein neuer Chip aus Globalfoundries.

Ein solider MCM würde mich wirklich überraschen, vorallem nachdem AMD soviele Leute aus der Grafikabteilung hat gehen lassen...

S940
2009-06-03, 09:27:35
AMD demonstrates tessellation on the worlds first DirectX 11 graphics processor

http://www.youtube.com/watch?v=Cw6OO4pTrkI&hd=1
Doll, "the video "has been removed by the user" :(

Schlammsau
2009-06-03, 09:30:00
Oder das andere Gerücht bewahrheitet sich: RV870 ist nur ein leicht gesteigerter RV770 mit DX11 Addon.
Dann wäre er aber immer noch zu klein. So wie es aussieht, ist die GPU nur gute 200mm² klein. :|

Gast
2009-06-03, 09:35:53
Wtf, jetzt ist nen Wafer in die Kamera halten also schon ne Präsentation von lauffähigen DX11-Chips ?

Gast
2009-06-03, 09:40:32
sie ham auch ne demo gezeigt ;)

Schlammsau
2009-06-03, 09:40:37
Wtf, jetzt ist nen Wafer in die Kamera halten also schon ne Präsentation von lauffähigen DX11-Chips ?

Man muss den Artikel auch lesen und nicht nur Bilder anschauen ;)
Mit einem SDK von Microsoft, welches extra für DirectX 11 bereitgestellt wurde, hat man eine kleine, rund 30-sekündige Animation gezeigt. Diese lässt über einen Beamer im Rahmen der Pressekonferenz jedoch keine genauen Annahmen zu, so dass wir weiter auf genaue Details warten müssen. Ein Blick auf die Hardware war nicht gestattet.

Gast
2009-06-03, 09:42:02
Videos & Slides
http://vr-zone.com/articles/amd-presents-first-dx11-demos--computex/7136.html?doc=7136

http://enthusiast.hardocp.com/news.html?news=Mzk5NTAsLCxoZW50aHVzaWFzdCwsLDE=

http://anandtech.com/video/showdoc.aspx?i=3573

S940
2009-06-03, 10:19:42
Doll, "the video "has been removed by the user" :(
Hier ist es wieder:
http://www.youtube.com/watch?v=-eTngR6M37Q&hd=1

ciao

Alex

Spasstiger
2009-06-03, 10:26:20
Irgendwie lustig, dass man nur DX11-Tesselation-Demos zeigt, wo man doch schon seit dem R600 eine Hardware-Tesselations-Einheit hat. Wer weiß, ob die Demos wirklich unter DX11 liefen. ;)

reunion
2009-06-03, 10:45:52
Ich hoffe das AMD nicht mal wieder tonnenweise Transistoren für ein Feature verpulvert welches die nächsten Jahre noch weitgehend sinnlos sein dürfte. Einige AMD-Ingenieure scheinen da wohl eine Tick in die Richtung zu haben, wenn man sich das ganze Truform/Tesslator-Zeug in der Vergangenheit und jetzt die ganzen Demos/Folien ansieht.

mboeller
2009-06-03, 11:09:10
hmmm....
wenn der R870 wirklich nur 180mm² hat wie Anandtech meint dann wären das nur ca. 1100 Mrd. Transistoren. Also < 150Mio mehr als der RV770, wenn man den RV740 als Basis nimmt. Der Sprung vom RV670 zum RV770 war mit ca. 300Mio Transistoren (666 -> 965) wesentlich größer.

Bin mal gespannt welche Lesitung der R870 dann hat. Schließlich benötigt DX11 schon mehr Transistoren als DX10.

igg
2009-06-03, 11:13:12
Im Hinblick auf die Transistoren gibts wohl nur 2 Möglichkeiten:
- MCM-Konzept
- RV870 ist wirklich nur ein RV790 mit DX11

Bei ersterem hätte ich erwartet, dass aus einschlägigen Kreisen (beyond3d usw.) was durchgesickert wäre.

Spasstiger
2009-06-03, 11:30:44
Offenbar will man erst wieder mit dem R900 im oberen Performance-Segment mitmischen. Eventuell ist der 40-nm-Prozess bei TSMC wirklich derart problematisch, dass man einen größeren Chip wieder fallen gelassen hat.

dargo
2009-06-03, 11:43:29
Eventuell ist der 40-nm-Prozess bei TSMC wirklich derart problematisch, dass man einen größeren Chip wieder fallen gelassen hat.
Müsste in diesem Fall nicht auch NV abspringen?

Triskaine
2009-06-03, 11:55:47
Die Größe des Chips und alle anderen wichtigen Kenndaten wurden lange vor dem Auftreten der Probleme bei TSMC festgelegt und haben damit nichts zu tun gehabt.

reunion
2009-06-03, 11:59:12
Richtig. Man kann da nicht einfach umswitchen wie es einem Spaß macht. Ein solcher Chip muss auch entwickelt werden, das kostet enorm Zeit und Geld.

Spasstiger
2009-06-03, 12:01:47
Richtig. Man kann da nicht einfach umswitchen wie es einem Spaß macht. Ein solcher Chip muss auch entwickelt werden, das kostet enorm Zeit und Geld.
Und wer sagt, dass man nicht zwei Chips in der Pipeline hatte? Z.B. einen RV840, den wir auf den Bildern sehen, und einen RV870, der evtl. gestrichen wurde. Es würde mich sehr wundern, wenn AMD nur einen einzigen DX11-Chip für 2009 plante.

igg
2009-06-03, 12:06:18
Und wer sagt, dass man nicht zwei Chips in der Pipeline hatte? Z.B. einen RV840, den wir auf den Bildern sehen
Ich habe mich auch schon gefragt, ob das auf den Bildern nicht der kleine DX11 Chip ist (RV840 o.ä.). Das würde alles erklären.

reunion
2009-06-03, 12:08:05
Und wer sagt, dass man nicht zwei Chips in der Pipeline hatte? Z.B. einen RV840, den wir auf den Bildern sehen, und einen RV870, der evtl. gestrichen wurde. Es würde mich sehr wundern, wenn AMD nur einen einzigen DX11-Chip für 2009 plante.

Einen schon mit enormen RnD-Einsatz fertig entwickelten Chip einfach streichen? Never. Zumal es an ein paar mm² mehr auch nicht scheitern wird, andere Chips wird es ja auch in 40nm geben und der gezeigte Chip hat ja auch um die 180mm². Was sollte denn dann nV sagen mit ihrem 500mm² Die? Ich sehe auch nicht wo das Problem liegt, RV670 hatte auch nur 192mm², AMD hat ganz klar gesagt keine "Monster" mehr fertigen zu wollen. Und wie kommst du darauf das AMD nur einen einzigen DX11-Chip plant? Ein RV840 ist eh schon praktisch bestätigt, der wird halt dann noch etwas kleiner.

V2.0
2009-06-03, 12:19:52
Außerdem kann man sich von einem kleinen Die und einem neuen Prozess eben auch viel Taktpotential versprochen haben. RV790 get auf 1Ghz, evtl. zielt man auf 1,3Ghz+.

Sorkalm
2009-06-03, 12:24:34
In recognition of the AMD and TSMC partnership to deliver the first AMD DirectX 11 and 40nm GPU silicon

Hmm ... der Spruch an dem Wafer ist ja schon recht doppeldeutig...

Gast
2009-06-03, 12:34:09
RV670 hatte auch nur 192mm², AMD hat ganz klar gesagt keine "Monster" mehr fertigen zu wollen.
Aha, dann ist der Schritt RV770/790 -> RV870 wie der Schritt von R600 -> RV670.

Kleinerer Chip, neue Api und keine Mehrleistung.
Ok hier und da 20%, fertig ist die tolle HD5 Serie. Alle Welt staunt übers Preis/FPS Verhältnis und steigt von zb 4850 auf 5850 um.
Das heißt sie bekommen die 4870 Leistung unter dem Namen 5850.

Außerdem kann man sich von einem kleinen Die und einem neuen Prozess eben auch viel Taktpotential versprochen haben. RV790 get auf 1Ghz, evtl. zielt man auf 1,3Ghz+.
1Ghz, aber nur in unlieferbaren Dosen bei abartiger Spannung.
RV740 zeugt jedenfalls nicht davon, das 40nm ein Taktwunder herbeiführen.

Sorkalm
2009-06-03, 12:40:51
Ein paar Folien von AMD - wer etwas herauslesen kann, soll sich dran versuchen. ;)
Jedenfalls scheint sich AMD sicher zu sein, der erste mit DX11 zu sein...


http://s7b.directupload.net/images/090603/prkyav48.jpg

http://s2b.directupload.net/images/090603/ci3dxb4j.jpg

http://s7b.directupload.net/images/090603/srdvoljv.jpg

http://s5b.directupload.net/images/090603/lvl7v9xt.jpg

crux2005
2009-06-03, 12:42:10
geil das die presentation noch unter NDA ist :rolleyes:

mboeller
2009-06-03, 12:44:26
geil das die presentation noch unter NDA ist :rolleyes:

warum?

hier gibt es die ganze Präsentation: http://www.hardocp.com/image.html?image=MTI0NDAwNDgyMEZJUWRlV3BYeEtfMV8xX2wuanBn

reunion
2009-06-03, 12:57:48
Aha, dann ist der Schritt RV770/790 -> RV870 wie der Schritt von R600 -> RV670.

Das wird dir heute noch niemand sagen können. Mit etwas mehr Leistung rechne ich schon.


Kleinerer Chip, neue Api und keine Mehrleistung.
Ok hier und da 20%, fertig ist die tolle HD5 Serie. Alle Welt staunt übers Preis/FPS Verhältnis und steigt von zb 4850 auf 5850 um.
Das heißt sie bekommen die 4870 Leistung unter dem Namen 5850.


Immernoch besser als er steigt von einer 8800GT auf eine 9800GT um od. dergl. mehr bei nV.

Jedenfalls scheint sich AMD sicher zu sein, der erste mit DX11 zu sein...


Ja, eindeutiger geht es nimmer. Sie werden schon ihre Gründe haben warum sie so optimistisch sind.

Gast
2009-06-03, 14:10:14
Ein RV840 ist eh schon praktisch bestätigt, der wird halt dann noch etwas kleiner.

Vergiss es, kleiner als 180mm² wird rv840 auch nicht, man braucht dx11 und zusätzlich etwas Leistung. Da sind 50mm² Steigerung zum rv730 gerade passend. Das Ding was da gezeigt wurde ist sicher nicht die Performancekarte von Ati, höchstwahrscheinlich isses rv840 oder wie man das teil nun nennt, die Performancekarte ist dann nen mcm oder nen anderer etwas größerer Chip. Und wie hier Leute aufs streichen vom rv870 kommen, weiß ich noch weniger, klar ati will 2010 keine grakas über 100€ anbieten, wieso sollten sie auch

reunion
2009-06-03, 14:20:14
Vergiss es, kleiner als 180mm² wird rv840 auch nicht, man braucht dx11 und zusätzlich etwas Leistung. Da sind 50mm² Steigerung zum rv730 gerade passend.

RV840 40nm
RV730 55nm

Gast
2009-06-03, 14:20:53
Immernoch besser als er steigt von einer 8800GT auf eine 9800GT um od. dergl. mehr bei nV.
Du hast Recht, es gibt immer ein noch schlechteres Beispiel, wie zb der Rückschritt von 2600 XT -> 3650.

Toll ist diese Entwicklung dennoch nicht.

Coda
2009-06-03, 14:22:56
Irgendwie lustig, dass man nur DX11-Tesselation-Demos zeigt, wo man doch schon seit dem R600 eine Hardware-Tesselations-Einheit hat. Wer weiß, ob die Demos wirklich unter DX11 liefen. ;)
Das ist ein Demo aus dem D3D11-SDK.

Gast
2009-06-03, 14:23:22
Vergiss es, kleiner als 180mm² wird rv840 auch nicht, man braucht dx11 und zusätzlich etwas Leistung.
Irgendwo zwischen 137mm² des RV740 und 180mm² des Rv870 wird RV840 sein.

Sehr gut möglich das es lediglich ein RV740 mit D3D11 wird.

reunion
2009-06-03, 14:28:15
Irgendwo zwischen 137mm² des RV740 und 180mm² des Rv870 wird RV840 sein.

Sehr gut möglich das es lediglich ein RV740 mit D3D11 wird.

Ich glaube nicht das RV740 so bald ersetzt wird, das Ding gibt es ja auch noch nicht lange. RV840 soll IMO ganz klar RV730 ersetzen.

Gast
2009-06-03, 14:35:55
Ich glaube nicht das RV740 so bald ersetzt wird, das Ding gibt es ja auch noch nicht lange. RV840 soll IMO ganz klar RV730 ersetzen.
2 nahezu gleich große 40nm Chips ergeben wenig Sinn.
Wo sollen sich entsprechende Karten einordnen?

The_Silent_One
2009-06-03, 14:49:15
Ja, eindeutiger geht es nimmer. Sie werden schon ihre Gründe haben warum sie so optimistisch sind.
Leider waren sie das mit dem r600 vor dem Launch des g80 auch.

reunion
2009-06-03, 14:50:56
Leider waren sie das mit dem r600 vor dem Launch des g80 auch.

Wo? Da gab es AFAIK keine Folie wo oben stand "AMD will deliver DX11 first". Sie scheinen sich sehr sicher zu sein das sie als erster kommen.

deekey777
2009-06-03, 14:52:21
Leider waren sie das mit dem r600 vor dem Launch des g80 auch.
Nie und nimmer.

Gast
2009-06-03, 14:54:20
Wo? Da gab es AFAIK keine Folie wo oben stand "AMD will deliver DX11 first". Sie scheinen sich sehr sicher zu sein das sie als erster kommen.
Er meint die Performance. Es war klar das AMD mit R600 später anrückt als Nvidia mit G80.

The_Silent_One
2009-06-03, 14:54:58
Ich bezog mich auf den Optimismus. Hab versehentlich zu viel zitiert. Damals hat ATi doch groß geprahlt, den schnellsten Grafikchip zu liefern, der alles andere in den Schatten stellt und zusätzlich noch D3D10 unterstützt. Wurde dann allerdings eher ein Flop.

reunion
2009-06-03, 14:55:36
Er meint die Performance. Es war klar das AMD mit R600 später anrückt als Nvidia mit G80.

Okay, ich bezog mich aber eindeutig auf den Releasetermin. Zur Leistung wird auch gar nichts gesagt.

Ich bezog mich auf den Optimismus. Hab versehentlich zu viel zitiert. Damals hat ATi doch groß geprahlt, den schnellsten Grafikchip zu liefern, der alles andere in den Schatten stellt und zusätzlich noch D3D10 unterstützt. Wurde dann allerdings eher ein Flop.

Auch daran kann ich mich nicht erinnern. Es gab natürlich jedemenge Marketingmüll aber nichts konkretes zur Leistung AFAIK.

Coda
2009-06-03, 14:58:25
Ich denke auch dass AMD ein wenig früher kommt, aber evtl. schaufelt NVIDIA auch paar Chips auf Halde und macht wieder so nen Hard-Launch mit sehr geringen Mengen am gleichen Tag.

Ailuros
2009-06-03, 15:05:41
Auch daran kann ich mich nicht erinnern. Es gab natürlich jedemenge Marketingmüll aber nichts konkretes zur Leistung AFAIK.

Hinter den Kulissen vor und sogar nach dem Launch bestand man seitens ATI dass sie die "bessere" D3D10 Loesung haben. Dave Baumann behauptete dieses auch in aller Oeffentlichkeit damals.

Gast
2009-06-03, 15:06:34
Bleibt abzuwarten ob AMD einen Paperlaunch hinbekommt.

Um die Verfügbarkeit der 4770 stehts immer noch sehr bescheiden.
Jetzt wächst der Die, zusätzlich gibts raren 1,1Ghz GDDR5.

Coda
2009-06-03, 15:07:09
Hinter den Kulissen vor und sogar nach dem Launch bestand man seitens ATI dass sie die "bessere" D3D10 Loesung haben. Dave Baumann behauptete dieses auch in aller Oeffentlichkeit damals.
FUD halt - ich glaube nicht das man das intern wirklich gedacht hat. Das haben die Fanboys noch ne ganze Zeit nachgeplappert.

Das einzige was vielleicht besser war, war die Buffer-Size für's Geometry Shading.

Ailuros
2009-06-03, 15:14:39
FUD halt - ich glaube nicht das man das intern wirklich gedacht hat. Das haben die Fanboys noch ne ganze Zeit nachgeplappert.

Das einzige was vielleicht besser war, war die Buffer-Size für's Geometry Shading.

Ich hab auf jeden Fall nachgefragt und alle haben bis jetzt eine jegliche zweischienige D3D11 Entwicklung seitens ATI als Bloedsinn abgestempelt. Zur Frage ob die Aussage irgend etwas mit moeglichem vorzeitigem "damage control" verbunden sein koennte keine Antwort natuerlich.

nagus
2009-06-03, 19:19:25
Nie und nimmer.

naja... ich kann mich noch sehr genau an den spruch "dx 10 done right" erinnern. möchte wissen was an der r600 "right" gewesen sein soll. viel nicht

AnarchX
2009-06-03, 20:50:53
Bei Chiphell (http://bbs.chiphell.com/viewthread.php?tid=46312&extra=page%3D1&page=5) ist man der Meinung, dass dieser 180mm² Die wohl nicht RV870 sei, sondern eher RV830 bzw. RV840.

Vielleicht Evergreen nicht nur im Bezug auf das Hotel, sondern dass es der dritte ATi-Chip mit 800SPs ist?
Da würde die DX11-Kompatibilität wohl ca. 40mm² bzw. 240M Transistoren kosten.

Wenn dem so wäre, fragt sich wie groß nun der RV870 ist.
Ein so zeitiger RV830/RV840 sähe gegenüber dem noch nicht mal richtig im Markt angekommenen RV740 in der Tat etwas seltsam aus, auf der anderen Seite würde man durch DX11 und eine entsprechende Taktung aber hier einen deutlich höheren Preis verlangen können.

V2.0
2009-06-03, 20:57:09
Gut aber ne höhere Taktung dürfte bei den Problemen von TSMC nicht gerade den Yield verbessern.

Möglich ist natürlich, dass es wirklich frühe Wafer eines RV830 waren.

LovesuckZ
2009-06-03, 20:59:51
185mm^2 sind natürlich viel zu klein für einen Nachfolger des rv770. Selbst wenn man die Pad-Limitierung gelöst hätte und man mit 256bit unter 190mm^2 gehen würde, hätte man kaum Möglichkeiten die Leistung gegenüber dem rv740 stark zu verbessern. Man läge wohl auf rv790 Niveau und das ist - selbst mit DX11 - kaum anziehungsvoll.

AnarchX
2009-06-03, 21:02:02
@V2.0
Wenn man RV740 betrachtet, dann hat 40nm wohl nicht unbedingt Taktprobleme. Eher scheint die Ausbeute an Chips die überhaupt funktionieren nicht ganz zu stimmen und die funktionieren, lassen sich entsprechend gut takten.
Sonst hätte NV seine Low-End/Mainstream-40nm-GPUs wohl auch schon längst am Markt.

reunion
2009-06-03, 21:06:25
Eben und dann hätte AMD den RV740 eben niedriger getaktet. Ein Taktproblem ist völliger Unsinn, aber wird trotzdem endlos nachgeplappert. Bei 40nm gibt es aktuell vorallem auch ein Kapazitätsproblem neben sicherlich aktuell noch nicht berühmter Yields.

reunion
2009-06-03, 21:08:17
185mm^2 sind natürlich viel zu klein für einen Nachfolger des rv770. Selbst wenn man die Pad-Limitierung gelöst hätte und man mit 256bit unter 190mm^2 gehen würde, hätte man kaum Möglichkeiten die Leistung gegenüber dem rv740 stark zu verbessern. Man läge wohl auf rv790 Niveau und das ist - selbst mit DX11 - kaum anziehungsvoll.

Man darf ja auch noch auf Effizienzsteigerungen hoffen. Aber klein sind die 180mm² natürlich schon. Würde mich halt wundern wenn es jetzt schon Wafern mit etwas anderes wie RV870 geben würde und selbst wenn stellt sich die Frage warum sollte man irgend einen Low-End-Chip zeigen?

LovesuckZ
2009-06-03, 21:14:39
Man darf ja auch noch auf Effizienzsteigerungen hoffen. Aber klein sind die 180mm² natürlich schon. Würde mich halt wundern wenn es jetzt schon Wafern mit etwas anderes wie RV870 geben würde und vorallem warum sollte man irgend einen Low-End-Chip zeigen?

Effizienzsteigerungen kommen nicht aus dem Nichts.
Es spielt heute keine Rolle, was für ein "world first DX11 Chip" es ist. AMD hat das öffentliche Interesse - in vier, fünf Monaten kräht keiner mehr danach, ob es sich um einen rv870 oder einen rv830 gehandelt hat.
Nur ich bezweifel es, dass man in 37% mehr Fläche zum rv740 mindesten doppelte Geschwindigkeit sowie DX11 und noch einige andere Veränderungen vorgenommen hätte.

deekey777
2009-06-03, 22:18:05
Ich hab ne Frage: Wurden Froblins auf DX11 portiert?

S940
2009-06-03, 23:49:46
185mm^2 sind natürlich viel zu klein für einen Nachfolger des rv770. Selbst wenn man die Pad-Limitierung gelöst hätte und man mit 256bit unter 190mm^2 gehen würde, hätte man kaum Möglichkeiten die Leistung gegenüber dem rv740 stark zu verbessern. Man läge wohl auf rv790 Niveau und das ist - selbst mit DX11 - kaum anziehungsvoll.
Hmm, vielleicht haben sie endlich das Sideport- / Koppelinterface hinbekommen und schließen 2 der Chips einfach zusammen ... also richtig, ohne doppelten VRAM Bedarf und ohne Microruckler.

So nen Port brauchen sie später sowieso für den Fusion, da ist auch nicht mehr lange hin, der Grafikkern im Fusion wird sicherlich R8xx sein ... könnte also passen.

ciao

Alex

_DrillSarge]I[
2009-06-03, 23:56:53
Hmm, vielleicht haben sie endlich das Sideport- / Koppelinterface hinbekommen und schließen 2 der Chips einfach zusammen ... also richtig, ohne doppelten VRAM Bedarf und ohne Microruckler.

So nen Port brauchen sie später sowieso für den Fusion, da ist auch nicht mehr lange hin, der Grafikkern im Fusion wird sicherlich R8xx sein ... könnte also passen.

ciao

Alex
das ding wurde ja mal als angebliche "wunderwaffe" besungenb und sollte später per treiber freigeschaltet werden (gibts das ding eigentlich in den aktuellen karten?). passiert ist nix.
und: was ist das eigentlich? :D

Gast
2009-06-04, 00:03:40
Hmm, vielleicht haben sie endlich das Sideport- / Koppelinterface hinbekommen und schließen 2 der Chips einfach zusammen ... also richtig, ohne doppelten VRAM Bedarf und ohne Microruckler. Halte ich zwar für seeeeehr unwahrscheinlich, aber falls doch hat nVidia ein großes Problem. Und Intels Larrabee Abteilung wohl auch.

Gast
2009-06-04, 00:21:15
@V2.0
Wenn man RV740 betrachtet, dann hat 40nm wohl nicht unbedingt Taktprobleme.

Oh doch, schau dir mal an, mit welcher Spannung der RV740 betrieben werden muss, um seinen Takt zu erreichen.

Gast
2009-06-04, 00:28:16
Hmm, vielleicht haben sie endlich das Sideport- / Koppelinterface hinbekommen und schließen 2 der Chips einfach zusammen ... also richtig, ohne doppelten VRAM Bedarf und ohne Microruckler.

Das Ding was Fanboys bereits RV670 und RV770 nachgesagt haben.

Klar, denkbar.
Muss aber nicht sein, ein simples CF würde mich auch nicht wundern. Der Testlauf ist beendet, die Masse kümmerts nicht, das MGPU seine teils heftigen Macken hat, jetzt gibts sowas auf allen Karten.
In dem Zusammenhang macht ein gemeinsamer VRAM Sinn, sagt jedoch nicht aus, ob es keine üblichen (oder neue) CF Nachteile gibt.

Gipsel
2009-06-04, 01:25:53
Oh doch, schau dir mal an, mit welcher Spannung der RV740 betrieben werden muss, um seinen Takt zu erreichen.
Du meinst jetzt aber nicht den Standardtakt, oder? Denn Du weißt schon, daß die Standardspannung der 4770 bei nur 0,95V bei 750MHz liegt? Das ist ja auch der Hauptgrund, warum die Karten unter Last verhältnismäßig wenig Strom ziehen.

Eher gibt es ein Problem mit dem Stromverbrauch bei größeren Designs und (für 40nm eigentlich noch völlig akzeptablen) 1,15V Spannung.
Aber da die 4770 sowieso einen 6Pin-Stecker bekommen hat (und die Spannungswandler ebenfalls recht großzügig dimensioniert sind), sollte es kein Problem sein, der GPU 1,15V zu spendieren, falls die Taktfähigkeit zu wünschen übrig lassen würde. Also da glaube ich eher nicht dran.

Coda
2009-06-04, 02:00:23
Das Ding was Fanboys bereits RV670 und RV770 nachgesagt haben.
RV770 hat bereits eine direkte Verbindungung der Chips über die internen Crossbars. Das wird sicherlich auch ein paar Prozent Performance bringen bei AFR.

AnarchX
2009-06-04, 06:29:33
Oh doch, schau dir mal an, mit welcher Spannung der RV740 betrieben werden muss, um seinen Takt zu erreichen.
750MHz @ 1.02xV, die teilweise dann noch für 900MHz OCing reichen sind doch nicht hoch.
Da gab es GPUs bei AMD in der Vergangenheit die weit beschränkter in ihrem OC-Fähigkeiten waren und das bei einem besseren Yield.

AnarchX
2009-06-04, 06:50:55
In fact, the wafer is melted down after the RV740 is a product of the new RV830, support DX11. Is expected to increase SP units, the default rate remains at around 800, however the frequency will 128BIT GDDR5 to 3600. Thermal design power is expected to 85W about the actual performance will be more than RV770PRO, starting price of 109 U.S. dollars may be
http://we.pcinlife.com/thread-1179774-1-1.html

Also vielleicht doch ein zeitiger RV830, der dann das BTS-Season Line-up aufwerten soll und DX11 zum kleinen Preis bietet.
Bei RV870 könnte es wohl eher zu einem Paperlaunch kommen, neben dem wohl ~300mm² Die auch wegen des 0.4ns Speichers, bei Chiphell meint man sogar 0.33ns. :D

Tarkin
2009-06-04, 08:43:27
http://www.digitimes.com/news/a20090603PD214.html

"AMD has also announced plans to launch a DirectX 11 compatible GPU series in September in preparation for the launch of Windows 7."

Also wenn dann wirklich rv840 und 870 im Sept kommen sollten. Respekt!

Gast
2009-06-04, 10:26:38
RV770 hat bereits eine direkte Verbindungung der Chips über die internen Crossbars.
Anfangs wurde behauptet das Ding sei deaktiviert und warte auf neue Treiber, die es irgendwann aktiveren.

Jedenfalls, wenn das schon das heißgeliebter Siedeport ist, dann gute Nacht.
Die feuchten Träume einer 2 Die Lösung ohne AFR sind somit vorbei.
Aber was solls, die Kunden haben gezeigt, das sie auch AFR Lösungen kaufen.

Gast
2009-06-04, 12:54:06
Du meinst jetzt aber nicht den Standardtakt, oder? Denn Du weißt schon, daß die Standardspannung der 4770 bei nur 0,95V bei 750MHz liegt? Das ist ja auch der Hauptgrund, warum die Karten unter Last verhältnismäßig wenig Strom ziehen.



Ich meinte das hier:

http://ht4u.net/reviews/2009/asus_radeon_eah_4770/index9.php

"Nur" 940MHz bei sehr hohen 1,35V und einer Leistungsaufnahme jenseits von gut und böse.

reunion
2009-06-04, 13:03:18
Weil der Lüfter ganz einfach zu schwach ist. Die meisten schaffen um die 900Mhz mit defaultspannung von 0.95V.

anderer Gast
2009-06-04, 13:15:29
1. Es gibt bisher keine werksübertakteten 4770.
2. Ist es sehr wohl möglich, das etliche RV740 zu den 80% Ausschuss gezählt werden, weil sie deutlich größere Taktprobleme als die 20% am Markt befindlichen haben.
4. Ist Heimübertaktung nicht mit ausgeliefertem Takt vergleichbar.
3. Sind 900Mhz bei 1V eines 137mm² Chips noch kein Indiz dafür, das ein anderer 180mm² Chip bei unriskanter und kühlbarer Spannung seine 1100Mhz schafft.

reunion
2009-06-04, 13:23:47
1. Es gibt bisher keine werksübertakteten 4770.

Weil es AMD nicht erlaubt. Es sind auch noch keine anderen Designs erlaubt. Ein Grund warum Palit/Gainward sich von AMD trennt.


2. Ist es sehr wohl möglich, das etliche RV740 zu den 80% Ausschuss gezählt werden, weil sie deutlich größere Taktprobleme als die 20% am Markt befindlichen haben.

Nein, denn dann würde es bsw. eine 4750 mit weniger Takt geben. Da es das nicht gibt, und da sich alle am Markt befindlichen Karten überdurchschnittlich übertakten lassen halte ich das für BS.


4. Ist Heimübertaktung nicht mit ausgeliefertem Takt vergleichbar.

Ein Vergleich mit anderen Karten ist aber sehr wohl zulässig.


3. Sind 900Mhz bei 1V eines 137mm² Chips noch kein Indiz dafür, das ein anderer 180mm² Chip bei unriskanter und kühlbarer Spannung seine 1100Mhz schafft.

Das hat auch niemand behauptet. Auch wenn es sicherlich ein Indiz ist, aber natürlich kein Fakt. Das Problem bei 40nm sind momentan neben den Yields vor allem auch die mangelnden Kapazitäten von TSMC.

Ailuros
2009-06-04, 14:10:35
Also haben wir fuer die kommende Generation folgende Kurzschreibungen fuer jegliche Codenamen:

EVG
LRRH :devil:
LRB

Gipsel
2009-06-04, 14:15:12
Ich meinte das hier:

http://ht4u.net/reviews/2009/asus_radeon_eah_4770/index9.php

"Nur" 940MHz bei sehr hohen 1,35V und einer Leistungsaufnahme jenseits von gut und böse.
*lol*
Wie schon erwähnt, schaffen viele RV740 auch 850-900 MHz bei 0,95-1,0V. Daß man bestimmte CPUs auch nur 20% übertakten kann, egal wie hoch man die Spannung dreht, davon hast Du bestimmt doch auch schon mal gehört, oder? Das hat so ziemlich gar nichts mit dem Yield zu tun, worum es ja eigentlich ging.
Fakt ist, für Default-Takt wird nur eine relativ niedrige Spannung benötigt. Was aber der von Dir verlinkte HT4U-Artikel bestätigt, ist daß die Stromaufnahme bei höheren Spannungen natürlich ziemlich stark ansteigt. Dies könnte ein Problem für größere Chips werden (falls TSMCs verbeserter Prozeß da nicht noch eine andere Charakteristik aufweist), ist es aber momentan für den RV740 definitiv nicht.

Hvoralek
2009-06-04, 19:11:59
Hmm, vielleicht haben sie endlich das Sideport- / Koppelinterface hinbekommen und schließen 2 der Chips einfach zusammen ... also richtig, ohne doppelten VRAM Bedarf und ohne Microruckler.Um von AFR wegzukommen, bräuchte man eine zigmal schnellere Verbindung als bei RV770. Und das bei so kleinen Chips mit entsprechend wenig Platz für Anschlüsse?

So nen Port brauchen sie später sowieso für den Fusion, da ist auch nicht mehr lange hin, der Grafikkern im Fusion wird sicherlich R8xx sein ... könnte also passen.Wieso braucht man zwischen CPU und IGP eine Verbindung >= 100 GB/s? Wobei das sogar vergleichsweise einfach machbar sein dürfte, wenn beides auf dem selben Trägermaterial sitzt.

AnarchX
2009-06-04, 20:16:56
Ein Blick in das Computex Demo-System:
http://img3.imageshack.us/img3/231/evergreen.jpg (http://img3.imageshack.us/my.php?image=evergreen.jpg)
http://vr-zone.com/articles/amd-dx11-r800-card-exposed/7154.html?doc=7154
Sieht wohl wirklich nach einem RV830/RV840 aus.


Angenommen ein 800SPs RV740 läge bei 900M Transistoren, dann wären es auf Basis der ~180mm² wohl zusätzliche ~200M Transitoren bzw. +22% für DX11. Imo ein durchaus realistischer Wert, wenn man bedenkt, dass AMD schon jetzt die Architektur sehr transistoreffizient gemacht hat.
Das Resultat vielleicht auf 800/900MHz getaktet und man dürfte wohl auf dem Niveau einer 4870 liegen.

Bleibt die Frage was noch anderes als RV7xx+DX11 passiert ist.

reunion
2009-06-04, 20:21:56
Bei nur einem 6-Pin Anschluss ziemlich sicher kein RV870 nein. Interessant woher VR-Zone das hat. Später sollen sogar noch Benchmarks folgen.

Gast
2009-06-04, 20:22:30
Woran möchtest du das fest machen? Ich seh da nur eine Menge Plastik, eine Karte die ziemlich lang ist (wohl normal heutzutage), aber irgendwie zu hoch sitzend für das ganze rote Plastikgedöns. Die Slotblende hinten sieht auch ziemlich dick aus... Imho kann das alles oder nichts sein...

grobi
2009-06-04, 22:03:30
Bei nur einem 6-Pin Anschluss ziemlich sicher kein RV870 nein. Interessant woher VR-Zone das hat. Später sollen sogar noch Benchmarks folgen.

Eine 4850 hat auch nur einen 6-Pin-Anschluss und beherbergt einen RV770. :wink:

Gast
2009-06-04, 23:03:33
Eine 4850 hat auch nur einen 6-Pin-Anschluss und beherbergt einen RV770. :wink:
Und eine 4730 beherbergt sogar zwei 6-Pin Anschlüsse.

HPVD
2009-06-05, 09:17:02
Eine 4850 hat auch nur einen 6-Pin-Anschluss und beherbergt einen RV770. :wink:

und wenn man davon ausgeht, dass die ersten lauffähigen Muster ohnehin (sehr) niedrig getacktet sein werden - passt das doch.
Musste zu diesem Zweck ja nur die reine "Funktionsfähigkeit" zeigen...

Gruß HPVD

ShadowXX
2009-06-05, 09:23:56
Woran möchtest du das fest machen? Ich seh da nur eine Menge Plastik, eine Karte die ziemlich lang ist (wohl normal heutzutage), aber irgendwie zu hoch sitzend für das ganze rote Plastikgedöns. Die Slotblende hinten sieht auch ziemlich dick aus... Imho kann das alles oder nichts sein...
Für mich sieht das sogar ziemlich definitiv nach einer Doppel-Slotblende aus.

HPVD
2009-06-05, 09:36:02
Noch ein paar Infos von AMD im Nachlauf zur Computex:

- "...lief die Vorführung auf einer AMD-Grafikkarte, die mit einem DirectX-11-Chip in 40-Nanometer-Technik bestückt war...."
- "... Framecounter der Demo verfälscht, "um unserem Mitbewerber nicht den Hauch einer Information zu geben"...."
- "..., dass etliche Spieleentwickler bereits über DirectX-11-Karten von AMD verfügen....ersten Titel schon zum Weihnachtsgeschäft."
-"...DirectX-11-Paket für Windows Vista ... am Tag der Markteinführung von Windows 7 "

Quelle: http://www.golem.de/0906/67575.html

Gruß HPVD

igg
2009-06-05, 09:52:49
AMD scheint hier ungewöhnlich aggressiv vorzugehen, das gibt einem zu denken

Raff
2009-06-05, 10:14:02
Vielleicht möchte man mal wieder etwas Geld verdienen. Kann man ihnen nicht verübeln. Geschicktes Marketing half Nvidia schon immer.

MfG,
Raff

reunion
2009-06-05, 10:19:31
Eine 4850 hat auch nur einen 6-Pin-Anschluss und beherbergt einen RV770. :wink:

Das ist natürlich richtig, theoretisch könnte es natürlich auch was anderes sein. Allerdings schreibt ja VR-Zone auch RV830/R840, und da sie auch an das Bild gekommen sind, ja selbst die Siliziumrevision haben, kann man wohl annehmen das sie auch hier Informationen aus erster Hand haben.

Gast
2009-06-05, 10:36:46
Vielleicht möchte man mal wieder etwas Geld verdienen. Kann man ihnen nicht verübeln.
Da fragt sich warum die Jungs erst jetzt auf diese Idee kommen.
Irgendwie waren bei HD3 und HD4 andere Leute am Verdien-Ruder.

turboschlumpf
2009-06-05, 14:44:58
ja selbst die Siliziumrevision haben
A10 meint aber nicht wirklich die zehnte Revision?