Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Volcanic Islands (VI) - Hawaii, Maui, Iceland, Tonga - 2013/2014
Skysnake
2013-08-10, 03:45:19
Ich hab mich mit Leuten unterhalten die professionell für die 3 aufgelisteten Dinge programmiert haben (und daneben auch C/C++ Code für CPUs im HPC-Bereich). Insbesondere haben die systematisch die Performance für verschiedene use-cases analysiert. Das ist viel mehr Wert als wenn ich damit etwas herumspielen würde. Beruflich habe ich schon etwas Erfahrung mit GPU-Programmierung gesammelt, aber das nur am Rand.
Was soll die Frage überhaut? Willst du wirklich erzählen, dass praktisch beliebiger C-Code nur durch eine Rekomplilierung performant auf Xeon Phi läuft?
Nein, "beliebiger" nicht, aber beim Portierungsaufwand hast du einen GEWALTIGEN! Unterschied. XeonPhi Programmieren ist eigentlich wie jede stink normale CPU Programmieren. Du verwendest deine Standardtools usw usw usw. Allein das Debuggen ist um Welten! angenehmer als auf der GPU. Das solltest du nach 10 Minuten schon merken, wenn du, wie du sagst, selbst GPU-Prammierung betreibst.
Du solltest dann wissen, wie fucking schwer es ist überhaupt Leute zu finden, die GPUs vernünftig programmieren können, so das hinten auch Leistung bei raus kommt. Es ist ja schon schwer genug überhaupt Leute zu finden, die das aus CPUs können, und GPUs sind da massiv schwieriger....
Deswegen ist XeonPhi auch so interessant für viele. Ihre Programmierer können das Ding einsetzen, auch wenn Sie mit was anderem theoretisch schneller wären. Diese "Theorie" bringt dir halt nichts, wenn du schlicht keine Programmierer findest, die das auch umsetzen, oder eben x mal länger brauchen und ein heiden Geld fressen und andere Dinge liegen bleiben... Ich hoffe ich muss dir nicht erzählen, wie die Mitarbeitergewinnung in dem Bereich aussieht oder doch?
Und ansonsten, kann ich nur sagen, ich hab wie gesagt alles drei selbst Programmiert, und das ist immer nochmals, zumindest ein stückchen, was anderes als wenn man "nur" mit Leuten redet. Man bekommt da halt nochmals einen etwas anderen Blick drauf. Und ich muss offen sagen, GPU-Programmierung ist cool und tendenziell Effizienter, aber wenn man Aufwand<->Nutzen miteinander vergleicht, dann wird es ECHT schwer sich die Sache noch zu legitimieren, und das sag ich als jemand, der seit Jahren aktiv GPGPU wo immer es geht pusht...
Aha und wenn beide absaufen kauft alle Welt dann Xeon Phi und bindet sich an Intel? Wo ist das besser als CUDA? Bzw. warum sollte man das tun, wenn die Bindung an einen Hersteller das Argument gegen CUDA ist?
Ein "richtiges" binden an Intel ist das ja nicht. Man ersetzt "einfach" normale CPUs von Hersteller XY gegen den Accelerator. Der ganze Code bleibt von der Struktur her ja ziemlich identisch, egal ob XeonPhi oder normale CPU. Ein "Zurückportieren" tut da bei weitem nicht mehr so weh. Vor allem wenn man es gleich richtig macht, und einige Sahen dynamisch hält, reicht schon ein Neucompile und man ist Glücklich. Erfordert natürlich mehr Aufwand, aber man will ja aus normalen neuen CPU-Generationen mit anderem Core-Count, Cachegrößen usw ja eh auch ohne großen Aufwand seinen Nutzen ziehen. Man ist also eh angehalten das sowieso zu tun.
Aktuell ist es aber wirklich noch so, das XeonPhi (KNC) einige Einschränkungen hat, die unschön sind. Das wird sicherlich auch noch manchen abhalten. Mit KNL macht man aber einen großen! Schritt nach vorne, und die Unterschiede zwischen normaler IntelCPU und XeonPhi noch weiter massiv verschwimmen, und die Portierung von Code weiter erleichtern. Mit KNL werden die GPU-Hersteller es RICHTIG! schwer haben. Bei AMD muss da HSA spätestens funktionieren, sonst seh ich absolut schwarz. Wer will sich das dann noch antun? nVidia das Gleiche, wobei man da ja nichtmal so etwas wie HSA am Horizont sehen kann...
Duplex
2013-08-10, 10:28:19
Hoffentlich nicht noch mehr Front-End-Limitierung, aber wenn sich AMD voll auf GPGPU konzentriert könnte es sein das man das in kauf nimmt.
Ein 40 CU Chip mit Tahiti Frontend will doch keiner haben, das sind dann nur 15-20% auf die 7970 Ghz, so ein Schrott kann man sich gleich sparen.
Man braucht ein neues Frontend, damit die CUs besser skalieren, beim gleichen Prozess muss man effizienter werden.
boxleitnerb
2013-08-10, 12:39:10
Ist 20nm eigentlich bei einer anderen Foundry als TSMC schon bereit?
Duplex
2013-08-10, 12:49:41
20nm HP bulk gibt es 2014 soweit ich weiß nur bei TSMC in Massen verfügbar.
Die anderen Hersteller kann man komplett vergessen.
Ist 20nm eigentlich bei einer anderen Foundry als TSMC schon bereit?
Laut Plänen GF .. aber die hatten laut Plan auch schon vor 2 Jahren 28nm ...
Immerhin verwenden sie jetzt bei 20nm LPM auch Gate Last, es besteht also ein "Risiko", dass sie den Plan diesmal einigermaßen einhalten könnten :freak:
boxleitnerb
2013-08-10, 14:39:25
LPM ist Low Power M...? Eignet sich das überhaupt für große GPUs?
Ailuros
2013-08-10, 14:48:53
Ein 40 CU Chip mit Tahiti Frontend will doch keiner haben, das sind dann nur 15-20% auf die 7970 Ghz, so ein Schrott kann man sich gleich sparen.
Man braucht ein neues Frontend, damit die CUs besser skalieren, beim gleichen Prozess muss man effizienter werden.
Wer sagt aber dass ein neues frontend irgendwelchen Zauberstab haben wird? Ja zur Notwendigkeit von diesem aber auch nein es als Wundertuete anzusehen.
LPM ist Low Power M...? Eignet sich das überhaupt für große GPUs?
Es gibt bei 20nm nix anderes mehr, LP und HP haben ausgedient. Sind Sparmaßnahmen, da das Ganze halt so teuer wird, deswegen leisten sich die Fabs nurmehr einen Prozess. Auch TSMC bietet nur einen 20nm Standardprozess an.
Einzige Variationen sind dann die auf den 20nm Technik aufbauenden Finfets bzw. FDSOI-Derivate, aber die werden dann werbewirksam schon als 14 bzw. 16nm angepriesen.
GF will 14XM angeblich schon 2014 liefern .. das bedeutet, dass der Basisprozess 20nm LPM vorher fertig sein muss ... mal schauen ob sies packen ;-)
Testwafer sind auf alle Fälle schon in der Fab:
http://www.globalfoundries.com/services/global_shuttle.aspx
Duplex
2013-08-10, 14:58:54
Wer sagt aber dass ein neues frontend irgendwelchen Zauberstab haben wird? Ja zur Notwendigkeit von diesem aber auch nein es als Wundertuete anzusehen.
Hab ich was von Zaubern oder ein Wunder geschrieben? :rolleyes:
Ich hab lediglich gesagt das die Einheiten mit einem neuen Frontend besser skalieren oder effizenter beim selben Prozess werden können.
AnarchX
2013-08-11, 09:36:57
Man stellt wohl für den Herbst ein neues Line-up zusammen mit ein paar bekannten GPUs:
/new-generation-radeon-lineup-is-hawaii-tahiti-curacao-boniare-oland-will-announced-at-september
http://chinese.vr-zone.com/78173/new-generation-radeon-lineup-is-hawaii-tahiti-curacao-boniare-oland-will-announced-at-september-08092013/
Curacao wieder dabei? Dieser könnte wohl bald noch bedeutender sein als Hawaii, wenn man damit eine schlagkräftige $249? Lösung präsentieren kann. Mit Tahiti XTL gibt es vielleicht auch noch ein interessantes Abverkaufsangebot.
boxleitnerb
2013-08-11, 09:40:03
5 GPUs, ist das nicht ein bissl viel? So groß ist der Bereich doch gar nicht, den man damit abdecken kann.
AnarchX
2013-08-11, 09:45:30
5 GPUs, ist das nicht ein bissl viel?
Tahiti wird wohl mittelfristig abverkauft.
boxleitnerb
2013-08-11, 09:47:22
Der Typ bei Anandtech, der was zu meinen Spekulatius geschrieben hatte meinte, Curacao wäre ein Pitcairn Nachfolger. Das würde dazu ja passen. Forum ist dort grad down, sonst würde ich das Statement raussuchen.
Das riecht dann doch nach 20nm. Hawaii@20nm, Rest@28 (auch Curacao?). Würde Sinn machen, den neuen Prozess erst nur für die teuersten GPUs, die in den geringsten Mengen verkauft werden, zu nutzen.
AnarchX
2013-08-11, 10:10:23
Passt nur nicht ganz zur alten Einschätzung 7970GHz +15%. Damit wäre Curacao ja eventuell im Hawaii Pro Bereich.
Aber vielleicht wollte AMD ihn damals noch auf 1,2GHz prügeln und die aktuelle Version ist bei gemäßigten ~1GHz, sodass man 7970/GTX 680 erreicht.
Aber Curacao wird wohl weder 20nm noch V.I. sein, sondern eher noch eine C.I. GPU. Ein 20nm Hawaii im September wäre wohl aber auch nur etwas für das Papier.
boxleitnerb
2013-08-11, 10:14:37
Ich halte inzwischen für möglich, dass Hawaii XT@20nm auf die 7970 GHz 60% drauflegt, da bliebe dann genug Platz für Curacao und die restlichen Chips.
Tech Day im September mit Vorstellung der Architektur. Soft-Launch Ende Oktober/Anfang November mit Reviews und mäßiger Verfügbarkeit. Wenn die erste Fuhre weg ist, gibts erstmal nix mehr bis Januar, und dann tröpfelt es immer ein bisschen in den Markt. Wäre so meine Einschätzung. So hätte man den 20nm-Vorteil, auch für den Profimarkt, hätte aber trotzdem noch mindestens eine gut verbesserte 28nm-GPU für den Massenmarkt. Bei Hawaii muss man nicht viel liefern, der Bedarf an Profikarten und $600+ Enthusiastenkarten ist überschaubar. Damit wäre das Risiko ziemlich gering. So steht man nicht mit runtergelassenen Hosen da, wenn Nvidia mit Maxwell früh starten würde und bringt auch nicht nur einen mauen Refresh, womit man nur aufschließen könnte.
Also bei mir geht Anandtech ...
Aber wo soll da jetzt der Zusammenhang zw. 20nm und Curacao als Pitcairn sein?
AMD ist ein gebranntes Kind, die werden den Teufel tun und sich auf blumige 20nm-Versprechen verlassen. Das dickste Die in einem neuen Prozess zu bringen ist zu riskant. Wenn dann eher wie bei 40nm und der RV740 Pilotfertigung.
Davon ab würde ich bei den ganzen Diskussionen wirklich nicht GFs 28nm Fertigung unter den Tisch fallen lassen. AMD bekommt bei den alten Kollegen eventuell nen besseren Preis und spart auch ein paar Prozentchen Die-Fläche, reicht eventuell für nen netten Refresh.
Auch weiss man nicht, was im Hintergrund für Kuhhändel getrieben werden. Nächstes Jahr muss das Wafer Agreement wieder neu verhandelt werden, eventuell tauscht AMD 28nm GPUs bei GF gegen 20nm CPUs bei TSMC, da sie GF 20nm nicht zutrauen.
Immerhin, ein Grund für den High-End Chip @20nm könnten die Preise sein. 20nm wird generell deutlich teurer als 28nm, plus den schlechten Yields am Anfang des Herstellungszyklus ... da rentierte sich ne Fertigung wohl wirklich bei ner 1000 Euro Karte und man könnte sich entscheiden das zu riskieren. Schlimmstenfalls gibts ja auch noch die Möglichkeit der Shader-Deaktivierung.
Außerdem lässt das hier wieder den Termin nach hinten rutschen:
Update 8/7/13 @ 4pm: AMD has clarified that it is the Hawaii/Volcanic Islands tech day in September, not the launch. The launch will officially happen in Q4 some time, the dates in this article are our speculation. http://forums.anandtech.com/showpost.php?p=35363252&postcount=184
Je später, desto wahrscheinlicher wird 20nm... aber aktuell würde ich trotzdem nicht mal von 50% Wahrscheinlichkeit ausgehen.
boxleitnerb
2013-08-11, 10:32:36
Jetzt gehts wieder, waren die üblichen Wartungsarbeiten.
http://forums.anandtech.com/showthread.php?p=35252619#post35252619 ff.
Not exactly possible in that order, Curacao is the replacement for Pitcairn and will be ready alongside Hawaii so I don't know where that would leave Tahiti.
Curacao is more real than Tonga or Hainan. It's Pitcairn kicker with boosted memory interface and some other changes.
Tonga and Hainan are both real, I'm not saying they aren't. Curacao is just more immediate and relevant to enthusiasts than either.
fondness
2013-08-11, 10:59:00
Diese GPUs werden dann wohl höchstens für eine gewisse Übergangszeit gebraucht, denn es gibt ja ein top-to-botton Lineup mit VI-GPUs (Vesuvius, Hawaii, Maui, Iceland, Tonga). Alleine schon das zeigt, dass VI für AMD wo auch immer deutliche Vorteile bringen muss, denn sonst könnte man die alten Chips einfach rebranden. Könnte auch sein das die kleinen Chips dann bereits in 20nm kommen. Die vielen Chips könnten natürlich auch darauf hindeuten, dass Hawaii Titan Preise bekommt, dann hat man auch mehr Platz viele GPUs unterzubringen :naughty:
Skysnake
2013-08-11, 11:04:02
;D
Die nächsten Tage werden glaube ich sehr spannend ;D
Duplex
2013-08-11, 11:17:28
Das sind alles nur Spekulationen, 20nm GPUs sind vor mitte 2014 unrealistisch.
Wenn der 20nm Prozess Anfang 2014 für die Massenfertigung tauglich wäre, dann wäre es für AMD sinnvoller auf eine 20nm APU mit 2,5Ghz Takt & DDR4 zu setzten, damit kann man mehr Geld als im GPU Bereich verdienen, vorallem sind die APU Chips deutlich kleiner als High End GPUs, beides basiert sowieso auf den selben Prozess. Der GPU Markt wird bei AMD sowieso immer kleiner, Nvidia schnappt sich immer mehr Anteil, große GPUs bringen AMD nicht viel, AMD muss bei den OEMs wieder überzeugen können. In Intel Notebooks wird meistens nur noch diskrete Karten von Nvidia verbaut, wenn sich das nicht ändert sinkt der Anteil im Markt weiterhin bis der Unterschied sehr groß ausfällt.
Volcanic Islands ist nichts weiteres als ein 28nm Chip, Nvidia hat nicht einfach so ein 2304 Shader Chip als GTX780 vermarktet, AMD wird gleichziehen oder etwas schneller sein, mehr würde ich nicht erwarten!
Gipsel
2013-08-11, 14:38:30
Jetzt gehts wieder, waren die üblichen Wartungsarbeiten.
http://forums.anandtech.com/showthread.php?p=35252619#post35252619 ff.Was soll denn der Kommentar, daß Hainan weniger real wäre als Curacao. Der Chip ist schon eine Weile im Einsatz (http://forum.beyond3d.com/showthread.php?p=1736330#post1736330), und zwar als low end Variante vor allem in Notebooks (HD8500M/8600M-Serie, dort Sun genannt). 5/6 CUs, kein UVD/VCE, 4/8 ROPs/64Bit (52mm²?, unbestätigt, aber ist laut Dave Baumann ein eigener Chip, also kleiner als Mars mit 78mm²) und zumindest in Notebooks keine eigenen Displayausgänge (läuft also per Enduro immer über die der APU/IGP). Aber als diskrete Karte auf dem Desktop wird es vermutlich deswegen nicht vermarktet.
boxleitnerb
2013-08-11, 14:51:26
Das weiß ich alles, er schreibt aber dann doch, dass Hainan eben für die Enthusiasten uninteressant ist. Überlesen? :)
Gipsel
2013-08-11, 15:23:04
Das weiß ich alles, er schreibt aber dann doch, dass Hainan eben für die Enthusiasten uninteressant ist. Überlesen? :)Nein, aber ich interpretiere sein "more immediate" zeitlich (die Übersetzungsversion als "direkt" paßt in dem Satz nicht, weil vor "relevant to enthusiasts" noch ein "and" steht und es nicht adverbial benutzt wird [oder sein Englisch ist einfach schlecht :freak:]), was eben keinen Sinn macht. Für Enthusiasten hat es mal gleich gar keine Relevanz, so viel ist klar.
boxleitnerb
2013-08-11, 15:28:05
Oder er wusste einfach nichts von den frühen Spekulationen um Curacao und Hainan und hat meine Anmerkung diesbezüglich erst nicht so ganz verstanden.
Das sind alles nur Spekulationen
Was erwartest Du den sonst unter:
3DCenter Forum (http://www.forum-3dcenter.org/vbulletin/index.php) > Diskussions-Foren (http://www.forum-3dcenter.org/vbulletin/forumdisplay.php?f=40) > Spekulationen (http://www.forum-3dcenter.org/vbulletin/forumdisplay.php?f=55)
?
20nm ist relativ riskant, aber nicht unmöglich. Selbst 20nm@GF wäre noch im Bereich des Möglichen, wenn alles wie am Schnürchen ohne Probleme klappt.
Unwahrscheinlich ja, aber nicht unmachbar.
Botcruscher
2013-08-11, 15:55:43
Mit einem Blick zurück ist selbst ein normaler Start von neuen Fertigungen bei TSMC riskant bis unmöglich.
Technisch machbar wärs zwar aber ökonomisch sinnvoll ist meiner Meinung nach was anderes. Vorausgesetzt das Ding soll noch '13 kaufbar sein.
OBrian
2013-08-11, 17:39:32
Nun, denkbar wäre, daß der Top-Chip, bei dem es darauf ankommt, daß er bald kommt, in 28 nm erscheint, während die kleineren Chips dann später kommen (1.-2. Quartal) und in 20 nm erscheinen, immerhin sind die dann wegen geringerer Größe leichter zu fertigen. Und dann im Herbst nächsten Jahres kommt die 20 nm Version des fetten Chips.
Geht aber nur, wenn in 28 nm noch ordentlich was rauszuholen ist. Es wäre ja wirtschaftlich bescheuert, wenn man sich anstrengt, einen 28-nm-HighEnd-Chip zu bringen und dessen Performance dann vom nur wenige Monate später erscheinenden 20-nm-Performancechip erreicht wird - und das bei deutlich weniger Abwärme. Dann würde man besser den fetten 28-nm-Chip ganz weglassen.
Nakai
2013-08-12, 00:45:54
Mhh, mitterlweile gibts ja scho Fotos von der Platine, was auf eine Leistungsaufnahme von etwa ~150W hindeutet. Dazu gibts ja noch das Photo mit dem Lineal, was zwischen 20~30 zeigt.
http://beyond3d.com/showpost.php?p=1773105&postcount=207
http://beyond3d.com/showpost.php?p=1773119&postcount=208
So ich leg mal meine Hand ins Feuer:
20nm
20-30% auf Tahiti
150W
Ist es wirklich Hawaii? Vll sehen wir Maui.
Skysnake
2013-08-12, 00:55:43
Link 1 gibts auch schon seit 10.08 auf PCGH ;) http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/AMD-Volcanic-Islands-Angeblich-nur-Topmodelle-mit-neuer-Architektur-mutmassliches-PCB-gesichtet-1082687/
Link 2 muss man sich einloggen, kannst du das Bild hier nicht posten? Oder ist das nur eines von den anderen Bildern?
Wenn nein, poste es bitte hier!
PS:
Im PCGH-Forum habe ich es ja schon geschrieben, wollte mich aber etwas bedeckt halten, aber wenns jetzt hier gepostet wurde, dann gehts sicherlich bald los.
Ich zitier mich mal einfach selbst ausm PCGH:
Leute Ihr seht gar nicht, welchen "Schatz" ihr da womöglich gerade vor euch habt
Ich muss mir das noch mal in Ruhe anschauen, aber wenn ich das richtig sehe, dann dürft ihr euch auf was großes freuen.
Bleibt nur die Frage, ob das Bild auch wirklich von nem PCB der kommenden GPU stammt. Irgendwie habe ich das Gefühl, das uns da mal wieder jemand an der Nase herum führen will, aber wenns wirklich echt ist, dann wirds FETT!!!!
Nakai
2013-08-12, 01:00:12
Bidde schön.;)
Ahja es wurde auch gesagt, dass es kein GTX780-Konkurrent wird. Falls es zutrifft, was Skysnake sagt, kann Hawaii gar nicht mit GTX780/Titan konkurrieren. Ist ein anderes Segment...;D
€: Vll steht das 20 auf dem Lineal auch für was andres?:devil:
€2: Normalerweise wissen wir eh schon immer früher um welchen Prozess sich handelt, jedenfalls ist es eigentlich klar vor einem GPU-Launch. Nur diesmal wird rumgerätselt. Offensichtlich wird die Info ziemlich gut geschützt..., ich habe auch noch keinen angeblichen Leaker sagen hören, dass es nicht 20nm ist...und nochmal :devil:
OBrian
2013-08-12, 02:56:28
Bisher haben wir auch keine offizielle Aussage, daß nicht 14 nm ist. Die 20 auf dem Lineal stehen jedenfalls für die ePenislänge in Inch, die der Bilderposter sich damit verschaffen will.
horn 12
2013-08-12, 07:46:45
@Nakai
Mit was dann wird Hawai konkurrieren können.
Weitaus schneller als GTX 780/ Titan und spielt in einer viel höheren Performanceklasse als jene 2 Karten, welche eben nur circa 5 bis 8% voneinander liegen ?
StefanV
2013-08-12, 08:08:59
Passt nur nicht ganz zur alten Einschätzung 7970GHz +15%.
Und woher kommt die??
Denn was bisher nicht in Betracht gezogen wurde, ist, dass AMD mal ordentlich auf die Kacke haut bzw hauen will.
Denn es gab da vor urzeiten auch mal so einen Chip, bei dem vieles für unmöglich gehalten wurde, der als 'viel zu groß/unrealistisch' abgetan wurde. Und dann kam er doch, der R300 und war lange Zeit King of the Hill...
Was aber auch sehr interessant ist, ist, dass es momentan überhaupt keine Leaks zu der neuen GPU gibt...
Nix, was man auch nur irgendwie trauen könnte. DAS ist eigentlich schon irgendwie interessant und das eigentlich bemerkenswerte, IMO.
Vielleicht könnte man draus schließen, dass die neue GPU eben NICHT bei TMSC gefertigt wird??
Skysnake
2013-08-12, 08:30:10
Och einen "Leak" haben wir doch hier. Die Frage ist halt nur, ob er echt ist.
Aber wenn stimmt, was ich sehe, und ich hab jetzt einige Stunden das von allen Seiten betrachtet, dann werden hier sehr sehr viele sehr große Augen machen ;D
In BF4 wird die Karte so derbe rulen, dass man schon alleine dafür seine NV aus dem Rechner werfen wird. R300 ist übrigens ein guter Vergleich.
AnarchX
2013-08-12, 08:37:32
Mhh, mitterlweile gibts ja scho Fotos von der Platine, was auf eine Leistungsaufnahme von etwa ~150W hindeutet. Dazu gibts ja noch das Photo mit dem Lineal, was zwischen 20~30 zeigt.
http://beyond3d.com/showpost.php?p=1773105&postcount=207
http://beyond3d.com/showpost.php?p=1773119&postcount=208
So ich leg mal meine Hand ins Feuer:
20nm
20-30% auf Tahiti
150W
Ist es wirklich Hawaii? Vll sehen wir Maui.
6+1 Phasen sind sicherlich nicht nur 150W. ;)
Aber 20nm wäre schon eine Überraschung, wenn wohl auch keine positive im Bezug auf die Verfügbarkeit.
Und woher kommt die??
Hatte Ail mal vor langem hier gepostet. Wobei ich jetzt auch noch etwas zu einer 2 Quartals-Verschiebung von ihm zu Curacao gefunden hatte.
Das würde ja passen. Aber um die ~300mm² muss da AMD wohl schon investieren.
M4xw0lf
2013-08-12, 08:45:18
Och einen "Leak" haben wir doch hier. Die Frage ist halt nur, ob er echt ist.
Aber wenn stimmt, was ich sehe, und ich hab jetzt einige Stunden das von allen Seiten betrachtet, dann werden hier sehr sehr viele sehr große Augen machen ;D
Hat es was mit Speicher zu tun? ^^
Das ist ja irgendwie das einzige, was man auf den geleakten Bildchen wirklich sieht, meiner laienhaften Meinung nach.
Skysnake
2013-08-12, 09:01:16
Keine Ahnung, aber neben mir sitzt im Geschäft ein Package-Designer, also quasi das Gleiche wie in PCB-Designer nur in Komplex und schwierig ;D Mit dem rede ich immer mal wieder, was er macht, und er zeigt mir auch hin und wieder einige Sachen. Deswegen sind die Bilder für mich sehr interessant, weil mir eben ein paar Sachen praktisch die Augen auskratzen ;D
Ihr seht es nur nicht. Die Frage ist halt, ob meine Interpretation passt. Ich habe aber starke Argumente dafür, das es manches nicht sein kann/sollte, und es gibt halt nur wenige Alternativen. Das Problem so 100% passen die Alternativen auch nicht, bzw man hat halt dann aus den Bildern dann doch zu wenig Infos um es sicher sagen zu können.
Aktuell sieht es so aus:
A kann es eigentlich nicht sein, weil laut Techdocs das anders sein sollte. Problem, ich weiß nicht, ob es die Variante nicht doch auch gibt... Man sieht hier halt auch entweder ein Röntgenbild, oder das Bild aus einem PCB-Designer. Sprch man sieht wohl innere Lagen, die man normal nicht sieht, und für A kenne ich leider den inneren Aufbau nicht und muss mich auf die TechDocs stützen... Das ist halt schwierig. Ich hätte gern mal ein Röntgenbild eines aktuellen GPU-PCBs gesehen. Dann könnte ich da eine sichere Aussage drüber treffen.
Naja, und dann gibt e noch B und C. B passt schon sehr gut, manche Details wirken aber nicht so ganz stimmig, insgesamt aber viel stimmiger als A. C ist so ne Sache, das würde man eigentlich erwarten, wenn auch überraschend, so wirklich passen tut es aber nicht, wenn man sich die TechDosc dazu anschaut. Wenn man es genau nimmt passt es sogar gar nicht. Die Frage ist halt, ob es eine neue Rev gibt, und wieviel man halt auch einfach nicht sieht auf den Bildern...
Ich glaub eigentlich schon, dass aus nem PCB-Designer raus ist, oder Röntgenbilder aus Produktionszwischenschritten. Es gibt aber auch Stellen, wo es meiner Meinung nach einfach nicht passt. Von nem PCB-Design würde ich ein paar STellen nicht erwarten. Die machen einfach aus dem was man sieht keinen Sinn, aber man sieht halt auch nicht alles, und ich bin auch kein PCB-Designer, sondern kenn nur einige grundsätzliche Designrules durch Gespräche mit jemandem der es halt wirklich macht.
Vielleicht ist es also auch D und die Bilder sind einfach FAKES! bzw von was ganz anderem, aber mir fällt nicht wirklich ein, von was für einem PCB das sonst sein könnte. Das muss schon ein High-End PCB sein. Sonst macht man solche "Ferz" nicht.
boxleitnerb
2013-08-12, 09:11:31
Geht es grad nur um Buchstaben oder um möglichen on-package DRAM mit Interposer (der bei dem gestrichenen Tiran dabei war?)?
Loeschzwerg
2013-08-12, 09:14:26
Also das Bild mit den Ausgängen ist relativ unspektakulär. Am PCIe Bild stören mit Jumper "J7" und "J3". Die beiden würden für ein finales PCB in dieser Anordnung keinen Sinn machen. Klar kann man diese bei der Bestückung weglassen, aber bei keiner der letzten Radeon Karten war sowas ähnliches zu sehen. Wenn ich raten müsste maximal eine Laborkarte und kein finales Design.
Skysnake
2013-08-12, 09:14:42
Who knows who knows ;D
Wie ich schon jetzt weiß, wie gleich die Spekulationen ins Kraut schiesen;D
Und wie die Leute dabei nicht in der Lage sein werden diese auch zu begründen, womits witzlos, da reines Gerate wird :ugly:
Wenn also von irgend einer Seite jetzt was kommen sollte, und die nicht eine klare Begründung liefern, warum Sie das glauben, dann weiß man, dass die einfach keine Ahnung haben und raten... Aber auch ein blindes Huhn findet mal ein Korn.
AnarchX
2013-08-12, 09:18:56
Also das Bild mit den Ausgängen ist relativ unspektakulär.
Sind wohl Displayports?
boxleitnerb
2013-08-12, 09:22:22
Skysnake, was bringt es dir eigentlich, so herumzueiern? Du stehst ja wohl kaum unter NDA, was schadet es also, das was du weißt oder vermutest, zu sagen? Weil sonst wirkt es etwas kindisch und aufmerksamkeitsheischend "ich weiß was, aber ich sags nicht, mimimi".
Entweder sag was Konkretes oder lass es, wir sind ja hier nicht im Kindergarten.
Loeschzwerg
2013-08-12, 09:34:26
Sind wohl Displayports?
Mini DP oder irgendein Comboport HDMI/DP, aber es geht in diese Richtung.
Beim PCIe Bild sieht man links oben noch die Möglichkeit einen QFP zu verlöten... hatten wir schon lange nicht mehr, oder?
Edit: Sieht für mich immer mehr nach Fake, aber kann mich natürlich auch derb täuschen.
StefanV
2013-08-12, 09:53:44
Hatte Ail mal vor langem hier gepostet. Wobei ich jetzt auch noch etwas zu einer 2 Quartals-Verschiebung von ihm zu Curacao gefunden hatte.
Das würde ja passen. Aber um die ~300mm² muss da AMD wohl schon investieren.
Und das bezieht sich auch auf den High End Refresh nicht auf den Mid Range? (Pitcairn Nachfolger)
Weil ich halte es nicht für ausgeschlossen, dass man Tahiti Performance im Preissegment nach unten befördert und damit die von dir angegebene Leistungssteigerung erreicht - bei einem optimierten Design ev. sogar mit geringerem Resourcen Aufwand.
john carmack
2013-08-12, 10:29:45
Angeblich nur Hawaii-Karten mit neuer Architektur
Der Rest soll GCN 1.1 bekommen
http://www.computerbase.de/news/2013-08/angeblich-nur-hawaii-karten-mit-neuer-architektur/
Loeschzwerg
2013-08-12, 10:35:50
Also dieses Bild überzeugt mich auch nicht wirklich...
http://cdn3.wccftech.com/wp-content/uploads/2013/08/Hawaii-PCB-Diagram_3.jpg
So sieht ein komplexes PCb aus!
http://cdn.wccftech.com/wp-content/uploads/2012/02/002287982.jpg
Was immer das ist, es sieht für mich nicht nach Hawaii highend aus.
Skysnake
2013-08-12, 10:35:56
Also das Bild mit den Ausgängen ist relativ unspektakulär. Am PCIe Bild stören mit Jumper "J7" und "J3". Die beiden würden für ein finales PCB in dieser Anordnung keinen Sinn machen. Klar kann man diese bei der Bestückung weglassen, aber bei keiner der letzten Radeon Karten war sowas ähnliches zu sehen. Wenn ich raten müsste maximal eine Laborkarte und kein finales Design.
Du hast den Nagel auf den Kopf getroffen. Das sind DP-Ports, an die habe ich gar nicht gedacht :facepalm:
Mich haben die 2 differenziellen Leitungspaare pro "Chip" angesprungen. Daran, dass die so geringe Biegeradien habe, sieht man, dass das für irgendwas > 1GHz Frequenz ausgelegt ist. Dazu kommt der große Abstand zwischen den Leitungspaaren. Das macht man nicht einfach so aus Spaß. Problem an der SAche sind die Vorbereitungen für die Widerstände, unter denen die Leitungen durch gehen. Das willst du eigentlich nicht haben und spricht gegen Diff-Leitungen im Bereich von ~10GHz. Das Problem ist halt, wie tief sind die Leitungen von den SMDs weg. eventuell ja auf der anderen Platinenseite, dann wärs wieder ok.
Was mich auch noch gestört hat, war die Kontaktleiste aus 10 Kontakten, über die die differenziellen Leitungen drüber gehen. Das sieht "komisch" aus. Ist aber eben wieder die Frage, in welcher Tiefe wo was liegt. So strukturen, also z.B. Groundblade zu "ritzen" macht man bei sehr hohen Frequenzen zur Filterung. Wäre also je nachdem wo das jetzt liegt also vielleicht doch wieder sehr sinnig.
DP-Port erklärt aber alle strukturen. Wobei der DP "nur" 2 statt 4 Links hat, wobei das mit den insgesamt 3 Differenziellen Leitungspaaren auch wieder ganz gut passt. 2x Datalinks und 1xAux bei DP. Also ja, das wirds sein.
Mein Gedankengang war halt folgender:
Ich seh differenzielle Leitungspaare die für klar >1GHz ausgelegt sind. -> Keine Stromleitungen für Spannungsversorgung oder sonstiges für die Steuerung von irgendwas auf der GPU.
Bleiben also nicht mehr viel übrig:
1. Speicher
2. Display, darauf bin ich nicht gekommen...
Bzgl Speicher gabs dann 3 Möglichkeiten
1. GDDR5 (A)
2. XDR2 (B)
3. HMC (C)
gehen wir mal die Technologien durch.
GDDR5 hat keine differenziellen Leitungen, außer den Clocks. Das würde sogar passen, da man insgesamt 3 differenzielle Leitungspaare braucht für die Clocks. gibt die normale und dann 2 Schreibclocks. Das PCB sieht aber absolut nicht nach GDDR5 aus! Die Chips lägen VIEL zu dicht nebeneinander. Da bekommst du die Datenleitungen einfach nicht raus. Zudem fehlt eben das dritte differenzielle Leitungspaar, wobei da eben nicht klar ist, wieviel man sieht. Also ob Röntgenbild eines kompletten PCBs, oder eines halbfertigen, oder ist es das Bild aus einem PCB-Designer mit nur einigen eingeblendeten Lagen?
Ich hab mir dann aber doch die Mühe gemacht und mal die GDDR5 Techdocs von Micron angeschaut, einfach weil das ja nen Knaller wäre, wenn da was anders als GDDR5 verbaut würde.
http://www.hynix.com/datasheet/pdf/graphics/H5GQ1H24AFR%28Rev1.0%29.pdf
Auf Seite 156 sieht man den Pinout des Packages. Wenn man sich die WCKxx anschaut, dann sieht man, dass das nicht zusammen passt. Die differenziellen Leitungen auf dem PCB müssten von den Anschlüssen her um 90° gedreht sein, und die CK passt eben auch nicht rein.
Damit war GDDR5 eigentlich definitiv raus. Das kanns nicht sein.
Dann kam die große Frage, was kanns sonst sein?
Die letzten Jahre gab es immer Gerüchte zu XDR2. Also macht es Sinn sich das mal an zu schauen. Die Indizien legen sowas durchaus nahe. Ich hab auch folgendes Bild in Erinnerung gehabt:
http://winfwiki.wi-fom.de/images/b/b1/Arbeitsspeicher_XDRAM_3.jpg
Da sieht man schön die beiden differenziellen Leitungspaare, die auf der Seite zu den Kontakten raus geführt werden und weit auseinander liegen. Problem hier ist, dass die Größe der Chips nicht so wirklich gepasst hat, und die Chips hier auch dichter zusammen sind. Dafür ist das wohl ein High-End PCB, und Rambus sitzt ja auch nicht rum, die Sache muss sich ja auch weiter entwickeln.
Interessant fand ich auch die 4er Konfiguration. Da gibt es von RAmbus noch dieses Bild:http://www.rambus.com/assets/images/technology/example_granularity_scalability.jpg
Man kann also 4 Chips nehmen. Meine Idee also, eventuell habe ich 4/2 Differenzielle Leitungspaare pro Chip und 4 Chips gekoppelt, was passen würde.
Hier habe ich dann auch nochmal was dazu gefunden, was durchaus Sinn machen würde und eben auch durchaus dazu passt. http://www.rambus.com/assets/documents/products/dl_0161_v0_8.pdf
Hier Seite 10 das Bild beachten.
Dazu noch das hier auf Seite 132 http://www.rambus.com/assets/documents/products/dl_0362_v0_71.pdf
Die Taktraten würden also in dem Bereich passen, den ich aufgrund der Gestalt der differenziellen Leitungen erwarten würde. Etwas >>1 GHz und der 4er Block wieder
So 100% glücklich war ich darüber aber nicht. Immerhin ist XDR2 schon ziemlich alt, und so 100% passen tuts nicht. Mich haben sowohl die SMDs als auch die "Streifen" am Ansatz der differenziellen Leitungen gestört. Zudem wurde schon so oft von XDR bei AMD gesprochen, das ich allein deswegen nicht so recht dran glauben wollte.
Also hab ich mir überlegt, was sonst noch ansteht. Und da gibt es eben nur noch HMC. Die HMC specs sind raus, und es ist eine neue Technologie, die man auch als Ablöser von GDDR5 erwarten sollte Problem hierbei ist, dass die Specs eben erst ganz frisch raus sind, und es schon ein SEHR großer Knaller wäre. Ein Knaller, der eigentlich zu groß wäre. So mutig war AMD schon lange nicht mehr, aber das akutelle AMD ist auch ein anderes als die letzten Jahre... AMD ist allerdings nicht Mitglied des HMC Konsortiums...
Also hab ich mir mal die Specs angeschaut: http://hybridmemorycube.org/files/SiteDownloads/HMC_Specification%201_0.pdf
S95 werden die differenziellen Leitungen angesprochen
S106/107 zeigen ein package.
Das "Problem" hier ist, man hat viele Freiheiten bei HMC. Es wäre also durchaus möglich, das man für eine erste Serie erstmal nur einen Link nimmt, und den auch etws schmäler anbindet, dafür aber eben mehr. Chips nimmt.
Das macht einen die Verwaltung auf dem HMC an sich womöglich einfacher, bis man das besser im Griff hat. Je nachdem wird der Logiclayer auch deutlich einfacher zu fertigen. Quasi eine "Sparversion" von HMC.
So wirklich glücklich war ich darüber aber auch nciht, weil mir die package Größe auf den Bildern zu klein erschien für HMC, und es eben schon ein gewaltiger Kracher wäre für AMD, wenn die mit einem HMC Derivat daherkommen würden. Es würde aber die Verspätung erklären. Zudem macht AMD ja durchaus selbst HMC Entwicklungen, bzw hat schon Sachen gezeigt, die ähnlich dem shortrange HMC sind, wobei man den Logiclayer halt weg lässt. Ist für AMD aber nicht unbedingt ein Nachteil, weil einfacher zu fertigen, und für Sie kein Problem es in ihre GPU direkt rein zu packen.
Also JA, es wäre durchaus möglich.
Da ich aber von beidem nicht so richtig überzeugt war, mir kam das einfach spanisch vor, hab ich rumgedruckst ;D Und es hat sich ja gezeigt, dass das auch so richtig war! Mit DP-Port hab ich da jetzt kein schlechtes Gefühl, auch wenns nicht 100% passt, siehts schon verdammt gut aus. Dazu noch ein Bild:
http://cdn.wccftech.com/wp-content/uploads/2012/02/002287983.jpg
Ich hab einfach gehofft, das jemand auf den Köder anspringt, und mir vielleicht noch was anspricht, was ich übersehen habe, aber gleichzeitig eben nicht an HMC/XDR2 denkt, bzw kein Nerv hat sich durch die Doku zu quälen, was ich ja schon gemacht habe. ;)
Aber ist doch schön, wie man eben nicht immer nur grundlos spekulieren muss, sondern wirklich anhand von Argumenten nachvollziehen kann, warum etwas sein kann, oder eben nicht! Und DP-Port würde ich zu 99% sagen stimmt in dem Fall.
Für die Zukunft weiß ich jetzt auf jeden Fall wie nen DP-Port-Anschluss auf dem PCB aussieht mit seinen differenziellen Leitungen ;)
EDIT:
@Loeschzwerg:
Ja, so sieht ein PCB aus im Bereich des Pin-Fanouts. Das ist aber nichts was du wirklich haben willst. Zudem muss man davon ausgehen, dass das Bild aus nem PCB-Designer stammt, und da blendet man meist die SAchen aus, sonst verliert man den Überblick. Und differenzielle Leitungen, die du mit >>1GHz, eventuell sogar mit 10GHz treiben willst legst du "luftiger" wenn nur irgend möglich.
AnarchX
2013-08-12, 10:43:07
Also dieses Bild überzeugt mich auch nicht wirklich...
http://cdn3.wccftech.com/wp-content/uploads/2013/08/Hawaii-PCB-Diagram_3.jpg
So sieht ein komplexes PCb aus!
http://cdn.wccftech.com/wp-content/uploads/2012/02/002287982.jpg
Was immer das ist, es sieht für mich nicht nach Hawaii highend aus.
Wer zählt die Speicherkanäle? :D
Vielleicht nur ein 256-Bit Curacao? Und die 20cm sind die PCB-Länge...
Loeschzwerg
2013-08-12, 10:53:54
EDIT:
@Loeschzwerg:
Ja, so sieht ein PCB aus im Bereich des Pin-Fanouts. Das ist aber nichts was du wirklich haben willst. Zudem muss man davon ausgehen, dass das Bild aus nem PCB-Designer stammt, und da blendet man meist die SAchen aus, sonst verliert man den Überblick. Und differenzielle Leitungen, die du mit >>1GHz, eventuell sogar mit 10GHz treiben willst legst du "luftiger" wenn nur irgend möglich.
Jup, so schauts aus. Der Pin-Escape sieht mir aber generell ziemlich asbach aus... keine Ahnung was das sein soll, aber sicher nicht GCN2.0 highend.
Edit:
@AnarchX: Möglich. Nach mehr als 8 Layern sehen die Bilder zumindest nicht aus.
john carmack
2013-08-12, 10:54:41
CB: "Demnach soll dieses auf ein PCB mit einem 6+1-Phasendesign setzen. Die Radeon HD 7970 weist dagegen nur ein 5+1-Phasendesign auf, was auf eine höhere Leistungsaufnahme der neuen Serie schließen lässt."
Würde ja zu den Vermutungen passen das das PCB der Hawaii Karte mehr Layer als "normal" hat... :)
Skysnake
2013-08-12, 11:00:51
Scheint ein 24x25 Pin Package zu sein. +/-1 je Kante-
Also etwas um die 600 Pins. Das spricht für maximal 256 Bit Interface.
boxleitnerb
2013-08-12, 11:01:48
Wo genau kommt das Bild mit dem ganzen PCB her? Gibts da einen Link zu einer News/Artikel dazu?
Loeschzwerg
2013-08-12, 11:02:17
@john: Muss nicht, denke 10 Layer würden schon noch ausreichen. Als etwas Hintergrundinfo: Die HD7970 Vapor X hat ein 8+1 Design und setzt auf ein 12 Layer PCB. Das Ding ist aber auf extreme Leistungsaufnahme ausgelegt (Stichwort OC) und nicht nur normale Last.
@boxleitnerb: War nur als Beispiel gedacht, ist glaub eine Custom HD7950. Also ist kein Hawaii ;) Edit: http://wccftech.com/nonreference-radeon-hd7950-pcb-exposed-features-mini-display-ports-6-screen-eyefinity-display/
@Skysnake: Ja, auf so eine Zahl bin ich auch gekommen. Maximal 26x26. Wie gesagt, highend ist etwas anderes.
Skysnake
2013-08-12, 11:08:32
Jup, so schauts aus. Der Pin-Escape sieht mir aber generell ziemlich asbach aus... keine Ahnung was das sein soll, aber sicher nicht GCN2.0 highend.
Mit solchen High-Speed differenziellen Leitungen gehst du schon ganz anders um, und man sieht halt nicht, wieviel da ausgeblendet sein könnte.
Durch die symmetrische STruktur drunter ohne Wires konnte man ja annehmen, das pro Chip min 4 diff-Leitungspaare da sind, eventuell 6/8. Das ist schon nicht wenig, wenn du eventuell in die Richtung von 10GHz gehen willst. Das ist schon was komplett anderes.
Jetzt wo wir wissen, das es DP-Port ist, wissen wir ja auch, das es wirklich nur die 2/4 Leitungen sind (ohne AUX). Die sind ziemlich lang, aber laufen auch "nur" mit 2,47 GHz oder so, und schau dir mal an, wie "luftig" die liegen.
Man muss halt eine "lange" Strecke zurücklegen. Da sieht das dann etwas "oldschool" aus, wobei alles was Runde Wires hat darauf hindeutet, das man da extreme Frequenzen im Bereich >>1GHz anpeilt auf "lange" Strecken, oder eben auf kurzen auch durchaus was in Richtung 10GHz+.
Das Bild war halt auch SAU blöd abgeschnitten... Wenn da direkt der DIE gekommen wäre, hätte man schon von 5-10 GHz Leitungen eventuell ausgehen können, und das wäre ein starkes Argument für XDR2/HMC. Aber gut, "hätte hätte Fahrradkette" ;D Ist so nicht.
Edit:
@AnarchX: Möglich. Nach mehr als 8 Layern sehen die Bilder zumindest nicht aus.
Würde ich mir nicht anmaßen was drüber zu zusagen. Man weiß ja nicht, was alles ausgeblendet ist im PCB-Designer.
Mhh, mitterlweile gibts ja scho Fotos von der Platine,
Jein, ne Platine ist das nicht, sieht eher nach dem Platinen-CAD-Layout aus, unten ist ja auch ein Mauszeiger.
Was dafür spricht: Die Pläne könnte es ja wirklich schon gegeben.
Dagegen: Was soll dann im Karton sein? Passt irgendwie nicht.
Edit: Oops, viel zu spät ^^
Loeschzwerg
2013-08-12, 11:19:16
@sky: Oldschool triffts ganz gut, aber da kannst du natürlich recht haben mit den Leitungspaaren.
Du meinst die haben das Bild künstlich auf Graustufen umgestellt? Ich kenne die PCB Designer halt immer quietschbunt und gehe daher von irgendwelchen Scans aus ^^
So z.B.:
http://img.inpai.com.cn/article/2010/10/29/deb4482a-2fbf-40ba-932e-51157f901d6a.jpg
Hier wurde alles ausgeblendet bis auf die Kontaktstellen und die Dimension/Refrence/Document Layer.
Naja, warten wir mal ab was sonst noch aus der Gerüchteküche kommt.
Skysnake
2013-08-12, 11:19:53
Ich bin mir bzgl PCB-Designer eher unsicher. Zumindest die Tools, die ich kenne sehen anders aus, und würden das auch "anders" darstellen. Das passt einfach nicht so richtig zu nem PCB-Designer.
Für mich sieht das eher nach nem Röntgenbild aus der Produktionskontrolle aus.
In BF4 wird die Karte so derbe rulen, dass man schon alleine dafür seine NV aus dem Rechner werfen wird. R300 ist übrigens ein guter Vergleich.
Wo genau sieht man das? :freak:
MfG.
Raff
M4xw0lf
2013-08-12, 11:29:19
Wo genau sieht man das? :freak:
MfG.
Raff
In V2.0's Kristrollkugel TM. ;)
Ah, schade. Und ich dachte, man könnte wenigstens ein paar erfundene Zahlen irgendeiner China-Weberseite begutachten.
MfG,
Raff
Wo genau sieht man das? :freak:
MfG.
Raff
In dem BF Material, dass da mit der Karte gezeigt wird. Wobei ich sicher sagen kann, dass BF4 Werbeargument für AMD sein wird. (ob das so ausgeht wie sie hoffen ist ne andere Sache - NV wird BF4 auch nicht gerade unoptimiert launchen lassen)
Skysnake
2013-08-12, 12:08:15
Vielleicht "cheaten" Sie ja mit DX11.2 und reduzierter Auflösung für GUI usw.
Würde sich zumindest anbieten, und MS würde es auch freuen, da nur mit Win8 möglich... :down:
Könnte aber sehr lustig werden, wenn die so was in BF4 wirklich reingedrückt hätten. Für den Shitstorm könnte man sich ne Jahrespackung Popcorn besorgen.
Iruwen
2013-08-12, 12:17:03
Ich weiß schon warum ich BF4 diesmal nicht preordered hab :D
Skysnake
2013-08-12, 12:21:48
Also ich wünsch mir ja fast, das AMD mit Game Evolved so was bei BF4 bewirkt hat.
Der Shitstorm und FanboyKrieg der AMD und nVidia Jünger wäre ein episches Erlebnis ;D
Stell dir mal vor, die GTX Titan hinkt hinter ner HD7970 um 5% hinterher wegen so was ;D OMFG das würde Mord und Totschlag geben, vor allem weils nur unter Win8 gehen würde :biggrin:
Das wäre SOO episch. So viel Popcorn gibts garnicht wie man da fressen könnte ;D
dargo
2013-08-12, 12:24:47
In V2.0's Kristrollkugel TM. ;)
;D
Wobei ich gegen eine neue Karte mit mindestens +80% gegenüber der normalen HD7970 zum vernünftigen Preis nichts hätte. :tongue: Ich werde aber sicherlich enttäuscht sein.
Also ich wünsch mir ja fast, das AMD mit Game Evolved so was bei BF4 bewirkt hat.
Der Shitstorm und FanboyKrieg der AMD und nVidia Jünger wäre ein episches Erlebnis ;D
Stell dir mal vor, die GTX Titan hinkt hinter ner HD7970 um 5% hinterher wegen so was ;D OMFG das würde Mord und Totschlag geben, vor allem weils nur unter Win8 gehen würde :biggrin:
Das wäre SOO episch. So viel Popcorn gibts garnicht wie man da fressen könnte ;D
*ggg*
Aber jetzt mal Butter bei der Fische. Normalerweise sollte die Last bei der GPU dank DX11.1 höher sein da die CPU entlastet wird. Ergo müssten die fps auf GPU-Seite etwas fallen. Dafür dann halt im CPU-Limit steigen. Oder habe ich da was falsch verstanden? Ich meine aus der Luft kann die CPU-Entlastung ja schlecht kommen. :D
john carmack
2013-08-12, 12:29:49
Also ich wünsch mir ja fast, das AMD mit Game Evolved so was bei BF4 bewirkt hat.
Der Shitstorm und FanboyKrieg der AMD und nVidia Jünger wäre ein episches Erlebnis ;D
Stell dir mal vor, die GTX Titan hinkt hinter ner HD7970 um 5% hinterher wegen so was ;D OMFG das würde Mord und Totschlag geben, vor allem weils nur unter Win8 gehen würde :biggrin:
Das wäre SOO episch. So viel Popcorn gibts garnicht wie man da fressen könnte ;D
HAHA geil!! ;D
diese Win8 geschichte wäre schon böse.
Ich wünsche mir eigentlich nur das: Das AMD uns nicht enttäuscht und einen Papiertiger präsentiert - oder eine 28nm GPU mit ca. 20-30% mehr Leistung
Irgendetwas in Richtung +40-70% mehr Power wären schon TOP! Und das was ich will :D
Duplex
2013-08-12, 12:31:04
Irgendetwas in Richtung +40-70% mehr Power wären schon TOP! Und das was ich will :D
Aber nicht in 28nm.
Hat schon ein Grund warum Nvidia die GTX780 mit 2304 Shader vermarktet hat, AMD wird gleichziehen oder etwas schneller sein.
mironicus
2013-08-12, 12:32:31
Stell dir mal vor, die GTX Titan hinkt hinter ner HD7970 um 5% hinterher wegen so was ;D OMFG das würde Mord und Totschlag geben, vor allem weils nur unter Win8 gehen würde :biggrin:
Also ich erwarte von AMD das BF4 von Anfang rund laufen wird und nicht erst nach einem Jahr, wo sie dank Treiberupdates NVidia in BF3 klar schlagen konnten.
Realistisch wäre für mich, dass die 7970 die GTX 780 knapp in den ersten Benchmarks schlägt und die neueste GPU von AMD die Titan um 20-25% hinter sich lässt (und nur 500 Euro kostet). :D
Ich bin auf das Win 8-Szenario bereits vorbereitet, ich habe es mir vor kurzem erst installiert. Und dank diverser Tools sieht es genau so aus wie Windows 7. :freak:
Duplex
2013-08-12, 12:34:26
Ich warte dann auf den BigBang Kepler Treiber :D
dargo
2013-08-12, 12:34:56
Aber nicht in 28nm.
Wir hoffen ja noch auf 20nm. :D
Allerdings... wenn ich an die Startschwierigkeiten von 28nm zurückdenke wird mich der Preis einer 20nm AMD-Graka im negativen Sinne umhauen. :freak: Auch wenn die Leistung passen sollte.
Hat schon ein Grund warum Nvidia die GTX780 mit 2304 Shader vermarktet hat, AMD wird gleichziehen oder etwas schneller sein.
Ich sehe die 780 eher als Resteverwertung die nicht als Titan durchgehen.
Skysnake
2013-08-12, 12:38:17
Ich würde auf 20nm nicht "hoffen".
Ist meiner Meinung nach auch völlig unnötig. 28nm läuft, ist billig und kalkulierbar. Zudem hat man mehr als genug Luft hoch bis ~550mm². Bei 20nm hab ich Risiken am laufenden Band, und kann auch nur maximal mit irgendwas um 300-400mm² rechnen.
Wobei ich am Anfang eher mit weniger rechnen würde, und dann hat man wieder das Problem, das man kein 384Bit Interface unter bekommt, und man dann am SI nuckelt -.-
AMD soll ein solides 28nm Produkt bringen, welches eben nach langer Zeit mal wieder mit der DIE-Size an die Grenze geht und gut ist.
Duplex
2013-08-12, 12:39:49
@dargo
Man hätte sich Titan erstmal sparen können und die GTX780 von Anfang an mit 2688 Shader bringen können, bis genügend Chips gesammelt werden anschließend Vollausbau als Titan, für mich heißt das klar Nvidia erwartet nicht viel von AMD.
dargo
2013-08-12, 12:46:59
@dargo
Man hätte sich Titan erstmal sparen können und die GTX780 von Anfang an mit 2688 Shader bringen können, bis genügend Chips gesammelt werden anschließend Vollausbau als Titan, für mich heißt das klar Nvidia erwartet nicht viel von AMD.
Sehe ich völlig anders.
Die 780 gibts nur weil NV die GPUs, die nicht als Titan durchgehen nicht in den Müll werfen will. Warum auch wenn sich damit Geld verdienen lässt? Nichts anderes macht man mit anderen GPUs wie bsw. GTX680-->670 oder HD7970-->7950 auch. Man skaliert runter. Sowas nenne ich Kostenoptimierung.
Kriton
2013-08-12, 13:09:09
Vielleicht "cheaten" Sie ja mit DX11.2 und reduzierter Auflösung für GUI usw.
Eine offiziell durch DX vorgesehene Möglichkeit als cheaten zu bezeichnen... zumal das immer noch eine Entscheidung der Spieleentwickler wäre (auch in gaming evolved). :freak:
Durch die Annahme, dass das DPs sind hat sich Deine Mutmaßung erledigt, dass da was ganz tolles kommt?
Skysnake
2013-08-12, 13:26:03
Deswegen habe ich ja auch "cheaten" gesagt. An sich ist es das natürlich nicht,sondern nur ein intelligentes Ausnutzen von Features, aber du kannst einen drauf lassen, dass die nVidia-Jünger es genau! als das bezeichnen würden. Als elendiges gecheate und Betrug!!!!1111einseinsdrölf
Zumindest so lange nVidia nicht das gleiche Featurelvl hat, bzw anderweitig das Feature nutzen kann ;D
@"da kommt was tolles"
Ja, das hat sich damit erledigt.
XDR2 oder auch HMC statt GDDR5 hätte halt die Powerconsumption für das SI gedrückt, und damit mehr "Luft" für höher getaktete ALUs geschaffen. Wir sind bei GPUs einfach Power-limited. Alles was den Verbrauch senkt, steigert die absolute Performance.
john carmack
2013-08-12, 15:11:02
XDR2 oder auch HMC statt GDDR5 hätte halt die Powerconsumption für das SI gedrückt, und damit mehr "Luft" für höher getaktete ALUs geschaffen. Wir sind bei GPUs einfach Power-limited. Alles was den Verbrauch senkt, steigert die absolute Performance.
http://www.hpcwire.com/hpcwire/2013-01-17/micron_readies_hybrid_memory_cube_for_debut.html
"...the Hybrid Memory Cube will be in full production at the end of this year or early 2014. In fact, contracts are already in place for the 2014 timeframe."
Wird also nicht mehr lange dauern bis HMC´s Serienreif sein werden.
Wohl aber am Anfang nur für das Professional HighEnd Segment...
fondness
2013-08-12, 16:18:47
AMD Hawaii will be priced below US $600 (http://www.fudzilla.com/home/item/32199-amd-hawaii-will-be-priced-below-us-$600)
Unfortunately, the precise price is still not carved in stone but the general idea is to launch it at below US $600 so current best guess is that AMD might go for either US $599, $549 or even something in between.
M4xw0lf
2013-08-12, 16:25:08
AMD Hawaii will be priced below US $600 (http://www.fudzilla.com/home/item/32199-amd-hawaii-will-be-priced-below-us-$600)
Um mich glücklich zu machen, sollte da below 500$ (ok, seien wir ehrlich: below 400$) stehen :freak:
Ronny145
2013-08-12, 16:27:12
Das sind GTX780 Preise. Dann hoffe ich auf Titan Leistung. Bei einer GTX780 ähnlichen Leistung würde sich sonst Nvidia nicht genötigt fühlen, die Preise runterzusetzen.
john carmack
2013-08-12, 16:34:08
20nm :D
aufkrawall
2013-08-12, 16:35:01
Gibts irgendein Indiz, das für 20nm bei großen Chips spricht, außer Wunschdenken?
dargo
2013-08-12, 16:37:30
Wie hoch ist eigentlich die UVP von HD7970GE momentan?
john carmack
2013-08-12, 16:40:08
Wie hoch ist eigentlich die UVP von HD7970GE momentan?
Im Dez. 2011 bei 549$ bzw. 499€ (non Ghz Edition)
Die Ghz Edition bei 499$ im Juni 2012
fondness
2013-08-12, 16:44:13
Das sind GTX780 Preise. Dann hoffe ich auf Titan Leistung. Bei einer GTX780 ähnlichen Leistung würde sich sonst Nvidia nicht genötigt fühlen, die Preise runterzusetzen.
Der Preis sagt leider so gut wie gar nichts über die Leistung. Da auch bereits ein Gemini in den Treibern aufgetaucht ist, und diese wohl bei $999 positioniert wird, war es fast klar das Single-Chip irgendwo bei $600 liegt. Die Frage ist nur ob man damit gerade mal GTX780-Leistung erreicht oder das P/L-Niveau von NV killt.
dargo
2013-08-12, 16:51:14
Im Dez. 2011 bei 549$ bzw. 499€ (non Ghz Edition)
Die Ghz Edition bei 499$ im Juni 2012
Nicht früher... jetzt. Das dürften eher 399-449$ sein oder?
mironicus
2013-08-12, 16:53:41
Und? Was meint ihr wie viel Speicher die Karte haben wird? 4, 6 oder 8 GB?
boxleitnerb
2013-08-12, 16:57:05
3 bei 28nm, 4 bei 20nm (512-bit).
aufkrawall
2013-08-12, 16:59:14
3 bei 28nm, 4 bei 20nm (512-bit).
Nur 3? Das wäre ja kein Fortschritt gegenüber ihrem vorhanden Portfolio.
Ob das aus ihrer Position heraus klug wäre?
Würde eher zu nein tendieren.
boxleitnerb
2013-08-12, 17:03:37
Die 6 GB bei Titan finde ich unnötig, machen die Karten nur teuer. Ganz ausschließen würde ich es nicht, aber finde es eher unwahrscheinlich. Partnermodelle mit 6 GB für CF, ja das schon.
aufkrawall
2013-08-12, 17:05:06
GDDR5-Speicher sollte doch mittlerweile nicht mehr viel kosten, auch im Hinblick auf den massenhaften Einsatz in der PS4.
Bei NI hatten sie ja auch den VRAM verdoppelt und 2GB waren zu der Zeit recht viel. Und der Refresh hatte ja nicht so lange auf sich warten lassen.
boxleitnerb
2013-08-12, 17:06:25
Da sind nur 5.5 Gbps Chips verbaut. 6-7 Gbps ist sicher nicht so günstig.
aufkrawall
2013-08-12, 17:10:23
Bei den Karten dürfte aber wiederrum auch die Marge deutlich höher ausfallen, was dafür Raum ließe. Bisher war ja mehr VRAM auch ein Argument für die Radeons. Ich kann mir aufgrund der Marktverluste nur schwer vorstellen, dass sie das aufgeben wollten. Wäre zumindest imho nicht klug.
AnarchX
2013-08-12, 17:13:27
Für $549-599 würde ich auch nicht unbedingt 6GiB erwarten, eher wird man auf mehr Bandbreite mit 7Gbps setzen. Vielleicht zwei Varianten zum Start, mittelfristig kann man da eine doppelseitige Bestückung auf einseitig mit den 4Gbit Chips umstellen.
Aber vielleicht kommen doch die 512-Bit/4GiB/7Gbps, die man dann auf 512GB/s übertakten kann. :D
dargo
2013-08-12, 17:15:02
Und? Was meint ihr wie viel Speicher die Karte haben wird? 4, 6 oder 8 GB?
Solange man nichts über das SI weiß schwer zu sagen. Bei 384Bit könnte ich mir 3 und 6GB vorstellen. Bei 512Bit 4GB. 8GB wäre imho Verschwendung.
horn 12
2013-08-12, 17:19:30
Nun, recht wahrscheinlich also 20 um Verfahren und zumindest Titan Leistung, vielleicht auch gar nur die HD9950-er Karte und der grosse Bruder setzt noch einen oben drauf.
fondness
2013-08-12, 17:25:29
IMO ist alles außer 3GB bei den Referenzkarten unwahrscheinlich. 6GB kann man bei einer $1000 Prestigekarte verbauen, messbare Vorteile bringt das wohl nirgends. Ein 512bit SI und damit 4/8Gb ist auch kaum realistisch IMO. Ansonsten können die Partner eh 6GB Karten bringen für irgend welche Extremkonfigurationen, da 4Gbit Chips bald verfügbar sein sollten, braucht es dafür nicht mal ein anderes PCB.
Duplex
2013-08-12, 17:29:25
Hört doch endlich auf mit dem 20nm unsinn, dann wäre die Karte 30-40% schneller als Titan.
Man wird mit der 780GTX gleichziehen oder etwas schneller sein.
Viel interessanter sind doch mögliche neue Features, HQ BQ auf Nvidia Niveau, DS im Treiber usw.
AnarchX
2013-08-12, 17:30:18
Der Aufpreis für zusätzliche 3GiB 7Gbps sollte doch ein gutes Stück unter 100€ liegen, wenn man sich die 770er anschaut.
Insofern die Hawaii Dies bis zum Jahresende knapp werden, könnte das wohl der ein oder andere Hersteller machen und dann wohl 200€ Aufpreis verlangen. ;D
dargo
2013-08-12, 17:33:40
6GB kann man bei einer $1000 Prestigekarte verbauen...
Naja... hier gehts ja auch ohne 1000$:
http://geizhals.at/de/sapphire-vapor-x-radeon-hd-7970-ghz-edition-11197-05-40g-a830128.html
http://geizhals.at/de/xfx-radeon-hd-7990-xt2-fx-799a-xnf9-a937129.html
Also wenn die HD7990 bereits auf 599$ gerutscht ist würde ich leistungsmäßig was großes erwarten. Jetzt bin ich selbst neugierig auf die Karte(n). Nur Titan/780 Leistung kann es wohl kaum sein.
Duplex
2013-08-12, 17:34:19
Man wird weiterhin Flächenvorteile gegenüber GK110 haben, also kann man auch bessere Speicher Chips als bei Tahiti XT verbauen.
dargo
2013-08-12, 17:37:46
Hört doch endlich auf mit dem 20nm unsinn, dann wäre die Karte 30-40% schneller als Titan.
Und wo wäre jetzt das Problem? Darf AMD nicht schneller als NV sein? :rolleyes:
Viel interessanter sind doch mögliche neue Features, HQ BQ auf Nvidia Niveau, DS im Treiber usw.
Der Witz dabei ist, dass NV erstmal bei den API-Features aufholen muss. :P Und was hat bitte schön DS im Treiber damit zu tun? Dafür braucht man keine neue GPU. Reine Softwaresache.
Duplex
2013-08-12, 17:39:59
Und wo wäre jetzt das Problem? Darf AMD nicht schneller als NV sein? :rolleyes:
Der Preis!
Wie gesagt 20nm ist wunschdenken, für Anfang 2014 ist im APU Sektor ein 28nm Refresh geplant, wenn 20nm massentauglich wäre, dann würde man kein 28nm Refresh planen.
AnarchX
2013-08-12, 17:41:33
Also wenn die HD7990 bereits auf 599$ gerutscht ist würde ich leistungsmäßig was großes erwarten. Jetzt bin ich selbst neugierig auf die Karte(n). Nur Titan/780 Leistung kann es wohl kaum sein.
In USD kostet die 7990 ~$699.
Hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9872577#post9872577)gab es schon eine interessante Andeutung. In Compute könnte wohl der Sieg deutlich ausfallen, während bei 3D man wohl immernoch nicht den Gral zur verbesserten Front-End-Aufteilung gefunden hat.
dargo
2013-08-12, 17:44:32
Der Preis!
Schon bemerkt, dass AMD in der Lage ist eine HD7990 (zwei GPUs!) für 599$ € anzubieten? Die Preise von NV bei GK110 sind nur Wucher. Das heißt noch lange nicht, dass AMD die Kunden auch so abziehen will. Ich hoffe bloß, dass das auf Dauer für NV nach hinten los geht.
In USD kostet die 7990 ~$699.
Sorry... mein Fehler. Das ändert die Situation natürlich etwas.
Duplex
2013-08-12, 17:47:53
Schon bemerkt, dass AMD in der Lage ist eine HD7990 (zwei GPUs!) für 599$ anzubieten? Die Preise von NV bei GK110 sind nur Wucher. Das heißt noch lange nicht, dass AMD die Kunden auch so abziehen will. Ich hoffe bloß, dass das auf Dauer für NV nach hinten los geht.
Das ist ein Abverkauf weil man bestimmt eine Dual Karte auf "2x Hawaii" Basis plant.
Du bist zu optimistisch!
boxleitnerb
2013-08-12, 17:49:48
Naja in der Lage sein und es auch zu wollen, sind zwei paar Schuhe. Die 7990 würde für mehr Geld auch kaum jemand kaufen, deshalb wurde der Preis gesenkt. Der Karte lastet einfach zuviel Negatives an durch die Verspätung, den Verbrauch und den verkorksten Launch. Das ist also definitiv kein Maßstab für die GK110-Preise. $550 für die schnellste Karte (SGPU) geht völlig in Ordnung.
Effizienter als Pitcairn (30+% perf/W), ähnliche Spannungen und Taktraten wie Tahiti XT(2)?
http://forums.anandtech.com/showthread.php?p=35367761#post35367761
dargo
2013-08-12, 17:53:04
Naja in der Lage sein und es auch zu wollen, sind zwei paar Schuhe. Die 7990 würde für mehr Geld auch kaum jemand kaufen, deshalb wurde der Preis gesenkt. Der Karte lastet einfach zuviel Negatives an durch die Verspätung, den Verbrauch und den verkorksten Launch. Das ist also definitiv kein Maßstab für die GK110-Preise.
Die Preise der GTX690 sind genauso ein Witz wenn bereits eine GTX670 für knapp über 200€ zu haben ist.
Duplex
2013-08-12, 17:56:09
Ich hoffe bloß, dass das auf Dauer für NV nach hinten los geht.
Träum weiter!
Die Preise der GTX690 sind genauso ein Witz wenn bereits eine GTX670 für knapp über 200€ zu haben ist.
Die 670 hat Anfangs 350 € gekostet, du suchst dir immer nur das raus was du sehen willst. Ein Typischer AMD Jünger...
boxleitnerb
2013-08-12, 18:01:25
Die Preise der GTX690 sind genauso ein Witz wenn bereits eine GTX670 für knapp über 200€ zu haben ist.
Inzwischen ja, das hat sich nicht angepasst. Allerdings vergisst du, dass der Ausgangspunkt für die Karte die GTX 680 ist und den üblichen überproportionellen Aufschlag für das schnellste Produkt. 2x GTX680-Preis wäre angemessen, also in etwa 650-700 Euro.
StefanV
2013-08-12, 18:06:53
CB: "Demnach soll dieses auf ein PCB mit einem 6+1-Phasendesign setzen. Die Radeon HD 7970 weist dagegen nur ein 5+1-Phasendesign auf, was auf eine höhere Leistungsaufnahme der neuen Serie schließen lässt."
Würde ja zu den Vermutungen passen das das PCB der Hawaii Karte mehr Layer als "normal" hat... :)
Bullshit.
Man kann einfach nicht von der Anzahl der Phasen auf eine Belastbarkeit schließen.
Die Frage ist doch, warum man mehr Phasen nimmt. Das kann man für mehr Leistungsaufnahme machen, muss man aber nicht.
Die Frage ist doch, warum man mehr Phasen nimmt. Das kann man für mehr Leistungsaufnahme machen, muss man aber nicht.
Aggressiverer Turbo bzw Boost? Extra für die Balkenjunkies.
dargo
2013-08-12, 18:17:01
Ein Typischer AMD Jünger...
Lass diesen Kindergarten stecken. Ich hatte vor der HD7970 nur NVs nach einer X800XL. :ufinger:
Inzwischen ja, das hat sich nicht angepasst. Allerdings vergisst du, dass der Ausgangspunkt für die Karte die GTX 680 ist und den üblichen überproportionellen Aufschlag für das schnellste Produkt. 2x GTX680-Preis wäre angemessen, also in etwa 650-700 Euro.
Nein... vergesse ich nicht. Das kann dem Kunden aber völlig egal sein. Zudem sollte man nicht vergessen, dass eine GTX680 mit 1006Mhz taktet. Je eine GPU bei der GTX690 mit nur 915Mhz. Eine GPU der GTX690 entspricht im Prinzip dem hier:
http://geizhals.at/de/asus-gtx670-dc2og-2gd5-directcu-ii-oc-90-c1cs32-s0uay0bz-a858161.html
http://geizhals.at/de/msi-n670gtx-pe2gd5-oc-v284-020r-a798737.html
Über die +/-5% brauchen wir nicht diskutieren.
Nakai
2013-08-12, 18:34:07
Effizienter als Pitcairn (30+% perf/W), ähnliche Spannungen und Taktraten wie Tahiti XT(2)?
http://forums.anandtech.com/showthread.php?p=35367761#post35367761
+30% Perft/W ist in etwas das was der 20nm-Prozess von TSMC bringt.
TSMC's 20nm process technology can provide 30 percent higher speed, 1.9 times the density, or 25 percent less power than its 28nm technology.
http://www.tsmc.com/english/dedicatedFoundry/technology/20nm.htm
Natürlich ist das auch durch andere Sachen möglich.
http://s14.directupload.net/images/130812/zm6cjbtn.jpg
Ich habs mal angemalt. Das Rote ist ungefähr die Form des Packages, jedenfalls sieht es so aus. Das Grüne könnten die Plätze für den RAM sein. Aber wieso sind da soviele verschiedene bzw. alle auf einem Haufen? Oder ist das ein Röntgenbild der Platine ohne Chips? ;D
LSSJBroly
2013-08-12, 19:01:32
Zudem sollte man nicht vergessen, dass eine GTX680 mit 1006Mhz taktet. Je eine GPU bei der GTX690 mit nur 915Mhz.
Du vergisst den Boost;) In der Praxis taktet eine GTX 690 nur ungleich niedriger als eine 680 (rund ~1040MHz gegenüber 1080MHz);) Nicht umsonst ist eine 690 immer so schnell wie ein GTX 680 SLI.
Skysnake
2013-08-12, 19:01:33
Ja das mit dem roten Kasten für das Package sehe ich auch so.
Die grünen Dinger sind aber keine RAM-Chips. DAs passt weder von der Größe, noch von den Wires noch sonstwas.
Keine Ahnung, was das sein soll, Sieht aber nach Elkos oder sonst was aus.
Kann aber auch was in der Groundblade sein um die Interferrenzen zu schlucken usw usw. Also für die Signalqualität. Gibt da ziemlich kranken shit, den man machen kann ;D
Schon bemerkt, dass AMD in der Lage ist eine HD7990 (zwei GPUs!) für 599$ € anzubieten? Die Preise von NV bei GK110 sind nur Wucher. Das heißt noch lange nicht, dass AMD die Kunden auch so abziehen will. Ich hoffe bloß, dass das auf Dauer für NV nach hinten los geht.
Sorry... mein Fehler. Das ändert die Situation natürlich etwas.
Einfach nur /sign
w0mbat
2013-08-12, 19:04:44
Mein Tip: 20nm, HD7970GHz+60%
Nakai
2013-08-12, 19:08:25
Ja das mit dem roten Kasten für das Package sehe ich auch so.
Die grünen Dinger sind aber keine RAM-Chips. DAs passt weder von der Größe, noch von den Wires noch sonstwas.
Keine Ahnung, was das sein soll, Sieht aber nach Elkos oder sonst was aus.
Kann aber auch was in der Groundblade sein um die Interferrenzen zu schlucken usw usw. Also für die Signalqualität. Gibt da ziemlich kranken shit, den man machen kann ;D
Keine Ahnung was das Grüne ist, es sieht hald auf dem ersten Blick nach RAM-Chips aus, was es eigentlich nicht sein kann. Viel zu klein. Das mit der Groundblade klingt vernünftig, man sieht auch, wie bestimmte Leitungen dazwischen bzw. darunter durchgehen.
Ansonsten ist es auch sonderbar, wo die Bohrlächer sind. Normalerweise sind diese so nah wie möglich und so geordnet wie möglich am Package um den Anpressdruck so statisch und gleichmäßig wie nur möglich zu halten.
Ich weiß nicht, aber die Bilder sind echt komisch...;D
Ich glaub da treibt einer seinen Spaß...
€: http://forums.anandtech.com/showpost.php?p=35368076&postcount=254
Haha, ich fühl mich langsam wieder, wie vor 5 - 6 Jahren zum R600-Launch zurückversetzt.
Mein Tip: 20nm, HD7970GHz+60%
TSMC hat anscheinend schon länger 20nm am Laufen...die Frage ist eigentlich nur wie?
http://www.computerbase.de/news/2013-04/20-nm-produktion-bei-tsmc-offenbar-frueher-als-geplant/
boxleitnerb
2013-08-12, 19:09:37
Nein... vergesse ich nicht. Das kann dem Kunden aber völlig egal sein. Zudem sollte man nicht vergessen, dass eine GTX680 mit 1006Mhz taktet. Je eine GPU bei der GTX690 mit nur 915Mhz. Eine GPU der GTX690 entspricht im Prinzip dem hier:
http://geizhals.at/de/asus-gtx670-dc2og-2gd5-directcu-ii-oc-90-c1cs32-s0uay0bz-a858161.html
http://geizhals.at/de/msi-n670gtx-pe2gd5-oc-v284-020r-a798737.html
Über die +/-5% brauchen wir nicht diskutieren.
Dem Kunden kann vieles egal sein, die Preisgestaltung orientiert sich daran nicht zwingend. Im Highend klappt deine Rechnung eigentlich nie. z.B. die 7970 GHz ist doppelt so schnell wie die 7790, kostet aber über 3x soviel. Hat die 7970 GHz jetzt automatisch ein schlechtes PLV? Du denkst echt immer außerhalb der Realität. Zum Boost hat Broly ja schon was gesagt.
Einfach nur /sign
Einfach nur nein aus genannten Gründen :D
Eine unbeliebte Karte im Billig-Abverkauf als Bezug zu nehmen...:freak:
AnarchX
2013-08-12, 19:14:33
Natürlich ist das auch durch andere Sachen möglich.
http://s14.directupload.net/images/130812/zm6cjbtn.jpg
Ich habs mal angemalt. Das Rote ist ungefähr die Form des Packages, jedenfalls sieht es so aus. Das Grüne könnten die Plätze für den RAM sein. Aber wieso sind da soviele verschiedene bzw. alle auf einem Haufen? Oder ist das ein Röntgenbild der Platine ohne Chips? ;D
Mit nur 24*25 Pins (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9875553#post9875553)ist das wohl nicht mal eine 128-Bit GPU, wenn überhaupt eine GPU. (Vergleich GK107 (http://www.geforce.com/hardware/notebook-gpus/geforce-gt-745m/product-images) mit ~30x30 Pins).
Sind wohl alles eher Fakes aus dieser Quelle. Die Kiste sieht auch etwas nach einem Schuhkarton aus... :ugly:
StefanV
2013-08-12, 19:19:50
Ich habs mal angemalt. Das Rote ist ungefähr die Form des Packages, jedenfalls sieht es so aus. Das Grüne könnten die Plätze für den RAM sein. Aber wieso sind da soviele verschiedene bzw. alle auf einem Haufen? Oder ist das ein Röntgenbild der Platine ohne Chips? ;D
Nee, Grün sind Spannungsregler.
Das Design schaut auch eher nach sowas wie HD6870 oder ev. 7870 aus. Sprich Spannungsregler zwischen Chip und Display.
Das ist ganz sicher kein High End.
Loeschzwerg
2013-08-12, 19:42:40
@AnarchX: Ich sag nur QFP und Jumper ;) QFP kannste generell knicken, die habe ich schon lange nicht mehr bei einer highend Karte gesehen und Jumper wird man auf einer finalen Karte ebenfalls nicht finden, wenn schon auf einer Evaluierungskarte.
@Nakai: Diese Kontaktflächen sind Kondensatoren, vermutlich Tantal. Wenn du dir die Chipfläche genauer ansiehst erkennst du zwei etwas größere Kontaktstellen durchleuchten mit der Beschriftung "C36".
Edit: Schaut euch als Beispiel die Rückseite iner HD2900 an ;) http://extreme.pcgameshardware.de/members/2057-loeschzwerg-albums-ati-hd2900xtx-engineering-sample-rev-0639-5318-picture546185-das-pcb-von-hinten.html
dargo
2013-08-12, 20:16:42
Du vergisst den Boost;) In der Praxis taktet eine GTX 690 nur ungleich niedriger als eine 680 (rund ~1040MHz gegenüber 1080MHz);) Nicht umsonst ist eine 690 immer so schnell wie ein GTX 680 SLI.
Das ganze Boost-Gedöns ignoriere ich einfach weil es nicht unter jeder Bedingung haltbar ist.
fondness
2013-08-12, 20:31:27
Effizienter als Pitcairn (30+% perf/W), ähnliche Spannungen und Taktraten wie Tahiti XT(2)?
http://forums.anandtech.com/showthread.php?p=35367761#post35367761
Na das zeigt ja schon mal wo der Fokus liegt. :)
LSSJBroly
2013-08-12, 20:33:02
Das ganze Boost-Gedöns ignoriere ich einfach weil es nicht unter jeder Bedingung haltbar ist.
Und? Was zählt ist dennoch die Praxis, und da erreichen beide Karten (690 und 680) sehr ähnliche Taktraten (unter jeder Bedingung, da Boost 1.0, ergo kein Temp-limit). Egal, was man davon auch halten mag, ignorieren ist da klar fehl am platz.
Und die Wahrscheinlichkeit, dass AMD ihr Powertune ebenfalls nochmals etwas präzieser und feinstufiger nutzen wird (ergo genauso wie GPU-Boost funktionieren wird), ist eigentlich schon klar, sehe Bonaire.
horn 12
2013-08-12, 20:37:12
Mal schauen was es wird, aber für einen Gleichstand mit der GTX 780 sieht es wohl nicht aus.
Und vergesst bitte nicht, Dezember 2011 war die HD7970 die erste 28um karte und AMD hat versucht die Karte um einiges teurer zu verkaufen, da auch die Konkurrenz komplett fehlte.
Dies ist im Oktober 2013 nicht mehr gegeben,- und weiß AMD nur zugut.
fondness
2013-08-12, 20:39:33
Mal schauen was es wird, aber für einen Gleichstand mit der GTX 780 sieht es wohl nicht aus.
Und vergesst bitte nicht, Dezember 2011 war die HD7970 die erste 28um karte und AMD hat versucht die Karte um einiges teurer zu verkaufen, da auch die Konkurrenz komplett fehlte.
Dies ist im Oktober 2013 nicht mehr gegeben,- und weiß AMD nur zugut.
Naja wenn das Ding eine Titan schlägt und unter $600 verkauft wird, hat NV jedenfalls ein Problem. Und es sieht auch nicht so aus als würde Maxwell bald mal kommen.
LSSJBroly
2013-08-12, 20:40:43
Mal schauen was es wird, aber für einen Gleichstand mit der GTX 780 sieht es wohl nicht aus.
Und woher erkennst du das? ich sehe zurzeit alle möglichen spekulationen, von gerade mal +10% bis +50% gegenüber der HD 7970 GE.
Ich bleibe dabei, dass man mit einem 28nm Chip am besten zwischen der 780 und der Titan liegen würde.
dargo
2013-08-12, 20:50:13
Und die Wahrscheinlichkeit, dass AMD ihr Powertune ebenfalls nochmals etwas präzieser und feinstufiger nutzen wird (ergo genauso wie GPU-Boost funktionieren wird), ist eigentlich schon klar, sehe Bonaire.
Nur weil AMD diesen Blödsinn nachmacht heißt noch lange nicht, dass ich das gut heiße.
horn 12
2013-08-12, 20:52:59
Titan und GTX 780 trennen vielleicht zwischen 5 bis 8% IMMER Stock verglichen.
Was Titan oder GX 780 mit Eingriff leisten ist ein anderes Blatt Papier.
Hier könnte AMD federn lassen !
Hübie
2013-08-12, 21:01:49
+30% Perft/W ist in etwas das was der 20nm-Prozess von TSMC bringt.
http://www.tsmc.com/english/dedicatedFoundry/technology/20nm.htm
Natürlich ist das auch durch andere Sachen möglich.
http://s14.directupload.net/images/130812/zm6cjbtn.jpg
Ich habs mal angemalt. Das Rote ist ungefähr die Form des Packages, jedenfalls sieht es so aus. Das Grüne könnten die Plätze für den RAM sein. Aber wieso sind da soviele verschiedene bzw. alle auf einem Haufen? Oder ist das ein Röntgenbild der Platine ohne Chips? ;D
Also wenn ich mir das so ansehe führt man euch glaub ich ganz schön an der Nase herum... :cool:
Das grün markierte sind übrigens kein BGA-Lötpunkte. Das sind Ausgänge.
john carmack
2013-08-12, 21:16:17
Sammeln wir doch mal ein paar Fakten aus der Gerüchteküche die immer wieder hochkommen:
20nm oder 28nm ?
TSMC und AMD könnten einen 20nm Chip rausbringen wenn sie wollten.
Machbar ist es! Könnte es aber auch gleichzeitig ein finanzielles Risiko für AMD werden der nochdazu finanziell angeschlagen ist.
Vielleicht wird auch nur Hawaii in 20nm hergestellt und der Rest in 28nm und umgelablet...
Hawaii Vorstellung Ende September! Battlefield 4 soll auch zum Release (evtl im Ende Okt. in einem neuen "Never Settle Paket") erscheinen. Das bedeutet noch nicht das es Hawaii Ende Okt. zu kaufen geben wird. Vielleicht wird es Dez. oder gar Jan.?!?!
Hawaii 6+1-Phasendesign (12 Layer PCB) oder Tahiti 5+1-Phasendesign (10 Layer PCB)?
Alles weißt wohl auf eine gesteigerte Stromaufnahme hin...
SetfanV: "Das kann man für mehr Leistungsaufnahme machen, muss man aber nicht."
Effe:"Aggressiverer Turbo bzw Boost? Extra für die Balkenjunkies."
(Ein LeistungsPlus wurde in den letzten GraKa Generationen nicht nur durch eine Strukturverkleinerrung sondern auch immer durch einen Mehrverbrauch an Strom gewonnen)
Preis der 7990 fällt auf 599€ und Preis von Hawaii soll sich zwischen 550$ - 600$ bewegen
Bedeutet das etwa das Hawaii in die Leistungregionen einer 7990 vorstößt?
Die 7970 non Ghz kam zum Release (ende Dez. 2011) für 499€ bzw. 549$
Neue Chips (Leistung vLnR aufsteigend): Tahiti Pro -> Tahiti XT -> Tahiti XTL -> Hawaii Pro -> Hawaii XT
Angeblicher Hawaii geht im Peak auf 5152 Punkt hoch - weit über 400P mehr als Titan (+10%)
http://cdn.videocardz.com/images/2013/08/Hawaii-GPU-Performance.jpg
Jedenfalls weißt sehr viel auf einen Chip hin der viel Strom verbraten wird...
Vielleicht ein
28nm GPU / 384Bit SI / 7-Gbps-GDDR5 (336GB/s)
oder
28nm GPU / 512Bit SI / 6-Gbps-GDDR5 (384GB/s)
oder
28nm GPU / 512Bit SI / 7-Gbps-GDDR5 (448GB/s)
Das Gleiche würde natürlich auch für eine 20nm GPU gelten.
Hab ich was übersehen?
Akkarin
2013-08-12, 22:28:07
28nm FDSOI wurde früher teilweise spekuliert.
mironicus
2013-08-12, 23:05:27
Preis der 7990 fällt auf 599€ und Preis von Hawaii soll sich zwischen 550$ - 600$ bewegen
Bedeutet das etwa das Hawaii in die Leistungregionen einer 7990 vorstößt?
Ja, ich würde als Maßstab für die vermutete Leistung die Preissenkung der 7990 auch mit einbeziehen.
Hübie
2013-08-12, 23:22:04
Öh. Der Preis sollte doch recht eindeutig zeigen wo die Reise hin geht oder? Glaubt ihr eigentlich was ihr da schreibt? =)
Nakkai: Is FDSOI nicht für Spannungen <1 Volt? Bin da nicht so bewandert.
Der_Korken
2013-08-12, 23:40:34
Würde es eigentlich überhaupt etwas bringen, wenn AMD jetzt schon in 20nm fertigt? Ich erinnere mich noch an ein paar Folien, wo man gut sehen konnte, dass die Waferkosten für kleinere Fertigungen ab ~28nm quasi exponentiell ansteigen und somit die Flächenersparnis bei der Fertigung komplett aufgefressen. Die Diskussion kam damals bei der Einführung von GK104 auf, als die GTX6xx-Karten trotz Minichip lange Zeit extrem teuer waren. Zusammen mit den aktuell vermutlich sehr bescheidenen Yields könnte ein VI in 20nm teurer herzustellen sein als in 28nm.
horn 12
2013-08-12, 23:44:20
Sagte AMD nicht zum Launch der TITAN:
Dies wird ein Nischenprodukt und die Karte interessiert AMD nicht, werden keinen Konter fahren.
Nun, mit dem vielleicht angepeilten Preis zu knappen 600 Euro, erste Woche 650+ könnte man mit einer ähnlichen Leistung aber dennoch 30% billigerem Preis die Sache wieder ins Rechte Licht rücken und wäre sehr rasch bei den 550 Euro, welche einige noch verschmerzen könnten.
TITAN+ Leistung zu fast halbem Preis, dazu noch einige Schmankerln und Neues SpieleBundle, GTX 780 und Titan würden alt aussehen,- und NV gezwungen sein, den Preis anzugleichen, bzw. bei Letzterem drastisch zu reduzieren.
maximus_hertus
2013-08-12, 23:51:11
Nö, nV wäre mitnichten gezwungen, die Preise zu senken. Wenn AMD nicht dramatisch schneller ist (unwahrscheinlich) ist nV ohne Konkurrenz. Schaue dir doch die Marktanteile bei den dGPUs an, nVs Anteil dürfte so groß sein wie noch nie in den letzten 10 Jahren.
Hübie
2013-08-12, 23:52:53
:facepalm: Klar. AMD, der Heilsbringer, verschenkt Karten mit höherer Performance als Titan und schnürt ein sauteures Spielepaket mit sauteurem 20-nm-Prozess. Wenn da jemand das Unternehmen an die Wand fahren will kommt es so. Ansonsten nicht.
Was denkt ihr wohl, warum die HD7990 im Preis gesenkt wurde?
Akkarin
2013-08-13, 00:18:20
Wenn ich nicht total daneben liege müsste FDSOI auch für höhere spannungen und takte gedacht sein. Ursprünglich war es ja als ablösung fürs normale (PD)SOI und AMDs CPUs gedacht (oder zumindest wurde spekuliert das AMD FDSOI für die CPUs benutzen könnte).
Hübie
2013-08-13, 00:23:20
Na ja aber die haben auch eine andere Packdichte. Da kann man ja nicht auf GPUs schließen. Ich müsste jetzt google befragen aber AMDs APUs nutzen noch PDSOI ;)
Akkarin
2013-08-13, 00:32:03
FDSOI gibs bisher ja auch nur für 28nm, also noch nicht. Wie gesagt, waren bisher spekulationen, aber afaik wurden die hier im Thread nie komplett ausgeschlossen und es würde sinn machen wenn AMD es nutzen würde wenn es tatsächlich so funktioniert wie sich einige das vorstellen.
edit: Argumente für 28nm FDSOI waren afaik: Zu spät für 28nm TSMC, hätte AMD einen normalen refresh gewollt hätten sie Sea Islands nicht gecancelt. Gleichzeitig ist es zu früh um 20nm TSMC benutzen zu können. Gleichzeitig ist FDSOI sehr billig gegenüber 20nm und kaum teurer als normales GF 28nm. Auch hätte man bei GF dank gate first einen Flächenvorteil. Auch hat AMD sowieso Pläne (gehabt, gab da Roadmaps wo schon Southern Islands bei GF gefärtigt wurden) zu GF hin bzw. von TSCM als alleinigen Partner bei GPUs zu schwenken.
Allem in allem wurde halt gesagt das 28nm FDSOI deutlich besser als 28nm TSCM ist, und gleichzeitig billiger und früher verfügbar als 20nm. Ist halt so ähnlich wie Finfets, da wird ja auch gesagt es sei einen ganzen Node besser als bulk. (nur dass hier auch noch der GF flächenvorteil hinzu kommt)
maximus_hertus
2013-08-13, 00:35:09
Natürlich ist AMD kein Heilsbringer ;) Es ist nunmal so, dass die Leute keine Grafikkarte kaufen, sie fragen direkt nach GeForce-Karten. Wenn dann mal ein paar Kunden AMD gut gesonnt sind, wird das Alter der 7900 kritisiert (die ist ja schon fast 2 Jahre alt...kann ja nicht sehr gut sein usw.).
Zurück zu VI: 20nm erwarte ich nicht, selbst als Risk-Produktion wohl eher nicht sinnvoll. Ich könnte mir eher einen ersten "Big"-Chip seitens AMD vorstellen (ca. 450 mm2) und Performance in der Nähe von Titan, ohne diese zu schlagen. Dann wird man wohl versuchen mit Battlefield 4 alles herauszuholen (Marketing-technisch (ok, AMD und Marketing, running Gag und so ;) )).
Warten wir mal ab, spätestens in 7 Wochen sollten wir (deutlich) mehr wissen.
Hübie
2013-08-13, 00:45:52
FDSOI gibs bisher ja auch nur für 28nm, also noch nicht. Wie gesagt, waren bisher spekulationen, aber afaik wurden die hier im Thread nie komplett ausgeschlossen und es würde sinn machen wenn AMD es nutzen würde wenn es tatsächlich so funktioniert wie sich einige das vorstellen.
edit: Argumente für 28nm FDSOI waren afaik: Zu spät für 28nm TSMC, hätte AMD einen normalen refresh gewollt hätten sie Sea Islands nicht gecancelt. Gleichzeitig ist es zu früh um 20nm TSMC benutzen zu können. Gleichzeitig ist FDSOI sehr billig gegenüber 20nm und kaum teurer als normales GF 28nm. Auch hätte man bei GF dank gate first einen Flächenvorteil. Auch hat AMD sowieso Pläne (gehabt, gab da Roadmaps wo schon Southern Islands bei GF gefärtigt wurden) zu GF hin bzw. von TSCM als alleinigen Partner bei GPUs zu schwenken.
Allem in allem wurde halt gesagt das 28nm FDSOI deutlich besser als 28nm TSCM ist, und gleichzeitig billiger und früher verfügbar als 20nm. Ist halt so ähnlich wie Finfets, da wird ja auch gesagt es sei einen ganzen Node besser als bulk. (nur dass hier auch noch der GF flächenvorteil hinzu kommt)
Hm. Das klingt sehr schlüssig was du schreibst. Aber wie sieht es mit Kapazitäten aus? PS4 und XB1 sowie das kommende Jaguar-lineup sollten gut was abknappsen. Bulldozer mal aussen vor.
Hat AMD denn schon Verträge mit GF für GPU-Produktion?
Hat AMD denn schon Verträge mit GF für GPU-Produktion?Da gabs doch letztens die alte Roadmap von 2011 oder so, wo schon 28nm GPUs von GF eingezeichnet waren .. ging halt nur famos schief ...
An FDSOI glaub ich aber irgendwie nicht, eher an normal 28nm GF, das Flächenersparnis gibts da auch .. oder halt vielleicht auch gleich 20 ^^
Knuddelbearli
2013-08-13, 05:56:38
Öh. Der Preis sollte doch recht eindeutig zeigen wo die Reise hin geht oder? Glaubt ihr eigentlich was ihr da schreibt? =)
Nakkai: Is FDSOI nicht für Spannungen <1 Volt? Bin da nicht so bewandert.
naja für einen extrem effizienten chip wär das doch ideal ^^ 550 mm² bei ca 800Mhz da wäre dann auch mit fdSOI 150W möglich und trotzdem Titan+ Leistung ^^
Skysnake
2013-08-13, 06:27:07
:facepalm: Klar. AMD, der Heilsbringer, verschenkt Karten mit höherer Performance als Titan und schnürt ein sauteures Spielepaket mit sauteurem 20-nm-Prozess. Wenn da jemand das Unternehmen an die Wand fahren will kommt es so. Ansonsten nicht.
Was denkt ihr wohl, warum die HD7990 im Preis gesenkt wurde?
Nein sind Sie natürlich nicht :ugly:
Aber niedrige Preise sind aktuell eine "Win-Win-Situation". Ok, für AMD eigentlich nicht, aber Sie müssen es machen um Volumen zu generieren.
AMD MUSS etwas an den geringen Marktanteilen ändern! Das ist das A und O. Denn die Fixkosten für die Chipentwicklung sind einfach immens. Du musst da einfach über Masse gehen. Eigentlich ist es eine ganz einfache Sache.
Wenn ich 10 Mio€ Fixkosten habe 10.000 Karten für 1000€ verkaufe, dann mache ich keinen Gewinn, sondern eine schwarze Null. Wenn ich aber 40.000 Karten für 251€ verkaufe, dann mache ich schon 40.000€ Gewinn :ugly:
Klar ist es vereinfacht, und es sind keine Stückkosten enthalten, aber es zeigt hoffentlich, das niedrige Preise trotzdem besser sein können.
Und selbst wenn man auch "nur" auf ne schwarze Null rauskommen würde, würde sich lohnen, denn JEDE! verkaufte Karte von mir ist eine weniger bei der Konkurrenz! Und damit steigt deren Fixkostenanteil an ihren Produkten -> weniger Gewinn -> weniger Geld für Forschung und Entwicklung -> schwächere Konkurrenz
Man gewinnt also doppelt durch höhere Absatzzahlen. Das ist ja auch das was AMD bei den CPUs mit das Genick bricht. Sie setzen einfach zu wenig ab.
Zurück zu VI: 20nm erwarte ich nicht, selbst als Risk-Produktion wohl eher nicht sinnvoll. Ich könnte mir eher einen ersten "Big"-Chip seitens AMD vorstellen (ca. 450 mm2) und Performance in der Nähe von Titan, ohne diese zu schlagen. Dann wird man wohl versuchen mit Battlefield 4 alles herauszuholen (Marketing-technisch (ok, AMD und Marketing, running Gag und so ;) )).
Warten wir mal ab, spätestens in 7 Wochen sollten wir (deutlich) mehr wissen.
AMD hat Roy Taylor und Sean Pellier bekommen. Da hat sich SEHR viel getan. Das merkt man an allen Ecken und Kanten. Eigentlich erschreckend, wie viel zwei Leute bewegen können :ugly:
Von einem nicht existenten Marketing hin zu einem, das zu gefallen weiß.
Hm. Das klingt sehr schlüssig was du schreibst. Aber wie sieht es mit Kapazitäten aus? PS4 und XB1 sowie das kommende Jaguar-lineup sollten gut was abknappsen. Bulldozer mal aussen vor.
Hat AMD denn schon Verträge mit GF für GPU-Produktion?
Guckst du hier:http://www.elektroniknet.de/halbleiter/sonstiges/artikel/100092/
GF +10% Umsatz, während AMD -25% hinlegt. Irgendwoher müssen die Umsätze bei GF ja kommen, wobei ich vermute, das sich die Umsatzsteigerung von GF "einfach" nur um ein Quartal verschoben bei AMD durchschlägt.
Skysnake
2013-08-13, 07:09:06
Moschendrahtzaun.
Ja, was willst du uns sagen?
Hübie
2013-08-13, 07:25:27
Daraus schließe ich jetzt nicht unbedingt, dass GF GPUs für AMD fertigt :| Ich will es aber auch nicht kategorisch ausschließen, da AMD wohl nicht das komplette lineup dort fertigen lassen wird (wenn überhaupt mein ich).
Skysnake
2013-08-13, 07:41:35
Das hatte ich auch nicht sagen wollen.
Mir gings nur darum, das GF eben 10% zugelegt hat. Die Frage ist jetzt warum?
Gibt 3 Möglichkeiten in meinen Augen
1. Eine andere große Firma lässt dort zusätzlich fertigen
2. AMD lässt eventuell auch GPUs dort fertigen, wodurch der Anstieg zustande kommt.
3. Die Konsolendeals schlagen hier durch
10% bei GF sind ja jetzt auch kein Pappenstiel.
APUs/CPUs fallen für mich eigentlich raus als Grund für den Anstieg bei GF. Da gibt es eigentlich nichts Neues, außer halt die Konsolen-Deals.
Hübie
2013-08-13, 08:31:04
Ich habe aktuell wenig Zeit um den Markt im Auge zu behalten, daher kann ich nur spekulieren. Was bei TSMC abgeht is mir geläufig aber das wars dann auch. Die 10% können sich auch durch reine Prozessoptimierung und etwas mehr Absatz ergeben. Wahrscheinlich spielen die Konsolendeals da noch gar nicht mit rein.
Skysnake
2013-08-13, 09:03:29
Wie soll sich eine Prozessoptimierung auf den Umsatz auswirken? :ugly:
Hübie
2013-08-13, 09:13:25
Mehr Absatz pro Tag, bessere Ausbeute und somit höhere Marge.
Edit: Oder wird GF pro Wafer bezahlt egal wieviel davon funzt? Afaik anteilig pro Wafer.
StefanV
2013-08-13, 09:18:53
2. AMD lässt eventuell auch GPUs dort fertigen, wodurch der Anstieg zustande kommt.
Das halte ich nach aktuellem Wissensstand für sehr wahrscheinlich.
Der Grund, warum ich das denke:
Es gibt einfach gar keine verwertbaren Leaks!
Bei TMSC war das bisher immer der Fall, spätestens relativ kurz vor Launch wusste man schon relativ genau, was kommen könnte. Momentan weiß man einfach mal gar nix...
Und ich würde auch nicht ausschließen wollen, dass AMD einfach mal was riskiert bzw einen 'Plan B' in der Tasche hat, für den Fall, dass ihr Plan A in die Hose geht...
Hoffen wir zumindest, dass es so ist, dass man z.T. voll auf Risiko geht (High End Chip) und den Rest auf Sicherheit (den ganzen Rest)...
Skysnake
2013-08-13, 09:19:02
Mehr Absatz pro Tag, bessere Ausbeute und somit höhere Marge.
Edit: Oder wird GF pro Wafer bezahlt egal wieviel davon funzt? Afaik anteilig pro Wafer.
Kommt drauf an, aber damit sich das überhaupt auswirken kann muss GF nicht durch Aufträge limitiert sein, sondern durch die Produktion, und ich glaube nicht, das GF >100% Auslastung hat.
Hübie
2013-08-13, 09:24:41
Na ja. Konsolendeals? Apple will doch auch wechseln ;)
Aber wie dir sicher auffiel schreibe ich konjungiv ;D
robbitop
2013-08-13, 09:38:41
TSMC und AMD könnten einen 20nm Chip rausbringen wenn sie wollten.
Machbar ist es!
Mich würde interessieren, woher du diese Gewissheit nimmst. In den Conference Calls sagte IIRC TSMC selbst, dass 20 nm nicht vor 2014 zu erwarten ist. Und Massenfertigung eigentlich auch eher H2.
boxleitnerb
2013-08-13, 09:43:41
Muss es denn unbedingt die Massenfertigung sein? Dass die damit nicht gemeint ist, dürfte klar sein.
robbitop
2013-08-13, 09:48:43
Wie naiv kann man eigentlich sein? Eine Firma mit klaren Gedanken setzt ganz sicher kein Produkt mit hoher Komplexität auf einem High Risk Prozess um, der nichtmal vom Fertiger empfohlen wird. Es sind noch gute 100-150 sqmm Luft beim 28 nm Prozess. Und es ist sicher noch Potenzial in Punkto Designverbesserung da.
Das ist ausreichend, um mit GK110 gleichzuziehen.
horn 12
2013-08-13, 09:54:37
Gleichzuziehen ja, aber man moechte wohl die Fehler und Flaschenhaelse der HD79x0 ausmaerzen, und dies wird sicherlich in einem Neuen Verfahren leichter sein unterzubringen,- zudem stromsparender da dort ja das Potential der AMD Karte bis zur HD79x0 schlummerte und bei letzterer eben "zunichte" gemacht wurde.
AnarchX
2013-08-13, 09:56:51
Hat man bei V.I. vielleicht auch die CUs noch etwas enger verbinden können?
Vielleicht ähnlich wie bei NVs SMX nun je 2 CUs an einem Register File und L1-Cache.
http://www.computerbase.de/bildstrecke/38677/12/
http://www.computerbase.de/bildstrecke/40220/8/
Wenn man da vielleicht 20% Fläche und somit Energie einsparen konnte, ohne groß Leistung zu verlieren wäre das wohl schon ein guter Anfang.
Wenn die Specs wirklich "imposant" sein sollen, wären wohl auch 3072SPs nicht verwunderlich:
spekulativer Hawaii XT: 3072SPs @1,0-1,05GHz, Quad-Front-End mit 64 ROPs, 512-Bit@6Gbps, ~250-275W, ~500mm² @ 28nm
Curacao XT könnte wohl bei 2048SPs@1,05-1,15GHz + 256-Bit@7Gbps @~200W, ~300mm² liegen und mit kleineren Optimierungen (C.I.) die GTX 770 herausfordern.
boxleitnerb
2013-08-13, 09:58:54
Wie naiv kann man eigentlich sein? Eine Firma mit klaren Gedanken setzt ganz sicher kein Produkt mit hoher Komplexität auf einem High Risk Prozess um, der nichtmal vom Fertiger empfohlen wird. Es sind noch gute 100-150 sqmm Luft beim 28 nm Prozess. Und es ist sicher noch Potenzial in Punkto Designverbesserung da.
Das ist ausreichend, um mit GK110 gleichzuziehen.
Glaubst du, TSMC legt einen Schalter um und das Risiko viertelt sich von einer Sekunde auf die andere? Das ist ein stetiger Prozess, und wir wissen auch gar nicht, wie gut oder schlecht die 20 nm Yields in der Risk Production überhaupt sind. Für prinzipiell möglich halte ich es schon.
dargo
2013-08-13, 10:00:09
Nö, nV wäre mitnichten gezwungen, die Preise zu senken. Wenn AMD nicht dramatisch schneller ist (unwahrscheinlich) ist nV ohne Konkurrenz. Schaue dir doch die Marktanteile bei den dGPUs an, nVs Anteil dürfte so groß sein wie noch nie in den letzten 10 Jahren.
Auf welcher Quelle basieren deine Annahmen? Ich sehe beim 3DC ziemlichen Gleichstand:
http://www.3dcenter.org/news/umfrage-auswertung-aus-welcher-generation-stammt-die-zum-spielen-benutzte-grafikloesung-mai-201
Bei Steam sieht es für NV besser aus:
http://store.steampowered.com/hwsurvey/
Ronny145
2013-08-13, 10:06:13
AMD hat Roy Taylor und Sean Pellier bekommen. Da hat sich SEHR viel getan. Das merkt man an allen Ecken und Kanten. Eigentlich erschreckend, wie viel zwei Leute bewegen können :ugly:
Von einem nicht existenten Marketing hin zu einem, das zu gefallen weiß.
Roy Taylor ist doch der mit idiotischen Marketingaussagen, die keiner ernst nehmen kann. Wo das zu gefallen weiß ist mir schleierhaft.
robbitop
2013-08-13, 10:10:15
Glaubst du, TSMC legt einen Schalter um und das Risiko viertelt sich von einer Sekunde auf die andere? Das ist ein stetiger Prozess, und wir wissen auch gar nicht, wie gut oder schlecht die 20 nm Yields in der Risk Production überhaupt sind. Für prinzipiell möglich halte ich es schon.
Bis H2 2014 ist es immerhin noch ~ 1 Jahr. Der Verlauf von Yield/Zeit entspricht in etwa einer Wurzelfunktion. Bedeutet in der ersten Zeit viel Fortschritt und am Ende stagniert es gegen ein bestimmtes Level.
horn 12
2013-08-13, 10:20:16
@AnarchX
Woher stammen Deine Angaben?
Hast du dazu gar einen Link parat...
Also doch nur womoeglich 28um, dennoch ware man mit solch einem grossem Chip mal locker 20 bis 3o% ueber dem Titan und zu einem wohl ausserst gutem Preis.
Dies waere fast zu schoen um wahr zu sein :-)
Skysnake
2013-08-13, 10:23:28
Muss es denn unbedingt die Massenfertigung sein? Dass die damit nicht gemeint ist, dürfte klar sein.
Ähm JA! :freak:
So lange Risk-Produktion ist, will man eigentlich nur Testläufe machen, um z.B. sicher zu gehen, dass der Chip nicht broken ist. Aber ernsthaft Volumen, will da keiner machen. Vielleicht irgendwelche Microcontroller noch oder sonst nen extrem einfaches Zeug, wobei ich mir nicht vorstellen kann, warum man das im neusten Prozess machen wollen würde, aber gut. Irgend welche ganz abgespacten Kunden gibts sicher, aber nichts, was auch nur im entferntesten im Endkundenmarkt ankommt.
Glaubst du, TSMC legt einen Schalter um und das Risiko viertelt sich von einer Sekunde auf die andere? Das ist ein stetiger Prozess, und wir wissen auch gar nicht, wie gut oder schlecht die 20 nm Yields in der Risk Production überhaupt sind. Für prinzipiell möglich halte ich es schon.
Ja und Nein, je nachdem kann die Produktion schlagartig besser werden.
Z.B. eine neue Maschine, Filterwechsel, da Verunreinigungen bestanden, irgend ein neues Teil in einer Maschine, das nicht mehr innerhalb der Tolleranzen war rund rumgespackt hat, oder auch einfach ne neue Lichtquelle usw usw usw.
Die Anlagen sind komplex! Da kann immer ein single Point of Failure drin sein, der dir die gesamte Produktion "ruiniert". Den musst du aber erstmal finden. Und wenn nur son Mist ist, wie ne Maschine, an der ein Thermoelement zum stabilisieren der Temperatur verreckt ist, und damit die Maschine sobald Sie ne weile Läuft sich ausdehnt und die Justage dann am Arsch ist, und nur noch Müll produziert.... So was musst du erstmal finden.
Roy Taylor ist doch der mit idiotischen Marketingaussagen, die keiner ernst nehmen kann. Wo das zu gefallen weiß ist mir schleierhaft.
Die Leute wie wir hier nicht unbedingt Ernst nehmen können ;)
Für den 0815 Kunden taugen die Aktionen die AMD in letzter Zeit hat anlaufen lassen in meinen Augen schon.
M4xw0lf
2013-08-13, 10:28:39
Also doch nur womoeglich 28um, dennoch ware man mit solch einem grossem Chip mal locker 20 bis 3o% ueber dem TitanAha?
und zu einem wohl ausserst gutem Preis.Aha² ?
Dies waere fast zu schoen um wahr zu sein :-)Das allerdings zweifellos.
boxleitnerb
2013-08-13, 10:36:28
Bis H2 2014 ist es immerhin noch ~ 1 Jahr. Der Verlauf von Yield/Zeit entspricht in etwa einer Wurzelfunktion. Bedeutet in der ersten Zeit viel Fortschritt und am Ende stagniert es gegen ein bestimmtes Level.
Es gibt Angaben von einem Beginn der Massenproduktion in mindestens einer Fab in Q4 2013:
Taiwan Semiconductor Manufacturing Company, or TSMC, the world’s largest chip foundry, is planning on installing equipment for its 20nm chip manufacturing facilities on April 20, some two months ahead of the schedule, according to China’s Economic Dailys News.
At such pace, TSMC should start 20nm systems-on-chip production by the end of Q2 2013 at a rate of 5000 12-inch wafers per month. TSMC will ramp up production to over 10 000 wafers in the third quarter.
The internal goal for 20nm chips is a 30 000 to 40 000 wafer starts per month by the end of Q1 2014.
Around the same time last year, TSMC announced it will start mass producing 20nm chips at Phase 6 in the Fab 12 facility in Hsinchu this year, and add another fabrication facility in early 2014.
http://www.phonearena.com/news/TSMC-20nm-chip-manufacturing-goes-ahead-of-schedule_id41451
@Skysnake:
Das kann so sein oder eben nicht. Es kann theoretisch auch am Anfang alles recht rund laufen. Außerdem brauchst du für FirePros oder teure Karten (geringes Volumen im Markt) nicht so viele GPUs. 10,000-20,000 reichen da vollkommen aus für einen ersten Start. Bei den vielen Waferstarts gib AMD nur 1000 Wafer, lass 140 Dies pro Wafer vom Band fallen bei einem Yield von 25%. Das gibt dir immer noch 35,000 GPUs. Lass einen Wafer $8000 kosten, das kostet 8 Mio. Dollar. Gewinn wirst du vielleicht nicht unbedingt machen, kommt drauf an wie teuer du die GPUs bzw. Karten verkaufst. Wenn du damit aber Marktanteile im Profisegment gewinnen kannst und deine Marke stärkst, ist es das AMD vielleicht wert. Die ganzen Spielebundles bis Q4 2013 werden AMD auch Millionen gekostet haben.
Skysnake
2013-08-13, 10:57:18
Sicherlich, aber bei so nem relativ großen Ding wie ner GPU für den Profimarkt, in dem man dann ja auch noch genug Leistung braucht->groß, gehen die Yealds schnell ins Bodenlose.
Vor allem musst du das Ding erstmal validieren... Das dauert seine Zeit und du kannst ja erst anfangen, wenn die Dinger vom Band purzeln. Profikarten eignen sich also nicht zwingend für eine Riskproduktion einfach wegen der Zeitspanne der Validierung.
Da macht nen riesen 28nm DIE schon mehr Sinn. Da kann man frühzeitig paar Samples zwischen schieben und Validieren anfangen. Kann gut sein, dass das Ding schon seit ~8-9 Monaten als 550mm² Monster vom Band gefallen ist, aber eben die Validierung nicht gepackt hat und nen Respin oder zwei brauchte. Who knows?
Deswegen mag ich über solche Sachen gar nicht gern "spekulieren", weil es einfach nichts bringt. Man findet für alles eine passende Erklärung/Begründung, aber mehr als wild drauflosraten ist das einfach nicht.
robbitop
2013-08-13, 10:58:13
Die News ist schon alt und da steht nur, dass sie das planen. Die haben nicht aus Spaß beim conference call eher auf 2014 gezeigt.
Außerdem geht es da um simple SoCs und nicht um 400 sqmm Grafikchips. Das ist nochmal eine ganz andere Liga.
boxleitnerb
2013-08-13, 11:06:53
Sicherlich, aber bei so nem relativ großen Ding wie ner GPU für den Profimarkt, in dem man dann ja auch noch genug Leistung braucht->groß, gehen die Yealds schnell ins Bodenlose.
Vor allem musst du das Ding erstmal validieren... Das dauert seine Zeit und du kannst ja erst anfangen, wenn die Dinger vom Band purzeln. Profikarten eignen sich also nicht zwingend für eine Riskproduktion einfach wegen der Zeitspanne der Validierung.
Da macht nen riesen 28nm DIE schon mehr Sinn. Da kann man frühzeitig paar Samples zwischen schieben und Validieren anfangen. Kann gut sein, dass das Ding schon seit ~8-9 Monaten als 550mm² Monster vom Band gefallen ist, aber eben die Validierung nicht gepackt hat und nen Respin oder zwei brauchte. Who knows?
Deswegen mag ich über solche Sachen gar nicht gern "spekulieren", weil es einfach nichts bringt. Man findet für alles eine passende Erklärung/Begründung, aber mehr als wild drauflosraten ist das einfach nicht.
Es heißt "Yields" nicht "Yealds".
Wenn ich mich richtig erinnere, fiel GK110 ab August vom Band und wurde schon im September/Oktober zu Tausenden an Oak Ridge ausgeliefert. Das ging also auch recht fix.
Gipsel
2013-08-13, 11:20:10
Hat man bei V.I. vielleicht auch die CUs noch etwas enger verbinden können?
Vielleicht ähnlich wie bei NVs SMX nun je 2 CUs an einem Register File und L1-Cache.
http://www.computerbase.de/bildstrecke/38677/12/
http://www.computerbase.de/bildstrecke/40220/8/
Wenn man da vielleicht 20% Fläche und somit Energie einsparen konnte, ohne groß Leistung zu verlieren wäre das wohl schon ein guter Anfang.Das wäre die falsche Richtung und würde den Stromverbrauch steigen lassen. In einer CU gibt es logisch gesehen sogar 4 getrennte Registerfiles (für jede SIMD-Einheit eines, die Skalarregister sind nochmal extra), nur die 64kB LDS können von allen SIMDs angesprochen werden. Physisch gesehen hat sogar jeder Slot einer SIMD-Einheit (bzw. 4 davon zusammen als kleinste Einheit) ein getrenntes RegFile. Datentransfers über größere Entfernungen (und ein paar hundert Mikrometer sind locker schon eine größere Entfernung in diesem Zusammenhang) kostet nunmal viel Strom. Man will also gar keine gemeinsamen Registerfiles für viele Einheiten, sondern möglichst lokale, also eng an den ALUs befindliche.
NVidia macht spätestens seit Kepler das übrigens genauso. Die verlinkte Folie ist eine Nebelkerze (das ich nicht viel auf diese Folien [insbesondere die von nV] gebe, habe ich schon ein paar Mal erwähnt, die genaue Konfiguration der Hardware zeigen die praktisch nie), logisch gesehen hat auch ein SMx 4 völlig getrennte Registerfiles (eins pro Scheduler, ähnlich wie bei den 4 SIMDs in AMDs CUs), die physische Implementation ist nicht ganz klar. Auch nVidias Pläne mit dem Registerfile-Cache zeigen, wie wichtig kleine, lokale Registerfiles sind.
Skysnake
2013-08-13, 11:34:28
100% /sign und absolut richtig alles erkannt und rausgearbeitet.
Du kannst das einfach viel besser kurz und knapp zusammenfassen als ich, ich hab mir schon überlegt, praktisch das Gleiche zu schreiben aber hatte grad kein Nerv auf ne WOT ;D
Es heißt "Yields" nicht "Yealds".
Wenn ich mich richtig erinnere, fiel GK110 ab August vom Band und wurde schon im September/Oktober zu Tausenden an Oak Ridge ausgeliefert. Das ging also auch recht fix.
OakRidge-Deal != "Massen"marktstart
Wenn du mit OakRidge oder sonst nem Forschungszentrum zusammenarbeitest, um nen neuen Supercomputer usw zu bauen, dann wird nen feuchter Haufen auf die Validierung usw gesetzt. Das Zeug wird so früh wie nur irgendmöglich raus gehauen, damit die Leute anfangen können damit zu "spielen". Und ich weiß da aus erster Hand wovon ich rede...
robbitop
2013-08-13, 11:34:47
Es heißt "Yields" nicht "Yealds".
Wenn ich mich richtig erinnere, fiel GK110 ab August vom Band und wurde schon im September/Oktober zu Tausenden an Oak Ridge ausgeliefert. Das ging also auch recht fix.
Die ersten Versionen von GK110 waren IIRC bereits Anfang 2012 bei TSMC. Es ist eigentlich ziemlich normal, dass 9-12 Monate vor dem Marktstart die ersten Tapeouts kommen. Oftmals muss man einen Respin machen. Das dauert dann. GPUs sind ungeheuer komplex.
Leonidas
2013-08-13, 11:43:04
Auf welcher Quelle basieren deine Annahmen? Ich sehe beim 3DC ziemlichen Gleichstand:
http://www.3dcenter.org/news/umfrage-auswertung-aus-welcher-generation-stammt-die-zum-spielen-benutzte-grafikloesung-mai-201
Bei Steam sieht es für NV besser aus:
http://store.steampowered.com/hwsurvey/
Und allgemein sieht es sehr düster für AMD aus, gerade angesichts der eigentlich guten Karten:
http://www.3dcenter.org/news/die-grafikchip-und-grafikkarten-marktanteile-im-vierten-quartal-2012
mironicus
2013-08-13, 11:43:35
Roy Taylor ist doch der mit idiotischen Marketingaussagen, die keiner ernst nehmen kann. Wo das zu gefallen weiß ist mir schleierhaft.
Hauptsache da kommt mal überhaupt irgendwas von AMD. Besser als nichts! :biggrin:
boxleitnerb
2013-08-13, 11:44:12
Die ersten Versionen von GK110 waren IIRC bereits Anfang 2012 bei TSMC. Es ist eigentlich ziemlich normal, dass 9-12 Monate vor dem Marktstart die ersten Tapeouts kommen. Oftmals muss man einen Respin machen. Das dauert dann. GPUs sind ungeheuer komplex.
Du gehst von Titan aus, ich gehe von K20 und K20X aus. Titan hätte man früher bringen können, Nvidia's Marge bei der Karte ist abartig.
robbitop
2013-08-13, 11:49:07
Die ersten GK110 die ausgeliefert wurden, waren K20 für Oak Ridge. Und das war im November 2012. Im Januar gab es das Tape Out. Sind sogar eher 10 Monate gewesen. Titan kam dann Anfang 2013.
AnarchX
2013-08-13, 11:50:40
[...]
Was wäre z.B. ein guter Ansatz um die Rohleistung pro Fläche unter GCN ohne neuen Fertigungsprozess zu erhöhen?
Und allgemein sieht es sehr düster für AMD aus, gerade angesichts der eigentlich guten Karten:
http://www.3dcenter.org/news/die-grafikchip-und-grafikkarten-marktanteile-im-vierten-quartal-2012
Ob da wohl mittelfristige Ängste mitwirken, dass man für seine Radeon bei einer AMD-Pleite keine neuen Treiber bekommt?
boxleitnerb
2013-08-13, 11:55:23
Die ersten GK110 die ausgeliefert wurden, waren K20 für Oak Ridge. Und das war im November 2012. Im Januar gab es das Tape Out. Sind sogar eher 10 Monate gewesen. Titan kam dann Anfang 2013.
Nein, Tape Out für GK110 war im März, frag Ailuros, der hatte sich anfangs geirrt. K20 wurde schon ab September ausgeliefert, im November war Titan komplett aufgebaut.
Tape Out von Hawaii war in etwa April, jedenfalls ging Anfang Mai die Info herum, dass Hawaii Silizium zurück von der Fab war.
Wobei mich das auf etwas bringt. Tape Out ist ja ein Prozess...wenn TSMC erst im April Equipment installiert hat, kann der Tape Out gar nicht so früh stattgefunden haben. Das würde dann doch wieder gegen 20 nm sprechen.
robbitop
2013-08-13, 12:04:38
Mit dem Unterschied, dass GK110 auf einem Prozess aufsetzte, der zu der Zeit lange aus der Risk Production heraus war. Das ist nicht vergleichbar. Im April 2013 gab es laut deiner News nichtmal die Fertigungsanlagen dafür. Die sollten für erste SoC Spielereien dort erst begonnen werden aufgebaut zu werden.
Skysnake
2013-08-13, 12:05:02
TapeOut kann es auch ohne Equip geben. Es müssen nur die Entwicklertools fertig sein.
dargo
2013-08-13, 12:05:13
Und allgemein sieht es sehr düster für AMD aus, gerade angesichts der eigentlich guten Karten:
http://www.3dcenter.org/news/die-grafikchip-und-grafikkarten-marktanteile-im-vierten-quartal-2012
So eng sehe ich das gar nicht. Der PC ist nur ein Teil vom Kuchen was den gesamten Gamingbereich angeht. Ich meine irgendwo gelesen zu haben, dass der PC ca. ein Drittel davon einnimmt. Die anderen beiden Drittel gehen auf Kosten der Konsolen (Sony + MS). Und in beiden neuen relevanten stecken AMD GPUs drin. Zudem wäre es interessant zu sehen wie es momentan im Vergleich @2013 aussieht nachdem AMD endlich die Werbetrommel bewegt hat.
boxleitnerb
2013-08-13, 12:08:35
TapeOut kann es auch ohne Equip geben. Es müssen nur die Entwicklertools fertig sein.
Kann...aber handhabt das irgendjemand so? Klingt mir nicht sehr sinnvoll. Sonst tape ich mal kurz Volta schon 2009 aus. Nur bringen tut das nix :freak:
robbitop
2013-08-13, 12:10:41
TapeOut kann es auch ohne Equip geben. Es müssen nur die Entwicklertools fertig sein.
Und 4 Wochen später, wenn die Maske gefertigt ist, braucht man die Anlagen. Auf Anlagen, die gerade frisch reingekommen sind (ohne Testläufe, ohne Optimierungseinstellungen, ohne Korrekturen an den Umgebungsbedingungen etc) eine GPU fertigen? :freak: Bei welchem Yield?
Selbst heute - ist 20 nm absolute Risk Production.
Nvidia hat 2002 mal den Fehler gemacht und NV30 auf 130 nm LowK Risk Production fertigen lassen. Es kamen nur tote Chips zurück. Am Ende ist man auf normales 130 nm zurückgewichen. Und das waren damals Größenordnungen weniger Transistoren und damit weniger Komplexität. 20 nm ist für 2013 leider sehr unwahrscheinlich.
Skysnake
2013-08-13, 12:21:30
Und wo ist das Problem?
Die Parameter werden lang lang lang im Voraus definiert. Die werden auch im Normalfall eingehalten. Das Problem hier ist eher das sich Firmen wie AMD und nVidia gar nicht an die Designrules halten in allen Fällen :ugly: Die sagen:"Ach was, das ist bullshit, das können wir besser/macht hier nichts aus"
Wenn man alles nach den normalen Designrules machen würde hätten wir bei weitem nicht so starke/hochentwickelte Chips. Ich hab mal mit jemanden vor einiger Zeit über das Thema geredet, wie das bei denen denn real aussieht. Das hies es nur:"Naja, das passiert schon, das man ein Problem hat, das nach nicht lösbar ist, wenn man sich an die Designrules hält.... ICH: Und was macht ihr dann? :ugly: Er: Naja, nicht dran halten und beten :biggrin: Man muss halt schauen, das man es doch irgendwie hinbekommt durch "fancy shit". Was bleibt einem sonst auch übrig?"
Wenn ein Prozess natürlich schon läuft ist es besser, vor allem wenn man son kranken scheis anfängt zu machen, weil man sich dann "sicherer" (;D) sein kann, das man richtig liegt mit "das wird schon gehen".
So was kann aber natürlich immer mal wieder nach hinten los gehen. Vor allem kann es auch durchaus passieren, das es am Ende heist: "Och tut uns leid, das geht doch nicht so, ihr braucht x µmm² mehr Platz" oder sonst irgend nen shit, und dann stehste da und darfst mit Plaecment und Routing neu anfangen...
Je mehr ich mit Leuten von unterschiedlichen Firmen rede in der Branche, desto mehr bin ich verwundert, dass da auch nur ein funktionsfähiger Chip von den Bänder fällt ohne Jahre verspätet zu sein ;D
fondness
2013-08-13, 12:25:29
Hawaii kommt mit absoluter Sicherheit nicht in 20nm@TSMC, verstehe nicht warum darüber noch immer diskutiert wird. Wenn dann wäre höchstens GF/IBM/Samsung eine Option, da weiß man leider relativ wenig wie es um die aktuellen Prozesse steht. Denn es stimmt schon, dass es AMD aus irgend einem Grund schafft diesmal völlig dicht zu halten. Das könnte für eine andere Fertigungsstätte sprechen, angekündigt hat man es ja schon länger das man in Zukunft auch GPUs bei GF fertigen will.
Und 4 Wochen später, wenn die Maske gefertigt ist, braucht man die Anlagen. Auf Anlagen, die gerade frisch reingekommen sind (ohne Testläufe, ohne Optimierungseinstellungen, ohne Korrekturen an den Umgebungsbedingungen etc) eine GPU fertigen? :freak: Bei welchem Yield?
Selbst heute - ist 20 nm absolute Risk Production.
Das sind keine nagelneuen Anlagen, erste 20nm Testchips fielen schon 2011 vom Band.
Da gibts ne Abfolge in etwa so:
a) TQV = Test/Qualification/Verification
b) Risk Production, zu erkennen an fertigen PDKs (Product-Development Kits, d.h. die Hersteller können anfangen Chips für den Prozess zu designen)
c) Mass Production
Ob man jetzt als Chip-Deisgnfirma nen Prozess in der Risk-Production Phase nutzen will oder nicht, hängt ganz allein von der Risikofreude des Managements ab...
PDKs für 20nm waren sowohl bei TSMC als auch bei GF irgendwie so März/April fertig, wenn ich mich recht erinnere und nichts mit FDSOI 28nm verwechsle.
HD4770 was on "risk production" 40nm...
X.Perry_Mental
2013-08-13, 12:49:10
HD4770 was on "risk production" 40nm...
Das war aber auch "nur" ein damals mittelgroßer Testchip für die HD5xxx-Generation, der in dieser Form eigentlich nicht zeitkritisch war.
AnarchX
2013-08-13, 13:05:56
Zumal es bei 40nm auch die GT21x GPUs von NV gab und bei 28nm waren GK107/GF117/GK104 auch in der Fertigung als AMD Tahiti und Co. gefertigt hat.
Maxwell/20nm erwartet man bei NV wohl nicht vor Mitte 2014. Das würde einen Hawaii@20nm in einen sehr fragwürdigen Kontext setzen.
Duplex
2013-08-13, 13:13:59
Hawaii kommt mit absoluter Sicherheit nicht in 20nm@TSMC, verstehe nicht warum darüber noch immer diskutiert wird.
Dann ändere den Titel des Threads, statt 20nm > 28nm.
Maxwell/20nm erwartet man bei NV wohl nicht vor Mitte 2014. Das würde einen Hawaii@20nm in einen sehr fragwürdigen Kontext setzen.Tja, aber da ist halt die große Unbekannte GF ...
fondness
2013-08-13, 13:18:14
Dann ändere den Titel des Threads, statt 20nm > 28nm.
Habe ich schon probiert, geht nicht. Kann wohl nur ein MOD nachträglich ändern.
Hier die neuesten Infos über TSMCs 20nm Node von der gewöhnlich gut informierten Quelle sweclockers:
20-nanometer SOC and 16-nm FinFET are both Progressing well. On 20 nanometers, we see little competition. The risk production has started in the first quarter [...] equipment are streaming in and are being installed, are going to be tried out and the volume production will start in early 2014
http://translate.google.com/translate?sl=sv&tl=en&u=http%3A%2F%2Fwww.sweclockers.com%2Fnyhet%2F17402-tsmc-borjar-tillverka-kretsar-i-20-nanometer-forsta-kvartalet-2014
Demnach soll die Massenproduktion im Q1/2014 starten. Alleine von der Produktion, bis zu den entsprechenden Karten im Handel vergeht locker ein Quartal. Wie sinnvoll es ist den Prozess zu Beginn überhaupt zu verwenden sollte man sich ebenfalls fragen.
john carmack
2013-08-13, 13:23:30
Hawaii kommt mit absoluter Sicherheit nicht in 20nm@TSMC, verstehe nicht warum darüber noch immer diskutiert wird. Wenn dann wäre höchstens GF/IBM/Samsung eine Option, da weiß man leider relativ wenig wie es um die aktuellen Prozesse steht. Denn es stimmt schon, dass es AMD aus irgend einem Grund schafft diesmal völlig dicht zu halten. Das könnte für eine andere Fertigungsstätte sprechen, angekündigt hat man es ja schon länger das man in Zukunft auch GPUs bei GF fertigen will.
Corsair, Toshiba, Plextor und Sandisk lassen Ihre 2013er SSD´s schon in 19nm produzieren...
Zugegeben, Diese Chips sind weitaus einfacher aufgebaut.
AnarchX
2013-08-13, 13:25:24
Habe ich schon probiert, geht nicht. Kann wohl nur ein MOD nachträglich ändern.
Mal eine Änderung vorgenommen. Aber für V.I. allgemein sollte man 20nm wohl nicht ausschließen.
fondness
2013-08-13, 13:34:38
Mal eine Änderung vorgenommen. Aber für V.I. allgemein sollte man 20nm wohl nicht ausschließen.
Eigentlich könnte man den Node auch ganz weg lassen, nachdem man es eh nicht weiß und dafür die Chips aufführen:
Volcanic Islands (VI): Hawaii, Maui, Iceland, Tonga - 2013/2014 :)
Nightspider
2013-08-13, 13:42:35
Mit dem Unterschied, dass GK110 auf einem Prozess aufsetzte, der zu der Zeit lange aus der Risk Production heraus war. Das ist nicht vergleichbar. Im April 2013 gab es laut deiner News nichtmal die Fertigungsanlagen dafür. Die sollten für erste SoC Spielereien dort erst begonnen werden aufgebaut zu werden.
Es will ja auch keiner einen 450mm2 Chip in 20nm fertigen.
Um Titan zu verhauen würde ein 200-220mm2 Chip von AMD mit neuer Architektur und in 20nm reichen, mit leicht höherer Taktrate.
Von dem 450mm2 GK110 Chip werden bei Titan bisher auch nur effektiv vielleicht 410-420mm2 genutzt.
mironicus
2013-08-13, 13:44:54
Und wie viel Fläche müsste ein Chip in 28 nm haben, um Titan zu schlagen...?
AnarchX
2013-08-13, 13:45:31
Es will ja auch keiner einen 450mm2 Chip in 20nm fertigen.
Um Titan zu verhauen würde ein 200-220mm2 Chip von AMD mit neuer Architektur und in 20nm reichen, mit leicht höherer Taktrate.
200-220mm²@20nm sind wohl eher ein Tahiti-Shrink mit ein paar Optimierungen, wo man dann wohl kaum mehr als ein 256-Bit SI unterbekommt.
Wenn dann muss AMD wohl schon wieder in der üblichen ~350mm² Region fertigen.
Ailuros
2013-08-13, 13:57:15
Es will ja auch keiner einen 450mm2 Chip in 20nm fertigen.
Um Titan zu verhauen würde ein 200-220mm2 Chip von AMD mit neuer Architektur und in 20nm reichen, mit leicht höherer Taktrate.
Von dem 450mm2 GK110 Chip werden bei Titan bisher auch nur effektiv vielleicht 410-420mm2 genutzt.
GK110 ist 551mm2; die 112 TMUs die der chip mehr hat als ein GK104 oder Tahiti nehmen zich mehr Flaeche ein als z.B. seine 960 DP SPs. Und nein 200-220mm2 unter 20nm reichen eben nicht ausser man uebertreibt es so brutal mit der Transistoren-dichte dass der Stromverbrauch aus der Decke haut.
Und wie viel Fläche müsste ein Chip in 28 nm haben, um Titan zu schlagen...?
In 28nm SHP GloFo dürfte es über 400mm² sein, bei TSMC sind es sicher 500mm². Titan ist schon sehr effizient. Die GloFo-Idee gefällt mir immer besser ;). Ob es Tatsache ist, wissen wir erst ab dem 25.9. und auch dann erst mit Sicherheit wenn auf dem Chip "Diffused in Germany" draufsteht :D. 20nm TSMC wird sich AMD nicht ans Beim binden mMn, damit würden mMn die Gewinnmargen für Grafikchips ganz schnell ins Unrentable abrutschen.
robbitop
2013-08-13, 14:12:22
HD4770 was on "risk production" 40nm...
Sicher, dass das damals noch Risk Production war?
http://www.tsmc.com/tsmcdotcom/PRListingNewsArchivesAction.do?action=detail&newsid=3222&language=E
Ende 2008 begann TSMC nämlich bereits in einem Werk mit der Serienfertigung von 40 nm. Bei 40 nm gab es während der Serienfertigung leider lange Prozessreifeprobleme.
Es will ja auch keiner einen 450mm2 Chip in 20nm fertigen.
Um Titan zu verhauen würde ein 200-220mm2 Chip von AMD mit neuer Architektur und in 20nm reichen, mit leicht höherer Taktrate.
Von dem 450mm2 GK110 Chip werden bei Titan bisher auch nur effektiv vielleicht 410-420mm2 genutzt.
Bisher war Skalierungsgröße eher 1,6-1,7 zwischen 2 Nodes. Dennoch ist eine GPU ungleich komplexer als ein kleiner SoC.
K6000 disagrees.
Der eine SMX macht den Kohl auch nicht fett. Das sind 7 %. 3DC ist übrigens ein deutschsprachiges Forum.
Skysnake
2013-08-13, 15:23:20
Corsair, Toshiba, Plextor und Sandisk lassen Ihre 2013er SSD´s schon in 19nm produzieren...
Zugegeben, Diese Chips sind weitaus einfacher aufgebaut.
Äpfel und Birnen...
Flash/DRAM hat nichts aber auch rein gar nichts mit Logik-Schaltungen zu tun...
Es will ja auch keiner einen 450mm2 Chip in 20nm fertigen.
Um Titan zu verhauen würde ein 200-220mm2 Chip von AMD mit neuer Architektur und in 20nm reichen, mit leicht höherer Taktrate.
Von dem 450mm2 GK110 Chip werden bei Titan bisher auch nur effektiv vielleicht 410-420mm2 genutzt.
GK110 ist ~550mm² groß...
robbitop
2013-08-13, 15:49:13
Corsair, Toshiba, Plextor und Sandisk lassen Ihre 2013er SSD´s schon in 19nm produzieren...
Zugegeben, Diese Chips sind weitaus einfacher aufgebaut.
Speicher ist um Größenorndungen einfacher zu fertigen als Logikschaltungen. Das Argument ist obsolet.
Nightspider
2013-08-13, 16:04:02
550, meinte ich ja. ;)
Auf jeden Fall baucht man nie und nimmer 350mm2 um die Resteverwertung (Titan) oder die Resteverwertung der Resteverwertung (GTX780) eines GK110 zu schlagen.
Alleine mit 10-20% höheren Taktraten kann man rechnen durch 20nm.
Demzufolge müsste eine 7970 nur 10-20% größer sein vom chip im optimalen Fall was unter 28nm rund 400-430 und unter 20nm rund 250mm2 wären.
Und trotz teurem 20nm Prozess könnte sich AMD das Teil mit 500 vergüten lassen und würde noch viel Gewinn damit machen.
Und an der Bandbreite hing eine 7970 GE auch nie. Da reicht ein etwas schnellerer VRAM aus.
Ein 280mm2 Chip in 20nm und neuer architektur würde locker reichen um Titan zu verprügeln und würde bei 550Euro auch massig gewinn abwerfen.
robbitop
2013-08-13, 16:09:46
Der 20 nm Prozess ist aber aktuell - wenn überhaupt verfügbar - vermutlich so dermaßen teuer pro GPU, dass dir die geringere Fläche aus Kostensicht erstmal nicht hilft.
Nightspider
2013-08-13, 16:21:03
Und? Selbst wenn so ein schneller Chip so teuer ist wie ein fast doppelt so großer 28nm Chip 500-550mm2 würde AMD noch Gewinn damit machen, wenn er so schnell wäre ich wie prognostiziere.
Zudem wäre so ein schneller Chip auch gute Werbung.
horn 12
2013-08-13, 16:24:57
http://www.bpm-power.com/it/product/1153889/
HD 7990 um 600 Euro und gar darunter, 595 gerade gesehen.
Da wird es die HD9970 wohl knapp darunter schaffen, vielleicht 10% darunter aber SingleGPU
Dies wird ein Fest, und die HD7990 wird nun auch ihre Kaeufer finden.
Dies ist aber viiieel zu spaet und die Vorstellung der Karte wurde komplett an den Baum geknallt... So nicht AMD, hoffe sie lernen daraus fuer kommende Produkte.
Duplex
2013-08-13, 16:39:04
In 28nm SHP GloFo dürfte es über 400mm² sein, bei TSMC sind es sicher 500mm². Titan ist schon sehr effizient. Die GloFo-Idee gefällt mir immer besser ;).
GF 28nm HP Prozess ist bis jetzt nur ein Papiertiger, der Prozess bei TSMC läuft real seit ca. 2,5 Jahren!
AMD wird keine GPUs bei GF fertigen, wenn überhaupt brauchen Sie die Wafer für Kaveri.
Ich sehe kein Einwand gegen ein 450-500mm² Chip von TSMC, der Prozess läuft so gut das größere Chips kein Problem mehr sind, auch die Leistungsaufnahme wird man locker im Griff bekommen.
horn 12
2013-08-13, 16:51:02
Und somit mindestens auf Titan Ultra Version kommen koennen, sprich Titan +15% circa !?
Duplex
2013-08-13, 16:59:15
Zu optimistisch sollte man auch nicht sein.
Vielleicht hat man auch nur die CUs aufgebohrt und das Frontend nicht großartig angepasst, kurzfristig ist das die einfachste Variante, also Big Tahiti, 48 CUs mit 384 Bit SI, evtl. wird man einen hohen Stromverbrauch in Kauf nehmen, deshalb evtl. auch mehr Phasen beim PCB.
Gipsel
2013-08-13, 17:06:11
Was wäre z.B. ein guter Ansatz um die Rohleistung pro Fläche unter GCN ohne neuen Fertigungsprozess zu erhöhen?Also im Rahmen von GCN kann man sicher noch eine Menge Feintuning betreiben, GCN ist ja noch relativ neu und hat noch nicht mehrere Iterationen hinter sich, wie zuletzt die VLIW-Architekturen. Bei der konnte man in der Anfangsphase auch im gleichen Prozeß die benötigte Fläche einer SIMD-Engine doch um Einiges verringern (RV670=>RV770). Aber das sind ziemliche knifflige Optimierungen bei Layout und Routing, wo man nicht pauschal sagen kann, daß sie das und das jetzt machen müßten. Ein bißchen muß man auch im Hinterkopf behalten, daß AMD offenbar prinzipiell ein etwas aufwendigeres Broadcast- und Forwarding-Netzwerk in einer CU betreibt, um bestimmte Funktionen zu ermöglichen (direkte Benutzung von Skalarregistern oder auch LDS-Broadcasts in Vektorbefehlen [ohne Latency-Penalty!]). Bei nVidia verzichtet man großteils auf solche Sachen und hat auch insgesamt eine höhere ALU-Latenz. AMD wird also wahrscheinlich in der ersten Iteration darauf gesetzt haben, es überhaupt mit den angepeilten Taktraten zum Laufen zu bekommen und vermutlich ein wenig Flächen- und auch Stromverbrauchspotential auf dem Tisch liegengelassen haben. Bei einer kompletten Neuauflage (was Bonaire offenbar noch nicht war) kann man natürlich versuchen, sich davon etwas wiederzuholen. Und für meinen Geschmack sind ehrlich gesagt die TMUs auch ziemlich groß im Vergleich.
Wenn es Dir nicht um Rohleistung/Fläche geht sondern um die in praktischen Anwendungen effektiv rüberkommende Leistung, da gibt es sicherlich auf höherer Ebene als die einzelne CU noch genug Baustellen, vor allem in der effizienten Workdistribution und Data Forwarding zwischen verschiedenen Shaderstages bzw. CUs über spezialisierte Buffer, die normalen Caches und den LDS. Dies ist vor allem in Kombination wichtig, also mit noch größeren CU-Zahlen als bei Tahiti.
Auf jeden Fall baucht man nie und nimmer 350mm2 um die Resteverwertung (Titan) oder die Resteverwertung der Resteverwertung (GTX780) eines GK110 zu schlagen.
Alleine mit 10-20% höheren Taktraten kann man rechnen durch 20nm.Ohne angepaßtes Design verbraucht man dann aber auch das Gleiche pro Transistor wie mit 28nm.
Demzufolge müsste eine 7970 nur 10-20% größer sein vom chip im optimalen Fall was unter 28nm rund 400-430 und unter 20nm rund 250mm2 wären.Auf die Fläche paßt aber nur unter größten Mühen ein 384Bit-Speicherinterface. Da mußt Du das Die dann schon deutlich rechteckig machen, damit Du da ein 384Bit-Interface am Rand unterbekommst.
Und trotz teurem 20nm Prozess könnte sich AMD das Teil mit 500 vergüten lassen und würde noch viel Gewinn damit machen.Wenn die Kosten mehr als doppelt so hoch wie mit 28nm sind, machen die damit eher gar keinen Gewinn. Vor allem in der Anfangsphase liegen bei 20nm die Kosten pro (funktionsfähigem) Transistor (deutlich) höher als mit 28nm. Erst deutlich später kommt man auf Gleichstand bzw. einem (kleinen) Vorteil für 20nm. Sagen zumindest die Projektionen der beteiligten Firmen.
Man wäre geradezu verrückt angesichts dieser Prognosen einen Chip fest für 20nm zu planen, den man auch locker noch mit dem erprobten 28nm Prozeß herstellen könnte. Gleiche Performance, geringere Kosten bis weit ins Jahr 2014 (in der Anfangsphase [Q4/13] sehr deutlich, d.h. Faktor 2 oder mehr, d.h. Dein 250mm² Chip in 20nm wäre doppelt so teuer in der Herstellung wie ein 430mm² Chip in 28nm; den "Crossover" bei den Kosten pro Transistor erwartet nV erst für Q4/14!) und das ganze zu einem Preis von 15-20% höherem Stromverbrauch. Das ist eigentlich eine einfache Wahl.
Also wenn nicht TSMCs 20nm Prozeß deutlichst besser läuft als erwartet (oder GF hat seinen Kram zusammenbekommen und überrascht alle nach der eher schleppend verlaufenden Einführung von 28nm) und AMD/nV für diesen Eventualfall geplant haben und ein fertiges Design dafür haben, sieht 20nm als eine ziemlich unwahrscheinliche Lösung für große, komplexe Chips mit einem Launch noch in diesem Jahr aus. GPUs sind ja nicht unbedingt irgendwelche <40mm² Mini-Chips oder sehr einfach zu fertigende FPGAs oder sowas. Und die vielleicht 20% Stromersparnis durch den Prozeß ist jetzt auch nicht unbedingt die Offenbarung.
Eine Alternative wäre die Einführung eines relativ großen Chips im alten Prozeß, der dann im Laufe des nächsten Jahres (also z.B. ab Q3/14) einen 20nm Refresh bekommt.
Oder mal konkret am Beispiel nV als Spekulation:
GM104 kommt als ~500mm² Chip in 28nm Ende 2013/Anfang 2014 (wann immer das Design fertig ist). Q3/14 kommt dann der 500+mm² GM110 in 20nm, gefolgt vom ~300mm² GM114 als Shrink/Refresh des 28nm-Design für leicht höhere Performance und etwas geringerem Verbrauch zu einem Zeitpunkt, wenn das nicht mehr teurer ist, als den in 28nm zu produzieren. Angesichts der Aussagen von AMD/nV zu ihrer Strategie zur Nutzung neuer Fertigungsprozesse würde so etwas in der Art eigentlich sinnvoll erscheinen.
robbitop
2013-08-13, 17:13:23
Und? Selbst wenn so ein schneller Chip so teuer ist wie ein fast doppelt so großer 28nm Chip 500-550mm2 würde AMD noch Gewinn damit machen, wenn er so schnell wäre ich wie prognostiziere.
Zudem wäre so ein schneller Chip auch gute Werbung.
Das stimmt. Allerdings ist stark zu bezweifeln, dass der Prozess schon auf diesem Level ist.
john carmack
2013-08-13, 17:24:57
Hawaii kommt mit absoluter Sicherheit nicht in 20nm@TSMC, verstehe nicht warum darüber noch immer diskutiert wird. Wenn dann wäre höchstens GF/IBM/Samsung eine Option, da weiß man leider relativ wenig wie es um die aktuellen Prozesse steht. Denn es stimmt schon, dass es AMD aus irgend einem Grund schafft diesmal völlig dicht zu halten. Das könnte für eine andere Fertigungsstätte sprechen, angekündigt hat man es ja schon länger das man in Zukunft auch GPUs bei GF fertigen will.
Wer sagt denn das AMD nicht schon seit Anfang 2013 20nm Chips sammelt um diese dann ab Nov oder Dez. vielleicht sogar erst ab Jan. zu verkaufen?
Ich glaube auch nicht an 20nm - aber ausschließen sollte man das nicht!
M4xw0lf
2013-08-13, 17:28:00
Ja klar, warum sammeln sie nicht schon seit Anfang 2012 20nm-Chips? :freak:
boxleitnerb
2013-08-13, 17:28:47
Angeblich ist Curacao ein Pitcairn-Refresh und Iceland dann ein Pitcairn-Ersatz. Erst Curacao, dann Iceland.
http://forums.anandtech.com/showpost.php?p=35371904&postcount=395
Daraus werde ich nicht so recht schlau. Iceland müsste zwingend 20 nm sein, sonst macht es keinen Sinn. Warum der dann aber zeitgleich mit Hawaii auftaucht im Treiber, weiß ich nicht. Vielleicht wird VI@28 nm recht kurzlebig und so schnell wie möglich durch 20 nm-GPUs ersetzt. Inzwischen ist es wohl auch wahrscheinlich, dass AMD Volcanic Islands nicht auf einmal bringt, siehe die letzten Gerüchte. Eventuell ist Curacao dann nur etwas sparsamer und nicht wirklich schneller wie Pitcairn. Dafür wäre dann Tahiti XTL da und obendrauf eben noch Hawaii Pro/XT.
Immerhin können Bonaire und Oland niemals in Pitcairn-Regionen vorstoßen. Das würde evtl. so aussehen:
Hawaii (ca. 7970 GE + 40% Perf.)
Tahiti XTL (ca. 7970 Perf.)
Curacao (ca. 7870 Perf.)
Bonaire
Oland
Sea Islands wurde also möglicherweise nie komplett gestrichen, nur die schnellste GPU davon.
john carmack
2013-08-13, 17:33:07
Ja klar, warum sammeln sie nicht schon seit Anfang 2012 20nm-Chips? :freak:
Weil erst seit anfang 2013 eine RiskProduction von 20nm Chips bei TSMC läuft!
Und das ist Tatsache!
Nakai
2013-08-13, 17:53:07
Immerhin können Bonaire und Oland niemals in Pitcairn-Regionen vorstoßen. Das würde evtl. so aussehen:
Hawaii (ca. 7970 GE + 40% Perf.)
Tahiti XTL (ca. 7970 Perf.)
Curacao (ca. 7870 Perf.)
Bonaire
Oland
Sea Islands wurde also möglicherweise nie komplett gestrichen, nur die schnellste GPU davon.
Das denke ich auch.
Heißt auch, dass alle Chips in 28nm sind.
Mhh, ich dachte Curcao war Tahiti-SeaIslands-Refresh?
Ansonsten stimme ich dir zu, bis auf, dass Tahiti wohl ComputeChip bleibt und Curacao wohl eher für Gaming gedacht ist...imo. Deswegen wohl eher auf Tahiti-Niveau.
mfg
Gipsel
2013-08-13, 18:04:13
Angeblich ist Curacao ein Pitcairn-Refresh und Iceland dann ein Pitcairn-Ersatz. Erst Curacao, dann Iceland.
http://forums.anandtech.com/showpost.php?p=35371904&postcount=395
Daraus werde ich nicht so recht schlau.Kann man auch nicht. Ein Refresh ersetzt die Originalversion auch meist. Insofern ist die Unterscheidung in "Refresh" (Curacao) und "Replacement" (Iceland) irgendwie eigenartig. Es sei denn, er meint, daß Curacao wirklich nur ein Midlife-Kicker ist, also ein simpler Upclock. Aber es gibt bereits so viele 1,1GHz Pitcairns (und die 7850 in 900+MHz Versionen), so daß Pitcairn den Kicker inoffiziell eigentlich schon hinter sich hat. Außerdem ist Curacao praktisch die Nachbarinsel von Bonaire und gehört offensichtlich nicht zur VI-Familie (Aruba, Bonaire und Curacao sind die ABC-Inseln oder die "Inseln unter dem Winde" [Teil der Niederländischen Antillen]). Aruba ist übrigens der Trinity/Richland-Grafikteil, wenn man den Entwicklern der FreeRadeon-Treibern für Linux glaubt (die Einteilung da scheint auch ansonsten zu stimmen (http://www.x.org/wiki/RadeonFeature/)).
Oder wir stellen uns mal einen Worstcase vor. Simple Refreshs bei denen man nur DX 11.2 eingebaut hat.
Hübie
2013-08-13, 18:18:31
Also ich persönlich erwarte auch nicht mehr als GTX 780-Niveau. Was ja nicht schlecht ist ;) Erwartungen können unterboten, erfüllt oder übertroffen werden...
boxleitnerb
2013-08-13, 18:21:53
Kann man auch nicht. Ein Refresh ersetzt die Originalversion auch meist. Insofern ist die Unterscheidung in "Refresh" (Curacao) und "Replacement" (Iceland) irgendwie eigenartig. Es sei denn, er meint, daß Curacao wirklich nur ein Midlife-Kicker ist, also ein simpler Upclock. Aber es gibt bereits so viele 1,1GHz Pitcairns (und die 7850 in 900+MHz Versionen), so daß Pitcairn den Kicker inoffiziell eigentlich schon hinter sich hat. Außerdem ist Curacao praktisch die Nachbarinsel von Bonaire und gehört offensichtlich nicht zur VI-Familie (Aruba, Bonaire und Curacao sind die ABC-Inseln oder die "Inseln unter dem Winde" [Teil der Niederländischen Antillen]). Aruba ist übrigens der Trinity/Richland-Grafikteil, wenn man den Entwicklern der FreeRadeon-Treibern für Linux glaubt (die Einteilung da scheint auch ansonsten zu stimmen (http://www.x.org/wiki/RadeonFeature/)).
Wenn man die Effizienz mit Curacao etwas erhöht, warum nicht? Besser so als bis 20 nm in dem Segment gar nichts zu bringen.
Kriton
2013-08-13, 18:49:28
Also ich persönlich erwarte auch nicht mehr als GTX 780-Niveau. Was ja nicht schlecht ist ;) Erwartungen können unterboten, erfüllt oder übertroffen werden...
Unter Marketinggesichtspunkten wäre Gleichstand (auch bei höherem DX-Level) wohl ein GAU.
Was wäre wenn AMD das GPGPU weglässt? Wie würde sich das leistungsmäßig auswirken können wenn man die Fläche anderweitig nutzt (siehe GTX 680)?
M4xw0lf
2013-08-13, 19:09:21
Weil erst seit anfang 2013 eine RiskProduction von 20nm Chips bei TSMC läuft!
Und das ist Tatsache!
Eben. Ich wollte damit sagen: Ich glaube keinesfalls, dass der Prozess schon so lange funktionierende highend-GPUs ausspuckt, wenn er es jetzt überhaupt tut.
CompuJoe
2013-08-13, 19:24:09
War es nicht so das alle Karten die DX11.1 können auch 11.2 unterstützen?
R.I.P.
2013-08-13, 19:27:59
Jungs, ich bin verwirrt! :biggrin:
Was glaubt ihr, kriegen wir eine 9870, welche die Leistung einer 7970 haben wird, aber vom Verbrauch her der 7870 ähnelt? :freak:
DragonFire
2013-08-13, 19:44:20
Weil erst seit anfang 2013 eine RiskProduction von 20nm Chips bei TSMC läuft!
Und das ist Tatsache!
O.K. So weit so gut. Aber...
Was wird eigentlich in so einer RiskProduktion hergestellt ? TSMC wird ja wohl kaum 5000-10.000 Wafer pro Monat mit unnützen Layouts vollballern, die sie dann anschließend in den Müll werfen.
Da werden schon einige brauchbare Chips hergestellt, die auch verkauft werden. Und in 20nm fallen mir nur GPUs ein.
Da TSMC ebenfalls auf Auftraggeber angewiesen sind könnte bei solchen Anläufen gewisse Zugeständnisse gemacht werden, das eben nicht jeder unbrauchbare Chip auch bezahlt werden muss. Ist schließlich ein Testlauf für die dann anstehende Massenproduktion.
RiskProduktion ist nicht unbedingt gleichbedeutend mit einem Risiko behaftet zu sein. Es könnte einfach nur heißen "Lassen wir es einfach mal noch ruhig angehen bis alles optimal zusammenspielt um dann später unser Pensum zu erreichen."
Da kann auch mal die Straße still stehen um eventuell einen Fehler zu korrigieren oder um weitere Einstellungen vorzunehmen.
RiskProduktion ist somit eher gleichbedeutend mit "Wir können produzieren, nur eben noch nicht so schnell."
So gesehen würde AMD nur das Risiko eingehen noch nicht genügend Hawaii-GPUs zum Marktstart zu besitzen und irgendwie sieht es ganz danach aus, dass AMD ihren Start etwas nach Hinten verlagert...
Skysnake
2013-08-13, 20:09:55
Also im Rahmen von GCN kann man sicher noch eine Menge Feintuning betreiben, GCN ist ja noch relativ neu und hat noch nicht mehrere Iterationen hinter sich, wie zuletzt die VLIW-Architekturen. Bei der konnte man in der Anfangsphase auch im gleichen Prozeß die benötigte Fläche einer SIMD-Engine doch um Einiges verringern (RV670=>RV770). Aber das sind ziemliche knifflige Optimierungen bei Layout und Routing, wo man nicht pauschal sagen kann, daß sie das und das jetzt machen müßten. Ein bißchen muß man auch im Hinterkopf behalten, daß AMD offenbar prinzipiell ein etwas aufwendigeres Broadcast- und Forwarding-Netzwerk in einer CU betreibt, um bestimmte Funktionen zu ermöglichen (direkte Benutzung von Skalarregistern oder auch LDS-Broadcasts in Vektorbefehlen [ohne Latency-Penalty!]). Bei nVidia verzichtet man großteils auf solche Sachen und hat auch insgesamt eine höhere ALU-Latenz. AMD wird also wahrscheinlich in der ersten Iteration darauf gesetzt haben, es überhaupt mit den angepeilten Taktraten zum Laufen zu bekommen und vermutlich ein wenig Flächen- und auch Stromverbrauchspotential auf dem Tisch liegengelassen haben. Bei einer kompletten Neuauflage (was Bonaire offenbar noch nicht war) kann man natürlich versuchen, sich davon etwas wiederzuholen. Und für meinen Geschmack sind ehrlich gesagt die TMUs auch ziemlich groß im Vergleich.
Wenn es Dir nicht um Rohleistung/Fläche geht sondern um die in praktischen Anwendungen effektiv rüberkommende Leistung, da gibt es sicherlich auf höherer Ebene als die einzelne CU noch genug Baustellen, vor allem in der effizienten Workdistribution und Data Forwarding zwischen verschiedenen Shaderstages bzw. CUs über spezialisierte Buffer, die normalen Caches und den LDS. Dies ist vor allem in Kombination wichtig, also mit noch größeren CU-Zahlen als bei Tahiti.
Ohne angepaßtes Design verbraucht man dann aber auch das Gleiche pro Transistor wie mit 28nm.
Auf die Fläche paßt aber nur unter größten Mühen ein 384Bit-Speicherinterface. Da mußt Du das Die dann schon deutlich rechteckig machen, damit Du da ein 384Bit-Interface am Rand unterbekommst.
Wenn die Kosten mehr als doppelt so hoch wie mit 28nm sind, machen die damit eher gar keinen Gewinn. Vor allem in der Anfangsphase liegen bei 20nm die Kosten pro (funktionsfähigem) Transistor (deutlich) höher als mit 28nm. Erst deutlich später kommt man auf Gleichstand bzw. einem (kleinen) Vorteil für 20nm. Sagen zumindest die Projektionen der beteiligten Firmen.
Man wäre geradezu verrückt angesichts dieser Prognosen einen Chip fest für 20nm zu planen, den man auch locker noch mit dem erprobten 28nm Prozeß herstellen könnte. Gleiche Performance, geringere Kosten bis weit ins Jahr 2014 (in der Anfangsphase [Q4/13] sehr deutlich, d.h. Faktor 2 oder mehr, d.h. Dein 250mm² Chip in 20nm wäre doppelt so teuer in der Herstellung wie ein 430mm² Chip in 28nm; den "Crossover" bei den Kosten pro Transistor erwartet nV erst für Q4/14!) und das ganze zu einem Preis von 15-20% höherem Stromverbrauch. Das ist eigentlich eine einfache Wahl.
Also wenn nicht TSMCs 20nm Prozeß deutlichst besser läuft als erwartet (oder GF hat seinen Kram zusammenbekommen und überrascht alle nach der eher schleppend verlaufenden Einführung von 28nm) und AMD/nV für diesen Eventualfall geplant haben und ein fertiges Design dafür haben, sieht 20nm als eine ziemlich unwahrscheinliche Lösung für große, komplexe Chips mit einem Launch noch in diesem Jahr aus. GPUs sind ja nicht unbedingt irgendwelche <40mm² Mini-Chips oder sehr einfach zu fertigende FPGAs oder sowas. Und die vielleicht 20% Stromersparnis durch den Prozeß ist jetzt auch nicht unbedingt die Offenbarung.
Eine Alternative wäre die Einführung eines relativ großen Chips im alten Prozeß, der dann im Laufe des nächsten Jahres (also z.B. ab Q3/14) einen 20nm Refresh bekommt.
Oder mal konkret am Beispiel nV als Spekulation:
GM104 kommt als ~500mm² Chip in 28nm Ende 2013/Anfang 2014 (wann immer das Design fertig ist). Q3/14 kommt dann der 500+mm² GM110 in 20nm, gefolgt vom ~300mm² GM114 als Shrink/Refresh des 28nm-Design für leicht höhere Performance und etwas geringerem Verbrauch zu einem Zeitpunkt, wenn das nicht mehr teurer ist, als den in 28nm zu produzieren. Angesichts der Aussagen von AMD/nV zu ihrer Strategie zur Nutzung neuer Fertigungsprozesse würde so etwas in der Art eigentlich sinnvoll erscheinen.
/sign
Es geht gar nicht darum, ob es nun am Ende Technisch möglich oder nicht möglich ist. Die Frage stellt sich eigentlich nicht. Jetzt auf 20nm zu setzen wäre einfach, wie du schon richtig sagst totaler Wahnsinn. Die Gefahren sind einfach VIEL! zu hoch. So lange man es überhaupt in 28nm machen kann wird man es machen, da man so auf der "sicheren" Seite ist.
Und selbst wenn es in default 28nm NICHT geht, heist das noch lange NICHT! das man 20nm nehmen muss. Stacked Chips, MCM und Interposer werden seit einigen Jahren vorangetrieben. Alle drei Varianten sind sicherlich nicht, oder nur gleich kritisch zu sehen. Ich seh es daher auch als völlig unrealistisch, da eben "verrückt" an, 20nm jetzt zu bringen.
Unter Marketinggesichtspunkten wäre Gleichstand (auch bei höherem DX-Level) wohl ein GAU.
Was wäre wenn AMD das GPGPU weglässt? Wie würde sich das leistungsmäßig auswirken können wenn man die Fläche anderweitig nutzt (siehe GTX 680)?
Das kann AMD beim TopDog nicht. Die brauchen GPGPU zwingend für die FirePro Karten. Sie sind ja endlich auf Augenhöhe angelangt, bzw nVidia kann ja sogar nur mit GK110 kontern, da GK104 kein ECC onchip hat... Was so btw eigentlich total lächerlich ist...
Das man beim TopDog weglässt ist also völlig illusorisch. Da ist es eher noch wahrscheinlich, das man Tahiti 1:1 neu auflegt nur eben mit 1:2 DP:SP statt 1:4.
War es nicht so das alle Karten die DX11.1 können auch 11.2 unterstützen?
Ja, dem sollte so sein.
Psychopat
2013-08-13, 20:10:46
Was wird eigentlich in so einer RiskProduktion hergestellt ?
Wie wärs mit Speicherbausteinen?
DragonFire
2013-08-13, 20:18:43
Wie wärs mit Speicherbausteinen?
Das macht doch schon Samsung.
fondness
2013-08-13, 21:14:37
Also ich persönlich erwarte auch nicht mehr als GTX 780-Niveau. Was ja nicht schlecht ist ;) Erwartungen können unterboten, erfüllt oder übertroffen werden...
Wie soll man GTX780-Leistung noch unterbieten? :freak:
Das wären ja gerade mal 15% mehr als eine 7970Ghz, für weniger legt man wohl kaum einen neuen Chip auf. GTX780-Leistung ist IMO das Minimum was man erwarten kann. Durchaus möglich das es nicht mehr wird, aber weniger wohl kaum.
Zergra
2013-08-13, 21:20:51
Wie soll man GTX780-Leistung noch unterbieten? :freak:
Das wären ja gerade mal 15% mehr als eine 7970Ghz, für weniger legt man wohl kaum einen neuen Chip auf. GTX780-Leistung ist IMO das Minimum was man erwarten kann. Durchaus möglich das es nicht mehr wird, aber weniger wohl kaum.
Japp, ich erwarte 5-15% mehr Leistung als die 780GTX und einen Preis der ca 10-15% unter der 780GTX liegt.
matty2580
2013-08-13, 21:33:24
Ich erinnere nur an Cayman.
Der Unterschied zur 5xxx Series war teilweise nicht vorhanden.
Und selbst die 6970/6950 konnte sich trotz neuer Architektur kaum von den Vorgängern absetzten.
Es gibt auch eine Parallele zu Volcanic Island.
Cayman war in 32nm geplant, musste dann aber in 40nm gebaut werden.
Volcanic Island war auch in 20nm geplant, und wird nun in 28nm wahrscheinlich gebaut.
Es wird also wieder rein nur eine Veränderung über die Architektur geben.
Warum sollte es dieses mal anders sein als bei Cayman?
fondness
2013-08-13, 21:44:27
Ich erinnere nur an Cayman.
Der Unterschied zur 5xxx Series war teilweise nicht vorhanden.
Und selbst die 6970/6950 konnte sich trotz neuer Architektur kaum von den Vorgängern absetzten.
Es gibt auch eine Parallele zu Volcanic Island.
Cayman war in 32nm geplant, musste dann aber in 40nm gebaut werden.
Volcanic Island war auch in 20nm geplant, und wird nun in 28nm wahrscheinlich gebaut.
Es wird also wieder rein nur eine Veränderung über die Architektur geben.
Warum sollte es dieses mal anders sein als bei Cayman?
Naja nicht vorhanden ist Blödsinn.
Selbst bei Cayman waren es mit AA/AF die besagten 15% mehr Leistung als bei einer 5870.
Hier ein Test direkt zum Launch mit wohl noch wenig optimierten Treibern:
http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6970-und-hd-6950/26/
Warum es diesmal anders sein sollte?
GCN ist ein nagelneue Architektur und hat sicher noch mehr Optimierungspotential als VLIW damals.
Cayman war zudem damals eigentlich nur ein Refresh. Aber man wird sehen.
Ist ja auch immer die Frage was sich AMD als Ziel gesetzt hat.
Selbst bei keinen besonderen Architekturverbesserungen hätte man auf jeden Fall noch mehr als genug Möglichkeiten mit einem größeren Die.
Hübie
2013-08-13, 21:53:31
Wie soll man GTX780-Leistung noch unterbieten? :freak:
Das wären ja gerade mal 15% mehr als eine 7970Ghz, für weniger legt man wohl kaum einen neuen Chip auf. GTX780-Leistung ist IMO das Minimum was man erwarten kann. Durchaus möglich das es nicht mehr wird, aber weniger wohl kaum.
Na ja. Ist ja dann auch ne Frage bei welchem Verbrauch. Schau mal wieviel Potential noch im GK110 steckt. Die spazieren locker über die Gigahertzgrenze hinweg. Könnte auch bei upcoming AMD-Chips der Fall sein. Konservative Taktraten erhöhen ja auch yield-rates ;);)
matty2580
2013-08-13, 22:24:32
Naja nicht vorhanden ist Blödsinn.
Selbst bei Cayman waren es mit AA/AF die besagten 15% mehr Leistung als bei einer 5870.
Hier ein Test direkt zum Launch mit wohl noch wenig optimierten Treibern:
http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6970-und-hd-6950/26/
Ich meinte damit die Modelle unterhalb der 6970/6950.
Dieses mal wird es ja wieder angeblich so sein, dass nur die xx70/xx50 eine überarbeitete Architektur haben wird, also genau wie bei der 6xxx Series:
www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/AMD-Volcanic-Islands-Angeblich-nur-Topmodelle-mit-neuer-Architektur-mutmassliches-PCB-gesichtet-1082687/
CB als Quelle würde ich persönlich auch nicht unbedingt empfehlen.
Aber ich habe hier selbst schon oft CB verlinkt. ^^
Interessant zur 6970/6950 ist da eher das Fazit von CB, ohne cherry picking:
In Sachen Performance hat die Radeon HD 6950 erstaunlicherweise direkt mit der Radeon HD 5870 zu kämpfen. Beide Grafikkarten schenken sich fast durchgängig absolut nichts und liegen auf ein und demselben Niveau. Einzig bei vierfacher Kantenglättung kann das neue Produkt minimal davon ziehen und unter 2560x1600 wird der Unterschied aufgrund des Speichers dann größer.
http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6970-und-hd-6950/35/
Warum es diesmal anders sein sollte?
GCN ist ein nagelneue Architektur und hat sicher noch mehr Optimierungspotential als VLIW damals.
Cayman war zudem damals eigentlich nur ein Refresh. Aber man wird sehen.
Genau, dass Optimierungspotential ist bei GCN etwas größer.
Aber die Parallele zu Cayman kann man nicht einfach abtun.
Ohne 20nm wird der Leistungssprung wohl deutlich kleiner ausfallen.
Ist ja auch immer die Frage was sich AMD als Ziel gesetzt hat. Selbst bei keinen besonderen Architekturverbesserungen hätte man auf jeden Fall noch mehr als genug Möglichkeiten mit einem größeren Die.
Einen deutlich größeren Chip wird es nicht geben. Nvidia ist da seit Jahren mutiger, und geht an die Grenzen des Möglichen. Sie können es sich aber auch leisten. Eine Titan würde sich in dem Preis von AMD aktuell niemals so gut verkaufen. Und das erkenne ich selbst als überzeugter AMD-Fan...
Deswegen mache ich mir keine Hoffnungen auf einen Titan-Killer.
Die 780 einzuholen ist realistisch, mehr aber reines Wunschdenken.
Hübie
2013-08-13, 22:35:36
Hm. Der Vergleich ist imo nicht sehr geeignet. AMD machte mit VLIW ohne hin schon einen ziemlichen Alleingang und ließ damit häufig Leistung brach liegen. VLIW4 war dann einfach nur Verzweiflung um eine Brücke bis GCN zu schlagen. Da war nix mehr zu retten. Anhand von der Wechselwirkung Pitcairn<->Tahiti innerhalb der 7870-Reihe sieht man schon wieviel Optimierungspotenzial vorhanden ist (ich beschränke mich aufs gaming, Skysnake :tongue:).
Gipsels Idee vom doppelten Pitcairn finde ich immer noch am besten. Wäre ein echter Hit!
Aber der top dog braucht HPC-Ambitionen (caches, register..) was das wohl obsolet macht.
Was wird eigentlich in so einer RiskProduktion hergestellt ?
Ich meine mal was von Apple-SOCs gelesen zu haben, was auch sehr schlüssig klingt. Sie können es sich bei ihrer Marge leisten, und ziehen großen Nutzen aus dem kleineren Prozess. Eine GPU jetzt in 20nm wäre nur sinnvoll, wenn sie für 28nm zu groß wäre oder man auf biegen und brechen mit guter Leistungsaufnahme werben will. Letzteres ist den Aufwand eigentlich nicht wert. Ersteres würde bedeuten, dass es für das Stadium des Prozesses trotzdem ein verhältnismäßig großes Die wird.
Ergo wird es meiner Meinung nach definitiv 28nm.
Ich meinte damit die Modelle unterhalb der 6970/6950.
Dann solltest du Barts und nicht Cayman schreiben :)
Und bei diesem war meines Wissens bis auf den verdoppelten Tesselator nicht an der Architektur verändert (falls ich mich da nicht irre).
Hübie
2013-08-13, 22:42:11
In der risk production phase wird das finale Design gefertigt. Finale Taktraten und anliegende Spannung werden anhand dieser Produktiknslinie ausgelotet. Das erfolgt meist in homöopathischen Dosen zu hohen Kosten. Bei Fermi lief das ja schief (risk halt) worauf hin GF110 aufgelegt werden musste.
Edit: Barts war ja eher ein rebranding als refreshing... :rolleyes: Noch ungeeigneter als Vergleich.
john carmack
2013-08-13, 23:04:36
http://www.hardware-infos.com/news/4743/tsmc-20-nanometer-fertigung-2013-moeglich.html
"Nun hat der taiwanische Auftragsfertiger Taiwan Semiconductor Manufacturing Company (TSMC) bestätigt, dass eine Grafikkarten-Serie in einer Strukturbreite von 20 Nanometern zum gegenwärtigen Zeitpunkt zumindest theoretisch im Bereich des Möglichen liegt."
Schade das es dazu keine direkte Quelle gibt...
StefanV
2013-08-13, 23:07:10
Ich erinnere nur an Cayman.
Der Unterschied zur 5xxx Series war teilweise nicht vorhanden.
Und selbst die 6970/6950 konnte sich trotz neuer Architektur kaum von den Vorgängern absetzten.
Jo und jetzt schmeiß ich mal den ollen R770 (HD4800 Reihe) in den Raum, der im Vergleich zum R670 (der HD3800 Reihe) ordentlich drauflegen konnte.
Die Size (nach 5min Googeln): 192mm² vs 256mm²...
Es gibt auch eine Parallele zu Volcanic Island.
Cayman war in 32nm geplant, musste dann aber in 40nm gebaut werden.
Volcanic Island war auch in 20nm geplant, und wird nun in 28nm wahrscheinlich gebaut.
Es wird also wieder rein nur eine Veränderung über die Architektur geben.
Warum sollte es dieses mal anders sein als bei Cayman?
Weil du einfach annimmst, dass hier 20nm geplant wurd und man das auf 28nm runter bricht.
Wer sagt, dass es auf 20nm geplant ist? Wer sagt, dass es auf 28nm kommt?? Das ist beides noch unklar...
Außerdem ist die HD-7000er Serie die erste Iteration der GCN Architektur, bei Cayman zu Cypress wars aber schon ziemlich ausgelutscht. Zumal das Grundprinzip schon seit dem unseglichen R600 verwendet wurde. Das war also schon eine äußerst optimierte Architektur, die in der 4. Generation verwendet wurde.
Und hier haben wir gerade erste Generation GCN vs. zweite Generation.
WARUM soll es da keine Verbesserung geben?!
Und WARUM muss es so sein, wie bei Cypress vs. Cayman? Warum nicht wie bei RV670 zu 770??
boxleitnerb
2013-08-13, 23:18:40
Bei RV770 ging die Leistungsaufnahme aber auch sehr ordentlich nach oben, um ca. 90W. Das dürfte in etwa eine Verdopplung gewesen sein - klar, dass das heute nicht mehr geht.
matty2580
2013-08-13, 23:24:12
Es schreibe doch nicht, dass es keine positiven Bsp. gibt.
Nur gibt es eben auch ein "negatives" Bsp. wie Cayman.
Ganz vergleichen kann man das sowieso nicht, da es wirklich erst die 2. Gen von GCN ist.
Ich will doch nur den Optimismus etwas bremsen, und dass damit verbundene Wunschdenken hier.
Ich erinnere mich noch an die vielen Threads zu Haswell hier, und an die utopischen Vorstellungen einiger User. Am Ende war der Unterschied +6% beim 4770k zum 3770k.
Ähnliches befürchte ich bei Volcanic Island. und ich habe auch keine Lust auf einen weiteren Shitstorm gegen AMD, egal in welchem Forum, nur weil man zu große Hoffnungen gesetzt hat.
john carmack
2013-08-13, 23:24:43
In der risk production phase wird das finale Design gefertigt. Finale Taktraten und anliegende Spannung werden anhand dieser Produktiknslinie ausgelotet. Das erfolgt meist in homöopathischen Dosen zu hohen Kosten. Bei Fermi lief das ja schief (risk halt) worauf hin GF110 aufgelegt werden musste.
Edit: Barts war ja eher ein rebranding als refreshing... :rolleyes: Noch ungeeigneter als Vergleich.
Wie kann Fermi (GF100) "Risk" gewesen sein wenn AMD´s Cypress (5870) schon ein halbes Jahr vorher in 40nm erschienen ist?
Duplex
2013-08-13, 23:27:56
Und WARUM muss es so sein, wie bei Cypress vs. Cayman? Warum nicht wie bei RV670 zu 770??
R600 > 320 Shader (80nm)
RV670 > 320 Shader (55nm)
RV770 > 800 Shader (55nm)
Der Sprung bei RV770 war so groß weil man bei RV670 die Shader nicht aufgebohrt hat, RV670 hätte man auch größer machen können.
Wenn man in 20nm "4096 Shader" einbaut, Frontend wie bei Tahiti XT, dann kann man von >80% mehr Performance ausgehen, vor Q3/2014 würde ich aber so ein Chip nicht erwarten.
Das ist nur ein Beispiel, von GCN1 Basis sollte man beim Nachfolger nicht mehr ausgehen, das Design wird bestimmt viel anders sein.
Dieses Jahr reicht schon wenn man mit der GTX780 gleichziehen kann.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.