Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - AMDs CPU-Architekturen-Strategie (Skybridge, K12, Zen, ...)
Seiten :
1
2
3
4
5
6
7
[
8]
9
10
11
12
13
14
15
16
17
18
19
20
Duplex
2015-06-14, 15:41:30
Ohne SMT hat Intel 60-70% mehr IPC.
Unicous
2015-06-14, 15:49:28
Lasst doch Duplex einfach labern. Er bekommt einen Kick wenn er eine Runde FUD-mud in den Thread wirft und verkrümelt sich dann heimlich, wenn der Blödsinn aufgedröselt wird.
w0mbat
2015-06-14, 15:56:34
Ohne SMT hat Intel 60-70% mehr IPC.
Ok, dann sieht es wirklich schlecht aus für AMD. Selbst wenn Zen +40% ohne SMT auf Excavator bringt, und Excavator wirklich nochmal 10% mehr IPC als Piledriver hat, und SMT wirklich +20% IPC bringt, wären dass mit SMT +70% IPC, während Intel aber 80-90% vorne ist. Und wenn die 40% mit SMT sind liegt man bei +50% IPC, was immer noch 30-40% hinter Intel (mit SMT) wäre.
Ich glaube, AMD kann gleich aufgeben :(
Duplex
2015-06-14, 16:06:00
Deswegen bietet AMD auch mehr Kerne als Intel an.
Man sollte erstmal warten bis AMD die 40% ohne SMT bestätigt.
Timbaloo
2015-06-14, 16:06:57
Dann fang doch mal genau damit an.
OBrian
2015-06-14, 17:25:03
AMD wird 8 Kerne bringen, weil sie 1. es können, 2. damit Intel angreifen können, wo es 8 Kerne erst für mehr Geld gibt, und 3. weil sie nach dem 8-Kerner Vishera keinen "kleineren" als Topmodell bringen können.
Wenn AMD mit dem 8-Kern-Zen-FX einen Preisbereich anpeilt, der fast auf Höhe der Sockel 2011-Plattform liegt, dann können wir uns freuen, weil es dann nämlich ein richtig guter Chip wird. Bei einem Preis unter 300$ für das Topmodell kann man sich auf Müll einstellen.
Was Duplex meint, ist nämlich das Problem, AMD hat in der Folie (http://www.planet3dnow.de/cms/wp-content/gallery/analystday2015_papermaster/07_Analystday2015_Papermaster.jpg mit Anmerkung http://www.planet3dnow.de/cms/wp-content/gallery/analystday2015_papermaster/21_Analystday2015_Papermaster.jpg) nicht gesagt "IPC pro Thread 40% höher", aber auch nicht "pro Core". Und in der Dimension "IPC" ist die Anzahl Threads nicht drin. Wenn man HT unberücksichtigt läßt, wäre das ein guter Wert, der auch möglich erscheint. Und mit HT dazu gäbe es sogar noch höhere IPC, nur eben bei multithread-Workloads.
Aber HT steigert nun mal auch die Rechenleistung eines Kernes pro Takt, nur eben nicht bei einem Thread, sondern zweien. Wenn also die Rechenleistung nur um 25% gesteigert wird und mit HT kommt man nochmal auf weitere 15%, dann ergibt das auch 40% mehr, aber es ist nicht das, was wir sehen wollen.
Aber wie gesagt, solange sich AMD dazu nicht klar äußert, kann man beides mit ähnlicher Wahrscheinlichkeit vermuten. Ich schätze, es wird im Laufe des Jahres noch eine technische Präsentation geben, die etwas mehr Licht in die Sache bringt.
Und dann gibt es ja noch die Besonderheit, daß BD im Vergleich zu Intel in vielen Spielen (auch welchen mit mehreren Threads) besonders übel dasteht, während es manchmal durchaus ganz gut aussieht, z.B. Cinebench, oder auch einigen wenigen Spielen wie Arma3. Wenn AMD diese Schwäche komplett auswetzt, sich dafür aber dort, wo sie schon ganz ok sind, nicht so stark verbessert, hätten sie ggf. auch nur einen Mittelwert angegeben. Dann wäre es evtl. in diesen "Intel-"Spielen plus 55% IPC, in Cinebench aber nur plus 25% oder so. Sowas fände ich dann auch ganz gut :) Aber kann auch genau umgekehrt sein, d.h. in Spielen kommt gar nix drauf und nur da gibt es Verbesserungen, wo es mir nichts nützt :(
Man kann es nur abwarten und sich nicht zu große Hoffnungen machen. Ich denk bei den 40% immer an Barcelona und bei "IPC will be higher" an Bulldozer. Wenn es dann doch nicht so schlimm kommt, bin ich eben positiv überrascht, besser so als andersrum.
fondness
2015-06-14, 18:11:03
Man sollte auf jeden Fall schon realistisch sein. Wenn Intel nicht wieder wie bei Netburst Mist gebaut hat, und davon kann man ausgehen, dann ist es ziemlich unrealistisch das AMD mit einem Bruchteil an RnD-Ausgaben und ohne speziellen Fertigungsprozess da mal eben gleich- oder gar vorbeiziehen kann.
Notwendig und realistisch ist eine deutliche Steigerung zu der völlig verhauten Bulldozer-Architektur. Die letzten Prozent an IPC und Takt muss man eben mit mehr Kernen und/oder einen guten Preis ausgleichen. Das sollte reichen um ein attraktives Angebot zu schnüren das so machen überzeugt, gerade wo man bei Intel bereits für Hyperthreading ordentlich Aufpreis zahlen muss und man acht Kerne ohnehin erst ab $1000 bekommt.
Bei einer reinen CPU ohne iGPU wäre alles andere als 8 Kerne auch witzlos in 14nm. Nur die IPC Angabe mit den Haswell Vergleichen finde ich albern ohne genaue Angabe darüber, auf was sich das genau bezieht. Wenn das ein cherry pick Benchmark ist, kann der Durchschnitt weit drunter liegen.
fondness
2015-06-14, 18:16:12
Acht Kerne sind das Minimum, ich würde sogar mehr nicht ganz ausschließen, immerhin will AMD mit dem Ding auch den Servermarkt bedienen. Aber vermutlich gibt es dort wieder ein Multi-Chip-Modul mit dann 16 Kernen.
Sunrise
2015-06-14, 19:06:06
Sehe ich ähnlich. Wenn man mal den Zeitraum sieht, wann AMD Zen veröffentlichen will, dann sind 8 Kerne im Desktop-Performance-Segment definitiv als Minimum angesagt. Will man aber im Servermarkt auch mitspielen, dann braucht man heutzutage auch Kerne ohne Ende, da hier größtenteils virtualisiert wird und die Lasten vom Hypervisor sehr gut verteilt werden können.
16 Kerne wären also in der Tat angebracht. Wenn man keine nativen anbieten kann, dann muss das über zwei 8-Kerner passieren.
Ob man jetzt den 8-Kerner auch im Mainstream anbietet ist eine andere Frage, aber wenn man die TDP bedenkt, dann sollte hier ein Quad-Zen ausgelegt als APU mit zusätzlicher GPU sinnvoller sein. Wie gesagt, umso mehr Kerne, umso weniger ist eine zusätzliche GPU nötig, das ist einfach nur Platzverschwendung.
Brillus
2015-06-15, 00:30:24
Weiß eigentlich wer was der Uncore Bereich so typischer weise ausmacht die cores sollen ja um die 10mm^2 sein, das wären 8 STück ja sogar noch sehr klein.
unl34shed
2015-06-15, 11:33:13
Kurz zu der SMT / IPC Geschichte:
SMT beeinflusst die IPC nicht, es erlaubt nur eine bessere Auslastung der Pipelines.
Anders gesagt, SMT erlaubt es die (maximale) IPC öfter abzurufen.
Soweit zumindest meines Wissens
OBrian
2015-06-15, 14:12:42
naja, nee, eigentlich nicht, das ist Definitionssache. IPC an und für sich heißt ja nur "man rechnet soundsoviel pro Takt", aber dabei ist nichtmal klar, ob das auf einen Kern, ein Modul oder einen Chip gemünzt wird. Wenn man in einem Chip weniger Takt, aber dafür mehr Kerne verbaut, dann kann man auch pro Takt mehr verrechnen. In diesem Fall ist sicherlich nicht der ganze Chip gemeint, aber es ist eben unklar, ob ein Kern gemeint ist (der ja mit SMT zwei Threads schafft) oder die Abarbeitungsgeschwindigkeit eines einzelnen Threads. Und wenn ich SMT aktiviere, dann rechnet die CPU eben einen Thread ab plus noch was vom zweiten, insgesamt also höhere Rechenleistung pro Takt, sprich IPC des Kerns ist höher.
Ich befürchte sogar, AMD hat das absichtlich im Unklaren gelassen. Kann aber auch schlicht der Vereinfachung auf den Folien geschuldet sein, war ja ein Financial Analyst Day und nichts für Technik-Affine. Auch in der Q&A hat niemand diesbezüglich nachgefragt, was zeigt, daß keiner der Anwesenden ernsthaft Ahnung hatte.
Leonidas
2015-06-16, 07:55:42
Intel verschiebt den 10nm Prozess angeblich (vielleicht sogar bis 2018):
http://www.bitsandchips.it/50-enterprise-business/5672-intel-posticipa-i-10nm-finfet-forse-fino-al-2018
Die originale Quelle spricht von möglichen Verschiebungen, aber ist dabei nicht spezifisch bezüglich irgendwelcher Termine:
http://semiengineering.com/10nm-fab-watch/
http://benchlife.info/wp-content/uploads/2015/06/amd-client-micro-pga-socket-roadmap.jpg
http://benchlife.info/wp-content/uploads/2015/06/amd-client-platform-roadmap-1024x724.jpg
Also folgt nächstes Jahr noch eine Excavator APU bis 95W für Desktop.
Zen kommt fürs Mainstream 2017. Hat der keine Grafik oder warum fehlt der Hinweis auf Compute Cores oder GPU?
fondness
2015-06-20, 16:17:08
Damit sind auch die 8 Zen-Cores für Summit Ridge bestätigt. Außerdem sollen 8 Zen Cores nur maximal 95W TDP haben, not bad.
Und das Carrizo Ding im Sockel wird als Excavator Gen2 bezeichnet, was auch immer das bedeuten soll.
Da sind übrigens auch noch andere interessante Slides vorhanden:
http://benchlife.info/amd-apu-platform-will-add-zen-cpu-architecture-in-2017-06182015/
http://benchlife.info/wp-content/uploads/2015/06/amd-client-socket-fm3-long-range-roadmap.jpg
http://benchlife.info/wp-content/uploads/2015/06/amd-bristol-ridge-fm3-performance-scalability-and-flexibility.jpg
http://benchlife.info/wp-content/uploads/2015/06/amd-client-bga-package-roadmap.jpg
http://benchlife.info/wp-content/uploads/2015/06/amd-fm3-socket-transition.jpg
http://benchlife.info/wp-content/uploads/2015/06/amd-soc-and-promontory-chipset-io-coverage.jpg
mboeller
2015-06-20, 19:45:00
http://benchlife.info/wp-content/uploads/2015/06/amd-fm3-socket-transition.jpg
Der Übergang zum "FM3" soll ja schon Q2/2016 beginnen... bezieht sich das jetzt auf die Bristol Ridge APUs oder auf die neuen ZEN-CPUs?
fondness
2015-06-20, 19:53:55
Stimmt laut der Roadmap kommt Bristol Ridge bereits Q2/2016 und vor allem Summit Ridge 8-core Zen ab Q3/2016. Stoney Ridge dann ab Q4/2016 im Lowend und Raven Ridge, also die Zen-APU bereits Q1/2017.
M4xw0lf
2015-06-20, 20:06:02
Im Q2 soll FM3 bereits einen gewissen Marktanteil einnehmen, starten muss er dazu eigentlich in Q1.
So genau kann man das nicht nehmen. Das heißt eigentlich erstmal nur, dass es zu einer Überschneidung kommt. Selbst AMD kann das nicht genau vorhersagen, deswegen diese unpräzisen Angaben.
dargo
2015-06-20, 20:28:52
Damit sind auch die 8 Zen-Cores für Summit Ridge bestätigt. Außerdem sollen 8 Zen Cores nur maximal 95W TDP haben, not bad.
Nur 95W TDP bei 8 Cores? Das wäre der Hammer. Ich bin mir gar nicht so sicher ob Intel das überhaupt hinkriegt. Die liegen jetzt bei 140W @22nm und Haswell-E.
Da sind übrigens auch noch andere interessante Slides vorhanden:
http://benchlife.info/amd-apu-platform-will-add-zen-cpu-architecture-in-2017-06182015/
Hehe... habe das bisher nicht so verfolgt. Finde die Desktop Roadmap aber witzig. AMD fährt jetzt also die gleiche Strategie wie Intel. Performance wird ohne iGP angeboten und bei Mainstream und drunter gibts nur noch iGP dabei. :tongue:
Timbaloo
2015-06-20, 20:32:09
Naja, man kann es auch so sehen: 8 Kerne bei 95W klingt nicht gerade nach einem Single-Thread-Performance-Monster.
Nur 95W TDP bei 8 Cores? Das wäre der Hammer. Ich bin mir gar nicht so sicher ob Intel das überhaupt hinkriegt. Die liegen jetzt bei 140W @22nm und Haswell-E.
Alles eine Frage der Taktfrequenz und Leistung pro Mhz.
Also zu dieser Roadmap stimmt die selbstgebastelte Sample-Tabelle überhaupt nicht. Lt. dieser Roadmap startet Desktop-BR schon Q1 und Summit Ridge ab Q3, was auch mehr Sinn machen würde, da AMD offenbar ja überall 2016 erwähnt für SR.
YfOrU
2015-06-21, 02:48:32
Nur 95W TDP bei 8 Cores? Das wäre der Hammer. Ich bin mir gar nicht so sicher ob Intel das überhaupt hinkriegt. Die liegen jetzt bei 140W @22nm und Haswell-E.
Deutlich über 100W TDP wäre grenzwertig da AM4 eine gemeinsame Plattform für APUs und CPUs ist. Es muss also halbwegs kostengünstig sein.
Grundsätzlich sagt die TDP hier nicht viel aus da bei der hohen Anzahl an CPU Kernen (bzw. Threads) eine ordentliche Turbo Implementierung essentiell ist. Summit Ridge sehe ich prinzipiell in einer Line mit Broadwell-DE. 8C/16T, integrierte SB, DC DDR4 und 2x10GbE bei 45W: http://ark.intel.com/de/products/87039/Intel-Xeon-Processor-D-1540-12M-Cache-2_00-GHz
y33H@
2015-07-17, 10:55:54
Auch wenn's klar war, Lisa Su hat 14nmFF für Zen-basierte FX bestätigt:
Last night Intel announced the addition of a new chip on their 14-nanometer roadmap and pushed back 10-nanometer. It strikes two things; one, love to get your commentary relative to your foundry partners as to how the Moore's Law progression is going particularly with Zen coming on 14-nanometer next year, and second, it looks like now you will be in a position to potentially overlap your Zen products with a generation of Intel products that is still on 14-nanometer.
Zudem interessant:
We have actually just taped out our first couple of FinFET designs.
Ravenhearth
2015-07-17, 14:09:55
GPUs?
AffenJack
2015-07-17, 15:21:17
Zuerst bestimmt CPU, Cpus haben viel längere Vorlaufzeiten. Aber da es mehrere sind, sind Gpus bestimmt auch dabei
Mandalore
2015-07-17, 15:27:21
Was denkt ihr, wie groß ist die Wahrscheinlichkeit, dass AMD für die Nintendo NX eine ZEN-basierte APU liefert? Wenn das Ding nächstes Jahr erscheint müsste es doch möglich sein oder nicht?
Ravenhearth
2015-07-17, 15:49:22
Allerdings gibt AMD für die zwei neuen Semi-Custom-Deals nur einen "lifetime revenue" von 1 Mrd. $ an. Das allein klingt für einen richtigen Konsolen-SoC etwas wenig, aber da es zwei Deals sind, wären es sogar noch weniger.
Nightspider
2015-07-17, 17:44:58
Was sagen denn aktuelle Quellen wann die ersten Zen basierten CPUs erscheinen sollen, egal ob Desktop, Workstation oder Server?
Lisa meint ja, quarters 2016
Heißt für mich März bzw. April... gemeint aber wohl start der Massenfertigung?
Nightspider
2015-07-17, 18:15:06
Na mal sehen. AMD hat zumindest im Desktop-Markt noch ganz gute Chancen mit Zen.
1. Gibts von Intel da nur überteuerte QuadCores
2. Gibts etliche AMD Anhänger die nur auf neue gute Preis/Leistungskracher warten
3. Kommt von Intel da nicht so schnell was Neues wenn 10nm erst 2017 und Icy Lake erst 2018 kommen
Noja... nen 8/16 der in Single Core Sandy Niveau hätte, fände ich nicht verkehrt... zusammen mit nem Brett ist mir das so 600€ Wert.
Egal bin gespannt was Keller da gezimmert hat.
OBrian
2015-07-17, 22:45:46
Lisa meint ja, quarters 2016
Heißt für mich März bzw. April... gemeint aber wohl start der Massenfertigung?
neinneinnein. Auf die Frage, wann FinFET-Produkte kommen, meinte sie, "da wird ja alles mögliche damit fertigen, kommt das ganze Jahr über irgendwas damit". Sie hat direkt zu Zen überhaupt nichts gesagt.
Aus anderen Quellen kann man aber weiterhin von 2. Jahreshälfte ausgehen.
R.I.P.
2015-07-17, 23:15:51
Einfach Arschbacken zusammenkneifen und noch 12 Monate ausharren Männer...wenn nicht zuvor alles flöten geht :eek:
Ravenhearth
2015-07-17, 23:21:55
Das ist doch das gleiche Spiel wie beim A64, Phenom oder Bulldozer: Intel ist überlegen, AMD hatte schon länger keine neue Architektur mehr, geht fast pleite und wartet nun auf den Heilsbringer. Beim A64 hat die Rettung in letzter Sekunden funktioniert, bei Phenom und Bulldozer aber nur bedingt...
StefanV
2015-07-17, 23:59:51
Nein, der Phenom II war ganz OK und durchaus gleichwertig oder besser als der damalige C2Q und jetzt dürfte der Phenom II den C2Q richtig platt machen...
Aber hier ist gerade das Problem der ganzen Firmen Anhänger, die ein gleichwertiges AMD Produkt nicht wirklich akzeptieren und das krampfhaft schlecht reden müssen, obwohl es gleichwertig oder sogar besser ist...
Das war ja auch beim K7 und K8 der Fall, wo dann irgendwelche Dinge ausm Hintern gezogen wurden, um Intel besser reden zu können...
Nightspider
2015-07-18, 03:55:46
Das ist doch das gleiche Spiel wie beim A64, Phenom oder Bulldozer: Intel ist überlegen, AMD hatte schon länger keine neue Architektur mehr, geht fast pleite und wartet nun auf den Heilsbringer. Beim A64 hat die Rettung in letzter Sekunden funktioniert, bei Phenom und Bulldozer aber nur bedingt...
Nur gibts aktuell gar keine "HighEnd" Prozessoren von AMD. AMD bedient mit ihren kleinen APUs höchstens das Mittelfeld mehr oder weniger gut.
AMD hat sich ja zum Glück vor einigen Jahren Top-Ingenieure zurückgeholt für Zen. Gerade durch Jim Keller und 1-2 Lead Chip Designer wird Zen hoffentlich nicht total für die Tonne sein. Viele hoffen ja auch Haswell-IPC und AMD typische recht hohe Taktraten. 4,5Ghz + 6 Kerne ohne IGP für 200 Euro und das Ding wird von jedem Gamer gekauft. AMD könnte 4 schnelle Kerne günstig für 200 anbieten und 6 Kerne günstig für 300.
Es ist auf jeden Fall Potential vorhanden und AMD hat durch Intels Zeitplan und überteuerte Preise die Möglichkeit aufzuschließen.
Im Vergleich zum aktuellen Portfolio kann Zen die AMD Aktie fast nur nach oben schießen lassen. Dort fließt ja auch seit 2 Jahren das größte R&D Budget von AMD rein.
Ravenhearth
2015-07-18, 05:05:54
Ich stimme zu, nur die 4,5 GHz erscheinen etwas hoch ;)
Nightspider
2015-07-18, 05:09:16
Naja AMD hatte in 32nm ja auch schon CPUs mit bis zu 4,7Ghz im Sortiment und 5Ghz Turbotakt.
Solche Frequenzen sind zwar bei komplexeren Architekturen schwieriger zu erreichen aber das muss man abwarten. Zen kommt wenn dann eh in 14nm. 4Ghz sind mindestens drin imo.
Intels Skylake wird ja auch mit 4,2Ghz Turbotakt ausgeliefert.
Knuddelbearli
2015-07-18, 09:56:27
ich glaube nicht an so einen hohen Takt. Ich tippe eher auf ~3,5GHz eher weniger als mehr. Die Zeit wird aber zeigen wer richtig tippt ^^
Achill
2015-07-18, 10:26:05
Weil wir uns gerade was wünschen ... ;)
Ich hoffe 3-4Ghz bei guten Verbrauchswerten - damit die Verbrauchsdiskussion (zurecht) nicht wieder los geht.
Der/Die besten CPUs dann unlooked und hoffentlich gutes altes AMD OC Potenzial ... hier kann dann der Verbrauch gern etwas steigen - sowas wird bei OC immer leichter toleriert als bei Stock.
Dann noch Variation über die CPU-Kern-Menge - ich glaube es waren immer 4 Kerne pro Zen-Modul. Also CPUs mit:
- 2 / 4 / 8 / 12 / 16 Kerne (Verwertung von Produktionsfehlern inkl. Unlocking für die Risiko-Bereiten)
- Immer die IGP mit dabei lassen, damit OpenCL & HSA weiter gepushed wird, und man hat die tech. ja im Hause ...
- Keine separaten Server-CPUs (Zen for All ;D) ... Aspekte wie ECC über die Boards regeln lassen - k.a. ob das über Microcode / Bios nicht möglich wäre
fondness
2015-07-18, 10:28:40
Das Problem ist, das man so wie man aktuell aufgestellt ist nicht mal bis zum 2. Halbjahr 2016 überlebt, außer der PC-Markt entwickelt sich wieder erwarten doch stärker als gedacht. Und das wo bereits SEHR viel eingespart und gekürzt wurde. Weitere, notwendige Einsparungen und Kostenreduktionen gehen zwangsläufig auf die Substanz, ich befürchte das man die Roadmap deutlich zusammen stutzen wird müssen. Man kann mit den jetzigen Einnahmen von AMD unmöglich eine konkurrenzfähige CPU und GPU-Arch entwickeln. Und AMD entwickelt ja auch noch ARM plus x86 Cores. Ich kenne ein paar Leute bei AMD und die sagen es ist ein Desaster. Ich rechne nicht mehr damit, das man die optimistischen Prognosen halten wird können von wegen +40% IPC, man wird das Ding irgendwie zusammen schustern, koste es was es wollen, weil man schlicht keine andere Wahl mehr hat.
Korvaun
2015-07-18, 10:37:05
Ich rechne mit gut kaufbaren Desktop-ZENs nicht von 4Q2016. Alles andere würde mich positiv überraschen, aber ich glaube der 14nm Prozess bei GF/Samsung ist noch nicht gut genug für grössere hoch-GHz(3+) Chips (da wird ja aktuell nur der Apple A9 produziert, ist trotzdem ne gute Sache, das bringt Erfahrung).
Andererseits hat AMD glücklicherweise etwas weniger Druck seitens Intel, da die mit ihren 10nm Prozess ja jetzt erst frühestens Mitte 2017 auf den Markt kommen. Wenn alles gut geht dann gibts das erste Mal seit vielen Jahren wieder Prozessoren von AMD und Intel im (fast) gleichen Fertigungsverfahren. Das wird richtig spannend nächstes Jahr :)
Korvaun
2015-07-18, 10:43:14
Das Problem ist, das man so wie man aktuell aufgestellt ist nicht mal bis zum 2. Halbjahr 2016 überlebt, außer der PC-Markt entwickelt sich wieder erwarten doch stärker als gedacht. Und das wo bereits SEHR viel eingespart und gekürzt wurde. Weitere, notwendige Einsparungen und Kostenreduktionen gehen zwangsläufig auf die Substanz, ich befürchte das man die Roadmap deutlich zusammen stutzen wird müssen. Man kann mit den jetzigen Einnahmen von AMD unmöglich eine konkurrenzfähige CPU und GPU-Arch entwickeln. Und AMD entwickelt ja auch noch ARM plus x86 Cores. Ich kenne ein paar Leute bei AMD und die sagen es ist ein Desaster. Ich rechne nicht mehr damit, das man die optimistischen Prognosen halten wird können von wegen +40% IPC, man wird das Ding irgendwie zusammen schustern, koste es was es wollen, weil man schlicht keine andere Wahl mehr hat.
ZEN müsste für einen Release 2H2016 eigentlich intern schon so gut wie fertig sein. Jetzt sollte nur noch letztes debugging und Produktionsvorbereitung anstehen. 14nm-GPUs sind wohl auch schon einige fertig, siehe Tapeout-Meldungen von heute. Durchhalten bis nächstes Jahr ist angesagt, zur Not muss AMD halt von irgend wem übernommen werden. Wäre ja aktuell nicht der schlechteste Zeitpunkt, zumindest wenn die 14nm GPU/CPU-Designs konkurrenzfähig werden ;)
AffenJack
2015-07-18, 10:44:14
@Fondness
Zens Geschwindigkeit hat doch gar nix mehr mit den aktuellen Problemen zutun. Die wird sich dadurch nicht verändern. Das Ding hatte wahrscheinlich gerade sein Tapeout und muss nur noch fertig gestellt werden. Genauso die GPU Designs. Das Problem ist ob man die Roadmap noch halten kann, wenn man weitere Stellen kürzt und falls das gelingt werden zukünftige Designs natürlich drunter leiden, da man da dann stärker den Stift ansetzen muss.
Andererseits hat AMD glücklicherweise etwas weniger Druck seitens Intel, da die mit ihren 10nm Prozess ja jetzt erst frühestens Mitte 2017 auf den Markt kommen. Wenn alles gut geht dann gibts das erste Mal seit vielen Jahren wieder Prozessoren von AMD und Intel im (fast) gleichen Fertigungsverfahren. Das wird richtig spannend nächstes Jahr :)
Das der Prozess läuft ist eine Sache, das er wirtschaftlich läuft eine andere. Intel hätte ihre initiale Roadmap (mit eingeschränktem Volumen) für 14nm problemlos halten können wenn sie es in Kauf genommen hätten massig Geld für Wafer mit zu niedrigen yields zu verbrennen.
Thunder99
2015-07-18, 11:24:54
Das Problem ist, das man so wie man aktuell aufgestellt ist nicht mal bis zum 2. Halbjahr 2016 überlebt, außer der PC-Markt entwickelt sich wieder erwarten doch stärker als gedacht. Und das wo bereits SEHR viel eingespart und gekürzt wurde. Weitere, notwendige Einsparungen und Kostenreduktionen gehen zwangsläufig auf die Substanz, ich befürchte das man die Roadmap deutlich zusammen stutzen wird müssen. Man kann mit den jetzigen Einnahmen von AMD unmöglich eine konkurrenzfähige CPU und GPU-Arch entwickeln. Und AMD entwickelt ja auch noch ARM plus x86 Cores. Ich kenne ein paar Leute bei AMD und die sagen es ist ein Desaster. Ich rechne nicht mehr damit, das man die optimistischen Prognosen halten wird können von wegen +40% IPC, man wird das Ding irgendwie zusammen schustern, koste es was es wollen, weil man schlicht keine andere Wahl mehr hat.
Defakto wäre ohne den Konsolen Deal AMD R.I.P. Hoffen wir das AMD mit Carizzo wieder ein wenig Geld verdient um das Schlimmste zu verhindern.
ZEN erwarte ich auch nicht vor Mitte 2016, eher Winter oder Anfang 2017
y33H@
2015-07-18, 11:26:01
Ich rechne nicht mehr damit, das man die optimistischen Prognosen halten wird können von wegen +40% IPC, man wird das Ding irgendwie zusammen schustern, koste es was es wollen, weil man schlicht keine andere Wahl mehr hat.Etwas mehr als ein Jahr vor Marktstart sollte der Chip nahezu fertig sein, das Tape-out ist vollzogen, jez mal schauen was von GloFo (?) zurückkommt und wie gut der 14nmFF LPP (?) bezüglich Takt/Energie ist.
Lisa meint ja, quarters 2016
Heißt für mich März bzw. April... gemeint aber wohl start der Massenfertigung?
Exakt. Passt hervorragend zur Roadmap. Die Aussage unterstreicht, dass sich daran bisher nichts geändert hat.
Die Custom SoCs sind das mMn nicht. Die wurden offenbar erst recht spät von 20nm weggeholt. Und bei NX kommts darauf, ist das 28nm, kann Nintendo die Konsole nächstes Jahr bringen. Bei 14nm würd ich mit der NX nicht vor Mitte 2017 rechnen - immer vorausgesetzt Nintendo ist der neue Semi-Custom-Partner.
Die Tapeouts werden der finale Zen sein und die Arctic Islands HBM2-Grafikchips.
neinneinnein. Auf die Frage, wann FinFET-Produkte kommen, meinte sie, "da wird ja alles mögliche damit fertigen, kommt das ganze Jahr über irgendwas damit". Sie hat direkt zu Zen überhaupt nichts gesagt.
Aus anderen Quellen kann man aber weiterhin von 2. Jahreshälfte ausgehen.
Wo nannte ich denn "Zen" ?
quarters 2016 heißt März/April. Geschäftsquartal enden 3 Monate später ...
bzw: " roll out over the quarters in 2016 " ... heißt Release März/April. Ob die damit nun den start der Massenfertigung meint oder bereits Produkt Release, das weiß ich nicht.
fondness
2015-07-18, 12:58:27
Wo nannte ich denn "Zen" ?
quarters 2016 heißt März/April. Geschäftsquartal enden 3 Monate später ...
Sie hat gesagt die Produkte kommen in einem der [vier] Quartale von 2016, bzw. werden über die [vier] Quartale 2016 ausgerollt.
Hab mir die Eingangs gestellte Frage nochmal bis zu dem Abschnitt gelesen, jo.....
Mal hoffen, dass Zen möglichst früh dabei ist.
Korvaun
2015-07-18, 14:00:19
Wo nannte ich denn "Zen" ?
quarters 2016 heißt März/April. Geschäftsquartal enden 3 Monate später ...
bzw: " roll out over the quarters in 2016 " ... heißt Release März/April. Ob die damit nun den start der Massenfertigung meint oder bereits Produkt Release, das weiß ich nicht.
Das soll wohl eher heißen das jedes Quartal in 2016 irgend was released wird. Könnte z.b. so sein:
1Q2016 14nm Einsteiger-GPU
2Q2016 14nm Mainstream-GPU
3Q2016 14nm HighEnd-GPU
4Q2016 14nm ZEN CPU
tm0975
2015-07-18, 14:14:41
@Korvaun
oder umgekehrt. :wink: in q1 kommt der sockel am4. dann kann zen nicht so weit weg sein.
StefanV
2015-07-18, 14:45:04
Das soll wohl eher heißen das jedes Quartal in 2016 irgend was released wird. Könnte z.b. so sein:
1Q2016 14nm Einsteiger-GPU
2Q2016 14nm Mainstream-GPU
3Q2016 14nm HighEnd-GPU
4Q2016 14nm ZEN CPU
Nein
Höchste Prio dürfte Zen haben. Danach ein Tonga/Hawaii Equivalent. Da brennts momentan am meisten.
Beim Fiji sind 'nur' noch die Kosten das Problem - aber das liegt schlicht an der neuen Technologie, die noch niemand wirklich in Masse gefertigt hat. Bis das alles gelöst ist, wirds wohl noch 'nen bisserl dauern aber das wird man wohl auch hin bekommen...
Im Low End Bereich würd ich erst mal kein 14nm Chipß erwarten wollen, da hier der Preis sehr wichtig ist. UNd die 14nm Fertigung wird wohl eher nicht sonderlich preiswert sein...
Ravenhearth
2015-07-18, 16:16:48
Naja AMD hatte in 32nm ja auch schon CPUs mit bis zu 4,7Ghz im Sortiment und 5Ghz Turbotakt.
Solche Frequenzen sind zwar bei komplexeren Architekturen schwieriger zu erreichen aber das muss man abwarten. Zen kommt wenn dann eh in 14nm. 4Ghz sind mindestens drin imo.
Intels Skylake wird ja auch mit 4,2Ghz Turbotakt ausgeliefert.
Aber 32nm war ein auf hohe Taktraten optimierter Prozess, 14LPP ist ein Standard-Prozess, der auch für SoCs herhalten muss. Zumal die Taktbarkeit mit neuen Fertigungsgrößen mittlerweile schlechter als besser wird! Mehr als 4GHz werden wir nicht sehen.
@Fondness
Zens Geschwindigkeit hat doch gar nix mehr mit den aktuellen Problemen zutun. Die wird sich dadurch nicht verändern. Das Ding hatte wahrscheinlich gerade sein Tapeout und muss nur noch fertig gestellt werden. Genauso die GPU Designs. Das Problem ist ob man die Roadmap noch halten kann, wenn man weitere Stellen kürzt und falls das gelingt werden zukünftige Designs natürlich drunter leiden, da man da dann stärker den Stift ansetzen muss.This. "Austerity" ist ja in, und man sieht, wohin das führt. Was wirklich gut tun würde, wäre eine grosse, fette Finanzspritze zu besseren Konditionen als die derzeit laufenden (und bislang gut gemanaged-en!) Verbindlichkeiten. Dann alles in Qualität und Personal investieren. Bloss woher soll die kommen.
Was das Thema Architektur angeht: Weshalb eigentlich der "LPP"-Prozess? Klingt schon wenig nach Performance-Orientierung...
Korvaun
2015-07-18, 16:57:11
Nein
Höchste Prio dürfte Zen haben. Danach ein Tonga/Hawaii Equivalent. Da brennts momentan am meisten.
Beim Fiji sind 'nur' noch die Kosten das Problem - aber das liegt schlicht an der neuen Technologie, die noch niemand wirklich in Masse gefertigt hat. Bis das alles gelöst ist, wirds wohl noch 'nen bisserl dauern aber das wird man wohl auch hin bekommen...
Im Low End Bereich würd ich erst mal kein 14nm Chipß erwarten wollen, da hier der Preis sehr wichtig ist. UNd die 14nm Fertigung wird wohl eher nicht sonderlich preiswert sein...
Die Liste war ja nur beispielhaft, glaube auch kaum das es so kommen wird. Da gibts einfach zu viele Variablen die das alles jederzeit durcheinanderwirbeln können. ZEN erwarte ich allerdings keinesfalls vor der 2ten Jahreshälfte 2016. Und bei den GPUs ist auch immer sehr wichtig was nV macht. Von überragender Bedeutung ist aber sicherlich wie gut der 14nm Prozess ist bzw. wie schnell er reift und ordentliche yields abwirft...
OBrian
2015-07-19, 00:17:45
Die Einführung des Sockels AM4 wird jedenfalls nicht mit der Einführung von Zen zusammenfallen, zumindest nicht müssen. Carrizo hat ja einen Kombicontroller DDR3/4 und wird als Desktopchip im neuen Sockel AM4 gebracht, was dann ja auch früher erfolgen kann (und wahrscheinlich auch wird).
Hat den Vorteil, daß die Boards schon gereift sind, wenn Zen gelauncht wird, d.h. die Wahnsinnigen, die sich Zen am ersten Tag zu Mondpreisen kaufen (wie ich z.B.^^), können schon ein funktionsfähigen Baord haben und müssen nicht noch ne Woche warten, um dann festzustellen, daß noch drei BIOS-Updates kommen müssen, bis die Kiste rund läuft.
Aber der Nachteil ist eben, daß man nicht vom AM4-Launch auf den Zeitpunkt des Zen-Launches schließen kann. ;)
Herbst ist für Zen jedenfalls durchaus realistisch. Sie werden sicherlich versuchen, Back-to-school noch zu erwischen, das dann AMD-typisch verpassen und das Weihnachtsgeschäft gerade noch so schaffen. Ich gebe mal einen Schuß ins Blaue ab und sage "23. November 2016"
Aber 32nm war ein auf hohe Taktraten optimierter Prozess, 14LPP ist ein Standard-Prozess, der auch für SoCs herhalten muss. Zumal die Taktbarkeit mit neuen Fertigungsgrößen mittlerweile schlechter als besser wird! Mehr als 4GHz werden wir nicht sehen.
32nm war ebenfalls ein Standardprozess. Gibt auch LP und ULP-Produkte mit GloFos 32nm. Er wurde eben vor allem für hochpreisige Produkte verwendet, da er dank SOI relativ teuer ist.
Skysnake
2015-07-19, 11:23:59
Also Zen wird sicherlich nicht in Q1/16 kommen.
Wovon ich ausgehe ist eventuell Q2, aber ich denke eher Q3. Wenn man mich also fragen würde, auf welches Quartal ich mich festlegen würde, würde ich antworten Q3, und da eher Mitte bis Ende.
Anfang Q2 wäre doch ganz ok.... ich krieg den März/April nicht aus dem Kopf :D
Ravenhearth
2015-07-19, 14:10:13
32nm war ebenfalls ein Standardprozess. Gibt auch LP und ULP-Produkte mit GloFos 32nm. Er wurde eben vor allem für hochpreisige Produkte verwendet, da er dank SOI relativ teuer ist.
Soo Standard war der auch nicht. Der wurde immerhin primär für AMD entwickelt und war eben ihren Ansprüchen entsprechend auf hohe Taktraten ausgelegt. Das ist mit 14LPP nicht ganz vergleichbar.
Soo Standard war der auch nicht. Der wurde immerhin primär für AMD entwickelt und war eben ihren Ansprüchen entsprechend auf hohe Taktraten ausgelegt. Das ist mit 14LPP nicht ganz vergleichbar.
Genauso vergleichbar wie jeder andere bishergie HP Prozess.
Ravenhearth
2015-07-19, 14:26:50
14 Low Power Plus ist nur kein reiner HP-Prozess.
Flusher
2015-07-19, 15:24:10
, würde ich antworten Q3, und da eher Mitte bis Ende.
Sag doch einfach: August/September und nicht so verschwurbelt. :freak:
14 Low Power Plus ist nur kein reiner HP-Prozess.
Das ist nichts weiter als ein Name. Samsung nennt den halt so, ist ja nicht von GloFo. Von sowas würd ich mich da nicht beeindrucken lassen. Wenn der Prozess die Qualität hat, dass man darauf CPUs mit bestimmten Takten fertigen kann ist alles gut.
Im Prinzip (also nicht 100%ig korrekt ausgedrückt):
GloFo:
32nm SOI -> 28 HPP/SHP -> 14 LPP (CPUs, SoCs, Grafikchips usw.)
40nm -> 28 SLP/LPM -> 22 SOI (Netzwerkchips, DSPs uvm.)
TSMC:
28 HP -> 16 FF+
(28 LP -> 20 SoC) (20 SoC ist sehr teuer)
mboeller
2015-07-19, 18:23:51
14 Low Power Plus ist nur kein reiner HP-Prozess.
anscheinend doch: http://www.semiwiki.com/forum/files/22FDSOI%20Product%20Briefing%20Deck%20FINAL%20%28rev%20W%29.pdf Siehe Seite 8 (ist aber nur eine Übersicht)
Ravenhearth
2015-07-19, 18:32:44
Natürlich ist der auch HP, aber eben nicht nur (wie ich schrieb).
Das "nicht nur" gabs auch bei den älteren Prozessen.
y33H@
2015-07-19, 23:11:49
14 Low Power Plus ist nur kein reiner HP-Prozess.Ich meine, der war rein HP, die Slide zeigt IMHO schön die Aufteilung (LPP für Server und HPC - LPE hingegen für Mobile und Networking).
Ravenhearth
2015-07-19, 23:13:35
Ich glaube eher, beide decken den gleichen Bereich ab. LPE ist schlicht "early".
y33H@
2015-07-20, 00:54:18
Ich argumentiere mal hiermit :biggrin:
52611 52612
EDIT
20nmLPM wurde gecancelt, nun gibt's 22FDX (http://www.golem.de/news/22fdx-globalfoundries-stellt-neue-chip-fertigungstechnik-vor-1507-115195.html).
OBrian
2015-07-20, 01:51:56
Das sind aber wohl recht unterschiedliche Prozesse, und das eine ist auch nicht einfach Ersatz für das andere. Der Shrink in bulk von 28 auf 20 ist der übliche Schritt, wurde aber ausgelassen, weil gleich weiter auf 14 finanziell sinnvoller war (das sind ja alles Halfnodes). Aber 22nm SOI (Fullnode, direkter Nachfolger von 32nm) ist ja was, um Dresden upzugraden, ohne da zuviel umbauen zu müssen. Ganz andere Schiene und ganz andere Motivation.
22FDX ist wohl kein Fullnode sondern eigentlich ein 28nm-FDSOI-Prozess. 22nm heißt der nur, weil er erheblich weniger mit Leckströmen zu kämpfen hat.
Und der LPE hatte eigentlich tatsächlich nur den Vorteil der früheren Verfügbarkeit, ähnlich wie 16FF. Beide Prozesse werden kaum eingesetzt. Ich glaube auch nicht, dass die Foundries das noch mal so machen werden.
In Wahrheit sind die FF-Prozesse die Eierlegende Wollmilchsau, da sich dank der Fins im Prinzip jede beliebige Transistorgröße abbilden lässt.
Gerüchten zufolge arbeiten GloFo, Samsung und IBM daran bei 10nm FDSOI mit FinFETs zu kombinieren.
In Wahrheit sind weder 14LPP noch 10LPP dann als "LowPower"-Prozesse zu gebrauchen, dafür sind sie einfach zu teuer. Stattdessen kann man ja 22FDX oder 14FDX nutzen bei GloFo/Samsung.
Unicous
2015-07-26, 15:16:15
Entweder AMD treibt schon wieder Schindluder mit ihren Codenamen oder es wird bereits Stoney Ridge (Carrizo-L Ablöse: 2 EXV Kerne+3 GCN CUs) vorbereitet.
(COMPUTER PART-MOTHERBOARDS)GARDENIA MOTHERBOARD FOR TESTINGWITHOUT APU STONEY FP4DDR3 AMD P/N :109C75120-00B_02(FOC)
(COMPUTER PART-MOTHERBOARDS)GARDENIA MOTHERBOARD FOR TESTINGWITHOUT APU DDR4 DAP AMD P/N :109C75120-00B_02(FOC)
Gibt noch einen anderen Eintrag, der sich erst mal nicht verorten lässt:
(COMPUTER PART-MOTHERBOARDS)GARDENIA MOTHERBOARD FOR TESTINGWITHOUT APU DDR4 DAP AMD P/N :109C93020-00A_02(FOC)
spotz
2015-07-28, 01:11:25
22FDX ist wohl kein Fullnode sondern eigentlich ein 28nm-FDSOI-Prozess. 22nm heißt der nur, weil er erheblich weniger mit Leckströmen zu kämpfen hat.
Die Dies aus der 22fdx Fertigung sollen aber auch 20% kleiner sein, als die aus der 28nm bulk planar Fertigung. Spräche diese Die-Verkleinerung nicht auch für eine feinere 22nm anstatt einer groberen 28nm FD-SOI Fertigung?
20% smaller die than 28nm bulk planar
http://www.globalfoundries.com/technology-solutions/leading-edge-technology/22fdx
Die Dies aus der 22fdx Fertigung sollen aber auch 20% kleiner sein, als die aus der 28nm bulk planar Fertigung. Spräche diese Die-Verkleinerung nicht auch für eine feinere 22nm anstatt einer groberen 28nm FD-SOI Fertigung?
Ok, wurde wohl doch mehr verfeinert als gedacht. Klar, dann ist das vielleicht das Kleinste, was man mit SinglePatterning hinbekommt.
mczak
2015-07-28, 15:57:44
Das Frontend ist 14nm, das Backend 28nm. Deswegen wird's im Endeffekt wohl auch kleiner als 28nm Chips. Kann man hier nachlesen: http://www.advancedsubstratenews.com/2015/07/yes-fd-soi-ip-ready-for-gf-samsung-ecosystem-now-a-force-to-be-reckoned-with/ - da steht auch was von zwei double-patterning layer im Frontend.
Schade daran ist allerdings dass der Prozess wohl einiges später im Markt erscheinen wird als das 14/16nm FinFet Zeugs (bei Samsung gibt's ja schon FinFet, sind dann also wohl so effektiv 2 Jahre später).
Auf dem Papier sieht der Prozess jedenfalls sehr gut aus. Kann man tatsächlich ähnliche Performance wie 14/16nm FinFet erreichen zu geringeren Kosten spricht ja eigentlich alles dafür den zu verwenden, denn die reine Grösse des Chips ist nicht wirklich entscheidend (müsste allerdings schon auch Vorteile bringen, weil die Verbindungswege kürzer sind). Ganz im Gegenteil das ist dann einfacher zu kühlen...
Wobei natürlich 20% geringere Kosten gegenüber 14/16nm FinFet zwar ein deutlicher, aber auch kein Wahnsinnsunterschied sind - da muss der Prozess schon ähnliche Performance erreichen damit der lohnt...
Hier steht kein Double pattering:
The 22FDX uses back-end-of-line (BEOL) interconnect flow of STMicroelectronics’ 28nm FD-SOI as well as front-end of line (FEOL) of STM’s 14nm FD-SOI. GlobalFoundries’ 22FDX is a planar technology that sports 50 per cent fewer immersion lithography layers than foundry FinFET technologies. It also does not require double-patterning anywhere, which simplifies chip design. According to GlobalFoundries, the 22FDX platform delivers a 20 per cent smaller die size and 10 per cent fewer masks than 28nm.
http://www.kitguru.net/components/anton-shilov/globalfoundries-introduces-22nm-fd-soi-process-technologies/
Wenn ich mich recht erinnere, dann war STMs 28nm FDSOI schon platzsparend ggü. 28nm bulk, da man low-power Transistoren verwendete, die generell kleiner sind.
Der Gateabstand betrug 26nm, genausoviel wie bei IBMs High-Perf. Prozess, den IBM aber "22nm" nannte. Dachte mir damals schon, dass STM das in Zukunft dann sicherlich auch 22nm nennen würde ... von daher haben wir das jetzt.
Auf die Info mit den "14nm" würd ich auch nicht viel gegeben, das wurde bei FDSOI umbenannt, als man 20nm+Finfet als 14nm bzw. 14XM bezeichnete. Also wenn dann sinds eher echte 20nm.
Aber auch für 20nm bräuchte man schon Doppelbelichtung ... von daher hilft das in dem Fall nicht viel weiter.
Davon abgesehen: Das ist hier der Zen-Thread nicht der für Herstellungsprozesse ;)
In einem IEEE-Paper namens Achieving Exascale Capabilities through Heterogeneous Computing (http://ieeexplore.ieee.org/xpl/articleDetails.jsp?reload=true&arnumber=7155462&filter%3DAND%28p_IS_Number%3A5210076%29) mit Grundlagen zu "exascale computing" zeigt AMD grobe Schemata einer APU mit 32 CPU-Kernen und 8 RAM-Stacks, mit Verbindung zu externem, nicht näher spezifizierten, NVMRAM. Es scheint kein konkretes Produkt zu sein, sondern Architekturgrundlagen für die Fortführung der HSA-Strategie.
Artikel dazu:
http://www.hpcwire.com/2015/07/29/amds-exascale-strategy-hinges-on-heterogeneity/
OBrian
2015-07-31, 02:40:35
ja, das Ding ist wohl wirklich nur für diese Folie "erfunden" worden, als Beispiel. Die GPU ist ja auch nur ein Muster und keine abgezählte Anzahl Kästchen, sprich Bedeutung ist gleich Null.
Wobei AMD sicherlich sowas relativ schnell in Silizium gießen könnte, wenn es jemanden gäbe, der das bestellt und bezahlt.
Skysnake
2015-07-31, 07:33:24
Nur so als Randbemerkung, das Ding ist noch NICHT! veröffentlicht, sondern nur eine Vorabversion. Da kann sich eventuell also noch etwas ändern, auch wenn es eher unwahrscheinlich ist.
Ist hatte aber auch schon einen Fall, da wurde ein meiner Meinung nach sehr gutes Paper auch nach 5 Jahren nicht veröffentlicht o_o
EDIT:
Ich hab mir das Paper mal durchgelesen. GANZ viel Marketing blabla. Wo ich durchaus zustimmen kann ist aber, das ein Ansatz mit APUs, also iGPUs Vorteile gegenüber dem mit dGPUs hat aufgrund weniger Datamovement, einfacherer Cohärenz usw.
Bezüglich im Memory Computing bin ich durchaus auch bei Ihnen, wobei ich da details anders sehe, aber das ist auch kein einfaches Feld, wo sich erst noch zeigen wird müssen, was am Ende am effizientesten ist. Kommt auch ganz stark darauf an, wie die Software-Entwickler überhaupt klar kommen mit den ganzen Veränderungen.
Wo ich aber gar nicht den Aussagen im Paper folgen kann ist die Sache mit RAS in Software. Klar kann man einfach alles doppelt ausrechnen, und dann schauen was passiert, aber das ist viel zu kurz gedacht. Es gibt ja viel mehr Stellen wo etwas schief gehen kann als rein beim Compute. Vor allem würde ich RMT aber auch nicht in Software lösen, sondern eben entweder das Zeug zweimal in die Pipeline schmeisen durch Hardware, oder eben doppelte HArdware und am Ende ein &-Gatter für jedes Bit. Also für mich muss da jeweils ganz genau geschaut werden, was man in HArdware und was man in sOftware macht. Wichtig ist das Thema aber auf jeden Fall.
fondness
2015-08-04, 11:19:27
The next gen Hyper-transport interconnect: AMD uses "coherent fabric"
http://www.fudzilla.com/news/processors/38381-amd-s-new-interconnect-tech-is-coherent-fabric?utm_source=twitterfeed&utm_medium=twitter
OBrian
2015-08-04, 13:42:59
"coherent fabric" klingt für mich noch nicht mal nach einem Eigennamen, sondern nach einer Beschreibung. Abgesehen davon enthält der Text ja nun mal praktisch gar nichts Greifbares.
Offenbar werden das alle 14nm-CPUs/GPUs haben.
Unicous
2015-08-04, 14:34:45
"Offenbar" steht das aber nirgendwo und ich schätze mal, der gute Fuad saugt sich das aus seinen Fingern.
Dass für Exascale-Computing ein "coherent fabric" nötig ist, sollte wohl außer Frage stehen. Dass das Ding nicht 2016 oder 2017 kommt, auch.
Das ist "lediglich" ein paper und alle sind mal wieder auf WTF-Techs Journalismus reingefallen.:rolleyes:
Es ist aber sehr plausibel, dass Summit Ridge, Raven Ridge und zumindest Greenland das können, denn irgendeine kohärente Verbindung muss es ja für Servervarianten geben. Das wird schon stimmen. HT wird da sicher nicht mehr benutzt.
Unicous
2015-08-04, 17:08:09
Nö, muss es nicht. Das Gezeigte ist weder Summit Ridge, Raven Ridge oder Greenland (ob Greenland überhaupt existiert wissen wir übrigens auch nicht, erinnere dich bitte daran, dass wir auch eine Zeitlang die fake Zen-Folien als plausibel erachtet haben, also ich zumindest... vllt. stammen die Folien aus der gleichen Feder). Es ist eine Studie.
Ob und wann, dieses paper das Licht der Welt als ein Exascaler-Processor erblickt ist weiterhin offen. Und selbst dann, ist es ein eigenständiges Design bei dem das ominöse "coherent fabric" genutzt wird. Das ist übrigens nichts Neues, es wurde von Fuad schon vor ein paar Monaten erfunden exklusiv enthüllt.
http://www.fudzilla.com/news/notebooks/37399-new-amd-zen-x86-apu-can-has-16-cores
Das wissen wir (offiziell) über Zen:
http://www.pcgameshardware.de/CPU-Hardware-154106/Specials/AMD-Zen-CPU-Release-Sockel-1158359/galerie/2370217/?fullsize
Dass AMD das Freedom Fabric weiterhin nutzen will ist auch kein Geheimnis. Ob es jetzt coherent fabric heißt oder das einfach nur eine naheliegende Beschreibung ist, wird sich noch herausstellen.
Nun gut, wir werden es ja sehen. Aber ich bleibe bei der Ansicht, solche Projekte und Dies, die jahrelang halten werden werden einen HT-Ersatz zwingend brauchen. Was glaubst du aus was der Exascale-Prozessor besteht? 4 Zen-Dies und eine GPU + HBM, was denn bitte sonst.
Unicous
2015-08-04, 17:55:36
Du checkst weiterhin nicht, dass das ein Schaubild für eine mögliche Implementation des Exascale-Gedankens ist, keineswegs ein fertiges Produkt.
Du verstehst auch nicht, dass die Kernanzahl, zwar nicht willkürlich aber dennoch nur ein Platzhalter ist. Nur weil da 32 Kästchen sind, heißt das nicht, dass es am Ende auch 32 Kerne sind. Es könnten auch 64 sein, oder 128.
Siehe auch den Trinity der für dieses Schaubild zweckentfremdet wurde.
http://www.theplatform.net/wp-content/uploads/2015/07/amd-exascale-fastforward.jpg
Allein die Annahme, dass sie 4 einzelne Zen dies da zusammenwerfen macht keinen Sinn, denn der Chip wird als Ganzes dargestellt, also eine APU auf einem Interposer zusammen mit (HBM-)DRAM.
WTF-Tech hat einfach einen Tipp bekommen und klickgeil wie sie sind, haben sie nicht nachgedacht und behauptet, AMD hätte irgendetwas "vorgestellt". Dabei ist es ein paper, dass vllt. als Vorschlag eingereicht wurde um an der Exascale-Ausschreibung teilzunehmen.
Das mag ja alles sein, dennoch braucht AMD ein Korhärenzprotokoll für den Zen 8-Kerner, da dieser sicherlich auch im klassischen Servergeschäft wieder eingreifen soll.
Ich hab dem Mist ja auch nicht gelesen, dennoch klingt es für mich total plausibel, dass AMD einen HT-Nachfolger braucht, mehr sag ich ja gar nicht. Und der wird sicherlich kommen - schon in Zen.
Mir ist vollkommen klar, dass dieser Exascale-Kram nix weiter als ein Gedankenexperiment ist z.Z. Dennoch hat AMD ja eine Big-APU für HPC in den Folien stehen und der wird sicher aus vorhandenen Dies zusammengewürfelt werden.
Unicous
2015-08-04, 19:56:10
Natürlich brauchen sie ein fabric. Und das kann meinetwegen auch "coherent fabric" heißen auch wenn der Name dumm ist und nicht sehr, sagen wir "kreativ", klingt.
Aber dieses paper scheint sich überhaupt gar nicht mit einer bestimmten Architektur, weder Zen noch ARM, noch GCN auseinanderzusetzen, sondern sagt wohl einfach hier, wir haben das Schaubild: xx Kerne plus xx GPU-CU auf einem Die, der umgeben wird von xx DRAM Stacks und das ist über einen einen Interposer verschaltet und dann haben wir NVRAM als off package Speicher.
Das kommt eher nicht im nächsten Jahr, auch nicht im Jahr darauf, auch weil NVRAM noch nicht "ready for primetime" ist.
Was aber angekündigt wurde ist eine "High Performance Server-APU", die 2017 kommen soll. Man hat hier also zwei verschiedene Dinge verwurstet und leider hält es niemand der "schlauen Journalisten" bei WTF-Tech und Co. für nötig das mal zu recherchiereno oder in ihren eigenen Artikeln nachzuschauen.
http://techreport.com/r.x/amd-fad-2015/slide-datacenter.jpg
StefanV
2015-08-04, 20:50:34
Natürlich brauchen sie ein fabric. Und das kann meinetwegen auch "coherent fabric" heißen auch wenn der Name dumm ist und nicht sehr, sagen wir "kreativ", klingt.
Welcher Name im PC Segment ist denn bitte nicht dumm?!
Der beschleunigte Grafik Port?
Der Steckplatz? Industrie Standard Architektur?
Lokaler VESA Bus??
Mir fällt da echt keine Verbindung ein, die nicht total bekloppt klingt...
Ist halt kein super toller Marketing Name...
Unicous
2015-08-04, 21:07:18
Das was du genannt hast sind eigentlich keine Marketingnamen sondern Technologiebeschreibungen. Geforce ist ein Marketingname. Freedom Fabric ist ein Marketingname, NV-Link...
Und coherent fabric ist eben auch nur eine Beschreibung für die entsprechend benötigte Technologie, oder wie das fabric aufgebaut sein muss um als interconnect im EHP fungieren zu können.
Wenn die Leute also schreiben AMD wird für den vorgeschlagenen EHP "coherent fabric" einsetzen ist das redundant. Das fabric muss coherent sein, andernfalls ist der ganze "Heterogenous" Anteil für den Po.
Skysnake
2015-08-04, 23:12:44
Da kommen wir der Sache schon ziemlich nahe ;)
Schau doch einfach mal, was man für HSA braucht, und dann schau nochmal, was die ominöse Fabric sein soll. Da gibt es ja riesen Unterschiede .... NOT
"Offenbar" steht das aber nirgendwo und ich schätze mal, der gute Fuad saugt sich das aus seinen Fingern.
Dass für Exascale-Computing ein "coherent fabric" nötig ist, sollte wohl außer Frage stehen. Dass das Ding nicht 2016 oder 2017 kommt, auch.
Das ist "lediglich" ein paper und alle sind mal wieder auf WTF-Techs Journalismus reingefallen.:rolleyes:
Coherent Fabric ist einfach das, was man schon durch HSA kennt. Man packt halt GPU und CPU in eine cohärente Domain bei der sich beide einen Memory Controller teilen. Das wars dann aber auch schon. Da ist absolut nichts Neues zu erwarten.
Das mag ja alles sein, dennoch braucht AMD ein Korhärenzprotokoll für den Zen 8-Kerner, da dieser sicherlich auch im klassischen Servergeschäft wieder eingreifen soll.
Sie haben doch eins, bzw sogar viele unterschiedliche...
Und nur mal so am Rande, Cohärenz ist das, was dich killt... An sich willst du Cohärenz haben, aber mit so wenig Messageaustausch wie nur irgendmöglich...
Das wird in den nächsten JAhren auch zu anderen Cohärenzprotokollen führen, auch wenn die Ansätze dazu an sich da sind. Man wird das halt wie z.B. mit den Directories noch weiter ausbauen.
Ich hab dem Mist ja auch nicht gelesen, dennoch klingt es für mich total plausibel, dass AMD einen HT-Nachfolger braucht, mehr sag ich ja gar nicht. Und der wird sicherlich kommen - schon in Zen.
Mir ist vollkommen klar, dass dieser Exascale-Kram nix weiter als ein Gedankenexperiment ist z.Z. Dennoch hat AMD ja eine Big-APU für HPC in den Folien stehen und der wird sicher aus vorhandenen Dies zusammengewürfelt werden.
Fang jetzt bitte nicht mit dem Bullshit an, den THG auch verzapft.... Da dreht es sich um ONCHIP, nicht um Offchip zuallererst.
Das hat erstmal rein gar nichts mit HT oder sonst was zu tun. Man muss da ganz klar unterscheiden zwischen OnChip Interconnects, und OffChip Interconnects. Da hat man durchaus andere Anforderungen, und vor allem andere Kosten für die Interfaces.
Da wird einfach aus ein paar Brocken sich was aus dem ... gezogen. Also ich kann das rein gar nicht nachvollziehen.
Da ist alles so auf dem Niveau, von: Wir werden Speicher haben!!!!
Boah NE ECHT! gut das ihrs gesagt habt...
dildo4u
2015-08-05, 21:22:14
AMD sieht keine Sonne gegen Intel wenn die 40% IPC für Zen alles sind.
http://abload.de/img/skylakedmsb0.png
http://abload.de/img/atilla9fkzh.png
http://abload.de/img/ipccrkkt.png
http://m.pclab.pl/art65154-18.html
Elite_Warrior
2015-08-05, 21:31:41
Die Rede war von Excavator auf Zen mit IPC Steigerung von 40%. Du vergleichst gerade Piledriver. Es fehlen somit 2 Iterationen von AMD CPU damit du deine 40% drauf packen kannst :rolleyes:
Tamagothi
2015-08-05, 21:32:58
Warum nicht?
Wenn die einen 8 Kerner zum Preis eines Intel 4 Kerner verkaufen sieht es eher, dank DX 12, schlecht für Intel aus.
So früh Sagen wird nix :confused:
Timbaloo
2015-08-05, 21:39:09
Dass Zen in single-thread-Leistung mit intel gleichziehen wird erwartet doch niemand ernsthaft.
Die entscheidende Frage ist (imho): Wie effizient wird Zen gegenüber intels Konkurrenzprodukt (je nachdem wie sich die beiden positionieren).
Wenn sie wieder eine Heizung bauen, dann gute Nacht. Wenn sie aber (multi-threaded) ungefähr gleiche Leistung/W hinbekommen, dann würden denke ich einige auch (leichte) Abzüge bei der single-thread-Leistung akzeptieren. Auch weil die Plattform länger halten und weniger restriktiv sein wird. Und bis Q2/3 2016 wird sich in Sachen Software auch noch was tun (worauf ich aber nicht die riesen Hoffnung setzen würde).
dildo4u
2015-08-05, 21:41:52
Warum nicht?
Wenn die einen 8 Kerner zum Preis eines Intel 4 Kerner verkaufen sieht es eher, dank DX 12, schlecht für Intel aus.
So früh Sagen wird nix :confused:
Bulldozer ist laut AMD's Marketing ein 8 Core,davon rechnet AMD natürlich hoch.Zen hat nich 50% mehr Core's plus 40% mehr IPC für jeden dieser Core's.Wäre das so würde es das Marketing mit Sicherheit posaunen.
8 Zen Kerne vs. 4 Skylake-Kerne. Wir werden sehen was dabei raus kommt. Anwendungssoftware profitiert oft von den 8 Kernen und bis Zen kommt wird sich DX12 schon etwas verbreitet haben im Spielebereich.
AMD muss gar keine Skylake IPC erreichen.
Ich find das auch ein bisschen vermessen schon jetzt mit irgendwelchen IPC herumzuwerfen, denn Zen unterscheidet sich ja so fundamental von BD, dass man da gar keinen Vergleich ziehen kann. Bei Zen bleibt wirklich nur zu warten, was hinten raus kommt, vorher ist nur Kaffeesatzleserei.
Es gibt einige Dinge, die man in jedem Fall im Hinterkopf behalten sollte:
- Zen ist im Desktop mit mehr Kernen unterwegs als Skylake
- Der Fertigungsprozess wird absolut konkurrenzfähig sein (das war zuletzt bei 90nm so)
- Skylake hat jetzt trotz neuer Fertigung keinen gewaltigen Sprung hingelegt
Schaun mer mal.
Dass AMD das Freedom Fabric weiterhin nutzen will ist auch kein Geheimnis. Ob es jetzt coherent fabric heißt oder das einfach nur eine naheliegende Beschreibung ist, wird sich noch herausstellen.
Das wird sich nicht herausstellen, dass ist jetzt schon glasklar, denn eins der Hauptkriterien, durch die sich die FreedomFabric auszeichnete war die fehlende Kohärenz. Also wird das nun kaum umbenannt werden.
FreedomFabric waren der Interconnect für die Billig-Wolkenrechner mit zahlreichen Beema oder ARM-Socs. Für sowas brauchte man keine riesigen Speicher Mengen, ergo auch keine Kohärenz. Jetzt ist der Low-Cost-Boss weg und das Kommando lautet zurück zu den Dickschiff-CPUs, ergo braucht man nen Hypertransport-Nachfolger, genauer gesagt einen Nachfolger für coherent Hypertransport, abgekürzt cHT. Klingelts?
Hypertransport war mehr oder weniger frei verfügbar, ein paar chinesische Chips nutztens das auch mal, aber cHT war es nicht (und/oder AMD hätte dafür extra $$$ gewollt). Der Ausdruck "coherent fabric" kommt aus dem AMD-Investorentreffen, da wurde das wortwörtlich so genannt und natürlich basiert es auf den "Erfahrungen von cHT", Zitat Papermaster.
Wieso sies nicht einfach Hypertransport 4.0 nennen .. keine Ahnung, vermutlich muss a) ein neuer superduper Namen her und b) ist es ihnen wohl peinlich, da es vor kurzem ja noch hieß, dass Freedomfabric der Hypertransportnachfolger wäre. Wieso Fuad das nun ausgräbt .. keine Ahnung, vermutlich wegen des Sommerlochs. Andiskutiert hatten wir das schon kurz im Mai:
http://www.planet3dnow.de/vbulletin/threads/422454-AMD-Investorentag-Neue-Desktop-Roadmap-mit-Sockel-AM4-und-40-IPC-fuer-ZEN?p=5007209&viewfull=1#post5007209
Mehr weiss Fuad jetzt auch nicht.
Fang jetzt bitte nicht mit dem Bullshit an, den THG auch verzapft.... Da dreht es sich um ONCHIP, nicht um Offchip zuallererst.
Das hat erstmal rein gar nichts mit HT oder sonst was zu tun. Man muss da ganz klar unterscheiden zwischen OnChip Interconnects, und OffChip Interconnects. Da hat man durchaus andere Anforderungen, und vor allem andere Kosten für die Interfaces.
Und was ist mit "OnPackage" Interconnects für MCMs? ;)
8 Zen Kerne vs. 4 Skylake-Kerne. Wir werden sehen was dabei raus kommt. Anwendungssoftware profitiert oft von den 8 Kernen und bis Zen kommt wird sich DX12 schon etwas verbreitet haben im Spielebereich.
AMD muss gar keine Skylake IPC erreichen.So siehts aus. Solange man bei AMD dankt der High-Dense-Libs viele Kerne zum billigen Preis mit akzeptabler IPC und Takt bekommt, wirds reichen.
Schon BD war unter Volldampf mit 8 Threads gut unterwegs, aber mit ner bescheidenen TDP&IPC und DX12/Mantle gabs auch nicht.
Ich hoffe mal, dass es ein Zen-6core mit 4 Intel-Kernen wird aufnehmen können und AMD dann für die 8 Kerner mit 16 Threads gutes Geld verlangen kann (siehe Preisniveau der Intel 6-Kerner). Wunschdenken natürlich, schauen wir mal, wies kommt (und ob AMD nicht zuvor den Bach runter geht) :(
Dunkeltier
2015-08-06, 05:03:55
8 Zen Kerne vs. 4 Skylake-Kerne. Wir werden sehen was dabei raus kommt. Anwendungssoftware profitiert oft von den 8 Kernen und bis Zen kommt wird sich DX12 schon etwas verbreitet haben im Spielebereich.
AMD muss gar keine Skylake IPC erreichen.
Ich find das auch ein bisschen vermessen schon jetzt mit irgendwelchen IPC herumzuwerfen, denn Zen unterscheidet sich ja so fundamental von BD, dass man da gar keinen Vergleich ziehen kann. Bei Zen bleibt wirklich nur zu warten, was hinten raus kommt, vorher ist nur Kaffeesatzleserei.
Es gibt einige Dinge, die man in jedem Fall im Hinterkopf behalten sollte:
- Zen ist im Desktop mit mehr Kernen unterwegs als Skylake
- Der Fertigungsprozess wird absolut konkurrenzfähig sein (das war zuletzt bei 90nm so)
- Skylake hat jetzt trotz neuer Fertigung keinen gewaltigen Sprung hingelegt
Schaun mer mal.
Das mit der "Anwendungs"-Software mag stimmen. Fragt sich nur, was der 08/15-User wirklich meistens mit seinen Rechner macht. Die meisten Leute schalten den Rechner ein und schreiben in Office einen Brief oder surfen eine Runde im Internet. Für den Klein-Scheiß reicht ein leistungsstarker Dual-Core vollkommen aus. Ein kleiner Teil der Standard-User zockt dann auch noch am PC. Da ist man auch die nächsten Jahre weiterhin gut mit einen Quad-Core bedient. 6 oder 8 Kerne bedienen absolute Randbereiche wie Computing- oder Videoschnitt-Freaks. Ich sehe da weiterhin keine Notwendigkeit, dahingehend im Mainstream mehr anzubieten. Zumal zukünftig die ein oder andere Aufgabe von der CPU in den GPU-Part verlagert wird.
AMD wird dafür höchstwahrscheinlich wieder ordentlich DIE-Fläche verbraten und es kaum honoriert bekommen - nur um dann hinterher die CPUs wieder zu Schleuderpreisen verkaufen zu dürfen. Weil ganz ehrlich: Wenn ich die Wahl zwischen 4 Kernen mit 100% IPC-Leistung (Skylake-Basis) und 8 Kernen mit 85-90% IPC-Leistung (vermutete Skybridge-Leistung) habe, wähle ich für den Haupteinsatzbereich Spiele ersteres. Schon damals hat sich jeder das Moduldesign von AMDs Bulldozer schöngeredet. Das Problem: Spiele-Anwendungen sind nicht beliebig stark parallelisierbar.
Würde sich die Differenz zu Intels bis dahin aktuellen Prozessoren nicht im Bereich von vermutlich 10-15%, sondern nur bei max. 5% bewegen, wäre die CPU vielleicht sehr wohl ziemlich interessant. Für Gamer und kleine Home-Server Betreiber. Natürlich wenn der Verbrauch nicht wieder aus dem Ruder läuft und man endlich auch mal so Features wie SSD-Caching anbieten würde...
Schaffe89
2015-08-06, 05:55:45
AMD sieht keine Sonne gegen Intel wenn die 40% IPC für Zen alles sind.
Was soll denn das kindische Getrolle? Besteht denn die Zeit die du hier vergeudest nur darin, möglichst absurdes cherry picking zu betreiben?
Ich weiß ja nicht, was du erreichen willst, aber mögliche Leistungsverbesserungen, sollte man sich nicht im Kontext von einzelnen Worst Case Messungen anschauen, wo Cache, Speicher, Bandbreite usw.. limitieren, sondern lieber über ein Mittel mit mehreren Spielen.
Und da kann man ziemlich sicher sagen:
Wenn AMD mit 40% mehr IPC auf Excavator aufwarten kann und der Takt nicht allzuweit nach unten geht, sondern eher gleichbleibt, hat AMD gute Chancen mit Skylake gleichzuziehen.
Das zeigt auch jeder Test den ich kenne.
In Games hat AMD ca 40 bis 50% Rückstand im CPU limit. FX-8350 vs i7 6700k
In Anwendungen klassisch wohl ein paar Prozentpunkte weniger.
Aber du glaubst ja Intel ist überall doppelt so schnell, vermittelst jedenfalls diesen falschen Eindruck.
Was hast du denn davon? Meinst du das bringt dir hier irgendwelche Kompetenzen ein?
Ne es is einfach nur lächerlich.
Sollte Zen nicht bald tape out haben?
Das mit der "Anwendungs"-Software mag stimmen. Fragt sich nur, was der 08/15-User wirklich meistens mit seinen Rechner macht. Die meisten Leute schalten den Rechner ein und schreiben in Office einen Brief oder surfen eine Runde im Internet. Für den Klein-Scheiß reicht ein leistungsstarker Dual-Core vollkommen aus. Ein kleiner Teil der Standard-User zockt dann auch noch am PC. Da ist man auch die nächsten Jahre weiterhin gut mit einen Quad-Core bedient. 6 oder 8 Kerne bedienen absolute Randbereiche wie Computing- oder Videoschnitt-Freaks. Ich sehe da weiterhin keine Notwendigkeit, dahingehend im Mainstream mehr anzubieten. Zumal zukünftig die ein oder andere Aufgabe von der CPU in den GPU-Part verlagert wird.
Dem Normaluser (08/15 ist ein mäßig zuverlässiges Maschinengewehr in WK1, ich hasse diesen Begriff) ist es furzegal, was da unter der Haube werkelt. Der kann mit der massigen Rechenleistung eh nix anfangen, für den reicht eine billige APU
AMD wird dafür höchstwahrscheinlich wieder ordentlich DIE-Fläche verbraten und es kaum honoriert bekommen - nur um dann hinterher die CPUs wieder zu Schleuderpreisen verkaufen zu dürfen. Weil ganz ehrlich: Wenn ich die Wahl zwischen 4 Kernen mit 100% IPC-Leistung (Skylake-Basis) und 8 Kernen mit 85-90% IPC-Leistung (vermutete Skybridge-Leistung) habe, wähle ich für den Haupteinsatzbereich Spiele ersteres. Schon damals hat sich jeder das Moduldesign von AMDs Bulldozer schöngeredet. Das Problem: Spiele-Anwendungen sind nicht beliebig stark parallelisierbar.
Wieder dieses IPC-Gelaber (tschuldigung), niemand weiss, wieviel IPC Zen haben wird. AMDs Aussage ist eben "viel mehr" oder "mindestens 40% mehr als XV", das ist nicht sonderlich präzise und ableiten kann man daraus schonmal gar nix.
Viel Platz verbraten wird man aber nicht mehr, dafür sorgen ja die HD Libs. Schau dir mal Carrizo vs. Kaveri an - und das sind noch wenig effiziente BD-Module. Ein Quad-Zen-Kerne-Modul könnten sogar deutlich kleiner ausfallen als zwei XV-Module.
Und du liegst falsch, Spiele sind durchaus gut parallelisierbar, das zeigen mittlerweile etliche Titel. Der große Pferdefuss ist nunmal DX11.
Würde sich die Differenz zu Intels bis dahin aktuellen Prozessoren nicht im Bereich von vermutlich 10-15%, sondern nur bei max. 5% bewegen, wäre die CPU vielleicht sehr wohl ziemlich interessant. Für Gamer und kleine Home-Server Betreiber. Natürlich wenn der Verbrauch nicht wieder aus dem Ruder läuft und man endlich auch mal so Features wie SSD-Caching anbieten würde...
Ob die CPU interessant ist oder nicht, hängt von einigen Faktoren ab und nur ein recht kleiner davon ist die tatsächliche Leistung.
Der Markt lechzt geradezu nach Zen, um die Langeweile zu beenden und die Verkäufe wieder anzukurbeln, denn Kunden kaufen ja nicht nach Leistung, sondern nach Marketing, Konsumklima, Einflüsse aus der sozialen Umgebung usw.
OBrian
2015-08-06, 11:34:40
Die CPU-Kerne dürfen ja ruhig relativ groß werden, denn die Kerne an sich (ohne Cache) nehmen ja prozentual immer weniger Platz auf dem SoC ein. Selbst wenn bei Summit Ridge die GPU weggelassen wird, dann gibt es immer noch viel Fläche, die nicht CPU-Kern ist. Und die Teile, die sich bei Shrinks nicht oder kaum verkleinern lassen, sind ja auch alle im Uncorebereich, d.h. das "Drumherum" wächst bei jedem Shrink, selbst wenn man gar nichts ändern würde. Aber es kommt ja auch immer noch was dazu, mehr Controller für dies und das.
Zudem hat Zen ja SMT, also kann ein Zen-Kern zwei BD-Kerne bzw. ein ganzes Modul ersetzen. Darf also eigentlich auch soviel Platz verbrauchen. Der Shrink führt dann zu Platzersparnis und damit möglicher Steigerung der Kernanzahl. Die HD-Libs kommen als Bonus noch dazu, die ja bei Vishera nicht angewendet wurden, bei Carizzo aber schon und bei Zen sicherlich nochmal verfeinert sind.
Diese Nennung von "+40% IPC ggü. XV" ist und bleibt schwammig, weil offengelassen wurde, ob der Effekt von HT eingerechnet ist oder nicht. Zudem ist sowas auch immer anwendungsabhängig. Bei Skylake hat Anandtech bei Spielen niedrigere Performance bei gleicher Taktrate festgestellt, obwohl die IPC ja eigentlich gestiegen ist.
Man muß also wirklich abwarten, was dabei rauskommt. Aber für mich reicht es, wenn das Gesamtprodukt nennenswert besser ist als BD.
fondness
2015-08-06, 12:10:30
Dass Zen in single-thread-Leistung mit intel gleichziehen wird erwartet doch niemand ernsthaft.
Die entscheidende Frage ist (imho): Wie effizient wird Zen gegenüber intels Konkurrenzprodukt (je nachdem wie sich die beiden positionieren).
Wenn sie wieder eine Heizung bauen, dann gute Nacht. Wenn sie aber (multi-threaded) ungefähr gleiche Leistung/W hinbekommen, dann würden denke ich einige auch (leichte) Abzüge bei der single-thread-Leistung akzeptieren. Auch weil die Plattform länger halten und weniger restriktiv sein wird. Und bis Q2/3 2016 wird sich in Sachen Software auch noch was tun (worauf ich aber nicht die riesen Hoffnung setzen würde).
Der Zen Octa Core soll nur 95W TDP haben.
BTW, etwas mehr von FUAD: AMD's Coherent data fabric enables 100 GB/s (http://www.fudzilla.com/news/processors/38402-amd-s-coherent-data-fabric-enables-100-gb-s)
http://s4.postimg.org/c2rva0gql/7e42c9447e754167c85105ffe1a1d866_L.jpg (http://postimage.org/)
Timbaloo
2015-08-06, 14:12:27
Der Zen Octa Core soll nur 95W TDP haben.
Ja, klingt nicht schlecht, aber TDP gerade bei CPUs ist halt ein sehr... beliebiger Wert. Ein 2600K ist mit 95W angegeben und ein 8150 mit 125W. Wie die Realität aussah wissen wir.
Skysnake
2015-08-06, 20:37:07
FreedomFabric waren der Interconnect für die Billig-Wolkenrechner mit zahlreichen Beema oder ARM-Socs. Für sowas brauchte man keine riesigen Speicher Mengen, ergo auch keine Kohärenz. Jetzt ist der Low-Cost-Boss weg und das Kommando lautet zurück zu den Dickschiff-CPUs, ergo braucht man nen Hypertransport-Nachfolger, genauer gesagt einen Nachfolger für coherent Hypertransport, abgekürzt cHT. Klingelts?
Das mit cHT ist mir jetzt aber neu,aber gut.
HT hat halt leider nicht das nötige Echo bekommen, und wurde dann auch noch schleifen gelassen...
Hypertransport war mehr oder weniger frei verfügbar, ein paar chinesische Chips nutztens das auch mal, aber cHT war es nicht (und/oder AMD hätte dafür extra $$$ gewollt). Der Ausdruck "coherent fabric" kommt aus dem AMD-Investorentreffen, da wurde das wortwörtlich so genannt und natürlich basiert es auf den "Erfahrungen von cHT", Zitat Papermaster.
Wieso sies nicht einfach Hypertransport 4.0 nennen .. keine Ahnung, vermutlich muss a) ein neuer superduper Namen her und b) ist es ihnen wohl peinlich, da es vor kurzem ja noch hieß, dass Freedomfabric der Hypertransportnachfolger wäre. Wieso Fuad das nun ausgräbt .. keine Ahnung, vermutlich wegen des Sommerlochs. Andiskutiert hatten wir das schon kurz im Mai:
http://www.planet3dnow.de/vbulletin/threads/422454-AMD-Investorentag-Neue-Desktop-Roadmap-mit-Sockel-AM4-und-40-IPC-fuer-ZEN?p=5007209&viewfull=1#post5007209
Mehr weiss Fuad jetzt auch nicht.
Der Name HT ist ein bischen verbrannte Erde. Es macht da durchaus Sinn, diesen nicht mehr weiter zu verwenden.
Und was ist mit "OnPackage" Interconnects für MCMs? ;)
Das ist etwas GANZ anderes, als das was THG geschrieben hat von wegen SATA usw usf.
Ein onPackage Interconnect wäre durchaus was, was man gut gebrauchen könnte, aber im Endeffekt unterscheidet sich das dann halt im Protokoll. Physikalisch kann man dann sowas wie die HBM SerDes verwenden. Intel nutzt ja auch für QPI was PCI-E ähnliches.
Im Endeffekt ist das auch egal. Die FUnktion ist eine GANZ andere, als von THG geschrieben, darum ging es mir.
Das mit der Cohärenz würde ich aber selbst für einen OnPackage Interconnect nochmals überdenken. MAn will das heutzutage aus HArdwaresicht eigentlich nicht mehr. Es kostet einfach verdammt viel.
Man kann sich da aber einige nette Sachen ausdenken, wie ich ja schon vorher geschrieben habe.
Der Zen Octa Core soll nur 95W TDP haben.
BTW, etwas mehr von FUAD: AMD's Coherent data fabric enables 100 GB/s (http://www.fudzilla.com/news/processors/38402-amd-s-coherent-data-fabric-enables-100-gb-s)
http://s4.postimg.org/c2rva0gql/7e42c9447e754167c85105ffe1a1d866_L.jpg (http://postimage.org/)
Nette Folie. Wer jetzt Ähnlichkeiten zu einem anderen Hersteller findet, kann sich einen Lolli nehmen ;)
Die kochen alle nur mit Wasser
Ja, klingt nicht schlecht, aber TDP gerade bei CPUs ist halt ein sehr... beliebiger Wert. Ein 2600K ist mit 95W angegeben und ein 8150 mit 125W. Wie die Realität aussah wissen wir.
Na um den Stromverbrauch braucht man sich die wenigsten sorgen zu machen, schau Dir mal AMDs Pläne in Sachen Performance/Watt an.
Carrizo zeigt schon, wo die Reise hin geht und das ist noch ein Design in 28nm, nicht in 14nm Finfets.
Das mit cHT ist mir jetzt aber neu,aber gut.
Echt jetzt, noch nie gehört? Überleg mal, irgendwie muss man die Speicherkohärenz in nem Mehrprozessor-NUMA-Opteron-System doch sicherstellen ;)
HT hat halt leider nicht das nötige Echo bekommen, und wurde dann auch noch schleifen gelassen...
Jo und dann kam noch Intel mit QPI und ein AMD-Chef mit der Superidee mit billigen Mini-Wolken-Rechnern Gewinn zu machen.
Zum Codenamen:
Zeppelin? Die Teile waren nicht gerade für ihre Geschwindigkeit gedacht ... aber gut, zu "Zen" passts wohl ganz gut ;)
|MatMan|
2015-08-06, 22:24:08
Na um den Stromverbrauch braucht man sich die wenigsten sorgen zu machen, schau Dir mal AMDs Pläne in Sachen Performance/Watt an.
Carrizo zeigt schon, wo die Reise hin geht und das ist noch ein Design in 28nm, nicht in 14nm Finfets.
Stromverbrauch ist eigentlich das Wichtigste überhaupt. Hätte man Carrizo Effizienz zum Start von Bulldozer gehabt, wäre man von Anfang an konkurrenzfähig gewesen ohne Intel bei der absoluten Leistung zu überbieten. So ist es einfach zu spät. Bei Zen muss die Energieeffizienz von Anfang an passen. Das sehe ich nicht als selbstverständlich an, denn trivial ist es nunmal nicht und Intel optimiert quasi nur noch darauf.
Timbaloo
2015-08-06, 22:33:34
Stromverbrauch ist eigentlich das Wichtigste überhaupt. Hätte man Carrizo Effizienz zum Start von Bulldozer gehabt, wäre man von Anfang an konkurrenzfähig gewesen ohne Intel bei der absoluten Leistung zu überbieten. So ist es einfach zu spät. Bei Zen muss die Energieeffizienz von Anfang an passen. Das sehe ich nicht als selbstverständlich an, denn trivial ist es nunmal nicht und Intel optimiert quasi nur noch darauf.
Da kann ich mir die Antwort sparen, der Beitrag fasst es nämlich genau zusammen :)
Stromverbrauch ist eigentlich das Wichtigste überhaupt. Hätte man Carrizo Effizienz zum Start von Bulldozer gehabt, wäre man von Anfang an konkurrenzfähig gewesen ohne Intel bei der absoluten Leistung zu überbieten. So ist es einfach zu spät. Bei Zen muss die Energieeffizienz von Anfang an passen. Das sehe ich nicht als selbstverständlich an, denn trivial ist es nunmal nicht und Intel optimiert quasi nur noch darauf.
Selbstverständlich wäre es nicht, wenn AMD nicht bei jeder Gelegenheit davon reden würde, dass sie Perf./Watt optimieren wie sonst was. Das letzte Mal auch wieder auf dem Analystentag:
http://abload.de/img/12_analystday2015_papcmrsd.jpg
Die ersten Früchte sieht man in Form von Carrizo, der ist schon ziemlich gut, sieht man auch in obiger Grafik. Aber zur Erinnerung, es handelt sich dabei um ein Mitglied der Bulldozer-Familie. Genau DEM Bulldozer ...
Wenn jetzt eine auf Perf/Watt optimierte Architektur kommt, wird das Ergebnis sicherlich nicht schlechter ;)
Und als leeres Marketing-Blabla darf mans auch nicht einordnen, da im Serverbereich der Stromverbrauch ein wichtiger Kostenfaktor ist. Schließlich laufen die Rechner ununterbrochen. Die Motivation für AMD ein (sehr) gutes Produkt abzuliefern ist also entsprechend hoch. Finfets - die den Verbrauch senken - hatte AMD bisher auch noch nicht verwenden können, also auch aus Fertigungssicht stehen die Ampeln auf grün.
Wie besagt, um den Stromverbrauch mach ich mir die geringsten Sorgen.
OBrian
2015-08-07, 11:32:02
das sehe ich grundsätzlich auch so, allerdings ist die Folie natürlich schon Marketing-Blabla und zudem übelst enttäuschend, denn mit Basiswert Tigris-Plattform wäre die Marke "25x" schon mit Carrizo erreicht, was dann bedeuten würde, bis 2020 passierte gar nichts mehr in Sachen Effizienzsteigerung. Was ja auch wieder Quatsch sein muß, denn der Shrink alleine wird zwangsläufig zu einer Effizienzsteigerung führen. Von daher ist die Folie total informationsfrei und gar kein Ausblick, sondern geht nur bis Carrizo.
fondness
2015-08-07, 11:51:07
das sehe ich grundsätzlich auch so, allerdings ist die Folie natürlich schon Marketing-Blabla und zudem übelst enttäuschend, denn mit Basiswert Tigris-Plattform wäre die Marke "25x" schon mit Carrizo erreicht, was dann bedeuten würde, bis 2020 passierte gar nichts mehr in Sachen Effizienzsteigerung. Was ja auch wieder Quatsch sein muß, denn der Shrink alleine wird zwangsläufig zu einer Effizienzsteigerung führen. Von daher ist die Folie total informationsfrei und gar kein Ausblick, sondern geht nur bis Carrizo.
Es wird von 25X additional energy efficiency von 2014-2020 gesprochen, ergo ist Kaveri die Basis.
Da steht auch nix mit %. Da steht X. Das ist total sinnfrei ;).
Kaveri ist 10x energieeffizienter als Tigris und das 2020er-Produkt soll 25x energieeffizienter sein als Kaveri. AMD möchte verdeutlichen, dass man da noch ein paar Ideen in Petto hat, die Energieffizienz zu steigern. Ansonsten ist diese Angabe für gar nichts zu gebrauchen ;).
Skysnake
2015-08-07, 12:12:04
Echt jetzt, noch nie gehört? Überleg mal, irgendwie muss man die Speicherkohärenz in nem Mehrprozessor-NUMA-Opteron-System doch sicherstellen ;)
Naja, ich hatte da was im Hinterkopf, aber wenn man von HT redet, dann redet man eigentlich immer von der AMD Version. Gibt ja außer ein paar FPGAs usw kaum jemand, der HT sonst noch genutzt hat.
Ich war an sich aber immer der Meinung, das HT an sich schon im Protokoll Cohärenz unterstützt. Aber ich erinnere mich das wir glaube ich schonmal darüber gesprochen hatten, dass da nicht der Fall ist.
Das ist halt an sich auch ok. Man entwickelt einen Standard, macht 90% offen und 10% halt nicht, und verlangt dann Kohle dafür, oder lässt die Leute selbst eine Implementierung vornehmen, wobei das dann halt nicht mit AMD CPUs funktionieren würde...
Ich bezweifle aber, dass die Kosten soooooo hoch dafür gewesen sein werden, und wenn dann waren sie ganz schön doof, denn das würde den Standard natürlich unattraktiv machen. Denn was nützen einem die freien Bits im Protokoll, die man für Cachecohärenz nutzen kann, wenn man dann Patente verletzt...
Im Endeffekt will man aber etwas in die Richtung auch OnChip. Cachecohärenz killt einem halt die Skalierung.
Und die ganzen Messages verbrauchen halt auch verdammt viel Energie.
Und zu QPI, das kann man nicht wirklich mit HT vergleichen, weil Intel QPI bis auf glaub Altera war es, QPI nicht öffnen wollte, also selbst wenn du dafür zahlen wolltest, hättest du es nicht bekommen.
Das war mit dem FSB noch völlig anders. Daher verstehe ich bis heute noch nicht wirklich, warum HT nicht mehr Verbreitung gefunden hat. Eventuell war AMD auch einfach schon zu sehr angeschlagen und mit zu wenig Marktdurchdringung "gesegnet", so das es sich einfach nicht gelohnt hat für die Hardwareentwicklet. Intel hat ja HT nie unterstützt
OnChip ist zu teuer für AMD, das lohnt sich nicht extra Serverdies zu entwickeln für einen so kleinen Marktanteil. Deshalb ja der Zwischenweg mit dem Interposer.
Man braucht halt trotzdem ein Kohärenzprotokoll um Numa mit 4 SummitRidge Dies zu machen. Darum gehts doch die ganze Zeit.
Skysnake
2015-08-07, 12:33:47
Ja, aber mit einem Cachecohärenz-Protokoll/Interface macht man kein klassisches IO usw, sondern eben Cachecohärenz
Im Endeffekt sind die externen CacheCohärenz-Protokolle/Links ja auch nur ein Wrapper, um das eben skalierbar zu machen. Im optimalen Fall verwendet man on und Off Chip ja genau die gleichen Protokolle, dann braucht man nämlich keine drecks Decoder, sondern kann das Zeug einfach rauslegen und gut ist. Nichts anderes machen AMD und Intel schon lange.
Da ist es an sich völlig egal, ob man jetzt nen Interposer, MCM oder auch mehrere Sockel hat. Für das Protokoll ist es erstmal völlig latte, so lange man nicht gewisse Latenzen zwingend erwartet, was eine fragwürdige Idee ist in heutigen Zeiten meiner Meinung nach.
Was sich unterscheidet ist halt, was man für ein physikalisches Layer dann benutzen muss um das Ganze auch wirklich zu realisieren. An sich sollte das Protokoll aber am Besten von onChip bis hin zu Clustern alles unterstützen, und das effizient ;) Nach oben skaliert sowas aber bisher wohl nicht. Zumindest ist mir nicht wirklich bekannt, was mit tausenden von Nodes klar kommt.
Btw. in dem Rahmen auch ganz interessant ist das hier: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=0CCwQFjABahUKEwiu1_vm4ZbHAhUGEHIKHYzqCuM&url=http%3A%2F%2Fwww.hypertransport.org%2Fdocs%2Ftech%2Fhorus_external_white_pap er_final.pdf&ei=kYjEVe7KIYagyAOM1auYDg&usg=AFQjCNEEnt2LAb7hO2CV8_aPRwNy63qkdg&bvm=bv.99804247,d.bGQ
Vielleicht sehen wir ja etwas ähnliches wieder. Ich finde die neuen großen SMP Systeme mit SPARCs sind auch nicht sooo weit weg davon.
Der knackpunkt ist halt, wie schaffe ich es möglichst WENIG cc-Traffic zu erzeugen. Kann ich also eventuell irgendwie erreichen, dass der massiv nach unten geht?
Mehr will ich dazu aber jetzt nicht mehr sagen ;)
Das ist eine gute Erklärung, danke. Bisher weiss man ja nichts über das SummitRidge-Die, die Lösung dafür wird sicherlich interessant.
tm0975
2015-08-07, 14:23:28
OnChip ist zu teuer für AMD, das lohnt sich nicht extra Serverdies zu entwickeln für einen so kleinen Marktanteil.
Wir kennen doch den marktanteil von amd - prozessoren auf zen-basis ab 2016 noch gar nicht: vielleicht ist der ja riesig :P
Mancko
2015-08-07, 14:51:31
Ob die CPU interessant ist oder nicht, hängt von einigen Faktoren ab und nur ein recht kleiner davon ist die tatsächliche Leistung.
Der Markt lechzt geradezu nach Zen, um die Langeweile zu beenden und die Verkäufe wieder anzukurbeln, denn Kunden kaufen ja nicht nach Leistung, sondern nach Marketing, Konsumklima, Einflüsse aus der sozialen Umgebung usw.
Also ganz ehrlich. Nach AMD Produkten lechzt momentan überhaupt niemand. Den meißten fällt es nicht mal auf wenn es AMD nicht mehr gibt. Die sind schon heute nicht mehr existent für die große Masse der Endverbraucher. Was manche hier wieder rauchen.
Also ganz ehrlich. Nach AMD Produkten lechzt momentan überhaupt niemand. Den meißten fällt es nicht mal auf wenn es AMD nicht mehr gibt. Die sind schon heute nicht mehr existent für die große Masse der Endverbraucher. Was manche hier wieder rauchen.
Du solltest nicht immer nur von deinem Horizont ausgehen.:comfort:
Menace
2015-08-07, 15:00:58
Also ganz ehrlich. Nach AMD Produkten lechzt momentan überhaupt niemand. Den meißten fällt es nicht mal auf wenn es AMD nicht mehr gibt. Die sind schon heute nicht mehr existent für die große Masse der Endverbraucher. Was manche hier wieder rauchen.
Ich wäre beim Gebrauch von Superlativen und Wörter wie "alle", "keiner", "niemand", "nie" und "immer" sehr, sehr vorsichtig [findet man zum Beispiel sehr häufig bei Blöd-Zeitungs-Überschriften]. Aber im Ernst: Glaubst Du nicht, dass Daten/Rechenzentren auf Alternativen zu intel-CPUs warten? Und wenn es nur dazu gut wäre, deren Preis zu drücken? Da ich weder das noch das Gegenteil beweisen kann würde ich weder "ganz ehrlich" noch "niemand" in einer Argumentation benutzen.
Und immer diese lästigen Diffamierungen über Alter bzw. Drogenkonsum. :freak:
Schnoesel
2015-08-07, 18:02:05
Also ich war ganz nüchtern als ich Intel/Nvidia komplett aus meinen PCs verbannt habe und ich fahre nicht schlecht damit. Kannst dir jetzt nicht vorstellen ich weiß aber den Blindtest würdest du auch nicht bestehen.
Ich war an sich aber immer der Meinung, das HT an sich schon im Protokoll Cohärenz unterstützt. Aber ich erinnere mich das wir glaube ich schonmal darüber gesprochen hatten, dass da nicht der Fall ist.Ja irgendwas diskutierten wir da schon mal.
Ich bezweifle aber, dass die Kosten soooooo hoch dafür gewesen sein werden, und wenn dann waren sie ganz schön doof, denn das würde den Standard natürlich unattraktiv machen. Denn was nützen einem die freien Bits im Protokoll, die man für Cachecohärenz nutzen kann, wenn man dann Patente verletzt...
Als sies freigeben wollten wars vermutlich schon zu spät. Wie bei Intel hatte man da sockelkompatible FPGA-Beschleuniger im Blick, aber es kam dann doch nie was :(
Im Endeffekt will man aber etwas in die Richtung auch OnChip. Cachecohärenz killt einem halt die Skalierung.
Und die ganzen Messages verbrauchen halt auch verdammt viel Energie.
Jo und Energie ist wichtig. Ich vermute im Moment, dass sie einfach ihren Directory Cache HT-Assist weiterführen. Kostet zwar etwas vom L3, aber Dank 14nm wird davon vermutlich sowieso ne ganze Menge verbauen, ergo wirds nicht so stark ins Gewicht fallen.
Keller könnte man wohl auch was Neues zutrauen v.a. auch da er am Cachedesign gearbeitet haben soll, aber schauen wir mal.
Und zu QPI, das kann man nicht wirklich mit HT vergleichen, weil Intel QPI bis auf glaub Altera war es, QPI nicht öffnen wollte, also selbst wenn du dafür zahlen wolltest, hättest du es nicht bekommen.
Sorry ja, das war nur in dem Sinne gedacht, dass AMD dann halt kein Alleinstellungsmerkmal/Vorteil mehr hatte.
Das war mit dem FSB noch völlig anders. Daher verstehe ich bis heute noch nicht wirklich, warum HT nicht mehr Verbreitung gefunden hat. Eventuell war AMD auch einfach schon zu sehr angeschlagen und mit zu wenig Marktdurchdringung "gesegnet", so das es sich einfach nicht gelohnt hat für die Hardwareentwicklet. Intel hat ja HT nie unterstützt
Naja, wer hätte den auf den Zug aufspringen sollen? Gab ja nicht viele CPU-Mitbewerber und Intel fällt als Marktführer natürlich aus, die spuckten schon Gift und Galle als sie wg. MS AMD64 übernehmen mussten. Außerdem hatte AMD selbst in den Bestzeiten nur um die 20-30% Marktanteil. Absolut gesehen war der HT-Anteil also zu gering, als das einer dafür extra ne Grafikkarte oder so rausbrächte. Der ATi-Kauf kam dafür auch zu spät.
VIA wär eigentlich ein Kandidat gewesen, aber die haben am ollen P4-Bus anscheinend nen Narren gefressen. Naja, in kommenden SoC-Zeiten können sie dann gleich ganz darauf verzichten, den MP-Markt wird man sicher nicht aufmischen wollen.
Skysnake
2015-08-07, 18:34:18
Naja, es gibt schon noch Kandidaten, für die HT durchaus interessant gewesen wäre:
-NIC
-RAID
-FPGA
-DSP
-Grafikkarten
Mehr fällt mir spontan zwar auch nicht ein, aber an sich reicht es ja auch :ugly:
Reicht schon, aber für welchen Markt hätte da ein NIC, RAID, ..etc.-Hersteller produzieren sollen?
Die oben genannten 20-30%? Schön wärs, HTX-Slots gabs aber nur auf ein paar wenigen Serverboards.
Oder onboard direkt an die CPU anschließen? Limitiert das Ganze dann immer noch auf alle Serverboards, denn Sockel 939, AM2 etc ... hatten immer nur einen HTr-Anschluss und der war für den Chipsatz reserviert.
Von daher wärs nicht mehr als vielleicht 5% des Gesamtmarktes gewesen, dafür entwirft und fertig aber keiner ne Extrawurst an.
So gesehen muss man den Ball zurück ins AMD-Feld spielen, die hätten auch HTr offensiver bewerben können. Aber tja .. halt das typische Henne-Ei-Problem. Ohne NIC, DSP, oder sonstwelchen Chips sah AMD sicherlich keinen Grund dazu die Kosten dafür zu tragen.
Tamagothi
2015-08-08, 12:26:02
AMD müsste einen Modularen Interposer bauen wo man CPU- GPU - HBM nach seinen Bedürfnissen anpassen kann.
16/32 Core Zen + 600mm² GPU + 8/32GB HBM + 32/256 GB DDR4 Ram auf dem Board (Gaming / Server)
2/4 Core Zen + <=200mm² GPU + 4GB HBM (Office)
Zen nur 90% Leistung von Intel? wenn interessiert das :biggrin:
Nakai
2015-08-08, 12:55:59
Wenn es ein MCM mit eine dedizierten GPU ist, dann wird das definitiv nicht viel mehr als 120W verbraten dürfen.
Möglicherweise kommt eine Mobile-GPU da rein. Ich geh mal von Tonga XT aus, und dem Versprechen seitens AMD eine doppelte Perf/Watt zu erreichen mit der nexten Gen. Kurz Tonga XT verbraucht dann nur noch sp ~60W und die CPU wird wohl auch darum verbraten. Dann wie noch angegen zwei HBM2-Stacks für doppelte Bandbreite(dann erreicht man so 500GB/s). Und dann steh da Highest-Performance-GPU.
Für 120W max Verbrauch wird man etwas von der Leistung wie Tonga(32CUs+)+Zen(8Cores) damit erreichen. Bei höherer erlaubten TDP tendenziell mehr natürlich. ;)
StefanV
2015-08-08, 13:01:39
Reicht schon, aber für welchen Markt hätte da ein NIC, RAID, ..etc.-Hersteller produzieren sollen?
NIC wäre für Serverfarmen. Aber da gab es was von Pathscale (https://de.wikipedia.org/wiki/HyperTransport#HTX).
RAID wär dann auch eher was für dicke Datenbanken, was auch irgendwie nach 'Big Data' klingt...
Oder onboard direkt an die CPU anschließen? Limitiert das Ganze dann immer noch auf alle Serverboards, denn Sockel 939, AM2 etc ... hatten immer nur einen HTr-Anschluss und der war für den Chipsatz reserviert.
Hätt man tunneln können, wie es AMD ja mit einigen Chips gemacht hat. AMD 8151 und die AMD 813x Chips...
So gesehen muss man den Ball zurück ins AMD-Feld spielen, die hätten auch HTr offensiver bewerben können. Aber tja .. halt das typische Henne-Ei-Problem. Ohne NIC, DSP, oder sonstwelchen Chips sah AMD sicherlich keinen Grund dazu die Kosten dafür zu tragen.
1. Es gab sehr wohl Netzwerkkarten -> hier Infos (http://www.hypertransport.org/default.cfm?page=ProductsViewProduct&ProductID=65). Und das Teil kann wohl auch HTr tunneln
2. Richtig, da hätt AMD wesentlich mehr machen können und auch in die High und Low End Grafik Chips 'nen HT Link rein hauen können...
Aber das wird IMO erst mit on Package RAM interessant...
Aber FPGAs und so wären wirklich nice gewesen, ev. gar in 'nem AMD Sockel. K/a, warum es dafür nur AMD Chips gab ;)
Wenn es ein MCM mit eine dedizierten GPU ist, dann wird das definitiv nicht viel mehr als 120W verbraten dürfen.
Möglicherweise kommt eine Mobile-GPU da rein. Ich geh mal von Tonga XT aus, und dem Versprechen seitens AMD eine doppelte Perf/Watt zu erreichen mit der nexten Gen. Kurz Tonga XT verbraucht dann nur noch sp ~60W und die CPU wird wohl auch darum verbraten. Dann wie noch angegen zwei HBM2-Stacks für doppelte Bandbreite(dann erreicht man so 500GB/s). Und dann steh da Highest-Performance-GPU.
Für 120W max Verbrauch wird man etwas von der Leistung wie Tonga(32CUs+)+Zen(8Cores) damit erreichen. Bei höherer erlaubten TDP tendenziell mehr natürlich. ;)
Öhm, da hat AMD aber doch schon 'nen 300W HPC SOC angekündigt...
Also das Teil kann/darf durchaus mehr als 120W verbraten...
Ganz ab davon geht man, wenn man Effizienz möchte, lieber in die Breite, dafür mitm Takt runter...
Entsprechend würd daher auch nicht wirklich viel gegen 'nen Fiji sprechen - alles 'ne Frage von Takt und Spannung...
fondness
2015-08-08, 13:04:45
AMD Patent mit einem FPGA auf dem INterposer:
http://s24.postimg.org/3wykyjnhx/fpgaamd_635x364.png (http://postimage.org/)
http://www.google.com/patents/US20150155876
NIC wäre für Serverfarmen. Aber da gab es was von Pathscale (https://de.wikipedia.org/wiki/HyperTransport#HTX).
RAID wär dann auch eher was für dicke Datenbanken, was auch irgendwie nach 'Big Data' klingt...
Na für was man Raid- und Netzwerkkarten gebrauchen kann, ist doch klar. Die Frage war anders gedacht, für wieviel potentielle Mainboards (bzw. Kunden) soll ein Hersteller die rausbringen, gäbs dafür nen ausreichend großen Absatzmarkt?
Das waren eben nicht viele, der Markt klein .. auch deswegen hats keiner gemacht.
Hätt man tunneln können, wie es AMD ja mit einigen Chips gemacht hat. AMD 8151 und die AMD 813x Chips...
Richtig, und wieviel Boards gabs damit? ;)
Davon abgesehen hätts nicht viel gebracht, da sich durchs Tunneln ja nicht die Bandbreite vergrößert. Da wird der eine Link schnell zum Flaschenhals.
1. Es gab sehr wohl Netzwerkkarten -> hier Infos (http://www.hypertransport.org/default.cfm?page=ProductsViewProduct&ProductID=65). Und das Teil kann wohl auch HTr tunneln
*lach* Das ist das gleiche Teil, dass Du schon oben angeprießen hast, denn Pathscale wurde von QLogic aufgekauft. Die wiederum wurden von Intel geschluckt .. das wars dann mit der einzig erhältlichen HTX-Karte.
2. Richtig, da hätt AMD wesentlich mehr machen können und auch in die High und Low End Grafik Chips 'nen HT Link rein hauen können...
Jo oder auch richtig bewerben, bei Intel schaut das z.B. so aus:
aLD_0tyqtvE
:freak:
Aber FPGAs und so wären wirklich nice gewesen, ev. gar in 'nem AMD Sockel. K/a, warum es dafür nur AMD Chips gab ;)
Siehe oben das neue Patent. FPGAs sind noch im Rennen, nur jetzt im Package, nicht im Sockel ;)
Die Situation erinnert stark an die von vor ~10 Jahren (Stichwort Torrenza), nur jetzt ne Integrationsstufe tiefer.
Skysnake
2015-08-09, 10:13:17
1. Es gab sehr wohl Netzwerkkarten -> hier Infos (http://www.hypertransport.org/default.cfm?page=ProductsViewProduct&ProductID=65). Und das Teil kann wohl auch HTr tunneln
Es gab/gibt schon noch mehr NICs (https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&ved=0CCUQFjAAahUKEwj1iYaowpvHAhUDuhQKHduQDb0&url=http%3A%2F%2Fra.ziti.uni-heidelberg.de%2Fcoeht%2Fpages%2Fevents%2F20110208%2Fpresentations%2FEXTOLL.pdf&ei=ogbHVfWwMIP0UtuhtugL&usg=AFQjCNGSNEe-_ssETk04AtA6sEgawBbR7w&bvm=bv.99804247,d.d24&cad=rja). Das Problem ist halt, es gibt keine/kaum Boards mit HTX, dazu ist AMD eben bei der Performance als auch Performance/Watt Intel unterlegen, und dann sind eben auch keine sonstigen Beschleuniger für HT erschienen außer FPGAs (siehe Link zum HT-Konsortium).
Von AMD kam da klar zu wenig. Die hätten z.B. in ihre GPUs HT einfach reinbringen müssen. Für die CPUs war es ja egal, da man PCI-E ja eh nicht direkt unterstützt hat... Außer halt bei den APUs inzwischen.
Und bei den GPUs hätte man halt in den sauren Apfel beisen müssen und beides unterstützen. Ich denke die Vorteile hätten die Nachteile aber überwogen.
2. Richtig, da hätt AMD wesentlich mehr machen können und auch in die High und Low End Grafik Chips 'nen HT Link rein hauen können...
Aber das wird IMO erst mit on Package RAM interessant...
Aber FPGAs und so wären wirklich nice gewesen, ev. gar in 'nem AMD Sockel. K/a, warum es dafür nur AMD Chips gab ;)
Siehe oben, FPGAs gab es, sogar mit FSP-Steckern.
AMD Patent mit einem FPGA auf dem INterposer:
http://s24.postimg.org/3wykyjnhx/fpgaamd_635x364.png (http://postimage.org/)
http://www.google.com/patents/US20150155876
Bei solchen Patenten frage ich mich manchmal echt, warum ich selbst nicht schon mindestens ein dutzend Patente eingereicht habe -.-
Ok, das Patent wurde schon 2012 beantragt, aber ähnliche Überlegungen spucken mir auch schon seit ~2 Jahren durch den Kopf...
Jetzt sollte dann aber wohl auch klar sein, wie AMDs Inmemory-Compute aussehen wird. Ich hatte eher damit gerechnet, das man ALUs direkt in den DRAM-DIE packt, die dann halt einen sehr beschrenkten Funktionsumfang haben, und meist power gated sind, aber gut, das Konzept ist auch sehr interessant, weil man durch den FPGA eben viel mehr Flexibilität hat, und auch nicht den DRAM Prozess für die Logik nutzen muss.
@Intel:
Mal schauen, wann die ihre Versprechen wahr machen, und wie stark Sie im Endeffekt Quersubventionieren... ICh seh schon kommen, dass die der Konkurrenz den Hals umdrehen, indem Sie ihr Gesamtprodukt eben sehr attraktiv anbieten. Man bekommt halt ihr ZEug quasi "for free" mit. Da muss man sich dann überlegen, ob es überhaupt noch Sinn macht, irgend etwas anders zu verwenden.
Ich bin echt mal gespannt, ob Frimen wie Mellanox, aber auch Cray nicht dagegen vorgehen werden, um sich bei Intel einzuklagen, also das man den Intel-CPU Chip so bekommt, und selbst Packageintegration macht, oder sich auf den CHip klagt, denn Intel baut mit OmniPath meiner MEinung nach einen gewaltigen Schutzwall gegen jedwede andere Firma.
Wenn die das wirklich durchziehen, in dem Sinne wie Sie es propagieren, dann heist das eigentlich in aller Konsequenz, das man ein komplettes System von Intel bekommt, bzw einen kompletten Cluster, bei dem maximal noch MB und Massenspeicher nicht von Intel direkt kommen.....
So kann man natürlich auch gegen schrumpfende PC-Märkte ankämpfen. Man verleibt sich "einfach" ALLE Teilbereiche des Marktes ein....
Von AMD kam da klar zu wenig. Die hätten z.B. in ihre GPUs HT einfach reinbringen müssen. Für die CPUs war es ja egal, da man PCI-E ja eh nicht direkt unterstützt hat... Außer halt bei den APUs inzwischen.
Und bei den GPUs hätte man halt in den sauren Apfel beisen müssen und beides unterstützen. Ich denke die Vorteile hätten die Nachteile aber überwogen.
Ja, aber wie schon besagt, der ATi-Kauf kam relativ spät und dann waren sie erstmal mit den APUs/Fusion beschäftigt. Für mehrere Baustellen war AMD wohl zu klein. In dem Fall kann man aktuell dann auch wieder jammern, dass es nix mit nvidia geworden ist, die hatten als einzige ja schon HTr-Chipsätze, also schon HTr-Know-How inhouse. Die hätten ne Htr-GPU sicherlich relativ schnell auf die Beine stellen können.
Bei solchen Patenten frage ich mich manchmal echt, warum ich selbst nicht schon mindestens ein dutzend Patente eingereicht habe -.-
Kann ich Dir sagen: Weils sch...ön teuer ist ;)
@Intel:
Mal schauen, wann die ihre Versprechen wahr machen, und wie stark Sie im Endeffekt Quersubventionieren... ICh seh schon kommen, dass die der Konkurrenz den Hals umdrehen, indem Sie ihr Gesamtprodukt eben sehr attraktiv anbieten. Man bekommt halt ihr ZEug quasi "for free" mit. Da muss man sich dann überlegen, ob es überhaupt noch Sinn macht, irgend etwas anders zu verwenden.
Ja, so wirds aussehen. AMD wird mit Zen-MCMs ne nette CPU abliefern, aber am Interconnect und der Infrastruktur wirds dann scheitern, da man die letzten Jahre ja für billige Brotkästen vergeudet hatte :(
Ich bin echt mal gespannt, ob Frimen wie Mellanox, aber auch Cray nicht dagegen vorgehen werden, um sich bei Intel einzuklagen, also das man den Intel-CPU Chip so bekommt, und selbst Packageintegration macht, oder sich auf den CHip klagt, denn Intel baut mit OmniPath meiner MEinung nach einen gewaltigen Schutzwall gegen jedwede andere Firma.
Naja Cray hat ja ihre Interconnect-Jungs erst an Intel verkauft, dass sind ja die die den OmniPath entworfen haben. Von daher wird Cray nix sagen. Frage ist, ob ne Monopolklage Chancen hätte, beim P4-FSB damals gabs doch schon sowas, wenn ich mich erinnere.
Gegen so ne komplette Interconnect-Lösung samt Software war das ja eher Kleinkram.
Wenn die das wirklich durchziehen, in dem Sinne wie Sie es propagieren, dann heist das eigentlich in aller Konsequenz, das man ein komplettes System von Intel bekommt, bzw einen kompletten Cluster, bei dem maximal noch MB und Massenspeicher nicht von Intel direkt kommen.....
Ja, mal schauen inwiefern AMDs "GMI" dagegen wird anhalten können. Aber wenn man mal die Grafik hier nimmt:
http://abload.de/img/omnic4u6n.png
Wirds bei AMD wohl (anfangs?) nur die Sparte "Adapter" werden, mehr wird man nicht erwarten können.
Skysnake
2015-08-09, 11:25:27
Keine Ahnung, wie das mit FSB war, bezüglich QPI gab es aber wohl Anstrengungen von Frimen, da ist es dann aber wohl an den Kosten gescheitert und daran, das Intel einfach nach Lust und Laune Sachen geändert hat, und man das dann auch einfach nicht mitmachen wollte. (Hörensagen)
An sich MUSS! AMD auch einen Interconnect direkt in die CPU integrieren, oder zumindest mit ins gleiche Package. Ich frage mich allerdings wirklich, wie AMD den Entwicklungsaufwand stemmen will. Intel hat ja einfach abartig viel KNow-How eingekauft in den letzten JAhren, und ist halt auch einfach ein Goliath...
Schaun wir uns doch IBM an. Die hatten ja quasi mit BlueGene das, was Intel jetzt vor hat, und sind dann mit ihrem Titan(?) also dem ursprünglichen Titan mit optical Switches usw FETT auf die Fresse geflogen, einfach weil die Kosten explodiert sind, selbst für IBMs Verhältnisse.
Ich seh das als ausgeschlossen an, das AMD da mithalten kann.
Wenn muss man IP bereitstellen, was Sie ja durchaus auch machen, da ist dann nur noch die Frage, mit wem geht man zusammen???
Und wie stemmt man die abartigen Fixkosten für neue Masken???
Das sind alles Fragen, die man nur schwer beantworten kann. Ansich wäre es nämlich schon cool, wenn im Prinzip das System des PCs, also die Modularität auf Packages übertragen werden würde. Man könnte dann zwar nichts mehr tauschen, aber immerhin konfigurieren. Ich seh da eh die Zukunft drin. MBs machen dann nur noch irgend nen losspeed-Kram wie USB, Massenspeicher usw und stellen eben die physikalischen Interfaces bereit.
Am coolsten wäre es natürlich, wenn man DIEs configurieren könnte, aber dafür werden die Fixkosten wohl einfach zu teuer sein. :( Eventuell wird man aber für Google, AmazoneCloude usw sogar wirklich "extra" Chips bauen. Das wäre natürlich cool, und man könnte eben auch die Chips eventuell in den "normalen" Markt drücken.
Die Frage ist nur, woher bekommt man nur die IP für so Blöcke wie NIC usw???
Klar für SATA usw gibt es schon Firmen, die das verkaufen, aber für HPC-NICs fällt mir jetzt nur eine ein.
@Cray:
Ja, die haben ihre NIC Sparte an Intel quasi verkauft, aber dafür hatten Sie ja auch von HT zu PCI-E gewechselt. Wenn Sie jetzt OmniPath verwenden würden, dann hätten Sie nichts besonderes für den NIC mehr. Das Einzige, was für Sie noch sprechen würde, wären die eigenen MBs, backplanes usw. Also Systemintegration, zusammen mit Software für die Wartung/Administration usw.
Aber da macht Intel ja auch verdammt viel... Intel gräbt halt am Brunnen jeder anderen Firma in dem Markt. Mir würde spontan außer Monitoren, Drucker und dem ganzen Peripherie Kram nichts einfallen, was Sie nicht selbst machen, oder unter eigenem Label verkaufen.
Ich bin echt gespannt, wie sich das alles entwickeln wird, aber ich schaue da nicht sonderlich positiv in die Zukunft. Ich kann mir einfach nicht vorstellen, wie das weiter funktionieren soll mit mehr als einer maximal zwei Firmen, wobei die ganzen "kleineren" Firmen unter die Räder kommen.
Eventuell sehen wir sogar nur noch ein USA vs. China (vs./+ Russland). Die Chinesen werden ja nach dem Exportverbot sicherlich noch mehr darin bestärkt sein, völlig unabhängig von den USA zu werden.
Europa seh ich da nicht als ernst zu nehmenden Spieler. Dafür ist Europa einfach zu zersplittert und mehr damit beschäftigt, den anderen zum eigenen Vorteil über den Tisch zu ziehen.... :facepalm:
Wenn müsste die EU eine Firma wie AMD/IBM kaufen, und Milliarden an Dollar reinpumpen, aber da friert eher die Hölle zu als das so etwas passiert. (VR/ARM wäre noch eine Möglichkeit, aber ich glaub nicht, dass die da mitspielen würden und zwingen kann man Sie nicht. Also zumindest noch nicht, eventuell würde das ja zu einer Schlüsseltechnologie wie Kampfpanzer, wenn die USA und China sich auf dem Bereich richtig die Köpfe einschlagen, aber dann ist es eh schon fast zu spät, weil man dann erstmal ein JAhrzehnt waren kann, bis man konkurrieren kann....)
Nakai
2015-08-10, 15:24:29
Öhm, da hat AMD aber doch schon 'nen 300W HPC SOC angekündigt...
Also das Teil kann/darf durchaus mehr als 120W verbraten...
Ganz ab davon geht man, wenn man Effizienz möchte, lieber in die Breite, dafür mitm Takt runter...
Entsprechend würd daher auch nicht wirklich viel gegen 'nen Fiji sprechen - alles 'ne Frage von Takt und Spannung...
Ja, für HPC. Da erwarte ich aber eine andere Art, wie das aufgezogen wird. Für mich sieht das eher danach aus, dass man keine APUs mehr produzieren möchte, sondern alles modular halten möchte. Kurz, man packt auf dem Package, was man eben braucht. Einen eigenen SOC dafür basteln, kostet Geld.
Ich denke AMD bringt einen Zen Octacore und nimmt eine Greenland GPU, um eine APU zu basteln. Ein MCM-Modul als APU-Ersatz.
Keine Ahnung, wie das mit FSB war, bezüglich QPI gab es aber wohl Anstrengungen von Frimen, da ist es dann aber wohl an den Kosten gescheitert und daran, das Intel einfach nach Lust und Laune Sachen geändert hat, und man das dann auch einfach nicht mitmachen wollte. (Hörensagen)
Der alte FSB war relativ offen, gab ja auch ein paar Chipsatzhersteller dafür und Intel hatte auch was gegen Torrenza in Stellung gebracht, Erfolg wars aber auch keiner, einen FPGA-Chip für den P4-Sockel gabs mal glaub ich.
An sich MUSS! AMD auch einen Interconnect direkt in die CPU integrieren, oder zumindest mit ins gleiche Package. Ich frage mich allerdings wirklich, wie AMD den Entwicklungsaufwand stemmen will. Intel hat ja einfach abartig viel KNow-How eingekauft in den letzten JAhren, und ist halt auch einfach ein Goliath...
Naja, den Interconnect haben sie ja mit dem "GMI", das hat 4 Links à 25 Gbit und Intels hat .. 4 Links à 25 Gbit ^^
Soweit so gut, aber Intel liefert das Rundumsorglos-Paket mit Schleifchen dazu, während AMD ne Art groben Klotz liefert. Mehr geht halt nicht, dazu fehlt die Man-Power, da hast Du absolut recht.
Preisfrage ist, wie "grob" der Klotz nun genau sein wird.
Schaun wir uns doch IBM an. Die hatten ja quasi mit BlueGene das, was Intel jetzt vor hat, und sind dann mit ihrem Titan(?) also dem ursprünglichen Titan mit optical Switches usw FETT auf die Fresse geflogen, einfach weil die Kosten explodiert sind, selbst für IBMs Verhältnisse.Tja technologischer Vorreiter zu sein ist nie billig, blöd ists nur, wenn es dann auch noch Käufer für das teure Zeugs geben soll ;)
Ich seh das als ausgeschlossen an, das AMD da mithalten kann.Mit dem ganzen Paket mit Fabrics/Switches uns Software ganz bestimmt, aber wenigstens den Interconnect werden sie ja wohl hinbekommen. Für ihre MCM-Chips brauchen sie den ja selbst.
Fragt sich dann, ob irgendeine 3.Firma den Rest anbieten kann und obs vieleicht irgendwas Brauchbares mit OpenSource gibt.
Aber wie besagt .. es wird bei nem ziemlich groben Klotz bleiben.
Einziger Vorteil ist, dass man bei HPC gewöhnt war relativ viel Spezialteile zu haben. Aber mit Intels Komplett-Lösung ändert sich das halt auch gerade...
Wenn muss man IP bereitstellen, was Sie ja durchaus auch machen, da ist dann nur noch die Frage, mit wem geht man zusammen???
Jupp, und gibts überhaupt jemanden?
Und wie stemmt man die abartigen Fixkosten für neue Masken???Welche Masken meinst Du und wozu sollte man die brauchen? Der AMD Zen wird Ondie mehrere Interconnectanschlüsse haben, die alten Athlon/Opteron-Dies mit HTr hatten ja auch schon 3-4. An die kann man dann immer irgendwas anderes anflanschen - solange es den gleichen Interconnect hat. Bei den Desktopsockel wars aber halt nicht möglich, da das Gehäuse nur einen Link zum Chipsatz nach außen führte.
Mit Zen wird das AMD sicher genauso machen.
Im Vergleich zu früher haben sie immerhin schon mal einen Chip zum anschließen, nämlich die eigene GPU. Da kann man dann immerhin schon nachweisen, dass das alles funktioniert, sollte die Hemmschwelle für interessierte Kunden zumindest herabsetzen.
Das sind alles Fragen, die man nur schwer beantworten kann. Ansich wäre es nämlich schon cool, wenn im Prinzip das System des PCs, also die Modularität auf Packages übertragen werden würde. Man könnte dann zwar nichts mehr tauschen, aber immerhin konfigurieren. Ich seh da eh die Zukunft drin. MBs machen dann nur noch irgend nen losspeed-Kram wie USB, Massenspeicher usw und stellen eben die physikalischen Interfaces bereit.Jo so siehts aus, die normale Evolution im Halbleiterbereich, immer mehr wird integriert. Ganz früher gabs mal noch externe FPUs ^^
Am coolsten wäre es natürlich, wenn man DIEs configurieren könnte, aber dafür werden die Fixkosten wohl einfach zu teuer sein. :( Eventuell wird man aber für Google, AmazoneCloude usw sogar wirklich "extra" Chips bauen. Das wäre natürlich cool, und man könnte eben auch die Chips eventuell in den "normalen" Markt drücken.
Naja, AMD meinte, dass sie Zen wie K12 in ihrem custom-silicon-Programm anbieten würden. Von daher kannst Du Dir mit ~30 Mio mal ne maßgeschneiderte CPU/APU bestellen. Aber viele Kunden wirds nicht geben, das müssen dann wirklich Schwergewichte wie die genannten sein ;)
Klar für SATA usw gibt es schon Firmen, die das verkaufen, aber für HPC-NICs fällt mir jetzt nur eine ein.
Neben Intel war Broadcom doch noch ziemlich groß im Profibereich, oder?
Allerdings arbeiten die z.Zt. auch mit QLogic=Intel zusammen:
http://www.hpcwire.com/off-the-wire/qlogic-broadcom-demonstrate-end-end-interoperability-25gb-100gb-ethernet/
Aber immerhin, solange sie noch selbstständig sind, sollten sie Zusatzgeschäften mit AMD normalerweise nicht im Wege stehen.
Ich bild mir auch ein, dass irgendein AMD-Chipsatz ne Broadcom-NIC integriert hatte. Das nutzte aber so gut wie kein Boardhersteller, da ein kompletter Realtek-Ethernet-Chip billiger war, als ein Broadcom-PHY-Chip :freak:
@Cray:
Ja, die haben ihre NIC Sparte an Intel quasi verkauft, aber dafür hatten Sie ja auch von HT zu PCI-E gewechselt. Wenn Sie jetzt OmniPath verwenden würden, dann hätten Sie nichts besonderes für den NIC mehr. Das Einzige, was für Sie noch sprechen würde, wären die eigenen MBs, backplanes usw. Also Systemintegration, zusammen mit Software für die Wartung/Administration usw.
Aber da macht Intel ja auch verdammt viel... Intel gräbt halt am Brunnen jeder anderen Firma in dem Markt. Mir würde spontan außer Monitoren, Drucker und dem ganzen Peripherie Kram nichts einfallen, was Sie nicht selbst machen, oder unter eigenem Label verkaufen.
Ja, langsam wirds selbst für Cray problematisch. Dass sie vorher schon auf PCIe wechselten, kann ihnen keiner verübeln, sie litten stark unter den K10-Verzögerungen plus TLB-Bug ;)
Ich bin echt gespannt, wie sich das alles entwickeln wird, aber ich schaue da nicht sonderlich positiv in die Zukunft. Ich kann mir einfach nicht vorstellen, wie das weiter funktionieren soll mit mehr als einer maximal zwei Firmen, wobei die ganzen "kleineren" Firmen unter die Räder kommen.
Eventuell sehen wir sogar nur noch ein USA vs. China (vs./+ Russland). Die Chinesen werden ja nach dem Exportverbot sicherlich noch mehr darin bestärkt sein, völlig unabhängig von den USA zu werden.
Jupp seh ich schon lange so, Intel plus X und X = China oder Russland, mit starken Vorteil für China.
Die bauten in letzter Zeit alle möglichen CPUs samt guten alten DEC Aplhas nach und können jetzt wählen. Gewonnen hat die Sparc-Architektur, wobei das Militär auf Alpha-Clones setzte .. mal schauen, ob da noch was nachkommt was man dann auch im Laden kaufen kann.
Europa seh ich da nicht als ernst zu nehmenden Spieler. Dafür ist Europa einfach zu zersplittert und mehr damit beschäftigt, den anderen zum eigenen Vorteil über den Tisch zu ziehen.... Jupp, die einzigen, die sich um Nationale Schlüsseltechnologien kümmerten waren die Franzosen, siehe da z.B. auch FDSOI, aber das wars dann schon.
Architekturmäßig gibts immerhin ARM, seit Neuestem gar in 64bit, besser als nix allemal. Auch wenns sicherheitstechnisch keinen Vorteil bietet.
Wenn müsste die EU eine Firma wie AMD/IBM kaufen, und Milliarden an Dollar reinpumpen, aber da friert eher die Hölle zu als das so etwas passiert. (VR/ARM wäre noch eine Möglichkeit, aber ich glaub nicht, dass die da mitspielen würden und zwingen kann man Sie nicht. Also zumindest noch nicht, eventuell würde das ja zu einer Schlüsseltechnologie wie Kampfpanzer, wenn die USA und China sich auf dem Bereich richtig die Köpfe einschlagen, aber dann ist es eh schon fast zu spät, weil man dann erstmal ein JAhrzehnt waren kann, bis man konkurrieren kann....)
Jo, wie besagt, Frankreich hätte in alten Zeiten sowas gemacht. Aber heutzutage ist auch die Luft raus und/oder die Milliarden werden für die "Schlüsseltechnologie" Bankensektor benötigt ... :freak:
Schau Dir an, wies die Chinesen machten. Die fingen auch erstmal mit uralt-Technik an, aber jetzt haben sie mit 28nm so gut wie aufgeschlossen.
Über die teilweise x86-Erweiterung für den MIPS-Befehlssatz kann man allerdings streiten ;)
Apropos China: Gabs zu Jahresanfang nicht auch Gerüchte zu chin. Investments in AMD? Immerhin hätten die auch nen eigenen HPC-Interconnect, wenn ich mich recht erinnere...
Skysnake
2015-08-11, 21:42:26
@Masken:
Ich meinte an sich keine MCMs, sondern wirklich monolitische DIEs, wo man aber eben custom IP-Blöcke dran hat nach eigenen Anforderungen, und da muss man halt komplett neue Masken bauen.
Dafür brüchte man auch einen gescheiten Interconnect, an den sich alles mögliche dran hängen kann. Im Prinzip hat man das ja auch, aber es wird wohl einfach daran scheitern, das zu wenige Firmen bereit sind da mit zu machen, bzw zu wenige Firmen einfach so custom Chips haben wollen.
MAn muss auch immer bedenken, das selbst AMD genug Sachen von IP-Vendors einkauft, und eben nicht selbst entwickelt. Die Frage ist nur eben immer, was ist man bereit zu zahlen, und wie gut ist die IP wirklich getestet??? Bringt einem ja ncihts, wenn man "billig" IP einkauft, und der Chip am Ende nicht funktioniert...
Daher freut man sich natürlich so etwas an AMD abwälzen zu können, aber das führt eben dazu, dass die im Endeffekt auch die Auswahl treffen, was rein kommt, wenn man mal von so Chips wie für die Konsolen absieht.
@Cray:
Auf der ISC war der Cray Mitarbeiter nicht so erfreut über die Frage bezüglich Latenz mit dem Umstieg von HT auf PCI-E ;D Die ist nämlich nicht besser geworden ;)
Cray hat aber an sich genug Services im Rücken, um auch ohne eigenen Interconnect zu bestehen. Die bauen halt die Systeme an sich komplett selbst, wobei ihr Kühlkonzept meiner Meinung nach fragwürdig ist. Da gibt es ja auch eine Analyse bezüglich Bit Errors in Titan. Da hatte sich gezeigt, dass die Chips weiter oben mehr Bitfehler produzieren, da Sie heise werden :ugly: Wie gesagt, das Kühlkonzept empfinde ich als fragwürdig.
Aber Cray ist halt ein Brand, und der wird auch noch lange bestehen.
@China:
Naja, in China besteht wohl aktuell eher das Problem, das man Fertigungsanalgen hat die super duper sind, und den Unis quasi den Arsch vergoldet hat mit eigenen TestFABs usw, aber schlicht zu wenige Leute da sind, die mehr können als Nachbauen. Also einfach zu wenig eigene Inovationskraft vorhanden ist.
Das wird sich so schnell auch nicht ändern, vor allem weil es ein strukturelles Problem des chinesischen/asiatischen Bildungssystems auch ist meiner Meinung nach.
@IBM:
Weil ich ja davon erzählt hatte, das Intel ja quasi nun so ganz langsam das auf den Weg bringt, was IBM schon lange machen wollte, hier mal eine nette Presentation, die einem zum Nachdenken anregen sollte, wo wir eigentlich heute stehen bei der Entwicklung im HPC-Umfeld....
http://researcher.watson.ibm.com/researcher/files/us-yvlasov/SEMICON_Tokyo_12_1_2010.pdf
StefanV
2015-08-11, 23:00:59
Ich bild mir auch ein, dass irgendein AMD-Chipsatz ne Broadcom-NIC integriert hatte. Das nutzte aber so gut wie kein Boardhersteller, da ein kompletter Realtek-Ethernet-Chip billiger war, als ein Broadcom-PHY-Chip
Yap, müsste die SB8x0 Serie sein, in der das drin war...
Oh und viele Intel Chipsätze haben/hatten auch einen integrierten GBIT LAN CHip...
Darunter der i865/875
mboeller
2015-08-12, 07:48:39
Architekturmäßig gibts immerhin ARM, seit Neuestem gar in 64bit, besser als nix allemal. Auch wenns sicherheitstechnisch keinen Vorteil bietet.
.
Einspruch, aber nur ein ganz kleiner: MIPS gehört jetzt zu IMG. In England sind jetzt also 2 Architekturen beheimatet
Gibts da wirklich neue Infos?
http://fudzilla.com/news/processors/38456-a-few-more-details-about-amd-s-zen
Unicous
2015-08-13, 14:04:56
Da ist gar nichts neu und ich hoffe die "well informed industry source" ( *dingdong* habe ich das Bullshit Bingo gewonnen?:eek:) ist einfach nur jemand der ihm ans Bein pissen will. Eine Shared FPU macht bei SMT eh keinen Sinn, afaik.
Außerdem sollte Fuad mal einen seiner Forenbesucher bezahlen damit mal sein Buchstabensalat auf Fehler korrigiert wird, ist ja traurig wie viele Fehler da auf einen mm² zusammenkommen.:O
mboeller
2015-08-14, 11:17:16
aus welcher Präsentation stammt eigentlich die Folie die man bei Heise.de sehen kann?
http://www.heise.de/newsticker/meldung/AMD-Prozessoren-Opteron-ist-tot-es-lebe-Opteron-MCM-2777258.html
aus welcher Präsentation stammt eigentlich die Folie die man bei Heise.de sehen kann?
http://www.heise.de/newsticker/meldung/AMD-Prozessoren-Opteron-ist-tot-es-lebe-Opteron-MCM-2777258.html
Na vom Investorentag, siehe hier:
http://www.planet3dnow.de/cms/14973-amd-investorentag-am4-40-ipc-fuer-zen/
(unten rechts auf alle Folien klicken und dann nochmal für den Papermastersatz, dort ist es dann auf Seite 2)
reaperrr
2015-08-14, 17:40:34
Gibts da wirklich neue Infos?
http://fudzilla.com/news/processors/38456-a-few-more-details-about-amd-s-zen
Wenn die Infos so stimmen, ja. Jedenfalls sind die 512KB L2 pro Kern für mich ne neue Info, auch wenn mich jede andere Zahl etwas überrascht hätte. "Mehr als Intel" aber wenig genug für niedrige Latenzen und moderaten Platz-/Strom-bedarf -> da sind 512KB einfach die logischste Konfiguration, vor allem, wenn der Cache jetzt wie bei Intel inklusiv sein sollte.
Würde aus gleichem Grund auch mit mehr als 32KB je L1 Cache rechnen, in 14FF sollte das vom Verbrauch und von der Fläche kein Problem mehr darstellen, und AMD braucht jeden möglichen Prozentpunkt IPC.
mboeller
2015-08-14, 22:25:30
Na vom Investorentag, siehe hier:
http://www.planet3dnow.de/cms/14973-amd-investorentag-am4-40-ipc-fuer-zen/
(unten rechts auf alle Folien klicken und dann nochmal für den Papermastersatz, dort ist es dann auf Seite 2)
Danke. Die Folie bzw. die ganze Präsentation ist mir bisher entgangen
Apropos: AMD wurde nachgesagt es einzusetzen... und jetzt kommt es anscheinend von Intel: das ominöse Reverse Hyperthreading:
http://www.heise.de/newsticker/meldung/Skylake-mit-inversem-Hyper-Threading-2779793.html
Apropos: AMD wurde nachgesagt es einzusetzen... und jetzt kommt es anscheinend von Intel: das ominöse Reverse Hyperthreading:
http://www.heise.de/newsticker/meldung/Skylake-mit-inversem-Hyper-Threading-2779793.html
War eigentlich zu erwarten, bei BD disktuierten wir auch mal die "Flywheel"-Idee und die hatte dann SandyB ...
Für solche nagelneuen Features fehlt AMD eigentlich die Manpower bzw. Forschungsgelder. Ich wär schon absolut zufrieden, wenn Zen ein breites Design mit 64kB L1D wäre. Beides ist dank der HD-Libs nicht unwahrscheinlich, damit wäre dann gute single-Threadleistung und eine relativ gute SMT-Skalierung gesichert. Bei 2 Threads hätte je ein Thread rechnerisch ja immer noch 32kB L1 zur Verfügung.
Wer will ich gar nicht, man wird mit dem Alter ja bescheiden ^^
y33H@
2015-09-19, 10:37:39
Hatten wir das noch nicht?
http://www.golem.de/news/jim-keller-amds-cpu-chefarchitekt-ist-weg-1509-116396.html
Yes, Jim is leaving AMD to pursue other opportunities, effective September 18. Papermaster will be the acting leader of Jim’s team. Deep team was in place to drive completion phase of our next-generation “Zen” core and associated system IP and SOCs. His departure is not expected to impact our public product or technology roadmaps, and we remain on track for “Zen” availability in 2016 with first full year of revenue in 2017.
Tamagothi
2015-09-19, 10:39:39
Seine Arbeit ist getan -> Zen fertig -> Neue Herausforderungen?
y33H@
2015-09-19, 10:43:14
Das ist die Kurzfassung, ja. Interessant ist der Hinweis auf 2017.
maximus_hertus
2015-09-19, 10:58:39
Das ist die Kurzfassung, ja. Interessant ist der Hinweis auf 2017.
Inwiefern? AMD hat doch schon lange angekündigt, dass Zen 2016 startet. Demzufolge ist das erst VOLLE Jahr mit realen Verkäufen 2017.
y33H@
2015-09-19, 11:10:44
Ja, das impliziert frühestens Q2 - viel eher aber H2 mit Tendenz zu Q4.
maximus_hertus
2015-09-19, 11:32:43
Du meinst aber 2016? War / ist nicht die Rede von Q4 2016 und dort auch eher später als früher?
y33H@
2015-09-19, 11:49:45
Ja, sorry - 2016 freilich. Wörtlich ausgelegt könnte AMD die Zen-"FX" auch in der zweiten Januar-Woche 2016 veröffentlichen, dann wäre es ebenfalls kein "full year of revenue" :ulol:
Screemer
2015-09-19, 12:13:49
die absatzübschrift ist mal total irreführend. "Zen-Chips erst 2017" ist nach aktuellem stand schlicht falsch. das impliziert schon wieder, dass amd den termin 2016 nicht halten können wird. warum schreibt man sowas und dann auch noch in fetten lettern?
y33H@
2015-09-19, 13:08:10
Weil das mein interner Stand ist - Zen kommt (sehr) spät 2016.
EDIT
Hast aber Recht, das ergibt sich aus dem Absatz nicht, wenn ich recht überlege, hab's geändert.
Hatten wir das noch nicht?
http://www.golem.de/news/jim-keller-amds-cpu-chefarchitekt-ist-weg-1509-116396.html
Und dessen Nachfolger soll Mark Papermaster heißen?
Also frei übersetzt: Papiermeister ;D mal sehen, ob das was wird.
reaperrr
2015-09-19, 21:34:59
Man sollte seinen Abgang nicht überbewerten. Keller war hauptsächlich dazu da, die Entwicklung einer guten, zukunftstauglichen Architektur zu leiten, und die Mission dürfte er erfüllt haben, wie erfolgreich genau wird man dann spätestens Anfang 2017 sehen.
Wenn man bedenkt, wie weit vor dem Tape-Out eines Chips - der bei Summit Ridge schon vor Wochen gewesen sein soll - die Details finalisiert sein müssen damit man ans reine Bugfixing/Feintuning gehen kann, würde ich sogar behaupten, Keller hatte noch genug Zeit um Zen+ mitzuentwickeln und eine grobe Roadmap für die in Zen+2 und Zen+3 zu fließenden Verbesserungen aufzustellen.
Hatten wir das noch nicht?
Hier nicht, aber dort:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10784258#post10784258
;)
das_Apo
2015-09-20, 12:01:37
Ja, sorry - 2016 freilich. Wörtlich ausgelegt könnte AMD die Zen-"FX" auch in der zweiten Januar-Woche 2016 veröffentlichen, dann wäre es ebenfalls kein "full year of revenue" :ulol:
Sprechen die nicht von einem Fiskaljahr? Startet das bei AMD nicht auch erst im April eines Jahres?
Andersrum betrachtet würde das bedeuten, dass AMD seine neue Architektur auch erst im 1. Quartal des Kalenderjahres 2017 veröffentlichen könnte und immer noch im Rahmen wäre. ;(
fondness
2015-09-20, 12:16:58
Nope Fiskaljahr startet bei AMD ganz normal im Januar.
Knuddelbearli
2015-09-20, 15:44:51
bei NV ist das unterschiedlich
Hübie
2015-09-20, 19:36:49
Also bisher sieht alles vielversprechend aus. Und wenn ich ehrlich bin würde ich auch "die Nummer 2" kaufen, wenn die Effizienz denn stimmt. Also es geht nicht mal um maximale Performance. AMDs Phenom II war ja auch gar nicht so übel und konnte sich dank der besseren Konditionen auch noch ganz gut halten.
Und die Haken, die man bisher auf der Featureliste setzen kann gefallen mir. Danke an euch, für die Infos :up:
Duplex
2015-09-20, 21:10:07
Das wird sowieso keine einfach Aufgabe für AMD, Konkurrenzfähig sein heißt dann i7-5960x + >20%.
AMD gibt 40% IPC Verbesserungen gegenüber Excavator zu, Excavator hat ca. 10% mehr IPC als K10 & Steamroller, also insgesamt hätte ZEN ca. 50% mehr als K10/Steamroller, das reicht nicht ganz für Intel Niveau.
Jim Keller wird auch überbewertet, K8 war eine K7 weiterentwicklung, die K7 Architektur stammt auch von DEC Alpha ab.
K6 = NexGen
K7 = Alpha
K8 = mehr Pipeline und 64 Bit
K10 = getunter K8 mit breiter FPU
Bulldozer = Neu = Fiasko
Unicous
2015-09-20, 21:17:48
:facepalm:
Today, for the first time in quite a while, a bit of good employment news comes out of AMD. Jim Keller, lead architect on AMD's K8 processor (the original Athlon 64), system engineer on K7 (the original Athlon), and co-author of the x86-64 spec, has returned to AMD. Jim's official title is Corporate Vice President and Chief Architect for CPU Cores, and he will report directly to Mark Papermaster.
Keller first joined AMD in 1998 after leaving DEC, having worked on the Alpha 21164 and 21264. Upon his arrival at AMD, Jim Keller immediately went to work on launching the K7. His next tasks were co-authoring the Hyper Transport and 64-bit x86 specs, in addition to working on the K8 architecture. It was the K8 architecture that really gave AMD a significant performance (and power advantage) over Intel, who was shipping Pentium 4 at the time. After his work on K8, Keller left AMD in 1999 and went to work at Sibyte (and later Broadcom after they acquired Sibyte).
The stint at Sibyte/Broadcom was longer than his time at AMD, but in 2004 Jim Keller joined PA Semi as the Vice President of Engineering. Apple eventually acquired PA Semi in 2008, and Keller went with the team.
While at Apple, Keller worked on the design teams for the A4 and A5 SoCs. He was also in charge of defining the specifications of two MacBook Air generations. The late Steve Jobs felt it prudent to have the best graphics and chip architects around, as they would be able to define performance needs and come up with system requirements better than anyone else. Raja Koduri, former AMD Graphics CTO, was Jim Keller's graphics counterpart at Apple where he still remains today. Indeed the impact of Keller, Koduri and others like them was best felt when Apple seemed to always integrate the right silicon at the right time.
http://www.anandtech.com/show/6129/apple-a4a5-designer-k8-lead-architect-jim-keller-returns-to-amd
Ist echt traurig wie viel Müll du fabrizierst.
Du marginalisierst eine Kapazität in der Semi-Industrie zum bloßen Statisten. Einfach nur lächerlich.
Duplex
2015-09-20, 21:27:14
Die K7 Basis ist garantiert von Alpha geschaffen worden, die haben lediglich x86 Decoder eingebaut und einiges optimiert.
Timbaloo
2015-09-20, 21:29:22
Konkurrenzfähig sein heißt dann i7-5960x + >20%.
Weil du das so mal definierst.
Duplex
2015-09-20, 21:35:54
Weil du das so mal definierst.
Bei einem breiten Design muss AMD dann Kern vs. Kern antreten lassen, die Modul Geschichte ist dann zu ende, man kann nicht 16 Threads gegen 8 Threads antreten lassen.
Vermutlich
4 ALUs / 4 AGUs
20 Stage Pipeline
64KB L1D Cache
512KB L2 Cache
Alles inklusive mit Fullspeed Cache
2 Fach SMT
2x 256 Bit FPU
@Zen+
Vermutlich breitere FPUs, neue AVX Befehle & mehr Takt
Timbaloo
2015-09-20, 21:43:34
Man kann aber 8 Kerne gegen 6 Kerne antreten lassen.
Ach jetzt les ich erst richtig: Du meinst ja schon den intel 8-Kerner. Den für 1k-Ocken.
Danke für jeglichen Versuch einer Diskussion, aber danke, nein danke.
Duplex
2015-09-20, 21:48:39
8 Kerne gegen 6 Kerne reicht aber nicht für ein Comeback, das hat man doch bereits damals mit den 6 Kerner versucht (50% mehr Kerne bei 346mm²), im Server Markt ist der Marktanteil damals auf 5% gefallen, im Desktop hießen die Thuban, im Server Markt hießen die Lisbon & Magny Cours. Es kommt auch auf die Effizienz an, gegen die Xeon E5 hatte man sowieso keine Chancen, kann mich noch errinern das die Xeons um Meilenweit effizienter und schneller waren.
AMD muss bei der Effizienz, Single & Multithreading Leistung mit Intel mithalten können, sonst wird das leider nichts.
Fakt ist, Jim Keller wird überbewertet, nur weil der am K8 beteiligt war wird er hochgejubelt...
Dirk Meyer war auch beim K7 der ganz Große, der war auch der große von Bulldozer....
AMD war fast am ende, die hatten keine Ideen mehr, ZEN ist entweder wieder K7 Basis mit 4 Fach OoO oder Jaguar mit neuer Pipeline ausgelegt auf breiten Ansatz mit SMT,
die werden das Rad nicht neu erfunden haben.
Loeschzwerg
2015-09-21, 07:09:13
Sein Geschick besteht auch darin die Teams richtig zu strukturieren. Das alleine ist schon verdammt viel Wert.
R.I.P.
2015-09-21, 08:48:50
8 Kerne gegen 6 Kerne reicht aber nicht für ein Comeback, das hat man doch bereits damals mit den 6 Kerner versucht (50% mehr Kerne bei 346mm²), im Server Markt ist der Marktanteil damals auf 5% gefallen, im Desktop hießen die Thuban, im Server Markt hießen die Lisbon & Magny Cours. Es kommt auch auf die Effizienz an, gegen die Xeon E5 hatte man sowieso keine Chancen, kann mich noch errinern das die Xeons um Meilenweit effizienter und schneller waren.
AMD muss bei der Effizienz, Single & Multithreading Leistung mit Intel mithalten können, sonst wird das leider nichts.
Fakt ist, Jim Keller wird überbewertet, nur weil der am K8 beteiligt war wird er hochgejubelt...
Dirk Meyer war auch beim K7 der ganz Große, der war auch der große von Bulldozer....
AMD war fast am ende, die hatten keine Ideen mehr, ZEN ist entweder wieder K7 Basis mit 4 Fach OoO oder Jaguar mit neuer Pipeline ausgelegt auf breiten Ansatz mit SMT,
die werden das Rad nicht neu erfunden haben.
Finde deine Einstellung ziemlich lustig. Meiner Meinung nach würde es AMD ausreichen einen Excavator Shrink auf 14nm Finfet zu bringen, um konkurrenzfähig zu sein. Endlich mal nehr als 2 Module verbauen + Gpu und ab geht die Post. Die gesamten Vergleiche, welche du gepostet hast beruhen auf einen Fertigungsunterschied von 1-2 Generationen. Wow! Komisch dass Amd bei der Effizienz abstinkt...
Mir ist natürlich klar dass das Resultat am Ende zählt und es egal ist warum man fertigungtechnisch so weit zurück ist, aber ein fairer Vergleich sieht anders aus.
Bin schon gespannt (Bereich Spiele) wie sich die Fx mit Directx12 schlagen werden.
Bulldozer war nicht der Renner, aber in der jetzigen Form mit Shrink würde er 99% der Weltbevölkerung ausreichen...
maximus_hertus
2015-09-21, 09:38:54
8 Kerne gegen 6 Kerne reicht aber nicht für ein Comeback,
Für ein Comeback sind lediglich 3 Faktoren wichtig:
- Leistung
- Preis
- Stromverbrauch
Wieviele Kerne etc. verbaut werden spielt dabei nur eine Nebenrolle. Wenn die Reviewer melden, dass ein 299 Euro AMD mit einem 349 Euro i7-K mithalten kann (bzw. 199 Euro AMD mit einem 249 Euro i5-K) und nur unwesentlich mehr Strom verbraucht (sagen wir mal real 95W zu 85W), dann passt das. Wenn die AMDs dafür xxx Kerne brauchen - geschenkt - solange die Leistung am Ende *immer* abrufbar ist (also vor allem dann, wenn die benutzte Software nicht gut mit den Kernen skaliert).
y33H@
2015-09-21, 09:50:57
Gefühlt wird es auf das hier hinaus laufen: GloFos 14nm ist besser als Intels 22nm aber unter deren 14nm. Es kommen 8C-Modelle für Desktop, die dort gegen Intels 4C-Chips (Kaby Lake) antreten werden. In den meisten Fällen sollte das reichen um Intel für etwas weniger Geld Paroli bieten zu können bis hoch zum schnellsten i7 für LGA1151 und gegen einen 6C (Broadwell-EP) anzukommen, die Leistungsaufnahme liegt vermutlich iwo dazwischen. Sollte das so passen, wäre das seit vielen Jahren wieder eine passable Position für AMD - mehr kann man glaube ich auch nicht erwarten angesichts von Intels Ressourcen und Fertigung.
Dural
2015-09-21, 10:23:05
Ich frage mich gerade ob AMD Zen überleben wird, also ich meine bis Zen überhaupt in Massen in den Handel kommt, sprich laut AMD 2017.
Die aktuellen Produkte sind eine einzige Katastrophe und die wollen noch ein Jahr damit überleben? Der CPU Markt ist praktisch Tot, im GPU Bereich sind die Zahlen so tief wie noch nie. Eigentlich sind alle Produkte die AMD derzeit auf dem Markt hat veraltet / es wird nur das nötigste gemacht. Die grosse AMD Hoffnung APU ist bis jetzt auch ein Flopp, Intel hat AMD sogar schon in der Grafik überholt. Zudem traue ich GF nicht wirklich über den Weg, sollte die Fertigung bei GF nicht vernünftig laufen könnte das ziemlich böse für AMD enden.
Gefühlt wird es auf das hier hinaus laufen: GloFos 14nm ist besser als Intels 22nm aber unter deren 14nm. Es kommen 8C-Modelle für Desktop, die dort gegen Intels 4C-Chips (Kaby Lake) antreten werden. In den meisten Fällen sollte das reichen um Intel für etwas weniger Geld Paroli bieten zu können bis hoch zum schnellsten i7 für LGA1151 und gegen einen 6C (Broadwell-EP) anzukommen, die Leistungsaufnahme liegt vermutlich iwo dazwischen. Sollte das so passen, wäre das seit vielen Jahren wieder eine passable Position für AMD - mehr kann man glaube ich auch nicht erwarten angesichts von Intels Ressourcen und Fertigung.
Wenn du damit auf die Gegenüberstellung anspielst, die es schonmal gab zwischen Samsung, TSMC und Intel muss hierbei erwähnt werden, dass Intel sich mit Samsungs LPE und TSMCs FF(ohne +) verglichen hat.
Intels 14nm, Samsungs 14LPP und TSMCs 16FF+ dürften sehr ähnlich leistungsfähig sein, da gibts keinen besten.
Ich frage mich gerade ob AMD Zen überleben wird, also ich meine bis Zen überhaupt in Massen in den Handel kommt, sprich laut AMD 2017.
Die aktuellen Produkte sind eine einzige Katastrophe und die wollen noch ein Jahr damit überleben? Der CPU Markt ist praktisch Tot, im GPU Bereich sind die Zahlen so tief wie noch nie. Eigentlich sind alle Produkte die AMD derzeit auf dem Markt hat veraltet / es wird nur das nötigste gemacht. Die grosse AMD Hoffnung APU ist bis jetzt auch ein Flopp, Intel hat AMD sogar schon in der Grafik überholt. Zudem traue ich GF nicht wirklich über den Weg, sollte die Fertigung bei GF nicht vernünftig laufen könnte das ziemlich böse für AMD enden.
So siehts derzeit ja aus. Wann welches Produkt kommt steht aber immernoch in den Sternen, konkrete Infos dazu sucht man vergebens. Es hängt für AMD wohl alles davon ab, wann GloFo LPP in Masse produzieren kann.
Nichtsdestotrotz werden sie überleben. Langsam beginne ich aber zu glauben, dass ein Investor, der die ganze Sache stabilisiert echt ne gute Sache wär. Es wäre mMn doch echt schlau gewesen wenigstens Pitcairn und einen Hawaii-Ersatzchip in GCN1.2 aufzulegen. Damit hätte man echt bessere Marktchancen gehabt. Und eine FM2+-Variante eine XV-4-Modulers hätte auch nicht geschadet - wobei sowas auch nach hinten losgehen kann.
y33H@
2015-09-21, 11:50:28
Ja, ich spiele darauf an - Intels 14FF (wohlgemerkt P1272 für CPUs und nicht P1273 für SoCs) liegt den mir bekannten Zahlen vor 16FF+ und 14LPP, erst mit 10FF zieht TSMC vorbei.
Duplex
2015-09-21, 12:30:47
40% mehr IPC als Excavator wäre ca. 80% Skylake IPC
Duplex
2015-09-21, 12:37:28
Wenn wir von 4Ghz ausgehen wird AMD nur die 6C/12T von Intel schlagen.
Also Preisbereich max. 500 €
Ich finde das nicht gut, im Server muss AMD besser als Intel werden sonst wird das nichts.
y33H@
2015-09-21, 12:39:16
Nur ist gut ... das ist mehr als AMD seit einer halben Ewigkeit geschafft hat und wäre stark. Aktuell krebsen die besten FX ja im Mittel mit Mühe auf dem Level eines i5 rum.
Duplex
2015-09-21, 12:40:59
Nur ist gut ... das ist mehr als AMD seit einer halben Ewigkeit geschafft hat und wäre stark. Aktuell krebsen die besten FX ja im Mittel mit Mühe auf dem Level eines i5 rum.
Bei Thuban vs. Lynnfield war es ähnlich, i5-750 vs. X6-1055T.
Damit wird AMD nicht besser als jetzt.
Konkurrenzfähig durch 50% mehr Kerne heißt auch zuwenig Singlethread Performance!
AMD braucht schon 90% Sklake IPC, Rest durch Takt & 125W, sonst wird das nichts!
y33H@
2015-09-21, 12:44:54
6 * 1,5 = 9 ... nicht 8 ^^ davon ab: Ja, die X6 waren das letzte Mal wo AMD halbwegs zu Rande kam, aber eben nur in vereinzelten Spielen oder beim Rendering. Seit 2011 und den FX hatte sich das erledigt. Singlethread von Zen klingt auf dem Papier anständig, die 8C vs 4C im Midrange-Segment könnte OEMs und Endkunden locken.
Duplex
2015-09-21, 12:48:00
Im Server & Mobile Markt braucht man effiziente Kerne mit viel Leistung.
y33H@
2015-09-21, 12:49:25
Ich denke, ich habe meinen Standpunkt klar gemacht. Alles andere wird sich zeigen, zB Perf/Watt.
Unicous
2015-09-21, 13:24:13
Taktraten von 4 GHz.
:facepalm:
Man merkt, dass Duplex nur aus dem Mustopf kommt um unqualifizierte Kommentare abzugeben, aber nicht in der Lage ist tiefergehende Gedankengänge zu entwickeln. Hauptsache Bullshit Bingo spielen- IPC, Singlethread darf nie fehlen und die obligatorischen Prozentangaben, die keinerlei Aussagekraft haben, ein typischer Duplex-Kommentar eben.:rolleyes:
Der Takt wird architekturbedingt und FinFET-bedingt deutlich sinken und sich im niedrigen 3 GHz-Bereich einfinden.
Es stellt sich die Frage ob AMD es endlich mal schafft einen ordentlichen Turbomodus zu implementieren, denn bei der Bulldozer-Familie war der nichts weiter als ein schlecht funktionierendes Gimmick.
Ich denke Keller hat noch ein paar Tricks in petto um für Überraschungen zu sorgen, ich kann mir z.B. vorstellen, dass man ein deutlich effizienteres Design entwickelt hat, dass sich mit Skylake messen könnte, aber die Leistungskrone wird man deutlich verfehlen.
Hier wurde man leider von den GF-Prozessen ausgebremst, die ein klares clock ceiling haben, das deutlich unter den optimalen Taktraten für Bulldozer liegt. Selbst bei Llano hatte man seinerzeit die gesteckten Ziele mehr als deutlich verpasst, AMD knallt ohne Ende Spannung auf die Chips, weil sie weiterhin nicht das Binning im Griff haben.
Das alles könnte man mit den FinFET-Prozessen verbessern, denn gerade die Leckströme die alle APUs und Bulldozer-CPUs plagen werden deutlich minimiert.
Auch hier ist es wieder GF die AMD da einen Strich durch die Rechnung machen könnten, indem sie es mal wieder "verkacken". Und danach sieht es wieder aus. LPP scheint leicht verspätet zu sein, sie haben wohl bei LPE auch Probleme, glaubt man den Apple-Gerüchten und man läuft Samsung hinterher.
Mal sehen, ob AMD vllt. mal doppelgleisig fährt und das ein oder andere design bei TSMC auflegt.
YfOrU
2015-09-21, 14:14:30
Im Server & Mobile Markt braucht man effiziente Kerne mit viel Leistung.
Mit Excavator/Carrizo hat AMD bereits gezeigt das man durchaus in der Lage ist sehr effiziente CPUs/SoCs zu entwickeln. Der einzige wirkliche Makel ist die vergleichsweise geringe ST Performance welcher aufgrund der CPU Architektur nicht im notwendigen Maßstab adressiert werden kann.
Hierfür eine neue an Intels Core angelehnte CPU Architektur zu entwickeln dürfte AMD in diesem Kontext kaum vor unlösbare Aufgaben gestellt haben. Time to Market und Volumen sehe ich aufgrund des historischen Verlaufs von AMD und GF (neue Prozesse) als wesentlich kritischer. AMD hatte in der Vergangenheit des öfteren sehr konkurrenzfähige Produkte welche aber meist derart spät in ausreichenden Stückzahlen lieferbar waren das der Zug effektiv schon wieder abgefahren war.
Es stellt sich die Frage ob AMD es endlich mal schafft einen ordentlichen Turbomodus zu implementieren, denn bei der Bulldozer-Familie war der nichts weiter als ein schlecht funktionierendes Gimmick.
Power Management und Turbo sehen bei Excavator/Carrizo meiner Ansicht nach richtig gut aus. Das lässt schon hoffen denn AMD hat es endlich mal wieder auf den Punkt gebracht.
R.I.P.
2015-09-21, 14:28:00
Mit Excavator/Carrizo hat AMD bereits gezeigt das man durchaus in der Lage ist sehr effiziente CPUs/SoCs zu entwickeln. Der einzige wirkliche Makel ist die vergleichsweise geringe ST Performance welcher aufgrund der CPU Architektur nicht im notwendigen Maßstab adressiert werden kann.
Hierfür eine neue an Intels Core angelehnte CPU Architektur zu entwickeln dürfte AMD in diesem Kontext kaum vor unlösbare Aufgaben gestellt haben. Time to Market sehe ich aufgrund des historischen Verlaufs von AMD und GF als wesentlich kritischer.
Unicous und du habt einen wichtigen Punkt angesprochen: Ich bin mir hundertprozentig sicher dass GloFo wieder Scheiße bauen wird: Ganz egal, ob bei der Massenproduktion, bei den Yields or weißdergeierwas. Ich hoffe auf einen privaten Investor / InvestmentFond der AMD vom Aktienmarkt holt, wie DELL und die Abhängigkeit vom Hauptinvestor (Besitzer von GloFo) löst. Die Situation in der sich AMD befindet ist doch zu 75% GloFo Schuld!!
y33H@
2015-09-21, 14:33:19
Welche Alternative hat AMD denn? Die können nicht alles bei TSMC bauen lassen ...
Unicous
2015-09-21, 14:52:46
@R.I.P.
Nein, AMD hat natürlich auch ordentlich verkackt. Denn auch wenn der Prozess perfekt abgestimmt gewesen wäre, hätte das Bulldozer nicht wirklich geholfen die geringere SingleThread-Leistung ausgleichen zu können.
Dass der 32nm SOI Prozess z.T sogar schlechter agierte als 45nm und anfangs lediglich einen Flächenvorteil bot half AMD natürlich nicht, wenn man auf vergleichsweise hohe Takte abzielt.
Hacki_P3D
2015-09-21, 15:07:21
Globalfoundries entwickelt 10- und 7-nm-Technik ohne Samsung
http://www.golem.de/news/auftragsfertiger-globalfoundries-entwickelt-10-und-7-nm-technik-ohne-samsung-1509-116404.html
Unicous
2015-09-21, 15:12:42
Wird bereits im entsprechenden Thread diskutiert:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10785816#post10785816
Hacki_P3D
2015-09-21, 15:30:40
Ah, da :) Danke!
R.I.P.
2015-09-21, 16:37:19
@R.I.P.
Nein, AMD hat natürlich auch ordentlich verkackt. Denn auch wenn der Prozess perfekt abgestimmt gewesen wäre, hätte das Bulldozer nicht wirklich geholfen die geringere SingleThread-Leistung ausgleichen zu können.
Dass der 32nm SOI Prozess z.T sogar schlechter agierte als 45nm und anfangs lediglich einen Flächenvorteil bot half AMD natürlich nicht, wenn man auf vergleichsweise hohe Takte abzielt.
Sag ich doch 75% zu 25 ;D
Der erste Eindruck von Bulldozer wäre sicherlich um einiges besser gewesen, wenn der Prozess nicht so abgestunken hätte...
Bei AMD bleibt doch alles negative ums 100fache intensiver hängen als bei der Konkurrenz! Von der Verspätung der Veröffentlichung ganz zu schweigen.
R.I.P.
2015-09-21, 17:15:36
http://www.mystatesman.com/news/business/amid-challenges-chipmnaker-amd-sees-a-way-forward/nngdf/
Looks good :biggrin:
Unicous
2015-09-21, 17:20:31
Sag ich doch 75% zu 25 ;D
Der erste Eindruck von Bulldozer wäre sicherlich um einiges besser gewesen, wenn der Prozess nicht so abgestunken hätte...
Bei AMD bleibt doch alles negative ums 100fache intensiver hängen als bei der Konkurrenz! Von der Verspätung der Veröffentlichung ganz zu schweigen.
Nein.
Du brauchst nicht mit Zahlenspielen anfangen. AMD hat es genauso verkackt wie GF. Und am Ende des Tages ist zu 100% AMD schuld, weil sie darauf nicht entsprechend reagiert haben, zumal der 32nm Prozess ja schon Jahre vorher konzipiert wurde und AMD da noch Eigner der Fabs war.:wink:
R.I.P.
2015-09-21, 18:31:58
Nein.
Du brauchst nicht mit Zahlenspielen anfangen. AMD hat es genauso verkackt wie GF. Und am Ende des Tages ist zu 100% AMD schuld, weil sie darauf nicht entsprechend reagiert haben, zumal der 32nm Prozess ja schon Jahre vorher konzipiert wurde und AMD da noch Eigner der Fabs war.:wink:
Reagiert auf was? Foundry wechseln, damit die verpflichtenden Abnahmequoten noch besser hätten retribuiert werden können? Ach komm schon, das glaubst du doch selbst nicht!
AMD hat sich selbst in einer Gülle Situation gebracht, keine Frage, aber den Rest haben diese Vollkoffer von GF geregelt
fondness
2015-09-21, 19:06:44
Na ein Ing der an Zen arbeitet muss es ja wissen:
Suzanne Plummer, the veteran Austin chip engineer who heads the Zen team, exudes confidence about the project. “It is the first time in a very long time that we engineers have been given the total freedom to build a processor from scratch and do the best we can do,” Plummer said. “It is a multi-year project with a really large team. It’s like a marathon effort with some sprints in the middle. The team is working very hard, but they can see the finish line. I guarantee that it will deliver a huge improvement in performance and (low) power consumption over the previous generation.”
http://www.mystatesman.com/news/business/amid-challenges-chipmnaker-amd-sees-a-way-forward/nngdf/
https://www.linkedin.com/pub/suzanne-plummer/9/404/381
Tamagothi
2015-09-21, 19:41:07
Ich Hoffe und Bete für AMD :frown:
Will weg von Intel und um gottes willen will ich nicht 3,5+0,5GB haben.
Die Zeichen sehen "momentan" gut aus das es einigermaßen klappt.
y33H@
2015-09-21, 19:41:20
Das sagte John Frühe über Bulldozer damals so ähnlich auch ;-)
"huge improvement in performance and (low) power consumption" also weiterhin mit Vorsicht behandeln.
Skysnake
2015-09-21, 19:42:29
genau das wollte ich auch gerade sagen. Mit allen Aktionen seit BD hat sich AMD sehr viel Galubwürdigkeit verspielt.
fondness
2015-09-21, 19:56:30
John Frühe war allerdings ein Marketing Guy, außerdem bezog er sich AFAIk nur auf irgend welche FPU-Spezialfälle.
Nakai
2015-09-21, 19:56:52
Das sagte John Frühe über Bulldozer damals so ähnlich auch ;-)
"huge improvement in performance and (low) power consumption" also weiterhin mit Vorsicht behandeln.
Also das Bulldozer Concept wurde sehr früh als Fail deklariert. Und nachhinein(ja und nachhinein kann man vieles sagen^^) ist es auch ziemlich klar, wieso.
Mich würde es nicht wundern, wenn das Ding erstmal viel breiter ist, als erwartet. Ich erwarte mindestens 4 Decoder, aber noch dedizierte Scheduler für Float und Int, eventuell sogar für LD/ST.
Das kostet wohl eine extra Pipelinestufe, würde aber viele Möglichkeiten einräumen. Die Teams könnten unabhängiger arbeiten, solange die Schnittstellen passen.
Wichtig ist auch den Interconnect, Caching und die LD/STs zu verbessern.
StefanV
2015-09-21, 22:01:00
Also das Bulldozer Concept wurde sehr früh als Fail deklariert. Und nachhinein(ja und nachhinein kann man vieles sagen^^) ist es auch ziemlich klar, wieso.
...wobei die letzte Iteration (Carrizo) davon ganz gut war...
Ich denke, dass BD sehr stark an dem Shitty Uncore Teil gelitten hat, der für den Desktop Bereich viel zu niedrig getaktet war...
So ein wenig hab ich auch das Gefühl, dass man zu dem Phenom Uncore Bereich einfach neue Cores geklatscht hat und den eben NICHT überarbeitet...
Leider ist das ein Problem, dass sich wie ein roter Faden durch die AMD Geschichte zieht - selbst bei K7 war der L2 Cache deutlich schlechter angebunden als bei Intel...
Wichtig ist auch den Interconnect, Caching und die LD/STs zu verbessern.
DAS ist doch _DAS_ Problem bei BD!!
Bzw darum verhungert der doch...
Novum
2015-09-21, 22:28:27
Das Problem von Bulldozer ist nicht der Cache, sondern die Branch Misprediction Penalty und die Instruction Cache Hit Rate, vor allem mit zwei Threads.
Das Problem von Bulldozer ist nicht der Cache, sondern die Branch Misprediction Penalty und die Instruction Cache Hit Rate, vor allem mit zwei Threads.
Na der L1I-Cache wurde doch ab Steamroller auf 96 kB vergrößert.
Excavator hat außerden 32kB L1D-Cache bekommen und fährt damit ziemlich gut, trotz kleinerem L2 ... 16 kB und 4 Bänke waren einfach zuwenig, nicht nur wg. der Größe sondern auch wg. Zugriffsprobleme (bank-conflicts).
Nakai
2015-09-22, 00:58:41
...wobei die letzte Iteration (Carrizo) davon ganz gut war...
Ich denke, dass BD sehr stark an dem Shitty Uncore Teil gelitten hat, der für den Desktop Bereich viel zu niedrig getaktet war...
So ein wenig hab ich auch das Gefühl, dass man zu dem Phenom Uncore Bereich einfach neue Cores geklatscht hat und den eben NICHT überarbeitet...
Der Uncore ist sicherlich ein riesen Problem. Die Execution Ebene ist auch ein Problem. Die ist bei Bulldozer, dank diesen AGLUs, sehr seltsam. Das sind keine 4 Ports für die AGLUs, die Instruktionen verschachteln sich und blockieren dementsprechend andere Ports. Je nach Fall sind es nur zwei Ports.
Dank Pipelining ist es nicht so schlimm, aber es gibt schon Bubbles.
Die FPU hat deutlich weniger Ports im Vergleich zu Intel. Ein SMT-Kern von Intel kann mit einem CMT-Kern seitens AMD gleichgesetzt werden. Im Grunde hat ein Bulldozer Thread weniger Ausführungsresourcen als jegliches von Intel. Jaguar ist ein sehr ausgewogenes Design. Durchgängig 2fach Superskalar. Sehr simpel und effektiv. Ich wünsche mir von AMD eine deutlich breitere Jaguar-Architektur mit SMT. Da auch jegliche Wildkatzen-Kerne seit Jaguar praktisch identisch sind, gehe ich mal davon aus, dass diese Entwickler-Leute woanders hin abgewandert sind. Eventuell zu Zen...was eigentlich völlig logisch ist.
Wenn es so ist, wird man den Exekution-Teil von Jaguar stark überarbeiten. Keine dedizierten Scheduler für INTs und AGUs. Ich sehe da zwei Möglichkeiten. Scheduler für INT mit mehreren Ports darunter(mehr als 2 eher 4) und einen Scheduler für die AGUs/LDSTs (mehr als 2 eher 4 Ports) und dann noch einen Scheduler für die FPU(mehr als 2 eher 4 Ports). Cyclon ist sehr ähnlich aufgebaut(*hust*). Die Decoder müssen mindestens verdoppelt werden.
Und ja vieles von Bulldozer übernehmen.
StefanV
2015-09-22, 01:18:02
Das Problem von Bulldozer ist nicht der Cache, sondern die Branch Misprediction Penalty und die Instruction Cache Hit Rate, vor allem mit zwei Threads.
Das ändert wenig an dem Zustand, dass (insbesondere der L2 Cache), einfach zu lahm ist und alles nicht wirklich optimal für die Architektur...
Opteron hat ja einige Dinge erwähnt, die die Performance vom aktuellen BD deutlich erhöht haben - und das waren eben doch Anpassungen der Cache Architektur (aber wohl nicht nur)...
Mit einem vernünftigen (und sehr performantem) Cache System stünde BD deutlich besser da, als er es tat...
Ich schätze, dass da locker 25% mehr Leistung drin gewesen wären...
Der Uncore ist sicherlich ein riesen Problem. Die Execution Ebene ist auch ein Problem. Die ist bei Bulldozer, dank diesen AGLUs, sehr seltsam. Das sind keine 4 Ports für die AGLUs, die Instruktionen verschachteln sich und blockieren dementsprechend andere Ports. Je nach Fall sind es nur zwei Ports.
Dank Pipelining ist es nicht so schlimm, aber es gibt schon Bubbles.
Seien wir doch mal ehrlich und nennen das Kind beim Namen:
Bulldozer wurde überhastet und unfertig auf den Markt geschmissen!
Mehr gibts da eigentlich nicht mehr zu sagen...
Jaguar ist ein sehr ausgewogenes Design. Durchgängig 2fach Superskalar. Sehr simpel und effektiv. Ich wünsche mir von AMD eine deutlich breitere Jaguar-Architektur mit SMT. Da auch jegliche Wildkatzen-Kerne seit Jaguar praktisch identisch sind, gehe ich mal davon aus, dass diese Entwickler-Leute woanders hin abgewandert sind. Eventuell zu Zen...was eigentlich völlig logisch ist.
...wobei aber erwähnt werden sollte, dass Jaguar aber auch nicht auf sehr hohe Taktraten ausgelegt ist sondern sehr hohe Effizienz bei eher niederer Leistung (2GHz etwa)..
BD verträgt da deutlich höhere Taktraten (ist aber auch KEIN Hochtaktdesign, wie Netburst!)
Nakai
2015-09-22, 01:35:45
Das ändert wenig an dem Zustand, dass (insbesondere der L2 Cache), einfach zu lahm ist und alles nicht wirklich optimal für die Architektur...
Opteron hat ja einige Dinge erwähnt, die die Performance vom aktuellen BD deutlich erhöht haben - und das waren eben doch Anpassungen der Cache Architektur (aber wohl nicht nur)...
Mit einem vernünftigen (und sehr performantem) Cache System stünde BD deutlich besser da, als er es tat...
Ich schätze, dass da locker 25% mehr Leistung drin gewesen wären...
Tja, das Problem ist man kann bei Hardware und ASIC-Designs nicht irgendwas einfach ändern...das zieht so einen Rattenschwanz hinterher. Jeder der das schon etwas gemacht hat, weiß wovon ich rede.;D
Seien wir doch mal ehrlich und nennen das Kind beim Namen:
Bulldozer wurde überhastet und unfertig auf den Markt geschmissen!
Mehr gibts da eigentlich nicht mehr zu sagen...
Bulldozer kam so, wie er kam. Da war nichts überhastet, das war so, wie es sollte.
...wobei aber erwähnt werden sollte, dass Jaguar aber auch nicht auf sehr hohe Taktraten ausgelegt ist sondern sehr hohe Effizienz bei eher niederer Leistung (2GHz etwa)..
BD verträgt da deutlich höhere Taktraten (ist aber auch KEIN Hochtaktdesign, wie Netburst!)
Die maximale Laufzeit einer Komponente im gleichen Taktraum definiert einfach den maximalen Takt...theoretisch. Mehr Pipelinestages...niedrigere Laufzeit und LAtenz der einzelnen Teile => höherer Takt. Das in der Theorie.
Na ein Ing der an Zen arbeitet muss es ja wissen:
http://www.mystatesman.com/news/business/amid-challenges-chipmnaker-amd-sees-a-way-forward/nngdf/
https://www.linkedin.com/pub/suzanne-plummer/9/404/381
1.) Das sagt ein Ingeneur, kein Markedingheini
2.) wichtiger ist die Info, dass sie von Grund auf neu anfangen konnten (seit 2011 sicherlich)
3.) sie sehen die Ziellinie
Das bedeutet nach meinem Verständnis:
1.) völlig klar, dass der Chip effizienter wird als BD, steht ja außer Frage denke ich.
2.) weder K7 noch BD bilden die Grundlage für das Design. Man wird alles, was man an Technolgie zur Verfügung hatte in die Waagschale geworfen haben und ein echtes Brainstorming gemacht haben, wie damals bei GCN übrigens. Zen wird völlig anders sein alles alle bisherigen CPU. Nicht Cat, nicht Baumaschine, nicht K7/8/10.
3.) man arbeitet am Silizium (seit 16.Juli 2015, das wissen wir ja von Lisa Su persönlich). Hier stellt sich die Frage, ob man schon mit Rev.A zufrieden sein kann, was durchaus passieren kann, da AMD die internen Entwicklungsabläufe seit dem BD-Desaster ja offenbar grundlegend geändert hat und man sich keine 3 Masken für einen Prozessor mehr leisten will und kann. Ob das aber so ist, geht aus der Aussage nicht hervor.
[...]
Seien wir doch mal ehrlich und nennen das Kind beim Namen:
Bulldozer wurde überhastet und unfertig auf den Markt geschmissen!
Mehr gibts da eigentlich nicht mehr zu sagen...
[...]
Das stimmt so glaube ich nicht. Das Design wurde erheblich überhastet für 32nm umgestrickt und mit einer unfertigen, nicht durchdachten Maske auf Silizium gebraten. Da muss man sich einen Orochi nur mal anschauen, was da an Platz für nix verbraten wird. In 45nm wär die Anzahl der Ausführungseinheiten gut gewesen, gegen Intels Ix-Serie ab Bloomfield war das Design aber nicht konkurrenzfähig, vermutlich wie alle Versuche damit (Ur-K8, K9, Ur-K10) auch. Alle weiteren Designs bis XV waren möglichst billige Verbesserungen, die möglichst wenig Arbeit bereiten sollten, aber möglichst viel Effekt haben sollten und mit den HD-Libs auch noch eine Lernkurve mitbrachten.
OBrian
2015-09-23, 06:52:09
Der Fehler bei BD war wohl auch weniger die technische Entwicklung, sondern die strategische Fehlplanung. Eigentlich auch voraussehbar, aber da hatte man sich wohl verbissen und dann zieht man was durch, obwohl man eigentlich erkennt, daß es Murks wird, weil man es nicht wahrhaben will.
Die Zielsetzung "brauchbare Performance mit möglichst geringer Diefläche" sollte durch die Modulbauweise und durch hohen Takt erreicht werden, und dem mußten sich wohl alle anderen Kriterien unterordnen. Der hohe Takt hätte funktioniert, wenn sich nicht die gleichen physikalischen Abgründe wie beim Pentium 4 aufgetan hätten. 8 GHz sind ja technisch machbar, ergeben nur eben nicht verkaufbare TDP-Werte. Und die Modulbauweise wäre auch eine super Idee gewesen, wenn Single-Thread-Performance nicht heute immer noch so wichtig wäre, und wenn es keine hochintegrierten APUs gäbe.
Inzwischen sieht das ja ganz anders aus, Die Diefläche eines Kerns ist nicht mehr so wichtig, weil im SoC der prozentuale Anteil der CPU sowieso immer kleiner wird. D.h. man spart kaum Fläche, wenn man die CPU halb so groß baut, der Nachteil der dadurch eingebüßten Performance ist ungleich gravierender. Und nach Netburst und BD hat es hoffentlich jeder kapiert, daß die Strategie, den Takt ohne Rücksicht auf Verluste hochzuprügeln, verdammt dämlich ist.
Wenn man diesen ganzen ideologischen Ballast abgelegt und tatsächlich "from scratch" neu angefangen hat, dann ist das eigentlich gar nicht so schwierig, eine Architektur mit wirklich wesentlich höherer IPC aufzulegen. Entscheidend ist auch hier wieder die Frage, wo wollen sie hin, welche Prioritäten werden gesetzt?
...
Inzwischen sieht das ja ganz anders aus, Die Diefläche eines Kerns ist nicht mehr so wichtig, weil im SoC der prozentuale Anteil der CPU sowieso immer kleiner wird. D.h. man spart kaum Fläche, wenn man die CPU halb so groß baut, der Nachteil der dadurch eingebüßten Performance ist ungleich gravierender. Und nach Netburst und BD hat es hoffentlich jeder kapiert, daß die Strategie, den Takt ohne Rücksicht auf Verluste hochzuprügeln, verdammt dämlich ist.
Wenn man diesen ganzen ideologischen Ballast abgelegt und tatsächlich "from scratch" neu angefangen hat, dann ist das eigentlich gar nicht so schwierig, eine Architektur mit wirklich wesentlich höherer IPC aufzulegen. Entscheidend ist auch hier wieder die Frage, wo wollen sie hin, welche Prioritäten werden gesetzt?
Evtl. ist die Taktstrategie aber doch weiterhin nicht unbedingt dämlich, hohe IPC mittelfristig doch nicht sooo wichtig,... , das können echte Experten beantworten. Was hier von Laien an unglaublichen Erkenntnissen geschrieben wird, ist doch eher belanglos.
y33H@
2015-09-23, 10:46:53
Welches Design mit geringer IPC hat sich denn mittelfristig gehalten? Lass mich kurz überlegen ... keins.
Evtl. ist die Taktstrategie aber doch weiterhin nicht unbedingt dämlich, hohe IPC mittelfristig doch nicht sooo wichtig,... ,
Doch die Physik zwingt dazu, da die Leckströme in jeder feineren Struktur größer werden. Jetzt kannst Du versuchen Prozesse auf geringe Leckströme zu optimieren, das geht - wirkt sich aber schlecht auf den max. Takt aus.
Aktuelles Lösungsmittel sind Finfets, aber unter 10nm helfen die auch nicht mehr viel, da zeigt sich dann das gleiche Problem, dass man mit planaren Transistoren bei 20-30 nm hatte.
Es gibt aber auch noch ein anderes Problem: Die Herstellungsprozesse werden immer filigraner, die Leitungen immer dünner, damit ist klar, dass über diese Winz-Leitungen immer weniger Strom fließen kann.
Häng mal nen Trockner und ne Waschmaschine an eine 5 Euro 3fach-Steckdosenverlängerung und beobachte die Kabeltemperatur ...
Aus dem Grund ist man vor ~15 Jahren bei den 1 GHz CPUs schon von Aluminium auf Kupferleitungen umgestiegen:
http://www.tomshardware.com/reviews/race,165-2.html
Aber was besseres ist jetzt nicht in Aussicht. Silber wäre nur wenig besser (unter 10%) als Kupfer, das würde den Aufwand nicht lohnen.
Solange man da nichts Besseres findet, wird sich der Markt weiter in Richtung CPUs mit hoher Perf/Watt verschieben.
BlacKi
2015-09-23, 11:50:08
Welches Design mit geringer IPC hat sich denn mittelfristig gehalten? Lass mich kurz überlegen ... keins.
also broadwell als erfolg zu verbuchen wäre zuviel des guten, skylake und haswell sind ziemlich erfolgreich.
broadwell hat zwar eine höhere ipc als haswell, aber dank dem niedrigen takt potential verschenkt die architektur viel boden den man hätte gut machen können.
ich würde auch auf takt gehen sonst endet amd noch wie via...
tm0975
2015-09-23, 13:16:10
Welches Design mit geringer IPC hat sich denn mittelfristig gehalten? Lass mich kurz überlegen ... keins.
ARM?
Undertaker
2015-09-23, 13:51:06
ARM ist kein Design. Und auch dort geht der Trend ganz klar zu immer IPC-stärkeren Architekturen, wenngleich Arbeitspunkt-bedingt auf tendenziell etwas niedrigerem Niveau.
y33H@
2015-09-23, 13:59:30
Wollte grade sagen, man schaue sich nur mal an, was Apple da baut - die Teile sind in Sachen IPC ein Brett.
Naitsabes
2015-09-23, 14:47:56
Aber es ist durchaus möglich, dass ab einem bestimmten Punkt eine Taktsteigerung effizienter ist als in die Breite zu gehen - die statische Leakage wird mit feineren Prozessen auch wieder etwas zunehmen.
Die Frage ist nur, ob sich das Verhältnis von statischer und dynamischer Leakage so weit verschiebt, dass das wirklich zu tragen kommt.
y33H@
2015-09-23, 16:00:14
Das macht Intel zB heute schon so, Stichwort SoC Duty Cycling. Der Chip wechselt ständig zwischen dem effizientesten Takt mit der höchsten Frequenz die sich basierend auf dynamischen Leckströmen ergibt und Power Gating, womit die statischen Leckströme unterbunden werden.
Timbaloo
2015-09-28, 17:11:40
http://www.tomshardware.de/amd-zen-14nm-16nm-tsmc,news-253774.html
Das hört sich mal überhaupt nicht gut an :(
AngelDust 32
2015-09-28, 17:23:26
Das hört sich mal überhaupt nicht gut an :(
http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-25-september-2015
Timbaloo
2015-09-28, 17:29:27
Oh, danke. Die News auf der Startseite habe ich tatsächlich nicht gesehen.
StefanV
2015-09-28, 17:57:17
Würd nicht ausschließen wollen, dass die Hälfte davon korrekt ist und man diesesmal ZWEI Zen Designs entwickelt, um auf jeden Fall was brauchbares zu haben, falls mal einer wirklich verkacken sollte...
Das würd ich jetzt nicht ausschließen wollen. Die Frage ist nur, ob es TSMC oder doch eher Samsung ist, die Zen auch fertigen dürfen...
y33H@
2015-09-28, 18:09:12
GloFo auf Nachfrage noch mal bestätigt, dass Chips mit 14FF-LPP ihren Tape-out hatten.
Risk Production soll bald anlaufen und Serienfertigung Anfang 2016 starten: http://www.golem.de/news/auftragsfertiger-globalfoundries-startet-demnaechst-die-14-nm-lpp-produktion-1509-116547.html
An die "Zen-CPUs bei TSMC"-Geschichte glaube ich daher nicht.
StefanV
2015-09-28, 18:29:09
Wenn, dann eher als 'Second Source', wobei es da wahrscheinlicher ist, dass Samsung 'nen paar fertigen könnte, da der Prozess von GF ja von denen stammen soll...
Und warum sollte AMD zweigleisig fahren, bzw. was macht dich sicher, dass GF nur zusätzlich zu TSMC als herhalten soll?
Samsung könnte "einen paar fertigen"? :freak:
Stammen soll? Das ist so, steht u.A. auch wieder in obigem Artikel.
GloFo auf Nachfrage noch mal bestätigt, dass Chips mit 14FF-LPP ihren Tape-out hatten.
Risk Production soll bald anlaufen und Serienfertigung Anfang 2016 starten: http://www.golem.de/news/auftragsfertiger-globalfoundries-startet-demnaechst-die-14-nm-lpp-produktion-1509-116547.html
An die "Zen-CPUs bei TSMC"-Geschichte glaube ich daher nicht.
Die könnten Summit Ridge bei beiden Foundries aufgelegt haben, das ist immerhin der wichtigste Chip seit sehr langer Zeit. Noch mal ne Verzögerung kann immerhin den Untergang bedeuten und Lieferengpässe bedeuten ebenfalls Probleme bei OEMs, was bei AMD auch oft eintrat. Es kann sich also schon deshalb lohnen, um schnell möglichst viele Chips liefern zu können. Von daher finde ich das jetzt nicht ganz so eindeutig.
Primärfertiger ist sicherlich GloFo. Samsung wird sicherlich nichts für AMD fertigen. Was mit Greenland ist, wird sich zeigen. Es könnten auch einige bei TSMC und einige bei GloFo gefertigt werden von den Arctic-Chips. So eindeutig ist das also auch nicht.
StefanV
2015-09-28, 21:14:39
GloFo auf Nachfrage noch mal bestätigt, dass Chips mit 14FF-LPP ihren Tape-out hatten.
An die "Zen-CPUs bei TSMC"-Geschichte glaube ich daher nicht.
Da eine schließt das andere ja nicht aus...
Du hast hier schlicht die Wahl:
a) Geld zu sparen, dafür das Risiko einzugehen, dass, wenn GF mal wieder Mist baut, du komplett im Klo bist.
b) du sparst das Geld nicht und gehst auf Nummer Sicher, lässt den Chip von BEIDEN fertigen, eben um die OEM Nachfrage zu befriedigen. Eben um vor Verzögerungen oder schlechter Fertigung bei GF gefeilt zu sein.
Ist also nicht ganz von der Hand zu weisen, dass schlicht beides möglich ist. Dass der 14FF-LPP Tapeout ein Zen war. Und dass der auch bei TSMC vom Band läuft.
Das hat AMD doch auch bei einigen Chips schon gemacht, oder?
Afair hat AMD das überhaupt noch nie gemacht :confused:
Wir reden schon davon, einen einzigen Chip parallel auf beiden Prozessen laufen zu lassen? Mit welchem Chip soll das bisher passiert sein?
Von den Kosten mal abgesehen hätte man das auch von vorneherein so planen müssen und das bezweifle ich nun doch. Außerdem denke ich dass es auch Probleme geben könnte, wenn die Qualität zwischen beiden Prozessen zu stark auseinander ginge.
StefanV
2015-09-28, 21:32:57
Afair hat AMD das überhaupt noch nie gemacht :confused:
Wir reden schon davon, einen einzigen Chip parallel auf beiden Prozessen laufen zu lassen? Mit welchem Chip soll das bisher passiert sein?
Beema oder Mullins könntens gewesen sein, war auf jeden Fall 'ne Katze.
Von den Kosten mal abgesehen hätte man das auch von vorneherein so planen müssen und das bezweifle ich nun doch. Außerdem denke ich dass es auch Probleme geben könnte, wenn die Qualität zwischen beiden Prozessen zu stark auseinander ginge.
Klar, der Aufwand ist höher, die Kosten sind höher.
Dafür biste Sicher, wenn bei einem mal was schief ging...
y33H@
2015-09-28, 21:53:52
Parallel nicht, aber AMD hat von Kabini (28nm TSMC) auf Beema (28nm GloFo) gewechselt.
robbitop
2015-09-29, 09:32:20
AMD hat IIRC mal einen K8 bei Chartered herstellen lassen, den sie selbst als Fertiger auch im Programm hatten.
In der heutigen Situation würde ich AMD finanziell und aus R&D Sicht ein Dual Sourcing kaum noch zu trauen.
BTW: wer sagt, dass GF's 14LPP Tapeouts Zen Kerne waren? Gibt ja noch andere Kunden bei GF.
tm0975
2015-09-29, 09:33:43
wie ist der aktuelle spekulationsstand zu AM4? ich habe eine folie in erinnerung, wonach die ersten umsätze in q1 2016 erfolgen sollen. ist das noch aktuell? da ja zen erst gegen ende 2016 kommen soll/wird, was kommt vorab auf am4? godaveri oder doch was neueres? durch den mist mit der mainboard-kopplung möchte ich erst auf AM4 umsteigen, bevor ich auf win 10 wechsle.
YfOrU
2015-09-29, 10:14:30
Die Bristol Ridge APU. Also ein Carrizo 2.0 für den Desktop (2M Excavator, 512SPs GCN 1.2, DDR4).
Parallel nicht, aber AMD hat von Kabini (28nm TSMC) auf Beema (28nm GloFo) gewechselt.
Beema ist einfach ne Rev. weiter und kommt eben von GloFo. Zudem möchte ich darauf hinweisen, dass es keinen Beweis dafür gibt, dass AM1-Kabini ein Beema ist. Das bleibt Spekulation (wenn auch eine wahrscheinliche).
Was auch immer, diese Sondersituation ist sicherlich kaum mit einer vorhergehenden vergleichbar, von daher erübrigt sich auch jeder Vergleich. Apple macht es ja i.Ü. genauso.
Skysnake
2015-09-29, 12:13:24
Also ich halte es sehr sehr sehr unwahrscheinlich, das man bei GF und TSMC den gleichen Chip fertigen lässt. Das macht absolut keinen Sinn. Die Kosten dafür sind in der Entwicklung gewaltig. Da lieber die ganze Arbeit in einen Fertiger stecken und möglichst sicher sein, dass das am Ende dann auch ein funktionstüchtiger Chip ist.
Bezüglich dual-source gibt es ja eh auch noch Samsung. Die verwenden den gleichen Prozess, also lieber das nutzen.
Mandalore
2015-09-29, 17:49:47
Was denkt ihr? Wann kann man mit Desktop-ZEN-CPUs auf dem Markt rechnen? Laut PCGH mit Mitte 2016.
Engineering-Samples und damit erste Benches müssten doch spätestens Februar präsent sein oder nicht?
Man weiß ja fast nichts, es hieß aber öfters eher Ende des Jahres.
Im Zuge des Weggangs von Keller hat AMD nur verlauten lassen, dass es 2016 Samples gibt und 2017 das erste Jahr wird, in dem Zen Prozessoren durchweg für Umsatz sorgen.
@Skysnake: Baut Samsung überhaupt größere Chips? Und haben sie dafür Kapazitäten? Bestimmt stehen dort ARM SoCs (Exynos, Apple A10?, ...) von der Priorität oben.
Wenn es stimmt, dass Apple den A9 auch bei GF ferigen lässt (lt. Golem), ist Samsung damit gut ausgelastet. Und Ende nächsten Jahres stehen wieder neue iPhones usw. an.
Parallel nicht, aber AMD hat von Kabini (28nm TSMC) auf Beema (28nm GloFo) gewechselt.
Habe auch schon gelesen, AMD dürfe gar nirgends außer bei GF x86 Chips fertigen lassen, wegen den damaligen Lizenzabkommen (ursprünglich nur AMD selbst, im Zuge der Abspaltung dann eben GF). Dann ist das damit also Quatsch
Habe auch schon gelesen, AMD dürfe gar nirgends außer bei GF x86 Chips fertigen lassen, wegen den damaligen Lizenzabkommen (ursprünglich nur AMD selbst, im Zuge der Abspaltung dann eben GF). Dann ist das damit also Quatsch
Mit dem damaligen Abkommen durfte AMD nur einen gewissen Prozentsatz x86 außer Haus fertigen lassen (Ich meine es waren 30%). Im aktuellen Vertrag ist die Beschränkung komplett verschwunden.
Skysnake
2015-09-30, 06:54:54
Wieso sollten Sie keine großen Chips bauen können?
Sie haben die Tools dafür, und die PDKs sollten es an sich auch hergeben.
Dazu kommt ja, das auch Samsung ein Interesse daran hat, möglichst große DIEs sicher fertigen zu lassen. Damit kann man dann nämlich mehr "Chips" in einem MPW run verkaufen.
Es gibt absolut keinen Grund anzunehmen, dass das bei Samsung nicht gehen würde.
Das weiß ich nicht, deshalb frage ich ja ;)
Dass sie es könnten bezweifle ich ja auch nicht, ich weiß nur nicht ob sie es machen.
Duplex
2015-10-02, 16:51:00
Bitte löschen
y33H@
2015-10-02, 17:09:50
Wer sagt, Jim wurde gekündigt?!
M4xw0lf
2015-10-02, 17:30:07
Wer sagt, Jim wurde gekündigt?!
Na der allwissende Duplex. :rolleyes:
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.