Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - AMDs CPU-Architekturen-Strategie (Skybridge, K12, Zen, ...)
Seiten :
1
2
[
3]
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
fondness
2015-02-04, 11:42:43
Solange Intel für alles >4 Kerne/Threads ein kleines Vermögen verlangt ist ein Markt da für AMD mit etwas weniger IPC und Takt durchaus attraktiv zu sein. Für 8 Kerne/16 Thread wäre sicher einige bereit auf ein paar Prozent Single-Thread-Leistung zu verzichten.
Die Frage ist natürlich wie realistisch es ist mit Intel mithalten zu können, die liefern jetzt immerhin jährlich eine neue µArch und haben eine eigenen Fab.
robbitop
2015-02-04, 11:44:42
@Duplex
:rolleyes: Ließt du meine Beiträge nicht? K10 @45 nm war ggü Nehalem auch noch OK.
20 % langsamer dafür massiv günstiger. Schau dir mal die Betriebsergebnisse aus der Zeit an. Da war die Welt trotzdem noch in Ordnung.
IMO genügt es einen soliden Kern zu bringen. Dafür regelmäßig. Tick-Tock.
AMD hat leider damals extrem viel R&D Zeit verbrannt weil sie sich in viele Richtungen verrannt haben (IIRC wurden einige Designs vor der Veröffentlichung verworfen, da zu exotisch). Am Ende kam mit Bulldozer und all seinen Abkömmlingen das totale Versagen - weil man wieder so einen exotischen Mist machen wollte.
Ein schön solider, straighter Kern. So gut wie möglich. IMO wird das reichen, um AMDs Betriebsergebnis in die schwarzen Zahlen zu bringen. Man wird nicht reich - aber man hat ein Auskommen. IMO OK.
Dafür kann man mit einem soldien Kern eben in vielen anderen Bereichen wildern (wie eben Konsolen, custom SoCs etc).
Solange Intel für alles >4 Kerne/Threads ein kleines Vermögen verlangt ist ein Markt da für AMD mit etwas weniger IPC und Takt durchaus attraktiv zu sein.
Die Frage ist natürlich wie realistisch es ist mit Intel mithalten zu können, die liefern jetzt immerhin jährlich eine neue µArch und haben eine eigenen Fab.
Naja. Eigentlich updaten sie einfach nur jährlich. Die µ-Arch wird in einem Tick leicht geliftet und einem Tock halt etwas mehr. Bleiben IMO trotzdem Updates. Am Ende ist ja noch klar erkennbar, dass selbst die aktuellen Cores noch selbst Nehalem ähneln. Natürlich sind das jetzt schon viele Updates.
IMO war es uA auch die tolle Execution von Intel. Jedes Jahr stetig ein Update. So muss AMD das auch machen. Und wenn's nur kleine Updates sind. Kontinuierliche Updates sind sicherer , kontinuierlicher und suggerieren mehr Fortschritt.
Duplex
2015-02-04, 11:58:43
Nehalem war ca. 30% vor K10, klar war die Lage damals noch besser als heute.
Auch der Marktanteil im Server Bereich war höher als heute, Shanghai war damals nicht schlecht.
Im Desktop Bereich waren die K10.5er P/L nicht schlecht.
Unicous
2015-02-04, 12:35:05
Na dann erübrigt sich die weitere Diskussion, sowas macht nur auf Faktenbasis Sinn ;-)
Das ist einerseits sehr richtig, andererseits muss man auch mal gesunden Menschenverstand benutzen. Ihr entwerft das Szenario des FMx Einheitssockels, der CPU und APU vereint aber gleichzeitig das HighEnd deutlich beschneidet und in einen 95/100 Watt Envelope zwängt und dadurch gibt es noch weitere Einschränkungen und begründet das mit... ja dann ist das eben so. Ich glaube beim CMO oder den Technical Marketing Leuten kommt das nicht so gut an.
Aber du hast recht, die Diskussion erübrigt sich, weil auf beiden Seiten die Faktenbasis fehlt.
Der ominöse FM3 leuchtet mir in jetziger Form dennoch nicht ein.
robbitop
2015-02-04, 12:40:59
Nehalem war ca. 30% vor K10, klar war die Lage damals noch besser als heute.
Auch der Marktanteil im Server Bereich war höher als heute, Shanghai war damals nicht schlecht.
Im Desktop Bereich waren die K10.5er P/L nicht schlecht.
Naja:
http://www.computerbase.de/2009-04/test-amd-phenom-ii-x4-945-und-955-black-edition/26/
In Games, die keine CPU Limitierung hatten, aber dennoch volle Details (also 800x600 / 640x480 MAX Details!!) sind es 10...15 % mehr Leistung in Crysis und Far Cry 2 für Nehalem gegenüber K10 gewesen - bei gleichem Takt und nicht schlechterem Verbauch.
In MIN Details ist/war da definitiv was faul.
Phenom 2 war damals schon wirklich eine solide gute CPU. Nehalem war besser. Aber auch teurer. Aber er war nicht so weit vorn wie Intel es heute ist. Nicht mal ansatzweise.
Intels derzeitige Cores haben >50 % IPC Vorteile und verbrauchen weniger als die Hälfte. Das ist beschämend.
Da gibts ne einfache und kurze Antwort: es sein lassen.
Es gibt keine Abkürzung - keinen billigen Plan B, mit dem man sein Ziel erreichen kann. IMO. Entweder man macht das so gut wie möglich - und ist vieleicht 20 % hinter Intel. Oder man läßt es. Zu K10 Zeiten war man auch hinter Intel - aber es war immernoch OK. Man hatte seine 15-20 % Marketshare und ein ganz brauchbares auskommen. Ein ganz guter 2. zu sein, sollte IMO ausreichen.
Aber ein richtig schlechter zweiter zu sein, reicht eben nicht. Lieber gleicher Verbrauch bei 20 % weniger Leistung beim Verfolgen des gleichen Zieles als total zu scheitern mit irgendwelchen Plan Bs (siehe alles was auf Bulldozer basiert).
Ahh ok, also guter 2. würde Dir schon reichen .. ok, dann verstehen wir uns ;-)
In dem Fall muss AMD verbreitern und damit SMT nutzen, um die Verbreiterung aus Transistoren-Sicht rechtfertigen zu können. Damits was wird und weil man es sich in 14nm leisten kann, wird man wohl 4way erwarten können.
Frage ist, was mit der FPU passiert, je nach Laune könnte man in dem Fall auch auf CMT aufbauen (INT-Cores dann nur 2way SMT), z.B.
- 1x128 kB L1I
- 8way Frontend (2x4)
- große Sprungvorhersageeinheit (da für 4 Threads)
- Je 4way INT-Cores (angepasster, verdoppelter Jaguar-INT-Kern 4xAlu/2xLD/2xStr) 2fach SMT
- Eine FPU mit 4x128bit FMA-pipes (verdoppelt BD) 4fach SMT fähig, guter Durchsatz bei SSE128 Code, schlechter bei AVX512 (aber immerhin kompatibel)
- 64kB L1D-Caches quadportet (4xLD/2xStr) (kann man sich in 14nm, ohne CPU-nahen L2 und unter SMT leisten)
Knackpunkt wäre dabei der L1D, kA ob 4 Ports möglich wären, oder man aus Latenzgründen einfachere 2x256bit nehmen müsste. Falls ja, wärs dann Essig mit der guten Legacy-Code-Ausführung und die 4fach SMT-Implementierung für die FPU kostspieliger)
Aber naja, warten wirs mal ab .. noch ist alles möglich ;)
Von Keller erwarte ich aber definitiv wenigstens ein "gutes" Design.
YfOrU
2015-02-04, 12:58:17
Nehalem war ca. 30% vor K10, klar war die Lage damals noch besser als heute.
Phenom II X4 und X6 waren bei der Betrachtung Preis/Leistung gegenüber Lynnfield vernünftig am Markt platziert und haben sich auch ganz gut verkauft.
Richtig übel wurde es erst mit Sandy Bridge denn zum einen war der FX-8150 gegenüber dem Phenom II X6 1100T ein viel zu kleiner Schritt und zum anderen gab es den i5-2500 schon zur Einführung um 170€. Der hat gegenüber dem Vorgänger (i5-760) im Mittel 30% drauf gepackt - bei geringerer Leistungsaufnahme. Mit BD hat man sich bei AMD derart in die Nesseln gesetzt das es selbst über den Preis kaum zu richten ist. Das ist die eigentliche Katastrophe dabei und das hat man sicherlich auch erkannt ;) AMD muss nicht schneller als Intel sein. Das ist auch nicht realistisch aber das entsprechende Fenster muss eben getroffen werden.
mboeller
2015-02-04, 12:58:46
Von Keller erwarte ich aber definitiv wenigstens ein "gutes" Design.
ist das nicht von den Anforderungen im Lastenheft abhängig?
Je nachdem welche Anforderungen du da rein schreibst, bekommst du halt eine gute Highend-CPU oder eine gute Mobile-CPU oder einen guten Lowcost-SoC oder einen guten Server-SoC oder eine gute APU....
Keller wird schon was gutes abliefern, aber ob es sich dabei wirklich um eine Highend-CPU handelt, das ist soweit ich weiß noch völlig offen.
ist das nicht von den Anforderungen im Lastenheft abhängig?
Je nachdem welche Anforderungen du da rein schreibst, bekommst du halt eine gute Highend-CPU oder eine gute Mobile-CPU oder einen guten Lowcost-SoC oder einen guten Server-SoC oder eine gute APU....
Keller wird schon was gutes abliefern, aber ob es sich dabei wirklich um eine Highend-CPU handelt, das ist soweit ich weiß noch völlig offen.
Das stimmt nur noch begrenzt seit es mehr als einen Kern pro Die gibt.
Mit SMT und CMT kann man z.B. einen dicken Kern entwerfen, der nur mittelmäßige Leistung schafft ;-)
Davon abgesehen gbits für Lowcost genügend ARM-Derivate und auch AMDs Katzenkerne. Ergo wird das Lastenheft kaum ne low-cost Architektur fordern. Das wird mindestens ne gute Mittelklasse-CPU sein, wobei Mittelklasse im Sinne von Intel bei AMD dann high-end bedeutet. Alles was man an IPC-Know-How hat, wird man reinstecken.
Der einfachste Weg in Sachen IPC ist dabei bekanntlich breit und große Caches. Garniert mit SMT kommt am Ende dann auch ein netter Durchsatz raus.
robbitop
2015-02-04, 13:22:48
Wie ja schonmal gesagt wurde: das hängt nur sekundär von Keller ab. Es ist eine Frage der Ressourcen. Wieviel Engineering Workforce ist noch da und wie viele davon sind richtig richtig gut?
Wenn nur überwiegend noch die Mittelmäßigen, Unerfahren und/oder Schlechten da sind, nützt Keller gar nichts. Er braucht ein Team aus sehr guten Leuten und natürlich - wie es immer ist - auch jede Menge Wasserträger.
Agent117
2015-02-04, 13:23:10
Phenom II X4 und X6 waren bei der Betrachtung Preis/Leistung gegenüber Lynnfield vernünftig am Markt platziert und haben sich auch ganz gut verkauft.
Zudem gab es den Phenom II bereits seit Januar 2009 und Lynnfield erst im September.
Und die Bloomfield Plattform von Nehalem, die seit Ende 2008 im Markt war, war wesentlich teurer, so dass man zwischen Januar und September preislich attraktiv nur die Wahl zwischen einen veralteten Core2Quad und den aktuellen Phenoms II hatte.
Wie ja schonmal gesagt wurde: das hängt nur sekundär von Keller ab. Es ist eine Frage der Ressourcen. Wieviel Engineering Workforce ist noch da und wie viele davon sind richtig richtig gut?
Wenn nur überwiegend noch die Mittelmäßigen, Unerfahren und/oder Schlechten da sind, nützt Keller gar nichts. Er braucht ein Team aus sehr guten Leuten und natürlich - wie es immer ist - auch jede Menge Wasserträger.
Ja, wobei ich allerdings nicht erwarte, dass ZEN ein Hand-Design wird.
Wenn das zuträfe sänke die benötigte Workforce schon ziemlich.
Man darf auch nicht vergessen, dass Keller gleich für 2 Architekturen verantwortlich ist, den K12 gibts ja auch noch. Ohne Maschinenunterstützung wäre das vermutlich überhaupt nicht zu schaffen.
robbitop
2015-02-04, 14:35:25
Was meinst du mit Maschinenunterstützung? Das Layout für das Tapeout?
Wäre für AMDs Strategie (low power, mobile, platzsparend) nicht der schlechteste Weg. Sehr hohe Taktraten spielen ja nur in einem Teilbereich des Marktes noch eine große Rolle. Solange niemand >> 4 GHz erwartet, ist das IMO mehr als OK.
Was meinst du mit Maschinenunterstützung? Das Layout für das Tapeout?
Jo, siehe Jaguar, der hat nen ziemlich "chaotischen" Floorplan ;)
Wäre für AMDs Strategie (low power, mobile, platzsparend) nicht der schlechteste Weg. Sehr hohe Taktraten spielen ja nur in einem Teilbereich des Marktes noch eine große Rolle. Solange niemand >> 4 GHz erwartet, ist das IMO mehr als OK.Seh ich auch so, außerdem kann man auch noch die HighDesity-Einheiten verwenden um Die-Platz zu sparen. Dafür kann man sich dann größere Caches oder Puffer gönnen, das ists dann schon wert.
Bin mal gespannt, ob das schon bei Carrizo eingesetzt wurde.
Triskaine
2015-02-04, 18:32:13
Ich hoffe das bei der kommenden ISSCC wieder jemand die Folien abfotografiert, ein Floorplan ist ja meistens mit dabei.
Felixxz2
2015-02-05, 02:58:49
Wie wärs denn eig mit ner Art erweitertem PS4 Soc? Also 8 Kerne mit SMT, die zwar weniger IPC haben als Intel, dafür ähnliche Effizienz. Durch die vielen Threads aber trotzdem Stark in MultiThread. Mit ner ordentlichen GPU aufm Die + DDR4 und evtl. HBM wär das schon schick. Takt bei ~3ghz und gute IPC, viell SB Niveau. Denke nicht dass die so ein IPC Monster bauen werden/können wie die Apple Socs. Sondern eher sehr gute Energieeffizienz bei ordentlicher ST und starker MT PERF.
Nightspider
2015-02-05, 03:03:41
Ob AMD vllt mal wieder eine reine Gamer-CPU herausbringt ohne IGP, fetten Caches und maximaler IGP?
Dafür man zumindest viele Gamer zu sich holen weil diese keinen Bock haben unnötige IGPs mitzubezahlen, welche 50% Diearea ausmachen.
Felixxz2
2015-02-05, 06:14:53
Im Prinzip wäre das aber die ideale Gamer CPU. 8Kerne + Pitcairn bis Tonga Leistung als SOC wäre der bringer bis in die Mittelklasse. Damit kommen die meisten in FHD gut aus und man hat alles klein und sparsam als SoC.
Skysnake
2015-02-05, 08:14:39
Ob AMD vllt mal wieder eine reine Gamer-CPU herausbringt ohne IGP, fetten Caches und maximaler IGP?
Dafür man zumindest viele Gamer zu sich holen weil diese keinen Bock haben unnötige IGPs mitzubezahlen, welche 50% Diearea ausmachen.
Vergiss es, wird es nicht mehr geben.
mboeller
2015-02-05, 09:50:41
Im Prinzip wäre das aber die ideale Gamer CPU. 8Kerne + Pitcairn bis Tonga Leistung als SOC wäre der bringer bis in die Mittelklasse. Damit kommen die meisten in FHD gut aus und man hat alles klein und sparsam als SoC.
dafür müsste AMD dann aber mindestens die i5-Leistung von 2016 erreichen und die Midrange-GPU Leistung von 2016; also jetzt wahrscheinlich so schnell wie eine 280er GPU.
Wieviel willst du dann dafür bezahlen? 400,- euro oder mehr? Wenn sie es für weniger verkaufen machen sie ja Verlust gegenüber CPU + GPU + HBM separat. 400,- euro sind aber nicht mehr Konkurrenzfähig.
Außerdem würde sich so ein SoC nur sehr schlecht für Notebooks vermarkten lassen (zuviel Verbrauch) und damit wäre der Markt IMHO sehr eingeschränkt. Lohnt sich IMHO also nicht.
mboeller
2015-02-05, 09:54:26
Ergo wird das Lastenheft kaum ne low-cost Architektur fordern.
Darauf wollte ich hinaus :)
Soweit ich mich erinnere wissen wir nicht wirklich warum H. Keller zurück bei AMD ist. Deshalb ist IMHO alles was hier zu Keller = Highend spekuliert wird ein reines stochern im Nebel. Man hofft, aber was wirklich passieren wird weiß keiner.
Timbaloo
2015-02-05, 14:04:17
AMD kann ja auch mit Features punkten. Das ist was mich an intel mittlerweile am meisten annervt: Du bekommst kein komplettes Produkt mehr. Übertakten? K-Modell. Erweiterte Virtualisierungsfunktionen? Non-K-Modell.
Aber letztlich steht und fällt der Erfolg mit der Single-Thread-Leistung bzw. -effizienz. Ist die nicht deutlich besser als bei BD, dann können sie den Spass auch gleich bleiben lassen.
OBrian
2015-02-06, 01:03:00
Bedarf für eine neue low-cost-Architektur besteht ja auch nicht, die Kerne im Kabini sind ja schon ordentlich für den Bereich, werden ja auch weiterentwickelt, aber da gibt es grundsätzlich nichts auszusetzen. Ziel ist hier ja gar nicht immer weitere Leistungsteigerung.
Und wenn man sieht, daß in Skybridge neben diesen low-cost-Kernen erstmal die lizensierten Standard-A57-ARMs verbaut werden, die auch danach noch ne Weile angeboten werden sollen (so hieß es wohl mal, wenn ich mich recht entsinne), dann deutet schon einiges darauf hin, daß sowohl für Zen als auch K12 AMD sich leistungsmäßig höhere Ziele gesetzt hat. D.h. so völlig unbegründet ist die Hoffnung nicht.
Vergiss es, wird es nicht mehr geben.
Genau so sieht es derzeit aber aus...
Um mal ein wenig ins Blaue zu spekulieren:
Ich glaub Zen wird VISC mit Transmetatechnik kombinieren und schlanke CPU-Cluster (diesmal hat jeder Cluster seine eigene FPU) mit einem geteilten 4-Thread-Frontend auf 4 Modulen, also quasi 8 Kernen mit SMT, bringen. Abgerundet wird das Ganze durch einen Ringbus à la Intel mit einem schnellen LLC, garniert mit 14nm-GloFo-Technik an einem neuen 40-PCIe-Lanes-DDR4-LGA-Sockel namentlich FM3. Die Kerne sind sicherlich 3-Issue und brauchen nicht viel Platz, sind aber auf 4GHz ausgelegt, haben also mehr Pipelinestufen, welches jedoch durch das VISC-Frontend wieder ausgeglichen wird.
Ich weiss, hört sich etwas weit hergeholt an, aber man wird ja wohl noch träumen dürfen :D.
robbitop
2015-02-06, 12:10:06
Was ist denn Transmeta Technologie? Codemorphing?
Was ist ein VISC Decoder?
IMO sollte AMD keine exotischen Abenteuer mehr machen. So gut es geht die Core Philosophie verfolgen und guter Zweiter werden. Fertig ist der Lack.
fondness
2015-02-06, 12:19:23
Wenn man der weitaus kleinere mit erheblich weniger Ressourcen ist kann man es sich eben nicht leisten nur das zu machen was sich bewährt hat, denn dann wird man immer nur hinterherhinken. AMD hatte den ersten 64-bit Prozessor, als ersten den Memorycontroller am Die, hatten den ersten nativen Dual- und Quadcore, etc. Klar kann man da auch mal auf die Nase fallen, und in der jetzigen Situation wird AMD sicher nicht alles riskieren, sondern ist gezwungen abzuliefern. Aber es Intel einfach nachzumachen ist beileibe keine Lösung (ganz davon abgesehen dass das nicht so einfach ist^^), gerade da CPU-Enwicklungszyklen extrem lange sind.
Naja. Eigentlich updaten sie einfach nur jährlich. Die µ-Arch wird in einem Tick leicht geliftet und einem Tock halt etwas mehr. Bleiben IMO trotzdem Updates. Am Ende ist ja noch klar erkennbar, dass selbst die aktuellen Cores noch selbst Nehalem ähneln. Natürlich sind das jetzt schon viele Updates.
IMO war es uA auch die tolle Execution von Intel. Jedes Jahr stetig ein Update. So muss AMD das auch machen. Und wenn's nur kleine Updates sind. Kontinuierliche Updates sind sicherer , kontinuierlicher und suggerieren mehr Fortschritt.
Nur Updates ist gut, da passieren zum Teil erhebliche Änderungen, die Zeiten wo man mit kleinen Updaten die IPC um 10% steigern konnte sind lange vorbei.
Das VISC-Zeug ist sowieso Bullshit.
robbitop
2015-02-06, 12:28:35
AMD hatte damals mal eine Chance. Da waren CPUs noch so simpel, dass jede kleine Klitsche konkurrenzfähig war. Das kann man sich heute halt einfach aus dem Kopf schlagen. Gegen Intel wird man nicht mehr gewinnen. Da führt kein Weg dran vorbei.
Exotische Frickeleien reißen einen da nur noch tiefer hinein. Sieht man an Bulldozer und auch an Denver (der hat merkwürdige Hickups bis der DCO so langsam in Tritt kommt). Auch die ganzen Designs, die bei AMD gecancelt wurden (der ursprüngliche K7? mit der riesen FPU etc)... Wenn es dort irgendwas zu holen gäbe als low hanging fruit, hätte Intel es schon längst genutzt.
IMO sollte man das ganze wieder so wie beim K8 und K10 handhaben. Solides Design mit neuen (zeitgemäßen - von Intel bekannten) Tricks nutzen. Dazu schnelle Caches und gute Sprungvorhersage, viel Aufwand in Power/Clock Gating + nen guten Turbo und ab gehts.
Intels Core sollte m.E. das Ziel sein - wenn man 20 % bei gleichem Verbrauch drunter liegt - so what? Dann wäre das immernoch massiv besser als heute. Dann macht man den Prozessor halt 30-40 % billiger als Intel und dann wird es schon hinhauen. Gerade wenn man sieht, was Intel im High End Segment an Preisen verlang.
Solide 15-20 % Marketshare reichen.
Das VISC-Zeug ist sowieso Bullshit.
Warum?
Gipsel
2015-02-06, 14:51:32
Warum?Ist praktisch Codemorphing 2.0. Kombiniert mit der Aufgabe, ILP auf TLP zu mappen, erfordert das im Gegensatz zu einem performanten breiten Core (der schwierig zu bauen ist) das enge Koppeln mehrerer einfacher Cores, was offenbar auch nicht einfacher performant hinzubekommen ist (evident von der ~350Mhz Taktfrequenz des Prototypen von Soft Machines, da hilft dann auch eine eventuell 50% höhere IPC überhaupt nichts). Am Ende besteht eigentlich kein wirklich fundamentaler Unterschied zwischen einem breiten Core, der an einem Thread arbeitet und mehreren schmalen Cores, die zusammen an einem Thread arbeiten (und sich dafür in Problemfällen eng abstimmen müssen, Spezialfälle wie immer ausgenommen). Das ist meiner Meinung wohl mal wieder ein Fall für das Gesetz von der Erhaltung der Schwierigkeit. ;)
Warum?
Weil die angeblichen Performance-Vorteile völlig unbegründbarer Blödsinn sind. Die fantasieren da was zusammen um Geld einzusacken.
CPU-Cores müssen extrem kurze Latenzen haben um die IPC hoch zu halten und da hilft es garantiert nicht das Zeug über den halben Chip schieben zu müssen. Zudem haben sie mit keinem Wort erwähnt, dass auch normale Cores heutzutage mehr als genügend Ausführungseinheiten haben. Und die Parallelität in Code ist begrenzt.
Und wenn es darum geht die Ausführungseinheiten in einem Core besser auszulasten gibt es seit Jahren SMT.
Duplex
2015-02-06, 15:37:45
Eine neue Architektur kann nur noch besser als Bulldozer & K7/K10 ausfallen, wenn AMD 2011 damit begonnen hat eine neue Architektur zu entwickeln, dann sollte man 5 Jahre später schon was vernünftiges erwarten können.
4 ALUs / 4 AGUs
14-17 Stage Pipeline
64 KB L1D Cache
L2 & L3 wie bei Intel
Fullspeed Cache.
2-Fach SMT
256-Bit FPU pro Kern
Was anderes kann ich mir jetzt nicht vorstellen.
Wenn man bei der IPC 50% über K10 liegt wäre das schon eine gute Ansage, mit 8 Kerne + SMT wäre das in 14nm ganz gut
tm0975
2015-02-06, 16:27:35
AMD hatte damals mal eine Chance. Da waren CPUs noch so simpel, dass jede kleine Klitsche konkurrenzfähig war. Das kann man sich heute halt einfach aus dem Kopf schlagen. Gegen Intel wird man nicht mehr gewinnen. Da führt kein Weg dran vorbei.
das ist totlaer quatsch. bestes beispiel sind apple oder qualcomm. innovation ist sehr wichtig und ein fairer wettbewerb. den hat intel so gut es ging unterbunden. ausschlaggebend ist mmn die fertigung. und da ist amd in 2016 endlich wieder auf augenhöhe, auch wenn 14nm glofo nicht ganz genau das niveau von 14nm intel hat. aber vor 2017 gibts kein 10 nm von intel. insofern wird 2016 das jahr von amd werden (können). wann hatten wir diese situation zuletzt?!
Timbaloo
2015-02-06, 16:51:33
Apple und Qualcomm sind jetzt erstmal keine kleinen Klitschen, zweitens ist iirc zumindest Qualcomm ein ganz ordentliches Stück IPC von intel entfernt.
Auch ist die Fertigung nicht so auschlaggebend wie oft gesagt wird. BD war ein Design-Fail, kein Fertigungs-Fail.
Duplex
2015-02-06, 17:01:38
Apple und Qualcomm sind jetzt erstmal keine kleinen Klitschen, zweitens ist iirc zumindest Qualcomm ein ganz ordentliches Stück IPC von intel entfernt.
Intel ist x86 und Qualcomm ist ARM, IPC Vergleiche zwischen x86 & ARM sind einfach nur dumm.
Selbst wenn Qualcomm x86 hätte, besser als Intel oder AMD würden die das niemals hinbekommen.
Wenn sich Intel mit einem großen Team auf ARM konzentrieren würde, dann würde Qualcomm usw. ziemlich weit hinten liegen.
Und jetzt bitte zurück zum Thema, hier geht es nur um AMD !
und da ist amd in 2016 endlich wieder auf augenhöhe, auch wenn 14nm glofo nicht ganz genau das niveau von 14nm intel hat. aber vor 2017 gibts kein 10 nm von intel. insofern wird 2016 das jahr von amd werden (können).
Vor 2017 wird das auch mit AMD nichts.
wann hatten wir diese situation zuletzt?!
Vorm Bulldozer launch hatten wir diese Situation. Ging bekanntlich in die Hose.
robbitop
2015-02-06, 21:50:02
das ist totlaer quatsch. bestes beispiel sind apple oder qualcomm. innovation ist sehr wichtig und ein fairer wettbewerb. den hat intel so gut es ging unterbunden. ausschlaggebend ist mmn die fertigung. und da ist amd in 2016 endlich wieder auf augenhöhe, auch wenn 14nm glofo nicht ganz genau das niveau von 14nm intel hat. aber vor 2017 gibts kein 10 nm von intel. insofern wird 2016 das jahr von amd werden (können). wann hatten wir diese situation zuletzt?!
Apple und Qualcomm sind ganz andere Nummern als AMD. Außerdem ist die IPC von Krait und Cyclone noch meilenweit von Haswell entfernt. Hinzu kommt, dass jedes Prozent mehr IPC exponentiell mehr kostet. Insofern steht meine Aussage.
tm0975
2015-02-07, 10:25:56
schon klar, dass apple und qualcomm andere kaliber sind. aber wo standen die von 15 jahren, als amd eine hochphase mit aktionkurs über 40 $ hatte. von heute auf morgen ist nix zu machen, aber in 10 jahren könnte amd eine ganz andere größe sein. darum ging mein vergleich. und wer hier was von arm vs x64 bzw unnützen IPC vergleichen schreibt, geht ganz am thema vorbei. wen interessiert denn bitte in ner ps4, in nem iphone 6 etc. was für architektur, ipc oder sonstwas drin ist.
robbitop
2015-02-07, 13:37:14
Apple und Qualcomm haben sich extrem viel Talent angeheuert - die haben das nötige Geld dafür. Und dennoch ist das was beide bringen nur ein schlechter Scherz gegenüber Intels Core Architektur. Da wo Apple und Qualcomm mit ihrer IPC heute sind, war Intel vor 10 Jahren mal.
Zugegeben, der Vergleich hinkt, da beide µ-Archs in noch leicht anderen TDP Klassen agieren. Wobei Core-M schon in Schlagweite ist...
AMD hat (zumindest aus heutiger Sicht), nicht das Potenzial einen Aufschwung wie Qualcomm oder Apple zu bringen. Nichts ist unmöglich - schon klar - aber es sieht doch sehr unwahrscheinlich aus.
Ein realistisches Ziel ist zunächst mal regelmäßig schwarze Zahlen zu schreiben. Dazu brauchen sie eine konkurrenzfähige µ-Arch und eine vernünftige Execution.
AMD ist leider bereits an dem Punkt, wo es sehr sehr schwierig wird, aus dem Strudel herauszukommen. Sie müssen immer mehr Leute und Know How gehen lassen und immer weniger in R&D investieren, um halbwegs kostendeckend arbeiten zu können. Nur leider werden dadurch die kommenden Produkte immer schlechter. Bedeutet noch mehr sparen und somit noch schlechtere Produkte. Liquidität ist das A&O. Ohne Investition ist in einem kompetativen Markt eben kaum möglich langfristig zu überleben.
NV und Intel erhöhen konstant ihr R&D Budget und ernten die Früchte - sie laufen AMD immer weiter davon.
NV war in etwa in einer ähnlichen Ausgangssituation wie ATI vor dem Kauf durch AMD. Damals war schon abzusehen, dass der Chipsatz- und IGP Markt mittelfristig wegbrechen wird (AMD verbaut ihren eigenen Kram und SoCs mit IGPs zeichneten sich schon ab).
NV hingegen hat massiv investiert und rechtzeitig in andere Märkte R&D gebuttert. Auch in die GPU Sparte, um dort zu dominieren.
Ich frage mich was mit AMD passiert wäre, hätten sie NV gekauft und damit Jensen als CEO rangelassen....
fondness
2015-02-07, 14:00:45
AMD hatte damals mal eine Chance. Da waren CPUs noch so simpel, dass jede kleine Klitsche konkurrenzfähig war. Das kann man sich heute halt einfach aus dem Kopf schlagen. Gegen Intel wird man nicht mehr gewinnen. Da führt kein Weg dran vorbei.
Exotische Frickeleien reißen einen da nur noch tiefer hinein. Sieht man an Bulldozer und auch an Denver (der hat merkwürdige Hickups bis der DCO so langsam in Tritt kommt). Auch die ganzen Designs, die bei AMD gecancelt wurden (der ursprüngliche K7? mit der riesen FPU etc)... Wenn es dort irgendwas zu holen gäbe als low hanging fruit, hätte Intel es schon längst genutzt.
IMO sollte man das ganze wieder so wie beim K8 und K10 handhaben. Solides Design mit neuen (zeitgemäßen - von Intel bekannten) Tricks nutzen. Dazu schnelle Caches und gute Sprungvorhersage, viel Aufwand in Power/Clock Gating + nen guten Turbo und ab gehts.
Intels Core sollte m.E. das Ziel sein - wenn man 20 % bei gleichem Verbrauch drunter liegt - so what? Dann wäre das immernoch massiv besser als heute. Dann macht man den Prozessor halt 30-40 % billiger als Intel und dann wird es schon hinhauen. Gerade wenn man sieht, was Intel im High End Segment an Preisen verlang.
Solide 15-20 % Marketshare reichen.
Du tust so als ob Intels CPU-Architekur irgendwo als offenen Buch herum liegt das man nur übernehmen braucht. Zumal die Entwicklung einer CPU-Architektur mindesten 5 Jahre benötigt, bist du damit fertig bist ist das Zeug veraltet wenn du nur bewährtes übernehmen willst. Im übrigen war gerade ein K8 alles andere als ein "solides Design", man ist dort extrem viel Risiken eingegangen, mit einer eigenen 64-bit Erweiterung als Underdog, niemand wusste ob diese am Markt eine Chance hat oder gar Intel bereit ist diese zu übernehmen, viele hielten AMD damals für verrückt. Oder mit dem integrierten MC, und vielen anderen Bereichen. Der K8 war nicht umsonst das IPC-stärkste Design am Markt über Jahre. Gerade moderne Sprungvorhersage ist zudem ein gewaltigen Forschungsgebiet wo laufend immer komplexere Lösung gefunden werden.
Und es hat natürlich schon seinen grund das AMD versucht imme mehr von Intel weg zu kommen, spätestens als man mit dem K8 Intel jahrelang blamiert hatte und trotzdem am Markt kaum davon profitieren konnte war klar, dass der x86-Markt längst ein defacto Intel-Monopol ist.
robbitop
2015-02-07, 14:23:09
Du tust so als ob Intels CPU-Architekur irgendwo als offenen Buch herum liegt das man nur übernehmen braucht.
Nun übertreibe mal nicht. AMD sollte in der Lage sein, moderne Lösungsansätze/Tricks etc, die Intel in den letzten Jahren eingabaut hat, ebenfalls zu implementieren. Sicher anders und sicher mit eigenem Gehirnschmalz aber dennoch ist es möglich. Vieles taucht mittlerweile im ARM Bereich auch wieder auf.
Zumal die Entwicklung einer CPU-Architektur mindesten 5 Jahre benötigt, bist du damit fertig bist ist das Zeug veraltet wenn du nur bewährtes übernehmen willst.
Ich sagte nicht, dass man seinen Kopf ausschalten soll. Intel holt IPC größtenteils über graduelle Evolutionen. Die IPC wird immer über die gleichen Stellschrauben graduell erhöht. Dazu 1-2 neue Tricks.
Da muss man schon ein bisschen antizipieren, wie viel man dafür im Zielfenster umsetzen kann.
Im übrigen war gerade ein K8 alles andere als ein "solides Design", man ist dort extrem viel Risiken eingegangen, mit einer eigenen 64-bit Erweiterung als Underdog, niemand wusste ob diese am Markt eine Chance hat oder gar Intel bereit ist diese zu übernehmen, viele hielten AMD damals für verrückt.
Oder mit dem integrierten MC, und vielen anderen Bereichen. Der K8 war nicht umsonst das IPC-stärkste Design am Markt über Jahre. Gerade moderne Sprungvorhersage ist zudem ein gewaltigen Forschungsgebiet wo laufend immer komplexere Lösung gefunden werden.
Damals hingen die Früchte noch alle sehr niedrig. K8 setzte stark auf K7 auf. Ja x86-64 war sicher mutig. Aber der Rest waren einfach nur logische Weiterentwicklungen.
Hinzu kam, dass AMD ein riesen Glück hatte, dass Intel damals ziemlich daneben gegriffen hat und auch noch ziemlich träge war.
Und es hat natürlich schon seinen grund das AMD versucht imme mehr von Intel weg zu kommen, spätestens als man mit dem K8 Intel jahrelang blamiert hatte und trotzdem am Markt kaum davon profitieren konnte war klar, dass der x86-Markt längst ein defacto Intel-Monopol ist.
Es ist schwierig mit AMDs Portfolio neue und auch profitable Marktlücken zu finden.
fondness
2015-02-07, 14:44:17
Damals hingen die Früchte noch alle sehr niedrig. K8 setzte stark auf K7 auf. Ja x86-64 war sicher mutig. Aber der Rest waren einfach nur logische Weiterentwicklungen.
Hinzu kam, dass AMD ein riesen Glück hatte, dass Intel damals ziemlich daneben gegriffen hat und auch noch ziemlich träge war.
Schon seltsam das alle anderen Konkurrenten längst aufgeben musste und nicht annähernd mithalten konnten wenn die Früchte laut dir alle sehr niedrig hingen...lol. K8 war damals das technisch mögliche, was besseres gab es schlicht nicht, sowas ist nie einfach zu erreichen. Das man heute mit >10 Jahren mehr an Forschungsarbeit schon weiter ist sollte klar sein.
robbitop
2015-02-07, 14:50:45
Die Konkurrenz war damals einfach nur pleite. Cyrix hat bspw als sie noch liquide waren sehr sehr gut mit AMD mithalten können. Das lag nicht an mangelnden Fähigkeiten.
Selbst das kleine Mini Team von Winchip hat mit dem Nano K8 IPC hinlegen können. Bei einem Bruchteil der Leistungsaufnahme. Mit 1-2 Größenordnungen weniger Leuten.
K8 war zu seiner Zeit großartig und mehr war damals nicht drin. Da hast du Recht. Aber damals brauchte es einfach massiv weniger Ressourcen, um das zu erreichen, weil die Designs massiv unkomplexer waren. Verglichen mit heute sind das nun mal low hanging fruits. Damals wurde nur ein Bruchteil der R&D Ressources benötigt. Schau dir mal die Jahresberichte von Intel von heute und von vor 10 Jahren an. Die Unterschiede im R&D Budget sind riesig.
Heute - viel viel weiter auf der Kurve des sinkenden Grenzertrages - sind praktisch kaum noch Firmen dazu in der Lage. Hinzu kommt der extreme Fertigungsfortschritt.
Apple könnte es ggf. mittel/langfristig schaffen, da mithalten zu können. Wenn überhaupt.
Der Punkt ist - exotische Ideen sind idR schlechte Ideen. Das zeigten die letzten Jahre. Intel kann sich das erlauben. Die haben genug Leute im Hintergrund und vermutlich etliche Projekte, die in einer Sackgasse endeten. Intel hat genug Leute und genug Geld, um allen möglichen Ideen hinterherzulaufen.
Wenn man aber nur ein Team hat, sollte man IMO keine großen Risiken eingehen.
YfOrU
2015-02-07, 15:05:53
Und es hat natürlich schon seinen grund das AMD versucht imme mehr von Intel weg zu kommen, spätestens als man mit dem K8 Intel jahrelang blamiert hatte und trotzdem am Markt kaum davon profitieren konnte war klar, dass der x86-Markt längst ein defacto Intel-Monopol ist.
Für AMD lief es bis Q3 2006 eigentlich richtig gut. Beispielsweise wurde der Marktanteil im Serversegment innerhalb von zwei Jahren auf 24.4% vervierfacht. Der Marktanteil bei x86 CPUs hatte in diesem Zeitraum einen Zuwachs von 50%. Selbst Dell hatte AMD Notebook und Server CPUs ins Programm aufgenommen. Dann hat der Core 2 im Markt eingeschlagen und die VK Preise mussten brutalst reduziert werden (effektiv halbiert). Davor hatte AMD aus heutiger Sicht teilweise traumhafte Margen erreicht. Wieder ausreichend nahe dran war AMD erst gut zwei Jahre später mit dem Phenom II.
PS: Preisentwicklung des AMD Athlon 64 X2 4600+ 90nm Sockel 939 boxed
http://geizhals.at/eu/?phist=149335&age=9999
Ein Jahr lang von 700 auf 500€. Danach in einem Rutsch auf 220€.
robbitop
2015-02-07, 15:10:16
Und danach hat man nur noch Mist gemacht. ATI zu teuer gekauft. Komische CPU Designs, die gecancelt worden - und eines was nicht gecancelt wurde: Bulldozer.
Den Mobilehype hat man verschlafen. Viele falsche Entscheidungen führten sie am Ende dorthin, wo sie heute sind. Leider. Wenn es so weiter geht, können Intel und NV mit den Käufern machen was sie wollen.
Duplex
2015-02-07, 15:51:08
Bulldozer hätte man sich komplett sparen können, der ist bei Integer Code nicht viel schneller als K8 gewesen, die neuen Befehlssätze einfach ignorieren, bevor man eine neue Architektur entwickelt muss man doch wissen was man später abliefern wird...Die 20% weniger IPC als K10 wollte damals keiner glauben als OBR erste Ergebnisse vorgelegt hat...Das gleiche Spiel kannten wir doch auch von Netburst.
Jetzt muss man auf den nächsten Wurf warten, wenn 2016 nicht die Bombe einschlägt, dann braucht man AMD nicht mehr erwähnen, es ist die letzte Chance, wehe einer der CEOs sagt dann nochmal 5 Jahre auf 2021 warten. :rolleyes:
fondness
2015-02-07, 16:19:12
Und danach hat man nur noch Mist gemacht. ATI zu teuer gekauft. Komische CPU Designs, die gecancelt worden - und eines was nicht gecancelt wurde: Bulldozer.
Den Mobilehype hat man verschlafen. Viele falsche Entscheidungen führten sie am Ende dorthin, wo sie heute sind. Leider. Wenn es so weiter geht, können Intel und NV mit den Käufern machen was sie wollen.
Ich gebe dir größtenteils Recht, aber den Mobilehype nicht aufzuspringen war die einzig richtige Entscheidung. Heute sind die Preise in diesem Markt annähernd bei Null und der einzige der dort noch was verdient ist Qualcomm.
Für AMD lief es bis Q3 2006 eigentlich richtig gut. Beispielsweise wurde der Marktanteil im Serversegment innerhalb von zwei Jahren auf 24.4% vervierfacht. Der Marktanteil bei x86 CPUs hatte in diesem Zeitraum einen Zuwachs von 50%. Selbst Dell hatte AMD Notebook und Server CPUs ins Programm aufgenommen. Dann hat der Core 2 im Markt eingeschlagen und die VK Preise mussten brutalst reduziert werden (effektiv halbiert). Davor hatte AMD aus heutiger Sicht teilweise traumhafte Margen erreicht. Wieder ausreichend nahe dran war AMD erst gut zwei Jahre später mit dem Phenom II.
PS: Preisentwicklung des AMD Athlon 64 X2 4600+ 90nm Sockel 939 boxed
http://geizhals.at/eu/?phist=149335&age=9999
Ein Jahr lang von 700 auf 500€. Danach in einem Rutsch auf 220€.
Natürlich läuft es besser wenn man die besten Produkte am Markt hat. Aber angesichts der Tatsache das Intel nicht mal mit den Preisen runter ging und weiter locker ihre >75% Marktanteil halten konnte kann man IMO nicht mehr von einem funktionierenden Markt sprechen. Aber okay das ganze mit den Knebelverträgen von Intel wurde eh schon zur genüge durchgekaut. AMD hätte in diesen Jahren ein kleines Vermögen verdienen können und nicht nur ganz gute Zahlen abliefern.
Sunrise
2015-02-07, 16:23:02
Ich gebe dir größtenteils Recht, aber den Mobilehype nicht aufzuspringen war die einzig richtige Entscheidung. Heute sind die Preise in diesem Markt annähernd bei Null und der einzige der dort noch was verdient ist Qualcomm.
Kommt drauf an, wo Mobile anfängt. Hätte Intel sich dessen auch früher angenommen, wäre auch Qualcomm nicht in dieser Position. Jedenfalls sind die Intel-Designs für Server und Desktop eigentlich nur noch Mobile und werden dann hochskaliert. Siehst du ja jetzt auch bei NV.
fondness
2015-02-07, 16:28:03
Kommt drauf an, wo Mobile anfängt. Hätte Intel sich dessen auch früher angenommen, wäre auch Qualcomm nicht in dieser Position. Jedenfalls sind die Intel-Designs für Server und Desktop eigentlich nur noch Mobile und werden dann hochskaliert. Siehst du ja jetzt auch bei NV.
Das bezog sich auf den Smartphone-Markt. Das generell low-power an Bedeutung gewinnt - keine Frage. Aber den Markt hat AMD zumindest auch nicht mehr oder weniger verschlafen als Intel, nur wenn die Leistung nicht stimmt nützt halt auch low-power wenig. Und bei NV sehe ich eigentlich nur Verluste seit fast schon Jahrzehnten, jetzt versucht man mit Klagen zu retten was zu retten ist.
Sunrise
2015-02-07, 18:50:03
...Aber den Markt hat AMD zumindest auch nicht mehr oder weniger verschlafen als Intel...
Exakt, darauf wollte ich hinaus.
Im Prinzip müsste AMD mit K12 "einfach nur" ähnlich ansetzen, weil es massiv Ressourcen sparen würde. Sie brauchen einen energiesparenden, skalierbaren und mit deutlich höherer IPC ausgestatteten Ansatz. Damit könnten sie alles bedienen, was sie im x86-Markt verkaufen wollen. Ebenso ihre Custom-Designs für Spezialanfragen, die mittlerweile ja einen ordentlichen Batzen bei AMD ausmachen.
Danach minimale Verbesserungen und die Prozess-Vorteile mitnehmen, das sollte zumindest (bis wieder etwas mehr Geld in die Kassen kommt) ausreichend sein, um wieder oben mitzuspielen.
Wenn sie das "14nm-Zeitfenster" jetzt allerdings verpassen, sehe ich schwarz. Dann ist man nur noch ein Auftragsfertiger und wird irgendwann auseinanderfallen, bzw. aufgekauft.
R.I.P.
2015-02-07, 19:00:35
Wenn sie das "14nm-Zeitfenster" jetzt allerdings verpassen, sehe ich schwarz. Dann ist man nur noch ein Auftragsfertiger und wird irgendwann auseinanderfallen, bzw. aufgekauft.
Ich hoffe doch, dass GloFo mit Samsungs-Deal und IBM Knowhow nicht allzuviel falsch machen kann :freak:
robbitop
2015-02-09, 15:35:52
Naja aber das Design muss aber auch zeitnah fertig werden, um in das 14 nm Zeitfenster zu passen. In 1-1,5 Jahren sollte 14 nm seinen Höhepunkt haben (ausgereifter Prozess mit guten Yields + genügend freie Kapazitäten).
Ich hoffe, dass Zen schon entsprechend weit in der Entwicklung ist. Eigentlich müsste man dazu schon bald in die Validierungsphase gehen (also das Design praktisch inhaltlich fertig sein).
IMO sollte ein Design für alle TDPs ausreichen, wenn man es ähnlich skalierbar wie Intel gestaltet. Also wenige Kerne + niedriger Takt für 4,5 W bis hin zu vielen Kernen + (relativ) viel Takt für 80 W.
Intel kommt eh erst 2017 mit 10nm, jetzt wird zwar überall anfang 2017 kolpotiert, aber das wird sich sicherlich noch deutlich weiter nach hinten verschieben. 10nm braucht offenbar neue Gate-Materialien, Intel hat dieses Problem ja schon von 14nm nach 10nm verschoben. Das heißt, die haben das Problem jetzt ja trotzdem und ob das zufriedenstellend in dem Zeitlimit gelöst werden kann, da hab ich meine Zweifel. Es wird 2016 sicherlich eine Skylake-Refresh Generation geben, bevor Cannonlake kommt. Diese Bereiche, in denen Intel da rumforscht, sind glaub ich einfach noch zu schwer handzuhaben. Und ob die jetzt noch so viel Effizienz bringen - na ja, schaun mer mal.
Dass TSMC jetzt schon von 10nm für 2016 spricht, obwohl sie 16nm immernoch nicht im Griff haben, darf sicherlich getrost als Situationskomik abgetan werden, das aber nur nebenbei :D.
AMD hat bei Zen genug Zeit, um das Design wirklich fertig zu stellen (ich bitte auch darum).
Undertaker
2015-02-09, 18:25:29
Cannonlake liegt liegt laut letzten Meldungen im Zeitplan und steht für 2016 auf Roadmap.
http://www.pcgameshardware.de/CPU-Hardware-154106/News/Skylake-10-nm-Fertigung-1148150/
Ob oder welche Probleme bis zum Start noch auftreten, kann keiner seriös sagen, darum sehe ich für die übliche Worst-Case-Prognose wieder einmal keine sachliche Grundlage. Das Verschiebungen aus der Vergangenheit keine Auswirkungen auf kommende Produkte haben müssen, zeigt der nach aktuellem Stand pünktliche Launch von Skylake Mitte 2015. 10nm und Cannonlake ist derzeit für Sommer 2016 erwartbar, zumindest bis weitere Infos kommen.
Ergo wird sich auch AMD auf entsprechende 10nm-Konkurrenz im kommenden Jahr einstellen müssen. Wenn GF bis dahin 14nm im Griff hat, wäre das Fertigungs-mäßig zumindest eine etwas bessere Situation als aktuell. :)
fondness
2015-02-09, 18:26:14
AMD hat bei Zen genug Zeit, um das Design wirklich fertig zu stellen (ich bitte auch darum).
Naja Zeit ist wohl eines der Dinge die AMD sicher nicht hat. 2016 muss was kommen, egal ob es vollständig fertig entwickelt wurde oder nicht. Besser erst mal eine erste Iteration als gar nichts. Könnte mir schon etwas ähnliches wie Jaguar->Beema oder Bulldozer->Piledriver vorstellen, wo erst die zweite Iteration wesentliche Schwachstellen ausgebessert hat.
Cannonlake liegt liegt laut letzten Meldungen im Zeitplan und steht für 2016 auf Roadmap.
The 10nm chips are expected to be launched early 2017,” said Taha Khalifa, general manager for Intel in the Middle East and North Africa region.
http://gulfnews.com/business/technology/intel-to-launch-10nm-chips-in-early-2017-1.1443856
Nicht das ich Zen 2016 erwarte, da ist genauso 2017 realistischer. Cannonlake erwarte ich nicht im Desktop, stattdessen Skylake Refresh. Icelake könnte gegen Ende 2017 kommen wenn Intel die gleiche Strategie wiederholt.
Zero-11
2015-02-09, 19:59:45
Ergo wird sich auch AMD auf entsprechende 10nm-Konkurrenz im kommenden Jahr einstellen müssen. Wenn GF bis dahin 14nm im Griff hat, wäre das Fertigungs-mäßig zumindest eine etwas bessere Situation als aktuell. :)
Mitte 2015 kommt Broadwell, erstmals 14nm für den Desktop. Wenn 2016 Intel nach 1Jahr schon bei 10nm ist fress ich n Besen.
R.I.P.
2015-02-09, 20:06:32
Mitte 2015 kommt Broadwell, erstmals 14nm für den Desktop. Wenn 2016 Intel nach 1Jahr schon bei 10nm ist fress ich n Besen.
Broadwell K soll große Probleme mit der Hitzeentwicklung haben (big rumor)
http://www.bitsandchips.it/9-hardware/5193-rumor-confermato-broadwell-k-ha-problemi-di-consumi-e-temperature
Keine Ahnung obs stimmt
Mitte 2015 kommt Broadwell, erstmals 14nm für den Desktop. Wenn 2016 Intel nach 1Jahr schon bei 10nm ist fress ich n Besen.
Ist auch totaler Unfug. In 2016 kommt erst mal Skylake K und sicherlich noch ein Refresh von Skylake S. Zudem kommt Broadwell-E.
2017 könnte es dann mit Cannonlake soweit sein, zusätzlich kommt Skylake-E, das würde auch so zusammenpassen.
Das ist echt totaler Unfug, dass Cannonlake 2016 kommen soll, Intel hat das nur bisher nicht angepasst. Aber Intel selbst will den Fertigungsprozess in 2015 noch fertigstellen, was dann bis zum Endprodukt noch mal 1 bis 1 1/2 Jahre dauert, das war bisher immer so.
AMD hat Zeit, das Design zu vollenden, das ist kein Problem. Es war auch richtig, 3 Generationen (Komodo ff) zu canceln, um alle Ressourcen auf Zen zu konzentrieren.
Ist auch totaler Unfug. In 2016 kommt erst mal Skylake K und sicherlich noch ein Refresh von Skylake S.
Skylake-K steht in neuen Roadmaps für Q3 2015 drin.
Locuza
2015-02-09, 22:12:08
Was mich total verwirrt.
http://www.bitsandchips.it/images/2015/01/29/intelroadmapbroad.png
Skylake-S:
95W "K", 65W, 35W LGA
Broadwell "unlocked" mit 65W LGA wird aber darüber gelistet, macht auf den ersten Blick keinen Sinn.
AnarchX
2015-02-09, 22:47:44
BDW soll doch eine 4+3e Version sein. Bei SKL gibt es vielleicht erstmal nur 4+2. Und dementsprechend ist BDW bis zum 4+4e SKL teuerer.
Locuza
2015-02-09, 22:55:49
Intel hat beschlossen eine CPU mit eDRAM auf einen LGA-Sockel zu "erlauben"?
Ich hoffe für den Konsumenten, dass Skylake-S 95W "K" keine künstlichen Einschnitte gegenüber Broadwell-Unlocked befürchten muss.
Broadwell mit alter CPU-Architektur und GPU-Architektur könnte dann für den Privatkunden kaum uninteressanter sein. (Außer GPU-Rohleistung ist wichtig).
Immerhin ist Skylake eine deutlich Aufwertung unter vielen Aspekten.
(Chipsatz, neue CPU-Architektur, man hat DX Feature-Level 12 versprochen etc.).
Undertaker
2015-02-09, 22:57:14
Mitte 2015 kommt Broadwell, erstmals 14nm für den Desktop. Wenn 2016 Intel nach 1Jahr schon bei 10nm ist fress ich n Besen.
Die Tendenz wird generell dazu gehen, dass neue Prozesse nicht zuerst im Desktop launchen. ;) Immerhin sind seit dem 14nm-Start jetzt auch schon bald 5 Monate vorbei, und noch keine Modelle da... Gut möglich, das man bei 10nm mit ähnlichem rechnen kann.
Übrigens: Die Entwicklung von 14nm wurde Ende 2013 fertiggestellt; wenn Ende 2015 für 10nm gehalten wird, wären sogar bei ähnlich großen Yield-Problemen wie bei Broadwell noch für September 2016 (=+2 Jahre auf Core M) erste Produkte möglich. Na mal schauen, was das nächste IDF so an Neuigkeiten bringt.
BDW soll doch eine 4+3e Version sein. Bei SKL gibt es vielleicht erstmal nur 4+2. Und dementsprechend ist BDW bis zum 4+4e SKL teuerer.
Genau so ist es. Vr-zone schneidet gerne alles weg, in der älteren sieht man es aber.
http://fs1.directupload.net/images/150210/y7yneibq.png
Intel hat beschlossen eine CPU mit eDRAM auf einen LGA-Sockel zu "erlauben"?
Das ist doch seit vielen Monaten bekannt.
Habt ihr Euch im Thread verlaufen?
Diskussion zu AMDs CPU-Architekturen-Strategie
Thunder99
2015-02-11, 11:21:08
AMD müsste dann ja mit 14nm gegen den 10nm Part von Intel antreten. Hoffen wir mal das der Prozess mal wieder Bombe wird (wie damals der 40nm) :)
robbitop
2015-02-11, 11:24:37
Naja, dass man fertigungstechnisch nicht mit Intel gleichziehen kann, sollte klar sein. Einen Node ist man schon sehr lange zurückgewesen. Aber so wie jetzt 2 nodes - das ist zu viel.
Samsung/GF gehen ja irgendwann (2017/18) auch auf 10 nm.
Solange das CPU Design stimmt, kann es nur besser werden. :)
Der Artikel von sweclockers deckt sich mit meinen Informationen:
--> Summit Ridge in 14nm mit 8C/16T DDR4 auf FM3 für 2016
N0Thing
2015-02-11, 20:57:40
Naja, dass man fertigungstechnisch nicht mit Intel gleichziehen kann, sollte klar sein. Einen Node ist man schon sehr lange zurückgewesen. Aber so wie jetzt 2 nodes - das ist zu viel.
Samsung/GF gehen ja irgendwann (2017/18) auch auf 10 nm.
Solange das CPU Design stimmt, kann es nur besser werden. :)
Spielt es denn eine Rolle, ob man nun Marketingname 10nm vs. Marketingname 14nm benutzt, wenn sowieso kein einziges Teil in den Chips 10 oder 14 Nanometer erreicht?
Dass AMD mit dem aktuellen Prozess auf Grund des Alters hinter Intel hinterher hinkt ist klar. Aber wenn ein aktueller Prozess einer Firma A gegen einen aktuellen Prozess von Firma I antritt, dürfte das doch eine andere Ausgangslage sein, oder?
Naja... Intel hat ja in der " Marketing 14nm " diverse Entwicklungen gemacht, die muss AMD eben erstmal aufholen - deswegen würde ich auf die reine " nm " einen feuchten geben.
Außer, dass AMD mit dem Fin Fet die Leckströmen Problem stark entgegen wirkt.
Keller sagte doch vor einiger Zeit, dass er aus beiden (bulli) und (Katze) das beste mit nimmt. Also bloß nicht die High Frequency Pipelines.
Allerdings hat doch Intel mit dem Haswell, das Backend mittels mehr ausführpipes vergrößert... so falsch lag AMD mit CMT also nicht...
Duplex
2015-02-11, 21:40:26
Keller sagte doch vor einiger Zeit, dass er aus beiden (bulli) und (Katze) das beste mit nimmt. Also bloß nicht die High Frequency Pipelines.
Selbst die kurze Pipeline von Katze liefert keine bessere Performance pro Takt ;)
K8/10 - 12 Stage Pipeline
Jaguar - 14 Stage Pipeline
Bulldozer - 20 Stage Pipeline
Ob die Pipeline wirklich das primäre Problem darstellt?
Es sind noch viele andere Dinge sehr wichtig.
Die kurze Pipeline von Jaguar ist genauso lang wie Sandy Bridge, hat aber trotzdem ganze 50% weniger Performance pro Takt als Sandy Bridge.
Das Cache Design von AMD ist langsam, egal ob Jaguar, Bulldozer oder K10, man ist meilenweit hinten dran.
Das Shared Frontend von Bulldozer ist auch der größte Fail, auf dem Papier sieht das ganze natürlich anders aus.
Am Ende zählt nur das was hinten raus kommt, AMD hat die letzten Jahre gepennt! Die IPC ist nicht besser als Core2 von 2006, wenn sich das 2016 ändern sollte, dann hat man 10 Jahre gebraucht...
Allerdings hat doch Intel mit dem Haswell, das Backend mittels mehr ausführpipes vergrößert... so falsch lag AMD mit CMT also nicht...
Verteidigung...
CMT ist der größte reinfall von AMDs Geschichte.
Wer lesen kann ist klar im Vorteil
Feldman candidly acknowledged that the Bulldozer failure cost AMD some credibility in servers. But the company is looking to rebound with a revamped management team led by CEO Rory Read and a new server roadmap comprising x86 and ARM chips for multiple server categories.
“Bulldozer was without doubt an unmitigated failure. We know it,” Feldman said.
“It cost the CEO his job, it cost most of the management team its job, it cost the vice president of engineering his job. You have a new team. We are crystal clear that that sort of failure is unacceptable,” Feldman said.
Bei der neuen Architektur wird von BD nicht mehr viel übrig bleiben werden, Befehlssätze, Speichercontroller, HSA usw. wird man mitnehmen, alles andere muss neu !
Jo. Eben... ich sprach doch nicht dafür, sondern, dass am Gedanken daran, nicht alles falsch war. Nur eben damit, das falsche Paket geschnürt...
Das der Rest hingegen komplett neu wird, und das, was man mitnimmt noch verbessert wird, sollte klar sein.
Zeigt halt nur, dass die reinen " nm " Vergleiche, die nicht den Tatsächlichen entsprechen, nicht aussagen, was alles gemacht werden musste, was Intel machte. Eben auch das Backend (unter vielen weiteren dingen)
Zum "Personen-Zitat" Psedo-Argument:*gähn* das zwei Jahre alte Zitat eines Mannes, der damals gut ein Jahr bei AMD arbeitete und somit einen "tiefen" Einblick in die Hintergründe von Bulldozer hatte... Wenn er wirklich persönlich hinter dieser Aussage stehen würde, könnte man ja hoffen, er hat seither mitgeholfen, konkret auch an besseren Konzepten für die Zukunft zu arbeiten. Ich bezweifle aber, dass er irgendwas getan hat, ausser wiederzugeben, was er als Tenor von den Kunden vernommen hat, denn sein Motto ist "recognizing large emerging markets, listening closely to customer requirements, building exceptional products ahead of competitors, and then bringing these products to market in compelling fashion."
Um mal weg von der Personen-hauptsache-man-sieht-die-eigene-Ansicht-widergespiegel-Argumentation wieder zur Technik zu kommen, und das auf einem genügend simplen Level:CMT ist *kein* schlechtes Konzept - es ist aber klar, dass komplette Kerne performanter gewesen wären ;) Relativ simple Ursache: es ist problematisch gewesen, unter einem alten Prozess einen Haufen neue Befehlssätze und wesentlich fettere FPU gegenüber dem K10(.5) gemeinsam mit erweitertem Cache und Fetchern/Decodern unterzubringen - der Kompromiss, nur noch eine FPU pro zwei Int-Kerne, und gemeinsame Fetch/Decode und Cache zu verbauen, ist so nicht gänzlich abwegig. Zusätzlich aus der Sicht auf die angepeilte Zukunft, von möglichst parallelisiertem Code zu profitieren, machte das schon Sinn.
Hätte hingegen AMD beim Entwurf damit gerechnet, das heutzutage 4 Kerne nach wie vor das Gelbe vom Ei sein würden, und hätten sie einen besseren Prozess als Grundlage gehabt, wäre eine Architektur wie BD wohl gar nie gestartet worden. Sie haben auf's falsche Pferd gesetzt, ja, aber es ist nicht ein grundsätzlich falsches Pferd (im Sinne von "CMT ist prinzipiell scheisse"), sondern ein logisches Resultat von schlechten Voraussetzungen kombiniert mit schlechten Voraussagen.
Sieht man auch daran, dass wenn die Voraussetzungen denn mal stimmen, eben doch noch mit i5ern mitgespielt werden kann, und das trotz der genannten Einschränkungen.
Wenn man mit den künftigen Prozessen wieder traditionellere Module bauen kann, und es noch fähige Architekten bei der Firma gibt, kommt das schon besser.
Duplex
2015-02-11, 22:33:33
AMD wird auch keine guten Prozesse mehr nutzen können, der Nachteil zu Intel wird immer da sein.
Heute kann sich Intel lange lange ausruhen, in 22nm gibt es schon 18 Kerne/36 Threads mit 2,5Ghz, in 10nm kann man alles kleiner machen und auf 4Ghz befeuern, was will AMD dagegen machen? Eine IPC 2 Architektur mit SMT in 14mn will ich erstmal live sehen.
Kann sich das AMD überhaupt leisten? Mitarbeiter entlassen, Entwicklungs Kosten senken, neue CEOs, alles dreht sich um die Ampel...
Eine IPC 2 Architektur mit SMT in 14mn will ich erstmal live sehen.Ich auch :biggrin:
Duplex
2015-02-11, 22:44:53
Mit IPC 2 & SMT würde man in 14nm innerhalb 1 Jahr locker 20% Server Marktanteil erreichen, besonders wegen AMDs Preispolitik.
Bei AMD darf man nicht mehr optimistich sein, leider.
Warum gibt es wohl keine Folien von Zen, Architektur Aussichten, Verbesserungen gegenüber den Vorgänger, was können Kunden erwarten bei gleicher TDP.
In der Vergangenheit wurde immer Angekündigt und Verschoben, das will man sich so wie es aussieht sparen. Wenn man im Labor nicht zufrieden ist braucht man auch nichts in der Öffentlichkeit zeigen weil nichts angekündigt wurde, danach sieht es aus. Naja, ein Breiter Core mit viel IPC hat AMD noch niemals gezeigt, vielleicht sind am ende doch einige überrascht ;)
Unicous
2015-02-11, 22:49:23
Es wird natürlich IPC 5+GNT+IBESHMHR@19GHz sein.
Locuza
2015-02-11, 23:05:50
Das ist doch seit vielen Monaten bekannt.
Die alte Folie habe ich verpasst.
Vielen Dank, wenn das alles ist was Broadwell im Vergleich bietet und Skylake-S "K" kommt ohne künstlichen Schnitt, dann ist alles nice.
Der Artikel von sweclockers deckt sich mit meinen Informationen:
--> Summit Ridge in 14nm mit 8C/16T DDR4 auf FM3 für 2016
Irgendein Happen bezüglich Bristol Ridge?
Hoax oder ebenso "bestätigt"?
Warum gibt es wohl keine Folien von Zen, Architektur Aussichten, Verbesserungen gegenüber den Vorgänger, was können Kunden erwarten bei gleicher TDP.
Naja weißt du, zu Skylakes Architektur habe ich auch noch keine Folien gesehen und der soll in paar Quartalen auf den Markt kommen.
Klar beißt sich das etwas mit Broadwell, aber hier lässt sich Intel auch zu genüge Zeit, wenn sie meinen die Zeit ist noch nicht reif.
Bezüglich Zen hören wir vielleicht etwas beim nächsten finacial analyst day, am 6. Mai.
Die kurze Pipeline von Jaguar ist genauso lang wie Sandy Bridge, hat aber trotzdem ganze 50% weniger Performance pro Takt als Sandy Bridge.
Da hast du was falsch verstanden. Sandy Bridge hat nur bei Post-Decode-Cache-Hits eine Branch-Misprediction-Penalty von 14 Takten. Sonst 19.
Das heißt die komplette Pipeline ist 5 Takte länger. Und das Jaguar langsamer ist, ist ja auch kein Wunder. Das Ding hat wesentlich weniger Execution-Resources.
Duplex
2015-02-12, 00:58:25
Naja weißt du, zu Skylakes Architektur habe ich auch noch keine Folien gesehen und der soll in paar Quartalen auf den Markt kommen.
Skylake kommt vom Sandy Bridge Team aus Haifa, da braucht man auch keine Folien sehen, die haben bisher immer gute Arbeit geleistet ;)
Der wird halt weiterhin auf den Vorgänger setzen, das sollte klar sein, bei AMD wird ja auf was ganz neues mit SMT spekuliert.
Bezüglich Zen hören wir vielleicht etwas beim nächsten finacial analyst day, am 6. Mai.
Wäre nicht schlecht.
Da hast du was falsch verstanden. Sandy Bridge hat nur bei Post-Decode-Cache-Hits eine Branch-Misprediction-Penalty von 14 Takten. Sonst 19.
Das heißt die komplette Pipeline ist 5 Takte länger. Und das Jaguar langsamer ist, ist ja auch kein Wunder. Das Ding hat wesentlich weniger Execution-Resources.
Das mit der Pipeline war nur ein Beispiel von mir.
Isen Schrieb:
Keller sagte doch vor einiger Zeit, dass er aus beiden (bulli) und (Katze) das beste mit nimmt. Also bloß nicht die High Frequency Pipelines.
Ich schrieb:
Ob die Pipeline wirklich das primäre Problem darstellt?
Soweit auseinander scheinen die Pipeline Stufen von AMD & Intel nicht zu liegen, jedenfalls kann man anhand der Pipelinelänge keine Aussage zur Performance treffen.
robbitop
2015-02-12, 09:58:39
Spielt es denn eine Rolle, ob man nun Marketingname 10nm vs. Marketingname 14nm benutzt, wenn sowieso kein einziges Teil in den Chips 10 oder 14 Nanometer erreicht?
Dass AMD mit dem aktuellen Prozess auf Grund des Alters hinter Intel hinterher hinkt ist klar. Aber wenn ein aktueller Prozess einer Firma A gegen einen aktuellen Prozess von Firma I antritt, dürfte das doch eine andere Ausgangslage sein, oder?
Es spielen nur die Prozesseigenschaften (Packdichte, Takt, Energie) eine Rolle.
Ich hoffe, dass Samsungs 14 nm mit Intels 14 nm in diesen Punkten einigermaßen mithalten kann. Je näher man an Intels Prozess dran ist, desto besser die Chancen zur Konkurrenzfähigkeit. IMO ist hier alles gesagt.
Allerdings hat doch Intel mit dem Haswell, das Backend mittels mehr ausführpipes vergrößert... so falsch lag AMD mit CMT also nicht...
Zusammenhang?
Irgendein Happen bezüglich Bristol Ridge?
Hoax oder ebenso "bestätigt"?
Stand zumindest namentlich auch auf der Folie. Mich interessiert das eigentlich nur am Rande, deswegen habe ich das eher "zur Kenntnis" genommen.
Auf Summit Ridge hab ich auch nur deshalb geachtet, weil das das einzige Modell mit SMT auf der Folie war.
Carrizo und Carrizo-L als mobile bzw. low tdp CPUs ist ja nichts neues.
Auf der Folie war noch ein Modell unterhalb von Summit Ridge in gleicher Fertigung (Zen), ebenfalls mit DDR4 ohne SMT.
Das dürfte aber der Nach-Nachfolger der Carrizo-Desktop Variante sein, denn eine Midrange CPU (glaube 20nm, bin mir nicht sicher), als einzige Variante mit DDR3 und DDR4 Unterstützung war auch zu sehen. Welcher der beiden nun als Bristol Ridge bezeichnet wurde, fällt mir leider nicht mehr ein.
Wenn ich die Folien bekomme, kann ich das hoffentlich nochmal bestätigen.
Es spielen nur die Prozesseigenschaften (Packdichte, Takt, Energie) eine Rolle.
Ich hoffe, dass Samsungs 14 nm mit Intels 14 nm in diesen Punkten einigermaßen mithalten kann. Je näher man an Intels Prozess dran ist, desto besser die Chancen zur Konkurrenzfähigkeit. IMO ist hier alles gesagt.
Zusammenhang?
Grad für so High-End-Kram scheint der Intel-Prozess ja nicht so toll zu sein, wie man aktuell an Broadwell-K sehen kann. Leider find ich den Artikel nicht mehr, aber Intel hat Probleme mit den verbesserten Gate-Materialien. 14nm ist wohl doch schon etwas zu klein für das bisher verwendete Zeug. Deshalb gab es ja diese irren Verzögerungen. Bei Low-Power ist das offenbar weniger ein Problem. Aber auch Broadwell-E verzögert sich auch nicht umsonst derart.
Intel wollte das Problem dann bis 10nm lösen und Prozessoren mit dem bisher verwendeten 14nm-Prozess rausbringen, das ist aber offenbar gar nicht einfach...
robbitop
2015-02-12, 11:23:14
Verteidigung...
CMT ist der größte reinfall von AMDs Geschichte.
Hamburger sind der größte Reinfall weil McDonalds BigMacs nicht schmecken...
Autos sind der größte Reinfall, weil Dacia schlecht ist.... :D
Bulldozer war ein Reinfall - das hat aber mit CMT nichts zu tun. Hätte Bulldozer SMT eingesetzt, wäre SMT nicht auch schlecht gewesen. Die Implementierung und das Produkt war ein Reinfall - nicht das Prinzip CMT als solches.
CMT bei einem vernünftigen Core wäre ziemlich gut. AMD wählte (und wird IMO auch) kein SMT weil Validierung und Scheduler mit zunehmender Portanzahl einfach extrem aufwändig werden. Dafür hat AMD einfach mittlerweile zu wenig Leute. Es kostet nicht viele Transistoren (im Design ist es aber komplex!) - aber es bringt auch nicht besonders viel.
CMT hingegen ist deutlich einfacher umzusetzen - kostet mehr Transistoren, bringt aber auch mehr. Mit anständigen Kernen wäre das schon ok.
Ich würde bei Zen also eher auf CMT als SMT tippen.
fondness
2015-02-12, 11:40:49
Hamburger sind der größte Reinfall weil McDonalds BigMacs nicht schmecken...
Autos sind der größte Reinfall, weil Dacia schlecht ist.... :D
Bulldozer war ein Reinfall - das hat aber mit CMT nichts zu tun. Hätte Bulldozer SMT eingesetzt, wäre SMT nicht auch schlecht gewesen. Die Implementierung und das Produkt war ein Reinfall - nicht das Prinzip CMT als solches.
CMT bei einem vernünftigen Core wäre ziemlich gut. AMD wählte (und wird IMO auch) kein SMT weil Validierung und Scheduler mit zunehmender Portanzahl einfach extrem aufwändig werden. Dafür hat AMD einfach mittlerweile zu wenig Leute. Es kostet nicht viele Transistoren (im Design ist es aber komplex!) - aber es bringt auch nicht besonders viel.
CMT hingegen ist deutlich einfacher umzusetzen - kostet mehr Transistoren, bringt aber auch mehr. Mit anständigen Kernen wäre das schon ok.
Ich würde bei Zen also eher auf CMT als SMT tippen.
Es ist IMO mehr als nur okay, für laut AMD 11% mehr Transistoren bekommt man häufig annähernd Faktor 2 bei Multi-Threading. SMT skaliert vielleicht maximal zu 20-30% und kostet auch hin und wieder Leistung. CMT ist sicher nicht das Problem. Bis auf die INT-Einheiten ist im übrigen auch bei CMT alles geshared (zumindest bis Steamroller), von daher sehe ich da nicht so einen großen Unterschied was die Validierung betrifft.
robbitop
2015-02-12, 11:48:31
IIRC ist die SMT Implementierung für die FPUs bei Bulldozer deutlich einfacher gestrickt als bei Intel und nicht vergleichbar effizient. So eine Art Billig SMT für Arme. :D
Warum (und dass!) anständiges SMT aufwändig zu implementieren und zu validieren ist, wurde hier im Forum durch Leute, die es beurteilen können, bereits ausgeführt. IMO ist das damit abgehakt und nicht mehr diskussionswürdig. Ist für mich also ein Fakt.
CMT ist mehr als OK - da hast du Recht. :)
fondness
2015-02-12, 11:58:44
Dein Argument mit AMD habe zu wenig Leute für SMT ist in meinen Augen jedenfalls Käse. Da gibt es bei einer modernen CPU wesentlich komplexere Dinge als SMT. Zumal selbst relativ kleine CPU-Klitschen wie Fujitsu problemlos 8-fach SMT implementiert haben. AMD hat sich aus einer simplen Kosten/Nutzenrechnung gegen SMT entschieden, was natürlich auch am schmalen Bulldozer-Design lag, das kann bei zukünftigen Designs schon wieder ganz anders aussehen. Man hat mit CMT immerhin einen völlig neuen Ansatz gewählt, den es so vorher noch nie gab.
robbitop
2015-02-12, 12:15:40
Ich glaube nicht, dass Leute wie Coda "Käse" erzählen.
Ich kann mir gut vorstellen, dass der Aufwand SMT zu implementieren und zu validieren exponentiell mit dem Komplexität des Kerns zusammenhängt. MIPS hat für IIRC für ihre kleinen Popelkerne auch mal SMT implementiert. Die waren aber auch deutlich weniger komplex.
Was Fujitsu angeht: weißt du, wie viele und wie viele gute Leute an der Entwicklung der SPARC Reihe beschäftigt waren? Zumal diese ja auch schon Erfahrung mit SMT haben, was es sicher leichter macht.
AMD hat bisher noch keinen Kern mit SMT entwickelt - hat also somit auch keine Erfahrung darin.
IMO wäre es schlauer, Prinzipien zu nutzen, die man kennt und die auch gut funktioniert haben. Und das trifft für CMT beides zu.
Ich hoffe, dass Samsungs 14 nm mit Intels 14 nm in diesen Punkten einigermaßen mithalten kann. Je näher man an Intels Prozess dran ist, desto besser die Chancen zur Konkurrenzfähigkeit. IMO ist hier alles gesagt.
http://www.semiwiki.com/forum/content/3884-who-will-lead-10nm.html
Sieht nicht so aus.
Grad für so High-End-Kram scheint der Intel-Prozess ja nicht so toll zu sein, wie man aktuell an Broadwell-K sehen kann.
Was kann man sehen? Broadwell-K kommt erst in ein paar Monaten.
fondness
2015-02-12, 12:28:13
Ich glaube nicht, dass Leute wie Coda "Käse" erzählen.
Das AMD zu wenig Leute für SMT haben soll hat Coda oder sonst jemand nie behauptet, das kam von dir. Also mit hier bitte nicht irgend welche Dinge unterstellen die ich so nicht gesagt habe. Zumal wohl niemand hier auch nur im entferntesten schon eine CPU designt hat, außer vielleicht irgend welche einfachen Single-Cycle-CPUs in VHDL/Verilog. AMD wird SMT verwenden wenn es Sinn macht, das hängt nicht zuletzt vom CPU-Design selbst ab. Hier so zu tun als wäre das irgend ein super komplexe Wunderzeug das man ohne Milliarden an RnD nicht implementieren könnte finde ich ziemlich übertrieben.
Duplex
2015-02-12, 12:29:55
Hätte Bulldozer SMT eingesetzt, wäre SMT nicht auch schlecht gewesen. Die Implementierung und das Produkt war ein Reinfall - nicht das Prinzip CMT als solches.
Mit CMT beziehe ich mich auf AMDs CMT Design, damit meine ich die Bulldozer Architektur, für mich ist das ganz klar ein reinfall.
Server Specrate
Bulldozer
IPC 0.9-1.1
-------------
Haswell
IPC 1.8-2.2
CMT bei einem vernünftigen Core wäre ziemlich gut.
Wozu?
Schau mal bei Intel wie klein die Kerne geworden sind.
robbitop
2015-02-12, 13:00:11
http://www.semiwiki.com/forum/content/3884-who-will-lead-10nm.html
Wenn die Angaben (GP x M1P) tatsächlich repräsentativ zur potenziellen Packdichte sind, hat Intel ja richtig extrem zugelegt bei 14 nm und bei 10 nm.
Dann braucht Intel bei 14 nm für pro Transistor nur 72 % (GF - 14nm FinFet) / 63 % (TSMC 16 FF+) der Fläche.
Bei 10 nm sieht es noch böser aus: 68 % (GF) / 65 % (TSMC)
Das ist zumindest ein Halfnode. Wobei sich dieser Vorsprung ja einfach erklären lässt: immerhin liegt bei 16nm/14nm (TSMC/GF) nur ein geringer tatsächlicher Shrink vor. Wobei die Tabelle einen Fehler enthalten muss - demnach wird die Packdichte bei GF von 20 nm auf 14 nm schlechter...(vermutlich beide Zahlen vertauscht).
Laut Semi Wiki ist der GP (GF) bei 14 nm bei 78 und bei 20 nm 64. Das müsste genau anders herum sein, denn laut GF Präsentation sinkt der GP von 20 nm zu 14 nm um immerhin 15 %.
http://globalfoundries.com/docs/default-source/PDF/samsung-globalfoundries-14nm-collaboration---final.pdf?sfvrsn=2
Also ist bei 14 nm die Packdichte zumindest bei GF/Samsung halbwegs noch vergleichbar mit der von Intels 14 nm Prozess (4096 zu 3640) - bei 10 nm zieht Intel aber dann davon, da offenbar von 14 nm zu 10 nm der GP bei GF/Samsung kaum sinkt - TSMC holt bei 10 nm offenbar dann immerhin auf GF/Samsung Niveau auf.
Alles in allem danke für die Tabelle! :)
Das AMD zu wenig Leute für SMT haben soll hat Coda oder sonst jemand nie behauptet, das kam von dir. Also mit hier bitte nicht irgend welche Dinge unterstellen die ich so nicht gesagt habe. Zumal wohl niemand hier auch nur im entferntesten schon eine CPU designt hat, außer vielleicht irgend welche einfachen Single-Cycle-CPUs in VHDL/Verilog. AMD wird SMT verwenden wenn es Sinn macht, das hängt nicht zuletzt vom CPU-Design selbst ab. Hier so zu tun als wäre das irgend ein super komplexe Wunderzeug das man ohne Milliarden an RnD nicht implementieren könnte finde ich ziemlich übertrieben.
Es ging darum, dass es sehr viel Aufwand macht, SMT zu implementieren.
Ob AMD dafür genug oder nicht genug Leute hat, ist natürlich Spekulation. Das ganze ist eine ökonomische Frage. Wenn die R&D Ressourcen begrenzt sind, warum übermäßig viel für SMT verwenden, wenn man sie anderswo besser einsetzen kann und mit einer alternativen Lösung "günstiger" wegkommt?
Wenn es der CPU natürlich überproportional viel Hilft und genug Mannstunden dafür da sind: warum nicht? Ich tippe/spekuliere aber mal ganz stark darauf, dass AMD viele Federn hat lassen müssen und sich die Mannstunden einteilen.
Das ist IMO kein "Käse" sondern eine Spekulation, die immerhin auf dem Fakt beruht, dass SMT sehr aufwändig zu implementieren ist und AMDs Ressourcen mit hoher Wahrscheinlichkeit begrenzt ist. Insofern würde ich die Wahrscheinlichkeit, dass die Spekulation als nicht all zu gering einstufen.
Unmöglich ist SMT nicht - aber gibt es unter diesen Voraussetzungen (keine guten!) nicht Lösungswege, die einfacher sind? IMO ja.
Mit CMT beziehe ich mich auf AMDs CMT Design, damit meine ich die Bulldozer Architektur, für mich ist das ganz klar ein reinfall.
Ohne Zweifel. Dann muss man es auch so ausdrücken.
Wozu?
Schau mal bei Intel wie klein die Kerne geworden sind.
Mit 11 % mehr Transistoren ca. 80 % mehr MT Leistung zu haben klingt gut. Zumal AMD mindestens 1x Prozessnode hinten liegt - also in der Hinsicht alles mitnehmen sollte, was geht.
Unicous
2015-02-12, 13:54:59
AFAIK ist die Tabelle für die Füße, weil es zumindest iirc für TSMC keine harten Zahlen gibt (bei Samsung bin ich mir auch nicht sicher) und eher auf Schätzungen basiert.
Und alles ab 10nm ist "forecast". Kann man auch im Geschreibsel nachlesen.
[...]
Was kann man sehen? Broadwell-K kommt erst in ein paar Monaten.
http://www.pcgameshardware.de/Broadwell-Codename-259477/News/Desktop-Hitzeentwicklung-1150524/
Es würde mich stark überraschen sollte AMD von CMT auf SMT Umschwenken denn das ergibt in der gesamten Breite überhaupt keinen Sinn!
Zudem ist SMT im Gegensatz zu CMT hin und wiedermal suboptimal bis hin störend, mit der Empfehlung das gleich komplett zu deaktivieren! Warum sollte man sich so was also extra noch Wünschen in einer x86er Architektur wo bereits der im Kern viel bessere Ansatz gefunden?
Und Persönlich gesehen möchte/wollte jedenfalls keine solche CPU haben und bin froh das AMD dahingehend einen anderen Weg ersonnen! Was auch der Punkt, CMT ist AMDs Baby und die werden das nicht verstoßen oder fallen lassen sondern groß ziehen! :wink:
Dein Argument mit AMD habe zu wenig Leute für SMT ist in meinen Augen jedenfalls Käse. Da gibt es bei einer modernen CPU wesentlich komplexere Dinge als SMT. Zumal selbst relativ kleine CPU-Klitschen wie Fujitsu problemlos 8-fach SMT implementiert haben. AMD hat sich aus einer simplen Kosten/Nutzenrechnung gegen SMT entschieden, was natürlich auch am schmalen Bulldozer-Design lag, das kann bei zukünftigen Designs schon wieder ganz anders aussehen. Man hat mit CMT immerhin einen völlig neuen Ansatz gewählt, den es so vorher noch nie gab.
Fujitsu ist keine "kleine CPU-Klitsche". Die haben sehr wahrscheinlich mehr Resourcen als AMD.
Armaq
2015-02-12, 14:59:26
Fujitsu ist keine "kleine CPU-Klitsche". Die haben sehr wahrscheinlich mehr Resourcen als AMD.
Sehr viele arbeiten inzwischen auch bei Nvidia. ;) Das ist mit Sicherheit keine Klitsche, nur halt keine Endkundenproduktion.
robbitop
2015-02-12, 15:18:18
AFAIK ist die Tabelle für die Füße, weil es zumindest iirc für TSMC keine harten Zahlen gibt (bei Samsung bin ich mir auch nicht sicher) und eher auf Schätzungen basiert.
Und alles ab 10nm ist "forecast". Kann man auch im Geschreibsel nachlesen.
Naja dann sieht es - zumindest für GF/Samsung - bei 14 nm nicht so schlecht aus. Bisher sind die Stimmen aus der Industrie auch alle recht positiv gestimmt, was diesen Prozess angeht.
(GF hat 14XM sicher auch nicht ohne Not gecancelt)
Kriton
2015-02-12, 15:30:25
Sehr viele arbeiten inzwischen auch bei Nvidia. ;) Das ist mit Sicherheit keine Klitsche, nur halt keine Endkundenproduktion.
Kommt vermutlich darauf an wie Du Endkunde definierst. Im Businessbereich arbeiten die mit Endkunden.
Skysnake
2015-02-12, 18:30:12
Fujitsu geht halt ziemlich hart auf die Datenbank und großen NUMA Systeme. Das ist halt nichts, mit dem ein normaler Consumer etwas zu tun hat, und selbst im Buisnessbereich ist es halt auch "nur" eine gewisse Niesche.
Dein Argument mit AMD habe zu wenig Leute für SMT ist in meinen Augen jedenfalls Käse. Da gibt es bei einer modernen CPU wesentlich komplexere Dinge als SMT. Zumal selbst relativ kleine CPU-Klitschen wie Fujitsu problemlos 8-fach SMT implementiert haben. AMD hat sich aus einer simplen Kosten/Nutzenrechnung gegen SMT entschieden, was natürlich auch am schmalen Bulldozer-Design lag, das kann bei zukünftigen Designs schon wieder ganz anders aussehen. Man hat mit CMT immerhin einen völlig neuen Ansatz gewählt, den es so vorher noch nie gab.
Fujitsu und CPU-Klitsche :freak:
Reden wir über das gleiche Unternehmen?
Das AMD zu wenig Leute für SMT haben soll hat Coda oder sonst jemand nie behauptet, das kam von dir. Also mit hier bitte nicht irgend welche Dinge unterstellen die ich so nicht gesagt habe. Zumal wohl niemand hier auch nur im entferntesten schon eine CPU designt hat, außer vielleicht irgend welche einfachen Single-Cycle-CPUs in VHDL/Verilog. AMD wird SMT verwenden wenn es Sinn macht, das hängt nicht zuletzt vom CPU-Design selbst ab. Hier so zu tun als wäre das irgend ein super komplexe Wunderzeug das man ohne Milliarden an RnD nicht implementieren könnte finde ich ziemlich übertrieben.
Ich habe das auch gesagt z.B. Und mein Rechnerarchitektur Prof hatte sich auch mal dahingend geäußert, das SMT ziemlich aufwändig bzgl. Validierung sei, und ich denke er wird schon wissen von was er redet.
Und nein, mit VHDL/Verilog habe ich noch keine CPU gebaut, aber mit Gattern ;) Aber ja, das Ding war Single-Cycle. Für Pipelineing hat mir damals einfach die Zeit gefehlt.
Loeschzwerg
2015-02-12, 20:09:33
Ich bin ja regelrecht überrascht wie viele hier meinen Arbeitgeber "verteidigen" :smile::cool: Sonst bekomme ich nur immer zu hören "Drecks FSC Fertig-PCs!", "Ach du arbeitest bei Siemens?" oder "Die stellen Kameras her, gell?" :freak:
Kriton
2015-02-12, 20:54:58
@ Skysnake: Wir setzen Sie auch im regulären Serverbereich ein.
@ Loeschzwerg: FSC ist aber auch schon eine Weile her.
Generell sind wir etwas OT.
Skysnake
2015-02-12, 20:58:22
Ja, wobei der Vergleich zu Power8 und Sparc64 durchaus interessant ist. Die sind ja ziemlich weit weg, und legen verdammt viel Wert auf RAS und eben massiv IO, und leben damit am Ende doch noch ganz gut.
Was ich damit sagen will. AMD muss NICHT Intel in jedem Belang schlagen. An sich reicht es, wenn Sie zumindest in einem relevanten Teilbereich deutlich besser sind als Intel.
http://www.pcgameshardware.de/Broadwell-Codename-259477/News/Desktop-Hitzeentwicklung-1150524/
Das nennst du sicher? Das diskreditiert dich nur. Wtftech Niveau ist das, wenn überhaupt. So ein Dummkopf der Mantel. Da verlinkt der mein posting obwohl es doch von Vr-zone eine Roadmap aus Q1 gibt. Nur würde die nicht in die News passen, würde sein Quatsch nämlich nur widersprechen. Echt typisch, einfach blind in Forenthreads irgendwelche links aufschnappen und gar nicht wissen worum es geht. Hauptsache man kann eine Klick News generieren. Das passt zu PCGH.
deekey777
2015-02-17, 23:07:25
http://wccftech.com/amd-nolan-apu-spotted-update-20nm-apus-coming/
AMD Nolan is Beema’s replacement for 2015. Unlike Project Nolan, which is x86, AMD Amur will support on ARM based heterogeneous system architecture. It will be designed upon the Cortex A57 and will supposedly ship in third quarter of 2015. Amur will support both Android and Linux while Nolan will support both Android and Windows
Read more: http://wccftech.com/amd-nolan-apu-spotted-update-20nm-apus-coming/#ixzz3S2hp417H
Oder bin ich falsch?
fondness
2015-02-22, 10:41:24
Zen soll angeblich zuerst für Server/Workstation kommen und irgend ein Feature haben das auch Intel mit Skylake einführt:
http://wccftech.com/amd-zen-architecture-release-schedule-revealed-rolled-server-market/
AnarchX
2015-02-22, 10:58:02
MorphCore?
http://wccftech.com/intel-preparing-dirsuptive-skylake-microarchitecture-morphcore/
tm0975
2015-02-22, 12:12:17
Zen soll im 2 HJ 2016 kommen, oder?
Sofern es der aktuelle Plan ist, macht es 2017 wahrscheinlich.
MorphCore?
http://wccftech.com/intel-preparing-dirsuptive-skylake-microarchitecture-morphcore/
Wäre mir persönlich erstmal egal. Bevor AMD versucht mit Skylake gleichzuziehen, sollen sie erstmal beim AVX256-Durchsatz pro Kern, TSX und mit embedded L4-Cache gleichziehen ... von der IPC red ich erstmal gar nicht :)
Schlimmstenfalls ist es auch nur irgendein security Gedöns fka TPM 5.0b oder so.
Mandalore
2015-02-22, 16:07:37
MorphCore? Was soll man darunter genau verstehen???
Laut der Quelle bringt das allein 22% mehr IPC, möglich?
Laut der Quelle bringt das allein 22% mehr IPC, möglich?
Nein, das steht da nirgends.
Es geht darum wenn viele Threads laufen In-Order-SMT zu verwenden um Energie zu sparen. Single-Thread-Performance wird dadurch nicht besser.
Nein, das steht da nirgends.
Es geht darum wenn viele Threads laufen In-Order-SMT zu verwenden um Energie zu sparen. Single-Thread-Performance wird dadurch nicht besser.
Wobei ich mir nicht ganz sicher bin, wo der Unterschied zu banalem 4fach SMT ist. Doch nur der, dass man zusätzlich auch noch OoO abschaltet, oder?
Macht dann schon Sinn, ein Front-End kann vielleicht noch für 2 Threads spekulieren, aber bei 4 sänke die Vorhersageeffizienz sicherlich stark, so dass mans dann besser gleich lässt und damit schön Strom spart.
Der alte Atom-Kern mit InO-Technik gewann durch SMT ja auch beachtlich an Leistung (+50% wenn ich mich recht erinnere), die Kombination aus InO+SMT ist also aus Durchsatzsicht nicht so schlecht, dass passt gut zusammen.
Ob AMD das nun auch könnte .. keine Ahnung, wie schwierig ist es denn die Sprungvorhersage abzuschalten? Wenn mans wie SMT nur im BIOS An-/Abschalten können wird, denke ich nicht, dass es zu kompliziert sein dürfte.
Klingt auf alle Fälle ganz nett, die Boinc-Fraktion kanns brauchen :)
Wenns AMD auch implementieren könnte, könnte man auch sicher sein, dass Intel nicht wieder einen abermaligen Premiumzuschlag verlangt. SMT kostet ja schon extra. Für MorphCore würde man wohl wieder +50 Dollar mehr verlangen wollen, oder man limitiert es auf S2011-CPUs oder ähnliche Spielchen.
Naja Wunschdenken ... erstmal muss AMD ne vernünftige Basisarchitektur liefern.
Mandalore
2015-02-22, 23:34:51
Nein, das steht da nirgends.
Es geht darum wenn viele Threads laufen In-Order-SMT zu verwenden um Energie zu sparen. Single-Thread-Performance wird dadurch nicht besser.
Der Autor hat im Comment-Bereich das mit den 22% gepostet, könnte es aber auch falsch verstanden haben. Vielleicht meinte er 22% mehr IPC durch was anderes ;)
Wobei ich mir nicht ganz sicher bin, wo der Unterschied zu banalem 4fach SMT ist.
Es verbraucht weniger Strom. D.h. entweder mehr Turbo oder längere Akkulaufzeit. Man nähert sich damit von der Effizienz an sowas wie Xeon Phi an.
Macht dann schon Sinn, ein Front-End kann vielleicht noch für 2 Threads spekulieren, aber bei 4 sänke die Vorhersageeffizienz sicherlich stark, so dass mans dann besser gleich lässt und damit schön Strom spart.
Spekulation ist nicht das Problem. Out of Order Execution erlaubt vor allem das verstecken von Speicherlatenzen. Wenn man mehre Threads hat kann man das auch anders machen.
Wenns AMD auch implementieren könnte, könnte man auch sicher sein, dass Intel nicht wieder einen abermaligen Premiumzuschlag verlangt. SMT kostet ja schon extra. Für MorphCore würde man wohl wieder +50 Dollar mehr verlangen wollen, oder man limitiert es auf S2011-CPUs oder ähnliche Spielchen.
Falls das Implementiert wird, ist das nichts was man ein und ausschalten könnte. Das ist ein inhärentes Feature des Designs.
Der Autor hat im Comment-Bereich das mit den 22% gepostet, könnte es aber auch falsch verstanden haben. Vielleicht meinte er 22% mehr IPC durch was anderes ;)
In dem Paper werden 22% erwähnt, aber in einem völlig anderen Kontext.
Falls ich das richtige lese wird sogar davon geredet, dass man etwas Performance verliert bei Single-Thread-Leistung, weil man zusätzliche Checks machen muss.
Falls das Implementiert wird, ist das nichts was man ein und ausschalten könnte. Das ist ein inhärentes Feature des Designs.
Im Ernst? Umschalten zwischen OoO und InO während des Betriebs, je nach Code?
Nicht dass ich mich beschweren würde, aber das hört sich nicht gerade einfach an.
Darum geht es doch in dem Paper.
mboeller
2015-02-23, 15:48:41
http://hps.ece.utexas.edu/people/khubaib/pub/morphcore_micro2012.pdf
6.1.1. Single-Thread (ST) Performance Results. Figure 9a shows the speedup of each core normalized to OOO-2. As expected, OOO-2 achieves the highest performance on all workloads. TheMorphCore is a close second. This is because MorphCore introduces minimal changes to a traditional out-of-order core. As a result of these changes, MorphCore runs at a 2.5% slower frequency than OOO-2, achieving 98.8% of the performance of OOO-2.
6.1.2. Multi-Thread (MT) Performance Results....More importantly, MorphCore provides a significant 22% performance improvement over OOO-2.
6.1.3. Overall Performance Results. Figure 10a summarizes the average speedup of each architecture normalized to OOO-2. On single-thread (ST) workloads, MorphCore performs very close to OOO-2, the best ST-optimized architecture. On multi-thread (MT) workloads, MorphCore performs 22% higher than OOO-2, and achieves 2/3 of the performance potential of the best MT-optimized architectures (MED and SMALL). On average across all workloads (ST and MT), MorphCore outperforms all other architectures . We conclude that MorphCore is able to handle diverse ST and MT workloads efficiently.
Ah Dank Euch beiden, hatte den Link übersehen.
http://hps.ece.utexas.edu/people/khubaib/pub/morphcore_micro2012.pdf
Wäre schön zu wissen was deine Schlüsse daraus sind.
Ich find's irgendwie auch lustig, dass ein Intel-Paper im AMD-Thread diskutiert wird.
Ich find's irgendwie auch lustig, dass ein Intel-Paper im AMD-Thread diskutiert wird.
Jupp, das letzte Mal war das beim Flying-Wheel Paper oder wie das hieß, was dann natürlich Sandy bekam, nicht Bulldozer ...
Von daher kann man die Geschichte gleich wieder begraben. Keller hat zwar Einiges auf dem Kasten, aber mit mehr als 10% Wahrscheinlichkeit würde ich das nicht in der ersten Zen-K12-Generation erwarten.
Wobei .. apropos Flying-Wheel: Wie verträgt sich das mit dem µOp-Cache? Macht der bei dann 8 laufenden InO-Threads noch Sinn?
Hintergrund des Gedanken ist natürlich, dass sowas für ein (recht simples) AMD-Design ohne µOp-Cache vielleicht sogar sinnvoller wäre? Immerhin werden sie sich schwer tun Intels-IPC zu erreichen, aber mit 8 Threads sollte sich wenigstens der Durchsatz auf Intel-Niveau einpendeln.
Für jene die das Paper nicht lesen wollen/können:
Hauptvorteil von 8 InOrder-Threads ist das Wiederverwenden der Registersätze aus dem OoO-Design. Unter OoO braucht man deutlich mehr Register als die x86-Architektur vorsieht, Stichwort Register Renaming.
SMT braucht für jeden Thread einen eigenen Satz von Architekturregister. Sind das aber nun nur InOrder-Threads, brauchen die keine extra Register, sondern nur soviele, wie x86 vorsieht.
Solange also das Registerfile wg. OoO ~8mal so groß als normal ist, bringt man dort dann auch 8 InO-Threads unter.
Ob das nun aber den Tatsachen entspricht ... keine Ahnung.
Wenn mans mal für AMD weiterdiskutieren wollte, müsste man sicherlich von ner "primitiveren" Version ausgehen. Also z.B. nur Umschaltbar im BIOS und z.B. nur max. 4fach. Aber naja, das erhöhte die Wahrscheinlichkeit auch nur um vielleicht 5% oder so ^^
Allerdings würde ich jetzt behaupten wollen, dass das Ganze dann relativ simpel wäre, also im Vergleich zu µOp-Caches oder andere Kniffe. Ist im Endeffekt nur ne Spielart von SMT, nichts Revolutionäres, "nur" evolutionär, wobei die Evolution durch InOrder auch nochmal extra-simpel wird.
Von daher erhöhe ich um weitere 5% auf 20, aber dann reicht es auch ;-)
Im Endeffekt zeigt sich wieder der Vorteil von SMT. Ein großes Registerfile für 8 Threads würde allein vielleicht keiner verbauen, aber mit 8x (InOrder)SMT in der Hinterhand rentiert es sich dann womöglich und dann hat man im normalen OoO-Betrieb auch wieder ein paar Promill mehr IPC.
Locuza
2015-03-02, 23:05:13
Etwas Stuff aus dem SA-Forum "geklaut":
Member of the architecture team for the K12 ARM core, responsible for the instruction decode unit and out-of-order execution engine.
https://www.linkedin.com/pub/emil-talpes/5/341/73a
Damit weiß man immerhin, dass es kein Exot wie Denver wird.
Das MorphCore Feature bleibt aber offen.
Program Director for the Excavator x86 CPU core, with overall responsibility for all development activities across 4 North America sites and India, with a team size of ~200 engineers. This is the 4th generation of the Bulldozer core family which was initially launched in 2011 in server and 2012 in client SOCs. The program was successfully headed towards completion in late 2012, when we decided to do a technology change. The ownership and most of the work to complete the project was shifted to our Boston Design Center, which enabled the Sunnyvale team to take on a new from scratch design.
Einige erinnern sich vielleicht, Keller kam zufällig Ende 2012 zu AMD ;)
Program Director for a from scratch, high performance CPU core with the majority of the team in Sunnyvale, and a group in India. Responsible for all development activities across Architecture, RTL, Verification, Physical Design, and Performance Modeling and Analysis.
https://www.linkedin.com/pub/dale-greenley/0/686/b31?trk=pub-pbmap
Forum-Credit:
http://semiaccurate.com/forums/showthread.php?p=230423#post230423
OBrian
2015-03-03, 03:18:50
damit wäre das also geklärt, guter Fund!
Sowas strickt man auch nicht so schnell um, an Architekturen wie Bulldozer, Bobcat, K8-K10 o.ä. wurde auch jahrelang trotz umfangreicher Änderungen nichts am grundsätzlichen Konzept umgestoßen. Also werden sie einen OoO-K12 des Jahres 2016 nicht schon 2018 zu einem in-order-Design umstricken.
Es ist damit zwar nicht gesagt, wie Zen aussehen wird, K12 ist ja der ARM. Aber ich denke, AMD versucht beide CPU-Architekturen ziemlich ähnlich zu halten, um die Kompatibilität zu erhöhen. Immerhin gibt es ja als Wegbereiter Skybridge mit den altbekannten einfachen Cores im gleichen Package, daran sieht man ja, wohin der Weg geht.
Wenn man also hinterher den gemeinsamen Sockel mit Chips bestücken will, die 1. die gleichen TDP haben, 2. die Performance möglichst gleich ist, 3. dabei auch der Takt gleich ist (selbe Fertigung) und 4. wo die Cores idealerweise die gleiche Diefläche innerhalb des SoCs belegen (damit man den SoC insgesamt nur einmal designen muß und nur den kleinen CPU-Block tauscht), dann denke ich mir, das erreicht man mit möglichst ähnlichen CPU-Architekturen am besten, oder?
Skysnake
2015-03-03, 07:01:17
Da könnteste dann gleich ne gemeinsame Basis schaffen, die über unterschiedliche Decoder nur eben beiden Code frisst. Das wäre wohl weniger Aufwand unterm Strich.
Liszca
2015-03-03, 16:56:14
Wenn man also hinterher den gemeinsamen Sockel mit Chips bestücken will, die 1. die gleichen TDP haben, 2. die Performance möglichst gleich ist, 3. dabei auch der Takt gleich ist (selbe Fertigung) und 4. wo die Cores idealerweise die gleiche Diefläche innerhalb des SoCs belegen (damit man den SoC insgesamt nur einmal designen muß und nur den kleinen CPU-Block tauscht), dann denke ich mir, das erreicht man mit möglichst ähnlichen CPU-Architekturen am besten, oder?
1 - 3 sehe ich jetzt nicht zwangsläufig dass sie sich so ähnlich sein müssten.
Bei der 4 würde mich eine genauere ausführung interessieren, was du dort mit gleicher diefläche un blöcken tauschen ausdrücken möchtest.
Ravenhearth
2015-03-03, 17:43:04
Ich weiß nicht, ob es der richtige Ansatz wäre, beide Kerne in etwa gleich auszulegen. Das würde bedeuten, dass die ARM-Kerne entweder zu fett für SFF wären oder Zen zu klein für High-End-Ansprüche. Ein kleinerer Kern für Tablets, kleine Server, vielleicht sogar Smartphones (K12/ARM) und ein großer für Notebooks, Desktops und Server erscheint mir sinnvoller. Das schließt eine Plattformkompatibilität ja nicht aus.
reaperrr
2015-03-04, 01:07:57
Ich weiß nicht, ob es der richtige Ansatz wäre, beide Kerne in etwa gleich auszulegen. Das würde bedeuten, dass die ARM-Kerne entweder zu fett für SFF wären oder Zen zu klein für High-End-Ansprüche. Ein kleinerer Kern für Tablets, kleine Server, vielleicht sogar Smartphones (K12/ARM) und ein großer für Notebooks, Desktops und Server erscheint mir sinnvoller. Das schließt eine Plattformkompatibilität ja nicht aus.
Für low-power/low-cost können sie von ARM den A57/A72 lizensieren, und für x86 Puma+ shrinken.
Ich denke, dass K12 und Zen beide in Sachen IPC eher high-performance sein werden, aber zugunsten von Kosten und Stromverbrauch auf niedrigere Taktraten und höhere Packdichte ausgelegt sein werden (also noch viel mehr als Excavator, der ja noch die eigentlich für viel höhere Taktraten bestimmte, für's angepeilte Marktsegment unpassend lange Pipeline und den für's verstecken der hohen Latenzen gedachten, großen lahmen L2-Cache von Bulldozer mit sich rumschleppt).
Um mit beiden Architekturen ernsthaft konkurrenzfähig zu sein, muss meines Erachtens mindestens eine Verdoppelung der Bulldozer-IPC her (und zwar bezogen auf die volle Leistung eines INT-Kerns, wenn nur ein Thread auf dem Modul läuft).
R.I.P.
2015-03-04, 21:35:11
Hallo!
Hat jemand spekulativ ne Ahnung wann die neue FM3(+) Plattform mit DDR4 auf den Markt kommen wird? Irgend ne Möglichkeit, dass bereits Godaveri(??) mit FM3 und DDR4 kompatibel sein wird (ein Dual-Memory Controller DDR3/4)?
Ravenhearth
2015-03-04, 22:00:05
2016. Godavari wirds sehr wahrscheinlich nicht unterstützen.
fondness
2015-03-05, 11:18:10
“We are working very actively with our customers in the server business to introduce [Zen-based] part in the 2016 timeframe,” said Devinder Kumar at Morgan Stanley technology, media and telecom conference.
“We know the server business earlier from our history, going back to the Opteron days; we know the x86, we know 64-bit and the [Zen] core will come in 2016, the new core for the traditional x86 server space and then revenue thereafter,” said Mr. Kumar. “But it is still a little while before we get there. But we will have a core then.”
http://www.kitguru.net/components/cpu/anton-shilov/amd-we-will-actively-promote-zen-processors-for-server-market/
Thunder99
2015-03-05, 12:03:40
Ich frage mich wie AMD jemals wieder auf die 30%+ Marktanteil kommen soll. Das geht wenn überhaupt nur mit gutem Gesamtkonzept wo dann margenträchtige Aufträge daraus resultieren
Duplex
2015-03-05, 12:29:36
Erstmal soll man 15-20% Marktanteil erreichen, dann verdient man schon mehr Geld als im Desktop Bereich.
Ich frage mich wie AMD jemals wieder auf die 30%+ Marktanteil kommen soll. Das geht wenn überhaupt nur mit gutem Gesamtkonzept wo dann margenträchtige Aufträge daraus resultieren
Dazu müssten sie erst mal wieder genug Chips auf dem Markt haben. Mit zu knappen Bonaire-Margen ist es klar, dass der Marktanteil einbricht.
Das wird sich ab der 300er Serie wieder von allein ergeben. Der Marktanteil kommt offenbar durch eine Fehlkalkulation zustande.
Ravenhearth
2015-03-05, 15:55:20
Es geht nicht um GPUs.
Ich frage mich wie AMD jemals wieder auf die 30%+ Marktanteil kommen soll. Das geht wenn überhaupt nur mit gutem Gesamtkonzept wo dann margenträchtige Aufträge daraus resultieren
Das Gesamtkonzept stimmt doch schon, die GPU ist jetzt voll integriert und man spart teure Die-Fläche mit den HD-Bibs.
Was fehlt ist "nur" eine potente x86-Architektur... mal schauen was Zen wird ausrichten können.
Solange es GF/Samsung nicht verbockt sollte mit Zen schon allein aus Fertigungsgründen ein großer Sprung drin sein. Wenn dann auch noch die Architektur dazu passt (wovon man (zumindest aus Verbrauchssicht) ausgehen kann), könnte das schon zu nem attraktiven Produkt reichen.
Thunder99
2015-03-06, 10:36:59
Schön wäre wenn sie Intel und uns wieder so überraschen würden wie zu Zeiten des Athlon XP/ A64 :). Nur (ingenieurtechnisch) wird es immer schwieriger :( :D
Gerade in Notebooks kommen die aktuellen Modelle nicht gut an da die CPU Performance weit unter dem ist was empfehlen möchte
Schön wäre wenn sie Intel und uns wieder so überraschen würden wie zu Zeiten des Athlon XP/ A64 :). Nur (ingenieurtechnisch) wird es immer schwieriger :( :D
Gerade in Notebooks kommen die aktuellen Modelle nicht gut an da die CPU Performance weit unter dem ist was empfehlen möchte
Ja, aber realistisch ist es nicht, z.Zt. hat Intel ja bessere Architekturen im petto, als damals beim P4 ;-)
Von daher kann man von einer IPC auf Intel-Niveau nur träumen, irgendwas um Nehalem/Sandy wär schon mehr als nett. Wenn man dann noch SMT+freien Multi für umsonst bekäme und das Ganze um 200-250 Euro anböte, wärs schon mal gut genug.
Also etwas Konkurrenzfähiges zum i5, nicht zum i7, wobei die ggü. des i5 schlechtere IPC durch i7-Features (SMT,mehr Kerne) ausgeglichen werden würde.
Reines Wunschdenken... aber so schlecht kann Keller hoffentlich gar nicht designen, als das es damit nichts werden würden ;-)
Die aktuelle Nachricht ist ja die, dass ZEN zuerst als Opteron kommt, von daher böten sich zumindest viele Threads= mehr Kerne und/oder SMT erstmal an.
"Traditionell" bekäme der Desktop die Server-Chips dann als FX o.ä., dann vermutlich erst 2017, aber warten wirs mal ab.
Ich hoffte noch auf ne Art Vor-Präsentation auf nem Analystentreffen im November, ähnlich wie es bei BD war. Aber die ist heuer schon im Mai, nicht im November, für Zen-Details sicherlich zu früh, da wird Skybridge beweihräuchert werden.
fondness
2015-03-06, 12:22:39
Ein Markt wäre IMO durchaus da wenn man zumindest halbwegs dabei ist. Bei Intel zahlt man für 8 Kerne $1000, wenn AMD das um ~$250 anbietet kann man sicher auch auf etwas IPC und Takt verzichten.
FlashBFE
2015-03-06, 12:34:10
Nur kommt AMD damit viel zu spät. Jetzt wäre ein moderner (echter) Achtkerner sicher gut, auch wenn die IPC nicht ganz Intel-Niveau erreicht, aber er wird noch weit über ein Jahr brauchen und soll dann erst ins Serversegment gehen. Vielleicht kommt Zen dann erst 2017 auf den Desktop und muss sich dort schon mit Cannonlake messen.
Ein Markt wäre IMO durchaus da wenn man zumindest halbwegs dabei ist. Bei Intel zahlt man für 8 Kerne $1000, wenn AMD das um ~$250 anbietet kann man sicher auch auf etwas IPC und Takt verzichten.
Jo, seh ich auch so. Wenn der Stromverbrauch stimmen sollte, können sie sich die Teile in ihren Seamicroservern auch noch vergolden lassen ^^
Nur kommt AMD damit viel zu spät. Jetzt wäre ein moderner (echter) Achtkerner sicher gut, auch wenn die IPC nicht ganz Intel-Niveau erreicht, aber er wird noch weit über ein Jahr brauchen und soll dann erst ins Serversegment gehen. Vielleicht kommt Zen dann erst 2017 auf den Desktop und muss sich dort schon mit Cannonlake messen.
Das passt schon, denn Intel hat ein Problem: Mehr geht nicht.
Wieviel IPC-Nachschlag gabs denn z.B. von Ivy auf Haswell?
Die Befehlssätze werden andauernd ausgeweitet und verbreitert, ja, aber das bringt der IPC bei Wald- und Wiesencode nicht viel.
Oben diskutierten wir ein Intel-Paper, dass den Einsatz von 8-fach SMT zusammen mit In-Order vorsieht (also 8 Threads pro Einzelkern) .. auch nicht gerade ein Ansatz zur IPC-Steigerung.
Kurz: Die Luft ist raus, auch Intel kann nicht zaubern. Der letzte dicke Sprung war Sandys µOp-Cache. Neue sind nicht in Sicht und das Vergrößern von Caches, Puffern, etc.. bringt irgendwann auch nichts mehr.
Intel wird vermutlich ihren Fertigungsvorteil behalten, aber die IPC wird genauso stagnieren wie die PS-Zahl von Formel1-Motoren.
Zwischen dem Topp-Team und dem Mittelfeld wirds kleine Unterschiede geben, aber im Großen und Ganzen ..
robbitop
2015-03-06, 14:36:37
Naja. Intel bekommt es bisher hin zu jedem Tock +10...15 % IPC oben drauf zu legen und zu jedem Tick + 5 %. Also noch scheint es nicht ausgefahren zu sein.
Palpatin
2015-03-06, 15:25:28
Naja. Intel bekommt es bisher hin zu jedem Tock +10...15 % IPC oben drauf zu legen und zu jedem Tick + 5 %. Also noch scheint es nicht ausgefahren zu sein.
Dann müsste Skylake ca 40% mehr IPC als Sandy haben, bin gespannt ob das hin kommt. Will meinen 2600k eh endlich loswerden. Takt technisch gings ja auch keinen Millimeter vorwärts seit Sandy.
Nur kommt AMD damit viel zu spät. Jetzt wäre ein moderner (echter) Achtkerner sicher gut, auch wenn die IPC nicht ganz Intel-Niveau erreicht, aber er wird noch weit über ein Jahr brauchen und soll dann erst ins Serversegment gehen. Vielleicht kommt Zen dann erst 2017 auf den Desktop und muss sich dort schon mit Cannonlake messen.
Glaube nicht das Cannonlake im Desktop eine große Rolle spielen wird. Problem ist eher Icelake, der auch im Jahr 2017 zu erwarten ist. Nehalem IPC wäre denke ich viel zu wenig. Bei der IPC könnte Intel schon mit Skylake auf 40-50% Abstand kommen, also da muss schon mehr kommen als Nehalem IPC. Sonst wäre ein IPC Abstand von locker über 50% zu befürchten gegen Icelake. Sandy Bridge IPC sollte das mindeste werden.
robbitop
2015-03-06, 15:54:32
Dann müsste Skylake ca 40% mehr IPC als Sandy haben, bin gespannt ob das hin kommt. Will meinen 2600k eh endlich loswerden. Takt technisch gings ja auch keinen Millimeter vorwärts seit Sandy.
Davon ist (je nach Spiel) auszugehen.
Ich verstehe ehrlich gesagt aber nicht, warum sich manche Leute beschweren. ISt doch super, wenn man sich 2011 einen 2500K oder 2600K gekauft hat und den auf 4,5 GHz getaktet hat. Die CPU hält super lange und es sind keine weiteren Investitionen nötig.
fondness
2015-03-06, 15:56:00
Davon ist (je nach Spiel) auszugehen.
Ich verstehe ehrlich gesagt aber nicht, warum sich manche Leute beschweren. ISt doch super, wenn man sich 2011 einen 2500K oder 2600K gekauft hat und den auf 4,5 GHz getaktet hat. Die CPU hält super lange und es sind keine weiteren Investitionen nötig.
Was nicht zuletzt daran liegt, dass Intel sich weigert mehr wie vier Kerne in "normalen" Preisregionen anzubieten und wohl bald Probleme mit dem Pinout bekommt weil die Kerne so klein sind. Früher als AMD noch mithalten konnte musste Intel ihre Server-Cores im Desktop verkaufen, das wären heute 18Kerne/36 Threads bei 45MB Cache.
robbitop
2015-03-06, 15:59:13
Naja dafür erhöhen sie halt den GPU Anteil immer weiter. Auch kosten IPC Steigerungen ja auch Transistoren, was die Kerne wachsen lässt. Und wenn es dochmal Pin limitiert ist, packen sie vieleicht doch nochmal +2 Kerne rein. (wobei die Kerne selbst eigentlich schon super klein sind)
Naja. Intel bekommt es bisher hin zu jedem Tock +10...15 % IPC oben drauf zu legen und zu jedem Tick + 5 %. Also noch scheint es nicht ausgefahren zu sein.
Welche App, single oder multithread?
Letztere Frage sollte sich eigentlich erübrigen, aber man sieht einfach zuviele mth Tests, bei denen Haswell in den von Dir geschilderten Bereichen schneller ist, aber das ist halt keine IPC ...
Duplex
2015-03-06, 23:18:45
Core2 > Nehalem +30% IPC
Nehalem > Sandy Bridge +15% IPC
Sandy Bridge > Haswell +12% IPC
Was für Träume einige hier haben, Skylake wird niemals bei gleichem Takt 40% schneller als Sandy Bridge, neue AVX Befehle ignorieren, IPC möglichst ohne SSE/AVX analysieren, Ivy Bridge hat 6% IPC auf Sandy draufgelegt & Haswell hat auch nur 6% IPC auf Ivy Bridge draufgelegt,
selbst wenn Skylake 15% mehr IPC als Haswell hat, es sind dann immer noch weniger als <30% gegenüber Sandy Bridge.
Knuddelbearli
2015-03-07, 04:40:08
Gibt es irgendwo eigentlich IPC vergleiche mit selben Takt?
kann irgendwie nicht glauben das das wirklich 40% mehr IPC sein sollen als Sandy.
Wobei es mit OC eh weit weniger wäre durch abnehmenden Max OC Takt
Die Werte sind totaler Quatsch. Das werden ja auch jedes Posting mehr bei ihm. Bloss nicht drauf eingehen.
woodsdog
2015-03-07, 10:14:31
[ ] Das ist ein Intel Thread
Gibt es irgendwo eigentlich IPC vergleiche mit selben Takt?
kann irgendwie nicht glauben das das wirklich 40% mehr IPC sein sollen als Sandy.
Wobei es mit OC eh weit weniger wäre durch abnehmenden Max OC Takt
Mehr schlecht als recht hier:
http://www.hardocp.com/article/2013/06/01/intel_haswell_i74770k_ipc_overclocking_review/4
Single-Threaded ist nur Lame und Hyperpi, also ne ziemlich magere Softwareauswahl, aber besser als gar nichts.
Bei Hyperpi liegt ein Haswell ~5% vor dem Sandy (nicht Ivy) und bei Lame ~10%. Mehr wirds bei den mth Benches, aber um die gehts ja nicht.
Hier gibts noch CB singlethread:
http://www.pcper.com/reviews/Processors/Haswell-Review-Intel-Core-i7-4770K-Performance-and-Architecture/Clock-Clock-Sandy
Wieder 9-10% zw. Sandy und Haswell.
Davon ab - wenn man sich die Verbesserungen Haswells anschaut, die sich auf die Single-Thread-Leistung auswirken können, dann sind das eigentlich nur 08/15-Features nach dem Motto viel hilft viel. Mehr Register, tiefere/größe Puffer in allen Pipelinestufen, weil man sich das in nem kleineren Prozess halt leisten kann.
Das schaffte AMD dann auch noch gerade, erst recht nachdem sie mit den HD-Bibs Platz&Transistoren im Überfluss haben, zusätzlich zum großen Fertigungssprung auf ~16nm.
Ok, die Sprungvorhersage ist noch wichtig, das ist vielleicht das einzige High-Tech-Teil, wo hoher Forschungsaufwand/Hirnschmalz vonnöten ist.
Ist dann nur noch die Frage, wie gut sich das und auch die anderen Intel-Exklusiv-Merkmale wie der µop-Cache durch einen "viel-hilft-viel"-Ansatz AMDs ausgleichen lassen.
reaperrr
2015-03-07, 13:23:31
Davon ab - wenn man sich die Verbesserungen Haswells anschaut, die sich auf die Single-Thread-Leistung auswirken können, dann sind das eigentlich nur 08/15-Features nach dem Motto viel hilft viel. Mehr Register, tiefere/größe Puffer in allen Pipelinestufen, weil man sich das in nem kleineren Prozess halt leisten kann.
Außerdem zeigt der Vergleich von Haswell mit IvyB, dass der Stromverbrauch (zumindest bei ähnlichen Taktraten und ähnlicher Spannung) in mindestens gleichem Maße ansteigt. Perf./W ist ggü. Ivy fast schlechter geworden, und ohne den 22nm-Prozess wäre das vermutlich auch ggü. Sandy der Fall gewesen.
Ich sehe für AMD gute Chancen, da zumindest nah genug ranzukommen, um wieder Marktanteile und -akzeptanz zurückzugewinnen. Sie müssen jetzt halt ihren eigenen Core 2-Moment haben, das sollte aber durchaus möglich sein. Intel hat AMD durch das konsequente festhalten an max 4 Kernen im Mainstream trotz immer kleinerer Die-Fläche die Tür für gute 6- und 8-Kerner mit halbwegs konkurrenzfähiger pro-Kern-Leistung und moderaten Preisen weit offen gelassen.
Gibt es irgendwo eigentlich IPC vergleiche mit selben Takt?
kann irgendwie nicht glauben das das wirklich 40% mehr IPC sein sollen als Sandy.
Wäre mir neu, dass es aussagekräftige IPC Tests zu Skylake gibt.
Duplex
2015-03-07, 15:01:08
Die Werte sind totaler Quatsch. Das werden ja auch jedes Posting mehr bei ihm. Bloss nicht drauf eingehen.
Schau genau hin was ich geschrieben habe, ich schrieb das es weniger als 30% gegenüber Sandy Bridge sind!
y33H@
2015-03-09, 17:30:35
Intel selbst sagt das hier:
51351
mboeller
2015-03-09, 21:01:12
Danke!
lese ich das richtig:
SB -> IB ca. 5%
IB -> Haswell ca. 10%
Haswell -> Broadwell ca.5%
Summe: 22-23%
Der Witz ist ja der, dass man das pauschal ja nicht sagen kann. Ivy ist nicht pauschal 5% schneller als SB. Haswell ist schon pauschel 5-15% schneller als SB. Haswell ohne SMT ist nicht weit weg von SB, Haswell mit SMT dank der zusätzlichen Recheneinheiten aber schon...
Diese ganze Aufrechnerei ist für die Tonne. Ich würd mal stark darauf tippen, dass Skylake wieder pauschal etwas schneller ist, aber eben wieder eher SMT als single-Thread, denn da gibts einfach nicht mehr viel zu optimieren, wie oben schon erwähnt. Bei SMT kann man hingegen noch was machen.
Und ob Cannonlake in 10nm tatsächlich soviel besser ist wird sich zeigen. Immerhin scheint Samsung/GloFo mit 10nm relativ dicht dran zu sein, und da war zusätzlich nicht die Rede von FDSOI beim besseren Prozess. Wir werden sehen, ob das wirklich noch ein echter Vorteil ist mit der Fertigung oder ob der Sprung auf FinFET nicht doch der größte Vorteil war für etliche Jahre.
Duplex
2015-03-09, 21:43:09
Solche Folien sollte man ignorieren, einfach Tests bei HT4U, PCGH oder CB raussuchen.
Es gibt auch viele Tests wo Haswell mittlerweile 70% mehr IPC als Core2 hat, die IPC ist tatsächlich sehr viel höher als noch vor 8 Jahren, das sind wirklich deutliche Unterschiede.
Viele AMDler wollen das nicht wahrhaben und lesen nichtmal zuende wenn es um IPC geht, das sind meiner Meinung nach einfach nur dumme und arrogante Leute die nur nach links sehen und AMD lieb haben.
y33H@
2015-03-09, 22:24:39
Spiele reagieren auf Details wie L3 mit Kerntakt oder schnellen Speicher stark überdurchschnittlich, das bildet Intels eher Server-orientierter Chart (vom Xeon D (http://www.golem.de/news/server-prozessor-auf-intels-atom-c-folgt-der-xeon-d-1503-112843.html)) nicht ab.
robbitop
2015-03-10, 08:59:07
Welche App, single oder multithread?
Letztere Frage sollte sich eigentlich erübrigen, aber man sieht einfach zuviele mth Tests, bei denen Haswell in den von Dir geschilderten Bereichen schneller ist, aber das ist halt keine IPC ...
Nun stell dich nicht dumm. Singlethread, Wald und Wiesen Code.
http://www.computerbase.de/2013-06/intel-haswell-prozessor-fuer-desktop-pcs-test/16/
2700K -> 4770 = +19 %
Jetzt noch die 100 MHz Base/Turbo rausrechnen. -> et voilla: 16 %
Spiele sollten idR schon ziemlich Wald und Wiesen Code sein. Zumindest ist es die IPC, die hier im 3DCF den meisten wichtig ist. Taktnormierte Spieleleistung.
Da beide die gleiche Kernanzahl haben und SMT, gilt die Aussage auch pro Kern.
Fakt ist eines: die taktnormierte Spieleleistung (damit nicht wieder Korinthen gekotet werden) nimmt bei Intel auch weiterhin zu.
Exakt zumal auch immer mehr Spiele auf mehr als 4 Threads setzen, da sind neuere Architekturen ja tendenziell sowieso mehr im Vorteil.
Nun stell dich nicht dumm. Singlethread, Wald und Wiesen Code.
Entweder garantiert Single thread ohne Turbo und Stromsparmodi ODER Chaosmode mit Wald- und Wiesencode. Beides gemeinsam geht nicht.
Ansonsten misst Du nur Haferschleim und Grütze und versuchst aus der trüben Brühe dann auch noch Schlüsse zu ziehen.
http://www.computerbase.de/2013-06/intel-haswell-prozessor-fuer-desktop-pcs-test/16/
2700K -> 4770 = +19 %
Jetzt noch die 100 MHz Base/Turbo rausrechnen. -> et voilla: 16 %
(Du meinst den 2600K, oder?)
Aber egal, wie unsinnig der Test für nen IPC-Vergleich ist, siehst man den den 3960X-Werten. Der erreicht 99,5% Leistung des Haswells, bei geringerem Takt...
Unfair, das liegt an den 2 Kernen? Wohl kaum, siehe unten.
Es ging in der Diskussion um AMDs Potential auf Intel IPC zu kommen. Ein 7. Port wie ihn Haswell bekommen hat, wirkt sich erstens fast nur im SMT-Betrieb aus, zweitens braucht es dafür kein spezielles Know-How, sondern nur Die-Fläche.
Wenn Du dieses mth Feature mitbetrachten möchtest, dann müsstest Du auch die 6core-Werte einbeziehen.
So oder so AMD könnte das auch noch, das Design müsste nur breit genug werden. Fläche dazu haben sie ja.
Und eine zweite, ähnliche (alte) Erkenntnis gibt es auch noch. Wenn man die Teilergebnisse der Spiele anschaut, dann stellt man fest, dass der 3960X auch bei Spielen vor Haswell(!) liegt, die nicht gerade für guten Multithread-Support bekannt sind (Skyrim). Ergo hat der Sandy in dem Fall eine höhere IPC (was Du darunter verstehst), als Haswell. :freak:
Das kann in dem Fall nur an den 15MB L3-Cache liegen. y33H@ erwähnte das ja auch schon, dass es wichtig bei Spielen sei.
Nimmt man aber nur den Mittelwert aus Haferbrei, bemerkt man es schlicht nicht. Deswegen schau ich da gerne ganz genau hin, um wenigstens eine einigermaßen gesicherte Basis für eine spekulative Hochrechnung zu haben.
Anders gesagt: Nach der Benchmarkübersicht würde es reichen, wenn AMD ne breite Architektur mit viel und schnellem Cache bringt.
Das aber ist trivial. Soweit waren wir schon, das ist nur wieder der "viel-hilft-viel-Ansatz". Damit kratzt man nur an der Oberfläche der Leistungsfähigkeit der Rechenwerke. Dagegen ist die von y33H@ gepostet Folie deutlich interessanter.
Da wird auch klar, dass AMD die Rechenwerke von BD in die Tonne treten muss, da diese zu große Latenzen haben. Die neuen ALUs und FPU-Pipes werden das Interessanteste an ZEN sein. Das Cachesystem muss sowieso passen :)
Spielenthusiasten dürfen das gerne anders sehen, da wird Cache *DAS* 1a-Feature sein - zumindest wenn sie sich über dessen Wichtigkeit bewusst sind :)
Nachdem AMD mittlerweile auch Stromsparen kann und der Takt etwas sinken wird, darf man wohl auch auf einen Full-Speed L3 hoffen. Aber warten wir es ab.
Exakt zumal auch immer mehr Spiele auf mehr als 4 Threads setzen, da sind neuere Architekturen ja tendenziell sowieso mehr im Vorteil.
Eben, damit wird die (single-thread) IPC aber immer unwichtiger.
Schon BD konnte trotz miserabler IPC ein paar Achtungserfolge bei mth Spielen erzielen ... wenn das nur halbwegs besser werden würde, könnte man schon zufrieden sein - es sein denn man hat ne Spiele-Engine mit Asbach-Datum. Aber selbst die profitieren dann vom Cache ...
Wie auch immer, 2017 dürfte es im Mainstream wegen Mantle/DX12/Vulkan nicht mehr viele alte Engines geben.
Vor dem Hintergrund kann AMD eigentlich gar nicht viel falsch machen. Viel Threads, viel Kerne, viel Cache, bessere IPC als BD und der Spieler wird bei nem vernünftigen Preispunkt zufrieden sein.
Undertaker
2015-03-10, 21:15:14
Eben, damit wird die (single-thread) IPC aber immer unwichtiger.
So einfach ist das nicht. Solange Intel annähernd so viele Kerne bzw. Threads anbietet, wie in Games auch sinnvoll genutzt werden können, entscheidet weiterhin das Produkt aus IPC und Takt über die Performance. Afair nutzen doch auch die Konsolen nur 6 ihrer Kerne für Games? Mit 4 Kernen + SMT wird das wohl noch eine ganze Weile gut abgedeckt. Wenn AMD natürlich bis auf ~20% der IPC-Differenz herankommt und zusätzlich noch 8 echte Kerne aufbietet, kann das bei sehr gut parallelisierten Titeln anders aussehen. Aber wie soll sich das bei vergleichbarem Power-Budget ohne Prozessvorteil realisieren lassen?
Raspo
2015-03-10, 23:23:25
Naja, es soll ja mal ne Zeit gegeben haben, wo AMD vor Intel lag.
Unwahrscheinlich, dass diese Zeit nochmal zurück kommt, aber eben auch nicht unmöglich ;-).
Unicous
2015-03-14, 20:52:59
Gefunden via S|A (gab nur zwei screenshots ohne Quellenangabe)
http://news.mynavi.jp/articles/2015/03/04/amd_pccluster/
http://news.mynavi.jp/articles/2015/03/04/amd_pccluster/images/005l.jpg
http://news.mynavi.jp/articles/2015/03/04/amd_pccluster/images/006l.jpg
Offensichtlich fotografiert mit einer camera obscura. Irgendein Naseweis hatte in einem der GPU-Threads ja angezweifelt, dass AMD irgendwann eine APU mit fetter GPU (SoC) herausbringen wird und dass diese Annahme ja völlig abwegig wäre.:wink:
AMD scheint das offensichtlich nicht zu tangieren.
Sie wollen in den nächsten Jahren HPC-APUs mit Multi TFLOPS Performance herausbringen, ich schätze mal mit ARM-Kernen, wobei in der timeline auch der X2150 und Toronto auftauchen.
Auf einer Folie werden auch explizit die 20nm APUs für 2015 genannt. Die Präsentation selbst ist wohl von Ende Februar, also relativ frisch.
Nolan ist übrigens Carrizo-L, von daher bleibt wohl nur noch Amur als 20nm Kandidat übrig.
Ravenhearth
2015-03-14, 21:05:39
Dass Nolan nur Carrizo-L sein soll, macht doch keinen Sinn. Das soll eine APU in 20nm sein, die plattformkompatibel zu Amur ist - beides trifft auf Carrizo-L nicht zu. Carrizo und -L haben außerdem ein zu fettes Package. Imho ersetzen Nolan und Amur später Mullins, der laut Roadmap erstmal neben Carrizo-L weitergeführt werden soll.
Unicous
2015-03-14, 21:20:48
Dass für Nolan (und Carrizo) schon überall Supporthinweise sprießen spricht dagegen. Ich hatte schon länger vermutet, dass Nolan Carrizo-L ist und AMD mal wieder die Wahrheit verdreht hat (außer es gibt wirklich noch eine 20nm x86 APU, das wäre aber mE krass dumm von AMD).
Ich denke, nachdem sie einiges über Board geworfen haben (u.a. Carrizo DT) sind sie zu dem Schluss gekommen wir ziehen das mit dem gemeinsamen Ökosystem vor und hauen noch aus Spaß einen Beema/Mullins rein und schnüren das Paket zu.
http://www.planet3dnow.de/vbulletin/threads/421761-AMD-praesentiert-Excavator-und-Carrizo-auf-der-ISSCC-2015?p=4992596#post4992596
Crashtest hat Zugang zu internen AMD-Dokumenten (wie z.B. BKGDs), ist also eine gute Quelle.
Nolan ist also Carrizo-L und hat anscheinend Dual-Channel Support (ob das auch nach außen geführt ist wage ich aber zu bezweifeln, zumindest auf Consumer-Seite). Laut ihm gibt es auch einen 20nm Shrink für den PS4 Chip neben dem für XO, vllt. wird der aber TSMC gefertigt?
Godmode
2015-03-14, 21:43:38
AMD könnte extrem geile Sachen bringen. Wenn ich da nur an stacked CPU/GPU/RAM mit TSVs denke...
fondness
2015-03-14, 21:46:57
HBM2 sollte jedenfalls genug Kapazität haben das es auch für APUs höchst interessant wird...
Kriton
2015-03-14, 23:33:24
Gefunden via S|A (gab nur zwei screenshots ohne Quellenangabe)
http://news.mynavi.jp/articles/2015/03/04/amd_pccluster/
http://news.mynavi.jp/articles/2015/03/04/amd_pccluster/images/005l.jpg
http://news.mynavi.jp/articles/2015/03/04/amd_pccluster/images/006l.jpg
Offensichtlich fotografiert mit einer camera obscura. Irgendein Naseweis hatte in einem der GPU-Threads ja angezweifelt, dass AMD irgendwann eine APU mit fetter GPU (SoC) herausbringen wird und dass diese Annahme ja völlig abwegig wäre.:wink:
AMD scheint das offensichtlich nicht zu tangieren.
Sie wollen in den nächsten Jahren HPC-APUs mit Multi TFLOPS Performance herausbringen, ich schätze mal mit ARM-Kernen, wobei in der timeline auch der X2150 und Toronto auftauchen.
Auf einer Folie werden auch explizit die 20nm APUs für 2015 genannt. Die Präsentation selbst ist wohl von Ende Februar, also relativ frisch.
Nolan ist übrigens Carrizo-L, von daher bleibt wohl nur noch Amur als 20nm Kandidat übrig.
Im Sinne von HSA ist alles andere IMHO auch (langfristig) unlogisch.
OBrian
2015-03-15, 10:25:54
Daß sie die Rechenlast langfristig möglichst weit auf GPUs abwälzen wollen, ist ja schon lange klar. Ich frage mich eher, ob und wenn ja wie ARM und x86 verschmolzen werden, oder ob das längerfristig einfach nur parallel laufen soll. Wenn es tatsächlich verschmolzen würde (d.h. derselbe Chip kann beides, nicht nur zwei unterschiedliche Chips, die in den gleichen Sockel passen), dann gäbe es eine Ausstiegsoption aus x86, die ohne aufwendigen und damit teuren Umbruch funktionieren würde. Die Industrie sähe das sicher gerne, weil ARM ja viel freigiebiger mit Lizenzen ist als Intel.
Gefunden via S|A (gab nur zwei screenshots ohne Quellenangabe)
http://news.mynavi.jp/articles/2015/03/04/amd_pccluster/
http://news.mynavi.jp/articles/2015/03/04/amd_pccluster/images/005l.jpg
http://news.mynavi.jp/articles/2015/03/04/amd_pccluster/images/006l.jpg
Offensichtlich fotografiert mit einer camera obscura. Irgendein Naseweis hatte in einem der GPU-Threads ja angezweifelt, dass AMD irgendwann eine APU mit fetter GPU (SoC) herausbringen wird und dass diese Annahme ja völlig abwegig wäre.:wink:
AMD scheint das offensichtlich nicht zu tangieren.
Sie wollen in den nächsten Jahren HPC-APUs mit Multi TFLOPS Performance herausbringen, ich schätze mal mit ARM-Kernen, wobei in der timeline auch der X2150 und Toronto auftauchen.
Auf einer Folie werden auch explizit die 20nm APUs für 2015 genannt. Die Präsentation selbst ist wohl von Ende Februar, also relativ frisch.
Nolan ist übrigens Carrizo-L, von daher bleibt wohl nur noch Amur als 20nm Kandidat übrig.
Der Naseweis sagt dir jetzt mal, dass das wohl eher ne GPU mit zusätzlichen CPU-Kernen ist ;). Dass es sowas geben wird, stand ja niemals in Zweifel.
Dass für Nolan (und Carrizo) schon überall Supporthinweise sprießen spricht dagegen. Ich hatte schon länger vermutet, dass Nolan Carrizo-L ist und AMD mal wieder die Wahrheit verdreht hat (außer es gibt wirklich noch eine 20nm x86 APU, das wäre aber mE krass dumm von AMD).
Ich denke, nachdem sie einiges über Board geworfen haben (u.a. Carrizo DT) sind sie zu dem Schluss gekommen wir ziehen das mit dem gemeinsamen Ökosystem vor und hauen noch aus Spaß einen Beema/Mullins rein und schnüren das Paket zu.
http://www.planet3dnow.de/vbulletin/threads/421761-AMD-praesentiert-Excavator-und-Carrizo-auf-der-ISSCC-2015?p=4992596#post4992596
Crashtest hat Zugang zu internen AMD-Dokumenten (wie z.B. BKGDs), ist also eine gute Quelle.
Nolan ist also Carrizo-L und hat anscheinend Dual-Channel Support (ob das auch nach außen geführt ist wage ich aber zu bezweifeln, zumindest auf Consumer-Seite). Laut ihm gibt es auch einen 20nm Shrink für den PS4 Chip neben dem für XO, vllt. wird der aber TSMC gefertigt?
Sehe ich auch so. Nolan kann dann sogar noch mal als Codename für einen weiteren Refresh herhalten.
Ich glaub nicht an TSMC für den 20nm-PS4-Chip, der wird den gleichen Weg gehen wie der XBox-Chip. Sony/M$ haben ja mit der Fertigung nichts am Hut, das ist ja allein AMDs Sache, die wollen nur die Chips garantiert haben und die Serien sind hinreichend groß, dass es sich denke ich mal einfach lohnt, die separat in 20nm planar aufzulegen.
mboeller
2015-03-15, 13:23:29
Sie wollen in den nächsten Jahren HPC-APUs mit Multi TFLOPS Performance herausbringen, ich schätze mal mit ARM-Kernen, wobei in der timeline auch der X2150 und Toronto auftauchen.
Dann könnte meine Speku zu den 1:2 SP/DP im Carrizo ja doch stimmen. Vielleicht ein erster Versuchsballon? Wie üblich bei AMD in der letzten Zeit.
Obwohl ein 35W Carrizo auf einem 4-CPU Serverboard mit 3 Hypertransport Kanälen auch nicht schlecht wäre... [und ja ich weiß das Hypertransport tot ist]
Aber ob PCIe für sowas ausreicht...keine Ahnung.
4Tflops SP und 2TFlops DP mit <200W und 128GB Speicher wären aber auch nicht so schlecht wenn Carrizo wider erwarten doch für HPC eingesetzt werden kann
OBrian
2015-03-15, 13:25:56
Der Naseweis sagt dir jetzt mal, dass das wohl eher ne GPU mit zusätzlichen CPU-Kernen ist ;)strenggenommen muß man die bisherigen APUs auch schon so bezeichnen, weil die GPU ja regelmäßig mehr Fläche einnimmt als die CPU, also ist alles seit Llano eine GPU mit CPU, keine CPU mit GPU ;) Noch GPU-lastigere Konstruktionen wie die Konsolenchips mal unbeachtet gelassen...
Unicous
2015-03-15, 13:38:45
@HOT
Lustig, dass du dich angesprochen fühlst, denn du warst gar nicht gemeint.
AMD Starts Linux Enablement On Next-Gen "Zen" Architecture
This patch reveals the AMD Zen design no longer supports TBM, FMA4, XOP, or LWP ISAs. Meanwhile the new ISA additions are for SMAP, RDSEED, SHA, XSAVEC, XSAVES, CLFLUSHOPT, and ADCX: ISAs are supported. It's nice to see with Zen that AMD will support the RDSEED instruction, which Intel has added since Broadwell for seeding another pseudorandom number generator. SMAP is short for the Supervisor Mode Access Prevention and is another Intel instruction set extension already supported by Linux.
AMD Zen also adds a new CLZERO instruction. This is a new one and "clzero instruction zero's out the 64 byte cache line specified in rax. Bits 5:0 of rAX are ignored."
http://www.phoronix.com/scan.php?page=news_item&px=AMD-Zen-CPU-Znver1
FMA4 ist nach wie vor mit dabei.
XOP habe ich noch vage als durchaus hilfreiche Operationen in Erinnerung, war die AMD-exklusiv und ungenutzt durch Compiler oder weshalb wird das weggespült?
TBM sagt mir spontan nichts, worum ging es dabei?
Locuza
2015-03-17, 23:39:54
Zen hat das Feature, folgende Features nicht zu unterstützen:
New AMD znver1 processor. The architecture has the below features
* TBM, FMA4, XOP, LWP: ISAs are not supported.
* SMAP, RDSEED, SHA, XSAVEC, XSAVES, CLFLUSHOPT, ADCX: ISAs are supported.
https://sourceware.org/ml/binutils/2015-03/msg00078.html
FMA4 ist nach wie vor mit dabei.
XOP habe ich noch vage als durchaus hilfreiche Operationen in Erinnerung, war die AMD-exklusiv und ungenutzt durch Compiler oder weshalb wird das weggespült?
Ja, XOP war das INTeger-Überbleibsel von SSE5. Intel hat das unter anderem mit AVX2 "assimiliert" und auf 256bit verbreitert .. braucht ergo kein Mensch mehr.
Zen hat das Feature, folgende Features nicht zu unterstützen:
https://sourceware.org/ml/binutils/2015-03/msg00078.html
Schau mal in den Quelltext, da steht FMA4 witzigerweise noch dabei. ^^
Timbaloo
2015-03-18, 11:10:27
Wenn sie FMA4 streichen, dann aktiviert es intel bestimmt in der folgenden Architektur :D
mboeller
2015-03-18, 13:23:21
Ja, XOP war das INTeger-Überbleibsel von SSE5. Intel hat das unter anderem mit AVX2 "assimiliert" und auf 256bit verbreitert .. braucht ergo kein Mensch mehr.
Schau mal in den Quelltext, da steht FMA4 witzigerweise noch dabei. ^^
Ab wann waren eigentlich bei Phoronix die ersten Befehlssatzerweiterungen für den Bulldozer zu finden? Die Suchfunktion hat mich da leider nicht weitergebracht.
Ab wann waren eigentlich bei Phoronix die ersten Befehlssatzerweiterungen für den Bulldozer zu finden? Die Suchfunktion hat mich da leider nicht weitergebracht.
Da würde ich hier mal anfangen:
http://citavia.blog.de/2010/07/30/gcc-scheduler-code-for-bulldozer-9074571/
mboeller
2015-03-18, 19:12:07
Da würde ich hier mal anfangen:
http://citavia.blog.de/2010/07/30/gcc-scheduler-code-for-bulldozer-9074571/
Danke! Also ca. 15 Monate vor dem Release. Das lässt hoffen das Zen nicht erst Ende 2016 kommt sondern schon früher.
Danke! Also ca. 15 Monate vor dem Release. Das lässt hoffen das Zen nicht erst Ende 2016 kommt sondern schon früher.
Ja, das hat AMD vielleicht so geplant, muss aber nichts heißen, hardwaretechnisch kann da noch genügend schief gehen ;-)
Davon abgesehen soll er ja zuerst als Opteron kommen da könnte Q3 2016 zwar hinkommen, aber bis wir das Teil dann bekommen, kann es dann doch 2017 werden.
2phil4u
2015-03-20, 11:57:52
Hat irgendeiner ne Ahnung, wie das Teil etwa aussehen und perforwen wird.
Wenn ich richtig gelesen haben sind es High performance CPUs, trotzdem gehe ich davon aus, dass es ne Apu wird.
Wird das Teil in CPU Anwendungen, die nicht optimiert haben etwa die IPC vom HAswell Vorgaenger haben oder mehr ?
In welcher Fertigungsgroesse wird das Teil erscheinen, wird es ein 20nm Finfet Prozess sein ?
Irgendwelche Befehle aber gibts irgendwo Infos, wie das Ding aufgebaut sein wird ?
Hat irgendeiner ne Ahnung, wie das Teil etwa aussehen und perforwen wird.
Wenn ich richtig gelesen haben sind es High performance CPUs, trotzdem gehe ich davon aus, dass es ne Apu wird.
Wird das Teil in CPU Anwendungen, die nicht optimiert haben etwa die IPC vom HAswell Vorgaenger haben oder mehr ?
In welcher Fertigungsgroesse wird das Teil erscheinen, wird es ein 20nm Finfet Prozess sein ?
Irgendwelche Befehle aber gibts irgendwo Infos, wie das Ding aufgebaut sein wird ?
Lol Scherzkeks .. wenn es genaue Infos gäbe, stünden die hier im Thread.
Anders gesagt: Alles was man weiss - inklusive wilder Spekulationen - steht hier ;-)
mczak
2015-03-20, 15:53:26
Ja, XOP war das INTeger-Überbleibsel von SSE5. Intel hat das unter anderem mit AVX2 "assimiliert" und auf 256bit verbreitert .. braucht ergo kein Mensch mehr.
Das ist theoretisch nicht ganz richtig, XOP hat schon noch ein paar Operationen die AVX2 nicht bietet - von integer-macs bis zu sehr mächtigen Vector Permute über Rotate gibt's da einiges. Man könnte auch sagen fast nichts davon existiert so direkt in AVX2, denn die Integer-Ops bei AVX2 beschränken sich fast ausschliesslich auf eine Erweiterung der existierenden Befehle auf 256bit. Immerhin ist aber die Operation dabei die ich bei weitem am meisten vermisst habe (der echte Vektorshift).
Aber die Chips haben wohl zu wenig Verbreitung als dass sich da wirklich jemand die Mühe macht die Befehle auch zu verwenden (bei x264 war das zumindest mal im Gespräch weiss aber nicht was daraus geworden ist).
fondness
2015-03-31, 13:12:33
New AMD Zen X86 APU boasts up to 16 cores
http://www.fudzilla.com/news/notebooks/37399-new-amd-zen-x86-apu-can-has-16-cores
The new APU platform has everything AMD fans could wish for - four channel DDR4 support, PCIe3, up to 16 Zen cores and Greenland GPU, paired with High Bandwidth Memory (HBM).
Each of the Zen cores will have dedicated L2 and share L3 cache with three other cores, suggesing a four-core module design. The CPU cores will "talk" to HBM graphics cores via a special communication channel called Coherent Fabric. The Coherent Fabric channle eliminates PCIe latency and we will try to find out more about this technology.
In case the Zen-based APU with HBM powered Greenland GPU can launch in 2016, this means AMD might still be in the x86 desktop game with some really innovative products. The huge number of cores and the module configuration raise a number of questions, but information is still limited. In any case, it appears that next generation AMD APUs will start off with four Zen cores (one module) and scale up to 16 cores, or four modules. This makes us wonder how big Zen actually is and whether or not it will replace all AMD cores, from tablets to desktop and server parts.
y33H@
2015-03-31, 13:59:27
Module meint hier Cluster wie bei Jaguar ... 16C mit iGPU und HBM und Quadchannel-DDR4 klingt nach HPC.
maguumo
2015-03-31, 17:22:20
Was ist denn mit "HBM graphics cores" gemeint?
Unicous
2015-03-31, 17:46:43
Seit wann nehmen wir eigentlich Artikel von Fu(a)d für voll?
Wenn überhaupt hat er sicherlich nur ein paar vage Infos bekommen und die dann in typischer Manier in seiner eigenen verqueren Gedankenwelt "verarbeitet".
Ich könnte mir zum Beispiel vorstellen, dass er allein schon K12 und Zen verwechselt hat und nun die völlig falschen Schlüsse daraus zieht.
Generell würde ich das mit einer Prise Schiffsladung Aralsee genießen.
Raspo
2015-03-31, 18:41:29
*hust*
Der Aralsee ist inzwischen glaub ich auch nicht mehr das was er mal war. Also er ist fast ausgetrocknet.
Timbaloo
2015-03-31, 18:47:54
Hauptsache es war ein Süsswassersee.
Hübie
2015-03-31, 18:56:28
Mag mich mal einer kurz ins Bild setzen? Zen und K12 sind nicht das gleiche? :| Seit Bulldozer hab ich mich nicht mehr um AMDs CPUs gekümmert. Zen is die letzte Bulldozer-Iteration dann K12 oder wie?
Danke schon mal :up:
fondness
2015-03-31, 18:57:16
K12 ARM, Zen x86. Beides sind neue Architekturen.
Unicous
2015-03-31, 19:19:11
*hust*
Der Aralsee ist inzwischen glaub ich auch nicht mehr das was er mal war. Also er ist fast ausgetrocknet.
No shit?:eek:
Hauptsache es war ein Süsswassersee.
Der Aralsee ist seit mindestens 50 Jahren kein Süßwassersee mehr. Ob er davor laut Definition ein Süßwassersee war, weiß ich nicht(er hat/te aber Süßwasserzuflüsse).
Aber gut das wir die Metapher jetzt fein seziert haben, damit sie jeder verstehen kann.
fondness
2015-04-01, 10:00:32
Einige interessante Übersetzung der Konferenz in Japan:
Consumer and commercial business lead Junji Hayashi told the PC Cluster Consortium workshop in Osaka that the 2016 release CPU cores (an ARMv8 and an AMD64) will get simultaneous multithreading support, to sit alongside the clustered multithreading of the company's Bulldozer processor families.
Hayashi also told the conference the company's planning a two-year upgrade cycle for the Accelerated Processing Units in its GPUs, with a performance target by 2019 of multiple teraflops for HPC target applications.
By 2017, the company wants to be able to ship a 200-300 W thermal design power (TDP) HPC GPU, with high-bandwidth memory the company expects to be nine times faster than GDDR5 memory and 128 times better than DDR3.
The company is also moving forward with its SkyBridge strategy, announced in May 2014, in which ARM and x86 SoCs will be pin-compatible, so motherboard-makers only need to work up a single design.
Hayashi reconfirmed that AMD's first “Ambidextrous Computing” SkyBridge products will be arriving this year.
http://www.theregister.co.uk/2015/03/31/amd_opens_kimono_on_chip_futures_a_little_more/
robbitop
2015-04-01, 10:12:14
Heißt das SMT + CMT? Für ARM und x86?
CMT würde die hohe Coreanzahl (neulich was von 16C gelesen) erklären.
fondness
2015-04-01, 10:19:21
Interessant finde ich vor allem das auch der ARM Core SMT bekommen soll. Ist natürlich die Frage ob das alles richtig übersetzt wurde, die automatischen Übersetzungstools geben leider noch weniger her als diese Übersetzung von The Register. Aber so wie es da steht sieht es nach SMT + CMT aus.
robbitop
2015-04-01, 10:37:25
War die FPU bei CMT nicht schon sowas wie SMT? Wenn man Rosinen pickt, war das dann ja bei BD schon so.
Ich fürchte, wenn ich CMT lese, wieder kleine schmale Executive Ressources. Es scheint ja so zu sein, dass man entweder breite Kerne mit SMT baut oder schmale mit CMT. (Schedulerkomplexität und so)
Insofern bin ich jetzt bei CMT nicht in Extase. (wobei das wahrscheinlich die schlechte Konditionierung von BD ist :D)
fondness
2015-04-01, 10:42:39
Naja CMT ist ja mittlerweile nicht mehr viel mehr als das die FPU geteilt wird. Für AVX2 wird man eine dicke 512-bit FPU verbauen, da macht es durchaus Sinn diese zwischen zwei Kernen zu teilen. Das hat erstmal wenig damit zu tun wie "dick" die restlichen Kerne werden. Wenn man zusätzlich auch noch SMT haben will sollten diese deutlich breiter ausfallen.
robbitop
2015-04-01, 10:45:05
Naja CMT + viele Ports = extrem komplexer Scheduler.
Hübie
2015-04-01, 11:14:52
Das können auch native Kerne sein. 16 ist ja nun nicht abseits des technisch Machbaren. 8/16 wäre imo auch fail wenns erst '16/'17 kommt. Mich beschleicht das Gefühl ich müsste mich langsam mal in Bulldozer & Co einlesen.
Edit: Hieß es anfangs nicht noch man verabschiede sich vom Moduldesign? :|
fondness
2015-04-01, 11:26:15
Man hat sich ein bisschen verabschiedet, das einzige was noch geshared wird ist die FPU, Data-Fetch und der L2-Cache. Die Decoder sind wieder separat pro Kern. Die INT-Kerne waren ohnehin immer zweimal ausgeführt.
Naja CMT + viele Ports = extrem komplexer Scheduler.
Naja so viel anders wie bei standalone Kernen ist das dann auch nicht. Man spart sogar in gewissen Bereichen.
anddill
2015-04-01, 12:54:35
Also sozusagen je Modul zwei Integer-Kerne mit weitgehend separatem Frontend, gemeinsame fette FPU die für Standardberechnungen halbiert und den Integers zugeordnet ist und das ganze dann noch garniert mit Hyperthreading? So kommt man schnell auf 16 Threads.
Wenn man für Desktops vielleicht das HT abschaltet (Wer braucht schon 16 "Kerne" im Desktop?) dann bleibt am Ende Bulldozer 2.0. Hmmm...
robbitop
2015-04-01, 13:01:07
Naja mit Bulldozer muss und wird es hoffentlich nicht mehr viel gemeinsam haben. Ich denke, dass man diesmal eher ein fettes Backend bauen wird und schnelle Caches. Hochtakt für ein kompaktes aber dennoch sparsames High IPC Design opfern. Das ist aber nicht so einfach. Hoffentlich packt AMD das noch.
Über die BD Evolution und die Katzen-Evolution hat man vermutlich auch eine ganze Menge gelernt (so wie Intel beim P4 damals eine Menge gelernt hat und die guten, sinnvollen Dinge mitgenommen hat)
CMT an sich war ja keine schlechte Idee. Aber die µ-Arch war halt suboptimal. Ich denke mal, bei BD wollte man sich einen komplexen Sheduler und viel Validierungsaufwand sparen. Ein Core ähnliches Design ist vermutlich zich mal komplexer in der Entwicklung und Validierung.
fondness
2015-04-01, 13:03:08
Auch wenn Bulldozer immer gleich gesetzt wird mit CMT hat das eine mit dem anderen nichts zu tun. Bulldozer hatte völlig andere Probleme egal ob mit CMT oder ohne.
Jim Keller hat man auch mal gesagt Next-Gen wird das beste aus beiden Welten (Bulldozer+Cats).
Duplex
2015-04-01, 13:05:07
Shared Frontend oder nicht, das sind vielleicht gerademal 20% Unterschied bei der Integer Performance, da muss viel mehr geändert werden um 50% IPC steigern zu können.
SMT macht nur sinn wenn das ein breites Design wird
AMD braucht was Leistungsstarkes
4 ALU + 4 AGU Design
15-20 Stage Pipeline
512-Bit FPU (AVX3)
2 Fach SMT
64KB L1D Cache
Fullspeed L2 Cache
Loop Bufer
Macro Fusion
Server 16C/32T
Desktop 8C/16T
APU 4C/8T
robbitop
2015-04-01, 13:09:26
Würde ich auch so sehen. Kleine flinke L2 Caches und großen immernoch halbwegs schnellen L3 @Fullspeed.
1 Cluster a 4 solcher Cores mit SMT + CMT wäre ein netter Fortschritt. Vor allem wenn Power, Skalierbarkeit und Leistungsaufnahme stimmen. Also etwas Core-Artiges mit ggf. CMT.
fondness
2015-04-01, 13:10:45
Shared Frontend oder nicht, das sind vielleicht gerademal 20% Unterschied bei der Integer Performance, da muss viel mehr geändert werden um 50% IPC steigern zu können.
SMT macht nur sinn wenn das ein breites Design wird
AMD braucht was Leistungsstarkes
4 ALU + 4 AGU Design
15-20 Stage Pipeline
512-Bit FPU (AVX3)
2 Fach SMT
64KB L1D Cache
Fullspeed L2 Cache
Loop Bufer
Macro Fusion
Server 16C/32T
Desktop 8C/16T
APU 4C/8T
Das ganze Zeug kannst du auch hundertfach verbauen und eine CPU kann trotzdem arschlahm sein. Wir sprechen hier nicht von einem Streamprozessor wo man vereinfacht ausgedrückt nur Einheiten vervielfachen muss.
Entscheidend für eine modernes CPU-Design mit hoher IPC sind ganz andere Dinge: zB Sprungvorhersage, Data-Fetch, etc. Man verbaut so viel Einheiten wie man füttern kann und nicht umgekehrt. Eine moderne Sprungvorhersage bildet ein neuronales System nach das möglichst selbstständig lernen kann und so möglichst oft die richtigen "Abzweigungen" nimmt. Die CPU muss im Vorhinein wissen welche Daten sie in Zukunft braucht und die Daten rechtzeitig aus dem Speicher in die Caches laden. Wenn man die Daten erst lädt wenn man sie braucht steht die CPU ewig still. Das sind zB aktuell wichtige Forschungsgebiete wo man auch noch Potential sieht, und wo sich entscheidet wie viel IPC eine CPU erreicht, nicht ob ich jetzt 4 oder meinetwegen 10 ALUs verbaue.
Duplex
2015-04-01, 13:21:36
Bei der Sprungvorhersage war doch selbst die K7/K10 Basis besser schneller.
Bulldozer kann nur mit viel Takt was anfangen.
AMD braucht mind. IPC 1.5
Hübie
2015-04-01, 13:58:26
Wenn ich das richtig weiß krankte Bulldozer vor allem an compilern, bzw code der einfach nicht dafür ausgelegt ist. Wenn man ne Extrawurst brät muss man halt auch Koch spielen.
Du brauchst ja vor allem auch ports zum absetzen. Das erwarte ich ebenfalls neben den von Duplex angeführten Dingen.
Nakai
2015-04-01, 14:57:04
4fach Decoder noch, dann wär ich zufrieden.
Es sollten auch deutlich weniger als 20 Stages sein. Irgendwas zwischen 10~15 Stages wär wünschenswert.
Für Wald und Wiesencode benötigt man schon eine gute Branch-Prediction. Da ist eigentlich noch viel Potential bei AMD, obwohl Bulldozer hier schon besser als der K10 war. Bulldozers Execution war auch nicht so stark, wie die von Jaguar/Catamount. Da gab es einige Einschränkungen bei der Verwendung der Ports, da war Jaguar besser. Im Gegensatz zu Jaguar hatte man zwar einen Unified-INT-Scheduler, aber keinen globalen Scheduler. Jaguar hatte für zwei AGUs und zwei ALUs jeweils einen Scheduler.
Es gibt sehr viele Punkte, wo AMD deutlich besser sein könnte.
€:
Wenn ich das richtig weiß krankte Bulldozer vor allem an compilern, bzw code der einfach nicht dafür ausgelegt ist. Wenn man ne Extrawurst brät muss man halt auch Koch spielen.
Du brauchst ja vor allem auch ports zum absetzen. Das erwarte ich ebenfalls neben den von Duplex angeführten Dingen.
Bulldozer war eigentlich eine Server-CPU, wenn man es genau nehmen will.
robbitop
2015-04-01, 15:06:19
Naja schnelle Caches sind auch wichtig.
mboeller
2015-04-01, 16:10:12
Edit: Hieß es anfangs nicht noch man verabschiede sich vom Moduldesign? :|
IMHO Yein. Das Bulldozer-Modulkonzept soll auf den Müll geschmissen werden und dafür das Jaguar-Modulkonzept benutzt werden. Mal sehen ob das so kommt.
Hübie
2015-04-01, 18:23:05
Ah okay. Meine Auffassung dieses Statements war gar keine Module mehr. Na ja hab ja nun Abo auf den Thread und warte gespannt. Ich denke dass mein 3930k noch 1-2 Jahre überstehen wird.
fondness
2015-04-02, 16:45:23
Lisa Su, President & CEO AMD:
There are only a couple of companies in the world who really have the capability of being on the leading edge of microprocessor architectures. And I think we are one of them. We are not going into the entire ARM-market. Our new products are actually focused on the 64-bit portion of the ARM-market and what we trying to do is to bring ARM somewhere where it hasn’t been before. We are really trying to get x86-class performance in ARM micro architecture to expand the market.
http://embedded-computing.com/24471-five-minutes-withlisa-su-president-and-ceo-amd/?hootPostID=d033f9afa615684c5c75cf9d0519b450
K12 wird also ganz klar ein High-Performance ARM (Server) Chip.
FlashBFE
2015-04-02, 17:29:20
K12 wird also ganz klar ein High-Performance ARM (Server) Chip.
Ziemlich riskant, das sowieso schwindende Entwicklungsbudget mit einer neuen Produktschiene zu teilen, zu der es noch gar keinen berechenbaren Markt gibt. Jetzt ist auch klar, warum im x86 Bereich so wenig kommt. Die Ressourcen sind einfach anderweitig verplant.
fondness
2015-04-02, 17:32:24
Ziemlich riskant, das sowieso schwindende Entwicklungsbudget mit einer neuen Produktschiene zu teilen, zu der es noch gar keinen berechenbaren Markt gibt. Jetzt ist auch klar, warum im x86 Bereich so wenig kommt. Die Ressourcen sind einfach anderweitig verplant.
Die Alternative ist ewige Nummer 2 hinter Intel in einem schrumpfenden Markt zu sein. Das ging gut als der Markt jährlich um 10% wuchs, aber heute nicht mehr.
Und die Aussichten im aktuellen ARM-Markt sind auch miserable, da die Preise völlig im Keller sind. Wenn man gute Preise verlangen will muss man Vorreiter sein, aber klar birgt das ein gewisses Risiko.
Skysnake
2015-04-02, 18:30:34
Ziemlich riskant, das sowieso schwindende Entwicklungsbudget mit einer neuen Produktschiene zu teilen, zu der es noch gar keinen berechenbaren Markt gibt. Jetzt ist auch klar, warum im x86 Bereich so wenig kommt. Die Ressourcen sind einfach anderweitig verplant.
Dafür haben Sie aber auch eine deutlich schwächere Konkurrenz als im x86 Markt.
AMD hat sehr viel IP, das sollte man nicht vergessen. Die können da schon richtig fett hinlangen, ohne die aller größten Entwicklungskosten zu haben, einfach weil schon relativ viel da ist. Gerade die Sache mit 10G Ethernet usw ist ganz interessant.
StefanV
2015-04-02, 18:51:07
Ziemlich riskant, das sowieso schwindende Entwicklungsbudget mit einer neuen Produktschiene zu teilen, zu der es noch gar keinen berechenbaren Markt gibt. Jetzt ist auch klar, warum im x86 Bereich so wenig kommt. Die Ressourcen sind einfach anderweitig verplant.
Die Frage ist doch, wie aufwändig es ist, modernen Microprozessoren eine neue Architectur beizubringen.
Ich denke, dass das gar nicht so umfangreich ist, wie man denken würde. Man müsste ja 'nur' das Frontend etwas modifizieren.
Und ggF könnte man ev. gar eine CPU bauen, die sowohl ARM als auch x86 Instruktionen versteht, die dann mehr oder minder via BIOS (oder Lasercut) 'umgeschaltet' wird...
Einiges wird ja heute schon via Software (Microcode) realisiert...
Nakai
2015-04-02, 18:51:16
Also das 10G Ethernet haben die wahrscheinlich extern eingekauft.
fondness
2015-04-02, 18:52:41
Noch dazu hat man mit Jim Keller immerhin den leitenden Entwickler von Apples nicht ganz schlechten ARM-CPUs in house, wäre wohl dumm diese Potential nicht zu nützen.
Noch dazu hat man mit Jim Keller immerhin den leitenden Entwickler von Apples nicht ganz schlechten ARM-CPUs in house,
Wobei man noch dazufügen sollte, dass das bereits eine 64bit ARM-Architektur war/ist.
Das die Architektur was Größeres werden würde, war aber eigentlich schon klar, dafür bürgt allein schon der Codename "K12" :)
Die "Ks" waren immer das Topp-Produkt bei AMD.
Ravenhearth
2015-04-02, 19:35:39
Ich hoffe, das bedeutet nicht, dass Zen der kleinere Kern wird.
Von wem kam der K? Na ;-) der wird da für beides Hirnschmalz verwenden.
robbitop
2015-04-02, 19:42:41
Ich würde annehmen, dass man beide Kerne ähnlich auslegt. Sparsam, Kompakt, hohe IPC, gut für Mobile. Skalierbar zwischen 5...100 W.
Im Prinzip wie Intels Core.
Ich hoffe, das bedeutet nicht, dass Zen der kleinere Kern wird.
Anzunehmen, aber viel Unterschied wirds sicherlich nicht.
Davon ab könnte das ziemlich schnell egal sein, Danke Vulkan wirds demnächst auch genügend Spiele unter Linux geben und das läuft bekanntlich auch auf nem ARM.
Solange man keine andere x86-only Software hat, sollte man also umsteigen können.
fondness
2015-04-02, 20:19:40
Ich hege schon länger den Verdacht das Zen "nur" ein Beema-Nachfolger ist und man bei x86 keine Lust mehr hat auf High-End, da ohnehin aussichtslos gegen Intel. K stand bei AMD immer für High-End, das ausgerechnet der ARM-Core so heißt ist wohl kaum ein Zufall. AMD sucht schon seit einer halben Ewigkeit nach einer Möglichkeit nicht mehr direkt gegen Intel antreten zu müssen, möglich das man diese einmalige Gelegenheit mit ARM nützen will.
Ravenhearth
2015-04-02, 20:25:04
Ich hatte bei Zen mindestens auf Sandy Bridge-IPC gehofft. Der ist dann auch schon über 5 Jahre alt.
robbitop
2015-04-02, 20:37:13
Hatte AMD nicht von zukünftigen High End x86 CPUs gesprochen? Mit nem Beema Nachfolger kann mans auch gleich lassen. Die wandern nur in die Billiggeräte. Da gibts kaum Marge.
Irgendwas Coremäßiges für Notebooks sollte es schon sein.
fondness
2015-04-02, 20:39:04
Sagen wirs mal so, AMD ist über den ARM-Core deutlich gesprächiger wie über den x86-Core, das kann natürlich alles und nichts bedeuten und sich auch noch ändern.
Also die HP APUs mit nem Beema nachfolger? .... ne gescheite CPU Leistung auf Sandy oder *optimistisch-Bla*- Haswell Niveau, gekoppelt mit ner fixen GPU vlt. mit HBM macht doch viel mehr Sinn, wo man Intel durchaus angreifen kann, zumindest im Mobilen Sektor. Warum sonst lässt sich Intel dazu hinreißen, die APUs zu bashen :D?
Shared Frontend oder nicht, das sind vielleicht gerademal 20% Unterschied bei der Integer Performance, da muss viel mehr geändert werden um 50% IPC steigern zu können.
SMT macht nur sinn wenn das ein breites Design wird
Noe. SMT macht immer Sinn.
YfOrU
2015-04-02, 22:03:52
Ich hege schon länger den Verdacht das Zen "nur" ein Beema-Nachfolger ist und man bei x86 keine Lust mehr hat auf High-End, da ohnehin aussichtslos gegen Intel.
Vom wirtschaftlichen Standpunkt würde es wenig Sinn machen hier zu investieren. Puma(+) ist sehr solide und hat ein ganzes Eck mehr IPC als Silvermont/Airmont. Damit sollte man im Lowcost Segment mit geringen Aufwand recht problemlos Goldmont entgegen treten können. Im Gegensatz zu Intel ist das für AMD entspannter da die LP/LC CPU Kerne nicht bis runter zu Smartphones skalieren müssen. Beispielsweise ein günstiger 20nm Refresh für Carrizo-L/Kabini und fertig. Meine Vermutung ist das AMD die Cats in Zukunft auch weiter mit kleinen Updates mitschleifen wird. Für Entry/Essentials und günstige Custom SoCs ist das genug. Das große Defizit befindet sich an anderer Stelle.
Duplex
2015-04-02, 22:17:02
Noe. SMT macht immer Sinn.
In der Praxis vielleicht ja, aber nicht wenn man mit halber IPC unterwegs ist.
Bei der Server Specrate kommt sowas raus:
AMD BD K15: IPC 0.9-1.1
AMD K10: IPC 1.1-1.3
Intel Haswell: IPC 1.8-2.2
Schmale Kerne mit SMT kannste vergessen, selbst wenn AMD mit schmale Kerne 20-30% mehr IPC als Bulldozer (K15) drauflegen kann, Intel währe dann mit Skylake noch über 30-40% pro Kern vorraus, da hilft auch kein SMT bei AMD etwas.
AMD braucht ein Kern der pro Takt mind. so schnell wie Sandy Bridge ist, mit 4,5Ghz Turbo & 2Fach SMT kann man dann wieder was vernünftiges zeigen.
Wichtig ist das man eine Architektur hat, die mit weiterentwicklungen alle 2 Jahre 10-15% drauflegen kann, mit neuen Prozessen steigt dann vielelicht auch der Takt.
In der Praxis vielleicht ja, aber nicht wenn man mit halber IPC unterwegs ist.zeigen.
Nein. Immer. Jede CPU hat Probleme mit Cache-Misses.
Duplex
2015-04-02, 22:21:28
Nein. Immer. Jede CPU hat Probleme mit Cache-Misses.
SMT bringt dir aber nichts wenn der Konkurrent mit IPC 1.8-2.2 fährt, du braucht bei einer scheiss IPC was besseres, SMT hilft dir nicht weiter.
Da kannste gleich pro Modul 4 Cluster verbauen und hast mehr Durchsatz als SMT.
robbitop
2015-04-02, 22:29:05
Je schlechter man das Backend auslasten kann, desto mehr bringt SMT. Bei In Order Kernen bringt es enorm viel. Beim IPC schwachen Netburst brachte es auch eine Menge.
FlashBFE
2015-04-02, 22:38:05
Dafür haben Sie aber auch eine deutlich schwächere Konkurrenz als im x86 Markt. Genau das bezweifele ich. Intel lässt AMD leben und tritt bei x86 auf die Bremse. Wenn AMD ein solides x86 Produktportfolio hätte, könnten sie es sich als Nummer zwei bequem machen.
Diesen Luxus hat AMD im ARM-Markt nicht. Da gibt's genug Anbieter, die sich gegenseitig totkonkurrieren. Wenn AMDs ARM-HP-Chip ein Erfolg wird, kommen ein Jahr später MediaTek und Konsorten mit einem Chip mit doppelt so vielen ARM-Standardcores zu einem Zehntel des Preises raus. Und Nvidia steht mit seinem Tegra auch nicht still und will in den gleichen Markt rein, auch wenn es zur Zeit bei denen eher Richtung Automotive geht.
YfOrU
2015-04-02, 22:38:14
Je schlechter man das Backend auslasten kann, desto mehr bringt SMT. Bei In Order Kernen bringt es enorm viel. Beim IPC schwachen Netburst brachte es auch eine Menge.
Ja. Rückblickend hat es Intel mit ULP und Atom ganz schön vermasselt denn gegenüber ARM Cortex A8 und A9 waren die eigentlich aufs übelste verschrienen (alten) In Order Atom Kerne mit SMT richtig potent.
robbitop
2015-04-02, 22:50:21
Genau das bezweifele ich. Intel lässt AMD leben und tritt bei x86 auf die Bremse. Wenn AMD ein solides x86 Produktportfolio hätte, könnten sie es sich als Nummer zwei bequem machen.
Diesen Luxus hat AMD im ARM-Markt nicht. Da gibt's genug Anbieter, die sich gegenseitig totkonkurrieren. Wenn AMDs ARM-HP-Chip ein Erfolg wird, kommen ein Jahr später MediaTek und Konsorten mit einem Chip mit doppelt so vielen ARM-Standardcores zu einem Zehntel des Preises raus. Und Nvidia steht mit seinem Tegra auch nicht still und will in den gleichen Markt rein, auch wenn es zur Zeit bei denen eher Richtung Automotive geht.
ARM ist nicht gleich ARM. AMD will wohl eher Server SoCs auf ARM Basis bauen. Die haben mit den ULP SoCs wohl nicht viel gemein. Die Kerne dürfen mehr TDP haben und haben dafür mehr Leistung. Auch ist noch eine ganze Menge I/O und serverspezifischer Kram auf dem Fabric. Server ist eine andere Welt. Da baut kein Mediatek oder Qualcomm mal fix etwas nach.
Bisher weiß man nicht, ob der ARM Servermarkt wirklich großes Potenzial birgt.
fondness
2015-04-02, 23:38:01
Genau das bezweifele ich. Intel lässt AMD leben und tritt bei x86 auf die Bremse. Wenn AMD ein solides x86 Produktportfolio hätte, könnten sie es sich als Nummer zwei bequem machen.
Diesen Luxus hat AMD im ARM-Markt nicht. Da gibt's genug Anbieter, die sich gegenseitig totkonkurrieren. Wenn AMDs ARM-HP-Chip ein Erfolg wird, kommen ein Jahr später MediaTek und Konsorten mit einem Chip mit doppelt so vielen ARM-Standardcores zu einem Zehntel des Preises raus. Und Nvidia steht mit seinem Tegra auch nicht still und will in den gleichen Markt rein, auch wenn es zur Zeit bei denen eher Richtung Automotive geht.
Intel drückt in unfassbaren Tempo jedes Jahr eine neue Architektur raus UND senkt dabei noch laufend die TDP. Es gibt laufend IPC-Steigerung und das in einem absoluten Grenzbereich in dem sich Intel längst bewegt. Wenn das auf die Bremse treten ist dann weiß ich auch nicht. Wenn AMD glaubt da eine Chance zu haben dann wird auch was im High-Performace-Markt kommen. Wenn nicht, dann nicht. Ob es so ist ka, das alles war ja nur eine Spekulation von mir, möglicherweise wird Zen eh der Über-Core. Ich finde nur den Codenamen seltsam aber das muss nichts heißen.
OBrian
2015-04-03, 00:08:55
Zen als Codename lässt natürlich nichts Gutes hoffen, denn das ist ja die Kunst, sich zu entspannen und gar nichts zu denken, also eigentlich kein Vorbild für eine Hochleistungs-CPU ;)
Aber bei K12 habe ich das dumpfe Gefühl, AMD versucht da den stärksten ARM aller Zeiten zu bauen, nicht irgendeinen etwas stärkeren Smartphone-SoC, sondern was richtig fettes, wonach sich die Rechenzentren von Google, der NSA usw. die Finger lecken sollen.
Und es gibt ja das Projekt Skybridge, mit dem ARM- und x86-basierende APUs im gleichen Sockel austauschbar gemacht werden sollen. Das zuerst mit den altbekannten Kernen, aber das ist ganz offensichtlich nur eine Vorbereitungshandlung für K12 und Zen. Und um diese Austauschbarkeit zu erreichen, muß ja auch die TDP gleich sein, ich kann ja nicht einen 100-W-Chip in ein Board setzen, was nur 15-W-Chips abkann.
Da alle anderen Teile der beiden SoCs identisch sein werden, ergibt sich aus Gründen des vereinfachten Chip-Layouts auch, daß die CPU-Blöcke gleich groß und im gleichen Format sein müssen und mit der gleichen Fertigung hergestellt werden.
Von daher gehe ich also davon aus, daß K12 und Zen auch in der Performanceausrichtung relativ gleich sind. Entweder sind beide low-cost und low-performance Kerne, oder beide maximieren die Performance (wenn auch hoffentlich effizienter als BD, aber jedenfalls wird an die Grenze der akzeptablen TDP gegangen und an die machbare Taktgrenze).
Für letztere Möglichkeit sprechen einerseits die Aussage von vor einigen Tagen, daß es später auch richtig dicke APUs mit 200-300 W TDP geben soll (dann wohl Steckkarten für spezielle Serverformate, aber jedenfalls was mit erheblichem CPU-Anteil, nicht nur GPU wie aktuell die FirePros) und andererseits die etwas ältere Aussage, daß man die ersten Chips von Skybridge (mit stinknormalen A57 und Puma+-Kernen) langfristig anbieten wolle. Was also bedeutet, daß K12 und Zen keine Ablösung dieser sind, sondern einen anderen Marktbereich anpeilen. Der kann ja nur finanziell und performancetechnisch darüberliegen.
Vielleicht bin ich etwas durch Wunschdenken beeinflußt, aber ich sehe da eine gewisse Logik.
SMT bringt dir aber nichts wenn der Konkurrent mit IPC 1.8-2.2 fährt, du braucht bei einer scheiss IPC was besseres, SMT hilft dir nicht weiter.
Da kannste gleich pro Modul 4 Cluster verbauen und hast mehr Durchsatz als SMT.
SMT braucht wesentlich weniger Platz als volle Kerne. Das ist ein sinnloser Vergleich.
Genau das bezweifele ich. Intel lässt AMD leben und tritt bei x86 auf die Bremse. Wenn AMD ein solides x86 Produktportfolio hätte, könnten sie es sich als Nummer zwei bequem machen.
Diesen Luxus hat AMD im ARM-Markt nicht. Da gibt's genug Anbieter, die sich gegenseitig totkonkurrieren. Wenn AMDs ARM-HP-Chip ein Erfolg wird, kommen ein Jahr später MediaTek und Konsorten mit einem Chip mit doppelt so vielen ARM-Standardcores zu einem Zehntel des Preises raus. Und Nvidia steht mit seinem Tegra auch nicht still und will in den gleichen Markt rein, auch wenn es zur Zeit bei denen eher Richtung Automotive geht.
Im Serverbereich ist Single-Threaded-Performance fuer viele Sachen wegen Latenzen immer noch Gold. Da helfen viele Kerne nicht.
Intels neuere Atom-Xeons sind voellig gefloppt. Jetzt haben sie Broadwell-Xeon-SOCs mit 8 Kernen.
YfOrU
2015-04-03, 01:53:56
Hier sehe ich auch AMDs mittelfristige Zukunft im Server Segment. Potente & effiziente SoCs wie Broadwell-DE mit Produkten von 4 bis 16 Kernen und 10GbE.
Mit Broadwell-DE hat Intel für viele Applikationen ein sorglos Paket abgeliefert. Aufgrund der hohen IPC reichen moderate Frequenzen (Effizienz), die Integrationsdichte ist sehr hoch (Footprint) und das Feature Set ist praktisch das Vollprogramm. Dagegen sehen nicht nur die Silvermont SoCs ziemlich alt aus sondern auch einige aktuelle gesockelte Xeon. Würde mich nicht wundern wenn AMDs erste Zen Produkte in diesem Segment zuhause sind.
Loeschzwerg
2015-04-03, 11:40:04
Bei den Atom Xeon weiß keiner so recht was man damit machen soll... das wirkt wie Spielzeug und so wird es halt auch angenommen. Broadwell-DE bietet da ein ganz anderes Paket.
Ähnliches Problem wie bei den Atom C sehe ich momentan auch noch bei den ARM Servern. Die Dinger müssten wirklich verdammt viel Leistung bieten und selbst dann gilt immer noch dass die Kunden eigentlich kompatibel zur ihrer bisherigen Software bleiben wollen.
Nakai
2015-04-03, 12:56:20
SMT bringt dir aber nichts wenn der Konkurrent mit IPC 1.8-2.2 fährt, du braucht bei einer scheiss IPC was besseres, SMT hilft dir nicht weiter.
Da kannste gleich pro Modul 4 Cluster verbauen und hast mehr Durchsatz als SMT.
Das war doch gar nicht Codas Aussage? SMT bringt immer was. Bei einer breiteren Execution tendenziell mehr, jedoch sollte man Latenzen bei LD/ST nicht unterschätzen, vor allem wenn was nicht im Cache liegt. Siehe Xbox 360, welche mickrige In-Order-Kerne(2fach Skalar) mit 2fach SMT hatte. Dank In-Order hat man eh schon eine spärliche Pipelineauslastung, welche bei latenzhohen Speicher-Ops fies ist. OoO würde da schon dramatisch helfen, aber auch schon gute Compiler.
Im Serverbereich ist Single-Threaded-Performance fuer viele Sachen wegen Latenzen immer noch Gold. Da helfen viele Kerne nicht.
Intels neuere Atom-Xeons sind voellig gefloppt. Jetzt haben sie Broadwell-Xeon-SOCs mit 8 Kernen.
Intel wollte wohl etwas im Micro-Server-Bereich haben. Intel Atom ist eine scheussliche Architektur, IMO. Viele Operationen haben eine ziemlich hohe Latenz. Silvermont hat zum Glück für Intel einiges verbessert.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.