Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - AMDs CPU-Architekturen-Strategie (Skybridge, K12, Zen, ...)
Seiten :
1
2
3
4
5
6
[
7]
8
9
10
11
12
13
14
15
16
17
18
19
20
w0mbat
2015-05-08, 00:37:20
Der FX8350 ist aber ein Piledriver und kein Excavator. Also kannst du nochmal 10-15% draufrechnen.
Duplex
2015-05-08, 00:39:47
Dann hätten wir gleichstand mit Intels Top Modell.
Ravenhearth
2015-05-08, 00:53:19
Der taktet ja auch nur mit 3 GHz Basistakt, du nimmst 4GHz für Zen an. Wäre natürlich trotzdem nett.
Duplex
2015-05-08, 00:56:19
AMD muss ähnliche Core Performance bieten, auch die Balken müssen stimmen, Intel darf nicht 20-30% schneller sein, wenn das muss AMD richtig ran!
Nicht vergessen, Skylake wird noch einiges auf Haswell drauflegen (15%?).
Screemer
2015-05-08, 01:07:35
derzeitigem top-model. da fließt noch einiges an wasser die donau runter.
Ravenhearth
2015-05-08, 01:10:52
Das Teil kostet auch 1000€. Wenn AMD bessere Preise macht, passt das schon. Es wäre ein Anfang.
mczak
2015-05-08, 01:22:33
Ich erwarte höhere Frequenzen. "Nur" 3 GHz klingen imho selbst als Basistakt etwas wenig.
Finde ich nicht unbedingt. intel's 8-Kern Haswell Chips takten als Basis auch nicht höher (ok es gibt ein paar sehr teure Modelle die kriegen 3.2 Ghz hin aber der i7-5960X hat auch bloss 3 Ghz, und zumindest im Falle der Xeons liegt der AVX-Basistakt sogar bei allen klar unter 3 Ghz), und die liegen allesamt schon bei 135W/140W. Ich denke AMD geht wattmässig wohl eher tiefer (im Gegensatz zu intel ist das ja auch eine Mainstream-Plattform), da dürften bei 8 Kernen keine allzu hohen Frequenzen drinliegen. Lasse mich aber gerne überraschen :-).
Knuddelbearli
2015-05-08, 02:00:38
CPU Test: AMD und Intel - Benchmarks und Kauf-Tipps auch für APUs [Mai 2015] (http://www.pcgameshardware.de/CPU-Hardware-154106/Tests/CPU-Test-Benchmark-AMD-Intel-675663/)
40% IPC + 20% durch SMT würde ungefähr so aussehen
http://abload.de/img/ocfg5gjxp.jpg
Wie willst du bei nem 8 Kernern bei Spielen noch 20% durch SMT raus holen? oO
intel's 8-Kern Haswell Chips takten als Basis auch nicht höher (ok es gibt ein paar sehr teure Modelle die kriegen 3.2 Ghz hin aber der i7-5960X hat auch bloss 3 Ghz, und zumindest im Falle der Xeons liegt der AVX-Basistakt sogar bei allen klar unter 3 Ghz), und die liegen allesamt schon bei 135W/140W.
Das dessen btw. jetzt erst aufgefallen bzw. mal Thematisiert spricht auch für sich, die simple Erkenntnis das auch Intel nur mit Wasser kocht. Trotz besserer Fertigung und moderaten ja fast handzahmen Takt usw. schafften sie es nicht ihren Octa innerhalb 125w Klassifizierung zu halten. Da erscheinen AMDs Bullies diesbezüglich doch gleichsam im Nachhinein noch in einen ganz anderem Licht (wenn auch sehr, sehr verspätet)!
Klar schiebt das Ding pro Watt einiges mehr an Nutzleistung raus, aber darum geht/ging es jetzt nicht!
Vor diesem Hintergrund ist allerdings durchaus die Sorge berechtigt ob AMD es schaffen kann ein nicht CMT Design, ja gar eins mit SMT Anhängsel bei um 4GHz in 125w TDP oder weniger zu Pressen? Wiederum sie dahingehend schon einiges mehr an Erfahrung besitzen (gezwungenermaßen), aus suboptimalen Fertigungsverhältnissen das letzte herauszuquetschen. Von daher wäre oder ist es ihnen 2016 durchaus zu zutrauen. :smile:
woodsdog
2015-05-08, 06:39:36
was träumt ihr hier eigentlich zusammen?
Aus dem Stand 8 Kerne, Hasswell IPC, und >=4Ghz.... da werden wohl einige Blasen platzen.
Nun 8 Kern Hochtakt Designs sind für AMD beileibe kein Neuland mehr, dahingehende erwartungs- oder anders Anspruchshaltung durchaus berechtigt bzw. verständlich. Wenn gleich auch meine Zweifel und sowieso in sehr, sehr reservierter Abwartehaltung übergegangen.
Weiß noch nicht was von dem ganzen zu halten und wohin das zuordnen, vor allem im Hinblick auf entferntere Zukunftsbestrebungen (die hüben wie drüben am laufen), es sind auch noch zu wenige wirkliche Infos bekannt (Momentan bin eher verwirrt)!
Timbaloo
2015-05-08, 07:55:25
Klar schiebt das Ding pro Watt einiges mehr an Nutzleistung raus, aber darum geht/ging es jetzt nicht!
Worum geht es denn dann? :confused:
Das es bei einem 8 Kern Design selbst für Intel bei vergleichsweise moderat Taktung und wesentlich später nebst besseren Fertigungsausgangslage, nicht möglich gewesen es innerhalb 125w TDP halten zu können!
Während AMD dessen schon viel früher ja mit sogar auch gleichsam noch einem Hoch Takt Design, unter wesentlich suboptimaleren Fertigungsbedingungen gelang!
Speziell im Nachgang von daher schon einer gewissen extra Anerkennung noch wert. :wink:
Undertaker
2015-05-08, 08:48:13
Natürlich wäre das möglich gewesen, wenn das dafür einen Anlass gegeben hätte.
Das es keinen Intel-8-Kerner mit <95W TDP für einen Mainstream-Sockel gab und gibt, hat doch keine technischen Gründe, sondern lediglich finanzielle/produktpolitische. Mit Clarksfield gibt es seit 2009(!) mobile Quad-Cores mit 45 Watt TDP; selbst wenn man jegliche Synergieeffekte wie einen gleichbleibenden Speichercontroller (mehr als zwei Kanäle bräuchte es für ein Single-Socket Consumer-Modell nicht) vernachlässigt, wäre demnach prinzipiell bei doppelter TDP ein identisch taktender Octa-Core möglich gewesen.
Ein Gulftown 6-Kerner war anno 2010 nur 248 mm² groß und taktete mit bis zu 3,6 GHz bei 130W. Ohne größeren L3-Cache hätten auch 8 Kerne bei etwa 3 GHz in 300mm² in die gleiche TDP gepasst.
kunibätt
2015-05-08, 08:48:14
Bitte wen interessiert die Frequenz? Die Leistung muss passen und eben genau da hat AMD eine seit 2011 klaffende Lücke zu schließen.
Dieser hypothetisch 95w Intel 8 Kerner (den AMD btw. mittlerweile auch), hätte dann noch geringer Takten müssen. Im Endeffekt drehen uns an der Kante (wo es eigentlich eher um Physikalische Schranken ;) ), dann im Kreis!
Auch ist dieser Intel 8 Kerner “nur“ im Schnitt ca. 70% schneller als AMDs FX8 bei gleicher TDP Betrachtung (in Praxis und entsprechend Anwendungen wie z.b. Raytracing), wenn mich jetzt nicht gerade da total irre und vertue!?
Polemisch Mode ON
Dafür das den FX8 bis heuer beständig angedichtet das es ja gar keine echten Octas seien (nur Marketing etc.), wäre dann diese Leistung eines nach altertümlich Glaube echten nativen 8 Kerners mit sogar noch SMT obendrauf, wiederum nicht wirklich berauschend!
Polemisch Mode OFF
Duplex
2015-05-08, 09:45:31
Wie willst du bei nem 8 Kernern bei Spielen noch 20% durch SMT raus holen? oO
Es werden aber nicht nur Spiele getestet :rolleyes:
Schau genau hin was PCGH testet.
fondness
2015-05-08, 09:58:36
Eine 8Kern/16 Thread CPU in einer Mainstreamplattform, wo man sich alleine schon durchs Mainboard wohl mindestens 100 EUR spart kann man wohl locker um 500 EUR verkaufen, selbst wenn die IPC 20% hinter Intel liegen sollte. Wie schon bemerkt wurde liegen die Taktraten bei Intels 8 Kerner ja auch nicht mehr sonderlich hoch und die TDP auch bereits bei 140W. Ein i7-5960X taktet mit 3 Ghz Base und 3,5Ghz max. Turbo und kostet dabei deutlich über 1000 EUR.
Sunrise
2015-05-08, 10:06:16
Eine 8Kern/16 Thread CPU in einer Mainstreamplattform, wo man sich alleine schon durchs Mainboard wohl mindestens 100 EUR spart kann man wohl locker um 500 EUR verkaufen, selbst wenn die IPC 20% hinter Intel liegen sollte. Wie schon bemerkt wurde liegen die Taktraten bei Intels 8 Kerner ja auch nicht mehr sonderlich hoch und die TDP auch bereits bei 140W. Ein i7-5960X taktet mit 3 Ghz Base und 3,5Ghz max. Turbo und kostet dabei deutlich über 1000 EUR.
Vor allem wird das bei Intels aktueller Optimierung der Arch und Prozess auf Leistung/Watt und immer niedrigerer TDP (um in immer mehr Produkte reinzukommen) dazu führen, dass deren 8 Core immer verhältnismäßig hohe TDP haben werden. Eigentlich sollte die sogar steigen und O/C immer weiter sinken, wenn Intel dieses Spiel weiter spielt.
Deshalb ist die einzige Lösung bei aktuellem Vorgehen, beim Extreme pro Core den Takt deutlich runter zu nehmen und genau hier kann AMD auch angreifen.
Das Problem ist aber nicht AMD alleine, sondern GloFo. AMD kann theoretisch selbst dann, wenn sie die Arch hätten, unter Umständen nicht alles umsetzen, wenn GloFo keine ordentliche Arbeit macht.
Im Mainstream bzw. bei aktuell noch reinen 4 Cores hat AMD deutlich schlechtere Chancen, da muss schon ein Wunder passieren, bei der Geschwindigkeit die Intel hier vorgibt. Hier kann man daher lediglich mit der integrierten GPU und ein paar sinnvollen Ergänzungen (deshalb die APUs) ansetzen. Das wird aber unverhältnismäßig viel Aufwand erfordern, vor allem weil man dann auch aufgrund der GPU evtl. die CPU-Taktfrequenzen wieder runternehmen muss. Aber das bleibt abzuwarten.
fondness
2015-05-08, 10:19:18
Das ist richtig, ich bin gespannt ob AMD wieder einen eigenen SHP-Prozess von GF bekommt oder wie das abläuft. Ansonsten muss man sich wohl zwangsläufig auf deutlich niedrigere Taktraten einstellen, denn Samsung hat AFAIK wieder nur SoC-prozesse im Programm.
Dural
2015-05-08, 10:34:20
Jedes mal das gleiche, AMD wedelt mit irgend welchen Zahlen und die Fanboys drehen schon fast durch. Ich frage mich wie so das bei den Intel und NV Fanboys nie so extrem ist :confused:
Es würde ein Wunder sein, sollte AMD nächstes Jahr mit Intel mithalten können, ich Tippe aber auf eher nicht ;)
AMD hat die Möglichkeit nächstes Jahr eine solide Basis auf den Markt zu bringen, genau das sollte AMDs ziel sein und nichts anderes. Den genau das fehlte AMD bis jetzt die ganzen Jahre, nämlich eine vernünftige CPU Architektur.
Blediator16
2015-05-08, 10:48:00
Jedes mal das gleiche, AMD wedelt mit irgend welchen Zahlen und die Fanboys drehen schon fast durch. Ich frage mich wie so das bei den Intel und NV Fanboys nie so extrem ist :confused:
Es würde ein Wunder sein, sollte AMD nächstes Jahr mit Intel mithalten können, ich Tippe aber auf eher nicht ;)
AMD hat die Möglichkeit nächstes Jahr eine solide Basis auf den Markt zu bringen, genau das sollte AMDs ziel sein und nichts anderes. Den genau das fehlte AMD bis jetzt die ganzen Jahre, nämlich eine vernünftige CPU Architektur.
Du und Tegra. Merkste nicht wa?
robbitop
2015-05-08, 11:23:18
Dieser hypothetisch 95w Intel 8 Kerner (den AMD btw. mittlerweile auch), hätte dann noch geringer Takten müssen. Im Endeffekt drehen uns an der Kante (wo es eigentlich eher um Physikalische Schranken ;) ), dann im Kreis!
Auch ist dieser Intel 8 Kerner “nur“ im Schnitt ca. 70% schneller als AMDs FX8 bei gleicher TDP Betrachtung (in Praxis und entsprechend Anwendungen wie z.b. Raytracing), wenn mich jetzt nicht gerade da total irre und vertue!?
Polemisch Mode ON
Dafür das den FX8 bis heuer beständig angedichtet das es ja gar keine echten Octas seien (nur Marketing etc.), wäre dann diese Leistung eines nach altertümlich Glaube echten nativen 8 Kerners mit sogar noch SMT obendrauf, wiederum nicht wirklich berauschend!
Polemisch Mode OFF
Im Cinebench (Multithread) ist man 108 % schneller bei 15 W mehr TDP (140W vs 125 W). Reduziert man den Takt ein wenig sind es aber immernoch 100 % mehr Leistung bei gleicher TDP. Das ist schon ordentlich. Selbst Intels 4 Kerner mit SMT vermöbeln AMDs "8 Kerner".
Ein Intel Kern mit SMT ist selbst bei MT schneller als ein BD Modul mit CMT.
Dein Polemisch Mode enthält übrigens nicht allzu viel Wahres. Es gibt keinen "Glauben" in der Technik. Es gibt Fakten und Definitionen. Ein Modul sind keine 2 Kerne.
fondness
2015-05-08, 11:39:55
Im Mainstream bzw. bei aktuell noch reinen 4 Cores hat AMD deutlich schlechtere Chancen, da muss schon ein Wunder passieren, bei der Geschwindigkeit die Intel hier vorgibt. Hier kann man daher lediglich mit der integrierten GPU und ein paar sinnvollen Ergänzungen (deshalb die APUs) ansetzen. Das wird aber unverhältnismäßig viel Aufwand erfordern, vor allem weil man dann auch aufgrund der GPU evtl. die CPU-Taktfrequenzen wieder runternehmen muss. Aber das bleibt abzuwarten.
Das ist natürlich ebenso richtig. Deshalb macht es auch absolut Sinn, dass AMD zuerst mit einem 8 Kerner kommt. Denn erstens hinkt Intel da eh immer mindestens ein Jahr hinterher, es wird also 2016 sicher noch keinen SkylakeEX geben und zum anderen ist wie schon gesagt die Plattform verdammt teuer und die Chips takten nicht mehr so hoch. Und eine 8 Kerner kann man natürlich auch zu deutlich höheren Preise und zusätzlich auch im Server-Markt verticken. Im Notfall muss man halt dann gegen die Quadcores von Intel einen 6 Kerner stellen oder Spielchen wie deaktiviertes HT lassen, so hat man wenigstens bei MultiThreading Vorteile.
Cinebench ist für diese Art an Plattformübergreifend Vergleichens Irrelevant oder nur unter äußerst vorbehaltlichen Rahmenbetrachtungen zu gebrauchen (unter Insidern längst bekannt nebst dessen quasi indirekt auch von Maxon zugegeben, für Cinebench wird nen anderer Compiler verwendet)! Die Main Versionen des Programms anders Performen und u.a. PCGH taten schon gut daran das aus ihrem Setup zu nehmen (ernsthaft)! ^^
Wobei es aktuell dort eine Anomalie im R16 zu geben scheint, das Ding renderte in einem Projekt um 30sek langsamer als gleiches über R14. Bei Augenscheinlich keinerlei Unterschied im Endergebnis (beim Bildvergleich per Auto-Looping immer hin und her Switch). :| Bisher allerdings nur auf aktuellen AMDs so verifiziert ob es unter Intels oder älteren K10 ähnlich, ist noch offen!? Möglicherweise Bug oder Unaufmerksamkeit beim Compiler-Setup oder gar vielleicht auch gezielt? Letzteres wäre schon fade und madig wenn dessen nu auch ins Hauptprodukt fließen täte, von daher geht man zur Stunde nicht davon aus. :wink:
Davon abgesehen scheint es bei Blender diesbezüglich ebenso Leichen im Keller zu geben? Hinsichtlich auf die Spezifika der Bullies+, scheint das nicht sonderlich optimiert zu sein (wenn überhaupt?)! Wenn sogar Intel 4 Kerner ohne HT es in/mit dem Teil schaffen in auffällig Nähe eines FX8 zu gelangen! :ucoffee:
PS: Bezüglich Blender, mag sein das es gerade mit Pov Ray verwechsle, ohnehin mir das nur zuletzt mal beim vorbeigehen wieder aufgefallen (http://www.computerbase.de/2014-09/amd-fx-8370e-im-test/2/#diagramm-pov-ray) hab das also gerade nicht mehr so präsent. Also falls da Blender unrecht getan sorry wobei mich fast deucht das es da auch ähnlich und wie schon schrieb (irgendwie was im Hinterkopf noch)?
tm0975
2015-05-08, 12:47:05
Im Cinebench (Multithread) ist man 108 % schneller bei 15 W mehr TDP (140W vs 125 W). Reduziert man den Takt ein wenig sind es aber immernoch 100 % mehr Leistung bei gleicher TDP. Das ist schon ordentlich. Selbst Intels 4 Kerner mit SMT vermöbeln AMDs "8 Kerner".
Ein Intel Kern mit SMT ist selbst bei MT schneller als ein BD Modul mit CMT.
cinebench ist wohl kein geeigneter benchmark für einen amd-intel vergleich. man darf die aktivitäten des unlauteren wettbewerbs bei intel nciht gänzlich außer acht lassen, die auch das beeinflussen von benchmark-suiten, compilerverwendung etc. beinhalten. weitestgehend wird doch das getestet, was intel will und wie es intel will. wen wundern da die ergebnisse? schon allein die tatsache, dass cinebench überhaupt kein programm des täglichen bedarfs oder der verbreiteten nutzung darstellt, sollte das ergebnis hinreichend irrelevant machen.
ups. zu spät...
Ravenhearth
2015-05-08, 12:58:24
Die Compiler-Geschichte schon wieder? Ernsthaft? Gibt es handfeste Beweise dafür?
BTW: Bei Cinebench wird die Leistung in Cinema4D getestet.
Das ist richtig, ich bin gespannt ob AMD wieder einen eigenen SHP-Prozess von GF bekommt oder wie das abläuft. Ansonsten muss man sich wohl zwangsläufig auf deutlich niedrigere Taktraten einstellen, denn Samsung hat AFAIK wieder nur SoC-prozesse im Programm.
SHP-Pozesse sind tot, die waren für ~200W CPU gut, die bekanntlich keiner mehr will.
Steht auch auf Folien 12 mit AMDs Investitionsschwerpunkten, AMD wird keinen eigenen extra Fertigungsprozess bezahlen/bestellen.
Braucht man auch nicht, die neue Arch wird ja sowieso für weniger GHz designt und die HDLibs kosten auch etwas Frequenzspielraum.
Auf der Habenseite stehen aber immerhin Finfets.
fondness
2015-05-08, 13:13:19
Die Compiler-Geschichte schon wieder? Ernsthaft? Gibt es handfeste Beweise dafür?
BTW: Bei Cinebench wird die Leistung in Cinema4D getestet.
Cinebench verwendet Intels Fortran C++ Compiler, das ist Fakt. Wenn Cinebench eine nicht-Intel-CPU erkennt ist der Score niedriger, ebenfalls Fakt: https://www.ftc.gov/sites/default/files/documents/cases/091216intelcmpt.pdf
Es wird also ein optimierter Pfad ausgeführt wenn eine Intel-CPU erkannt wird, dafür gibt es sogar eine eigenen inoffiziellen Patch um bei AMD-CPUs eine Intel-CPU vorzutäuschen und so höhere Scores zu erzielen. Als Vergleich ist dieser Benchmarks also denkbar ungeeignet. Ganz davon abgesehen, dass Cinebench eh hauptsächlich die FPU-Performace und kaum die meist viel wichtigere INT-Leistung misst.
Man könnte sich ja mal fragen warum es eigentlich kein aktuelles Mäusekino gibt was im Detail anzeigt welche Funktionen der FPU gerade verwendet (vom Auslastungsgrad wollen ja noch nicht mal sprechen), für all möglichen Kokolores gibt es so was!? ^^
Und bis K10 hatte man dort auch noch ein Tool, wenn auch eher eingeschränkt und bei Optisch wenig ansprechend in jeden nix um es Sidebar artig zu nutzen. Von daher dürfte es kein technischen Grund geben warum es dafür nichts gibt? Bzw. gibt es dieses Tool noch immer nur zeigt eben die aktuelle Version (http://www.cpuid.com/downloads/perfmonitor-2/perfmonitor-2_2.04.zip) solches nicht mehr an, die ältere konnte das, da wurde gezeigt was gerade genutzt von Software X (SSE2, 3 .. usw.)! Und über jenes konnte man damals erkennen das der Cinebech bei den AMDs u.a. SSE3 nicht verwendete (die Main version hingegen schon).
PS: @Ravenhearth
Und magst mir gerade ernsthaft was zu Cinema 4d (main) und dessen Performance verklickern wollen? Der Cinebench zeigte bisher gerade DAS noch nie, zumindest was rund um AMDs belangt!
Cinebench verwendet Intels Fortron Compiler
All Hail Fortron!
fondness
2015-05-08, 13:18:42
Fortran.
Knuddelbearli
2015-05-08, 13:24:41
ich hoffe:
IPC auf Sandy Bridge Niveau
4 Kerne mit 4GHZ Basis und um die 4,4ghz boost 95W TDP
8 Kerne mit 3,4GHz Basis xx Boost ( im Idealfall sollte auch annähernd 4,4 möglich sein aber das hat mom nicht mal Intel und AMD hatte bisher meist weit schlechter fungierende Boosts ) 125W TDP
OC 5,5GHz ( man wird ja träumen dürfen :freak: )
damit wäre man ~5-20% hinter Intel mit ihren aktuellen CPUs dann, das lässt sich schon verkaufen
robbitop
2015-05-08, 13:26:48
cinebench ist wohl kein geeigneter benchmark für einen amd-intel vergleich. man darf die aktivitäten des unlauteren wettbewerbs bei intel nciht gänzlich außer acht lassen, die auch das beeinflussen von benchmark-suiten, compilerverwendung etc. beinhalten. weitestgehend wird doch das getestet, was intel will und wie es intel will. wen wundern da die ergebnisse? schon allein die tatsache, dass cinebench überhaupt kein programm des täglichen bedarfs oder der verbreiteten nutzung darstellt, sollte das ergebnis hinreichend irrelevant machen.
ups. zu spät...
Bei 3D Partikles ist es noch schlimmer für AMD (gleicher Link). Welcher Benchmark soll denn deutlich besser sein? Für perfekte MT Auslastung.
Alle MT Benchmarks die ich gesehen habe ändern aber an meiner Aussage nichts. 1 Intel Kern mit SMT > 1 BD Modul mit CMT.
Fortran.
Stimmt trotzdem nicht, Cinebench ist natürlich Intel C++, nicht Fortran.
Aber ja, Cinebench ist die eine Ausnahme wo ich vorsichtig wäre mit dem Compiler-Kram.
fondness
2015-05-08, 13:33:05
Ja möglich das habe ich nur schnell gegooglet.
fondness
2015-05-08, 13:39:27
Bei 3D Partikles ist es noch schlimmer für AMD (gleicher Link). Welcher Benchmark soll denn deutlich besser sein? Für perfekte MT Auslastung.
Alle MT Benchmarks die ich gesehen habe ändern aber an meiner Aussage nichts. 1 Intel Kern mit SMT > 1 BD Modul mit CMT.
Wenn man schon warum auch immer unbedingt mit Cinbench testen will, sollte man wenigstens den Intel Compiler Patcher v1.0 verwenden, damit wird dem Bench eine Intel-CPU vorgegaukelt und oh Wunder der Score auf nicht-Intel-CPUs steigt.
Flusher
2015-05-08, 13:46:14
Wenn man schon warum auch immer unbedingt mit Cinbench testen will, sollte man wenigstens den Intel Compiler Patcher v1.0 verwenden, damit wird dem Bench eine Intel-CPU vorgegaukelt und oh Wunder der Score auf nicht-Intel-CPUs steigt.
Auf welches Level? Ist plötzlich Bulldozer dann auf Haswell Niveau?
robbitop hat es schon geschrieben
Alle MT Benchmarks die ich gesehen habe ändern aber an meiner Aussage nichts. 1 Intel Kern mit SMT > 1 BD Modul mit CMT.
fondness
2015-05-08, 13:51:07
Ehrlich gesagt habe ich es zuletzt auf einem K10 probiert, keine Ahnung ob das heute überhaupt noch funktioniert, aber solche Dinge sollte ausreichen um einen solchen Benchmark mit sehr viel Vorsicht zu betrachten. Das natürlich ein aktueller Haswell-Kern mit SMT bei gleichem Takt schneller ist wie ein BD-Modul bestreitet denke ich niemand.
Kommen wir vielleicht mal zum Punkt der sich Erdung nennt (Aufschlag kann hart sein). :smile:
Benchmarken ist im allgemeinen Mist und Augenwischerei, speziell was Anwendungen belangt! Bei Spielen kann man sich bis gewissen Grad noch drauf einlassen weil es dort eher möglich in etwa übertragbar relevante Vergleichsbedingungen herzustellen. Sprich was der Endanwender auch zu Hause dann so im Alltag erwarten kann (wenn er dieses Spiel mit Setup X daddelt). Wir blenden mal das ganze Gemurkse rund um Treiber aus (wo beständig hier und da Nuancen an mehr mit der zeit rauf kommen).
Selbiges ist quasi unter Anwendungen unmöglich, da dessen zu sehr variabel oder Wandeln die Leute die ganze Zeit den selben Film, Packen den gleichen Content, arbeiten am selben Projekt in Photoshop oder After Effect und weiß der Geier und Co (die Richtung worauf hinaus möchte sollte klar geworden sein?)! Da gibt so starke Schwankungen, teils bis ins extreme (vom einem Fall zum anderem), das nicht mal allgemeine Aussagen bezüglich zur Durchschnitts erwartbaren Performance seriös möglich.
Da wäre ja auch Cinebench schon gleich ohnehin ein Perfektes Beispiel für, selbst wenn da alles koscher wäre würde das nichts taugen (zum ablesen für die Praxis)! Stellst nur um Nuancen was anderes bei dem beispielszenario und schon kann sich das völlig geändert haben (kürzere oder exorbitant längere Zeiten). Auch weil unterschiedliche Effekte unterschiedliche Auslastungsgrade an die HW stellen.
Wenn man da Ahnung hat bzw. gleichsam ein/überblick über die funktionsweise des Renderers (Dev ebene), lässt sich schon allein bei dem Punkt vieles Tricksen und hin faken um zu Ergebnis X zu gelangen.
Da passt das Sprichwörtliche fast wie die Faust, aka traue keiner Statistik die du nicht selbst gefälscht!
robbitop
2015-05-08, 14:07:32
Es geht doch hier gar nicht um exakte akademisch korrekt ermittelte Werte sondern um eine generelle Tendenz*. Dafür reicht das schon.
*dass AMDs Modul weniger leistet als Intel pro Kern.
Die Aussage sollte mMn klar und unstrittig sein. Und dass AMD verdammt viel aufzuholen hat. Wieviel Prozent genau hängt von vielen Faktoren ab und das führt hier auch zu weit.
Klar aber der Punkt, das AMD eh ohnehin vielleicht nie gewinnen kann (so wirklich), weil übertragen gesehen immer mit noch nem zusätzlichen Gewicht um Hals erst zum Schwimmen zugelassen, bleibt irgendwo bestehen (bohrendes Restzweifeln). :confused:
Das könnte sich auch erst auflösen wenn es solche Tools gibt die gefordertes anzeigen*, frag mich sowieso warum es keine Auslastungsanzeigen der FPU Einheiten an sich gibt (fürs Mäusekino)? Wäre doch mal ganz interessant und weiteres was we uns sicher gerne mit am Desi-rand packen täten (zum munteren Bälckchen gucken aus den Augenwinkeln). :biggrin: Selbst wenn das nicht, muss es doch technisch möglich sein da irgendwo noch mit im Fenster in Kleintextform einzublenden auf welche Art das teil gerade (SSE, AVX etc.)!?
*Schon klar das wenn wirklich gewollt und mit Vorsatz (Geschenke von Intel), oder Böswilligkeit seitens Devs da ebenso noch zu drehen möglich. Aber zumindest bei all den älteren Softwarebeständen ließe sich im Nachhinein usw. Und noch viel wichtiger so würde eher im allgemeinen auffallen wenn es sich um ungewolltes handelt, speziell bei weniger erfahrenen Proggern auf die man dann hinweisen kann. :smile:
So Art ,,eh Du is dir aufgefallen das deine Software SSE4 unter Intels benutzt aber bei den AMDs nur mit SSE2 am gurken, ist das so gewollt (verschenkst doch Leistung)?''
y33H@
2015-05-08, 16:56:59
Benchmarken ist im allgemeinen Mist und Augenwischerei, speziell was Anwendungen belangt!Solche Aussagen wie deine sind im Allgemeinen Mist.
Wenn ich mit Lightroom ein echtes Projekt am Laufen habe und die Renderzeit bei mehreren CPUs mit ansonsten identischem System messe ist das auch "benchmarken". Und es sehr wohl eine reale, vergleichbare Anwendung.
Ah jo und diese Lightroom Projekte bleiben sich immer gleich und ändern sich nie, nicht nur das man selber hat genau die Gleichen und andere auch, wir haben nie nen anderes Thema, schon klar!
Das hatte eben in etwa den Aussagewert bzw. Charakter als wenn etwa seitens Hollywood immer der gleiche Film jedes Jahr erneut Produziert und in die Kinos gebracht.
Timbaloo
2015-05-08, 17:43:47
Ah jo und diese Lightroom Projekte bleiben sich immer gleich und ändern sich nie, nicht nur das man selber hat genau die Gleichen und andere auch, wir haben nie nen anderes Thema, schon klar!
Was willst du eigentlich aussagen? Dass man nicht mehr benchen sollte? Ein Benchmark von X durchgeführt wird nie exakt das Anforderungsprofil von Y treffen. Und wenn man selbst testet passt dir das auch nicht weil sich ja immer wieder irgendwas ändert. Wie stellst du dir das vor? :confused:
Dunkeltier
2015-05-08, 18:08:30
Benchmarken ist kein Mist. Es macht schon einen Unterschied, ob man ein Spiel mit 20 oder mit 60 FPS genießen kann. Oder ob die Datenbank in 10 statt 25 Sekunden öffnet. Wäre dem nicht so, könnten alle ja den billigsten und kleinsten AMD/Intel-Prozessor kaufen und damit glücklich sein. Weil die Alltagsperformance in der Praxis ja nicht auffallen und relevant sein würde. :rolleyes:
y33H@
2015-05-08, 18:09:58
Ah jo und diese Lightroom Projekte bleiben sich immer gleich und ändern sich nie, nicht nur das man selber hat genau die Gleichen und andere auch, wir haben nie nen anderes Thema, schon klar!Glückwunsch, du hast den Sinn von Benchmarks verstanden. NOT ;(
Tipp: Es geht darum unterschiedliche Chips unter möglichst identischen Voraussetzungen zu testen, damit klar wird, welches schneller/sparsamer/whatever ist.
Ja genau das, befreit Euch davon daran irgendwas allgemein aussagendes ablesen zu wollen/können! Noch dazu wo nicht mal offengelegt und oder überwiegend seltenes gesagt werden kann ob Anwendung X CPU Architektur Y überhaupt optimal nutzt (dessen ihrer Möglichkeiten). Was möchte ich denn unter solch schwammigen Voraussetzungen Benchen im sinne eines fairen Duells oder gar Architektur Vergleichens?
Wenn überhaupt dann sollten unter solch Vorzeichen nur Hausintern gem. nur AMD unter sich und die Intels ebenfalls nur untereinander verglichen werden! Und damit kommen wieder auf dem Punkt zurück, solange nicht wenigstens rudimentär ersichtlich was und wie überhaupt genutzt von der jeweiligen CPU Architektur, ob es dann bei allen z.b. SSE4 (insofern sie es können), oder wenn AVX2 bei AMD dann wenigstens AVX oder alternativ Kniffe die ihnen besser munden für Code Aufgabenstellung X usw. Könnte man nur eins ableiten das vielleicht besser ein Intel zu kaufen weil als Endanwender im Zweifel dagegen eh nichts machen könnte und wenn auf Software X angewiesen. Aber im Kern sollte es doch dabei immer um etwas anderes gehen und nicht ums Gewinnen durch Unterlassen!
Und man darf ja nicht vergessen wie viel Gewicht bei dem Gemeinen da draußen diesen diversen Benches beigemessen (ohne überhaupt zu hinterfragen oder zu gewichten)!
Siehe hier, hatten das Thema schon .. Stichwort: Cinebench!
PS: @y33H@
Könntest also mit Redaktioneller Hand dafür ins Feuer sagen das bei den AMDs und bleiben wir gleich mal beim Beispiel Lightroom. Diese genauso versucht effizient von seitens Adobe auszunutzen (mit spezifischen Code Pfaden), wie es sehr wahrscheinlich für die Intels der Fall (davon ist schon allein auszugehen wegen der höheren Verbreitung)?
Dunkeltier
2015-05-08, 18:20:51
Ja genau das, befreit Euch davon daran irgendwas allgemein aussagendes ablesen zu wollen/können! Noch dazu wo nicht mal offengelegt und oder überwiegend seltenes gesagt werden kann ob Anwendung X CPU Architektur Y überhaupt optimal nutzt (dessen ihrer Möglichkeiten). Was möchte ich denn unter solch schwammigen Voraussetzungen Benchen im sinne eines fairen Duells oder gar Architektur Vergleichens?
Wenn überhaupt dann sollten unter solch Vorzeichen nur Hausintern gem. nur AMD unter sich und die Intels ebenfalls nur untereinander verglichen werden! Und damit kommen wieder auf dem Punkt zurück, solange nicht wenigstens rudimentär ersichtlich was und wie überhaupt genutzt von der jeweiligen CPU Architektur, ob es dann bei allen z.b. SSE4 (insofern sie es können), oder wenn AVX2 bei AMD dann wenigstens AVX oder alternativ Kniffe die ihnen besser munden für Code Aufgabenstellung X usw. Könnte man nur eins ableiten das vielleicht besser ein Intel zu kaufen weil als Endanwender im Zweifel dagegen eh nichts machen könnte und wenn auf Software X angewiesen. Aber im Kern sollte es doch dabei immer um etwas anderes gehen und nicht ums Gewinnen durch Unterlassen!
Und man darf ja nicht vergessen wie viel Gewicht bei dem Gemeinen da draußen diesen diversen Benches beigemessen (ohne überhaupt zu hinterfragen oder zu gewichten)!
Siehe hier, hatten das Thema schon .. Stichwort: Cinebench!
Warum? Autos werden auch untereinander vergleichen. Ob und wie ein Auto auf seine Geschwindigkeit kommt, durch einen 3, 4, 5, 6 oder 8 Zylinder - Benzin oder Diesel ist doch scheißegal. Entscheidend ist, was am Ende hinten bei rumkommt. Und das ist bei AMD nicht sehr überzeugend. Schluckt viel und leistet wenig.
Das Beispiel hinkt (ok wie meist immer bei Autovergleichen betreffs IT) :biggrin:
hmmm... und wie Presse das gegen Ding nun in die gleiche Metapher? Ja ok das passt vielleicht, wenn bei nem 8 Zylinder diesen aber nur mit 6 oder 4 töppen absichtlich/forciert oder durch Bedienfehler (oh ja das hinkt völlig ;D), antreten lasse und die Anderen dürfen aber auf ihr volles Spektrum zurückgreifen noch dazu es aber weder für den Tester noch Außenstehende so ersichtlich, nujo wir wissen dann was rauskommt: :freak:
Urteil, Karre taugt nix und säuft dazu noch unangemessen viel Sprit, zudem Steuern ach und Keks, brechen es lieber ab :wink:
y33H@
2015-05-08, 18:51:02
Könntest also mit Redaktioneller Hand dafür ins Feuer sagen das bei den AMDs und bleiben wir gleich mal beim Beispiel Lightroom. Diese genauso versucht effizient von seitens Adobe auszunutzen (mit spezifischen Code Pfaden), wie es sehr wahrscheinlich für die Intels der Fall (davon ist schon allein auszugehen wegen der höheren Verbreitung)?
Nein, das kann ich nicht. Das ist dem Endkunde auch egal, weil die Software ist so auf dem Markt wie sie eben ist. Man kann und sollte kritisieren wenn ein IHV bevorteilt wird, aber das ändert am Ist-Zustand nichts. Ob Lightroom spezielle Befehlssätze bei Intel nutzt, aber bei AMD trotz Vorhandensein, entzieht sich (aktuell) meiner Kenntnis. War nur ein Beispiel, da populäre Software.
Wenn überhaupt dann sollten unter solch Vorzeichen nur Hausintern gem. nur AMD unter sich und die Intels ebenfalls nur untereinander verglichen werden! Und wie soll der potenzielle Käufer dann wissen ob der 150 Euro AMD oder der 150 Euro Intel Chip besser ist? Dran schnüffeln?
kunibätt
2015-05-08, 18:59:54
Echt selten soviel Blech auf einer Seite gelesen.... 1) Es gibt genug Software; wo dder Quellcode offen ist. Da kann sich jeder selbst von überzeugen; dass AMDs schlechte Performance sicher nicht irgendwelchen VS geschuldet ist. 2.) Haben sie sich unter FPU Last selbst kaum vom Phenom X6 absetzen können. Damit wäre die CPU ja sogar nach deinen verqueeren Maßstäben schlecht XD
Habe dafür auch keine wirklich Lösung, aber oft ist es doch so das es eh in Tendenz egal wäre und man die Anwender lieber anhand anderer Aspekte zur Entscheidungsfindung kommen lassen sollte.
Z.b. die Infrastruktur, welche Ausstattung haben die jeweiligen Boards zu Preislage X, was bekomme insgesamt bei wem fürs Geld.
PS: @kunibätt welche Art von FPU Last? Diese eher Fangfrage dazu dient um schon den Punkt aufzuzeigen! Wenn man die teile nicht richtig nutzt eben nicht viel bei rum kommt! Da ich selber auch noch einen K10 X6 in nähe kenne um so Phänomene des vorher nachher, etwa wie ein Handbrake von heute verglichen zu älteren Versionen zugelegt und ein FX8 nun schon relativ deutlich vermag das Teil abzuhängen! Ich denke mal schon das es damit im Zusammenhang, daß die aktuelleren AMDs zwischenzeitlich auch speziellere Pfade spendiert bekommen (Handbrake ja eh "nur" ne Art GUI Aufsatz für ach shit das hab grad nicht präsent aka entfallen :/ )!? Ja man weiß es halt nicht und wäre wieder der Punkt, vielleicht ist es ja auch nur weil man heuer tendenziell eher HD Formatig und früher SD und in/bei höherer Auflösung irgendwas Y. :freak:
Gipsel
2015-05-08, 19:03:47
Ich schlage vor, wir konzentrieren uns hier auf das Thema des Threads. Für die Benchmarkdiskussion gibt es wohl geeignetere Orte.
Skysnake
2015-05-08, 19:33:50
Danke Gipsel, war/ist ja echt schlimm mit dem...
Unicous
2015-05-08, 22:25:06
David Kanter von RWT fragte sich (zusammen mit Scott Wasson von Tech Report) auch wie die Zahl zustande kommt und ob da SMT mit einberechnet wurde: Das wäre natürlich nicht so schön.
Hier ein fast 2 Stunden Gespräch zum FAD auf Twitch. (Gibt es sicherlich auch bald auf dem YT-Kanal)
http://www.twitch.tv/thetechreport/b/657091841
edit: Nanu? Wo ist den y33H@'s Post hin?
R.I.P.
2015-05-09, 08:11:19
Weiter oben wurde in Frage gestellt, ob AMD jemals Intel in Leistung erreichen würde? Aber,...muss Amd das wirklich? MMn muß das Amd überhaupt nicht.
Die CPU Leistung einer aktuellen APU, welche wohl wirklich Jahre hinter Intel hinkt, was reine Rechenleistung betrifft, reicht 90% der Anwender vollkommen aus (also ohne Spieler, Photoshopper, etc. miteinzubeziehen). Durch die 14nm Fertigung wird Amd strukturtechnisch endlich beinahe auf derselben Ebene spielen wie Intel. Das gab es schon lange nicht mehr. Amd wurde immer zerrissen, wie Scheiße die Cpus doch sind...wäre wirklich interessant gewesen, wie ihre Cpus in gleicher Intel-Fertigung gewesen wären...
Reine theoretische und nicht praktische Benchmarks sind mMn wirklich Kacke und absolut nichtsaussagend, das noch am Rande.
Zurück zur ersten Aussage: wenn Amd auch nur in die Nähe von Intel kommt, reicht es vollkommend. Meistens waren Amds Cpus günstiger, aber ein bisschen langsamer. Mir würde das vollkommen reichen. Und den meisten hier auch, obwohl sie es nicht zugeben wollen. Die meiste Zeit ist die Cpu doch am Däumchendrehen und am Träumen, als sie noch Sand an Meer war...
Zurück zur ersten Aussage: wenn Amd auch nur in die Nähe von Intel kommt, reicht es vollkommend. Meistens waren Amds Cpus günstiger, aber ein bisschen langsamer. Mir würde das vollkommen reichen. Und den meisten hier auch, obwohl sie es nicht zugeben wollen. Die meiste Zeit ist die Cpu doch am Däumchendrehen und am Träumen, als sie noch Sand an Meer war...
So siehst aus 100% Intel IPC ist utopisch, aber so max. 20% weniger unter Ausgleich von mehr Kernen und ner besseren Plattform, z.B. durch AM4 mit PCIe-Lanes auf Intel 2011 Niveau zeitgleich mit nem etwas günstigeren Preis ließe bei AMD wohl die Kassen klingeln.
Zwischen Sockel 1150 und 2011 seh ich da ne ausreichend große Lücke.
- Dual-Channel DDR4 und ~40 PCIe Lanes
- Mainboardpreise um die 150-200 Euro mit den üblichen Ausreißern nach oben/unten
- CPU-Preise:
~110 Euro (Quadcore ohne SMT) analog Intels i3
~170 Euro (Quadcore mit SMT) analog Intels i5
200-350 Euro 6core mit/ohne SMT analog Intels i7-47xx
400-600 Euro (8Core mit SMT) analog Intels 6core i7-58xx
Also grob irgendwo zw. Intels i7-4xxx und i7-5xxx, natürlich mit grundsätzlich freien Multiplikatoren.
Nicht adressieren würde AMD damit nur den i7-5960X mit 8 Kernen, aber der kostet auch 1000 Euro, d.h. dessen Marktanteil wird gering sein.
So ein Angebot fänd ich dann aus Kundensicht schon attraktiv genug, im Grund wärs das gleiche wie damals der K10-X6.
Der war meistens auch langsamer als ein Intel Quad mit SMT, aber die 2 zusätzlichen echten Kerne waren schon damals attraktiv genug, um sich doch ein AMD-System zu kaufen. IPC wird mit DX12 und Vulkan noch uninteressanter, da sollte AMD relativ gute Argumente haben, insbesondere wenn die IPC ggü. BD steigt.
Knuddelbearli
2015-05-09, 13:28:23
Die CPU Leistung einer aktuellen APU, welche wohl wirklich Jahre hinter Intel hinkt, was reine Rechenleistung betrifft, reicht 90% der Anwender vollkommen aus (also ohne Spieler, Photoshopper, etc. miteinzubeziehen). Durch die 14nm Fertigung wird Amd strukturtechnisch endlich beinahe auf derselben Ebene spielen wie Intel. Das gab es schon lange nicht mehr. .
Der schnellere wird seine CPUs aber immer leichter verkaufen, ist leider so siehe NV vs AMD wo AMD mit wenigen ausnahmen eigentlich immer weit die bessere P/L lieferte die letzten Jahre und teilweise sogar beim Verbrauch führend war. Aber eben immer nur 2ter war.
Und an dem Fertigungsunterschied ändert sich in Wirklichkeit nicht viel. 14nm heißt zwar 14nm ist aber eigentlich nur 20nm mit 3D ist also 10nm vs 20nm. Also ident zu jetzt 28nm vs 14nm.
Und an dem Fertigungsunterschied ändert sich in Wirklichkeit nicht viel. 14nm heißt zwar 14nm ist aber eigentlich nur 20nm mit 3D ist also 10nm vs 20nm. Also ident zu jetzt 28nm vs 14nm.
Grob richtig, aber in der Detailsicht muss man Samsungs 14nm ne kleine Verbesserung zugestehen, das sind keine reinen 20nm ... sondern salopp ausgedrückt ~ "18nm", das ist auch der Unterschied zu TSMC, die ihren Prozess 16nm nennen, eben weils nur 20+3D ist.
Und dann wären da noch AMDs HDLibs, damit können sie zumindest in der Transistorendichte gleichziehen. Kostet zwar Takt -aber hej, besser als gar nix.
Limit
2015-05-09, 20:39:11
Weiter oben wurde in Frage gestellt, ob AMD jemals Intel in Leistung erreichen würde? Aber,...muss Amd das wirklich? MMn muß das Amd überhaupt nicht.
Da stimme ich dir voll und ganz zu. AMD war in seiner Geschichte häufig nur zweit schnellster, aber eigentlich immer mit besserem P/L-Verhältnis. Bei Intels derzeitiger Preisstruktur hätte AMD genügend Spielraum für günstige Preise und trotzdem gute Gewinne, vor allem im gehobenen Segment.
Da ich viel Videobearbeitung mache, würde ich mich über einen finanzierbaren Octacore freuen. Selbst eine Hexadecacore wäre interessant, wenn der Preis stimmt, aber ich vermute, dass es so einen eher nur im Server-Segment geben wird.
Zwischen Sockel 1150 und 2011 seh ich da ne ausreichend große Lücke.
- Dual-Channel DDR4 und ~40 PCIe Lanes
- Mainboardpreise um die 150-200 Euro mit den üblichen Ausreißern nach oben/unten
Ich sehe die größte Lücke bei CPUs mit vielen Kernen. Angenommen Intel würde die GPU beim Quadcore rausschmeißen und dafür min. 2 zusätzliche Kerne einbauen, wäre das für bestimmte Anwendungen ein extremer Leistungsboost. Genau hier könnte AMD ansetzen. Einfach mehr (leistungsfähige) Kerne zum selben Preis und die Sache ist gerizt. Da fast alle Intel-CPUs immer noch eine GPU mitschleppen, dürfte AMD bei den Preisen durchaus Luft haben, vor allem da Intels Margen bei den Desktop- und Server-CPUs sehr ordentlich sind. Zusammen mit den von dir genannten Verbesserungen der "Infrastruktur" sollte das ein rundes Paket ergeben.
- CPU-Preise:
~110 Euro (Quadcore ohne SMT) analog Intels i3
~170 Euro (Quadcore mit SMT) analog Intels i5
200-350 Euro 6core mit/ohne SMT analog Intels i7-47xx
400-600 Euro (8Core mit SMT) analog Intels 6core i7-58xx
SMT abschalten ist mMn keine sinnvolle Sache. Zur Resteverwertung trägt das nichts bei. Es wäre im Prinzip einfach nur eine künstiliche Bremse. Dann sollten sie lieber einfach direkt mit Quadcore+SMT anfangen und die dafür dann 20€ günstiger verkaufen. Unten drunter kann man dann ja noch Resteverwertung mit Excavator-basierenden APUs machen.
Wenn es Zen-Kerne wirklich immer nur als 4er-Verbund gibt, wären Hexacores teildeaktivierte Octacores und hätten damit die gleichen Herstellungskosten. Daher sehe ich die Hexacores tendenziell preislich näher bei den Octacores, wobei ich eher auf günstiger Octacores als auf teurere Hexacores tippe.
Knuddelbearli
2015-05-09, 20:41:18
AMD wird sicher keine 4 Kerner Zens ohne IGP auflegen so gesehen ist alles unter 8 Kerner Künstliche Beschneidung. Alles 1 DIE.
Ravenhearth
2015-05-09, 20:44:31
Wenn es Zen-Kerne wirklich immer nur als 4er-Verbund gibt, wären Hexacores teildeaktivierte Octacores und hätten damit die gleichen Herstellungskosten. Daher sehe ich die Hexacores tendenziell preislich näher bei den Octacores, wobei ich eher auf günstiger Octacores als auf teurere Hexacores tippe.
Die Folie war ein Fake. Wobei, wäre sie korrekt, bestimmt auch native Sechskerner machbar wären. Denn wenn man sie teildeaktivieren könnte, könnte man auch einfach weniger verbauen.
reaperrr
2015-05-09, 22:44:24
Die Folie war ein Fake. Wobei, wäre sie korrekt, bestimmt auch native Sechskerner machbar wären. Denn wenn man sie teildeaktivieren könnte, könnte man auch einfach weniger verbauen.
Die Kosten für Layout-Design und Masken sind gerade bei 14nm/16nm so hoch, dass es unterm Strich teurer wäre je einen nativen 8er und 6 anzubieten, als einfach 8er mit 2 deaktivierten Kernen zu verkaufen.
Ganz abgesehen davon, dass es garantiert anfangs recht viele Chips mit 1-2 defekten oder zu schlecht taktenden Kernen geben wird.
Ravenhearth
2015-05-10, 02:40:20
Das stimmt zwar aber darum gings nicht. Er hat aufgrund der Vermutung, Zen gäbe es immer nur im Vierer-Verbund, die Möglichkeit von nativen Sechskernern prinzipiell ausgeschlossen. Das wollte ich widerlegen.
Limit
2015-05-10, 07:26:23
Die Folie mag gefakt sein, d.h. aber lange noch nicht, dass der Inhalt vollkommen falsch ist (und damit ist auch noch nichts widerlegt :smile:).
Es macht nämlich durchaus Sinn bei Multicore-Chips mehrere Chips zu einem Block zusammen zu fassen. Tut man es nicht, muss man entweder für jedes angebotene Anzahl an Kernen das Die komplett neu entwickeln und optimieren oder man baut es aus einzelnen Kernen zusammen, hat dann aber unnötige Redundanzen, die Fläche, Strom und evtl. auch Leistung kosten. Bei den AMD-CPUs (seit Phenom?) umfassten diese Blöcke je 2 Kerne.
Da aber mittlerweile selbst Low-End-Cpus häufig 4 Kerne verbauen halte ich einen Aufbau aus Blöcken von 4 Kernen (vor allem mit der neuen Fertigung) für durchaus realistisch. Das würde CPU-Dies mit 4, 8, 12, 16 Kernen ermöglichen mit der Option Zwischenschritte durch Teildeaktivierung zu erhalten.
Korvaun
2015-05-10, 07:49:46
Bei Release H2 2016 würde ich im Desktop Markt 4 Dies produzieren: 4 oder 8 Kerne (SMT immer aktiv) mit je kleiner/großer IGP. Daraus kann man dann je nach Produktionsausbeute / Markterfordernissen alles zurechtschnibbeln. Von 2 Kernen mit kleiner IGP bis hin zu 8 Kernen mit großer IGP. "Black-Edition" könnte man dann mit abgeschalteter IGP anbieten...
4 Kerne mit SMT sehe ich dann als untere sinnvolle Grenze an für alles was nicht reiner 08/15-Bürorechner ist. Die Gameengines der Konsolen sollten dann endlich kompett auf multicore umgestellt sein, DX12 ist 1 Jahr raus und wird dementsprechend breit unterstützt. Rein marketingmässig muss man auch die Kern-Inflation der Smartphones mit beachten, geht ja nicht das man da mittlerweile bei 10 Kernen angekommen ist und der PC gammelt noch immer bei Dualcore rum...
Mortalvision
2015-05-10, 08:37:39
Nur weil es SMT/HT gibt, heißt das noch lange nicht, dass es einfach wäre, games darauf zu programmieren. Besonders kleine Studios ohne dafür ausgebildete progger werden sich auf ST-Lwistung konzentrieren.
fondness
2015-05-10, 10:02:17
Bei Release H2 2016 würde ich im Desktop Markt 4 Dies produzieren: 4 oder 8 Kerne (SMT immer aktiv) mit je kleiner/großer IGP. Daraus kann man dann je nach Produktionsausbeute / Markterfordernissen alles zurechtschnibbeln. Von 2 Kernen mit kleiner IGP bis hin zu 8 Kernen mit großer IGP. "Black-Edition" könnte man dann mit abgeschalteter IGP anbieten...
4 Kerne mit SMT sehe ich dann als untere sinnvolle Grenze an für alles was nicht reiner 08/15-Bürorechner ist. Die Gameengines der Konsolen sollten dann endlich kompett auf multicore umgestellt sein, DX12 ist 1 Jahr raus und wird dementsprechend breit unterstützt. Rein marketingmässig muss man auch die Kern-Inflation der Smartphones mit beachten, geht ja nicht das man da mittlerweile bei 10 Kernen angekommen ist und der PC gammelt noch immer bei Dualcore rum...
Vollkommen unrealistisch, den Luxus leistet sich nicht mal Intel. Es wird 2 Zen-Dies geben: Einen höchstwahrscheinlich Octa-Core für Servern und Desktop High-End ohne iGPU in 2016. Und eine APU mit höchstwahrscheinlich einem Quad-Core in 2017 für Desktop/Mobile. Irgendwann in 2017 soll es dann noch die HPC-APU mit vermutlich Octa-Core plus dicker GPU geben, aber würde mich auch nicht wundern wenn es 2018 wird.
OBrian
2015-05-10, 13:55:17
Das meine ich auch, ein 6-Kerner wäre evtl. machbar, aber dann müßte man nicht nur diese "Zen-Unit" neu aufschnüren, dieser Block ist sicherlich bzgl. Timings, und auch vom Layout her optimiert, wenn man 6 Kerne verbauen wollte, dann müßten zwei noch irgendwie hintenrum verdrahtet werden, mit längeren Leitungen usw., also recht großer Aufwand. Aber diese 4-Kern-Einheit als einfacher quadratischer Block ist im Layout einfach so copy&paste-fähig, deswegen gehe ich fest davon aus, daß die reine CPU dann zwei dieser Blöcke haben wird, also 8 Kerne.
Daß es dann durch Teildeaktivierung auch 6-Kerner geben wird, davon kann man sicherlich ausgehen. Aber ein weiteres Die für 6-Kerner lohnt sich doch vonre und hinten nicht. Die großen Stückzahlen werden eh wie immer mit den kleineren Chips gemacht. Von früher weiß ich noch eine Zahl von 70% Semprons und 30% Athlons, wobei unter Athlon (XP) ja auch schon Mittelklasse-CPUs liefen, nicht nur High-End. Also schätze ich mal ganz kühn, daß mit der 4-Kern-APU (sicherlich auch teildeaktiviert ohne GPU) schon locker 80% des Desktopmarktes erschlagen werden. Beim Rest sind die Margen sicherlich höher, so daß sich der 8-Kerner überhaupt lohnt (wird sich sicherlich auch im professionellen Bereich für Workstations und kleine Server verwerten lassen), aber für den unteren Bereich dieses oberen Bereiches lohnt sich ganz sicher kein weiterer extra Die, das wird man mit Teildeaktivierungen erledigen.
Immerhin gibt es z.B. von Kabini oder von Kaveri auch keine "halben" als extra Die, obwohl sicherlich viele, evtl. sogar die Mehrheit der verkauften Chips keine kompletten Vierkerner sind.
Man muß sich ja auch vor Augen halten, daß wir von SoCs reden, d.h. auf dem Die sind noch alle möglichen anderen Dinge als nur CPU-Kerne. Wenn ich die Hälfte der CPU-Kerne weglasse, wird die Diefläche dadurch nicht ansatzweise halbiert, da fallen vielleicht 10% weg.
Knuddelbearli
2015-05-10, 14:26:37
4 Kerner sind garantiert auch beschnitten ( entweder beschnittene 8 Kerner oder beschnittene APUs eventuell Anfangs sogar beides gemischt kommt drauf an wie es bei den APUs mit dem L3 aussieht und bei den FX mit dem SOC ) Wo wäre also das Problem auch einen 6 Kerner zu bringen?
Ravenhearth
2015-05-10, 14:36:10
Man muß sich ja auch vor Augen halten, daß wir von SoCs reden, d.h. auf dem Die sind noch alle möglichen anderen Dinge als nur CPU-Kerne. Wenn ich die Hälfte der CPU-Kerne weglasse, wird die Diefläche dadurch nicht ansatzweise halbiert, da fallen vielleicht 10% weg.
10% sind vielleicht etwas wenig. Aber es könnte gut sein, dass Kerne+Caches nur die Hälfte ausmachen.
Knuddelbearli
2015-05-10, 14:43:39
wir sind ja schon jetzt ohne SOC bei weniger als die Hälfte. Schätze es CPU Teil wird maximal 30-40% eher weniger.
Ravenhearth
2015-05-10, 14:48:57
Wo ist "jetzt"?
StefanV
2015-05-10, 20:13:46
Wo ist "jetzt"?
Kaveri zum Bleistift...
Ravenhearth
2015-05-10, 20:42:18
Wenn man sich reine CPUs ansieht, um die es da ging (Acht- und Sechskerner) ist die Sache aber ein wenig anders. Bei Intel weist der CPU-Teil praktisch keine Lücken auf, Kerne und Caches kleben alle aneinander. In so einem Chip macht der CPU-Teil dann auch locker die Hälfte aus. Man sehe sich Haswell-E (http://images.anandtech.com/doci/8426/HSW-E%20Die%20Mapping%20Hi-Res.jpg) an oder denke sich beim "normalen" Haswell die GPU weg.
Leonidas
2015-05-11, 08:20:59
Vollkommen unrealistisch, den Luxus leistet sich nicht mal Intel. Es wird 2 Zen-Dies geben: Einen höchstwahrscheinlich Octa-Core für Servern und Desktop High-End ohne iGPU in 2016. Und eine APU mit höchstwahrscheinlich einem Quad-Core in 2017 für Desktop/Mobile. Irgendwann in 2017 soll es dann noch die HPC-APU mit vermutlich Octa-Core plus dicker GPU geben, aber würde mich auch nicht wundern wenn es 2018 wird.
Naja, Intel leistet schon schon den Luxus von 4-6 Dies pro Generation rein für den Consumer-Bereich - und diese Generationen werden 3-4 Jahre hergestellt. Das ist sogar mehr als die GPU-Entwickler gleichzeitig an Dies herstellen (lassen).
Zwingend benötigt für AMD:
8-Kern-CPU ohne GPU*
4-Kern-APU
2-Kern-APU
Macht man wenn man Zeit und Muße hat:
4-Kern-CPU ohne GPU*
* echte Mini-GPU (64SE) akzeptabel, wenn keine Die-Fläche gefressen wird
Ravenhearth
2015-05-11, 13:09:16
Ja, drei Dies halte ich auch für möglich. Das separate 2-Kern-Die wird vor allem notwendig, weil man ja keine Cat-Cores darunter mehr hat.
OBrian
2015-05-11, 13:50:10
nur damit man mal einen visuellen Eindruck gekommt, Dieshot von Carizzo:
http://fs1.directupload.net/images/150511/temp/zgsf9l2u.png (http://fs1.directupload.net/images/150511/zgsf9l2u.png)
Den können wir wohl als Referenz nehmen, denn einerseits ist da wirklich alles drin, nicht wie bei Kaveri, wo noch einiges an einem kompletten SoC fehlt (was in AM4 reinpaßt, wird immer den gesamten Chipsatz mit an Bord haben müssen, denn auf dem Board ist ja nichts), und andererseits ist das der modernste Chip, wo schon die HD-Libs genutzt werden. Mit 14-nm-Fertigung wird natürlich alles kleiner werden, aber die Anteile sicherlich ähnlich bleiben.
Wenn ich bei so einem Chip die Hälfte der CPU-Kerne weglassen will, weil ich Produktabstufungen brauche, dann lohnt sich ein neues Die aus Flächeneinspargründen einfach nicht. Vielleicht sind es keine 10, sondern 17%, die man sparen würde, aber deswegen macht man immer noch kein neues Chipdesign.
Wenn man in sowas keine GPU verbaut und dafür die doppelte Anzahl an CPU-Kernen, sieht das etwa genauso aus, wenn ich davon dann ein Viertel der CPU-Kerne weglassen will. Deswegen meine ich, ein 6-Kern-Die wird es sicherlich nicht geben.
StefanV
2015-05-11, 14:08:45
Naja, wenn man jetzt aber wirklich ein 'small die' machen möchte, dann könnte man das aber auch auf etwa die Hälfte der Größe reduzieren, wenn man es wollen würde.
Hier gehts ja nun wirklich nicht um Leistung sondern Stromverbrauch und Kosten. Da kann es dann unter Umständen durchaus lohnend sein, ein 2 Kern Die zu basteln, mit einer entsprechend kleinen GPU daneben, die dann Beema/Mullins beerbt und für bis zu 25W gedacht ist.
Allerdings hat AMD auch verlauten lassen, dass sie diesen Bereich zukünftig nicht bedienen werden, so dass man aktuell davon ausgehen könnte, dass es gar keine 2 Kerner von AMD geben wird, in absehbarer Zeit.
Sprich es wird mit Sicherheit 3 Dies geben:
8 Core/(no??) GPU
4 Core APU (mit ordentlicher GPU)
Und dann später, was nicht auf AM4 laufen wird, das fette HPC Monster.
Dass es überhaupt ein 2 Core Die geben wird, kann man dabei getrost bezweifeln. Das macht meiner Meinung nach auch nicht mehr soo viel Sinn...
Leonidas
2015-05-11, 14:31:07
Ob es das 2-Core-Die geben wird, hängt ganz davon ab, ob sie einer 2-Core-CPU noch eine dicke Grafik spendieren wollen. Wenn nein, dann lohnt es dann doch. Nicht für die Abspeckung der zwei CPU-Rechenkerne, sondern für die Abspeckung der iGPU.
Ob es das 2-Core-Die geben wird, hängt ganz davon ab, ob sie einer 2-Core-CPU noch eine dicke Grafik spendieren wollen. Wenn nein, dann lohnt es dann doch. Nicht für die Abspeckung der zwei CPU-Rechenkerne, sondern für die Abspeckung der iGPU.
Prinzipiell richtig, aber wir reden ja vom AM1-Markt, das ist das Billigstsegment.
In dem Bereicht wirds so schnell aber nichts Billigeres als 28nm und DDR3 geben. Die CPUs sind ausreichend stromsparend und bieten genügend Kerne, von daher muss man auch nicht viel verbessern. Mehr Takt wär nett, aber zu dem Preis kann man auch nicht mehr erwarten.
Also bevor man in dem "Discounter-Segment" auf 14nm und DDR4 wechselt, dauerts noch sehr lange. Und zwar wg. des teuren double-patterings, länger als bisher üblich.
Die werden einfach die Cats, die in Planung waren, alle gecancelt haben und das durch einen nativen Zen-Dualcore mit Minimalgrafik ersetzt haben. Der hat dann irgendwie 60-70mm², das tuts ja. Der wird dann auch mit DDR3 laufen und kann ja auch weiterhin mit Mullins nach wie vor nach unten hin abgerundet werden.
Knuddelbearli
2015-05-11, 16:23:34
2 Kerner bekommen sicher ein eigenes DIE weniger wegen Flächenersparnis mehr um dort andere, noch Energiesparendere Transistoren zu verwenden.
Die werden einfach die Cats, die in Planung waren, alle gecancelt haben und das durch einen nativen Zen-Dualcore mit Minimalgrafik ersetzt haben.
Ich glaub eher, dass sie die komplett gestrichen haben, weils nichts abwirft. Wieviel Tablets gibts denn mit Mullins?
Selbst wenns welche gäbe, hätte AMD daran nicht viel verdient, da das so ein Massengeschäft ist, wos erst ab 100k Stückzahlen aufwärts interessant wird.
20nm ist auch schon fast genauso teuer wie 14nm, man braucht auch schon double pattering ... also für Billigchips keine gute Idee.
Einzige Möglichkeit wäre, wenn man nen Auftrag von Apple o.ä. für irgendein cooles Design bekäme, wo man den Chip dann teuer verkaufen könnte, aber das macht Apple mittlerweile auch selbst.
Der hat dann irgendwie 60-70mm², das tuts ja. Der wird dann auch mit DDR3 laufen und kann ja auch weiterhin mit Mullins nach wie vor nach unten hin abgerundet werden.Also nen extra DDR3-Speicherkontroller in 14nm entwerfen? Die Arbeit würd ich mir gerne sparen.
Gute 14nm Yields und DDR4-Preisverfall sollten grob gut zusammenfallen, bis dahin tuts 28nm und DDR3.
Für anderes wirft das Segment zuwenig ab, AMD wird die Zahlen bestens kennen ... und deshalb die Notbremse gezogen haben. Ohne hochpreisige Mobile-Wins kann mans mMn vergessen.
Triskaine
2015-05-11, 16:57:36
Zu den Cat Cores sagte David Kanter bei Techreport:
Well, it's kind of a lost cause. Pretty much the entire cat team left and went elsewhere.
@Opteron
Ist doch ziemlich wahrscheinlich, dass die APUs wie die Skylakes beides können. Damit könnte man sie in die alten Mobilplattformen einsetzen. Gut für OEMs. Und du hast recht, Mullins wird sicherlich bleiben, aber es wird keinen Ersatz mehr geben. Tablets sind eh auf dem absteigenden Ast.
Der DualCore ist aber auch super für billig-Rechner für Büros oder sowas. Ein AthlonII quasi, für OEMs brauchts was genial kleines und einfaches.
Die großen APUs sind ja mit den jetzigen nicht vergleichbar. ein 4-Kern-Zen APU hat ja mehr Power als ein Vishi, wie es aussieht. Der 8-Kerner ist sicherlich per Interposer modular erweiterbar. Damit hätte man den gesamten Markt mit 3 Dies erschlagen, wie gehabt.
Unicous
2015-05-11, 17:55:02
@Triskaine
Ja, das hat mich auch ein wenig geschockt. Die Frage ist, was mit "left" gemeint ist. Die Firma oder das Design Team. Der Satz lässt eigentlich nur Ersteres zu. Interessant wäre, wo die dann hingegangen sind.
Zu den Cat Cores sagte David Kanter bei Techreport:
Google findet das nicht. Wo steht das?
fondness
2015-05-11, 18:03:22
Ist ein Video.
http://www.twitch.tv/thetechreport/b/657091841
/Edit: Okay doch nicht.
Unicous
2015-05-11, 18:03:43
Kommentar von Kanter bei TR.
http://techreport.com/discussion/28246/the-tr-podcast-bonus-video-amd-zen-fiji-and-more?post=905853
@fondness
Nein, das hat er (afaik) nicht im Video gesagt.
Loeschzwerg
2015-05-11, 18:33:11
Das klingt zumindest nach internem Stunk oder einer absolut demoralisierten Truppe :(
Wenn dann ein Großteil der Entwickler wegfällt ist es freilich schwierig weiter am Design zu arbeiten. Evtl. besser dann die Teams zu vereinen und in gewissen Bereichen komplett neu zu beginnen.
Das kann auch etwas Gutes haben.
Unicous
2015-05-11, 18:40:01
Wie bitte was?
Was ihr immer zwischen den Zeilen unverfänglicher Kommentare herauslest?
Es sind nur zwei Sätze.
Stunk? Demoralisiert?
Wie wäre es mit: Entlassen. Aufgelöst. "Left to pursue other opportunities". Von Apple geklaut.
AMD hat wahrscheinlich die Katzen eingeschläfert um Ressourcen für Zen freizugeben. Da jetzt Stunk hineinzuinterpretieren kann ich nicht nachvollziehen.
Loeschzwerg
2015-05-11, 18:48:14
Naja, als Unternehmen versuche ich mir doch die entsprechenden Talente zu halten und das "CAT"-Team hat ja nun wirklich keine schlechte Arbeit abgeliefert.
Was auch immer das "Left" bedeutet, man muss es den Leuten nicht besonders schwer gemacht haben.
Entlassung kann natürlich möglich sein, aber ich würde meinen da setzt man anderweitig an. Wobei das natürlich auch alles vor Lisa Su abgelaufen sein kann.
fondness
2015-05-11, 18:51:35
Durch Zen rentieren sich keine eigenen Cat-Chips mehr ganz einfach. Intel hat den Atom mittlerweile doch praktisch auch nur mehr für Smarthones und da mischt AMD ohnehin nicht mit.
Undertaker
2015-05-11, 19:02:51
So würde ich das nicht unbedingt sehen, immerhin hat man die Atom-Reihe gerade erst auf die mobilen Celerons und Pentiums ausgeweitet. Zweifellos kann sich Intel bei höheren Stückzahlen aber auch eher den Luxus von mehr Designs leisten.
Menace
2015-05-11, 19:12:39
Ist das nicht der Zweig, den intel zu Dumping-Preisen verkauft?
fondness
2015-05-11, 19:24:24
Ist das nicht der Zweig, den intel zu Dumping-Preisen verkauft?
Verschenkt trifft es eher. AMD muss eben Prioritäten setzen, das ist nicht vergleichbar mit Intel die auch noch den Smartphonemarkt bedienen und unbegrenzt Ressourcen haben. Vermutlich würde sich nicht mal Intel ohne Smartphones den Luxus leisten mit den Atom-Cores, mittlerweile skaliert die Core-Architektur eh schon bis 5W hinunter.
Durch Zen rentieren sich keine eigenen Cat-Chips mehr ganz einfach. Intel hat den Atom mittlerweile doch praktisch auch nur mehr für Smarthones und da mischt AMD ohnehin nicht mit.
Das Surface 3 ist also ein Smartphone? Good to know.
fondness
2015-05-11, 19:33:12
Das Surface 3 ist also ein Smartphone? Good to know.
Siehe Menace, da gibt es für AMD sicher nichts zu holen. Intel versenkt im Tablet-Markt in einem Quartal fast eine Milliarde bei teilweise sogar negativen Umsätzen. Deshalb gibt es auch keinen Mullins-Nachfolger. Und das Surface 3 PRO beweist im übrigen das es auch mit der Core-Architekur geht.
Undertaker
2015-05-11, 19:36:18
Ist das nicht der Zweig, den intel zu Dumping-Preisen verkauft?
Das betrifft/betraf in erster Linie die 22nm Modelle für Smartphones, teilw. auch Tablets (Android). Die für x86-Systeme verkauften Chips wird man mangels starker ARM-Konkurrenz auch für gutes Geld los.
Siehe Menace, da gibt es für AMD sicher nichts zu holen. Intel versenkt im Tablet-Markt in einem Quartal fast eine Milliarde bei teilweise sogar negativen Umsätzen. Deshalb gibt es auch keinen Mullins-Nachfolger. Und das Surface 3 PRO beweist im übrigen das es auch mit der Core-Architekur geht.
Das Surface 3 Pro ist wesentlich groesser, das kannst du vom Formfactor nicht vergleichen.
Menace
2015-05-11, 19:53:42
Danke für die Antworten. Noch eine Frage: Gehören zur "Cat-Familie" nicht auch die doch recht ordentlichen APUs der Spielekonsolen? Wird AMD dafür rechtzeitig die richtigen Nachfolger anbieten können?
y33H@
2015-05-11, 19:54:48
Ja, die sind Jaguar-basiert. AMD könnte in 5+ Jahren sicherlich acht Zen-Cores bieten in 14nmFF oder 10nmFF.
Da haben sie jetzt noch mindestens 4 Jahre Zeit dafuer.
Das klingt zumindest nach internem Stunk oder einer absolut demoralisierten Truppe :(
Die waren - wenn ich mich recht erinnere - sowieso schon immer auf der "Abschussliste". Dürfte ein Überbleibsel von ATi gewesen sein, die ersten Codenamen "Ontario" kamen nicht von ungefähr.
Topp an dem Teil soll - v.a. für die Größe - die Sprungvorhersage gewesen sein. Bin mir nicht mehr sicher, aber ich glaub da war irgendwas mit genetischen Algorithmen (keine Ahnung wie man das in Hardware gießt), auf alle Fälle eher exotisches Zeugs - das funktionierte.
Aber naja .. die letzten Codenamen waren ja indisch, vielleicht wurde das Kanada-Team schon viel früher ausgetauscht.
Schade also, aber solange Zen die Kastanien aus dem Feuer holt, nur ne Randnotiz.
Ja, die sind Jaguar-basiert. AMD könnte in 5+ Jahren sicherlich acht Zen-Cores bieten in 14nmFF oder 10nmFF.
Oder nen K12 ;)
Menace
2015-05-11, 20:02:39
:eek: Erst in 4-5+ Jahren? Ok, ich hätte jetzt 2+ Jahre erwartet. Nochmals danke für die schnelle Aufklärung.
Unicous
2015-05-11, 20:08:05
Ich denke mal y33H@ meinte die neue Konsolengeneration. Die neuen Zen-Cores kommen (laut roadmap) nächstes Jahr.
Wie die neue Konsolengeneration aussieht und ob es überhaupt eine neue Generation gibt wissen wir... wenn Sony und MS eine neue Generation in Auftrag gibt. Bis dahin hat man schon Ommmmmmm-Cores.
Menace
2015-05-11, 20:09:42
Ich meinte auch die neue Konsolengeneration. Das passt schon. :biggrin:
Unicous
2015-05-12, 23:33:18
Some news.
One of my sources told me, just today, that AMD has deleted Skybridge due to the dead of 20nm of GlobaFoundries (the design was at very good point). AMD tried to re-design Nolan and Amur with 20nm of TSMC or 28nm SHP of GloFo, but it will be too expensive (4 designs for 2 low cost SoCs are a suicide).
So, Skybridge is dead because of GloFo's incompetence.
http://semiaccurate.com/forums/showpost.php?p=235334&postcount=334
y33H@
2015-05-13, 00:16:27
Das ist doch Mist.
robbitop
2015-05-13, 09:15:12
Das sollte mit den Lizenzprozessen von Samsung dann hoffentlich mal ein Ende haben.
Nur weil ein Design gestrichen ist, schickt man nicht das ganze Team weg. Gute CPU Engineers sind wie Goldstaub. Die wachsen nicht auf Bäumen. Die hätten am Zen Core weiter arbeiten können. Ich kann mir auch nicht vorstellen, dass AMD die gekündigt hat. Wenn ein ganzes Team auf einmal geht, hat das meistens seine Gründe.
Naja Apple, Intel und Qualcomm werden die AMD Jungs - wie schon seit einer ganzen Weile das der Fall ist - wieder mit offenen Armen und höheren Gehältern empfangen.
fondness
2015-05-13, 09:21:01
Im Q4 wurden jedenfalls spezifisch in der CPU/GPU-Abteilung 7% der Gesamt-Belegschaft (dürfte also um die 700 Leute gewesen sein) gecuttet. Siehe die Aussagen des CFOs. Ist zwar nicht lustig, aber wenn kein entsprechender Umsatz den kosten gegenübersteht muss man nunmal einsparen.
robbitop
2015-05-13, 09:24:40
Dann entlässt man Faule und Inkompetente (bezogen auf die gesamte Firma) und nicht ein ganzes Team. Gerade in den USA ist das ja kein Problem (hire & fire). Keine Ahnung wie es in Canada ist.
fondness
2015-05-13, 09:26:58
Das ganze Team wird auch nicht weg sein, das ist mit hoher Wahrscheinlichkeit eine übertriebene Überzeichnung wenn er sagt "nearly the whole team".
robbitop
2015-05-13, 09:29:40
Es sei denn die Leute waren wirklich allesamt unzufrieden. Solche Leute finden - gerade im Silicon Valley - sofort einen neuen Job. Besser bezahlt.
tm0975
2015-05-13, 10:27:29
wenn ich mir die ergebnisse von amd so anschaue, kosten die leute zumindestens mehr als sie bringen. vereinfacht gesagt :eek:
aber zurück zum thema. mich interessiert der zeitliche ablauf des marktstarts. laut fad ist die designphase von zen ende 2015 abgeschlossen. ich meine auch irgendwo gelesen zu haben, dass die massenfertigung in q1 beginnen soll und auch definitiv zur verfügung steht. bis wann sind eurer meinung nach die zen-server-cpus (damit startet ja die architektur ins erste produkt) für den marktstart bereit? ist ende ende hj1/2016 realistisch?
Agent117
2015-05-13, 10:37:13
H1 2016 ist vlt realistisch, wenn das Design in Q4 2014 stand und selbst das wäre schon sehr schnell.
Wann Zen 2016 erscheint weiß außer AMD noch keiner so richtig. Ich würde schon eher auf H1 tippen. Das Tape Out müsste der FX-Zen dann ja auch schon gehabt haben.
robbitop
2015-05-13, 12:01:17
wenn ich mir die ergebnisse von amd so anschaue, kosten die leute zumindestens mehr als sie bringen. vereinfacht gesagt :eek:
Overhead und Management sind da viel entscheidender. Die Engineers setzen das um, was gewünscht ist. Wenn's ne Krücke wie Netburst oder Bulldozer werden soll, machen die das.
Auch Intel die Zugriff auf unglaublich viel Talent und Ressourcen hatten, haben Netburst verbrochen. Fehlentscheidung.
Blöd ist nur, wenn die richtigen Talente/Leistungsträger weglaufen. Dann kannst du keine Spitzendesigns mehr umsetzen. Auch wenn das Management die richtigen Entscheidungen trifft.
fondness
2015-05-13, 12:04:20
wenn ich mir die ergebnisse von amd so anschaue, kosten die leute zumindestens mehr als sie bringen. vereinfacht gesagt :eek:
AMD hat jedenfalls noch immer mehr Mitarbeiter wie zB Nvidia, ich sehe also nicht unbedingt das AMD hier die Leute ausgehen. Ganz im Gegenteil gab es nach der ATi-Übernahme wohl schon extrem viele Abteilungen die doppelt vorhanden waren und zusammen geführt werden mussten.
Dann entlässt man Faule und Inkompetente (bezogen auf die gesamte Firma) und nicht ein ganzes Team. Gerade in den USA ist das ja kein Problem (hire & fire). Keine Ahnung wie es in Canada ist.
Kalifornien hat Kündigungsschutz. "Die USA" gibt es nicht in diesem Punkt.
Duplex
2015-05-13, 14:23:50
Wenn die Teams aufgelöst werden, dann sind die Produkte später auch nicht mehr gut, ich errinere an die K8 Teams von damals, alles was nach dem K8 kam war nur noch schrott von AMD.
robbitop
2015-05-13, 14:30:21
Kalifornien hat Kündigungsschutz. "Die USA" gibt es nicht in diesem Punkt.
Ist ja wie in Deutschland. Sehr gut für Leute, die sich gern ausruhen. :D
robbitop
2015-05-13, 14:30:59
Wenn die Teams aufgelöst werden, dann sind die Produkte später auch nicht mehr gut, ich errinere an die K8 Teams von damals, alles was nach dem K8 kam war nur noch schrott von AMD.
Lag mit Sicherheit nicht an den Engineers sondern an den Vorgaben.
Duplex
2015-05-13, 14:36:19
Zen muss sich dann mit dem Skylake Refresh & Cannon-Lake messen!
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10623800&postcount=943
Ist ja wie in Deutschland. Sehr gut für Leute, die sich gern ausruhen. :D
Lange nicht so wie in Deutschland, aber besser wie in anderen Staaten.
dargo
2015-05-13, 14:39:53
Zen muss sich dann mit dem Skylake Refresh & Cannon-Lake messen!
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10623800&postcount=943
Und? Der Haswell Refresh war auch super aufregend. :ulol:
robbitop
2015-05-13, 14:42:13
Nix gegen Devils Canyon! Mit dem tollen verbesserten TIM, welches immernoch zT Temperaturdifferenzen von 30 K hatte. :D
fondness
2015-05-13, 14:50:37
Sieht so aus als ob Intel nur noch jede zweite Architektur für den Desktop bringt, wenn jetzt schon wieder für den Desktop ein Skylake-Refresh statt eines Cannonlakes kommt.
robbitop
2015-05-13, 14:52:07
Auf dem Desktop braucht Intel auch nicht wirklich Gas zu geben. Im Notebook Sektor scheint man mehr verdienen zu können. Und dort schlagen die Perf/Watt Fortschritte auch direkt durch. (restriktive Umgebung (thermisch und Akku))
fondness
2015-05-13, 14:54:19
Naja es geht ja auch um Server nicht nur um mobile, mehr verdienen würde ich also nicht unbedingt sagen. Aber es macht auf jeden Fall Sinn, denn es ist bedeutend schwieriger auf einem neuen Prozess gleich hohe Taktraten zu erreichen. So muss man beim ersten Versuch nur die geringere Leistungsaufnahme mitnehmen.
Ravenhearth
2015-05-13, 15:04:50
Kalifornien hat Kündigungsschutz. "Die USA" gibt es nicht in diesem Punkt.
Nur: Wo war dieses Team überhaupt? Die hocken ja nicht alle in Sunnyvale, sondern auch in Austin, Portland und mindestens ein halbes Dutzend weiterer Standorte.
fondness
2015-05-13, 15:12:12
Die CPU-Ings hocken in Austin, Texas - dort kennt man das Wort Kündigungsschutz wohl gar nicht.
OBrian
2015-05-13, 19:46:11
was ist mit Indien?
Abgesehen davon, diese Leute werden sicherlich nicht gefeuert, sondern waren nicht mehr zu halten, weil die eben neue Architekturen entwickeln, was aber abgeschlossen war und nicht direkt was Neues anstand. Dann gehen die woanders hin, wo sie eine interessante neue Herausforderung erwartet.
Hübie
2015-05-13, 21:14:17
So wie ich das mitbekommen habe sind einige von Intel, Apple und sonst wo wieder zurück zu AMD. Also entweder wurde das Team verlegt (also neues Projekt) oder halt ersetzt. Wie auch immer. AMD scheint mir auf den richtigen Weg zu sein. Die Frage die ich mir stelle ist ob die den Atem noch lang genug anhalten können. Will ja nicht die Apokalypse (wie manche hier) herauf beschwören, aber die sind schon arg in Bedrängnis. Man sehe sich mal deren Bilanzen an. Damit meine ich nicht nur Umsatz / Gewinn ;)
Cannonlake wird afaik eine LP-CPU, wo ich zweifle dass Zen so weit hinunter skaliert.
Interessant find ich übrigens dass man Intels CPUs im Notebook nicht mehr wechseln können wird. Weiß gar nicht wie das in aktuellen Notebooks ist, aber künftig ist Sense.
Sunrise
2015-05-14, 08:20:04
Cannonlake wird afaik eine LP-CPU, wo ich zweifle dass Zen so weit hinunter skaliert.
Ein Resultat aufgrund von 10nm und der weiter gesenkten Spannungen, wäre bei Zen nicht groß (andere Fabs) anders. Vor allem deshalb, weil es eigentlich außer für GPUs keine HP-Prozesse mehr gibt.
Interessant find ich übrigens dass man Intels CPUs im Notebook nicht mehr wechseln können wird. Weiß gar nicht wie das in aktuellen Notebooks ist, aber künftig ist Sense.
Ist doch defacto sowieso ausgeschlossen.
woodsdog
2015-05-14, 09:25:51
Interessant find ich übrigens dass man Intels CPUs im Notebook nicht mehr wechseln können wird. Weiß gar nicht wie das in aktuellen Notebooks ist, aber künftig ist Sense.
Hatte das jemals ernsthaft irgend eine Bedeutung?
Es war doch praktisch immer entweder völlig unwirtschaftlich oder unmöglich wegen Limitierungen im Kühlsystem.
R.I.P.
2015-05-17, 18:27:11
https://www.semiwiki.com/forum/content/4630-asmc-2015-globalfoundries-22nm-soi-plans-more.html
Haha, zu geil. 22nm HP IBM Fertigung für ZEN incoming? Gleiche Leistung wie 14nmFF und Kosten wie 28nm?
Sehr lustig wenn das zutreffen würde!
p.s. die Fertigung kommt nach Dresden, was eigentlich schon immer Vorzeige FAB war...
Unicous
2015-05-18, 00:54:47
Hat hier nicht viel zu suchen. Und ich schätze mal, dass ist GlobalFoundries' 28nm +FD-SOI Prozess den sie unverschämterweise als 22nm bezeichnen. (e: Vllt versuchen sie auch ihren 20nm Prozess auszuschlachten und nehmen die Design rules von IBM, jedenfalls komisch, aber sicherlich nicht für AMD von Relevanz)
Zen wird in 14nm gefertigt, das hat AMD ja bereits bestätigt.
halb OT:
Gerade gefunden, aber die Präsentation wurde schon im März gehalten.
AMD will in Zukunft den SoC wieder aufspalten, wie wir ja schon mitbekommen haben um sich z.B. nicht beim Fertigungsprozess verrenken zu müssen.
51960
http://www.semiconchina.org/downloadFile/1428378823486.pdf
Gleichzeitig wäre man dadurch auch flexibler indem man durch Die Stacking verschiedene Chips performant in einem Package anbinden kann. Bei großen Dies bekommt man irgendwann Yield-Probleme und durch angepasste Fertigungsprozesse bzw. unterschiedliche Hersteller kann man theoretisch sehr flexibel auf den Markt reagieren.
maguumo
2015-05-18, 01:10:11
Beim FAD hatten sie meine ich auch kurz über einen neuen Off-Chip Interconnect gesprochen, ich finde es nur gerade nicht...
EDIT: Das war Mark Papermaster, zu der Slide hier:
http://puu.sh/hR9Nv/5e47c15f46.PNG
~53 Minuten in der Präsentation. Steht leider nicht auf der Slide aber er sagt "...and then we've actually made it extensible off-chip"
Hat hier nicht viel zu suchen. Und ich schätze mal, dass ist GlobalFoundries' 28nm +FD-SOI Prozess den sie unverschämterweise als 22nm bezeichnen. (e: Vllt versuchen sie auch ihren 20nm Prozess auszuschlachten und nehmen die Design rules von IBM, jedenfalls komisch, aber sicherlich nicht für AMD von Relevanz)
Zen wird in 14nm gefertigt, das hat AMD ja bereits bestätigt.
Das ist ein guter Punkt - für GloFo wär das ein echtes Plus.
halb OT:
Gerade gefunden, aber die Präsentation wurde schon im März gehalten.
AMD will in Zukunft den SoC wieder aufspalten, wie wir ja schon mitbekommen haben um sich z.B. nicht beim Fertigungsprozess verrenken zu müssen.
51960
http://www.semiconchina.org/downloadFile/1428378823486.pdf
Gleichzeitig wäre man dadurch auch flexibler indem man durch Die Stacking verschiedene Chips performant in einem Package anbinden kann. Bei großen Dies bekommt man irgendwann Yield-Probleme und durch angepasste Fertigungsprozesse bzw. unterschiedliche Hersteller kann man theoretisch sehr flexibel auf den Markt reagieren.
Mit Interposern kann man ja einigen Schabernack treiben. Unter anderem eben auch eine Aufspaltung des Dies.
https://www.semiwiki.com/forum/content/4630-asmc-2015-globalfoundries-22nm-soi-plans-more.html
Haha, zu geil. 22nm HP IBM Fertigung für ZEN incoming? Gleiche Leistung wie 14nmFF und Kosten wie 28nm?
Sehr lustig wenn das zutreffen würde!
p.s. die Fertigung kommt nach Dresden, was eigentlich schon immer Vorzeige FAB war...
Aber Zen ist klar 14nm. Es war ja auch bei den offiziellen Präsentationen immer von FinFETs die Rede. Nicht so klar ist hingegen Fiji und Antigua in meinen Augen.
OBrian
2015-05-18, 13:36:06
auch wenn für die reinen CPUs mit Zen die SOI-Technik vielleicht besser erscheint, weil mehr Takt rauszuholen ist, kann man wohl sagen, daß das nicht passieren wird, denn AMD will ja möglichst wenig Prozesse haben. Den CPU-Block kann man bei gleicher Fertigung 1:1 auf der Maske kopieren und muß da nichts neu rumprobieren, das wäre alles eher kontraproduktiv, weil man dann später in den Markt käme. Mit 14 statt 22 nm wird man den eventuellen Vorteil durch SOI auch wettmachen, denke ich.
Unicous
2015-05-18, 13:39:55
Wie gesagt, ich denke dass sie 20nm eingestampft haben und jetzt mit den IBM design rules aus der übernommenen Fab von 22nm PD-SOI auf FD-SOI umsteigen um da vllt. eine kleine "edge" gegenüber den 28nm FD-SOI Prozessen zu haben die ja jetzt aller Orten aus dem Boden zu schießen scheinen.
Ist aber nur Spekulation, aber IMO macht es Sinn.:tongue: (Deswegen hat man auch nichts mehr von 28 FDSOI@GF gehört)
Ich sehe gerade, sie hatten ja auch Pläne 20nm FD-SOI zu bringen. Dann macht meine Spekulation eigentlich noch mehr Sinn. ;) 28nmFD ist tot. 20nm ist tot, jetzt nimmt man den IBM PD-SOI Node und modelt ihn auf FD-SOI um.
mboeller
2015-05-18, 20:38:15
http://www.semiconchina.org/downloadFile/1428378823486.pdf
Danke!
Bei 14nm und 10nm kann ich also bis zu 25% mehr Transistoren bei gleichen Kosten "unterbringen"... toller Fortschritt... nicht ganz so schlimm wie die bisherigen Slides (zB. von Nvidia) aber IMHO weit weit weg von Gut.
20nm FDSOI ist einfach zu 14nm geworden und das dauert wohl auch noch ein bisschen. Es ist durchaus ne Idee, dass 28nm FDSOI zu 22nm geworden ist. Bei 10nm wird wohl FinFET und FDSOI zusammengeführt unter Federführung von Samsung, man kann ja die Vorarbeit von IBM auch verwenden.
robbitop
2015-05-19, 09:31:25
Ob man sich für Non-SHP Prozesse nochmal auf SOI einläßt? War das nicht pro Wafer teurer?
Ravenhearth
2015-05-19, 11:13:28
Ich bezweifle, dass man das machen wird. AMD setzt nur noch auf "billige" Standard-Prozesse.
robbitop
2015-05-19, 11:14:07
Ich meine gar nicht mal AMD - die nehmen nur noch von der Stange - sondern Samsung/GF.
Ravenhearth
2015-05-19, 11:44:18
Höchstens für IBM. Oder selbst das nicht mehr?
Unicous
2015-05-19, 12:14:42
Ich meine gar nicht mal AMD - die nehmen nur noch von der Stange - sondern Samsung/GF.
Was meinst du? Samsung hat jetzt offiziell einen 28nm FD-SOI Prozess, TSMC arbeitet auch daran, und es könnte sein, dass UMC auch versucht, etwas vom Kuchen abzugreifen. Ich könnte mir vorstellen, dass GF versucht sich hier differenzieren und hofft den besseren Eierlegendenwollmilchprozess auf den Markt zu bringen.
@Ravenhearth
IBM entwickelt glaube ich einen 14nm FinFET FD-SOI Prozess, könnte aber durchaus sein, dass sie nur den normalen FinFET von GF nehmen.
robbitop
2015-05-19, 12:31:38
Ich meinte eher im Hinblick darauf in Zukunft SOI mit Finfets zu kombinieren. Ab 10 nm. Also dass SOI wie Finfets in die neusten Standardprozesse aufgenommen wird.
28 nm ist ja schon ein alter Hut. Und dann auch noch planar...
Unicous
2015-05-19, 12:40:30
Da sich GF IBMs Fabs einverleibt hat, werden sie auch die Server Chips mit SOI und FinFETs für sie herstellen (sollte IBMs Planung weiterhin stehen und der Prozess auch ;)). Ob sie darüber hinaus SOI nutzen, ist nicht zuletzt auch eine Frage wie sie die Prozesstechnologie bis dahin entwickelt hat. IBM jedenfalls hatte es bis vor Kurzem noch vor. Dass GF es als Hauptprozess übernimmt ist eher fraglich, bzw. könnte es in ein paar Jahren so aussehen wie bei 28nm. Der Prozess wird ausgebaut und für "mainstream" Produkte verwendet.
robbitop
2015-05-19, 12:44:34
Wir werden sehen. Wäre ja schön, wenn es dann doch ein paar SHP Prozesse gibt, die man mitnutzen kann.
Ravenhearth
2015-05-19, 12:46:44
Dann würde auch die Folie Sinn machen, auf der verschiedene Prozesse für unterschiedliche Chip-Bestandteile behandelt werden. Wenn eh alles ein und derselbe Prozess ist, dann macht es kaum Sinn, die Teile wie CPU und GPU einzeln zu fertigen und später zusammen zu kleben. Aber mit unterschiedlichen Prozessen...
Unicous
2015-05-19, 12:57:06
Die Folie ist "relativ" eindeutig. Man nutzt im Moment einen Kompromiss-Prozess um den SoC herzustellen und man möchte gerne per Stacking, also entweder Interposer oder 3D, verschiedene dies, hergestellt in unterschiedlichen Prozessen, in einem "System in Package"(SiP) zusammenführen, so wie es ja in ersten Schritten schon im mobilen Sektor geschieht(siehe Apple S1).
Der cache/RAM/whatever kann dabei ausgelagert werden und z.B. in einem älteren Prozess gefertigt werden (hier könnte sich u.U. ein FD-SOI Prozess anbieten:wink:), während CPU und GPU vllt. getrennt jeweils bei GF/Samsung und/oder TSMC gefertigt wird.
OBrian
2015-05-19, 20:01:04
Ich schätze, es geht einfach nur um die Fabs und deren Nutzung/Weiterentwicklung. Dresden hat lange SOI gefertigt, d.h. die Tools sind alle dafür ausgelegt. New York wurde von Anfang an für Bulk gebaut. Ich könnte mir vorstellen, daß man in einer Fab lieber bei entweder bulk oder SOI bleibt, wenn man einen Shrink macht.
NY shrinkt von 28 auf 14, beides in bulk. Dresden ist auf 32nm SOI, wenn man da auch shrinkt, um technologisch dran zu bleiben, dann wohl sinnvollerweise nicht auf das, was in NY gemacht wird, sondern auf einen Prozeß weiterhin mit SOI.
Ich hab keine Ahnung, wer da was fertigen lassen wird, aber es muß nicht unbedingt AMD sein.
Unicous
2015-05-19, 20:09:45
Dresden wurde ja eh von GF degradiert, vorher liefen ja alle (b)leading edge Prozesse dort, man ist expandiert und jetzt ist Malta "the shit" und Dresden darf nicht mehr und muss "neue" alte Prozesse auftragen. Ich schätze mal so wird es auch bleiben. Ich denke, Malta wird jetzt Haupt-Fab und Dresden stellt für die unwashed masses irgendein langweiliges Gedöns her.
Ich schätze, es geht einfach nur um die Fabs und deren Nutzung/Weiterentwicklung. Dresden hat lange SOI gefertigt, d.h. die Tools sind alle dafür ausgelegt. New York wurde von Anfang an für Bulk gebaut. Ich könnte mir vorstellen, daß man in einer Fab lieber bei entweder bulk oder SOI bleibt, wenn man einen Shrink macht.
NY shrinkt von 28 auf 14, beides in bulk. Dresden ist auf 32nm SOI, wenn man da auch shrinkt, um technologisch dran zu bleiben, dann wohl sinnvollerweise nicht auf das, was in NY gemacht wird, sondern auf einen Prozeß weiterhin mit SOI.
Ich hab keine Ahnung, wer da was fertigen lassen wird, aber es muß nicht unbedingt AMD sein.
Zw. Bulk und SOI ist nicht viel Unterschied, SOI braucht nicht soviele Herstellungsschritte, aber Dresden kann mittlerweile ja auch Bulk.
Interssanter wirds bei der Ausstattung mit der Belichtungsapperatur ... die will man mit double-pattering bekanntlich weiternutzen können, aber es würde vermutlich nicht schlecht sein, nen billigen SOI-Prozess genau an der Grenze zum double-pattering einzuziehen.
Je mehr Masken man braucht, desto größer ist auch der SOI-Vorteil der weniger Produktionsschritte. Sagen wir mal das wären im 3-4 extra Produktionsschritte bei bulk gewesen, was auch 3-4 Masken entspräche, dann wären das mit double pattering schon 6-8 Masken .. und die sind bekanntlich teuer.
SOI ist in der Anschaffung also billiger, kostet später wg. der teureren Wafer aber mehr. D.h. es gibt nen Punkt ab dem Bulk billiger wird. Ein Anderer in nem Forum meinte mal, dass das der Grund für IBM gewesen wäre auf SOI zu setzen. Für die Herstellung der paar 1000 POWER-Chips wars billiger. Aber für AMD wars im Umkehrschluss schlechter, da die schon zuviel Stückzahl hatten und bei Intel stellt sich die Frage natürlich erst gar nicht .. ;)
Um wieder auf SOI zurückzukommen: Je mehr double-triple etc. pattering desto höher muss auch die verkaufte Stückzahl der Chip sein, um nen bulk-Prozess zu rechtfertigen. D.h. Single-pattern FD-SOI rentiert sich für mehr Designs, erst recht für solche, die man nicht auf Finfets portieren kann.
AMD wird also eher weiter bei Bulk bleiben (auch wenn der Marktanteil geschrumpft ist), erst recht, wenn man Finfets hat, die den gleichen Vorteil wie FD-SOI bieten.
SOI wird erst wieder interessant, wenn man bei 10nm nen Finfet+FD-SOI-Prozess nutzen könnte.
Aber an AMDs Stelle würd ich mich da in Sachen Globalfoundries auch auf keine Abenteuer einlassen ... die haben relativ viel verbockt. "14XM" scheint auch eher schlecht gewesen zu sein, nachdem man stattdessen nun den Samsungprozess eingekauft hat, und ob das nun mit der IBM-Übernahme besser werden wird ... ich weiss nicht.
Falls IBM für den nächsten Power auf sowas setzt, ok, die können das dann mal beta-testen, aber vorher würde ich mich mit nen schnöden Shrink begnügen.
Mir ging die Begründung mit der Fixierung auf GPU-Transistoren bei CPUs nicht aus dem Kopf, was AMD ja offenbar als Problem ansieht und was ja bei Carrizo offenbar den Desktop-Einsatz verhindert. Das würde bei FinFETs doch gar keinen Sinn machen, weil es dort ja keine gesonderten GPU-Transistoren mehr gibt, sondern eben FinFETs. Was wäre denn, wenn AMD bei GPUs statt zu FinFETs zu greifen die GPU-Transistoren auf FDSOI weiterbenutzen möchte und dort im Grafikbereich größere Vorteile mit FDSOI sieht, während man bei CPUs auf FinFETs setzt? Ich weiss, ist ne wilde Theorie.
Mir ging die Begründung mit der Fixierung auf GPU-Transistoren bei CPUs nicht aus dem Kopf, was AMD ja offenbar als Problem ansieht und was ja bei Carrizo offenbar den Desktop-Einsatz verhindert. Naja, es kostet halt wieder etwas Frequenzspielraum, FD-SOI wär mit dem unterschiedlichen BIAS schon recht nett gewesen, aber man kann bekanntlich nicht alles haben.
So schlimm seh ichs nicht, für die geringeren Taktraten bekommt man schließlich auch ne bessere Effizienz zurück und da wollte man bekanntlich sowieso hin. BD+GPU war halt ne besonders schlechte Kombination, da das Design für > 4 GHz ausgelegt war, aber schon bei den Katzenkernen wars weniger schlimm.
In Sachen Carrizo@Desktop warten wir mal auf die 7. APU-Generation für AM4 ...
Das würde bei FinFETs doch gar keinen Sinn machen, weil es dort ja keine gesonderten GPU-Transistoren mehr gibt, sondern eben FinFETs.
Das "T" bei FinFet steht für Transistor, das weisst Du, oder? ;)
Weiss jetzt nicht genau, auf was Du raus willst.
Es wird sich nicht viel ändern, es wird weiterhin Reguläre Transistoren (RVT) und Low-Voltage Transistoren geben (LVT).
Was wäre denn, wenn AMD bei GPUs statt zu FinFETs zu greifen die GPU-Transistoren auf FDSOI weiterbenutzen möchte und dort im Grafikbereich größere Vorteile mit FDSOI sieht, während man bei CPUs auf FinFETs setzt? Ich weiss, ist ne wilde Theorie.
Da seh ich keinen Unterschied, auch bei FD-SOI gibts RVT und LVT.
AMD setzt doch bei Carrizo auf eine andere Transistorgeometrie als bei den bisherigen APUs. Vielleicht reden wir andeinander vorbei.
Unicous
2015-05-19, 22:06:24
Was meinst du denn mit Realisation? Der Unterschied zwischen planar und FinFET ist nur, dass das Gate von drei Seiten den Kanal umschließt. Was für ein Transistortyp genutzt wird ist daher völlig wumpe.
Und da hat er editiert.
Jo aber siehe auf die Zeit, war nicht als Reaktion auf dein Post, sondern als Eingeständnis, dass ich da was grundsätzlich missverstanden hatte ;).
Edit: Jo, HDLibs. Hab ich was durcheinandergeworfen.
AMD setzt doch bei Carrizo auf eine andere Transistorgeometrie als bei den bisherigen APUs. Vielleicht reden wir andeinander vorbei.
Du meinst die High-Density Libs? Die haben nix mit den Transistoren zu tun, die optimieren nur die Metalllagen, siehe hier Seite 22:
http://www.semiconchina.org/downloadFile/1428378823486.pdf
Wodurch man dann zwar die Transistoren enger zusammenrücken lassen kann, aber das sind die gleichen Transistoren ^^. (Die Transistoren sind am unteren Rand, nach der M1-Schicht,die bleiben aber gleich.)
Wenn man sich das so anschaut, könnte der Taktnachteil von HDL schlicht daran liegen, dass die feineren Leiterbahnen einfach nur geringere Stromstärken / Spannungen zulassen. Aber pure Spekulation jetzt.
Skysnake
2015-05-19, 22:39:29
S940 danke für den Link auf die Folien.
Das wusste ich jetzt auch nicht, dass die High-Density Libs dadurch realisiert werden, dass die Metal-Lagen "einfach" nicht dicker/gröber werden, wenn man weiter nach oben kommt :ugly:
Gibt es dazu noch mehr Infos? Hatte eigentlich immer gedacht, das sich da halt jemand die Mühe gemacht hat, und die Standardzellen Libs eben massiv aufgepumpt hat mit mehr Versionen von Zellen und eben noch weiter optimierten Designs.
Ne, mehr weiss ich leider auch nicht :(
R.I.P.
2015-05-22, 07:20:13
Carrizo?
https://twitter.com/AMD/status/601412993293938690
Carrizo?
https://twitter.com/AMD/status/601412993293938690
Ja, das 6th Generation ist eindeutig.
Aber wieso postest Du es hier und nicht im Carrizothread?
R.I.P.
2015-05-22, 20:39:46
Ja, das 6th Generation ist eindeutig.
Aber wieso postest Du es hier und nicht im Carrizothread?
Tja, weil das der carrizo Thread ist....oder zumindest glaubte ich es, bis du mich auf den Boden der Tatsachen zurückgebracht hast :freak:
War eigentlich ein versehen, also sorry.
Wenn ein lieber Mod so nett wäre zu verschieben? Bevor ich noch auf die Mütze bekomme, dass ich Doppelposts betreibe :)
drkohler
2015-05-22, 23:37:30
Du meinst die High-Density Libs? Die haben nix mit den Transistoren zu tun, die optimieren nur die Metalllagen, siehe hier Seite 22
Was ist denn das für eine abstruse Idee? Man optimiert die Metalllagen und würgt dann die ganze Logik darunter dazu?
Natürlich wird die Logik optimiert, die Metalllagen haben sich dann zu fügen. So wie ich das verstehe, kommen die HDLs von den GPU Designern und ersetzen die Libraries, die bisher von den CPU Designern gebraucht wurden. Diese sind auf hohe Taktraten ausgelegt, platzieren also weniger, aber "dickere Dinger" wie es in der Late-Night Werbung so schön heisst. Die GPU Designer versuchen soviele Dinger wie möglich zu haben, brauchen also kleinere "Dinger" die auch näher zueinander platziert sind - was die Taktraten natürlich reduziert.
Keine abstruse Logik, die Metal-Lagen sind die Logik.
Die Verdrahtung, die die Logik definiert kann man entweder auf Signal-Laufzeit oder auf Dichte optimieren. Sind einfach unterschiedliche Optimierungspunkte.
fondness
2015-05-28, 18:42:16
Hm...
http://www.techworld.com/news/security/chip-giant-amd-integrate-data-security-technology-from-tiny-uk-startup-3613517/
Locuza
2015-05-28, 19:00:53
Mh...
Project Skybridge...
R.I.P.
2015-06-11, 15:37:03
Intel verschiebt den 10nm Prozess angeblich (vielleicht sogar bis 2018):
http://www.bitsandchips.it/50-enterprise-business/5672-intel-posticipa-i-10nm-finfet-forse-fino-al-2018
und eine Intel-Kündigungswelle ist im Anmarsch:
http://www.bitsandchips.it/50-enterprise-business/5676-licenziamenti-in-arrivo-per-intel-si-tenta-di-contenere-i-costi
Sollte das mit den 10nm stimmen, könnte AMD wirklich gut mitspielen und fertigungstechnisch nicht merh hinterherhinken!
Unicous
2015-06-11, 15:41:44
Eine Kündigungswelle seitens Intel kann auch AMD teuer zu stehen kommen. Denn wenn Intel hustet, fallen bei AMD gleich mehrere Gliedmaßen ab.
Gute Nachrichten sind das also erstmal nicht. Und ob sie wirklich stimmen wird sich auch noch zeigen. In jedem Fall würde man sich maximal an Intel fertigungstechnisch heranschleichen, solange es keine Patzer bei Samsungs/GloFo und/oder TSMC gibt.
R.I.P.
2015-06-11, 16:04:04
Eine Kündigungswelle seitens Intel kann auch AMD teuer zu stehen kommen. Denn wenn Intel hustet, fallen bei AMD gleich mehrere Gliedmaßen ab.
Gute Nachrichten sind das also erstmal nicht. Und ob sie wirklich stimmen wird sich auch noch zeigen. In jedem Fall würde man sich maximal an Intel fertigungstechnisch heranschleichen, solange es keine Patzer bei Samsungs/GloFo und/oder TSMC gibt.
Bin nicht 100% deiner Meinung: AMD hat schon verloren, was zu verlieren geht und Intel kann keine großen Marktanteile mehr dazugewinnen, während AMD das sehr wohl kann.
Das bedeutet, dass Intel eigentlich nur schlechter als jetzt dastehn kann in Zukunft, ausser sie reduzieren die Kosten oder AMD geht flöten, was aber nicht passieren wird.
Die Aktionäre sind eigentlich alles Schweine, der gleiche Gewinn reicht nicht aus, also reduziert man Kosten, am Schnellsten und Langfristig durch Personalabbau. Man hat ja auch Altera gekauft und doppelte Posten werden meistens sofort gestrichen, vor allem in der Verwaltung.
Ich habe 15 Jahre lang für internationale Pharma-Großkonzerne gearbeitet und es die letzen 4 Jahre jedes Jahr am eigenen Leib erfahren müssen :freak:
Unicous
2015-06-11, 16:40:07
Intel ist aber ein Indikator für den gesamten Markt. Schwächelt Intel, liegt das nicht unbedingt an Intel selbst, sondern daran, dass der Markt geschrumpft ist. In einem schrumpfenden Markt Anteile zu gewinnen ist daher auch nicht viel erfolgreicher, als gegen Windmühlen zu kämpfen.
AMD muss zu jeder Zeit Marktanteile erobern bzw. halten können und wenn Intel schwächelt heißt das wie gesagt nicht, dass AMD es im Umkehrschluss leichter hat.
Darüber hinaus könnte es sich "nur" um den Standort Oregon handeln (die Quelle ist ein "Lokalblatt"), wo immerhin über 17,000 Mitarbeiter beschäftigt sein sollen. Dennoch entfaltet sich die Sache anders, wenn nur dort sagen wir 10% der Belegschaft gekündigt wird, im Gegensatz zu 10% der gesamten weltweiten Belegschaft.
Timbaloo
2015-06-11, 16:52:35
Da hat sich wohl jemand im Thread vertan.
R.I.P.
2015-06-11, 17:13:05
Da hat sich wohl jemand im Thread vertan.
Wieso? Sollte Intels 10nm hängenbleiben und Samsung schneller sein, wäre das für die CPU-Strategie sehr wichtig :smile:
Timbaloo
2015-06-11, 17:36:52
AMD wird 10nm nicht mehr erleben wenn die mittelfristige Strategie (Zen, K12 und Konsorten) nicht aufgeht. Total irrelevant hier.
StefanV
2015-06-11, 17:46:21
Intel ist aber ein Indikator für den gesamten Markt. Schwächelt Intel, liegt das nicht unbedingt an Intel selbst, sondern daran, dass der Markt geschrumpft ist. In einem schrumpfenden Markt Anteile zu gewinnen ist daher auch nicht viel erfolgreicher, als gegen Windmühlen zu kämpfen.
1. War
2. Verdrängst du gerade die Konkurenz der Acorn RISC Prozessoren.
3. Läuft es für Intel in einigen Bereichen alles andere als blendend ;)
Also da würde ich jetzt nichts draus lesen wollen, denn der Markt hat sich 'nen bisserl geändert. Es ist nicht mehr so, wie vor 10 Jahren, Intel steht auch gewissermaßen unter Druck...
Das muss für AMD jetzt nicht unbedingt etwas bedeuten...
R.I.P.
2015-06-11, 18:48:01
AMD wird 10nm nicht mehr erleben wenn die mittelfristige Strategie (Zen, K12 und Konsorten) nicht aufgeht. Total irrelevant hier.
MMn sicher relevanter als dein Post.
Timbaloo
2015-06-11, 19:32:21
Es gibt passendere Threads in denen aus Quantenfluktuationen in Kaffeesätzen Interpretationen zu AMDs Zukunft gestrickt werden.
Lasst das hier bitte möglichst technisch bleiben...
fondness
2015-06-12, 21:48:00
Zen in Form von Summit Ridge wird wohl nicht vor Ende 2016 erscheinen:
http://s16.postimg.org/n7nxcwav9/AMD_New_Platform_Roadmap_1024x724.jpg (http://postimage.org/)
http://s18.postimg.org/6lizwykzt/5_1080_204100071.jpg (http://postimage.org/)
http://benchlife.info/amd-bristol-ridge-platform-will-continue-to-use-excavator-cpu-architecture-06122015/
Ravenhearth
2015-06-12, 23:12:05
Was heißt ES, PC, PR, IP?
Ich tippe auf "Engineering Sample", <k.A.>, "Product Ramp" und "In Production"
Bedeutet im Klartext frühestens Cebit 2017 gibts fertige Chips - sollte das alles so stimmen.
Ravenhearth
2015-06-12, 23:33:34
Launch Ende 2016 könnte noch hinkommen.
dildo4u
2015-06-12, 23:34:12
Zen+GPU+HBM ist dann Ende 2017 oder Anfang 18?Wobei wenn die 10%+ für die GPU stimmen reicht DDR4 was Bandbreite angeht.
Zen+GPU+HBM ist dann Ende 2017 oder Anfang 18?Wobei wenn die 10%+ für die GPU stimmen reicht DDR4 was Bandbreite angeht.
Nein, der wird auch schon in Vorbereitung sein. Das werden mMn auch 2 Dies auf einem Interposer werden (CPU und GPU halt), AMD wird einfach einen 2, 4 und 8 Kern Zen-Die bauen, alles total modular. Die werden dann gestaffelt kommen, Cebit 2017 dann der ZenFX ohne Interposer, dann im Sommer 2017 die APU.
Vielleicht ist der ganze Kram auch total veraltet oder Fake-Kram.
Ravenhearth
2015-06-12, 23:40:12
Ich tippe auf eine normale APU mit Zen ohne HBM und auf eine HPC-APU mit HBM in 2017.
dildo4u
2015-06-12, 23:49:10
Ich tippe auf eine normale APU mit Zen ohne HBM und auf eine HPC-APU mit HBM in 2017.
IGP's scheinen Heute schon ziehmlich Bandbreiten limitiert zu sein,das wär böse wenn AMD so lange mit DDR4 auskommen muss.Intel kann doch nicht so schnell an AMD vorbei gezogen sein was GPU Leistung angeht.
http://abload.de/img/74938f9o6w.png
http://abload.de/img/74939slo2b.png
http://www.anandtech.com/show/9320/intel-broadwell-review-i7-5775c-i5-5765c/7
Also Bandbreitenkompression und DDR4, bis dahin höher getaktet - ne da gibts keine Probleme.
Ravenhearth
2015-06-13, 00:02:14
Zumindest nicht bei Bristol Ridge. Mit DDR4 und DCC wären aber auch wohl maximal 1024 SPs drin, auch wenn dann schon eine Limitierung eintreten sollte.
Topha
2015-06-13, 01:21:38
Ich tippe auf "Engineering Sample", <k.A.>, "Product Ramp" und "In Production"
PC könnte "Prototype Casting" sein, ist aber auch nur geraten
Also Bandbreitenkompression und DDR4, bis dahin höher getaktet - ne da gibts keine Probleme.
Von DDR3-2133 auf DDR4-2400 ist jetzt nicht so der Unterschied, zumal die Timings schlechter sind. GPU wird sicherlich etwas schneller und Bandbreite etwas höher durch DDR4. Da kann sich nicht viel ändern. Das Bandbreitenlimit wird ähnlich sein.
Ravenhearth
2015-06-13, 01:48:37
DDR4 geht aber nicht nur bis 2400.
Bristol Ridge ist meiner Meinung nach sehr sehr sicher ein Carrizo B, genau wie Richland und Trinity oder Godaveri und Kaveri, also sind 512 Shader mit etwas mehr Takt extrem wahrscheinlich.
Die große Frage ist, was Stoney Ridge ist. Der Codename fiel zusammen mit Carrizo und FX, da wurde aber wieder ordentlich Information zusammengerührt, da stimmt wieder was nicht.
Zusätzlich fehlt da noch ein x-Ridge als Nachfolger von Carrizo-L.
Ravenhearth
2015-06-13, 02:54:57
Da Stoney Ridge in Zusammenhang mit einer E-Serie genannt wird, Bristol Ridge aber vermutlich A8, A10 und FX wird, könnte Stoney Ridge eben für E, E2, A4 und A6 da sein. Carrizo-L halt.
DDR4 geht aber nicht nur bis 2400.
Ich rede vom offiziellen Support.
Ravenhearth
2015-06-13, 11:46:34
Kennst du schon den offiziellen Support? Warum sollte der nur bis 2400 gehen?
YfOrU
2015-06-13, 11:54:45
Mehr geht nur mit BCLK (100 Mhz) Overclock da 1:12 bei AMDs Speichercontroller das Maximum ist -> DDR3-2400/DDR4-2400.
Das ist auch bei Kaveri ein limitierender Faktor. Siehe: http://www.corsair.com/en-us/blog/2014/february/understanding-kaveri
Eine Unterstützung für schnelleren Arbeitsspeicher wird es wohl erst bei Zen CPUs/APUs zusammen mit einem neuen DDR4 Controller geben.
mironicus
2015-06-13, 12:10:37
Ob AMD dann wohl 8 Zen-Kerne benötigt um gegen 4 Skylake-Kerne konkurrieren zu können...?
tm0975
2015-06-13, 13:16:26
Ob AMD dann wohl 8 Zen-Kerne benötigt um gegen 4 Skylake-Kerne konkurrieren zu können...?
Ob Intel dann für 4 Kerne trotzdem noch mehr nimmt als AMD für 8 Kerne nehmen würde? Es sollte für AMD reichen, eine solide CPU mit deutlichen Verbesserungen zu ordentlichen Preisen zu liefern. DIe CPU-Leistung selbst wird häufig überschätzt. An so richtig CPU-begründeten Aufrüstdruck kann ich mich gar nicht mehr erinnern. Wir rangieren sogar Server aus, welche kaum weniger CPU-Leistung haben als ihre Nachfolger. 128 statt 32 GB RAM und SSD statt HDD Raid liefern viel mehr Performance-Vorteile als die CPU-Upgrades der letzten Jahre.
w0mbat
2015-06-13, 14:37:45
Ob AMD dann wohl 8 Zen-Kerne benötigt um gegen 4 Skylake-Kerne konkurrieren zu können...?
Ok, ich lese ja viel Blödsinn hier, aber was soll so ein Posting bitteschön? Nicht nur, dass du am Ende "...?" setzt, sondern einfach die Aussage selber.
AMD hat gesagt, dass Zen 40%+ mehr IPC zu Excavator hat. Das bedeutet Haswell+ IPC. Den Rest kannst du dir ja selber ausmalen...?
Knuddelbearli
2015-06-13, 15:40:13
auch wenn mironicus wie so oft nur trollt ganz unrecht hat er nicht.
wenn AMD auch nur 10% hinter Skylake liegt muss AMD irgendwo anders punkten, und da am einfachsten über mehr Kerne.
Das dürfte Margen mäßig weit besser passen als wenn man Preis gegenüber Intel senkt
w0mbat
2015-06-13, 16:27:03
Was? Wenn AMD nur 10% hinter Skylake liegt wird Zen mit 8C/16T Intel komplett abziehen. Da muss Intel punkten, nicht AMD.
Wenn AMD mit 8T/16C 10% hinter Skylake mit 4C/8T liegt sieht es übel aus.
Ravenhearth
2015-06-13, 18:03:01
40% auf Excavator dürfte eher Sandy/Ivy-Level sein.
Knuddelbearli
2015-06-13, 18:40:05
Naja in Spielen hilft das mehr an Kernen aber selten bis nie ( beide haben ja schon HT also 8 Threads)
w0mbat
2015-06-13, 19:22:26
40% auf Excavator dürfte eher Sandy/Ivy-Level sein.
Ne, eher Haswell-Boradwell. Excavator ist locker 15-20% schneller als Piledriver.
dargo
2015-06-13, 19:25:02
Naja in Spielen hilft das mehr an Kernen aber selten bis nie ( beide haben ja schon HT also 8 Threads)
Weil wir immer noch auf einer API festsitzen die für starkes Multithreading gar nicht vorgesehen war.
Timbaloo
2015-06-13, 19:26:50
10-15% weniger IPC gegenüber intel wäre auch überhaupt kein Problem wenn die Leistungsaufnahme auch ~ der Konkurrenz entspricht. Dann kann man das Produkt über mehr Kerne wunderbar positionieren. Imho.
Weil wir immer noch auf einer API festsitzen die für starkes Multithreading gar nicht vorgesehen war.
Auch DX12/Vulkan wird nicht sämtliche Probleme hinsichtlich Threadbarkeit wie durch Geisterhand lösen. Auf DX12/Vulkan hoffen wird nicht funktionieren.
Knuddelbearli
2015-06-13, 19:35:47
erstmal wird mit DX12 eher noch weniger in MT Investiert da man ja eh pro Kern deutlich mehr Leistung rausziehen kann. Und das wo heute schon ( nicht nur auf AAA bezogen ) die mit großer Mehrheit der Spiele bereits aus einem 3ten Kern nur mehr 1 stellig profitiert.
Und wieso sollte man auch irgendwelchen Aufwand in 6+ Threads investieren wenn Intel mit fast 90% Marktmacht maximal 4+4 anbietet und das, so wies aussieht, noch mindestens 2 weitere Generationen so bleiben wird.
Windi
2015-06-13, 19:58:06
APUs brauchen einfach Bandbreite.
Schon damals als AMD ATI übernahm, um das beste aus beiden Welten zu vereinen, wurde vor der zu geringen Bandbreite gewarnt.
Heute haben wir die Situation, das Intel die schnellsten APUs hat, da sie die Einzigsten sind, die das Bandbreitenproblem effektiv angegangen sind. (Ja ich weiß, der extra Cache ist teuer)
AMD hat vielleicht theoretisch die besseren Grafikeinheiten, in der Praxis kommt davon allerdings nichts an. Und wenn dann die Notebookhersteller auch noch die Möglichkeit bekommen nur Singel Channel und langsamen Speicher zu verbauen, dann hätte man sich den "großen" Grafikchip auf dem DIE auch gleich sparen können.
Die APUs brauchen einfach zwingend HBM Speicher. Nicht nur das die Bandbreite deutlich höher ist, man kann auch verhindern, das die Gerätehersteller irgend einen Schrott verbauen.
Nur HBM ist erst mal neu und teuer, und AMD verkauft die APUs hauptsächlich für Low End Geräte. :confused:
Die ATI Übernahme von AMD war 2006 und PC-APUs mit schnellem Speicher kommen wohl frühestens 2017. Da hat man sich echt viel Zeit gelassen um das größte Problem von einer Fusion von CPU und GPU zu lösen.
PS: Und was soll DDR4 und Bandbreitenkompression dagegen helfen?
DDR4 ist nur ein kleiner Evolutionsschritt und die Hersteller werden auch weiterhin zum billigsten Speicher greifen.
Bandbreitenkompression? Das gab es doch früher auch schon? Da hat man sicherlich ein paar kleine Fortschritte gemacht, aber das bringt auch nur ein paar Prozentpunkte. (Ist schließlich nichts Neues)
Windi
2015-06-13, 20:05:21
erstmal wird mit DX12 eher noch weniger in MT Investiert da man ja eh pro Kern deutlich mehr Leistung rausziehen kann. Und das wo heute schon ( nicht nur auf AAA bezogen ) die mit großer Mehrheit der Spiele bereits aus einem 3ten Kern nur mehr 1 stellig profitiert.
Und wieso sollte man auch irgendwelchen Aufwand in 6+ Threads investieren wenn Intel mit fast 90% Marktmacht maximal 4+4 anbietet und das, so wies aussieht, noch mindestens 2 weitere Generationen so bleiben wird.
Ich würde DX12 immer in Kombination mit den Konsolen sehen.
Für die muss man eh auf mehrere Kerne hin optimieren. Und dann macht es irgendwie keinen Sinn mehr, den gesamten Code wieder umzuschreiben, nur weil man auf dem PC momentan weniger Kerne hat.
OBrian
2015-06-13, 20:23:51
was den Markt aufhält, ist ja nicht der Umstand, daß es Haswell nur mit 4 Kernen gibt, sondern, daß es noch so viele DualCores gibt, die nicht mal HT haben. Diese kleinen Dinger machen den Großteil der neu verkauften PCs aus, und folglich bilden die das Ziel, auf das man sich als Spieleentwickler konzentrieren muß. Sobald Intel im Bereich unter 50$ echte Vierkerner verkauft und die noch billigeren Zweikerner (inkl. Atoms und dem ganzen Rotz) wenigstens immer mit HT ausstattet, wird es nur noch wenige Jahre dauern, bis mal ernsthaft Multithreading in Betracht gezogen wird, um mehr Leistung für das Spiel zu generieren.
dargo
2015-06-13, 20:35:15
Auch DX12/Vulkan wird nicht sämtliche Probleme hinsichtlich Threadbarkeit wie durch Geisterhand lösen. Auf DX12/Vulkan hoffen wird nicht funktionieren.
Welche Probleme? Auf aktuellen Konsolen und Spielen gibt es keine Probleme die 6-7 Cores auszulasten. Was glaubst du woran das wohl liegt?
erstmal wird mit DX12 eher noch weniger in MT Investiert da man ja eh pro Kern deutlich mehr Leistung rausziehen kann. Und das wo heute schon ( nicht nur auf AAA bezogen ) die mit großer Mehrheit der Spiele bereits aus einem 3ten Kern nur mehr 1 stellig profitiert.
Und wieso sollte man auch irgendwelchen Aufwand in 6+ Threads investieren wenn Intel mit fast 90% Marktmacht maximal 4+4 anbietet und das, so wies aussieht, noch mindestens 2 weitere Generationen so bleiben wird.
Weil es viele Multiplattformspiele gibt wo die PS4 oder XBox One als Leadplattform gilt.
was den Markt aufhält, ist ja nicht der Umstand, daß es Haswell nur mit 4 Kernen gibt, sondern, daß es noch so viele DualCores gibt, die nicht mal HT haben. Diese kleinen Dinger machen den Großteil der neu verkauften PCs aus, und folglich bilden die das Ziel, auf das man sich als Spieleentwickler konzentrieren muß.
In welchem Jahr lebst du denn? Dualcores bzw. Zweithreader sind schon länger tot. Die ersten Spiele die damit überhaupt nicht mehr flüssig laufen gibt es schon. Mindestvoraussetzung 4 Threads heißt es mittlerweile.
Windi
2015-06-13, 20:39:51
Darauf nehmen die Entwickler bei DX12 immer noch Rücksicht :eek:
Kann so ein DualCore überhaupt mit den Konsolen mithalten?
Das bedeutet ja, das bei MultoPorts nicht die Konsolen bremsen, sondern die LowEnd Rechner. Schließlich hängt von der CPU vieles ab und ist entscheidend dafür wie "lebendig" man eine Spielwelt gestalten kann. :freak:
Knuddelbearli
2015-06-13, 20:43:12
Ich würde DX12 immer in Kombination mit den Konsolen sehen.
Für die muss man eh auf mehrere Kerne hin optimieren. Und dann macht es irgendwie keinen Sinn mehr, den gesamten Code wieder umzuschreiben, nur weil man auf dem PC momentan weniger Kerne hat.
wieso auf mehr Kerne? Konsolen nutzen doch auch nur 6 da hat ein I7 mit 4+4 ja schon mehr.
Konkurieren muss AMD aber mit den I7 und wie gesagt da sehen mehr Kerne zwar nett aus bringen damit also nicht danke das ihr mir mein Argument stärkt ^^
Knuddelbearli
2015-06-13, 20:44:56
Weil es viele Multiplattformspiele gibt wo die PS4 oder XBox One als Leadplattform gilt.
Sorry dargo aber wie viele Kerne nutzen die Konsolen nochmal? Also echt so einen massiven Denkfehler hätte ich von dir nicht erwartet
Windi
2015-06-13, 20:52:00
Sorry dargo aber wie viele Kerne nutzen die Konsolen nochmal? Also echt so einen massiven Denkfehler hätte ich von dir nicht erwartet
Die Konsolen nutzen 8 Kerne.
Schließlich muss auf dem PC auch ein Betriebssystem, Teamspeak oder Musik nebenbei laufen. Hier wird das nur nicht so exklusiv aufgeteilt.
wieso auf mehr Kerne? Konsolen nutzen doch auch nur 6 da hat ein I7 mit 4+4 ja schon mehr.
Konkurieren muss AMD aber mit den I7 und wie gesagt da sehen mehr Kerne zwar nett aus bringen damit also nicht danke das ihr mir mein Argument stärkt ^^
Naja, 8 Kerne sollten dann doch mehr Leistung bringen als 4 mit HT.
Natürlich kann man keine Schwäche bei der ST Leistung mit immer mehr Kernen kompensieren. Die Konsolen haben 8 Stück, viel mehr wird sich auf dem PC auch nicht lohnen.
Höchstens bei den kleineren Modellen könnte es was bringen, wenn AMD 4 mit HT preislich gegen 4 ohne HT von Intel stellt. Oder halt 8 gegen 4+4. .......
Knuddelbearli
2015-06-13, 21:02:03
Die Konsolen nutzen 8 Kerne.
Schließlich muss auf dem PC auch ein Betriebssystem, Teamspeak oder Musik nebenbei laufen. Hier wird das nur nicht so exklusiv aufgeteilt.
Und? bei Konsolen nimmt das aber eben 2 Kerne komplett in Beschlag die dann gar nicht zur Verfügung stehen also man auch nicht dafür optimieren kann. verstehe nicht was dein Argument soll ...
Abgesehen davon das bei einem PC diese Sachen vielleicht 5% der Leistung benötigen. Bei der Konsole sind es 2 von 8 Kernen also 25%
dargo
2015-06-13, 21:02:45
Sorry dargo aber wie viele Kerne nutzen die Konsolen nochmal? Also echt so einen massiven Denkfehler hätte ich von dir nicht erwartet
Habe ich doch geschrieben... 6-7. Den 7-ten Core hatte Microsoft vor kurzem nur zum Teil freigegeben. Afaik um die 25%.
Die Konsolen nutzen 8 Kerne.
Falsch. Die Konsolen haben 8 Cores, nutzen für Spiele aber weniger.
Edit:
Man spricht sogar von 50-80% beim 7-ten Core.
http://www.xboxdynasty.de/Xbox-One/Noch-mehr-CPU-Power-dank-neuer-Entwicklertools-fuer-siebten-CPU-Kern,news,41675.html
Knuddelbearli
2015-06-13, 21:09:36
7te ist meines Wissens nur für XBO exklusivgames die nicht kinect nutzen und auch dann nur zum Teil. Die kann man an einer Hand abzählen ^^.
naja egal wir Entfernung und von meiner Aussage und die war.
8+8 Kerner gegen einen 4+4 Kerner stellen weill man bisschen weniger Leistung hat klingt zwar gut bringt dem Spieler am Ende aber quasi 0. Bereits heute skaliert kaum ein Spiel brauchbar über 6 Threads geschweige den 8
dargo
2015-06-13, 21:12:51
naja egal wir Entfernung und von meiner Aussage und die war.
8+8 Kerner gegen einen 4+4 Kerner stellen weill man bisschen weniger Leistung hat klingt zwar gut bringt dem Spieler am Ende aber quasi 0. Bereits heute skaliert kaum ein Spiel brauchbar über 6 Threads geschweige den 8
Und ich sage dir, dass das Blödsinn ist. Warte erstmal paar native DX12 Games ab. Bis Zen kommt sollte es schon einzelne geben.
Knuddelbearli
2015-06-13, 21:17:04
und wieso sollten sie sich da mehr mühen geben
1.) 99,97% der Spielerpcs haben dann weiterhin max 8 Threads
2.) Konsolen haben weiterhin 6 Kerne zum spielen
3.) durch DX12 sinkt bereits allgemein die CPU Last wozu also die mühe zusätzlich noch in MT zu investieren? 1-3 AAA Titel die als techdemo dienen sollen mal ausgenommen. 99,999314% der Spiele haben dann trotzdem noch nichts davon
anddill
2015-06-14, 00:35:59
Sobald Du die 8 Threads in heutigen Spieler-PCs wirklich nutzt ist selbst ein Bulldozer konkurrenzfähig. Dann wirds auf Intels Mainstream-CPUs schon ziemlich eng.
Warum soll das in 2-3 Jahren anders sein?
Timbaloo
2015-06-14, 00:58:11
Weil auch in 2-3 Jahren Spiele nichtmal ansatzweise 8 Threads sinnvoll ausnutzen werden. Und selbst dann ist ein 4-Kerner i7 noch schneller als ein Bulldozer Derivat...
Knuddelbearli
2015-06-14, 01:34:01
na das meint er denke ich ja mit wieso sollte es in 2-3 Jahren anders sein. Wieso sollte in 2-3 Jahren auf einmal Vollgas auf MT programmiert werden?
mboeller
2015-06-14, 11:54:49
schaut so aus, als ob AMD selbst beim ZEN 8 Kerne benötigen wird um mit den Intel 4C gleichzuziehen.
Der Vergleich ist zwar zw. einem FX-8350 @ 4GHz und einem i7-4790K @ 4GHz, aber der 4C/8T Intel ist hier um bei den Anwendungen um 35% schneller als der FX-8350. Ein 4M-FX mit Excavator-Kernen wäre zwar näher dran am i7, der Unterschied würde aber immer noch (geschätzt) mehr als 20% betragen. Und Intel bleibt ja auch nicht stehen, Stichwort Skylake
http://www.computerbase.de/2015-06/intel-core-i7-5775c-test/3/ [Übersicht der Anwendungsbenchmarks]
tm0975
2015-06-14, 12:08:41
dann schau dir aber auch mal genauer die benchmakrs an. sie sind doch sehr subjektiv und praxisfern:
http://www.computerbase.de/2015-06/intel-core-i7-5775c-test/10/
das ist sinnfrei und sollte jeden nutzer klar sein.
Battlefield 3, 640 × 480, 25 Sekunden - super!!!
BF4, Mantle, FullHD auf dem 7870K wäre ein sinnvoller, weil praxisrelevanter Test. Wegen mir könnte Intel in Battlefield 3, 640 × 480 100 mal schneller sein, es interesseirt mich nicht, weil ich niemals diese Auflösung spielen würde. Wir haben nicht mehr 1990!!!
Und genau so werden Benchmarkergebnisse küntschlich pro Intel verschoben. Gibt ja genug Beispiele, wie Intel in der Vergangenheit auf dieses Thema eingewirkt hat. In der Praxis ist allenfalls der höhere Verbracuh der AMD-Prozessoren relevant. Wobei das niemals den Kaufpreis-Unterschied rechtfertigen würde. Nichtsdestotrotz wäre eine moderne, effiziente cpu-generation von amd durchaus willkommen. im notebook-bereich ist sie ja mit carizzo mittlerweile verfügbar.
y33H@
2015-06-14, 12:39:50
Und genau so werden Benchmarkergebnisse küntschlich pro Intel verschoben.Wieder einer der es nicht kapiert :facepalm:
Es geht um die reine CPU-Geschwindigkeit, Punkt.
In der Praxis ist allenfalls der höhere Verbracuh der AMD-Prozessoren relevant.Nö, eine hohe CPU-Leistung ist u.a. für VR, für CF/SLI und für 120/144 Hz wichtig.
tm0975
2015-06-14, 12:52:47
Wieder einer der es nicht kapiert :facepalm:
Es geht um die reine CPU-Geschwindigkeit, Punkt.
Nö, eine hohe CPU-Leistung ist u.a. für VR, für CF/SLI und für 120/144 Hz wichtig.
dann überlege doch einfach mal, bevor du schreibst! mich interessiert nciht, was du da rauslesen möchtest oder nicht. ein test unter vga bedingungen ist und bleibt sinnfrei. wenn dir das zu kompliziert ist, ist das nicht mein problem.
allerdings sehe ich da nirgends tests in cf/sli für 120/144 hz oder zumindest > 90 hz für vr etc. dagegen hätte ich nichts, auch wenn die anzahl der relevanten nutzer hier im forum im einstelligen prozentanteil ist und für die allgemeinen pc-spieler der relevante nutzeranteil wohl unter 1% liegt. aber es ist zumindest ein praxisrelevanter test. wenn man testet, testen man direkten nutzen in realem szenario. und das ist bei deinem vga beispiel nicht der fall. aber wahrscheinlich werden einige immer noch das vga-fähnchen hochhalten, wenn alle anderen bereits in dx12 und 4k spielen, wo der cpu-overhead deutlich reduziert und die mehrkernunterstützung verbessert ist.
Wieder einer der es nicht kapiert :facepalm:
Es geht um die reine CPU-Geschwindigkeit, Punkt.
Nö, eine hohe CPU-Leistung ist u.a. für VR, für CF/SLI und für 120/144 Hz wichtig.
Vor allem sind auf der nächsten Seite die geforderten 1080p Tests und im Fazit werden Gesamtwertungen mit und ohne Spieletests in niedrigen Auflösungen angeboten.
Aber hauptsache erstmal Aufregen... (Low-Intensity Trolling?)
Wenns nach mir ginge würde man Testen wie die CPU mit 1000 Gefangenen in Prison Architect abschneidet, oder wie sie mit dem mexikanischen Spaghetticode mit legacy-physX-Soße in KSP umgeht (Für AMD sieht es in beiden Fällen sehr bescheiden aus). Ist halt kein Wunschkonzert.
dargo
2015-06-14, 13:10:38
dann überlege doch einfach mal, bevor du schreibst! mich interessiert nciht, was du da rauslesen möchtest oder nicht.
Und uns interessiert nicht was dich interessiert. Meine Fresse... es geht um reine CPU-Leistung und nicht wie stark meine GPU CPU X limitiert. Dass es Leute gibt die das heute immer noch nicht begreifen ist unfassbar.
und wieso sollten sie sich da mehr mühen geben
Du denkst da zu kurzfristig. Es macht keinen Sinn (zumindest für große Studios) neue Engines zu entwickeln die nicht mit mehr als 6 Threads skalieren. Die nächsten Konsolen erwarte ich um das Jahr 2020. Und dafür kann man schon wenige Jahre zuvor üben. Die nächsten Konsolen werden sicherlich mehr als 8 Cores haben weil in die Breite gehen beim geringen Takt einfach effizienter ist. Und bei den Konsolen zählt vor allem Performance pro Watt.
Übrigens kann ich mich noch sehr gut an die Aussage von Coda erinnern als er sich für die XBox One und Ryse noch mehr Cores gewünscht hatte. Heißt für mich... die neueste Cryengine Build kann problemlos mehr als 6 Cores/Threads beschäftigen. Viele machen den Fehler und denken nur weil am PC wenige Cores ausgelastet werden das selbe für die Konsolen gilt. Das funktioniert so nicht. High-Level API vs. Low-Level API ist ein riesen Unterschied.
Sunrise
2015-06-14, 13:56:57
schaut so aus, als ob AMD selbst beim ZEN 8 Kerne benötigen wird um mit den Intel 4C gleichzuziehen.
Scheint eher so als ob du selbst mal Zen abwarten solltest, bevor du solch voreiligen Schlüsse ziehst. Woran willst du das überhaupt in einem Test einer alten Arch entdecken können? Völliger Quatsch.
mboeller
2015-06-14, 14:25:33
Scheint eher so als ob du selbst mal Zen abwarten solltest, bevor du solch voreiligen Schlüsse ziehst. Woran willst du das überhaupt in einem Test einer alten Arch entdecken können? Völliger Quatsch.
ZEN = Carrizo + 40% IPC laut AMD!
wo siehst du also hier ein Problem? Du kannst mir allenfalls vorwerfen das ich die beiden CPUs bei 4GHz verglichen habe und optimistisch davon ausgehe das auch die ZEN-CPUs mit 4GHz laufen werden.
mboeller
2015-06-14, 14:27:01
http://www.computerbase.de/2015-06/intel-core-i7-5775c-test/10/
.
Und warum wohl habe ich nur auf die Anwendungsbenchmarks verlinkt und die Leistung nur basierend auf den Anwendungsbenchmarks verglichen? Wirklich....:freak:
OBrian
2015-06-14, 14:39:33
Bei Zen bzw. den darauf basierenden Chips ändert sich SO viel, daß man dessen Performance noch nicht mal ansatzweise abschätzen kann. Erstmal wird von 40% mehr IPC als Excavator gesprochen, da muß man aber einrechnen, daß Carizzo zwar höhere IPC als z.B. Trinity (Piledriver) hat, aber eben nicht den Cache, wie er bei den FXen vorhanden ist, und der sorgt bei Spielen ja auch an einiges an IPC-Plus. Nun weiß man nicht, wieviel Cache in den Zen-basierten FX reinkommen wird. Zudem wollen sie die Caches auch noch völlig anders organisiert haben. Zählt das mit zu dem 40% dazu (XV gibt es ja nur in Carizzo) oder nicht? Und dann ist noch unklar, ob in dieser 40%-Angabe das Hyperthreading eingerechnet ist, falls ja, würde es den IPC-pro-Thread-Wert verringern. Fall nein, wäre HT ein Zucker obendrauf. Und dann: Wieviel Takt wird AMD aus dem Chip kriegen? IPC-Angabe ohne Taktangabe ist ja sinnlos, doppelt so gute IPC mit halbem Takt kommt auf denselben Mist raus.
Sunrise
2015-06-14, 14:55:27
ZEN = Carrizo + 40% IPC laut AMD!
Und warum braucht AMD deshalb gleich 4 Kerne mehr als Intel, wenn anhand deines Beispiels dort rein theoretisch nur 5% mit Führung von AMD dazwischen liegen?
Dazu kommt, dass Skylake laut dem was man aktuell annimmt auch nichtmehr so viel schneller (als Broadwell!) wird, zweitens wird sich scheinbar Intels 10nm um min. ein halbes Jahr verzögern. Das ist zwar nicht bestätigt, aber bei 14nm gab es ja auch Probleme.
Wir müssen also auf Zen warten und was Intel imstande ist zu veröffentlichen bis Zen erscheint. Wegen 5-10% braucht man aber deshalb keine 4 Kerne mehr. Den Takt kennen wir auch nicht, wir wissen ja nichts außer der IPC. Auch wenn ich nicht davon ausgehe, dass AMD mehr Takt als Intel rausholen kann, da muss man einfach abwarten.
tm0975
2015-06-14, 14:59:41
Und uns interessiert nicht was dich interessiert. Meine Fresse... es geht um reine CPU-Leistung und nicht wie stark meine GPU CPU X limitiert. Dass es Leute gibt die das heute immer noch nicht begreifen ist unfassbar.
dafür gibts geeignete cpu-benchmarks. theoretische cpu leistung ist irrelevant, wenn sie keinem anwendungsszenario entspricht. praktischer nutzen zählt. der scheint dir unwichtig zu sein, sonst würdest du mit handfesten fakten kommen und nicht behauptungen in den raum stellen. ist es zu schwer zu verstehen, dass es anwender gibt, die NUTZEN statt Balken haben wollen? die fullhd bechmarks sind sehr wohl zu sehen, dennoch geht der andere quatsch mit in die wertung ein.
DIe 40% mehr ipc gegenüber carrizo werden vermutlich nicht reichen, um die lücke zu intel zu schließen. wahrscheinlich wird aber fertigungsbedingt der verbrauch eines jetzigen 8350 auf basis von zen und 14 nm auch noch mal deutlich sinken können. 40% mehr leistung, 4 ghz, 8 kerne, verbrauch auf unter 100 W wäre insgesamt schon ein sehr viel freundlicheres bild. ggf mit etwas besserem turbo.
Timbaloo
2015-06-14, 15:14:12
die fullhd bechmarks sind sehr wohl zu sehen, dennoch geht der andere quatsch mit in die wertung ein.
Die Ergebnisse zwischen VGA und FullHD unterscheiden sich doch kaum? Jedenfalls nicht so sehr als dass es das Fass rechtfertigen würde das du hier gerade aufmachst...
Duplex
2015-06-14, 15:16:35
Ich habe den Verdacht das sich AMD bei den +40% IPC auf Core+SMT beziehen wird.
Zieht man dann die 20% SMT skalierung ab, dann bleibt natürlich nicht mehr viel übrig, das würde auch erklären warum man wieder auf 8 Kerne setzen müsste.
Gibt es den eine Quelle von AMD wo die 40% IPC Verbesserungen ohne SMT bestätigt werden ?
IPC Messungen sollte man immer bei gleichem Takt ohne SMT & ohne Turbo durchführen, auf neue Befehlssätze sollte man ebenso verzichten.
w0mbat
2015-06-14, 15:23:10
Woher dieser Verdacht?
Duplex
2015-06-14, 15:24:44
SMT darf man in IPC Angaben nicht einberechnen.
Bei Intel hat man durch SMT ca. 20% mehr Performance, wenn AMD das bei den 40% mit einrechnet, dann muss das logischerweise abgezogen werden.
20% mehr IPC als Exavator wären z.b. nur 30% mehr IPC als K10 oder Steamroller, Intel wäre dann immer noch vorne bei der Performance pro Kern.
Wenn ich bei der IPC fast gleichauf mit Intel wäre, warum soll ich dann im Mainstream Markt 8 Kerne mit 16 Threads anbieten? Irgendwas ist hier doch faul.
w0mbat
2015-06-14, 15:27:58
Das heißt vom i7 4790K muss man eigentlich 20% IPC abziehen? Das bedeutet ja, dass Intel nicht wirklich so viel vor AMD ist.
Oder willst du sagen, dass ein 4C/8T Zen bei gleichem Takt nur 20% schneller als als ein 4M/8T BD? Oder ein 8C/16T Zen ist 40% schneller als ein 4M/8T BD?
Oder 1C/2T Zen ist 20% schneller als 1M/2T BD? Oder 1C/2T Zen ist 40% schneller als 1/2M BD?
Ich verstehen nämlich deine Sorge dahinter nicht.
Duplex
2015-06-14, 15:32:42
Du verstehst das falsch, bei Intel muss man nichts abziehen.
Die 40% Verbesserungen von AMD können Core+SMT Angaben sein.
Reine IPC Verbesserungen können dann gleich anders aussehen.
Intels IPC ist zwischen 60-70% schneller als AMD Piledriver.
+40% IPC ohne SMT wäre natürlich Super für AMD, dann wäre der Abstand nicht mehr so groß, dann würde ein 6C/12T reichen.
Ist das hier ein Wahrsager- und Milchmädchenwettbewerb? Das ist kein Spekulieren mehr, sondern reines stochern im Nebel.
dargo
2015-06-14, 15:37:33
Ich amüsiere mich köstlich. ;D
w0mbat
2015-06-14, 15:41:29
@Duplex: mach daraus doch einfach mal fassbare Angaben, bzw. Vergleiche. Ist Intels IPC (nach deinen Angaben 60-70% höher) mit oder ohne SMT?
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.