PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel-CPU mit AMD-Grafik (Kaby-Lake-G)


Seiten : [1] 2 3 4

BoMbY
2017-10-30, 13:57:46
Da es thematisch eigentlich nirgendwo passt, erstmal ein paar Indizien für das von Kyle Bennet schon vor langer Zeit gestreute Gerücht, dass da irgendwas in Arbeit ist:

SiSoft Sandra:

Intel Kabylake Client platform Kabylake Client System (Intel Kabylake DDR4 RVP17) (http://ranker.sisoftware.net/show_system.php?q=cea598ab9fa89aa99fb9dee3ceffd9ab96a781e8d5e5c3ab96a680f8c5f5d3 b6d3eedef88bb68e&l=en):


Genuine Intel(R) CPU 0000 @ 3.10GHz (4C 8T 3GHz/4.1GHz, 2.7GHz IMC/3.8GHz, 4x 256kB L2, 8MB L3) (http://ranker.sisoftware.net/show_run.php?q=c2ffcdeb8aebd6e2d5e0d5eddbfd8fb282a4c1a499a98ffcc1f9&l=en)
694E:C0 (1536SP 24C 550MHz, 16kB L2, 4GB 500MHz 1024-bit) (OpenCL) (http://ranker.sisoftware.net/show_system.php?q=cea598ab9fa89aa99fb9dee3ceffd9ab96a781e8d5e5c3ab96a680f8c5f5d3 b6d3eedef88bb68e&l=en)


3DMark 2011:


4c/8t Kabylake Sample und 694C:C0 (https://www.3dmark.com/compare/3dm11/12220458/3dm11/12312851?locale=en_GB#)


Geekbench:

Kabylake 4c/8t Sample und 694C:C0 (24CU, gfx804; 1 GHz; 4 GB) (https://browser.geekbench.com/v4/compute/811174)


Bei GFX- und Compubench gibt es auch noch Einträge.

Scheinbar sind 0x694C und 694E:C0 AMD GPUs mit 24 CU, gfx804 sowie 4 GB HBM. GFX804 ist die Polaris-Reihe, aber keine der bekannten Polaris-GPUs hat diese Konfiguration (Vega 11 ist sicher >= gfx900). Diese beiden IDs wurden bisher ausschließlich in Kombination mit diesen Kabylake-Samples gesehen, scheinbar immer auf dem "Intel Corp. Kabylake DDR4 RVP17" Motherboard.

Nakai
2017-10-30, 14:15:52
Der Treiber kann zurückgeben was er möchte. Das wird Vega11 sein. Ergo unterhalb von P10 mit einem HBM2-Stack. Das passt ganz gut zu den geleakten Daten.

Ich guck mal später in CodeXL rein, da wird die GPU schon aufgelistet, aber kompilieren von OpenCL klappt beim gfx804 noch nicht.

BoMbY
2017-10-30, 16:29:57
Ja, er kann schon was falsches anzeigen, aber ich habe noch nie gesehen, dass dort wirklich falsche Angaben gemacht wurden. Ich denke durch diesen Chip kamen diese "Vega 11 mit 1x4 GB HBM" Gerüchte auf, aber ich würde eine Menge darauf wetten, dass dies nicht Vega 11 ist.

BoMbY
2017-11-03, 20:08:16
Ein Reddit-User hat noch mehr ausgegraben (https://www.reddit.com/r/Amd/comments/7ahb6z/mr_polaris_inside_intel_kabylake_cpu_polaris_gpu/?st=j9k9hn5y&sh=ed6193c8), zum Teil leider nur Screenshots ohne direkten Link, aber das passt ins Bild:

https://i.imgur.com/T3WqBmdh.jpg (https://i.imgur.com/T3WqBmd.jpg)

https://i.imgur.com/dr4FzTah.jpg (https://i.imgur.com/dr4FzTa.jpg)

https://i.imgur.com/sWpABiBh.jpg (https://i.imgur.com/sWpABiB.jpg)

https://www.3dmark.com/compare/3dm11/12169354/3dm11/12342985#

i7-8705G + 694E:C0
i7-8706G + 694E:C0
i7-8809G + 694C:C0

...

Edit: Kaby Lake G (https://benchlife.info/intel-kaby-lake-g-confirm-in-roadmap-with-14nm-04032017/) ?

y33H@
2017-11-04, 22:13:18
Sieht sehr nach KBL-G aus, mal gucken wo der abseits eines NUC drin landet.

Pirx
2017-11-06, 12:44:42
whatever https://www.morningstar.com/news/dow-jones/TDJNDN_201711063142/rivals-intel-and-amd-team-up-on-pc-chips-to-battle-nvidia.html

BoMbY
2017-11-06, 12:54:00
Heute Montag, oder nächste Woche Montag?

Pirx
2017-11-06, 13:07:03
tja kA, hoffentlich nicht "an einem Montag" ;-)

Pick
2017-11-06, 13:15:06
Heute Montag, oder nächste Woche Montag?
aber in den USA heute Sonntag :wink:

deekey777
2017-11-06, 13:59:57
whatever https://www.morningstar.com/news/dow-jones/TDJNDN_201711063142/rivals-intel-and-amd-team-up-on-pc-chips-to-battle-nvidia.html
WSJ berichtet darüber auch, https://www.wsj.com/amp/articles/rivals-intel-and-amd-team-up-on-pc-chips-to-battle-nvidia-1509966064

Bzw. das ist der gleiche Text.

BoMbY
2017-11-06, 14:09:05
Ja, nur einmal mit, und einmal ohne, Paywall ... :)

deekey777
2017-11-06, 15:04:48
Interessant ist das schon:
Intel könnte damit ein "Ding" anbieten, mit dem sich viel kompaktere Geräte herstellen lassen. Für den 2D-Alltag können sie weiterhin ihre eigene IGP verwenden, für 3D/GPGPU die externe Radeon-GPU. Aber ich habe das miese Gefühl, dass Intel mit dieser Lösung nur versucht, AMDs APUs von Apple fernzuhalten. :ulol:

Auch könnte man damit die brutale Dominanz von Nvidia brechen (abseits von Apple).

Nakai
2017-11-06, 15:05:29
https://newsroom.intel.com/editorials/new-intel-core-processor-combine-high-performance-cpu-discrete-graphics-sleek-thin-devices/

Bestätigt.:)

iuno
2017-11-06, 15:06:29
Ich verstehe es ueberhaupt nicht. AMD hat endlich brauchbare CPU und soll jetzt die GPU hergeben, sind die noch ganz dicht?
Und Intel? Fuer die ist es doch auch wesentlich mehr Aufwand, dafuer dass es bei ULP Geraeten doch eh kein Kaufargument ist.
edit: mit HBM auch noch :facepalm:

Nakai
2017-11-06, 15:07:08
Das ist kein Polaris 10 oder so, da steht HBM2. Das ist Vega11.

deekey777
2017-11-06, 15:09:14
Ich verstehe es ueberhaupt nicht. AMD hat endlich brauchbare CPU und soll jetzt die GPU hergeben, sind die noch ganz dicht?
Und Intel? Fuer die ist es doch auch wesentlich mehr Aufwand, dafuer dass es bei ULP Geraeten doch eh kein Kaufargument ist.
AMD hat seit der Vorstellung der Polaris-Generation eine potente mobile Familie: Wie viele Produkte abseits Apple mit einer mobilen Polaris kennst du? Asus ROG Stryx mit Ryzen zählt nicht.

So schaffen sie (RTG) einen Sprung nach vorn.

iuno
2017-11-06, 15:11:34
Und dafuer sich direkt die Chance verbauen, dass APUs doch noch irgendwie relevant werden?

deekey777
2017-11-06, 15:19:01
Und dafuer sich direkt die Chance verbauen, dass APUs doch noch irgendwie relevant werden?
Argh, nein. Warum?

Die Intel-Radeons scheinen gerade deutlich stärker zu sein als die APUs. Eigentlich ist das eine Antwort auf Nvidias MaxQ-Initiative (größenmäßig, nicht leistungsmäßig).

The new product, which will be part of our 8th Gen Intel Core family, brings together our high-performing Intel Core H-series processor, second generation High Bandwidth Memory (HBM2) and a custom-to-Intel third-party discrete graphics chip from AMD’s Radeon Technologies Group* – all in a single processor package.

Das spricht gerade für einen deutlich höheren "Watt"-Bereich, also dünnere, ggf. kleinere Geräte als die heutigen 15-Zöller mit einem i5-7300H und einer Geforce 1050/1060.

HOT
2017-11-06, 15:19:32
Ich glaub nicht, dass das Produkt für Intel ein normaler V11 ist. Ich denke, der ist zu groß. Das wird ein echtes semi-Custom-Produkt sein, vllt. sogar gar nicht 14LPP sondern 16FF+. Es ist auch nicht sicher, ob das Teil vollständig Vega ist, oder eher ein Vega/Polaris-Hybride, so wie die Konsolen SoCs. Wenn das wirklich semi-Custom ist, legt Intel ja die Spezifikationen dafür fest.

Nakai
2017-11-06, 15:20:46
Ich glaub nicht, dass das Produkt für Intel ein normaler V11 ist. Ich denke, der ist zu groß. Das wird ein echtes semi-Custom-Produkt sein, vllt. sogar gar nicht 14LPP sondern 16FF+. Es ist auch nicht sicher, ob das Teil vollständig Vega ist, oder eher ein Vega/Polaris-Hybride, so wie die Konsolen SoCs. Wenn das wirklich semi-Custom ist, legt Intel ja die Spezifikationen dafür fest.

Das wäre dann noch krasser. :freak:

Dann machen die ganzen "Leaks", dass es ein Polaris sein sollte auch Sinn. Ein Polaris mit HBM2-MemoryInterface.

Pirx
2017-11-06, 15:22:41
Ist das jetzt der(?) fehlende Semicustom-Deal?

edit: https://www.pcworld.com/article/3235934/components-processors/intel-and-amd-ship-a-core-chip-with-radeon-graphics.html

robbitop
2017-11-06, 15:24:07
Und dafuer sich direkt die Chance verbauen, dass APUs doch noch irgendwie relevant werden?

Meinst du nicht, dass Intel alternativ sonst von NV eine GPU bekommen hätte. In dem Fall hätte es das Konkurrenzprodukt eh gegeben. Dann auch kein schlechteres. Ergo gleiche Bedrohung. Dann doch lieber mit dran verdienen, oder?

HOT
2017-11-06, 15:24:16
Das wäre dann noch krasser. :freak:

Dann machen die ganzen "Leaks", dass es ein Polaris sein sollte auch Sinn. Ein Polaris mit HBM2-MemoryInterface.


Jo das wär dann ein "winziger" Interposer mit einem Polaris/Vega-Hybriden mit 1536 Shadern und einem HBM-Stack, zusammen kaum größer als 250mm². Das passt dann zusammen auf ein kleines Package mit einem KBL-R-Die, später dann CFL.

Meinst du nicht, dass Intel alternativ sonst von NV eine GPU bekommen hätte. In dem Fall hätte es das Konkurrenzprodukt eh gegeben. Dann auch kein schlechteres. Ergo gleiche Bedrohung. Dann doch lieber mit dran verdienen, oder?

Das ist ein anderer Markt. Die APUs sind ja nicht mal halb so stark wie das Ding. Besser man verkauft semi-Custom-GPUs als auch keine APUs :freak:

deekey777
2017-11-06, 15:28:15
Ist das jetzt der(?) fehlende Semicustom-Deal?

edit: https://www.pcworld.com/article/3235934/components-processors/intel-and-amd-ship-a-core-chip-with-radeon-graphics.html

One interesting wrinkle: Intel will be responsible for supplying the drivers for the Radeon GPU, though company engineers won’t write the original code. An Intel representative said they’re working closely with AMD’s Radeon business to supply “day one” drivers for new games, when those drivers become available.

Intel lernt, wie man vernünfitge Treiber schreibt. ;D

HOT
2017-11-06, 15:32:25
Also nach den Leaks sind das ganz normale 17.40er :freak:
Das wird dann einfach unter Intels Label laufen und fertig. Der Trick ist doch der, dass Intel keine Treiber mehr schreiben muss :D.
Besser ist das.

BoMbY
2017-11-06, 15:40:37
Irgendwie eine Menge Luft, oder?

https://pbs.twimg.com/media/DN9F_j-UQAEudYG.jpg:orig

deekey777
2017-11-06, 15:41:32
Wo kommt Intels GPU hin?

Daredevil
2017-11-06, 15:45:01
Ist das vielleicht schon ein Modell, was beim iMac verbaut werden soll?
Apple ist ja durchaus immer darauf aus, mehr Platz zu sparen.

Blediator16
2017-11-06, 15:47:13
Die Leute dürfen ruhig aus den Löchern kriechen und sich bei Kyle entschuldigen :)

HOT
2017-11-06, 15:49:31
Wo kommt Intels GPU hin?
Nach dem Bild ist das evtl kein SoC, sondern eine CPU mit GPU+HBM-Interposer. Das Teil braucht dann halt nen I/O-Hub. Die Größenverhältnisse passen dann auch.
Ich hab auch noch ne ganz verwegene Idee: Das I/O ist in der GPU vorhanden, also von AMD/ASMedia gemacht.

deekey777
2017-11-06, 15:49:38
Die Leute dürfen ruhig aus den Löchern kriechen und sich bei Kyle entschuldigen :)
Der liegt bestimmt unter einem Sauerstoffzelt, als die Sache offiziell wurde.

Wixi
2017-11-06, 15:51:14
Wo kommt Intels GPU hin?

In die Tonne :biggrin:

deekey777
2017-11-06, 15:54:17
Nach dem Bild ist das evtl kein SoC, sondern eine CPU mit GPU+HBM-Interposer. Das Teil braucht dann halt nen I/O-Hub. Die Größenverhältnisse passen dann auch.

Dann muss die Radeon extrem effizient sein (im 2D-Betrieb).

Ich glaub nicht, dass das Produkt für Intel ein normaler V11 ist. Ich denke, der ist zu groß. Das wird ein echtes semi-Custom-Produkt sein, vllt. sogar gar nicht 14LPP sondern 16FF+. Es ist auch nicht sicher, ob das Teil vollständig Vega ist, oder eher ein Vega/Polaris-Hybride, so wie die Konsolen SoCs. Wenn das wirklich semi-Custom ist, legt Intel ja die Spezifikationen dafür fest.

Die PS4Pro-GPU könnte sich da anbieten (aber niatürlich nicht mit 36 CUs).

BoMbY
2017-11-06, 15:57:41
Nach dem Bild ist das evtl kein SoC, sondern eine CPU mit GPU+HBM-Interposer.

Intel schreibt EMIB = Embedded Multi-Die Interconnect Bridge (https://www.intel.com/content/www/us/en/foundry/emib.html), also kein Interposer.

Naitsabes
2017-11-06, 16:00:07
Ob die GPU vielleicht sogar bei Intel gefertigt wird?
Da wäre dann richtig heftig :D

Pirx
2017-11-06, 16:00:52
Ob es jetzt hier ein Update zum Update gibt? https://nasilemaktech.com/2017/10/09/intel-chips-vega-inside/

Ob es diesen Vega bei Intel tatsächlich gibt?;D:upara: (https://www.tweaktown.com/news/59449/intel-working-mobile-cpus-amd-vega-gpu-tech/index.html)

dildo4u
2017-11-06, 16:04:42
Ich verstehe es ueberhaupt nicht. AMD hat endlich brauchbare CPU und soll jetzt die GPU hergeben, sind die noch ganz dicht?
Und Intel? Fuer die ist es doch auch wesentlich mehr Aufwand, dafuer dass es bei ULP Geraeten doch eh kein Kaufargument ist.
edit: mit HBM auch noch :facepalm:
Das ganze wird zu teuer als das man es als AMD Plattform gut absetzen kann.
AMD hat mit Ryzen erfolg da sie Intel massiv unterbieten was Preis pro Core angeht,das ist dank HBM hier nicht machbar ich schätze mal das Notebook's mit dieser Konstruktion bei 1500€ anfangen.

Zockerfrettchen
2017-11-06, 16:14:16
Ich finde die APU durchaus sinnvoll. Es handelt sich ein Produkt, welches weder AMD noch Intel alleine hätten herstellen können. Intel fehlt die entsprechende GPU, AMD hat sehr beschränkte Ressourcen, man betrachte die langwierige Einführung von Ryzen, welcher noch immer nicht im gesamten Produktportfoloi angekommen ist (APUs). Zudem stelle ich mal in den Raum, dass die Fertigung durch Intel stattfindet und AMD so die Klippe GloFo umschifft. Ich gehe davon aus, das es sich hierbei um einen Chip mit hohen geplanten Stückzahlen handelt. Von daher würde die Produktionskapazitäten für eine Fertigung durch Intel sprechen, GloFo dürfte 2ß18 genug mit der Fertigung der Ryzen, Ryzen APUs (mobile und desktop) und Epyc zu tun haben.

Und nochmal: Ich denke nicht, das AMD die Entwicklungsgelder hat, um alle Produkte und Segmente alleine zu besetzen. Durch die Kooperation spart man sich diese, im Idealfall zahlt Intel für die Bereitstellung der Treiber, sodass AMD in diesem Bereich personell aufrüsten kann.
Für mich gibts hier nur Gewinner.....

Edit:
Mit hohen Stückzahlen meine ich natürlich unter Betrachtung eines höherpreisigen Segmentes. Ich habe da diverse Appleprodukte im Kopf, man bedenke auch die verbauten Vega im IMac Pro....

HOT
2017-11-06, 16:21:39
Ob die GPU vielleicht sogar bei Intel gefertigt wird?
Da wäre dann richtig heftig :D
Das kann sein... das wär echt hart....

w0mbat
2017-11-06, 16:35:15
Ist das vielleicht schon ein Modell, was beim iMac verbaut werden soll?
Apple ist ja durchaus immer darauf aus, mehr Platz zu sparen.

Ich glaube, da bist du auf dem richtigen Weg. Das sieht mir verdammt nach einer Kombination aus, die extra für Apple erstellt wurde. iMac, MacBook Pro, Mac mini etc.

Und dank extra dies für GPU + HBM2 (ist ja ein MCM mit 3 dies) tritt dieser Chip auch bestimmt nicht gegen RR an.

Die spannend Frage wird jetzt was für eine Architektur da drin steckt. Ich gehe ja von Vega aus, Polaris halte ich wegen dem HBM2 für unwahrscheinlich.

M4xw0lf
2017-11-06, 16:41:43
dafuq, es existiert doch! Geist = geblasen

Achill
2017-11-06, 16:48:54
Das alte Gerücht scheint war zu sein. Es wird eine Intel-CPU mit AMD-GPU kommen, die offizielle Presse-Mitteilung ist raus:


[..]
Today, we’re sharing initial details on a new product that does exactly that, reducing the usual silicon footprint to less than half that of standard discrete components on a motherboard. That’s more freedom for OEMs to be creative and deliver innovative thin and light designs with improved thermal dissipation. It also delivers space to add new features, create new board layouts, explore new cooling solutions or increase battery life.

The new product, which will be part of our 8th Gen Intel Core family, brings together our high-performing Intel Core H-series processor, second generation High Bandwidth Memory (HBM2) and a custom-to-Intel third-party discrete graphics chip from AMD’s Radeon Technologies Group* – all in a single processor package.

It’s a prime example of hardware and software innovations intersecting to create something amazing that fills a unique market gap. Helping to deliver on our vision for this new class of product, we worked with the team at AMD’s Radeon Technologies Group. In close collaboration, we designed a new semi-custom graphics chip, which means this is also a great example of how we can compete and work together, ultimately delivering innovation that is good for consumers.
[..]


--
Btw. Wusste nicht wo jetzt der Thread gut aufgehoben ist, da ja Mix aus AMD+Intel und CPU+GPU. Kann gern in einen besser passenden Thread verschoben werden.

davidzo
2017-11-06, 16:49:16
24CUs bei konservativen 1Ghz mit einem single stack HBM2 Interface (-210gb/s und wahrscheinlich 32 Rops, halbsoviel wie Vega56). Was für eine Leistung können wir erwarten?

Die Daten liegen ja irgendwo zwischen der rx460 und rx470, eine GTX 1060 Max-Q mit einem auf 60Watt gedrosseltem GP106 wird man wohl nicht erreichen. Die 70Watt GTX 1050 Ti dagegen hat auf dem Papier keine Chance gegen einen 24CU Chip mit HBM egal ob mit Polaris oder Vega IP.

Und wie zum Teufel kriegt Intel das in den 45W TDP Envelope einer H-CPU? Bringen die 30-40% weniger Takt gegenüber bisherigen Vegas so viel?

Zockerfrettchen
2017-11-06, 17:03:49
24CUs bei konservativen 1Ghz mit einem single stack HBM2 Interface (-210gb/s und wahrscheinlich 32 Rops, halbsoviel wie Vega56). Was für eine Leistung können wir erwarten?

Die Daten liegen ja irgendwo zwischen der rx460 und rx470, eine GTX 1060 Max-Q mit einem auf 60Watt gedrosseltem GP106 wird man wohl nicht erreichen. Die 70Watt GTX 1050 Ti dagegen hat auf dem Papier keine Chance gegen einen 24CU Chip mit HBM egal ob mit Polaris oder Vega IP.

Und wie zum Teufel kriegt Intel das in den 45W TDP Envelope einer H-CPU? Bringen die 30-40% weniger Takt gegenüber bisherigen Vegas so viel?

Evl bessere Intel-Fertigung (14++) im Vergleich zu 14nm von Glofo?

Kartenlehrling
2017-11-06, 17:10:11
Erst wenn sowas in einem Chip vergossen wird finde ich es interessant.

https://simplecore.intel.com/newsroom/wp-content/uploads/sites/11/2017/11/Intel-8th-Gen-CPU-discrete-graphics-2.jpg

Thunder99
2017-11-06, 17:10:57
Schön, aber wieso macht AMD das nicht selbst? :confused: :freak:

Loeschzwerg
2017-11-06, 17:19:10
Weil AMD die nötige Technologie dafür (noch) nicht hat.

https://img.purch.com/x1-png/w/755/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9BL0ovNzA1NDAzL29yaWdpbmFsL3gxLlBORw==

Schnoesel
2017-11-06, 17:26:22
Könnte AMD was Intel über EMIB macht nicht über einen Interposer realisieren? Sollte ja "nur" kostenintensiver sein.

unl34shed
2017-11-06, 17:28:11
ja eigentlich schon

eratte
2017-11-06, 17:31:53
Wer kann wohl "hochpreisige" Produkte besser an den Man/Frau bringen und hat entsprechende Kanäle dazu? Intel und Apple.

Die Geräte werden nicht in der selben Preisklasse etc sich befinden wie Notebooks mit RR.

BoMbY
2017-11-06, 17:34:14
Könnte AMD was Intel über EMIB macht nicht über einen Interposer realisieren? Sollte ja "nur" kostenintensiver sein.

Das EMIB ist viel dünner als die Interposer-Lösungen. Für Ultra-Slim sind aktuelle Interposer-Lösungen viel zu fett:

https://i.imgur.com/Rf9Psqv.jpg

Ein EMIB-Package dürfte gut ein Drittel oder Viertel der Dicke haben.

Ich könnte mir gut vorstellen, dass AMD in Zukunft auch auf EMIB setzen wird - durch das Patent Cross License Agreement dürfte das grundsätzlich kein Problem sein.

Ergänzung:

https://i.imgur.com/zB754qU.png

Loeschzwerg
2017-11-06, 17:34:47
Könnte AMD was Intel über EMIB macht nicht über einen Interposer realisieren? Sollte ja "nur" kostenintensiver sein.

Kostenintensiver ist ein Punkt. Das ganze Package wird höher und ist daher für "Slim" Notebooks weniger geeignet.
Möglicherweise ist auch die thermische Belastung ein kritischer Punkt.

Edit: Der Punkt für die Schnelligkeit geht an BoMbY :D

gravitationsfeld
2017-11-06, 17:39:46
In die Tonne :biggrin:
Wo sie hingehoert.

Meinst du nicht, dass Intel alternativ sonst von NV eine GPU bekommen hätte. In dem Fall hätte es das Konkurrenzprodukt eh gegeben. Dann auch kein schlechteres. Ergo gleiche Bedrohung. Dann doch lieber mit dran verdienen, oder?
Hahahaha, guter Witz. Bevor du von Jen-Hsun die Technologie integrierst will er CEO von deiner Firma sein und ein Blutritual mit deinen Kindern.

aufkrawall
2017-11-06, 17:41:40
Wo sie hingehoert.
Wird aber erstmal nicht passieren, in den Linux-Treibern sind schon zig Gens nach 9.5 skizziert.

gravitationsfeld
2017-11-06, 17:42:10
Man darf ja noch hoffen. Ausserdem kann auch Hardware die schon in Entwicklung ist abgesaegt werden.

Loeschzwerg
2017-11-06, 17:46:25
Im Bereich Multimedia (z.B. Netflix 4k) sind die Intel IGPs doch ganz brauchbar.

Und wie zum Teufel kriegt Intel das in den 45W TDP Envelope einer H-CPU? Bringen die 30-40% weniger Takt gegenüber bisherigen Vegas so viel?

Gute Frage. Um ehrlich zu sein bin ich mit dem Kopf aber schon bei möglichen Optionen im Konsolenbereich :)

Intel CPU + RTG GPU + HBM auf einem Package und "extern" könnte man noch DDR/GDDR als zusätzliche Kapazität anbinden (Stichwort HBCC).

Edit:
Similarly, the power sharing framework is a new connection tailor-made by Intel among the processor, discrete graphics chip and dedicated graphics memory. We’ve added unique software drivers and interfaces to this semi-custom discrete GPU that coordinate information among all three elements of the platform. Not only does it help manage temperature, power delivery and performance state in real time, it also enables system designers to adjust the ratio of power sharing between the processor and graphics based on workloads and usages, like performance gaming. Balancing power between our high-performing processor and the graphics subsystem is critical to achieve great performance across both processors as systems get thinner.

Irgendwie wird man das ganze dann schon in die 45W pressen können.

deekey777
2017-11-06, 17:59:00
Man darf ja noch hoffen. Ausserdem kann auch Hardware die schon in Entwicklung ist abgesaegt werden.
Man muss aber realistisch sein: Intel braucht eine Grafiklösung, die viel kleiner ist als das Angebot von RTG. Die kleineste moderneGPU ist der Polaris 12, kleiner sind Grafikchip wie die wieder umgelabelte R 520/R 530 in 28 nm und GCN 1.2.

gravitationsfeld
2017-11-06, 18:12:17
Wenn sie die AMD-GPU-IP direkt integrieren ist das auch kein Problem. Die Frage ist ob beide Parteien bereit sind so weit zu gehen.

Eldoran
2017-11-06, 18:16:29
Eine gute Frage ist, ob es sich dabei um Vega 11 handelt. Ich glaube zwar eher nicht, es hört sich eher nach einer individuellen Lösung an. Es ist eben primär eine Lösung für das Problem wirtschaftlich eine premium APU anbieten zu können. Es war einfach kaum rentabel nur für die (relativ) wenigen benötigten Stück eine extra Die Revision zu fertigen mit mehr CUs und ggf. Crystal Well. Es ist im Endeffekt primär eine sehr kompakte Bauform für eine mobile dCPU + dGPU. Es sollte damit auch von der Performance eine ganz andere Liga zu bisherigen Lösungen sein.
Raven Ridge ist da ziemlich sicher deutlich darunter, das ist noch eine klassische APU.

deekey777
2017-11-06, 18:25:52
Wenn sie die AMD-GPU-IP direkt integrieren ist das auch kein Problem. Die Frage ist ob beide Parteien bereit sind so weit zu gehen.
Dann würde AMD zum Monopolisten. :ugly:

Zockerfrettchen
2017-11-06, 18:28:12
Mal ne Frage... Könnte das Teil bereits in 10nm bei Intel laufen? Q1 2018 habe ich da im Kopf. Liege ich da völlig falsch? Würde auch die TDP ein wenig erklären.

deekey777
2017-11-06, 18:31:19
Die Frage ist, wer die GPU fertigen wird.

konkretor
2017-11-06, 18:42:28
Die Frage ist, wer die GPU fertigen wird.


richtig, ich glaube das ist aktuell noch spannender wie diese News hier

gravitationsfeld
2017-11-06, 18:43:58
Dann würde AMD zum Monopolisten. :ugly:
Noe, gibt ja NVIDIA und die ganzen ARM-SoCs.

Blediator16
2017-11-06, 18:50:58
Jetzt noch die CPUs an Nvidia verkaufen :freak:

LadyWhirlwind
2017-11-06, 19:04:21
Also hat Intel im Grafik bereich -vorerst - ambitionen im „High-End“ Bereich aufgegeben. Grossfirmen sehen Geschäfte mit der Konkurenz auch immer sehr pragmatisch.

Der Grund für den Deal ist wohl, das Intel den Forderungne der Kunden (Apple?!) im höheren Preisbereich nach potenter Grafik nicht nachkommen konnte. Vorallem in Laptops mit hochauflösenden Displays sind die Intel GPUs wohl einfach zu langsam. Wenn das Volumen keine eigene Entwicklung rechtfertigt, dann macht es natürlich Sinn sich die Technologie einzukaufen. Da spielt es auch keine Rolle, wenn der Lieferant der grösste Konkurrent ist.

Und AMD geht es nicht gut genug um solch einen Deal abzulehnen.

Blediator16
2017-11-06, 19:06:36
Also hat Intel im Grafik bereich -vorerst - ambitionen im „High-End“ Bereich aufgegeben. Grossfirmen sehen Geschäfte mit der Konkurenz auch immer sehr pragmatisch.

Der Grund für den Deal ist wohl, das Intel den Forderungne der Kunden (Apple?!) im höheren Preisbereich nach potenter Grafik nicht nachkommen konnte. Vorallem in Laptops mit hochauflösenden Displays sind die Intel GPUs wohl einfach zu langsam. Wenn das Volumen keine eigene Entwicklung rechtfertigt, dann macht es natürlich Sinn sich die Technologie einzukaufen. Da spielt es auch keine Rolle, wenn der Lieferant der grösste Konkurrent ist.

Und AMD geht es nicht gut genug um solch einen Deal abzulehnen.

JHH hätte sicher auch sehr gerne seine GPUs auf dem Monster gesehen.

basix
2017-11-06, 19:15:48
Polaris ist auch gar nicht schlecht, was Low Power anbelangt, solange man ihn nicht zu hoch taktet. Ausserdem sind PS4 / Xbox One Polaris-Tech, das macht für Intel eigentlich Sinn bezüglich Kompatibilität etc.

Ich erwarte 2k Shader mit ca. 1GHz max. Boost-Takt. Das könnte man dann zusammen mit 4C/8T gut bis hinauf zu 65W skalieren (z.B. für einen iMac). Die Breite von 2k Shadern ist gut für die Energieeffizienz und man wäre einiges schneller als ein heutiger iMac mit z.B. einer Radeon 560 Pro. AMD packt in Raven Ridge 640 Vega Shader mit bis zu 1.3GHz in 15W. 3x mehr Shader und ein wenig reduzierter Takt + HBM könnten evtl. auch ein 45W Modell mit obigen Specs ergeben :)

gixe
2017-11-06, 19:27:03
Also hat Intel im Grafik bereich -vorerst - ambitionen im „High-End“ Bereich aufgegeben. Grossfirmen sehen Geschäfte mit der Konkurenz auch immer sehr pragmatisch.

Irgendwie schade, die aktuellen intel GPUs waren gar nicht so schlecht. Linuxtreiber waren top, teilweise sogar besser als AMD/Nvidia, aktuelle Features(waren glaube ich sogar die ersten die einen "vollen" DX12 chip hatten) und einigermaßen gute zertifizierte Unterstützung von CAD und anderer professioneller Software und auch die großen Games liefen einigermaßen.
Hoffe nicht das nun Intel die eigenen GPUs wieder so vernachlässigt das sie wie die alten GMAs werden, das war ne GPU die man seinem ärgsten Feind nicht wünschte.

Flusher
2017-11-06, 19:29:11
Alleine schon wegen dem HBM Speicherinterface kann es gar nicht Polaris sein. Es wird wohl eher auf ein V11 Derivat hinauslaufen.

Aber cool für AMD. Wenn sie damit werben dürfen, und Intel Ultrabooks standardmäßig mit dem Crimson Treiber ausgeliefert werden, dürfte das ein netter Werbeeffekt für AMD sein. Damit durchbricht man endlich die Barriere in den Köpfen der Masse "AMD = instabil" zu "Na wenn selbst Intel zu AMD tech greift..."

aufkrawall
2017-11-06, 19:33:18
Im Bereich Multimedia (z.B. Netflix 4k) sind die Intel IGPs doch ganz brauchbar.

Joa, für Video-Processing mit madVR oder mpv sind sie auch nicht so schrecklich bandbreitenlimitiert wie für Spiele.

BoMbY
2017-11-06, 20:01:47
Also erstmal sieht es so aus, als wäre auch eine Intel iGPU auf dem CPU-Die. Es könnte also auch eine Switching-Logik geben, welche die AMD-GPU komplett ausschaltet im 2D-Betrieb. Genauso könnte die AMD-GPU auch kein UVD/VCE/VCN enthalten, weil das bereits mit über die Intel CPU+iGPU abgefackelt wird. Und der Memory Controller und PHY IP ist bei AMD nur ein Baustein von vielen, der ausgetauscht werden kann. Da es sich um eine Semi-Custom-GPU handelt ist praktisch alles möglich.

Loeschzwerg
2017-11-06, 20:11:56
Alleine schon wegen dem HBM Speicherinterface kann es gar nicht Polaris sein. Es wird wohl eher auf ein V11 Derivat hinauslaufen.

"a custom-to-Intel third-party discrete graphics chip"

Und wie BoMbY schon schreibt, der MC ist auch nur ein Baustein in einem modularen Konzept.

YfOrU
2017-11-06, 20:19:39
Vermutlich ist wie bei den bisherigen H SKUs (SKL und KBL) die PCH nicht on Package (in den Animationen sind es auch nur drei Chips).
MBP 15 mit i7-6700HQ (blau ist die PCH, gelb die dGPU): https://d3nevzfk7ii3be.cloudfront.net/igi/CSVuDEmvqgaDMqSn.huge

Auf die IGP wird man kaum verzichten. Die braucht im Office/Media Betrieb nur einen Bruchteil der Energie. Mit einer dauerhaft aktiven dGPU geht die Akkulaufzeit immer komplett den Bach runter.

gravitationsfeld
2017-11-06, 20:32:29
Wieso sollte sie nur einen Bruchteil der Energie brauchen?

Das dedizierte GPUs so viel Strom brauchen liegt daran, dass PCIe Strom frisst ohne Ende und die Spannungsversorgung extra ist. Das ist bei einem solchen Package etwas anderes.

YfOrU
2017-11-06, 20:37:23
Keine PCIe Interfaces, keine zusätzlich aktiven Speichermodule und Controller sowie grundsätzlich deutlichst weniger Transistoren. Derart filigran (vollständige Abschaltung aller nicht benötigten Einheiten einer dGPU) ist das Power Management nicht.

Wenn die Animationen zutreffen sind CPU und dGPU für EMIB zu weit voneinander entfernt. Spricht eher für PCIe über das Package.

basix
2017-11-06, 21:05:54
Derart filigran (vollständige Abschaltung aller nicht benötigten Einheiten einer dGPU) ist das Power Management nicht.

Lies dir mal die Präsentationsfolien zu Raven Ridge durch ;) Dort wird das bei der GPU genau so gemacht. z.B. bei einem statischen Desktop muss nicht das Bild neu berechnet werden und GPU-Bereiche können abgeschaltet werden, und das ist beim Surfen oft der Fall.

YfOrU
2017-11-06, 21:07:25
Hab ich. Beispielsweise kein Power Gating der CUs wie noch bei Polaris 11. Intels Gen9 dürfte in diesem Kontext (Low Power) inzwischen ziemlich gut sein:
https://images.anandtech.com/doci/9582/83.jpg

Die GPU IP muss(te) praktisch bis zum Smartphone Format skalieren (Atom SoCs).

aufkrawall
2017-11-06, 21:10:00
z.B. bei einem statischen Desktop muss nicht das Bild neu berechnet werden
Das machen Desktop-Compositoren allerdings schon lange von sich aus, gibt dafür extra APIs in den Treibern. Ok, vielleicht schläft die Hardware jetzt noch etwas tiefer. Signifikant etwas bringen wirds für die Laufzeit nicht, mit dem Display ist eh der größte Mindestanteil relativ fix.

danarcho
2017-11-06, 21:12:02
Irgendwie schade, die aktuellen intel GPUs waren gar nicht so schlecht. Linuxtreiber waren top, teilweise sogar besser als AMD/Nvidia, ...
Unter Linux ist AMD im Moment top, die Open-Source Treiber haben extrem aufgeholt, schlagen mittlerweile locker den Closed-Source Treiber.
Aber das ist tatsächlich eine spannende Frage, ob dann die Intel Leute mit an radeonSI basteln. Ich meine, in der Community wird das eh alles nicht so eng gesehen und die haben ja auch ne Menge shared code.

Eine andere Frage die mich beschäftigt, ist, ob das Ding HSA compliant sein wird. Und falls es so sein sollte, wird Intel auch eine HSA runtime bringen? Oder wird gar ROCm drauf laufen?

Habs echt nicht kommen sehen... °°

Iamnobot
2017-11-06, 21:50:55
Und wie zum Teufel kriegt Intel das in den 45W TDP Envelope einer H-CPU? Bringen die 30-40% weniger Takt gegenüber bisherigen Vegas so viel?
Das ganze Package muss ja nicht bei 45W TDP landen, so ein 15" Macbook Pro hat ja zur 45W CPU auch noch eine ca. 30W TDP GPU verbaut.

Ich denke diese Kombination gibt es einzig und allein wegen Apple. Einerseits sehe ich wenige andere potentielle Abnehmer: die CPUs mit Iris GPU werden ja bei anderen Herstellern kaum verbaut. Andererseits will Intel den Zeitpunkt, zu dem Apple komplett auf eigenentwickelte SoCs wechseln wird sicherlich zumindest hinauszögern. Mit eigener GPU IP wäre das viel schwerer zu bewerkstelligen als mit diesem Angebot.

Digidi
2017-11-06, 22:10:14
Ich bin mal gespannt wie das Ausgeht und ob das eine Kluge Wahl war für Intel. Die hätten besser Nvidia genommen.

Amd kann jetzt voll über die APUs bestimmen. Sie wissen jetzt immer wann eine neue APU kommt von Intel und was die GPU in der Intel APU sein wird.

Man wird dann zwar vielleicht nicht bei der CPU mithalten können, aber dafür bei den eigenen APUs bei der GPU immer noch etwas drauf packen.

Der Deal mit Intel ist fast schon ein Stich ins Herz von Intel.

Brillus
2017-11-06, 22:22:22
Ich bin mal gespannt wie das Ausgeht und ob das eine Kluge Wahl war für Intel. Die hätten besser Nvidia genommen.

Amd kann jetzt voll über die APUs bestimmen. Sie wissen jetzt immer wann eine neue APU kommt von Intel und was die GPU in der Intel APU sein wird.

Man wird dann zwar vielleicht nicht bei der CPU mithalten können, aber dafür bei den eigenen APUs bei der GPU immer noch etwas drauf packen.

Der Deal mit Intel ist fast schon ein Stich ins Herz von Intel.

Da kommt die erste Frage hätte das NV mitgemacht? Und gleich die 2. Frage Apple wenn es wie vermutet primär für sie ist (Stichwort OpenCL).

Und eine Frage die mich am meisten interessiert aber noch nicht gelesen habe, kann das Teil Freesync.

deekey777
2017-11-06, 22:50:17
Ich könnte mir gut vorstellen, dass AMD in Zukunft auch auf EMIB setzen wird - durch das Patent Cross License Agreement dürfte das grundsätzlich kein Problem sein.




Klingt verrückt, aber wäre das nicht der Grund, warum AMD "nackte" Zen-Produkte entwickelt hat?

Sprich: AMD könnte das gleiche machen, was Intel jetzt angekündigt hat, indem ein CCX (oder zwei) der neuen Generation, der auf mobilen Betrieb getrimmt worden ist, mit einer dedizierten Radeon kombiniert wird, die deutlich stärker ist als die RR-APU.

w0mbat
2017-11-06, 23:07:38
Nvidia hätte gar nicht liefern können, bzw. nur deutlich schlechtere Produkte.

PHuV
2017-11-06, 23:22:58
Nvidia hätte gar nicht liefern können, bzw. nur deutlich schlechtere Produkte.
Na klar, sie verbrauchen ja viel zu wenig, und werden auch nicht so warm, und sind auch noch schneller. :facepalm:

ndrs
2017-11-06, 23:36:21
Ich könnte mir gut vorstellen, dass AMD in Zukunft auch auf EMIB setzen wird - durch das Patent Cross License Agreement dürfte das grundsätzlich kein Problem sein.
Ich glaube kaum, dass jenes viel mehr als CPU-Befehlssätze beinhaltet. Fertigungstechnologie gehört bestimmt nicht dazu.

w0mbat
2017-11-07, 00:29:14
Na klar, sie verbrauchen ja viel zu wenig, und werden auch nicht so warm, und sind auch noch schneller. :facepalm:

Nicht bei dem, was Intel hier braucht. Nvidia kann hier nicht liefern.

MadManniMan
2017-11-07, 00:30:35
Öh, könnte nochmal jemand zusammenfassen, was hier gerade passiert, pl0x?

iuno
2017-11-07, 05:03:12
Meinst du nicht, dass Intel alternativ sonst von NV eine GPU bekommen hätte. In dem Fall hätte es das Konkurrenzprodukt eh gegeben. Dann auch kein schlechteres. Ergo gleiche Bedrohung. Dann doch lieber mit dran verdienen, oder?
Es geht ja auch darum, moeglichst klein zu bauen, daher der HBM. Ich habe keine Ahnung, ob Nvidia da extra fuer Intel was gebaut haette. Und das natuerlich auch zu einem Preis, den Intel auch bereit ist zu bezahlen. Vielleicht haetten sie dazu auch was anderes gefordert wie z.B. dass Intel dafuer NVLink implementiert oder was weiss ich. Ist natuerlich alles vielleicht auch weit hergeholt, ich haette es mir aber eben auch mit Intel+Radeon nicht vorstellen koennen.
Waere NV auf ein aehnliches Angebot eingegangen, ist das Argument natuerlich nicht zu entkraeften.

Dass AMD dafuer z.B. die EMIB benutzen darf ist eher unwahrscheinlich oder? Ich meine nicht allgemein (fuer APUs, die mit Intel dann direkt konkurrieren wuerden), sondern eben fuer eine dGPU mit HBM. Sollte das wirklich V11 und kein komplett eigener custom Chip sein, wuerde das doch die Kosten doch sicher deutlich senken.

BlackBirdSR
2017-11-07, 06:33:45
Klingt doof, aber in den zukunftsmärkten ist nicht AMD sondern Nvidia ein großer mittbewerber.. Ergo schon gut hier auf AMD zu setzen...

BoMbY
2017-11-07, 09:34:13
Ich glaube kaum, dass jenes viel mehr als CPU-Befehlssätze beinhaltet. Fertigungstechnologie gehört bestimmt nicht dazu.

Opcode fällt nicht unter Patentrecht, das fällt unter Copyright, was aber auch im Patent Cross License Agreement (https://www.sec.gov/Archives/edgar/data/2488/000119312509236705/dex102.htm) enthalten ist. Und das umfasst prinzipiell alle Patente.

maguumo
2017-11-07, 09:50:25
Und eine Frage die mich am meisten interessiert aber noch nicht gelesen habe, kann das Teil Freesync.
Für das interne Display sicherlich, auch wenn das wohl nicht als Freesync vermarktet wird. Bevor es als GSync/Freesync/VESA adaptive sync für Monitore kam wurde variable Refreshrate schon als Stromsparfeature für Notebooks genutzt.

fondness
2017-11-07, 09:52:07
Das Ding ist IMHO mit ziemlich großer Wahrscheinlichkeit nichts anderes als Vega11. Der Rest ist Marketing.

pilzsammler2002
2017-11-07, 10:06:11
Denke Freesync ist def dabei da Intel (VESA Adaptive Sync) und AMD es ja beide supporten...
Kann aber sein das es nicht alle funktionen von Freesync hat da einige nicht Standard sind...

deekey777
2017-11-07, 10:39:15
Für das interne Display sicherlich, auch wenn das wohl nicht als Freesync vermarktet wird. Bevor es als GSync/Freesync/VESA adaptive sync für Monitore kam, wurde variable Refreshrate schon als Stromsparfeature für Notebooks genutzt.
Warum sicherlich? Gerade die internen Displays können nur sehr selten FreeSync (warum auch immer).

Mortalvision
2017-11-07, 10:48:45
Freesync wäre fraglich.
Imho hat so ein Chip durchaus Sinn für Laptops und Tablets. Da kann man a) damit unterwegs arbeiten. Und b) kannst du dem Kunden etwas vorführen, ändern und wieder vorführen. An Gamer wird hier bestimmt nicht gedacht.

Vega als bigchip hat ja gezeigt, dass man ihn bei niedrigen Taktraten sehr effizient trimmen kann. Da wird das bei einem abgespeckten Chip umso besser funktionieren (800MHz?)

maguumo
2017-11-07, 10:56:12
Warum sicherlich? Gerade die internen Displays können nur sehr selten FreeSync (warum auch immer).
Die internen Displays brauchen kein Freesync können, die haben keinen Scaler. Deswegen war über eDP variable Refreshrate schon möglich bevor adaptive sync es in die VESA Spezifikation geschafft hat und wurde (wird?) als Stromsparfeature genutzt. Freesync/Gsync machen das granulärer anstatt nur zwischen zwei Refreshrates hin und her zu switchen. Ist bei Notebooks also eher eine Treiber und Herstellerfrage (im Bezug darauf was das verwendete Panel mitmacht).

BoMbY
2017-11-07, 11:06:53
Unterstützung für Adaptive Sync hatte Intel schon vor langer Zeit angekündigt, ist ja auch Teil der DP-Specs. Die Treiber für diesen Intel/AMD-Zwitter dürften aber durchaus interessant werden.

Hat AMD Intel ihren Sourcecode gegeben, und Intel mach eigene Treiber? Arbeiten Intel und AMD zusammen an den Treibern (vielleicht sogar mit Vorteilen für andere AMD-Karten)? Oder wird das Teil des AMD-Treiberpakets, und Intel hat gar keinen Einfluss?

Mortalvision
2017-11-07, 11:22:25
Unterstützung für Adaptive Sync hatte Intel schon vor langer Zeit angekündigt, ist ja auch Teil der DP-Specs.

Aber nur ab 1.2a!

Lowkey
2017-11-07, 12:06:10
Hmmm ... die reine Leistungsangabe bis jetzt sieht das Ding zwischen 1050 und 1050 Ti. Damit ist Gaming zwar Möglich, aber noch eingeschränkt. Das wäre dann vielleicht eher eine HTPC APU.

MR2
2017-11-07, 12:14:17
...

Hat AMD Intel ihren Sourcecode gegeben, und Intel mach eigene Treiber? Arbeiten Intel und AMD zusammen an den Treibern (vielleicht sogar mit Vorteilen für andere AMD-Karten)? Oder wird das Teil des AMD-Treiberpakets, und Intel hat gar keinen Einfluss?

Das interessiert mich auch. Bei den gefundenen Benchmarks taucht ja ein Treiber "C94C:C0" auf. Intel wird wohl vorher testen und freigeben, oder? Einfach in AMDs Hand wird man die Treibergeschichte nicht geben. In dem HighEnd Bereich darf es keine Treiber-Probleme geben.

Auch interessant wäre ob da ein InfinityFabric und HBCC verbaut sind.

DrumDub
2017-11-07, 12:30:08
nen bisschen provokanter kommentar bei heise zu dem thema:

Das Überleben von Intel steht auf dem Spiel (https://www.heise.de/newsticker/meldung/Kommentar-Das-Ueberleben-von-Intel-steht-auf-dem-Spiel-3881364.html)

tm0975
2017-11-07, 12:33:09
Und b) kannst du dem Kunden etwas vorführen, ändern und wieder vorführen. An Gamer wird hier bestimmt nicht gedacht.

kunden? ich wette, apple hat sich diesen chip gewünscht als bedingung, weiter bei intel einzukaufen. in bezug auf kunden hat intel das geld und die marktmacht, den vielen kleinen einzelnen kunden zu diktieren, was sie gut zu finden haben. sieht man ja sehr gut an dem 7700k. nur bei apple klappt das nicht...

bloodflash
2017-11-07, 13:34:39
Das mit Apple finde ich auch sehr plausibel.

Der neue iMac Pro soll ja auch die Abwärme einer Vega56 plus Intels 18-Kerner wegschaufeln können (inkl. internem Netzteile!?) in einem Gehäuse, dass dem aktuellen iMac sehr ähnlich ist.

Also sollte eine halbierte Vega56 bei niedrigem Takt mit einem 4-8-Kerner durchaus in potenten Notebooks oder SFF-Desktops machbar sein.

Bin auf jeden Fall auf die erste Lösung gespannt, aber auch auf zukünftige Ausbaustufen (8C/16T, 8GB-HBM, 32 oder 48 CUs Vega2) und was das für Ryzen, RR und das zukünftige AMD-Portfolio bedeutet.

dargo
2017-11-07, 14:53:05
Das Ding ist IMHO mit ziemlich großer Wahrscheinlichkeit nichts anderes als Vega11. Der Rest ist Marketing.
Würde ich auch davon ausgehen. Dann ein HBM2 Stack @max. 256GB/s, eher 242GB/s.

Brillus
2017-11-07, 14:54:26
Vielleicht stell ich meine Frage anders, können die Anschlüsse an so einen laptop freesync(adaptive sync). Wenn semi custom macht es Sinn, dass der ganze chip kein 2d teil hat sondern über die igpu abgearbeitet wird.

edelhamster
2017-11-07, 16:26:18
Denke auch das wird in irgendeiner Form VEGA11 sein.
Dass VEGA auch stromsparend kann fiel mir vorige Woche jedenfalls noch auf.
Forza 7 in 4K mit dynamischen Ultra-Settings und 60FPS Limit - dann chillt eine VEGA64 zwischen 60-80 Watt. Läuft in dem Szenario dann mit einem GPU-Takt von 850-1100MHz.

VEGA64 hat aber nun 4096 Shader.
Bei den nur rund 1500 Shadern dieser Lösung mit einem maximalen Takt von 1300MHz, der nur in seltensten Fällen erreicht werden dürfte, wird die Energieaufnahme meiner Meinung nach echt im Rahmen liegen.

Und VEGA lässt sich ja auch aufs MHz genau takten - besonders nach unten hin find ich das verblüffend. Läuft die Karte eben noch mit 1600MHz - chillt Sie im Ladescreen aufeinmal nur noch mit 45MHz^^

Dino-Fossil
2017-11-07, 17:45:55
Angenommen, das wäre wirklich der ominöse Vega11, sehen wir das Ding dann überhaupt als dedizierte GPU?
Immerhin ist nach dem nicht gerade völlig überzeugenden Vega10 von oben und Polaris von unten nicht ganz klar, ob da aktuell Platz für einen V11 wäre.

danarcho
2017-11-07, 19:07:27
Hier mal ein bisschen Spekulatius zur Vorweihnachtszeit:
(Achtung, das sind alles Schüsse ins Blaue!)
- Apple wollte schnellere GPU, aber Intel Gen ist nicht skalierbar (Man sieht, dass seit ein paar Jahren die Anzahl der EUs gleich bleibt.)
- HBM wird ausschließlicher Hauptspeicher (8+GB), das spart Energie und Platz.
- AMD liefert nicht Chips, sondern IP und Intel baut selbst in 10nm (Für eine Integration als APU reicht die Zeit nicht, vielleicht beim Nachfolger.):massa:
- Intel wird Member der HSA-Foundation (scnr :up:)
- Es gibt diesmal kein Vulkan, sondern Metal (nur Spaß) :wink:
- Intel dropt Gen und lizensiert GCN für nachfolgende Generationen, was damit zur Standard ISA für GPUs wird. :weg:

MR2
2017-11-07, 19:47:21
https://semiaccurate.com/2017/11/06/intel-gpus-officially-dont-work-amd-rescue/

Intel GPUs officially don’t work, AMD to the rescue

cyrusNGC_224
2017-11-07, 19:49:01
Angenommen, das wäre wirklich der ominöse Vega11, sehen wir das Ding dann überhaupt als dedizierte GPU?Nein. Weil das keine Vega von irgend einer Roadmap sein kann. Es ist ein Semicustom-Auftrag eines Kunden, die tauchen nie in Roadmaps auf.
Wenn es ein Produkt von der Stange wäre, dann müsse das auch so ersichtlich sein.


- Intel dropt Gen und lizensiert GCN für nachfolgende Generationen, was damit zur Standard ISA für GPUs wird. :weg:Intel wird seine eigenen GPUs auf absehbare Zeit nicht einstampfen. In den unteren Leistungsklassen reichen die nachwievor für alles aus. Außderdem würde sich Intel unnötig abhängig machen.

Loeschzwerg
2017-11-07, 20:11:16
https://semiaccurate.com/2017/11/06/intel-gpus-officially-dont-work-amd-rescue/

Intel GPUs officially don’t work, AMD to the rescue

Was er halt wieder schreibt... Als ob der minimal kürzere Abstand zwischen CPU und GPU jetzt zu einem Problem werden würde, ist es doch beim MB Pro 2017 auch nicht.
Warum reitet er zudem darauf herum dass die Verbindung zwischen GPU und CPU lediglich normales PCIe ist? Warum sollte es denn ausgerechnet eine EMIB Verbindung sein?! Völlig unnötig. Würde die ganze Sache nur teurer (Fertigung) und komplizierter (Software; zu/wegschalten der GPU) machen.
"slight problem of losing 8 or 16 PCIe lanes"... die würde man auch verlieren mit einer regulären dGPU und wo braucht man diese schon in einem Notebook, ist doch eh kein Platz für optionale Hardware.

Und in dem ganzen Zusammenhang soll er mal erklären warum die Intel IGP "broken" ist. GT1/2 Ausbauten sind völlig ausreichend, funktionieren und bieten aktuell Features die AMD nicht aktiv hat (Netfilx 4k, richtiges VP9...).

Schnoesel
2017-11-07, 20:35:56
Was ich dennoch nachvollziehen kann ist die Sache mit der Kühlung. Ich weiß wie heiß mein Surface 4 pro mit I5 15 Watt TDP CPU werden kann, wenn es mal was zu tun hat und dann ist das Ding weder kühl noch leise.

dildo4u
2017-11-07, 20:37:25
Das ist nicht für Tablets gedacht sondern für Geräte wie XPS 15 und Mac Book Pro.

XPS gibt es z.b mit GTX 1050.

https://www.notebookcheck.com/Test-Dell-XPS-15-2017-9560-7300HQ-Full-HD-Laptop.195530.0.html

Schnoesel
2017-11-07, 20:42:24
Es geht nicht um Tablet oder Notebook, sondern um den Formfaktor. Je dünner das Ding wird desto begrenzter die potentielle Kühlung.

BoMbY
2017-11-07, 20:54:15
Bei der Kühlung gibt es aber noch einige Möglichkeiten das dünner und effektiver zu machen. Zum Beispiel Graphitfolie (http://www.elektroniknet.de/design-elektronik/elekromechanik/graphit-leitet-hitze-ab-82378.html). (Edit: Oder besser Graphen, was eine deutlich höhere Wärmeleitfähigkeit hat)

Edit: Das Zeug gibt es übrigens schon zu kaufen:


Panasonic PGS Graphite Sheet, SSM - bis zu 1950 W/(m·K) (https://eu.industrial.panasonic.com/products/circuit-thermal-protection/thermal-protection/pyrolytic-graphite-sheet-pgs/series/pgs-graphite-sheetssm/AYA0002?reset=1)
Panasonic Soft-PGS (Compressible Type) - bis zu 400 W/(m·K) (https://eu.industrial.panasonic.com/products/circuit-thermal-protection/thermal-protection/pyrolytic-graphite-sheet-pgs/series/soft-pgscompressible-type/AYA0005?reset=1)


Edit2: Demo-Video: https://www.youtube.com/watch?v=A4sufiqbnF8

Loeschzwerg
2017-11-07, 20:55:44
Es geht nicht um Tablet oder Notebook, sondern um den Formfaktor. Je dünner das Ding wird desto begrenzter die potentielle Kühlung.

Logisch, aber es geht ja nicht darum zwingend noch dünnere Geräte zu bauen, sondern um mehr Optionen zu haben (MCP Lösungen).

Ein Interposer Package wäre dicker und kostenintensiver. EMIB bietet hier einen Lösungsansatz für Geräte mit aktuellen Firmfaktoren (XPS, MB Pro...) usw.

Ich sehe keine Grund für dieses unnötige gebashe.

Schnoesel
2017-11-07, 21:06:31
Nun wenn Intel davon spricht, dass die Lösung dünnere und kleinere Laptops ermöglicht darf man das nicht außer Acht lassen. Sie versprechen hier ja ziemlich viel . Man wird sehen müssen was dabei rauskommt wenn die ersten Produkte damit auf dem Markt sind, bis dahin ist das Spekulation. Wir sprechen ja nicht von weniger Wärmeentwicklung im Vergleich zu vorherigen Lösungen mit 45 Watt TDP CPU, sondern die Ermöglichung des kleineren Formfaktors durch EMIB. Das hilft aber nicht bei der Kühlung eher im Gegenteil.

Was Charlie betrifft... er ist halt sehr ... speziell ;-)

Loeschzwerg
2017-11-07, 21:27:20
Nun wenn Intel davon spricht, dass die Lösung dünnere und kleinere Laptops ermöglicht darf man das nicht außer Acht lassen. Sie versprechen hier ja ziemlich viel.

Es ist zum einen Marketing (ich sehe dünner hier eher als "schlanker") und der Bedarf scheint ja darüber hinaus gegeben, sonst würde Intel diese Lösung nicht bauen.

Durch das simplere/schlankere Systemboard bekommt man auch wieder bessere Kühllösungen unter (z.B. größere Lüfter) bzw. hat andere Möglichkeiten.

Nakai
2017-11-07, 21:36:51
Wenn die Abwärme dem Formfaktor kein Strich durch die Rechnung macht. Ein Ultrabook oder Convertible mit dieser Konfiguration klingen ganz ok. Kleiner wird es nicht. Ahja ein Ravenridge mit einem abgespeckten V11 in so eibem Package in diesem Formfaktor sollten auch möglich sein. Wird zwar nicht so dünn aber für viele Optionen ausreichend.

Iamnobot
2017-11-07, 21:43:05
Und in dem ganzen Zusammenhang soll er mal erklären warum die Intel IGP "broken" ist. GT1/2 Ausbauten sind völlig ausreichend, funktionieren und bieten aktuell Features die AMD nicht aktiv hat (Netfilx 4k, richtiges VP9...).
Sehe ich genauso. Für die meisten Anwender macht die integrierte Intel Grafik genau das was sie soll und sie vermissen garnichts. Und für Gamer könnten solche Package-Löungen wieder zu langsam sein. Ergo: weder Fleisch noch Fisch.

Ein Ultrabook oder Convertible mit dieser Konfiguration klingen ganz ok.
Zumindest die aktuelle H Serie liegt ja weit über dem thermischen Budget dessen was in Ultrabooks/Convertibles verbaut wird...

Sven77
2017-11-07, 22:05:24
nen bisschen provokanter kommentar bei heise zu dem thema:

Das Überleben von Intel steht auf dem Spiel (https://www.heise.de/newsticker/meldung/Kommentar-Das-Ueberleben-von-Intel-steht-auf-dem-Spiel-3881364.html)

Ah, denselben Abgesang gab es auf nVidia vor ca. 5 Jahren

aufkrawall
2017-11-07, 22:16:19
Intel ist aber nicht Nvidia. Im Gegensatz zu NV haben sie doch bei Consumer in den letzten Jahren wirklich rein gar nichts neues etabliert (die Atoms zählen nicht, sind mit der ARM-Konkurrenz zumindest technisch eigentlich auch überflüssig geworden).
Da ist echt gar nichts, außer vielleicht Notebooks mit eDRAM (die eigentlich auch niemand braucht?)...

Nakai
2017-11-07, 22:16:49
Löl Intel ist viel zu fett um von heute auf morgen zu sterben. Ansonsten weiß ich auch nicht was geht Intel damit möchte. Immerhin gibts wohl hierfür einige Stückzahlen, weil hierfür bestimmt genug Geräte auf den Markt gedrückt werden. Man sollte Intel da nicht unterschätzen. Richtig gut wäre diese Kombination im unteren Bereich. Da müsste man den Takt stark runterschrauben.

€: ich vermute dass Intel irgendwas benötigt, eigentlich eine Verzweiflungstat. Intel hat in letzter Zeit genug an die Wand gefahren.

LadyWhirlwind
2017-11-07, 23:19:18
nen bisschen provokanter kommentar bei heise zu dem thema:

Das Überleben von Intel steht auf dem Spiel (https://www.heise.de/newsticker/meldung/Kommentar-Das-Ueberleben-von-Intel-steht-auf-dem-Spiel-3881364.html)

Oder der Aufwand eine eigene starke Grafiklösung zu entwickeln lohnt sich für Intel einfach nicht, was ich für wahrscheinlicher halte.


- Die bestehende Grafik taugt, sofern man nicht spielen will, durchaus für den Tagesgebrauch bei normaler Auflösung und ohne Grafikanwendungen
- Für alle grösseren Geräte verbaut man dann halt eine dedizierte Grafikkarte von AMD oder Nvidia
- Nur in Ultra-Kompaktgeräten hat es keinen Platz für dedizierte Garfikkarte. Lohnt sich für diese Zielgruppe die Entwicklung einer leistungsfähigen Grafikeinheit? Möglicherweise nicht...
- Wieviele CPUs verkauft Intel mehr, nur weil die integrierte Garfik deutlich besser ist als die bestehenden Lösungen? Wahrscheinlich nicht allzuviele. Vorallem mit neuen AMD Apus mit Zen und Vega erwächst da Intel starke Konkurrenz. Sofern man also nicht zumindest in die Nähe von AMD kommt, verliert man diese Käufer wahrscheinlich an AMD.

--> Hohe Kosten für die Entwicklung für Intel
--> Kleine Zielgruppen
--> Nur wenig zusätzliche Verkäufe.

Schaut man sich nun eine Kooperation zwischen Intel und AMD an:
- Für die Kombination aus starker CPU von Intel und starker GPU von AMD gibt es im x86 Bereich keine Konkurrenz. AMD könnte möglicherweise eine konkurrenzierende APU bauen. Solange der Grafik Deal besteht, wird AMD es da nicht eilig haben. Defacto wird es für diese Zielgruppe dann nur ein Angebot geben: Intels H-series. Es werden also beide daran verdienen können.
- Intel muss keine grosse GPU Abteilung unterhalten. Dadurch spart Intel kosten.
- Für Intel fallen nur die Implementationskosten für das Semi-Custom Design und die Lizenzkosten an. Ein Teil der Kosten dürfte sogar noch abhängig von der Stückzahl sein. Die Fixkosten für den Deal sind sicher billiger als die einer eigenen starken GPU-Abteilung.

iuno
2017-11-07, 23:46:00
Intel ist aber nicht Nvidia. Im Gegensatz zu NV haben sie doch bei Consumer in den letzten Jahren wirklich rein gar nichts neues etabliert (die Atoms zählen nicht, sind mit der ARM-Konkurrenz zumindest technisch eigentlich auch überflüssig geworden).
Ich sehe das zwar aehnlich, aber Kohle ist immer noch genug da. Die muessen halt mal wieder richtig was in die Hand nehmen. Voellig schlafen tun sie aber auch nicht, wie man an dem Projekt hier sieht. Ausserdem wollen sie auch zum Auftragsfertiger werden. Vielleicht heisst das, dass sich die Firma generell wieder mehr oeffnet. Soll nicht z.B. auch Thunderbolt 3 zum offenen Standard werden? Die Produkte verbessern sich ja trotzdem langsam ueber die Jahre. So viele Neuigkeiten etabliert hat Nvidia fuer Consumer jetzt auch nicht.
Und was die ARM SoCs angeht, hatte ich dazu ja auch erst im anderen Thread was geschrieben. Da ist nichts einheitlich und die Treibersituation ist katastrophal. Ich haette schon nichts dagegen, wenn Intel sich da nochmal wehren wuerde.

Ansonsten: Bei Heise schreiben sie eh nur noch Schrottkommentare, hauptsache Klicks halt.

Schaffe89
2017-11-08, 04:13:17
Ich verstehe es ueberhaupt nicht. AMD hat endlich brauchbare CPU und soll jetzt die GPU hergeben, sind die noch ganz dicht?


Ist wohl auf dem Mist von Raja gewachsen. Der ist gegangen worden.
Hat eigentlich nichts gescheites bei AMD bewirkt. Jetzt beschneidet sich AMD auch noch den High End APU´s die sie mit Ryzen im Notebookmarkt hätten bringen können, stattdessen bauen sie für Intel diese GPU.

Ich hätte die selbst an einen Ryzen drangeflanscht und als Zocker Notebook beworben.
Das bringt kurzfristige Erfolge, langfristig gesehen eher weniger gut.

=Floi=
2017-11-08, 05:01:42
Es wird für AMD sehr viel bekanntheit bringen!
Mehr verbreitung, gute werbung (gerade das hat amd nötig) und eine breitere basis für den treiber.

AMD muss sowieso den treiber programmieren und somit läuft das einfach mit. Bei intel hat man endlich eine gute GPU und dürfte inen sehr großen geldbetrag sparen. Das problem wäre wohl eine weiterentwicklunf und richtige implementierung eines treibers für 3D aplikationen.
Das dürfte ein sehr großer aufwand sein.

Nightspider
2017-11-08, 05:55:37
Ich glaube nicht das der HBM den Hauptspeicher ersetzen wird. Das wird wohl dedizierter Grafikspeicher.

Interessant wäre trotzdem ob die CPU diesen auch als L4 Cache nutzen können wird.

Loeschzwerg
2017-11-08, 06:50:12
HBM als L4 angebunden via PCIe ;D Naaaa...

pilzsammler2002
2017-11-08, 08:57:21
Es muss nicht unbedingt über PCIe laufen oder irre ich mich da?:confused:

Loeschzwerg
2017-11-08, 09:08:14
CPU zu GPU+HBM ist in diesem Fall eine reguläre PCIe Verbindung, lediglich GPU und HBM haben eine EMIB Verbindung.

w0mbat
2017-11-08, 09:37:36
Das war auch mein Eindruck nach dem "Erklärvideo". GPU und HBM2 sind via EMIB verbunden, die CPU schien mir zu weit weg.

Ganon
2017-11-08, 09:47:42
Hmm... mir kam gerade ein Gedanke... Playstation 5?

Loeschzwerg
2017-11-08, 09:58:38
Jup :)

... Um ehrlich zu sein bin ich mit dem Kopf aber schon bei möglichen Optionen im Konsolenbereich :)

Intel CPU + RTG GPU + HBM auf einem Package und "extern" könnte man noch DDR/GDDR als zusätzliche Kapazität anbinden (Stichwort HBCC).

unl34shed
2017-11-08, 10:04:19
Hmm... mir kam gerade ein Gedanke... Playstation 5?

Glaub ich nicht, warum sollte man sich von zwei Herstellern abhängig machen, wenn man mit Zen alles von AMD haben kann?

Das naheliegendste ist Apple für ein neues MacBook. Die nutzen Intel und AMD und wollen immer kleiner werden.

Ganon
2017-11-08, 10:11:31
Glaub ich nicht, warum sollte man sich von zwei Herstellern abhängig machen, wenn man mit Zen alles von AMD haben kann?

Man macht sich doch dadurch nicht abhängig. Die Chip-Combo wird geplant und lizenziert, den Rest machen die Fertigungsfabriken.

deekey777
2017-11-08, 10:46:51
Hmm... mir kam gerade ein Gedanke... Playstation 5?
Nein?

Die APUs in Konsolen haben gemeinsamen Speicher, auf den die CPU und die GPU zurückgreifen können. Wir hätten sonst wieder PS3-Verhältnisse.

Loeschzwerg
2017-11-08, 10:56:53
Und hier könnte man den HBCC ins Spiel bringen ;)

aufkrawall
2017-11-08, 11:06:19
Die APUs in Konsolen haben gemeinsamen Speicher, auf den die CPU und die GPU zurückgreifen können. Wir hätten sonst wieder PS3-Verhältnisse.
Ist die Frage, ob das für Spiele überhaupt etwas positives ist. Klaut viel Bandbreite und der PC hat durch das Fehlen bei CPU + dedizierter GPU offenbar 0 Nachteile.
Für PS5 wär die GPU wohl zu langsam, als dass man das so nennen könnte. APU wär wohl sinniger.

deekey777
2017-11-08, 12:09:00
Ich weiß, es gilt immer "Was interessiert mich der Scheiß von gestern", aber zumindest Microsoft will einen einzelnen Die, der alles enthält. Und das beißt sich schon mit dem, was Intel gezaubert hat.

Auch wollten sie gemeinsamen Speicher (was interessiert mich...).

gedi
2017-11-08, 12:23:38
Es würde mich wundern, wenn es sich lediglich um eine V11(?)-Variante handeln sollte. Genügend Platz scheint ja vorhanden zu sein. Meine Vermutung: V11 mit 24, 36 oder 44CUs in 10nM von Intel gefertigt :biggrin:

blinki
2017-11-08, 13:38:54
Ich auch mal Senf dazu:

Gesetzt das Ding ist mit Apple im Hinterkopf zusammengestellt worden geht es doch vor allem um GPGPU über OpenCl.
1.AMDs ab Polaris können OpenCl 2.0 Features nativ (ACEs, komplexer Sceduler in Hardware).
2. Polaris kann native 16bit (effizient), Vega 16bit bei doppelter Geschwindigkeit (effizient und schnell).

Wenn Apple in ihre Eigenentwicklungen Smartphone/Tablets NPUs/TPUs einbaut und die sich daraus ergebenden Features auch mal auf den Laptop bringen wollen, dann brauchen die halt massig Gflops.
Würde dann aber für Vega sprechen.

Complicated
2017-11-08, 13:45:57
Alleine schon wegen dem HBM Speicherinterface kann es gar nicht Polaris sein. Es wird wohl eher auf ein V11 Derivat hinauslaufen.
Da hier EMIB zum Einsatz kommt, ist es ein völlig anderes Speicherinterface als es Vega nutzt. Die große Kostenersparnis bei EMIB ist nicht das wegfallen des eigentlich spottbilligen passiven Interposers, sondern das verzichten auf TSVs bei der Fertigung der Logikchips (CPU und GPU), die man benötigt wenn Interposer im Einsatz sind. Durch EMIB kann jeder klassisch produzierte Chip angebunden werden wenn er ein SI für die EMIB-Brücken erhält.
Klingt verrückt, aber wäre das nicht der Grund, warum AMD "nackte" Zen-Produkte entwickelt hat?Klingt nicht verrückt, da AMD den Weg der Vollintegration nicht mehr geht. Es ist schon lange die Entwicklung in Richtung homogene Chips zu einem heterogenen Package zu verbinden erkennbar. Das reduziert die Probleme auf Transistor Ebene, da man für CPU und GPU andere Eigenschaften bei Density und Taktbarkeit benötigt. Die APUs hatten ja schon spezifisch angepasste Transistoren die einen Kompromiss zwischen CPU und GPU Transitoren bei den Basisdaten bildeten. Jetzt kann jeder Chip seine Stärken wieder voll ausspielen, weil die Anbindung bei Interposer oder EMIB fast der onDie Anbindung entspricht. Ein weiterer Vorteil, ist die Wärme-Abführung.
Einfach in AMDs Hand wird man die Treibergeschichte nicht geben. In dem HighEnd Bereich darf es keine Treiber-Probleme geben.Apple besteht z.B. auf die alleinige und vollständige Kontrolle über die Treiber. Daher kommt Nvidia dort auch nicht mehr zum Zug. Dieses Produkt lässt sich einfach an Apple weiterreichen, da die Treiberbasis inkl. Features bei OpenGPU zu finden ist. Alle Features die Intel beim Power-Balancing beschreibt sind HSA (hUMA) und HBCC. Möglicherweise mit eigenen Anpassungen und eventuell auch mit Infinity Fabric. Das kann AMD mit der Semi-Custom UNit leisten, da sie selber die Chips produzieren und dieses Know-How nicht aus der Hand geben.

Auf der anderen Seite würde ein MCP bei der kommenden Navi GPU für Nvidia einen verheerenden Schlag bedeuten. Intel hätte einen Knockout gelandet wenn sie AMD ermöglichen GPU-MCPs mit 2 oder 4 Dies im Stil von Epic/Threadripper zu bauen und durch das ersetzen des Interposers mit EMIB AMD einen gravierenden Produktionsvorteil (keine TSVs und erleichtertes Packaging) verschaffen um Nvidia im Highend vor die selben Schwierigkeiten stellen wie sie selbst erleben im CPU-Sektor. Alleine das verhindern des Wechsels der Kunden zu dem proprietären Software-Biotop von Nvidia würde Intel einen großen Spielraum zum neu positionieren geben. Auch die aufkommenden ARM-Designs würden so besser im Schach gehalten werden und der Serverspace verbliebe größtenteils im x86-64 Segment, wo intel deutlich leichter verlorene Marktanteile wieder zurück gewinnen kann. Langfristig gesehen soll EMIB ja zum Quasi-Standard werden bei heterogenen Chip-Verbindungen und mit dem Altera FPGA und der AMD GPU+HBM hat man nun fast alle Bausteine zusammen die mit Intels CPU einen flexiblen und leistungsstarken Baukasten für x86-64 ergeben.

gravitationsfeld
2017-11-08, 15:33:34
Ist die Frage, ob das für Spiele überhaupt etwas positives ist. Klaut viel Bandbreite und der PC hat durch das Fehlen bei CPU + dedizierter GPU offenbar 0 Nachteile.
Für PS5 wär die GPU wohl zu langsam, als dass man das so nennen könnte. APU wär wohl sinniger.
Es ist etwas positives. Das wünscht sich keiner zurück.

Die 5-10% Bandbreite die die GPU verliert wegen der CPU nehm ich dafür gern in Kauf

Wörns
2017-11-08, 15:34:52
Wie will Intel das Produkt denn diversifizieren?

Intel kann unterschiedliche CPUs einbauen und unterschiedliche Mengen HBM2 anbinden.
Eventuell kann Intel auch Taktraten der GPU ändern.

Die Architektur und Anzahl der CUs in der GPU bleibt aber immer gleich. Ob das ausreicht, um es allen recht zu machen?

Ich sehe daher den Einsatz z.B. bei Apple oder in einer PS5 als wahrscheinlicher an, weil da große und langfristig vorhersehbare Stückzahlen für eine Konfektionierung gegeben sind.

Es sei denn, Intel hat gleich mehrere GPUs bei AMD in Auftrag gegeben.
MfG

Complicated
2017-11-08, 16:21:03
Wie wäre es mit einem zweiten GPU-Die? Platz ist noch genug da ;)

Soweit ich weis hat AMD dies ja mit Navi sowieso schon vor. Es könnte auch schon ein Navi-Die sein der zum Einsatz kommt oder ein Zwischenschritt mit einigen Features. Die Semi-Custom Unit hat auch bei den Konsolen schon neuere GPU-Technik zum Einsatz gebracht als in den Serien-Produkten vorhanden war. Das EMIB-Interface haben weder Polaris noch Vega. Navi könnte schon damit kommen.

mboeller
2017-11-08, 16:21:09
Es ist etwas positives. Das wünscht sich keiner zurück.

Die 5-10% Bandbreite die die GPU verliert wegen der CPU nehm ich dafür gern in Kauf

OT: mal eine NOOB-Frage dazu:

bei der PS4 Pro verbaut Sony ja einen 1GB SDRAM (mit 32bit angebunden?).

Hätte es Sinn gemacht den Speicher auf 4GB oder gar 8GB aufzublasen und dann exklusiv für das Betriebssystem und als Cache (BluRay/HDD) zu benutzen um den Speichernachteil der PS4 Pro "billig" auszugleichen und ohne den Hauptspeicher angreifen zu müssen? Oder wären die Nachteile beim Speicherzugriff zu groß geworden?

Dino-Fossil
2017-11-08, 16:26:28
Wie wäre es mit einem zweiten GPU-Die? Platz ist noch genug da ;)

Soweit ich weis hat AMD dies ja mit Navi sowieso schon vor. Es könnte auch schon ein Navi-Die sein der zum Einsatz kommt oder ein Zwischenschritt mit einigen Features.

Und sich in die Nesseln setzen mit unerprobten, modularen GPUs?
Ne ne, das wird auch AMD sicher noch einiges Kopfzerbrechen bereiten, bis es ordentlich läuft, da lässt sich Intel eher nicht überreden ein experimentelles Feature im Alpha-Stadium zu verbauen.

Wobei es vielleicht für AMD ne gute Sache wäre, wenn sich Intel erstmal ein paar Jahre die Zähne daran ausbeißt und sie dann hoffentlich - vertraglich geregelt - die Früchte ernten können. :uponder: :biggrin:

Aktuell geht die Gerüchteküche (Bitsanchips.it redet sogar von "offiziellen Statements") ja sogar richtung Polaris-IP, also nichtmal Vega.

Complicated
2017-11-08, 16:38:03
Semi-Custom ist ja geradezu prädestiniert für neue Versuche/Designs - so war es auch bei den Konsolen. Da muss man den Kunden zumeist nicht überreden. Der kommt schaut sich an was es gibt und macht eine Anforderungsliste. Vermutlich wird man eher bremsen müssen als AMD.

Bonsaj
2017-11-08, 17:02:10
Es sieht so aus, als wäre eine anspruchsvolle Anforderungsliste für den iMac Pro umgesetzt worden:

Xeon-Prozessor mit 8, 10 oder 18 Kernen
Vega-GPU: Wahlweise Radeon Pro Vega 56 mit 8GB HBM2-Speicher oder Radeon Pro Vega 64 mit 16GB HBM2-Speicher
RAM bis zu 128 GB 2666 MHz DDR4 ECC
10 GBit Ethernet


Man sieht an diesem für Dezember angekündigten Gerät sehr schön, wie ein sprunghafter technischer Fortschritt plötzlich möglich wird, wenn alteingesessene Monopole durch den ewigen Branchenzweiten ins Wanken gebracht werden. Vielleicht entsteht auf absehbare Zeit ein neues Quasi-Monopol aus AMD und Intel, trotzdem war so eine Kooperation auf Chipbasis bisher nicht einmal ansatzweise zu erahnen.

cyrusNGC_224
2017-11-09, 11:58:02
Hmm... mir kam gerade ein Gedanke... Playstation 5?Das passt doch vorne und hinten nicht zusammen. Die Konsolenchips sind Spezialanfertigungen, weil sie speziell sein sollen. Wenn man sich nur PS4 anschaut, was dort alles proprietär anders gestaltet wurde, nur damit die Dingern nicht so einfach gekapert und zweckentfremdet werden können.
Außerdem bracht es für Konsolen diese Kombi nicht (mehr). Und billig wird sie auf keinen Fall sein.
Bisher haben Katzenkerne ausgereicht und mittlerweile hat AMD ZEN im Baukasten, welche quasi zu Intel aufgeschlossen sind.
Für PS5 ist dieser Intel Hybrid also absolut untauglich.

Unicous
2017-11-09, 12:59:18
https://pbs.twimg.com/media/DOLwFP4X4AUuLSd.jpg
https://twitter.com/BitsAndChipsEng/status/928568572141621248

Loeschzwerg
2017-11-09, 13:09:32
Schöne Armada an Spannungswandlern.

Kehaar
2017-11-09, 13:11:26
https://pbs.twimg.com/media/DOLwFP4X4AUuLSd.jpg
https://twitter.com/BitsAndChipsEng/status/928568572141621248
Wer von den hier anwesenden Profis ermittelt mal die GPU-Größe?

Unicous
2017-11-09, 13:13:26
@Loeschzwerg

Dev-Board, schätze ich, daher nicht unbedingt verwunderlich. Frage mich bloß wer die Quelle ist. Bei B3D hat auch jemand ein Foto gepostet (bin aber nicht angemeldet, kann nur die thumbnail sehen) vllt. ist das hier cropped.

Unter Umständen könnte es auch ein NUC-Protoyp sein.:uponder: (Vorausgesetzt es ist nicht fake, es sieht nämlich ein wenig komisch aus.)

Nakai
2017-11-09, 13:14:19
https://pbs.twimg.com/media/DOLwFP4X4AUuLSd.jpg
https://twitter.com/BitsAndChipsEng/status/928568572141621248

Kann jemand die Diesize ausrechnen? :)

€: Intel kann vergessen innerhalb eines Jahres eine eigene GPU auf den Markt zu schmeißen. Die werden sehr wahrscheinlich GCN lizensieren oder Custom-GCN-GPUs produzieren lassen.
Wieso sollte man was eigenes auf die Beine stellen, wenn man jetzt auf eine AMD-Lösung setzt?!

Das macht keinen Sinn. Ergo hätte man schon vor längerer Zeit etwas von Intel hören müssen, wenn man eine eigene GPU designen wollte. Irgendwelche Linkeding-Leaks, Gerüchte, etc...

reaperrr
2017-11-09, 13:21:59
Ich auch mal Senf dazu:

Gesetzt das Ding ist mit Apple im Hinterkopf zusammengestellt worden geht es doch vor allem um GPGPU über OpenCl.
1.AMDs ab Polaris können OpenCl 2.0 Features nativ (ACEs, komplexer Sceduler in Hardware).
2. Polaris kann native 16bit (effizient), Vega 16bit bei doppelter Geschwindigkeit (effizient und schnell).

Wenn Apple in ihre Eigenentwicklungen Smartphone/Tablets NPUs/TPUs einbaut und die sich daraus ergebenden Features auch mal auf den Laptop bringen wollen, dann brauchen die halt massig Gflops.
Würde dann aber für Vega sprechen.
PS4 ist auch grundsätzlich noch Polaris, hat trotzdem 2x16bit Durchsatz.

Für Vega spricht eher die im Vergleich zu Polaris durchaus deutlich gestiegene Effizienz pro MHz/CU/mm², V56@Ref verbraucht nicht viel mehr als die meisten RX580 OC.

Ich tippe, dass der Chip, der hier zum Einsatz kommt, inkl. HBM nicht viel mehr als 50W braucht, und leistungsmäßig nah an RX470-Niveau kommen wird (jedenfalls etwas über Desktop-1050Ti).

Loeschzwerg
2017-11-09, 13:23:43
Hm... die SMD Spulen sind normale 12x12mm oder?


Dev-Board, schätze ich, daher nicht unbedingt verwunderlich.

Ziemlich sicher sogar. Ein wenig sieht es zumindest schon danach aus als könnte das Teil ordentlich "saufen" :D

Complicated
2017-11-09, 13:31:00
Dass dies kein Endkunden Board sein kann für mobile oder NUC Produkte sieht man ja sofort an den RAM-Riegeln. Wer macht denn diese Verrenkungen für Ultraflache Chips auf MCP um dann normale DDR-Riegel (besser gesagt sieht es nach SO-DIMMS aus die hochkant drin stecken) zu verbauen ;) Es kann auch nach wie vor ein Fake sein oder lediglich der Versuch die Dimensionen in Relation zu setzen.

unl34shed
2017-11-09, 14:23:24
Kann jemand die Diesize ausrechnen? :)

Zwar nicht gerechnet, sieht aber ca. nach halber Vega aus.

BoMbY
2017-11-09, 14:24:37
https://i.imgur.com/GKUwsC6.jpg

Von hier (https://forum.beyond3d.com/posts/2009849/).

deekey777
2017-11-09, 15:34:44
Klingt doof, aber in den zukunftsmärkten ist nicht AMD sondern Nvidia ein großer mittbewerber.. Ergo schon gut hier auf AMD zu setzen...
nen bisschen provokanter kommentar bei heise zu dem thema:

Das Überleben von Intel steht auf dem Spiel (https://www.heise.de/newsticker/meldung/Kommentar-Das-Ueberleben-von-Intel-steht-auf-dem-Spiel-3881364.html)
Ah, denselben Abgesang gab es auf nVidia vor ca. 5 Jahren

"AMD und Intel verbünden sich gegen Nvidia!"

"Hm, Nvidia macht 50% ihres Umsatzes mit Consumergrafikkarten!"

Und keiner fragt sich, womit Nvidia den Rest verdient. Und dort hat weder AMD noch Intel (insbesondere Intel) nichts entgegenzusetzen. Gut, AMD hat seine FirePros und kommt mit Epycs hoffentlich zurück in den Server- und Workstationmarkt. Vielleicht auch in den HPC-Markt. Dann hat AMD noch die M-Serie.

Nur ist Nvidia gerade in weiteren Märkten vertreten und bietet Produkte an. Autonomes Fahren, Deep Machine Learning und ähnliches: Da haben beide nichts. Und es kann gut sein, dass sich Intel und AMD indirekt verbündelt haben, um etwas auf Beine zu stellen, um den Anschluss nicht zu verlieren.

Loeschzwerg
2017-11-09, 17:50:35
https://i.imgur.com/GKUwsC6.jpg

Von hier (https://forum.beyond3d.com/posts/2009849/).

Danke fürs Übertragen hier her :)

Die CPU müsste ein KBL-R sein und hat damit ~123mm², oder? Wenn das kein Fake ist, dann würde ich die GPU so auf ~190-200mm² schätzen.

blinki
2017-11-09, 17:54:13
Nur ist Nvidia gerade in weiteren Märkten vertreten und bietet Produkte an. Autonomes Fahren, Deep Machine Learning und ähnliches: Da haben beide nichts.

Autonomes Fahren: Jim Keller sitzt jetzt bei Tesla und die haben keine Kooperation mit Nvidia eingegangen, sondern mit AMD https://www.heise.de/newsticker/meldung/AMD-kooperiert-angeblich-mit-Tesla-3839505.html.

€ wie füge ich bei Zitaten den Urheber ein? k.p.

fondness
2017-11-09, 17:54:55
Ist die Frage, ob das für Spiele überhaupt etwas positives ist. Klaut viel Bandbreite und der PC hat durch das Fehlen bei CPU + dedizierter GPU offenbar 0 Nachteile.
Für PS5 wär die GPU wohl zu langsam, als dass man das so nennen könnte. APU wär wohl sinniger.

Was glaubst du, wieviel langsamer eine PS4/Xbox One heute wäre, wenn man das Ding um dieselben Kosten aus zwei Dies gefertigt hätte? Das würde bedeuten 2 SIs am Die, 2x Speicher am PCB, 2x die ganzen Verdrahtungen, PCIe 16x Interface zwischen den Dies, etc.

Unicous
2017-11-09, 17:55:06
@blinki

Das ist weiterhin ein (zudem dementiertes) Gerücht, also bitte nicht als Fakt verkaufen.:rolleyes:

fondness
2017-11-09, 17:58:29
https://i.imgur.com/GKUwsC6.jpg

Von hier (https://forum.beyond3d.com/posts/2009849/).

Thx, das Ding dürfte sich relativ genau auf Polaris10-Niveau bewegen was die Die-Size betrifft. Ich bleibe dabei, dass daran gar nichts custom ist und das Ding ein Vega11 ist, auch der Veröffentlichungstermin passt gut dazu.

pilzsammler2002
2017-11-09, 17:59:16
Das ist weiterhin ein (zudem dementiertes) Gerücht, also bitte nicht als Fakt verkaufen.:rolleyes:

War das von Intel CPU und AMD GPU auch... Aber zu dem zeitpunkt musste es schon am laufen gewesen sein da man jetzt ja schon Prototypen sieht :freak:

Dino-Fossil
2017-11-09, 18:01:54
Dennoch bleibt ein Gerücht ein Gerücht, bis man es bestätigen kann.
Oft genug entpuppt es sich als Ente.

blinki
2017-11-09, 18:15:23
Ob es eine Ente oder eine Martinsgans wird...
Speku: Intel will beim autonomen Fahren mitmischen: Die haben leistungsfähige Prozessoren, kaufen GPU-Power bei AMD und für KI haben die Altera gekauft (was sich ja mal rechnen musss).
Auf dem Interposer ist genau noch Platz für ein FPGA, hab ich genau gesehen.

blinki out.

aufkrawall
2017-11-09, 18:18:24
Was glaubst du, wieviel langsamer eine PS4/Xbox One heute wäre, wenn man das Ding um dieselben Kosten aus zwei Dies gefertigt hätte? Das würde bedeuten 2 SIs am Die, 2x Speicher am PCB, 2x die ganzen Verdrahtungen, PCIe 16x Interface zwischen den Dies, etc.
Weshalb habe ich wohl gesagt, dass eine APU sinniger wäre?

Unicous
2017-11-09, 18:32:15
Hey, hey Blinkiy Bill, er tut immer was er will.

Loeschzwerg
2017-11-09, 19:29:56
Ok, das Board scheint nicht direkt ein Intel Dev-Board zu sein.

Die Bezeichnung lautet 23A-BA357-1000F und würde zu Zotac (https://forum.beyond3d.com/posts/2009946/) passen. Beispiele:
http://www.ebay.de/itm/Mainboard-Motherboard-23A-BB201-043-OF-ZOTAC-Mini-PC-ZBOX-ID42-Defekt-Faulty-/401103018692
https://www.technikaffe.de/anleitung/zbox_magnus_en970_im_test_18.jpg

Opprobrium
2017-11-09, 23:25:51
€ wie füge ich bei Zitaten den Urheber ein? k.p.
Mit einem = also: {QUOTE=Urheber}Blah Blubb{/QUOTE}

Nur eben in eckigen Klammern

=Floi=
2017-11-09, 23:46:54
Ok, das Board scheint nicht direkt ein Intel Dev-Board zu sein.

Die Bezeichnung lautet 23A-BA357-1000F und würde zu Zotac (https://forum.beyond3d.com/posts/2009946/) passen. Beispiele:
http://www.ebay.de/itm/Mainboard-Motherboard-23A-BB201-043-OF-ZOTAC-Mini-PC-ZBOX-ID42-Defekt-Faulty-/401103018692
https://www.technikaffe.de/anleitung/zbox_magnus_en970_im_test_18.jpg


DAS ist mal detailwissen. :eek:

ob man das mainboard zum laufen bringen könnte?

Leonidas
2017-11-10, 06:41:59
Ok, das Board scheint nicht direkt ein Intel Dev-Board zu sein.

Die Bezeichnung lautet 23A-BA357-1000F und würde zu Zotac (https://forum.beyond3d.com/posts/2009946/) passen. Beispiele:
http://www.ebay.de/itm/Mainboard-Motherboard-23A-BB201-043-OF-ZOTAC-Mini-PC-ZBOX-ID42-Defekt-Faulty-/401103018692
https://www.technikaffe.de/anleitung/zbox_magnus_en970_im_test_18.jpg



Beide Bilder sehen aber völlig verschieden aus. Könnte es sein, das nicht einfach die Bezeichnungen per Zufall gleich sind?

Ben Carter
2017-11-10, 09:13:07
Ausgemessen, als Basis habe ich den DDR4 SO-DIMM genommen

61819

Länge bezieht sich immer auf dem Bild links/rechts, Breite immer auf ab. Ich hab beim Package angefangen, darum ist es so. :)

Piefkee
2017-11-10, 09:37:53
Thx, das Ding dürfte sich relativ genau auf Polaris10-Niveau bewegen was die Die-Size betrifft. Ich bleibe dabei, dass daran gar nichts custom ist und das Ding ein Vega11 ist, auch der Veröffentlichungstermin passt gut dazu.


Die GPU ist kein VEGA11 es ist eine Polaris Variante. Siehe Geekbenech OpenCL Info. GFX8x = Polaris / GFX9 = Vega

Device Name gfx804
Board Name 694C:C0


https://browser.geekbench.com/v4/compute/811174

HOT
2017-11-10, 10:45:11
Das kann immer noch ein Hybrid mit Gen8 Befehlssatz sein. Eine Custom-GPU ist es hingegen auf jeden Fall. Scheint so, als wäre das I/O (USB usw.) auch darin enthalten. Es gibt ja keine I/O-Hub und die Intel-CPU wird ein Kabylake von der Stange sein.

Complicated
2017-11-10, 12:19:49
Die Spannungsversorgung und die hochkant verbauten und daher leicht zugänglichen SO-DIMMS sprechen absolut gegen ein Serien-Board. Das ist IMHO ziemlich sicher ein Dev-Board. Nicht eines der NUC-Boards welche ich mir nun angeschaut habe, hatte eine solche Konfiguration für die SO-DIMMs. Aber ausgerechnet der ultraflache MCP soll nun auf ein Board wo diese Eigenschaft absolut keine Rolle spielt. Volker macht bei CB da auch schon 100 W TDP daraus - für ein mobiles SoC wohl doch deutlich übertrieben. Es werden ja auch Notebooks damit ausgestattet.

unl34shed
2017-11-10, 13:02:31
Ausgemessen, als Basis habe ich den DDR4 SO-DIMM genommen

61819

Länge bezieht sich immer auf dem Bild links/rechts, Breite immer auf ab. Ich hab beim Package angefangen, darum ist es so. :)

Passt irgendwie nicht. HBM müsste entweder ~40 (HBM1) oder ~91 (HBM2) mm² sein. Laut: https://www.anandtech.com/show/9969/jedec-publishes-hbm2-specification

Loeschzwerg
2017-11-10, 15:41:01
Beide Bilder sehen aber völlig verschieden aus. Könnte es sein, das nicht einfach die Bezeichnungen per Zufall gleich sind?

Zwei unterschiedliche Boards, aber mit identischem Anfang der Sachnummer wie ihn nur Zotac verwendet ;)

Hier noch zwei Boards von Zotac (man achte auf 23A-xxxxx-xxxxx):
http://myeparts.de/images/new_bild-1-12478.jpg
http://myeparts.de/images/new_bild-1-12375.jpg

Deswegen ist das auch kein Intel NUC, sondern eine der "verrückten" Eigenkreationen von Zotac. Der Hersteller übernimmt ganz sicher keine "bring-up" Arbeiten d.h. hier handelt es sich um ein Sample für ein künftiges Produkt.

BoMbY
2017-11-10, 16:25:27
Der Data Matrix code auf dem Board sollte '0058162878' enthalten, aber das hilft uns vermutlich auch nicht weiter.

Screemer
2017-11-10, 16:38:16
Ist halt für ne neue zbox. Ich warte auf rr zboxen und dann schauen wir mal was im Wohnzimmer landet.

Fusion_Power
2017-11-10, 17:12:37
Ich hoffe inständig auf neue Laptops mit denen man halbwegs gescheit zocken kann ohne dass einem Lüfter in Orkanstärke entgegen blasen oder die Dinger Lava-heiß werden. Vielleicht hilft da so ein Kombi-Package, fragt sich wie energieeffizient das in der Praxis wird. Da hab ich nach wie vor etwas mehr Vertrauen in NVidia als AMD, aber hab auch nix gegen AMD Grafik in nem Intel Laptop, sofern das so funktioniert.

mczak
2017-11-10, 17:15:22
Passt irgendwie nicht. HBM müsste entweder ~40 (HBM1) oder ~91 (HBM2) mm² sein. Laut: https://www.anandtech.com/show/9969/jedec-publishes-hbm2-specification
Schon von der CPU her passt das nicht. SKL, KBL, KBL-R (4C+GT2) sind alle ~122mm² (nach 6c+GT2 sieht das von der Form her nicht aus), ich wüsste nicht wie das bloss 91mm² sein sollten. Da müsste dann also alles ~35% grösser sein, der HBM2 passt dann allerdings immer noch nicht (wobei so auf den ersten Blick hätte ich gesagt der HBM2 sieht nicht so viel kleiner aus als das CPU-Die, 122 zu 91 mm² könnte etwa hinkommen). Die GPU sieht etwas 2-2.5 mal so gross aus wie die CPU, das wären dann so 250-300 mm² was doch ziemlich riesig wäre.

edit: also meine Schätzung war doch etwas zu hoch, ich hab's auch mal ausgemessen nach Rotieren und Entzerren.
Ich komme da jetzt auf Flächenverhältnisse von 1 (CPU) zu 1.65 (GPU) zu 0.68 (HBM2).
Ausgehend von den 122 mm² für die CPU wären das also ~200 mm² für die GPU und ~83 mm² für den HBM2-Stack. Da wir schon wissen dass letzteres 10% zu tief ist war wohl das Entzerren nicht so perfekt :-). (Ausserdem sieht man das nicht wirklich pixelgenau.)
Aber trotzdem, ich würde mal sagen so etwas über 200 mm² für die GPU. So plus/minus 15%...

maguumo
2017-11-10, 18:32:42
Wie groß die HBM Stacks sind hängt doch davon ab wie viel Kapazität die einzelnen Slices haben sollen. Wenn ich das richtig in Erinnerung habe ist die Größe in der JEDEC Spezifikation nicht festgelegt, nur der Floorplan für die Interface Kontakte. Und HBM Gen1/2 haben keine Spezifikation, das sind eher Marketingnamen für neue Produkte.

Ben Carter
2017-11-10, 19:08:13
Ich bin mir recht sicher, dass meine Messungen stimmen, aber möglicherweise ist meine Referenzgröße falsch. Vielleicht ist So-DIMM länger als 67,6mm. Ich habs nur recht schnell ergooglet.

iuno
2017-11-10, 19:10:55
@maguumo: Die Groessen der Samsung und Hynix Stacks sind aber bekannt. Man muesste hier also neue Stacks/slices haben, wenn das abweicht. Dabei faende ich insbesondere interessant, wie viele Channels (als Bit) es eigentlich sind. 512 Bit waren ja auch schon im Gespraech. Wenn EMIB kein Problem mit 1024 Bit hat, sollte es auch mit 2048 keins sein (ggf. gegenueberliegend)?

maguumo
2017-11-10, 19:26:56
Klar, aber für ein Projekt in dieser Größenordnung könnte man falls notwendig/sinnvoll sicher was neues organisieren. Hynix und Samsung dürften da doch eh an neuen Sachen basteln, ist ja noch relativ jung. Ich würde mich da nicht auf die Größe der aktuell bekannten Produkte verlassen solange nichts genaueres bekannt ist.

Ich weiß nicht welche DQ Dichte sich mit EMIB erreichen lässt. HBM kann 4-8 Channel à 128b pro Stack, glaube nicht das da auf absehbare Zeit wer über die Spezifikation herausschießt, erst recht nicht in dem Maßstab. Das Problem ist ja auch eher Kapazität und nicht Bandbreite, selbst 8 Channel dürften für diese Leistungsklasse mehr als genug sein.

=Floi=
2017-11-10, 22:57:39
Ich bin mir recht sicher, dass meine Messungen stimmen, aber möglicherweise ist meine Referenzgröße falsch.

was für ein geiler satz. ;D

Ben Carter
2017-11-11, 12:08:07
was für ein geiler satz. ;D
Warum? Dann wäre die Messung richtig, die Umrechnung jedoch falsch.

mboeller
2017-11-15, 16:31:41
kein Interesse?

die Benchmark-Ergebnisse sind ziemlich gut:

https://www.notebookcheck.com/Intel-AMD-Multi-Chip-Module-Erste-Bilder-Benchmarks-und-mehr-Info.263784.0.html

Complicated
2017-11-15, 16:53:39
links die Intel CPU, rechts das Gespann aus AMD-GPU und Grafikspeicher, verbunden über den EMIB (Embedded Multi-Die Interconnect Bridge), einer Form des PCIe 3.0-Buses.
Immer diese kleinen Ungenauigkeiten mit großem Potential für Missverständnisse ;)
EMIB und PCIe-Bus sind was völlig anderes. Zudem ist der HBM an der GPU mit EMIB angebunden und die GPU mit der CPU via PCIe. GPUs binden HBM-Speicher nicht via PCIe-Protokoll an.

vinacis_vivids
2017-11-26, 22:58:59
Was ich nicht ganz verstehe, ist die Schätzgröße von >200mm² bei "nur" 24CUs
Polaris10 = 232mm² - 36CUs!

https://abload.de/img/polaris10_die_annt8bpt4.jpghttps://abload.de/img/polaris10_die_falsecorip06.jpg

AMDiGPU >200mm² - 24CUs

Ein Polaris auf 24CUs "runtergerechnet" (P10+P11):2 -> ~189mm²
Die 200mm² + 15% von mzack wären ~ 230mm² und völlig unrealistisch.

Vega10 - 484mm² - 64CUs
Ein rechnerisch halber Vega10 -> 242mm² -> 32CUs
Interpoliert auf 24CUs "Vega" wären das ~ 182mm²

Mein Fazit:
eher < 200mm² bei Vollausbau 24CUs
oder: >200mm² aber dann 28CUs und davon 24 aktiv (salvage).

Loeschzwerg
2017-11-27, 06:55:33
eher < 200mm² bei Vollausbau 24CUs


:eek: Wir sind mal einer Meinung (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11546733#post11546733)

M4xw0lf
2017-11-27, 08:31:50
https://abload.de/img/polaris10_die_annt8bpt4.jpghttps://abload.de/img/polaris10_die_falsecorip06.jpg
Die polnische Schreibweise von Interface erfreut mich viel zu sehr vong buhcstabiren her ;D

HOT
2017-11-27, 09:37:12
Bezüglich der HBM-Größe:
Wenn der HBM nicht auf einem Interposer sitzt, hat der vllt. einfach ein anderes Package?

Setsul
2017-11-27, 15:56:27
@vinacis_vivids:
Die Dinger bestehen ja nicht nur aus CUs. P11 ist schließlich auch mehr als halb so groß wie P10 obwohl es weniger als halb soviele CUs sind. Wäre also durchaus normal, dass Vega bei 24 CUs doch ein Stück größer ist als einfach nur 484mm² *24/64.

Brillus
2017-11-27, 16:02:22
Wobei wenn es semi custom ist könnte ich mir sogar weniger als runter gerechnet vorstellen, man hat display output, Video encoding etc. Ja schon in der CPU, kann man also sparen. Laptop ist ja gang und gäbe das auch dezidierte GraKa Ausgabe der CPU verwendet.

mboeller
2017-11-27, 16:14:45
Was ich nicht ganz verstehe, ist die Schätzgröße von >200mm² bei "nur" 24CUs
Polaris10 = 232mm² - 36CUs!



IMHO:

ich glaube du hast den wichtigsten Parameter einfach vergessen. Der 10nm Prozess von Intel erlaubt keine ganz so dicht gepackten Transistoren wie der 14nm Prozess von TSMC oder auch GF. Dafür läuft die GPU dann vielleicht mit 1,5GHz und braucht nur 10W ;)

davidzo
2017-11-27, 17:02:08
Bei der Kühlung gibt es aber noch einige Möglichkeiten das dünner und effektiver zu machen. Zum Beispiel Graphitfolie (http://www.elektroniknet.de/design-elektronik/elekromechanik/graphit-leitet-hitze-ab-82378.html). (Edit: Oder besser Graphen, was eine deutlich höhere Wärmeleitfähigkeit hat)

Edit: Das Zeug gibt es übrigens schon zu kaufen:


Panasonic PGS Graphite Sheet, SSM - bis zu 1950 W/(m·K) (https://eu.industrial.panasonic.com/products/circuit-thermal-protection/thermal-protection/pyrolytic-graphite-sheet-pgs/series/pgs-graphite-sheetssm/AYA0002?reset=1)
Panasonic Soft-PGS (Compressible Type) - bis zu 400 W/(m·K) (https://eu.industrial.panasonic.com/products/circuit-thermal-protection/thermal-protection/pyrolytic-graphite-sheet-pgs/series/soft-pgscompressible-type/AYA0005?reset=1)


Edit2: Demo-Video: https://www.youtube.com/watch?v=A4sufiqbnF8

Ich hab das Zeug auch mal getestet, das ist eher was für Handys und anderer wärmeverteilung in geschlossenen Gehäusen auch wegen der einfachen Anwendbarkeit als folie/tape.

Mit einer Heatpipe kann das an Wärmetransportkapazität nicht mithalten. Aber ist es deutlich besser als Heatspreader geeignet als eine Kupferplatte selber Stärke.
Als Wärmeleitpad ist es begrenzt sinnvoll, da man sich einen zusätzlichen Medienübergang einhandelt, der meistens mehr Temperaturwiderstand kostet als man durch die etwas bessere Wärmeverteilung gewinnen kann. Die Folie ist auch nicht so komprimierbar dass das sie zum Ausgleich von Unebenheiten wie ein wärmeleitpad oder paste verwendet werden könnte.

Zudem ist der Wärmeleitkoeffizient nicht alles. Gerade bei den Turbo-mechanismen und immer kleineren Process Nodes ist Wärmekapazität das entscheidendere Kriterium, die bei Graphit noch unterhalb der von Luft liegt.
Es muss trotz der geringen Dicke des Notebooks möglichst viel thermische Kapazität und damit Trägheit direkt an der CPU geschaffen werden um die schnellen Lastwechsel auszugleichen. Daher sehen heutige Kühlungen häufig so aus dass eine winzig dünne Kupferplatte mit möglichst großen Heatpipes kombiniert wird, da Wasser eine 12mal bessere Kapazität hat. Kupfer hat halt ebenfalls eine sehr bescheidene Wärmekapazität.

gravitationsfeld
2017-11-27, 17:19:04
IMHO:

ich glaube du hast den wichtigsten Parameter einfach vergessen. Der 10nm Prozess von Intel erlaubt keine ganz so dicht gepackten Transistoren wie der 14nm Prozess von TSMC oder auch GF. Dafür läuft die GPU dann vielleicht mit 1,5GHz und braucht nur 10W ;)
Hat Intel nicht in der Regel in der gleichen Node eine hoehere Density? Zumindest behaupten sie das immer:

https://www.extremetech.com/wp-content/uploads/2017/03/Slide1.png

Complicated
2017-11-27, 17:30:42
Ein AMD Semi-Custom Chip wird ganz sicher nicht bei Intel gefertigt. Den bekommt Intel fertig geliefert.

@gravitationsfeld
Das stimmt für den Prozess an sich. AMD nutzt bei CPUs allerdings HD-libs aus der GPU-Fertigung, wodurch sie nochmal dichter packen können. Ist allerdings hier in der Diskussion nicht relevant. Es hat lediglich dazu geführt, dass Ryzen mehr Transistoren pro Fläche verbaut hat als Intels CPUs unterm Strich. Siehe:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11382339#post11382339
http://images.anandtech.com/doci/11170/ISSCC%208.jpg

Dies ist allerdings im Kontext zu beachten. Bei GPUs herrschen wieder andere und eigene Umstände.

Gipsel
2017-11-27, 18:43:33
Bei der Kühlung gibt es aber noch einige Möglichkeiten das dünner und effektiver zu machen. Zum Beispiel Graphitfolie (http://www.elektroniknet.de/design-elektronik/elekromechanik/graphit-leitet-hitze-ab-82378.html). (Edit: Oder besser Graphen, was eine deutlich höhere Wärmeleitfähigkeit hat)

Edit: Das Zeug gibt es übrigens schon zu kaufen:


Panasonic PGS Graphite Sheet, SSM - bis zu 1950 W/(m·K) (https://eu.industrial.panasonic.com/products/circuit-thermal-protection/thermal-protection/pyrolytic-graphite-sheet-pgs/series/pgs-graphite-sheetssm/AYA0002?reset=1)
Panasonic Soft-PGS (Compressible Type) - bis zu 400 W/(m·K) (https://eu.industrial.panasonic.com/products/circuit-thermal-protection/thermal-protection/pyrolytic-graphite-sheet-pgs/series/soft-pgscompressible-type/AYA0005?reset=1)


Edit2: Demo-Video: https://www.youtube.com/watch?v=A4sufiqbnF8
Ich hab das Zeug auch mal getestet, das ist eher was für Handys und anderer wärmeverteilung in geschlossenen Gehäusen auch wegen der einfachen Anwendbarkeit als folie/tape.

Mit einer Heatpipe kann das an Wärmetransportkapazität nicht mithalten. Aber ist es deutlich besser als Heatspreader geeignet als eine Kupferplatte selber Stärke.Nun, so einfach vergleichbar ist das nicht. Kupfer leitet (wie alle Metalle) die Wärme isotrop, die Wärmeleitfähigkeit ist in alle Richtungen gleich groß. Bei Graphit ist das nicht der Fall. Die Wärmeleitfähigkeit in der Ebene der Folie ist deutlich größer als durch die Folie hindurch (deswegen würde z.B. das Schmelzen des Eiswürfels im Demo-Video von BoMbY auch nicht klappen, wenn man das flach auf den Eiswürfel legen würde ;)). Es eignet sich also hauptsächlich für das Verteilen auf eine deutlich größere Fläche, ist aber tendentiell suboptimal für die eigentliche Wärmeleitung zu einem Kühler oder Ähnlichem, der obendrauf gesetzt wird. Dies begrenzt natürlich die Möglichkeiten einer sinnvollen Anwendung und erlaubt eher nicht die einfache Aussage, daß es "besser" als eine Kupferplatte für einen Heatspreader wäre. Für einige Anwendungen mag es stimmen, für andere aber nicht.
Und noch eine generelle Anmerkung: Graphen ist für praktische Anwendungen total overhyped. Zumindest noch.
Zudem ist der Wärmeleitkoeffizient nicht alles. Gerade bei den Turbo-mechanismen und immer kleineren Process Nodes ist Wärmekapazität das entscheidendere Kriterium, die bei Graphit noch unterhalb der von Luft liegt.Pro Masse vielleicht. Allerdings nimmt ein Gramm Luft auch erheblich mehr Volumen ein als 1g Graphit. Pro Volumen ist die Wärmekapazität von Graphit erheblich höher als die von Luft (so etwa Faktor 1200) ;) und liegt etwa bei 2/3 der von Aluminium (welches wiederum bei ~70% der von Kupfer liegt [Wärmekapazität von Alu ist pro Masse deutlich höher als die von Kupfer, nur die höhere Dichte von Kupfer reißt es raus]).
Es muss trotz der geringen Dicke des Notebooks möglichst viel thermische Kapazität und damit Trägheit direkt an der CPU geschaffen werden um die schnellen Lastwechsel auszugleichen. Daher sehen heutige Kühlungen häufig so aus dass eine winzig dünne Kupferplatte mit möglichst großen Heatpipes kombiniert wird, da Wasser eine 12mal bessere Kapazität hat. Kupfer hat halt ebenfalls eine sehr bescheidene Wärmekapazität.Nur wird die Wärmekapazität von Heatpipes nur zu einem kleinen Teil von der Wärmekapazität von den vier Wassertropfen (da ist jedenfalls nicht viel drin) gebildet. Das Kupfer der Heatpipe liefert da einen vermutlich genau so hohen Beitrag und wesentlich dürfte die Umwandlungswärme (die zur Verdunstung nötig ist) des Wassers für die "effektive" Wärmekapazität (die Umwandlungswärme ist technisch eigentlich keine) sein.

w0mbat
2017-12-01, 17:09:22
https://www.facebook.com/OverclockersUK/videos/10155853543333349/

Die Kaby Lake-G GPU ist Vega basiert und nicht Polaris.

DinosaurusRex
2017-12-01, 17:23:18
Das Ding wird von Woche zu Woche begehrenswerter. Ich denke ich werde es mir kaufen (sofern es tatsächlich als NUC kommt). So ein System hab mich mir eigentlich schon seit der Ankündigung der PS4 im Jahre 2012 gewünscht. Echt schade, dass es 5 Jahre gebraucht hat, bis man sowas endlich mal kaufen kann.

Für mich die mit weitem Abstand interessanteste PC Hardware der letzten 10 Jahre.

fondness
2017-12-01, 17:27:55
https://www.facebook.com/OverclockersUK/videos/10155853543333349/

Die Kaby Lake-G GPU ist Vega basiert und nicht Polaris.

Wie ich schon sagte:
Das Ding ist IMHO mit ziemlich großer Wahrscheinlichkeit nichts anderes als Vega11. Der Rest ist Marketing.

Tarkin
2017-12-01, 18:50:12
https://www.facebook.com/OverclockersUK/videos/10155853543333349/

Die Kaby Lake-G GPU ist Vega basiert und nicht Polaris.

Inhalt nicht verfügbar. Was war dort zu lesen?

Locuza
2017-12-01, 19:17:18
Inhalt nicht verfügbar. Was war dort zu lesen?
Bei mir funktioniert der Facebook-Link, wo ein Video bereit steht.
Im Interview werden mehrere Fragen gestellt und ab 23:32 wird der Intel Deal mit AMD angesprochen, James Prior schweift ein wenig und sagt zum Schluss:"Everybody can recognize the excellence of Vega".

Gott sei Dank das dort hoffentlich eine Vega zu finden sein und nicht Polaris.
Gut für die neueren Features, den Grafikmarkt und AMD selber.

reaperrr
2017-12-01, 19:18:02
Was ich nicht ganz verstehe, ist die Schätzgröße von >200mm² bei "nur" 24CUs
Polaris10 = 232mm² - 36CUs!
Immer diese Milchmädchenrechnungen ;(

Vega10 hat trotz gleicher Einheitenzahl und halbiertem HBM-Interface auch fast 35% mehr Transistoren als Fiji (12 Mrd vs. 8.9 Mrd), und laut AMD ist das meiste davon in die bessere Taktbarkeit und Effizienz pro MHz geflossen, also sind die CUs vermutlich >30% größer als die von Polaris, und dann käme man bei zu vermutender gleicher Menge an L2-Cache und ROPs auch schnell in Richtung P10-Fläche.

Unicous
2017-12-02, 01:56:28
Etwas Anderes hätte ich mir um ehrlich zu sein auch gar nicht vorstellen können bzw. wäre für mich schon einer kleinen Niederlage gleichgekommen. In ein Produkt von 2018 GPU-Technologie von 2016 stecken.
Finde es dahingehend wieder lustig wie hier (bzw. in anderen Threads) einige vehement ihre Behauptungen verteidigt haben ohne entsprechende Grundlage.:freak: Warum sollte ein Chip der deutlich nach Polaris und Vega kommt weiterhin auf Polaris basieren. Does not compute.

Der Chip ist mit großer Wahrscheinlichkeit für Apple gedacht und die wollen bei solch einem Produkt state of the art haben. Auch wenn sie bei anderen Produkten die Hardware nur sporadisch wechseln im Mobile-Bereich versuchen sie immer die neueste Generation zu implementieren. Natürlich nur solange Intel und AMD nicht verkacken und es nicht mehr ins product cycle Fenster passt.:wink:

ApuXteu
2017-12-22, 17:10:49
Computerbase vermeldet, dass es 4 und 6 Kern Varianten mit unterschiedlichem TDP geben soll (65 und 100 Watt).

https://www.computerbase.de/2017-12/kaby-lake-g-6c-12t-vega/

Ich bin ja schon gespannt was das genau wird. Für mich klingt die CPU sehr interessant.

Screemer
2017-12-22, 18:01:43
Computerbase vermeldet, dass es 4 und 6 Kern Varianten mit unterschiedlichem TDP geben soll (65 und 100 Watt).

https://www.computerbase.de/2017-12/kaby-lake-g-6c-12t-vega/

Ich bin ja schon gespannt was das genau wird. Für mich klingt die CPU sehr interessant.

Hoffentlich schießt sich Amd damit nicht deine Raven ridge apus kaputt.

Tyrann
2017-12-22, 18:15:12
wird wohl ein gänzlich anderer Preisbereich sein

dildo4u
2017-12-22, 18:19:35
Jup Raven Ridge hat maximal 11 CU.Gegner MX 150/GT1030.(384 Cuda Cores)
Die Intel APUs mit 24 CU stellt man gegen GTX 1050 oder besser. (640 Cuda Cores) https://www.notebookcheck.net/Supposed-Intel-AMD-Core-i7-8705G-benchmarks-rival-the-GTX-1050-in-performance.262790.0.html

Complicated
2017-12-22, 19:43:40
Mache verstehen einfach nicht den Unterschied zwischen APU und diskreter mobiler GPU mit eigenem Speicher - daher rühren auch immer diese "sich selbst Konkurrenz machen" Kommentare her.

Der Stand bisher bei mobilen Geräten war:
Intel CPU oder AMD CPU/APU + diskrete Nvidia oder AMD GPU (Mobile Geräte ohne diskrete GPU gibt es so gut wie gar nicht.)

Nun wird bei Kaby Lake G nichts anderes gemacht als erneut eine diskrete GPU verbaut, jedoch mit HBM. Bei diesen Modellen hat Nvidia keinen Zugang, da sie keine HBM-Produkte im Consumer Segment verbauen. AMD hatte auch bisher in dieser Produktklasse keine diskreten GPUs angeboten. Eine APU ist a) technisch völlig anders aufgebaut und b) derzeit auch nicht mit HBM geplant wie man an Raven Ridge ja deutlich sieht.

Was aber passiert ist, dass diese Kaby Lake G diskrete GPU mit HBM für Spieleentwickler eine Zielplattform ist die berücksichtigt werden wird im Gegensatz zu Raven Ridge oder Intel iGPU in 15W TDP Geräten. Es wird eine mobile Spieleplattform neu definiert mit diskreter HBM GPU und es werden, abhängig vom Preis, Stückzahlen bei Kunden platziert. Hier sind vor allem auch AiO-PCs anvisiert, die ja auch als Wachstums-Sparte gelten. Damit werden auch Wohnzimmer-PCs in kleinen Formfaktoren boomen. Man denke an Zotac oder Steam-Machines.

Lord Wotan
2017-12-22, 19:47:34
Gibt es bei der Kombination nicht Probleme mit einer NVidia Grafikkarte bzw. mit NVida PhysX?

dildo4u
2017-12-22, 19:57:18
Gibt es bei der Kombination nicht Probleme mit einer NVidia Grafikkarte bzw. mit NVida PhysX?
Die APU ist nicht dafür gedacht mit einer externen GPU zusammen zu arbeiten.
Und GPU Physik X per Cuda ist Heute kaum noch ein Thema,die neueren Effekte wie Hairworks laufen überall.
Intel wird vermutlich Mobile 6 Cores mit Intel GPU haben,die man mit einer Nvidia GPU kombinieren kann.

Complicated
2017-12-22, 19:59:35
Wo soll die Nvidia GPU denn verbaut sein? Am Thunderbolt Port? USB?
Diese CPU und dGPU Kombi wirst du nicht im Retail finden. Das sind geschlossene Systeme. Eigenes Mainboard und fest verlötet.

Complicated
2017-12-22, 20:01:28
Die APU ist nicht dafür gedacht mit einer externen GPU zusammen zu arbeiten.Es ist keine APU - wie oft denn noch? Es ist eine CPU mit einer diskreten HBM-GPU die keinen gemeinsamen kohärenten Speicher nutzen können. Noch nicht einmal auf dem selben Die sitzen GPU und CPU.

Screemer
2017-12-22, 23:29:38
Mache verstehen einfach nicht den Unterschied zwischen APU und diskreter mobiler GPU mit eigenem Speicher - daher rühren auch immer diese "sich selbst Konkurrenz machen" Kommentare her.

Völliger Blödsin, dass meine Aussage aus dieser Ecke kommt . Mir geht es nicht um mobile sondern um Desktop oder desktopreplacements. Bei ner Tdp von +65w an mobile zu denken ist für mich völlig abwegig. Es wird imho auch Amd apus mit +65w geben. Ob die sich dann mit Intel CPUs der gleichen verbrauchsklasse mit integrierter gpu oder wie in diesem Fall GPU in package schlagen, ist dem Kunden doch völlig Banane. Ich habe schlicht die Befürchtung, dass es wieder unzählige vendoren geben wird, die trotz gleichwertigem oder besserem amd Produkt Intel verbauen werden.

Complicated
2017-12-23, 09:22:07
Bei einer TDP über 65W denkt man an AiO-PCs, welche mit mobile Technologie ausgestattet werden. Daran ist gar nichts Blödsinn, ausser diese Sparte zu ignorieren. Der klassische Desktop wird mit einer solchen integrierten und aufgelöteten Lösung kaum bedient werden.
https://windowsarea.de/2017/06/analysten-pc-markt-verlagert-sich-vom-desktop-zum-all-in-one/
Laut den Analysten sollen im Jahr 2016 12,8 Millionen All-in-One PCs verkauft worden sein, was im Vergleich zum Vorjahr dennoch ein Minus von 1,7 Prozent darstellt. Das sind in Relation zum ansonsten in den Vorjahren schwächelnden PC-Markt dennoch gute Zahlen. Praktisch alle Kategorien bis auf die 2-in-1-Geräte sind stärker rückläufig, sodass die All-in-One PCs, die in den Vorjahren am wenigsten verloren haben, praktisch an Marktanteil gewonnen haben.Immer kleinere Formfaktoren

AMD hat bisher einfach den Weg nicht in AiOs gefunden mit APUs. Daher ist das ein Markt an dem sie derzeit überhaupt nicht vertreten sind und daher machen sie sich da auch keine Konkurrenz. AiOs mit Ryzen+RX560 sind wiederum hier nicht bedroht. Z.B. der Dell Inspirion:
http://www.dell.com/de-de/shop/dell-desktop-computer/inspiron-27-7000-all-in-one/spd/inspiron-27-7775-aio

Screemer
2017-12-23, 10:29:56
aio sind Desktop PCs im erweiterten Sinn. In aio Kisten werden und wurden bei weitem nicht nur Komponenten verbaut, die auch in mobile zu finden sind. War abet von vornherein klar, dass du nicht verstehen willst was ich meine und du deine Behauptungen für dich aufrecht erhalten musst. Bin dann mal raus. Viel Spaß noch.

HOT
2017-12-23, 10:34:13
@vinacis_vivids:
Die Dinger bestehen ja nicht nur aus CUs. P11 ist schließlich auch mehr als halb so groß wie P10 obwohl es weniger als halb soviele CUs sind. Wäre also durchaus normal, dass Vega bei 24 CUs doch ein Stück größer ist als einfach nur 484mm² *24/64.
AFAIK hat P11/12 Powergating, was P10 nicht hat. Lt. AMD frisst das richtig Fläche.

Hat Intel nicht in der Regel in der gleichen Node eine hoehere Density? Zumindest behaupten sie das immer:

https://www.extremetech.com/wp-content/uploads/2017/03/Slide1.png

Intel hat AFAIK sehr viel restriktivere Designrules als die anderen Foundries. Das könnte damit zusammen hängen. Ich wette, dass eine Vega-Maske auf einem Intel-Prozess sehr viel teurer ist als bei TSMC oder GloFo und u.U. auch größer. Es gibt einen Grund, warum Intel eine so schweren Start hat als Auftragsfertiger.

Complicated
2017-12-23, 10:45:35
War abet von vornherein klar, dass du nicht verstehen willst was ich meine und du deine Behauptungen für dich aufrecht erhalten musst. Bin dann mal raus. Viel Spaß noch.
Auch wenn ich verstehe was du meinst, muss ich dir nicht zustimmen wenn du meine Aussage als völligen Blödsinn bezeichnest.
Und tschüss.

Screemer
2017-12-23, 10:59:28
Mache verstehen einfach nicht den Unterschied zwischen APU und diskreter mobiler GPU mit eigenem Speicher - daher rühren auch immer diese "sich selbst Konkurrenz machen" Kommentare her.

wie ich sowas nicht als persönlichen angriff verstehen soll und vor allem als völliges unverständniss aus welcher richtung ich diese aussage überhaupt getroffen habe? 2 posts nach dem ich über "sich selbst konkurrenz machen" sprach. du teilst nicht einfach meine meinung nicht, sondern du greifst mich aus unverständniss direkt an :up: obige aussage ist und bleibt blödsinn, denn nicht jeder der sich selbst geschaffene konkurrenz sorgt versteht den unterschied zwischen apu und dem intel teil nicht. du stellst es aber einfach so hin als wäre es so.

Complicated
2017-12-23, 11:17:01
Keine Ahnung warum du dich angesprochen fühlst. Ich bezog mich auf meinen direkten Vorposter und diesen Satz
Die Intel APUs mit 24 CU stellt man gegen GTX 1050 oder besser.
Ich weiss nach wie vor noch nicht einmal auf welche deiner Aussagen du meine Äußerung bezogen hast.
Und die Aussage ist überhaupt kein Blödsinn. Das Unverständnis liegt offensichtlich bei dir.

Zur Erläuterung:
Diskrete GPUs hat AMD bisher auch schon jahrelang gebaut. Nur weil jetzt eine dGPU auf ein Package mit Intels CPU und HBM kommt, vergrößert sich in keiner Weise der Konkurrenzdruck für APUs. Er bleibt identisch wie bisher, denn es ist eine weitere dGPU die schneller ist als eine integrierte GPU. Nichts ändert sich.

y33H@
2017-12-24, 09:48:07
KBL-G ist aufgrund der TDP für 15,6-Zöller usw ausgelegt, da spielt Raven Ridge keine Rolle.

Pirx
2017-12-24, 10:52:17
KBL-G ist aufgrund der TDP für 15,6-Zöller usw ausgelegt, da spielt Raven Ridge keine Rolle.
da spielt RR doch jetzt "schon" eine Rolle

Windi
2017-12-24, 11:40:48
Ich hab es doch nichts falsch verstanden, oder?

Das ist ein ganz normaler AMD Grafikchip mit HBM-Speicher. Die Intel CPU kommuniziert damit über PCIe wie bei jedem anderen Grafikchip auch. Die Intel CPU kann den HBM-Speicher nicht nutzen. Der einzige Unterschied ist, das man alles auf einen Träger auflötet, der HBM tauglich ist. Vorher wurde alles auf das normale Board gelötet, da GDDR nicht so anspruchsvoll war.

Das macht doch noch keine APU aus?!
Oder habe ich was verpasst?

deekey777
2017-12-24, 11:56:42
KBL-G ist aufgrund der TDP für 15,6-Zöller usw ausgelegt, da spielt Raven Ridge keine Rolle.
Bist du dir sicher, dass es KBL sein wird? Das ist wirklich absolut undurchsichtig bei Intel.
https://www.anandtech.com/show/12077/intel-8th-generation-and-9th-generation-processor-lists-leaked-coffee-lake-refresh

What our sources do confirm is that all the i7-H and i7-HK processors will be based on Coffee Lake-H hardware, rather than Kaby Lake Refresh. This might be due to the 45W nature of the processors, and it is expected that the i3/i5/i7 naming will follow desktop Coffee Lake core counts, namely that Core i3 will be quad-core, Core i5 will be six-core and Core i7 parts will be six-core with hyperthreading. A Core i9 part in this context is undefined, but I expect it just to be an additional qualifier for a Core i7 mobile processor that is overclockable (hence it’s called an HK).
(Etwas später ist die Info offiziell geworden, wenn ich mich nicht irre.)

y33H@
2017-12-24, 13:51:20
Ich bin mir ziemlich sicher, dass es KBL-G sein wird, aber freilich auch CFL-H.
da spielt RR doch jetzt "schon" eine Rolle
Jein, es gibt auch Stoney für 15,6er ...

dargo
2017-12-24, 13:57:13
Ich hab es doch nichts falsch verstanden, oder?

Das ist ein ganz normaler AMD Grafikchip mit HBM-Speicher. Die Intel CPU kommuniziert damit über PCIe wie bei jedem anderen Grafikchip auch.
Denk einfach nochmal nach.

dildo4u
2017-12-24, 15:02:23
Ich hab es doch nichts falsch verstanden, oder?

Das ist ein ganz normaler AMD Grafikchip mit HBM-Speicher. Die Intel CPU kommuniziert damit über PCIe wie bei jedem anderen Grafikchip auch. Die Intel CPU kann den HBM-Speicher nicht nutzen. Der einzige Unterschied ist, das man alles auf einen Träger auflötet, der HBM tauglich ist. Vorher wurde alles auf das normale Board gelötet, da GDDR nicht so anspruchsvoll war.

Das macht doch noch keine APU aus?!
Oder habe ich was verpasst?

Intel nutzt ein neues Eigens entwickeltes Interface.

https://www.intel.com/content/www/us/en/foundry/emib-an-interview-with-babak-sabi.html

Ich würde mich nicht so auf alles muss auf einem Die sein festlegen,das absolute High-End nutzt solche Verbindungen um Peak Performance zu erreichen.(NV Link,Infinity Fabric)
Wenn das als Zeit Kritische Verbindung nicht brauchbar wäre würde Ryzen gar nicht funktionieren.

ndrs
2017-12-24, 16:07:52
EMIB wird nur für die Verbindung GPU-HBM verwendet. CPU-GPU ist weiterhin PCIe.

gmb
2017-12-24, 21:16:17
Bist du dir sicher, dass es KBL sein wird? Das ist wirklich absolut undurchsichtig bei Intel.
https://www.anandtech.com/show/12077/intel-8th-generation-and-9th-generation-processor-lists-leaked-coffee-lake-refresh



Was soll daran undurchsichtig sein. Die mobilen 6 Core sind von einem Coffeelake Die, was soll das sonst sein. Das hat mit KBL doch nichts zu tun, denn die sind ja auch alle Quadcore, egal ob KBL-R, KBL-G oder die Desktop Vertreter. Von einem 6 Core KBL-G gibt es keine seriösen Hinweise.


Ich hab es doch nichts falsch verstanden, oder?

Das ist ein ganz normaler AMD Grafikchip mit HBM-Speicher. Die Intel CPU kommuniziert damit über PCIe wie bei jedem anderen Grafikchip auch. Die Intel CPU kann den HBM-Speicher nicht nutzen. Der einzige Unterschied ist, das man alles auf einen Träger auflötet, der HBM tauglich ist. Vorher wurde alles auf das normale Board gelötet, da GDDR nicht so anspruchsvoll war.

Das macht doch noch keine APU aus?!
Oder habe ich was verpasst?


Ja genau so wie du es sagst. Anfangs wurde es oft so hingestellt, Intel würde AMD Chips nutzen, als wenn die das integrieren würden. Da wurde schon rumgesponnen, Intel würde dann zukünftig auf AMD GPUs für ihre integrierten Lösungen setzen, obwohl es keinerlei Indizien dazu gab. Intel wird auch zukünftig auf eigene Lösungen setzen für APUs.

MadPenguin
2017-12-25, 08:55:31
Würde glaube ich schon angesprochen. Könnte ohne weiteres eine Sonderanfertigung für einen Auftraggeber sein, der unbedingt eine Intel-Amd Kombi wollte (Apple?)

Windi
2017-12-25, 09:36:12
Alles kann, nichts muss.

Aber, AMD hat gerade einmal 2 CPU DIEs auf dem Markt. Einmal 8 Kerne ohne Grafik und einmal 4 Kerne mit großem Grafikteil (wahrscheinlich auch noch ein paar Stromsparsachen, die zusätzlichen Platz benötigen)
Die angekündigte Office CPU mit 2 Kernen und kleiner Grafik ist noch nicht einmal auf dem Markt. Und für den Mainstream ist noch nicht einmal ein eigenes DIE mit 4 Kernen und ohne/kleiner Grafik angekündigt.

AMD scheint, wie der Teufel das Weihwasser, vermeiden zu wollen viele verschiedene DIEs fertigen zu müssen. Lieber baut man viel zu große Chips und deaktiviert dann fast die Hälfte.

Das man in so einem Umfeld jetzt ein einziges Spezial DIE auflegt, kann ich kaum glauben. Vor allem, da der Chip anscheinend nichts besondereres kann, im Vergleich zu einem normalen Grafikchip. Anbindung über PCIe ist das Normalste auf der Welt. HBM-Speicher werden viele zukünftige AMD Grafikchips verwenden.
Die einzige Besonderheit ist anscheinend, das Intel den HBM Interposer weglässt, da der viel zu teuer ist. Als Ersatz dafür hat man den EMIB-Träger. Der ist anscheinend voll kompatibel mit der HBM-Technik, nur deutlich günstiger. (Vielleicht erreicht man damit nicht ganz die maximalen Taktraten, aber das ist nur eine Vermutung)

Ich sehe also nicht den geringsten Grund, warum man für diesen Chip plötzlich ein eigenes DIE auflegen müsste.

LadyWhirlwind
2017-12-25, 09:55:21
Alles kann, nichts muss.

Aber, AMD hat gerade einmal 2 CPU DIEs auf dem Markt. Einmal 8 Kerne ohne Grafik und einmal 4 Kerne mit großem Grafikteil (wahrscheinlich auch noch ein paar Stromsparsachen, die zusätzlichen Platz benötigen)
Die angekündigte Office CPU mit 2 Kernen und kleiner Grafik ist noch nicht einmal auf dem Markt. Und für den Mainstream ist noch nicht einmal ein eigenes DIE mit 4 Kernen und ohne/kleiner Grafik angekündigt.

AMD scheint, wie der Teufel das Weihwasser, vermeiden zu wollen viele verschiedene DIEs fertigen zu müssen. Lieber baut man viel zu große Chips und deaktiviert dann fast die Hälfte.

Das man in so einem Umfeld jetzt ein einziges Spezial DIE auflegt, kann ich kaum glauben. Vor allem, da der Chip anscheinend nichts besondereres kann, im Vergleich zu einem normalen Grafikchip. Anbindung über PCIe ist das Normalste auf der Welt. HBM-Speicher werden viele zukünftige AMD Grafikchips verwenden.
Die einzige Besonderheit ist anscheinend, das Intel den HBM Interposer weglässt, da der viel zu teuer ist. Als Ersatz dafür hat man den EMIB-Träger. Der ist anscheinend voll kompatibel mit der HBM-Technik, nur deutlich günstiger. (Vielleicht erreicht man damit nicht ganz die maximalen Taktraten, aber das ist nur eine Vermutung)

Ich sehe also nicht den geringsten Grund, warum man für diesen Chip plötzlich ein eigenes DIE auflegen müsste.

Weil es AMD egal sein kann. Der Kunde (in diesem Fall Intel) bezahlt dafür. Es heisst nicht um sonst Semi-Custom. Da setzt AMD um eas der Kunde will und bezahlt.

HOT
2017-12-25, 11:50:04
Ich nehme an, dass AMD deshalb so zurückhaltend entwickelt hat, weil man immer 7nm im Hinterkopf behalten muss. Die Masken sind erheblich aufwendiger und zeitintensiver.

LadyWhirlwind
2017-12-25, 17:00:56
Ich nehme an, dass AMD deshalb so zurückhaltend entwickelt hat, weil man immer 7nm im Hinterkopf behalten muss. Die Masken sind erheblich aufwendiger und zeitintensiver.

Eine neue Maske/mehrere Dies führt auch immer zu einem Kostensprung. Da muss man einige Chips verkaufen danit sich das lohnt. Mit einem Die hat AMD den Vorteil das sie das Silizium immer gerade für das ertragsreichste Produkt verwenden können das sie gerade brauchen für das das Die taugt. Das hat durchaus Vorteile, und da AMD sich teildeaktivierte Dies verwenden kann, ist die Ausbeute wohl sehr hoch.

Complicated
2017-12-26, 00:55:54
Ich sehe also nicht den geringsten Grund, warum man für diesen Chip plötzlich ein eigenes DIE auflegen müsste.
Das EMIB Interface ist auf keinem anderem Die vorhanden von AMD. Ein Teil der Kostenerspaenis rührt daher, dass keine TSVs benötigt werden wie bei HBM Anbindungen über Interposer. Das spart auch 5-10% Die Fläche auf der GPU

unl34shed
2017-12-26, 10:58:19
Aber die TSVs braucht es im Interposer und nicht in AMDs Chips.

PS: EMIB ist immer noch kein Interface

basix
2017-12-26, 12:02:42
Und im HBM hat es TSV ;)

Complicated
2017-12-26, 13:30:39
Aber die TSVs braucht es im Interposer und nicht in AMDs Chips.

PS: EMIB ist immer noch kein Interface
Ein Chip der keine TSV verbaut hat kann auf dem Interposer nicht angebunden werden mittels microbumps. Oder besser formuliert müsste man ihn an seinen Speicherinterfaces anbinden, die für GDDR5 gedacht sind.

EMIB ohne eine entsprechendes Interface auf dem Chip bringt nichts. Ebenso wie ein Interposer mit TSV und ein Chip ohne TSV nichts bringt.

Siehe:
http://www.planet3dnow.de/vbulletin/threads/424860-EMIB-Intels-Interposer-Alternative-fuer-Multi-Chip-Packages?p=5071973#post5071973
http://www.intel.com/content/dam/www/public/us/en/images/foundry/emib-die-zoom-blue-16x9-graphic.png.rendition.intel.web.480.270.png


http://www.planet3dnow.de/vbulletin/threads/422600-AMD-Interposer-Strategie-Zen-Fiji-HBM-und-Logic-ICs
http://www.planet3dnow.de/vbulletin/attachment.php?attachmentid=32740&stc=1

Die Interfaces für GDDR5, HBM und EMIB sind jeweils spezifisch, da die Durchleitung von Chip zu Interposer, EMIB oder Package für GDDR5 an jeweils anderen Stellen des Chips geschehen.

http://www.intel.com/content/dam/www/public/us/en/images/foundry/emib-anticipate-norm-yield-blue-16x9-graphic.png.rendition.intel.web.480.270.png


https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35776-amd-fiji-wie-der-interposer-hbm-und-gpu-miteinander-verbindet.html

Es reicht nicht, dass nur der Interposer TSVs verbaut hat.

https://www.hardwareluxx.de/images/stories/galleries/reviews/2015/amd-furyx/amd-furyx-interposer-18-rs.jpeg

Nur so erhält man die kurzen Leiterbahnen.

unl34shed
2017-12-26, 15:35:34
Generel passen mir bei der Diskussion ein paar Dinge nicht:
- EMIB ist nur ein kleinerer Interposer, der in der Leiterplatte eingebettet wird und kein Spezielles Interface. Hier spart man sich die TSVs, da hier nur Signalleitungen zwischen den Chips geführt werden.

- CPUs und GPUs sind schon lange Flip-Chips, sprich Silizium ist oben richtung Kühler und die Metal-Layer untern in Richtung Interposer/EMIB/Substrat. Die brauchen keine TSVs. Das bracht man nur, wenn man weitere Chips darauf stapelt, sprich Interposer und HBM.

- Was es uU. an Anpassungen für EMIB gibt, ist in den oberen Metal-Layern um das Pinout anzupassen. Man wird zB. keine Pins direkt am Übergang EMIB->Substrat haben und Power Pins werden auch nicht am EMIB liegen. Beim Interposer gibt diese Einschränkungen eben nicht.

Hätte hier gerne das Bild von Wikipedia gepostet, ist aber leider ein SVG und das Forum mag es nicht anzeigen :(
https://de.wikipedia.org/wiki/Silizium-Durchkontaktierung

E: https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/45162-dieshots-des-intel-core-i9-7980xe-zeigen-interessante-details.html

Complicated
2017-12-26, 17:08:41
Du vermischst hier einiges.

-EMIB sind kleine Interposer. Du brauchst trotzdem auf dem Chip ein Interface das den EMIB anbindet. Wie du meinen Grafiken entnehmen kannst (und auch den verlinkten noch umfangreicheren Quellen). Niemand sagt EMIB wäre ein Interface - der Chip braucht dennoch ein Interface um EMIB anzubinden.

-Flipchips gibt es schon lange. Mit und ohne TSV, das hängt nicht von Flipchip ab. TSV dienen bei Interposer Designs auch zur Wärmeableitung. Siehe Grafik.

Ein Chip mit GDDR5 Interface kann weder über einen Interposer noch über ein EMIB an HBM angebunden werden. Ein Chip mit HBM/Interposer Interface kann nicht über EMIB angebunden werden.