PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Xe discrete GPUs (DG1, 2021 + DG2 "Alchemist", 2022)


Seiten : 1 2 [3] 4 5 6 7

reaperrr
2019-11-07, 15:13:31
Es mach auf jeden Fall Sinn, 10nm für GPUs zu verwenden.

CPUs brauchen unabhängig von der Kernzahl einen gewissen (Turbo-)Takt, um auch einzelne Threads schnell genug bearbeiten zu können.

Grafikanwendungen dagegen sind weitgehend parallelisierbar, d.h. wenn der Prozess nicht so doll ist was Taktraten/Effizienz angeht, kannst du immer noch etwas mehr in die Breite gehen und dafür niedrigere Taktraten mit geringerer Spannung fahren, um das zu kompensieren. Und das "in die Breite gehen" ist auch nicht so dramatisch wenn der Prozess eine deutlich höhere Packdichte hat, zumal GPUs flexibler sind, was Redundanz angeht.

In 14nm wird Gen12 auch deshalb nicht kommen, weil es entwicklungstechnisch viel aufwändiger wäre, Gen12 auf 14nm zurückzuportieren, als um die Schwächen von 10nm herumzuarbeiten (übrigens auch der Grund, warum ich nach wie vor nicht glaube, dass Rocket Lake ein rückportierter Ice Lake ist, dann schon eher ein SKL++ mit CannonLake-Verbesserungen).

gmb
2019-11-09, 01:23:19
In 14nm wird Gen12 auch deshalb nicht kommen, weil es entwicklungstechnisch viel aufwändiger wäre, Gen12 auf 14nm zurückzuportieren


Da liegst du falsch, Rocket Lake mit Gen12 iGPU kommt bekanntlich in 14nm. Allerdings eben auch nur als GT1 mit 32 EUs wegen der Größe. Die 96 EU iGPUs sind in 10nm gefertigt, selbiges für die diskrete DG1.

gmb
2019-11-13, 21:25:16
Intel’s 7nm Xe GPU: Ponte Vecchio (https://videocardz.com/newz/intels-first-xe-graphics-processor-is-called-ponte-vecchio)

On November 17th Intel will share details on the project “Aurora”. This exascale computer features Sapphire Rapids Xeon CPUs, Ponte Vecchio GPUs and Intel’s new initiative called oneAPI (unified programming model).

Intel claims that Ponte Vecchio will use Foveros packing technology and will utilize CLX interconnection (this was already known). What’s new is that they confirmed that the Xe graphics feature: ultra-high cache and high memory bandwidth.

Project Aurora:

TWO Intel Xeon Scalable Processors (Sapphire Rapids)
SIX Intel Xe Ponte Vecchio GPUs
OneAPI

Leonidas
2019-11-14, 17:47:43
Leider reiner HPC-Chip. Vielleicht ergibt die Präsentation wenigstens irgendwas griffiges für die anderen GPU-Projekte von Intel. Allerdings dürfte sich Intel gut 2 Jahre vor Release eigentlich noch nicht zu sehr in die Karten blicken lassen.

gmb
2019-11-18, 01:03:31
Um nochmal auf die Gen12/Xe zurückzukommen, es gibt genau genommen 3 verschiedene Gen12 Versionen im Treiber.

Gen12_0 LP (sämtliche iGPUs: u.a. Tigerlake, + discrete "DG1")
Gen12_5 HP (Artic Sound)
Gen12_7 HP (discrete "DG2")


Anandtech (https://www.anandtech.com/show/15123/raja-koduri-at-intel-hpc-devcon-keynote-live-blog-4pm-mt-11pm-utc) berichtet von der HPC Devcon. Demnach hat Intel die im Testtreiber genannten Gen12LP und Gen12HP bestätigt, dort mit der Marketing Bezeichnung Xe statt Gen12, ist ja das gleiche. Neu dazugekommen ist jetzt noch Xe HPC, die über Xe HP liegt.



06:48PM EST - Fundamental difference between them are the features that target is market segment


06:48PM EST - LP is 5W-20W


06:49PM EST - It could scale up to 50W, but it scales off.. Doesn't have much operating range, but this is what's required in this market

06:50PM EST - HPC is more compute optimized more than graphics optimized


Die weitere Präsentation zielt auf die HPC Variante ab.

Ponte Vecchio ist ein Xe HPC part in 7nm. In den Bildern sieht man 16 Chiplets. Wenn die EU Anzahl pro Chip mit der von Gen12HP übereinstimmt, müssten das 1024 EUs sein. Theoretisch möglich wären auch 1536 EUs, dann aber mit der Anzahl pro Chips von der Gen12LP (16x96 EUs).

Leonidas
2019-11-18, 19:25:39
Für mich ist die Frage, wie nahe Xe HPC an Xe HO kommt - wenn man mal die MultiChips wegläßt. Könnte ein einzelner dieser HPC-Chips im HP-Segment zum Einsatz kommen?

AffenJack
2019-11-18, 19:36:01
Unwahrscheinlich, man spricht ja auch davon, dass HPC eine eigene Mikroarchitektur ist. Ich denke nicht, dass das Ding überhaupt noch Grafikfeatures hat und Grafik ausgeben könnte.

Außerdem hat noch niemand gezeigt, dass man Grafik überhaupt gut auf mehrere Chips verteilen kann, daher bin ich auch da noch immer vorsichtig. Bei Compute war es dagegen ja klar, dass es in die Richtung geht.
Oder meinst du wirklich so ein einziger Die? Das wäre viel zu schwach für ne ordentliche GPU und höchstens für Low-End zu gebrauchen.

Ponte Vecchio sieht aber schon ziemlich cool aus, aber ist eben auch ein kompromissloses HPC Design und man muss bedenken, dass er erst mit der übernächsten Gen in ~5nm von AMD und Nvidia konkurieren wird.

gmb
2019-11-19, 01:03:54
Glaube ich auch nicht:

06:50PM EST - HPC is more compute optimized more than graphics optimized


Hört sich schon so an, als wenn die Xe HPC sich deutlicher unterscheidet. Die Xe HP dagegen wird ja auch als dedizierte Karte für gamer im Consumer Markt erhältlich sein. Aber auch bei der Xe HP scheint es noch Unterschiede zu geben, im Treiber sind Gen12_5 HP und Gen12_7 HP Einträge vorhanden gewesen.

Leonidas
2019-11-19, 05:33:51
Dann ist diese Idee Essig. Schade, das derzeit noch nichts wirkliches zu Xe HP zu hören ist. Xe LP holt niemand hinter dem warmen Ofen hervor und Xe HPC ist technologisch interessant, aber mehr natürlich auch nicht.

gmb
2019-11-19, 13:14:06
Die ist schon interessant, weil man was von der Architektur in der Praxis sieht und die Energieeffizienz mit anderen low end GPUs vergleichen kann. Was mich speziell interessiert, ist Quicksync.

Ravenhearth
2019-11-20, 19:16:21
AnandTech Exclusive: An Interview with Intel’s Raja Koduri about Xe (https://www.anandtech.com/show/15130/anandtech-exclusive-an-interview-with-intels-raja-koduri-about-xe)

Distroia
2019-12-04, 17:18:42
https://wccftech.com/intel-xe-gpu-discrete-graphics-cards-progress-not-going-well/

Intel Xe GPU Based Discrete Graphics Card Rumors: Progress Not Going Well With Efficiency Reportedly Being Lower Than Competitors

Läuft bei Intel! :uup:

dildo4u
2019-12-04, 17:27:14
Alles andere wäre auch extrem unglaubwürdig AMD hat es jetzt grad mal so geschafft mit Pascal gleich zu ziehn was Effizienz angeht.

gmb
2019-12-05, 02:47:56
Das hört sich stark nach einem Fake an. Das wurde von einem chinesischen Forenuser in die Welt gesetzt, der noch nie etwas exklusives geleakt hat, sondern das ist ein user der überall was aufschnappt und Sachen postet.

Das alleine wäre ja noch nichtmal so verdächtig gewesen. Verdächtig sind die Aufzählungen, die in einigen Punkten zu detailliert sind für einen so weit entfernt liegenden launch. Wie kann man denn jetzt schon wissen, wie der AIB Support zum launch aussieht. No AIB Support on lauch, als wenn der launch kurz bevorsteht.

Desweiteren muss man sich fragen, von welcher Xe er spricht, von Gen12LP oder Gen12Hp. Er redet allgemein nur von Xe, entweder hat er kein Plan oder erzählt Müll. Die Gen12LP hat ja erst vor 3 Monaten einen Power on exit Status erreicht, die Gen12HP womöglich nichtmal seinen tapeout hinter sich, auch die ganze open source Arbeit befasst sich derzeit nur mit der Gen12LP, die HP Version ist da noch nicht existent. Ein generisches drivers need a lot of work ist für einen Faker nicht so schwer mit einzubringen.

Also falls das doch kein Fake ist, kann zwangsläufig nur die Gen12LP gemeint sein, was die Sache sehr stark einschränkt. Und zu Ponte Vecchio will er auch exklusiv informiert sein, natürlich, voll der Insider.

Unicous
2019-12-05, 03:15:50
gmb mal wieder am FUD spreaden.:D Diesmal stellt er die Integrität eines ihm offensichtlich unbekannten Forenusers in Frage der in der Vergangenheit schon ein paar Treffer gelandet hat und behauptet es sei nur irgendein Typ der "überall etwas aufschnappt" und " 'Sachen' postet".:freak:

Ich meine, an sich habe ich nichts dagegen solchen Leuten sehr skeptisch gegenüberzutreten, aber herunterzuspielen, was schon von ihm/ihr postuliert wurde ist wirklich putzig.:wink: Zumal du höchstwahrscheinlich dem Chinesischen nicht mächtig bist und die Behauptungen daher eher an den Haaren herbeigezogen sind und nicht ansatzweise belegbar.:wink:

Dass Intel möglicherweise keine AIB-Lösungen plant und die Karten selbst herstellen lassen will sehe ich nicht als verdächtig. Im Gegenteil. Diese Vorgehen würde ich von ihnen erwarten. Warum sollten die AIBs für Intel ins kalte Wasser springen, wenn es kein Ökosystem gibt und Intel in den Markt einsteigt. Es gibt doch keinerlei Anreiz, außer Intel betreibt price dumping und untergräbt die Preise von AMD und Nvidia massiv. Die OEMs und AIBs verbauen und stellen lieber Nvidia-Karten her auch wenn die Marge wahrscheinlich nicht so prall ist.

(Nur mal so zur Info, er/sie hat u.a. Polaris 30 ein Jahr vor Erscheinen auf das Quartal hervorgesagt, aber ja das ist nur überall aufgeschnappt und "Sachen posten".:freak:)

eratte
2019-12-05, 07:48:01
Wie üblich, ganz mieses Benehmen ;)

Rooter
2019-12-05, 16:10:45
Mag sein, dass es FUD ist, aber ich erwarte trotzdem, dass es so kommen wird. Oder glaubt irgendjemand hier, dass Intel sofort mit Nvidia oder zumindest AMD auf Augenhöhe ist? Das wird mehrere Generationen dauern, die Treiber allein! Und die Akzeptanz durch die Spielehersteller.
Trotzdem finde ich es gut, bald einen vierten dritten Player im Markt zu haben.

MfG
Rooter

Benutzername
2019-12-05, 16:21:27
Mag sein, dass es FUD ist, aber ich erwarte trotzdem, dass es so kommen wird. Oder glaubt irgendjemand hier, dass Intel sofort mit Nvidia oder zumindest AMD auf Augenhöhe ist? Das wird mehrere Generationen dauern, die Treiber allein! Und die Akzeptanz durch die Spielehersteller.

Das sollte das geringste Problem sein bei den Spieleherstellern imho, weil die nächste Konsolengeneration AMD benutzt und auf dem PC für die nähere zukunft nVidia der Platzhirsch bleiben wird ist Optimierung gerade bei multiplattform engines auf nVidia oder AMD nicht mehr so sinnvoll. die Treiberreife muss natürlich auch gegeben sein, das hat in der Vergangenheit schon manche Mitbewerber aus dem Markt gekickt. intel hat zumindest genug Budget um genug Leute anzustellen. Aber anturgemäß wird es holperig werden am Anfang. Version 1.0 halt.


Trotzdem finde ich es gut, bald einen vierten Player im Markt zu haben.


Vier?? :confused:

AMD+nVidia+intel=3

Wer soll denn da der Vierte sein?

Rooter
2019-12-05, 16:47:11
Vier?? :confused:

AMD+nVidia+intel=3

Wer soll denn da der Vierte sein?Hoppla, stimmt, war wohl Wunschdenken. X-D

MfG
Rooter

Loeschzwerg
2019-12-05, 17:36:35
Intel beauftragt irgendeinen der zigtausend EMS oder ODM und vertreibt die Karten selbst bzw. über Channel Partner. Klappt doch z.B. mit den NUCs schon wunderbar. OEM Deals wären wichtig um entsprechend ein hohes Volumen zu generieren.

Hinsichtlich Treiber: Da hängt es in meinen Augen am ehesten an den möglichen Einstellungen im Treibermenü, gefolgt von Leistungsoptimierungen einzelner Spiele. Ansonsten läuft im Rahmen des Möglichen (Leistung der IGP) eigentlich alles, da gibt es wenig Unterschied zu z.B. einem AMD. (zu NV kann ich gerade nichts sagen, da fehlt mir aktuelle Hardware)

dildo4u
2020-01-09, 07:46:34
DG1 muss ja zumindest besser als IGP Performance sein,den Tiger Lake soll ja angeblich deutlich schneller sein in dem Bereich.
Der einzige Vorteil der mir jetzt auf Anhieb einfällt ist das die GPU extra Vram hat.

JwTh05Jd-KM

Leonidas
2020-01-09, 08:09:35
Höhere Taktraten durch allein nutzbares Power-Limit, extra Speicher mit höherer Taktrate = das allein kann +40% zur iGPU bewirken.

Aber das Grundpaket bei DG1 ist mit 96 EU aka 512 SE einfach mager. Das ist ein Angriffs auf nVidias GeForce MX - mehr nicht.

robbitop
2020-01-09, 08:14:36
Wenn das Videoencoding nochmal deutlich besser wird, könnte es für manche dennoch sehr interessant werden. Da war Intel mit Quicksync ja lange der Beste (höchste Qualität für HW Encoding). MWn ist Nvidia seit Turing zumindest bei X265 über NVENC nun an der Spitze.

LasterCluster
2020-01-09, 12:57:41
Höhere Taktraten durch allein nutzbares Power-Limit, extra Speicher mit höherer Taktrate = das allein kann +40% zur iGPU bewirken.

Aber das Grundpaket bei DG1 ist mit 96 EU aka 512 SE einfach mager. Das ist ein Angriffs auf nVidias GeForce MX - mehr nicht.

Woran sich schnell die Frage anschließt, ob Intel mittelfristig jede stärkere iGPU abschaffen will und durch dGPUs oder Kaby Lake-G artige Lösungen ersetzten will.

Ravenhearth
2020-01-09, 13:48:55
Höhere Taktraten durch allein nutzbares Power-Limit, extra Speicher mit höherer Taktrate = das allein kann +40% zur iGPU bewirken.

Aber das Grundpaket bei DG1 ist mit 96 EU aka 512 SE einfach mager. Das ist ein Angriffs auf nVidias GeForce MX - mehr nicht.
Sind doch 768 SE, oder nicht? Aber ja, viel ist das nicht.

gmb
2020-01-09, 16:21:00
Intel has revealed today its DG1 design prototype (https://videocardz.com/newz/intel-reveals-xe-dg1-software-development-vehicle)

Ohne externen power Anschluss, was man bei den spekulierten 25W auch erwarten kann.

Hoffentlich kommt die DG1 als Desktop Karte so wie dort abgebildet und nicht nur für mobile. Mit 96 EUs ist das low end, aber ohne Taktraten ist das nicht genau einzuschätzen. Wenn die GPU bei 96 EUs auf 1,5 Ghz takten kann, wären das 2,3 Tflop. Für Notebooks mit Tigerlake GT2 wäre auch ein Zusammenspiel beider GPUs denkbar.

Leonidas
2020-01-09, 16:29:00
Sind doch 768 SE, oder nicht? Aber ja, viel ist das nicht.


Exakt. 768, nicht 512.

Loeschzwerg
2020-01-09, 16:56:15
Hoffentlich kommt die DG1 als Desktop Karte so wie dort abgebildet und nicht nur für mobile.

Hoffe ich auch, aber nachdem die Karte als "Software Development Vehicle" bezeichnet wird... naja, mal schauen.

Dennoch ein witziges kleines Teil, für so eine Spielerei bin ich immer zu haben :)

https://cdn.videocardz.com/1/2020/01/Intel-DG1-Xe-Graphics-SDV-6.jpg

gmb
2020-01-09, 17:10:25
Hoffe ich auch, aber nachdem die Karte als "Software Development Vehicle" bezeichnet wird... naja, mal schauen.



Das hat leider nichts zu sagen, es wäre unpraktisch ganze Notebooks zu verschicken an die Devs. Ob es die als standalone Karte geben wird, kann man daraus nicht lesen. Als standalone wäre die mit Abstand günstigste Möglichkeit an die Xe zu kommen dieses Jahr, ein Notebook will ich mir eigentlich nicht extra zulegen.

Loeschzwerg
2020-01-09, 17:24:00
Das hat leider nichts zu sagen, es wäre unpraktisch ganze Notebooks zu verschicken an die Devs.

So war das auch nicht gemeint ^^


Ob es die als standalone Karte geben wird, kann man daraus nicht lesen.

An das SDV wird man also "Otto-Normalo" sicher nicht so ohne weiteres kommen, aber ich hoffe wie du auf eine Consumer Variante. Geld für ein weiteres Notebook wollte ich nicht ausgeben... Aber für die Wissenschaft und wenn die Steuerrückzahlung dieses Jahr üppig ausfallen sollte :freak:

Benutzername
2020-01-09, 18:20:41
So war das auch nicht gemeint ^^



An das SDV wird man also "Otto-Normalo" sicher nicht so ohne weiteres kommen, aber ich hoffe wie du auf eine Consumer Variante. Geld für ein weiteres Notebook wollte ich nicht ausgeben... Aber für die Wissenschaft und wenn die Steuerrückzahlung dieses Jahr üppig ausfallen sollte :freak:


Sehe Ich auch so. Warum macht sich intel auch dir Mühe ein hübschges Gehäuse zu enmtwerfen, wenn es sowieso nicht in den normalen Endkundeverkauf geht? Als entwickler wäre mir das ziemlich schnuppe. Steckt halt im Rechner und soll ohne zu mucken laufen.


wobei das Gehäuse sogar recht gut aussieht eigentlich. Wenn ich da so an die rx5700 von AMD mit der Delle denke...

iuno
2020-01-09, 19:55:16
Wenn das Videoencoding nochmal deutlich besser wird, könnte es für manche dennoch sehr interessant werden. Da war Intel mit Quicksync ja lange der Beste (höchste Qualität für HW Encoding).
Das ist uebrigens geschaeftsschaedigend. Auf dem 36C3 haben sie statt wie zuvor mit ein paar Xeon Maschinen die ganzen Livestreams auf einem Laptop gemacht ;)

robbitop
2020-01-10, 06:57:47
Hehe - jetzt wo AMD die höchste MT Leistung hat, kann man ja argumentativ zu Quicksync ausweichen (wo zuvor nichts über CPU Encoding ging... :D).
Ich wäre jedenfalls selbst hoch interessiert. (Plex Media Server transcodiert bei mir in Echtzeit meine Medien - macht aktuell eine Pascal in x264 mit deutlich schlechterer bq/bandbreite als die cpu...)

Loeschzwerg
2020-01-10, 08:03:19
Beide Welten kombinieren: AMD System + Intel GPU :D

Loeschzwerg
2020-01-10, 10:23:34
Bei Heise gibt es ein paar weitere/andere Bilder der DG1 Karte und vom Testsystem:
https://www.heise.de/newsticker/meldung/Intel-zeigt-Xe-Grafikkarte-DG1-4630770.html

Screemer
2020-01-10, 10:41:22
bei 30fps in warframe mit so nem kühler muss man da noch ordentlich arbeit investieren.

Loeschzwerg
2020-01-10, 11:06:15
GN haben mit einer Highspeed-Cam abgefilmt und sind auf ca. 40-50fps gekommen. Aber ja, da muss noch Arbeit reingesteckt werden.

davidzo
2020-01-10, 16:33:53
Die massive Kühlerabdeckung aus glasperlgestrahltem und vernickeltem Druckguss haben sie aber sehr schön gemacht, dass muss man ihnen lassen. Fühlt sich bestimmt hochwertig an.:biggrin:

Auch die versenkten schwarzen torx schrauben am slotblech und der Haube sind netter als die billigmontage der meisten AMD und NV Karten. Man möchte wenigstens einen soliden Eindruck bei den ISVs hinterlassen.

Dadrunter steckt einmagerer Strangkühlkörper aus Alu ohne irgenwelche fancy heatpipes, vermutlich nichtmal ne kupferbase. Der Lüfter wedelt nicht nur in den Alukühler, sondern auch ordentlich Luft direkt durch die Kühlerabdeckung ins Gehäuse rein, sowie übers slotblech nach außen.

Das ist ein solider Kühler für 50-75W. Bei 20-40Watt hätte man das auch leicht passiv oder in Singleslot lösen können...

Benutzername
2020-01-10, 19:47:44
Das ist uebrigens geschaeftsschaedigend. Auf dem 36C3 haben sie statt wie zuvor mit ein paar Xeon Maschinen die ganzen Livestreams auf einem Laptop gemacht ;)

Ist halt der Unterschied zwischen spezialiserter Hardware und Hans Dampf in allen Gassen CPU.


Wenn Ich so darüber nachdenke wäre eine DG-1 als zweite Karte im Rechner als Codec-Beschleuniger eigentlich ganz geil. Und für Pinguindompteure waren die intel Treiber eigentlich immer richtig gut. Also wenn man nur was braucht um bilder auf den Schirm zu tun wäre die DG-1 eigentlich eine gute Wahl unter Linux.


------------------------------------

Beide Welten kombinieren: AMD System + Intel GPU :D

Ich wollte immer mal einen K5 mit i740 GraKa kombinieren. ;D

Lehdro
2020-02-01, 13:08:20
Hier gibt es einiges neues/altes an Spekulatius zusammengefasst:

02vSfo-A2Ic

- Xe war ursprünglich als Streaming GPU für Datacentres gedacht, schlussendlich gibt es dafür aber keinen wirklichen Markt mehr
- Raja hat das dann zwangsläufig als GPGPU umgebaut
- Powerstruggles innerhalb von Intel
- Intel war der Marketinghype "Odyssey" nicht ganz geheuer den die ex-AMDler verantstaltet haben
- Intels 10nm ist zu schlecht (unabhängig von yields, rein auf die Optimierung bezogen -> Low Power) für dedicated Xe, deswegen DG2 mit 7nm TSMC und Rocketlake mit 10nm Xe
- paar andere interessante Sachen

Wie immer: big grain of salt empfohlen

gmb
2020-02-01, 13:36:10
und Rocketlake mit 10nm Xe



Bei dem Punkt bin ich mir sehr sicher, dass die falsch liegen. Rocketlake kommt nur mit einer 32 EU Gen12, die brauchen dafür bestimmt kein 10nm. Die Gen12 ist viel flächeneffizienter als Gen9, rein von der Größe nimmt sich das zur Gen9 mit 24 EUs nicht viel, vielleicht wäre das sogar kleiner. Sharkbay hat immer nur 14nm erwähnt und auch in der tweakers Roadmap war der Desktop Rocketlake nur als 14nm gekennzeichnet. Also schon an dem Punkt erkennt man, dass die am rumstochern sind. Sinn machen würde es nur, wenn es Rocketlake Modelle mit GT2 geben würde, weil 96 EUs in 14nm wären doch recht groß.



Xe war ursprünglich als Streaming GPU für Datacentres


Auch das ist absoluter Unfug. Xe ist die ganze Architektur. Wenn der ernsthaft behaupten will, die komplette Xe, Intels größter GPU Umbau seit Ewigkeiten, wäre nur für Datacenter gedacht gewesen, auf welcher Architektur sollen dann die iGPUs angedacht gewesen sein. Das ist absoluter Schwachfug was der schreibt. Es würde höchstens Sin machen, hätte er explizit die DG1 genannt.

Lehdro
2020-02-01, 17:50:53
Auch das ist absoluter Unfug. Xe ist die ganze Architektur. Wenn der ernsthaft behaupten will, die komplette Xe, Intels größter GPU Umbau seit Ewigkeiten, wäre nur für Datacenter gedacht gewesen, auf welcher Architektur sollen dann die iGPUs angedacht gewesen sein. Das ist absoluter Schwachfug was der schreibt. Es würde höchstens Sin machen, hätte er explizit die DG1 genannt.
Dazu bringe ich nochmals das:
Bonus: Apparently @Rajaontheedge is redefining Arctic Sound (first Intel dGPU), was originally targeted for video streaming apps in data center, but now being split into two: the video streaming stuff and gaming. Apparently wants to “enter the market with a bang.”

Quelle (https://www.forbes.com/sites/jasonevangelho/2018/04/11/intel-is-developing-a-desktop-gaming-gpu-to-fight-nvidia-amd/)

Das Gerücht gab es also schon vor 2 Jahren.

reaperrr
2020-02-01, 17:55:59
Rocketlake kommt nur mit einer 32 EU Gen12, die brauchen dafür bestimmt kein 10nm.
Kann sein, wobei es schon ein ziemlicher Aufwand wäre, für eine einzige Generation nicht nur die CPU-, sondern auch noch die GPU-uArch rückportieren zu müssen. In 10nm wäre ein 32 EU Chiplet ziemlich winzig, da bräuchte man dann nicht mal besonders gute Yields, um die in Masse zu fertigen, und IGP-lose RKLs wären deutlich günstiger und in größeren Stückzahlen herzustellen.
Ist aber letztlich wohl die Frage, was vom Gesamtpaket her mehr Sinn macht. Fürs Powermanagement und Packaging (kein EMIB) wäre ein monolithisches Design inkl. der IGP wohl sinnvoller. Bin selbst gespannt, wie RKL letztlich aussehen wird.


Auch das ist absoluter Unfug. Xe ist die ganze Architektur. Wenn der ernsthaft behaupten will, die komplette Xe, Intels größter GPU Umbau seit Ewigkeiten, wäre nur für Datacenter gedacht gewesen, auf welcher Architektur sollen dann die iGPUs angedacht gewesen sein. Das ist absoluter Schwachfug was der schreibt. Es würde höchstens Sin machen, hätte er explizit die DG1 genannt.
Wenn man es so wörtlich nimmt ist es Schwachfug, das stimmt.

Dass zumindest ein Teil der uArch-Umbauten primär auf bessere Chancen im Datacenter-Bereich abzielten und bessere IGP-Performance sowie Desktop-Graka-Tauglichkeit nur 'Nebenprodukte' davon waren, kann aber durchaus sein.

Unicous
2020-02-01, 18:04:07
Was lediglich bedeutet, dass Adored das von Eassa geklaut hat. Was wiederum nicht bedeutet, dass Eassa falsch liegt, gmb zweifelt ja eh alles an was nicht in seinen Kram passt.:wink:

Mittlerweile arbeitet Eassa ja bei Intel in der Marketingabteilung... der Grafiksparte.:freak: Immerhin wird er dafür bezahlt, im Gegensatz zu gmb. ;)

gmb
2020-02-01, 18:26:58
Dazu bringe ich nochmals das:


Quelle (https://www.forbes.com/sites/jasonevangelho/2018/04/11/intel-is-developing-a-desktop-gaming-gpu-to-fight-nvidia-amd/)

Das Gerücht gab es also schon vor 2 Jahren.


Das ist ein riesen Unterschied. Eassa spricht von Arctic Sound, während adore von Xe spricht, was völliger Blödsinn ist. Hier muss man auch wissen, dass Artic Sound auf Xe HP basiert, während DG1 und TGL iGPU auf Xe LP basieren. Wäre Stussposter Unicous intelligent genug, hätte er den Unterschied erkannt.

Es spricht aber schon dafür, dass adore die Sachen woanders aufgeschnappt hat und das in einem Video zusammen verwurstet, mutmaßlich hat er null Eigeninfos. Im Gegensatz zu adore, kann man Ashraf Eassa übrigens glauben schenken. Es muss nicht zwangsläufig richtig sein, bin mir aber sicher, dass er sich das nicht aus den Fingern saugt im Gegensatz zu adore, es kamen einige dGPU Leaks von Ashraf Eassa bevor er zu Intel gewechselt ist.

y33H@
2020-02-01, 18:44:09
Arctic Sound ist DG2?

gmb
2020-02-01, 22:02:57
Arctic Sound ist DG2?


Nein eher nicht, nach aktuellem Stand sind die unterschiedlich. Beide sind jedoch Xe HP basierend.

Arctic Sound = Gen 12.5 Graphics
DG2 = Gen 12.7 Graphics

Davon geht man derzeit aus.

Im alten Testtreiber sind ATS und DG2 ja auch getrennt aufgeführt gewesen und auch in den aktuellen Treibern sind DG2 und ATS separat wenn man danach sucht. ATS könnte auch eher was kleineres sein, 128 EUs wurden genannt, bei der DG2 gab es Versionen im Testtreiber mit 128/256/512 EUs. Ob das alles so geblieben ist, lässt sich natürlich nicht sagen.

Ghost1nTh3GPU
2020-02-10, 20:31:58
Xe mit bis zu 500W?
https://www.digitaltrends.com/computing/intel-xe-graphics-gpu-reveals-tdp-tile-architecture-exclusive/

gmb
2020-02-11, 00:02:35
Dann sind die 128 EUs die 1 Tile Version von ATS gewesen. Die können das wohl bis 4 hochskalieren und man wäre bei den 512 EUs, die man schon vom Treiber her kennt. Ponte Vecchio kann da also nicht mit dabei sein, das ist Xe HPC und 7nm, das wird nicht bei 512 EUs bleiben, darauf hätte digitaltrends selber kommen können.

Das mit dem HBM2e und 2.8G bei ATS wird mir nicht klar, für eine Speichergröße wäre das zu wenig, wird wohl eher 2.8 Gb/s Bandbreite gemeint sind. Die Folien sind wohl von Anfang 2019 und zu dem Zeitpunkt war ATS noch in Planung, einige Daten könnten sich schon wieder geändert haben.

Piefkee
2020-02-11, 01:15:18
Dann sind die 128 EUs die 1 Tile Version von ATS gewesen. Die können das wohl bis 4 hochskalieren und man wäre bei den 512 EUs, die man schon vom Treiber her kennt. Ponte Vecchio kann da also nicht mit dabei sein, das ist Xe HPC und 7nm, das wird nicht bei 512 EUs bleiben, darauf hätte digitaltrends selber kommen können.

Das mit dem HBM2e und 2.8G bei ATS wird mir nicht klar, für eine Speichergröße wäre das zu wenig, wird wohl eher 2.8 Gb/s Bandbreite gemeint sind. Die Folien sind wohl von Anfang 2019 und zu dem Zeitpunkt war ATS noch in Planung, einige Daten könnten sich schon wieder geändert haben.


Natürlich ist das pointe...
DG1 hat 96 EUs und 75w
Skaliere das mal auf 512 hoch und dann kommst du ziemlich auf über 400 Watt.

gmb
2020-02-11, 01:38:13
Natürlich ist das pointe...
DG1 hat 96 EUs und 75w
Skaliere das mal auf 512 hoch und dann kommst du ziemlich auf über 400 Watt.


Unsinn, das sind Folien zu Arctic Sound. Da ist weder DG1 noch Ponte Vecchio mit beteiligt. Die DG1 basiert auf Gen12LP und liegt im Bereich von 25W, sogar die DG1 ES auf Sisoft zeigen nur 25W an. 75W sind für Gen12LP nicht drin, theoretisch wären bis zu 50W möglich aber die Skalierung wäre dann mies. Das kannst du gerne hier (https://www.anandtech.com/show/15123/raja-koduri-at-intel-hpc-devcon-keynote-live-blog-4pm-mt-11pm-utc) nachlesen.

Gen12LP wird auch nicht in Tile unterteilt sondern in GT1 und GT2, wobei die DG1 nur in Verbindung mit GT2 steht. Wenn du den Thread richtig verfolgen würdest, wäre dir das auch klar. Da wird wieder ein Müll geschrieben von einigen, unglaublich. Sogar videocardz nimmt die 75W für die DG1, denen hätte ich mehr zugetraut.

Piefkee
2020-02-11, 10:06:00
Unsinn, das sind Folien zu Arctic Sound. Da ist weder DG1 noch Ponte Vecchio mit beteiligt. Die DG1 basiert auf Gen12LP und liegt im Bereich von 25W, sogar die DG1 ES auf Sisoft zeigen nur 25W an. 75W sind für Gen12LP nicht drin, theoretisch wären bis zu 50W möglich aber die Skalierung wäre dann mies. Das kannst du gerne hier (https://www.anandtech.com/show/15123/raja-koduri-at-intel-hpc-devcon-keynote-live-blog-4pm-mt-11pm-utc) nachlesen.

Gen12LP wird auch nicht in Tile unterteilt sondern in GT1 und GT2, wobei die DG1 nur in Verbindung mit GT2 steht. Wenn du den Thread richtig verfolgen würdest, wäre dir das auch klar. Da wird wieder ein Müll geschrieben von einigen, unglaublich. Sogar videocardz nimmt die 75W für die DG1, denen hätte ich mehr zugetraut.

Danke für den Link. Die 25W kaufe ich aber nicht. Müssen wir wohl auf Spec warten. Arctic Sound ist aus meiner Sicht die Architektur = Xe. Intel will ja eine Architektur für alle Bereiche von LP bis zu HPC abdecken damit.

HOT
2020-02-11, 10:09:04
Da erinner ich mich auch dran. Arctic Sound war die erste Auskopplung, Jupiter Sound ist die zweite. Das was da jetzt alles kommt in 10nm Intel (und 14nm Intel/Samsung für die kleinen IGP-Varianten) dürfte alles Arctic Sound sein. Ponte Vecchio dürfte ein Spezial-HPC-Projekt zwischen diesen Generationen sein, das auf irgendeinen 7nm-Prozess setzt.

gmb
2020-02-11, 11:22:08
Ponte Vecchio, Intel’s first 7nm product, will feature not four, but 16 tiles as two sets of eight tiles (likely 3D Foveros stacked) .
https://www.tomshardware.com/news/intel-arctic-sound-xe-graphics-gpu-leaked-specs

Es gibt noch Newsschreiber mit Durchblick.

mironicus
2020-02-11, 12:06:15
Sind das jetzt nur HPC-Chips oder gibt es auch etwas für den Gaming-Bereich? Eine Intel Low-Power Grafikkarte ergäbe für mich schon mal Sinn, wenn man z.B. Quicksync braucht.

HOT
2020-02-11, 12:24:49
Wie gmb schon schrieb, wird es hier wohl 2 Varianten geben. Eine Generation12 IGP-Grafik bis ca. 25W in 10/14nm und eine Generation 12 deskrete Grafik in 10nm, welche für Gamer ab 75W verfügbar wären.

Ponte Vecchio würd ich da eher in die Acturus-Schine einordnen, das Ding kann sicherlich nicht mal Grafikausgabe; dieser wär dann aber 7nm und es geht hoch bis 500W, alles bestehend aus bis zu 4 Chips - es gibt also eigentlich nur einen Ponte Vecchio-125W-Chip, der dann modular ist. All das hat aber nichts mit Gaming zu tun.

Piefkee
2020-02-11, 12:27:52
https://www.tomshardware.com/news/intel-arctic-sound-xe-graphics-gpu-leaked-specs

Es gibt noch Newsschreiber mit Durchblick.


Ponte Vecchio = 2x8 Tiles = 16
Aurora Node = 6x Ponte Vecchio + 2x Sapphire Rapids

Bin ehrlich gesagt gespannt ob Aurora wirklich noch 2021 kommt. Nicht nur wegen 7nm (die paar Chips sind für Intel kein Problem). Mich beunruhigt eher die InterConnects zwischen den GPUs...

HOT
2020-02-11, 12:33:33
2021 wird mMn erst mal ein reines Icelake SP-Jahr. Bei Intel muss man bald auf jedes Produkt in der Roadmap ein Jahr draufrechnen. Ich denke auch, dass Ponte Vecchio in N7+ oder 7LPP gefertigt ist, nicht in Intels eigenem 7nm-Prozess. Das wird Intel bis dahin mMn nicht packen - oder das Ding ist ein Garant für weitere Verspätungen. Wir werden sehen.

gmb
2020-02-11, 13:32:54
Sind das jetzt nur HPC-Chips oder gibt es auch etwas für den Gaming-Bereich? Eine Intel Low-Power Grafikkarte ergäbe für mich schon mal Sinn, wenn man z.B. Quicksync braucht.


Gen12_1= Tigerlake Gen12 LP
Gen12_2= DG1 Gen12 LP
Gen12_5= Arctic Sound Gen12 HP
Gen12_71=DG2 Gen12 HP
Gen12_72=Ponte Vecchio Gen12 HPC


Gaming Bereich ist Artic Sound und DG2, in welcher Form das genau kommt muss man sehen. /Eventuell ist auch DG2 noch für HPC, weil Ponte Vecchio und DG2 zur Gen12_7 Familie zählen. Dann wäre nur Artic Sound die Consumer Version für Gen12 HP.


https://twitter.com/Rajaontheedge/status/1225260631223422976

Hier wird spekuliert (https://twitter.com/dylan522p/status/1226925606459322368), dass es sich hierbei um ein Wafer aus Gen12 HP Chips handelt, vermutlich Arctic Sound. Etwa 150 mm² soll ein Chip groß sein.

Tarkin
2020-02-13, 15:52:40
Intel Xe in trouble: Leaked Intel DG1 Sisoft Sandra scores are 51 percent slower than the GTX 1050 Ti
(https://www.notebookcheck.net/Intel-Xe-in-trouble-Leaked-Intel-DG1-Sisoft-Sandra-scores-are-51-percent-slower-than-the-GTX-1050-Ti.453836.0.html)

Auszug:

The DG1, which scored 1815 in the FP32 floating point performance test, is over 50 percent lower than the GTX 1050 Ti, a popular discrete Nvidia GPU found in a number of laptops.

The Intel Xe DG1 is a 96 EU part. Scaling these numbers up, we can get an idea of how a 256 EU Xe HP consumer part might perform. It's not a pretty picture: a hypothetical 256 EU Xe part running at the same clocks as DG1 would be 30 percent slower than the GTX 980, a high-end GPU from six years ago.

... sieht bitter aus... sehr bitter!

zum Vergleich, eine 2400G APU von AMD ist auch ca. 25% schneller.

Würden Bulldozer und Vega ein Kind bekommen, es würde DG1 heißen!

AnnoDADDY
2020-02-13, 16:17:11
Das Ding hat ja auch nur 50% des Verbrauchs. Daher sieht das doch recht ordentlich aus.

Benutzername
2020-02-13, 17:10:27
Das Ding hat ja auch nur 50% des Verbrauchs. Daher sieht das doch recht ordentlich aus.


DG-1 soll ja auch nur zum testen und programmieren dienen. Von daher ist der Vergleich mit einer gtx980 ziemlich daneben.

Windi
2020-02-13, 18:15:51
Da der Post von davidzo aus den News-Kommentaren noch nicht bis hierhin vorgedrungen zu sein scheint, poste ich das einmal:

Hier die News:

https://www.3dcenter.org/news/intel-dokumente-zeigen-auf-artic-sound-xe-grafikloesungen-mit-bis-zu-512-eu-samt-hbm2e-und-pcie

https://www.3dcenter.org/dateien/abbildungen/Intel-Arctic-Sound-Spezifikationen-Teil1.png

Kommentare:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=598754


Hier davidzo:

Ich verstehe gar nicht wo da das verständnisproblem ist?

Da steht doch exakt wieviele Karten in ein "enablement"-Chassis passen. Das ist eine Tabelle über die Fähigkeiten der Chassis, nicht über die Karten. Die TDP bezieht sich also auf das Chassis.

"number of cards 3, 4". Damit ist doch klar dass sich die TDP auf vollbestückung mit diesen karten bezieht.

Also wenn man einen sawtooth-pass server hat, dann kann man dementsprechend 3x Karten verbauen wobei das Chassis mit einer TDP von 75,150W oder 300W noch umgehen kann, da Chassiskühlung und PSU ausreichend dimensioniert sind.

Für 4x 4-tile Karten bräuchte man im Chassis 400/500 Watt an Zusatzpower und Kühlleistung, was diese bisherigen Plattformen nicht bieten, nicht aus Netzteilgründen sondern aus Thermal Gründen.


Dementsprechend würden die TDPs so aussehen:
- 1 Tile 25Watt bis 50Watt (TDPup) = 3 Karten in 75 bis 150Watt
- 2 Tile 100Watt = 3 karten in 300Watt
- 4 Tile 133Watt bis 166 Watt (TDPup) = 3 karten in 400 bis 500Watt

bei letzterer braucht man eine zusätzliche 48V stromversorgung, da das originale server-chassis nicht genügend power bereitstellen kann.
Die weiter unten genannten Software Development Vehicle karten gehen dabei etwas effizienter zu werke als die Custom PCI Reverence Validation Platform Karten.


Das deckt sich doch recht genau mit dem was wir bisher von XE und DG1 gehört haben. DG1 ist ein 96EU Testvehikel und DG2 setzt den chiplet-Approach mit 128EUs und einem HBM2E Stack pro chip um. Das klingt nach einer plausiblen Architekturerweiterung.


Eine Verdoppelung der shader pro CU ist ins blaue geraten, dafür gibt es keine anderen leaks die das supporten. Außerdem müsste es eher eine verdreifachung oder vervierfachung sein.

Denn TDP-mäßig passt das immer noch nicht ins Bild. Das würde immer noch beinahe einer Halbierung der Effizienz pro Shaderalu im vergleich zu DG1 sein.

DG1: 96 EU / 768SP = 5-20W
DG2: 128 EU / 2048EU = 75-150Watt - da kann doch was nicht stimmen, da tippe ich eher auf eine vervierfachung der Shaderalus pro EU als dass die Effizienz mit neuer Architektur und verbesserter Fertigung um fast die Hälfte sinkt.


Intel Purley sawtooth pass platform:

Number of Cards # 3

3x PCIe x16 mit je einem slot dazwischen.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=69230&stc=1&d=1581536609
Damit kann man 3x 25-50W Karten oder 3x 100W Karten direkt betreiben.

Für 3x 166Watt benötigt man eine zusätzliche Stromversorgung, was bei dieser Plattform auch wenig verwunderlich ist.



Für mich hört sich das am passensten an.
Die TDP gelten dann für 3 oder 4 Karten in einem Chassis.
Dann hat man z.B. 25W pro Tile. (mal 4 Tiles, mal 4 Karten, gleich 400W pro Chassis)
Oder 41,6W pro Tile. (mal 4 Tiles, mal 3 Karten, gleich 500W pro Chassis)
Das hängt dann alles davon ab, welche Karten und Chassise man verwendet.

davidzo
2020-02-14, 16:11:11
Thx @windi für das überleiten des Posts.

Intel Xe in trouble: Leaked Intel DG1 Sisoft Sandra scores are 51 percent slower than the GTX 1050 Ti
(https://www.notebookcheck.net/Intel-Xe-in-trouble-Leaked-Intel-DG1-Sisoft-Sandra-scores-are-51-percent-slower-than-the-GTX-1050-Ti.453836.0.html)

Auszug:

The DG1, which scored 1815 in the FP32 floating point performance test, is over 50 percent lower than the GTX 1050 Ti, a popular discrete Nvidia GPU found in a number of laptops.

The Intel Xe DG1 is a 96 EU part. Scaling these numbers up, we can get an idea of how a 256 EU Xe HP consumer part might perform. It's not a pretty picture: a hypothetical 256 EU Xe part running at the same clocks as DG1 would be 30 percent slower than the GTX 980, a high-end GPU from six years ago.

... sieht bitter aus... sehr bitter!

zum Vergleich, eine 2400G APU von AMD ist auch ca. 25% schneller.

Würden Bulldozer und Vega ein Kind bekommen, es würde DG1 heißen!


Wundert mich nicht, das entspricht ziemlich genau dem Rohleistungsverhältnis. Notebookcheck vergleicht mit einer Desktop-1050Ti bei 75Watt. Echt ein bisschen gemein von denen dass sie im selben Satz auch Notebooks erwähnen, für die Referenzwerte aber die desktop 1050ti verlinken.
Dass ein Desktopchip wie der 2400G mit 65Watt ebenfalls bessere Resultate liefert ist auch wenig verwunderlich. Intels Gen-Chips haben in solchen theoretischen Rohleistungstests nie besonders gut abgeschnitten.

Die Taktraten von 350mhz-1Ghz deuten auch noch nicht gerade auf finale Taktraten hin. Schon Haswell vor sechs Jahren z.B. im macbook lief mit 1,2Ghz und selbst bei 15W icelake sind wir bei 1,1Ghz.
Und wenn ich mich nicht irre sollten die 96EUs doch bei ca. 5-25Watt landen... kein Vergleich zu der AMD und der nvidia-Lösung.

Der Sandra FP32 Test ist ein typischer low level Test der vielleicht einen Indikator gibt in welche Leistungsklasse Intel den chip platziert, aber nichts über die Auslastung in Games aussagen kann. Dementsprechend hat er nicht mehr Aussagekräftigkeit als die EU zahlen und Taktraten ohnehin schon haben:
- Intel DG1: 96EU * 8 Alu = 768 SP * 1Ghz *2 SP-Flops/Cycle = 1.536 Gflop/s
- AMD 2400G: 11SP * 64Alu = 704 SP * 1,25Ghz * 2 SP-Flops/Cycle = 1.760 Gflop/s
- Nvidia GTX1050ti: 6SC * 128Alu = 768 SP * 1382Mhz* * 2 SP-Flops/Cycle= 2123Gflop/s

Wobei die durchschnittliche 1050Ti eher über 1,5Ghz boosted, was in mindestens 2,3Gflop/s resultiert. Das entspricht doch alles ziemlich genau den Sandra-bench-werten.

gmb
2020-02-14, 23:41:08
Intel Xe in trouble: Leaked Intel DG1 Sisoft Sandra scores are 51 percent slower than the GTX 1050 Ti
(https://www.notebookcheck.net/Intel-Xe-in-trouble-Leaked-Intel-DG1-Sisoft-Sandra-scores-are-51-percent-slower-than-the-GTX-1050-Ti.453836.0.html)


... sieht bitter aus... sehr bitter!

zum Vergleich, eine 2400G APU von AMD ist auch ca. 25% schneller.

Würden Bulldozer und Vega ein Kind bekommen, es würde DG1 heißen!


Bitter ist nur die Schlussfolgerung. Es gibt bereits Tigerlake (https://ranker.sisoftware.co.uk/show_run.php?q=c2ffcdf4d2b3d2efdaebddebd8eaccbe83b395f095a898becdf0c8&l=en) iGPU Einträge mit 25% besserem score als dieser DG1 Eintrag. Die dedizierte Gen12LP im finalen Zustand wird sicherlich nicht langsamer sein als die iGPU Version.




Die Taktraten von 350mhz-1Ghz deuten auch noch nicht gerade auf finale Taktraten hin. Schon Haswell vor sechs Jahren z.B. im macbook lief mit 1,2Ghz und selbst bei 15W icelake sind wir bei 1,1Ghz. Und wenn ich mich nicht irre sollten die 96EUs dich bei ca. 5-25Watt landen... kein Vergleich zu der AMD und der nvidia-Lösung.



Es gab schon einen DG1 Eintrag mit 1.5 Ghz Boost. Bei der iGPU Version ist das maximale bislang 1.2 Ghz.

Leonidas
2020-02-15, 03:38:26
Für mich hört sich das am passensten an.
Die TDP gelten dann für 3 oder 4 Karten in einem Chassis.


Die Auslegung als multiple Karten (anstatt multiple Chips) passt leider nicht. Es wird die Anzahl an unterschiedlichen Karten angegeben, nichts anderes. Sehr einfach daran zu erkennen, das 4 Tiles nicht auf 3 Karten passen können.

gmb
2020-02-15, 04:11:51
Es wird die Anzahl an unterschiedlichen Karten angegeben, nichts anderes.


Er redet nicht von den Tiles, sondern von # of cards. Mir erscheint auch die TDP im Bezug zum Chassis wahrscheinlicher als die eigentliche GPU TDP, weil in der Überschrift "Enablement Platforms" steht, das ist eigentlich ein recht eindeutiger Hinweis darauf. Andersrum müsste man fragen, wie kommt man auf eine GPU TDP, es steht nirgends. Nicht nur GPUs haben eine TDP.

Zumal, wenn die Folien von Anfang 2019 sind, wird Intel zum damaligen Zeitpunkt noch keine genauen TDP Angaben zur Gen12HP gemacht haben können. Zu dem Zeitpunkt war nichtmal die DG1 mit Gen12LP lauffähig. Die geraden Zahlen sprechen auch eher fürs Chassis. Außerdem wären die Werte absurd hoch für eine GPU TDP, das passt nicht zur DG1 mit 25W und 96 EUs. Die Ausführung von davidzo macht da mehr Sinn.

davidzo
2020-02-15, 13:00:07
Die Auslegung als multiple Karten (anstatt multiple Chips) passt leider nicht. Es wird die Anzahl an unterschiedlichen Karten angegeben, nichts anderes. Sehr einfach daran zu erkennen, das 4 Tiles nicht auf 3 Karten passen können.

Aber 3 Karten mit jeweils 4 Tiles geht sehr wohl auf.
Es sind dann insgesamt 12 Tiles in einem sawtooth pass board (Fall back plan, max 3 karten) und bis zu 16 Tiles in einem Software Development Vehicle mit Coyote Pass mainboard (bis 4 karten), welches dann wahrscheinlich über 4x double slot PCIe x16 Slots verfügt. Die TDP sind alle Karten zusammen. Ein externes Enclosure mit Thunderbolt-Anbindung hätte demnach 400-500Watt, das scheint viel realistischer als 2KW.

Leonidas
2020-02-17, 09:57:13
Aber 3 Karten mit jeweils 4 Tiles geht sehr wohl auf.


Dann würde die einzelne Tile nur noch 40W verbrauchen. Davon abgesehn passt die Aufstellung der Tabelle nicht dazu. Es werden ja 1-4 Tiles für eine Spalte angegeben, in welcher durchgehend "4 Cards" steht. Diese Zahl steht demzufolge für die insgesamte Anzahl der verschiedenen SKUs - und nicht vier Karten in einer Konfiguration. Andere Lesformen der Tabelle sehe ich da nicht.

HOT
2020-03-10, 15:12:32
Die Gerüchte, dass Intel auf externe Fertigung setzen könnte, verdichten sich weiter:
https://www.techpowerup.com/264637/intel-courts-tsmc-6nm-and-3nm-nodes-for-future-xe-gpu-generations

robbitop
2020-03-10, 18:37:54
Macht für GPU Design ggf auch Sinn, da ihr Prozess sicherlich über Jahre auf die Anforderungen von CPUs getunt wurde.

Unicous
2020-03-10, 18:54:05
Intel hat genauso viel Erfahrung, wenn nicht gar mehr, mit iGPUs und onboard Chips wie AMD oder Nvidia.:wink:

Es dürfte doch offensichtlich sein, dass sie nicht genügend 10nm Chips herstellen können und deswegen auf eine Foundry ausweichen. Intel hat das auch schon längst durch die Blume zugegeben.

Das hat meiner Meinung nach wenig mit Expertise sondern viel mehr mit zu geringen Kapazitäten. Ich schätze, dass bei 10nm noch schlimmere Engpässe eintreten werden und man hofft irgendwie 7nm so schnell wie möglich zum Laufen zu bringen. Ob das von Erfolg gekrönt sein wird, wage ich momentan zu bezweifeln.

Intel hat sich vor Jahren verkalkuliert, das jahrelang nicht akzeptiert, dann versucht zu vertuschen und jetzt werden per Salamitaktik langsam über die Quartalsberichte ein paar Wahrheitskrumen gestreut.

Das Gute ist, TSMC arbeitet seit Jahren wie ein Uhrwerk, zwar geht das auch ein wenig nach, aber immerhin weiß man um wie viele Jahre. ;)
Das Schlecht daran ist, dass Intel sowohl die Konkurrenz damit gängelt, als auch kleinere Unternehmen, die sehnsüchtig auf Waferstarts warten.
Intel gewinnt, TSMC gewinnt, der Rest verliert. :uup:

edit:
Im Übrigen ist es auch nicht damit getan, dass TSMC einen für 'GPUs besser getunten Prozess' hat, falls du das implizieren wolltest. Ein Großteil des Tunings passiert zwischen der Fab und demjenigen der das Design einreicht. Das ist ein langwieriger Prozess und macht den Großteil des "Prozess-Tunings" aus. (edit: Und das macht TSMC auch nur dann, wenn du ein großer Kunde bist oder dafür bezahlst. ;))

gravitationsfeld
2020-03-10, 19:25:30
Macht für GPU Design ggf auch Sinn, da ihr Prozess sicherlich über Jahre auf die Anforderungen von CPUs getunt wurde.
Oder dass sie intern eingestehen, dass sie keine Chance gegen TSMC mehr haben.

Intel hat genauso viel Erfahrung, wenn nicht gar mehr, mit iGPUs und onboard Chips wie AMD oder Nvidia.:wink:
Es geht aber nicht um integrierte GPUs?

Unicous
2020-03-10, 19:35:34
Richtig. Es geht um GPU IP Blocks.(y)

Hier wird so getan, als wären das fundamental unterschiedliche "Transistoren". Intel hat seit nunmehr 10 Jahren Erfahrung mit CPUs und GPUs auf einem Die und hat davor IGPs hergstellt und jetzt ist ihnen plötzlich aufgefallen, dass sie das mit den GPUs doch nicht so gut hinbekommen?:freak:

Oder wollt ihr implizieren, dass Intels Fab- und Design-Teams keine Ahnung von ihrem Metier haben?:confused:

Ich meine, deine Einzeiler tragen selten zur Diskussion bei, aber erkläre uns doch bitte, was so fundamental anders ist an Intels Fabs und TSMCs Fabs?:uponder:


@basix

Das hatte ich schon geschrieben. ;)

basix
2020-03-10, 19:35:50
Intel könnte damit AMD wertvolle Kapazität wegschnappen. Damit gewinnt Intel doppelt. Damit die Kapazität an Intel geht könnten sie bei Bedarf einfach etwas mehr zahlen als AMD und / oder den Preis hochtreiben. Das Geld dazu hätten sie. Beide Male nicht gut für AMD und gut für TSMC.

gravitationsfeld
2020-03-11, 22:57:16
Richtig. Es geht um GPU IP Blocks.(y)

Hier wird so getan, als wären das fundamental unterschiedliche "Transistoren". Intel hat seit nunmehr 10 Jahren Erfahrung mit CPUs und GPUs auf einem Die und hat davor IGPs hergstellt und jetzt ist ihnen plötzlich aufgefallen, dass sie das mit den GPUs doch nicht so gut hinbekommen?:freak:
Das Problem ist, dass das was sie auf ihre CPUs packen einfach kompletter Schrott ist. Sowohl was Perf/W als Perf/Area angeht.

Bisschen aelterer Vergleich weil beides 14nm:
Raven Ridge GPU-Teil ist ungefaehr 66mm^2 fuer 704 ALUs mit 1760 GFLOPS
Skylake GT2 GPU-Teil ist ungefaehr 42.7mm^2 fuer 192 ALUs mit 403 GFLOPS
Takt ist 1250Mz vs 1050Mz, also nicht weit voneinander entfernt

AMD packt ~10.6 ALUs in 1mm^2, Intel nur ~4.5. Das sind Welten.

Korrigiert mich falls das bei Gen11 deutlich besser aussieht inzwischen (aber natuerlich 10nm beachten, die Packdichte ist nicht vergleichbar). Intel hat mit Gen12 zumindest die register scoreboards entfernt, das sollte die Die-Area verringern.

Loeschzwerg
2020-03-12, 07:43:05
Korrigiert mich falls das bei Gen11 deutlich besser aussieht

64EUs (512 Shader) @ ~41,1mm² @10nm. Sind ~12,45 Shader pro 1mm².

Mal schauen wie das dann mit Gen12 aussieht.

robbitop
2020-03-12, 10:14:11
Normiert auf 14 nm wären das dann ~6–7 ALUs pro mm2?

Zumal sich auch die Frage nach Performance pro ALU stellt. Also perf/transistor. Aber eines ist ersichtlich: Intel scheint aufzuholen.

gmb
2020-03-12, 12:26:11
64EUs (512 Shader) @ ~41,1mm² @10nm. Sind ~12,45 Shader pro 1mm².

Mal schauen wie das dann mit Gen12 aussieht.


Dort sind aber nicht nur die Shader dabei, der Uncore ist ja da auch mit drin. Die GT2 von Tigerlake liegt nach ersten Kalkulationen vom Wafer bei 46-48 mm², also 10-15% über Gen11 bei 50% mehr EUs.

danarcho
2020-03-12, 14:03:33
Normiert auf 14 nm wären das dann ~6–7 ALUs pro mm2?

Zumal sich auch die Frage nach Performance pro ALU stellt. Also perf/transistor. Aber eines ist ersichtlich: Intel scheint aufzuholen.
Dafür haben sie dann auch sämtliche double instruktionen rausgeschmissen...

Dort sind aber nicht nur die Shader dabei, der Uncore ist ja da auch mit drin. Die GT2 von Tigerlake liegt nach ersten Kalkulationen vom Wafer bei 46-48 mm², also 10-15% über Gen11 bei 50% mehr EUs.
Äh ja.. ALUs sind jetzt glaube ich nicht der komplizierte Teil. Die werden halt etwas kleiner je breiter die SIMD-Einheiten sind, ansonsten verändert sich da nicht besonders viel dran. Es wäre auch überraschend, wenn Intel ein Problem damit hätte die ALUs klein zu bekommen.

gravitationsfeld
2020-03-13, 04:18:50
Intels Architektur ist komplett komisch. Die haben tatsaechlich noch zwei SIMD4-Einheiten pro EU.

iuno
2020-03-13, 12:04:02
Ich hatte mich auch erst darueber gewundert, wie wenig cores Intels GPU eigentlich hat.

Z.B. beim 8250U: 4 Kerne, 24 EU. Das macht mit AVX2 theoretisch 4*2*2*256/32*3,4 = 435,2 GFLOPS.
GPU: 24*8*2*1,15 = 441,6 GFLOPS.

Das war mir vorher so gar nicht bewusst. Oder bin ich irgendwo falsch?

Bei AMD (2500U zum Vergleich) steht es wenigstens 1.126,4 GF zu 460,8 GF fuer die GPU. Und das obwohl bei dem KBL-R die GPU auch ca. gleich viel Platz einnimmt wie die CPU.

Kein Wunder benutzt niemand GPGPU. Und wenn AVX512 auch mal auf die kleinen CPUs mit IGP kommt kann man sie sich eigentlich bald ganz sparen :ulol:

aufkrawall
2020-03-13, 12:25:59
Dabei sind auch noch die reale Performance und Effizienz pro FLOP der absolut allerunterste Schrott für Gen9(.5).
Wenn ich auf dem Gemini Lake 2C-Modell in Firefox mit Webrender scrolle, zieht allein die GPU laut Software schon >5W und schafft selbst auf leichten Seiten keine 1080p 60fps, weil der SoC als Ganzes drosselt.
Die GTX 1070 Gesamtkarte zieht dabei bei ruckelfreien 1440p 75fps 14-17W. ;D

gmb
2020-03-22, 00:53:01
Intels Video Acceleration API Bibliothek (https://github.com/intel/libva/blob/master/va/va.h) umfasst jetzt auch ein AV1 Decoding (https://github.com/intel/libva/blob/master/va/va_dec_av1.h) Modul.

* - Decoder (HEVC, JPEG, VP8, VP9, AV1)
* - \ref api_dec_hevc
* - \ref api_dec_jpeg
* - \ref api_dec_vp8
* - \ref api_dec_vp9
* - \ref api_dec_av1


VAProfileAV1Profile0
VAProfileAV1Profile1


Ich bin noch nicht dahintergekommen, auf welche Xe das abzielt, falls es nicht auf jede abzielt. Im Windows Treiber wird AV1 unterschieden zwischen G12 und G12DG2.

gmb
2020-03-22, 12:18:55
https://s19.directupload.net/images/200322/lw9enavf.jpg
https://videocardz.com/newz/exclusive-intel-rocket-lake-s-features-pci-express-4-0-xe-graphics

12 Bit AV1 für die Gen12LP GT1 in RKL-S, kommt somit also auch für die DG1.

Leonidas
2020-04-02, 10:32:46
Wundert mich schwer, das wir das noch nicht hatten:

https://i.imgur.com/z7knma7.jpg

Piefkee
2020-04-02, 10:48:02
https://youtu.be/s13iFPSyKdQ

Fragman
2020-04-02, 10:48:20
Eiffel 65? ;D

Der_Korken
2020-04-02, 12:06:38
https://youtu.be/s13iFPSyKdQ

;D

Die Kabel und das Klopapier unterm Tisch :freak:

Sehr gut gemacht

davidzo
2020-04-02, 12:31:40
Intels Video Acceleration API Bibliothek (https://github.com/intel/libva/blob/master/va/va.h) umfasst jetzt auch ein AV1 Decoding (https://github.com/intel/libva/blob/master/va/va_dec_av1.h) Modul.

* - Decoder (HEVC, JPEG, VP8, VP9, AV1)
* - \ref api_dec_hevc
* - \ref api_dec_jpeg
* - \ref api_dec_vp8
* - \ref api_dec_vp9
* - \ref api_dec_av1


VAProfileAV1Profile0
VAProfileAV1Profile1


Ich bin noch nicht dahintergekommen, auf welche Xe das abzielt, falls es nicht auf jede abzielt. Im Windows Treiber wird AV1 unterschieden zwischen G12 und G12DG2.


Könnte sein dass man es in den diskreten Karten dann wieder weg lässt. Wenn der Decoder praktisch schon in jeder CPU enthalten ist mit der man die diskrete Karte kombinieren kann, wozu sollte man dann dasselbe silicon noch doppelt mitschleppen? Aus Energieeffizenz -Sicht wäre es besser in solchen Fällen auf die IGP und den Hauptspeicher als SI zurückzugreifen weil man dann den diskreten chip, dessen DRAM und PCIe-Interface schlafen legen kann.

Platos
2020-04-02, 12:44:34
Mist, und für ein ganz kurzen Moment nach dem Aufwachen dachte ich tatsächlich, das sei echt :D

davidzo
2020-04-02, 18:39:56
Haben die schon sehr sehr schön gemacht! Muss echt aufwändig gewesen sein die Hardware mit heißkleber zusammen zu bekommen so dass man es nicht sieht.

Die Blende und das blaue shield sind jedenfalls schön FDM 3dgedruckt, da sieht man noch die Rillen vom Druck. Aber ein sehr sauberer Druck und sauber konstruiert, respekt!

Der Kühler und die Vapourchamber sind echt extrem gut gemacht. Auch 3ddruck und Kupfereffektlack?

gmb
2020-04-02, 20:18:24
Könnte sein dass man es in den diskreten Karten dann wieder weg lässt. Wenn der Decoder praktisch schon in jeder CPU enthalten ist mit der man die diskrete Karte kombinieren kann, wozu sollte man dann dasselbe silicon noch doppelt mitschleppen?


Darauf gibt es keinen Hinweis. Im Gegenteil, die DG2 hat getrennte AV1 encoding/decoding strings im Windows Treiber, was auf ein verbessertes oder geänderte AV1 Umsetzung hindeuten kann. Ich halte es andersrum, warum sollten sie eine so kleine und nützliche dedizierte Einheit rausnehmen, schonmal was von AMD CPUs gehört oder ältere Intel CPUs bzw. Highend ohne iGPU? Und wieso dann nur AV1 rausnehmen, wenn schon müsste Intel Quicksync nach der "wozu mitschleppen" Logik komplett rausnehmen, was sicherlich auch nicht passieren wird.

BoMbY
2020-05-09, 15:50:11
Intel Xe (DG1) desktop graphics spotted with 768 cores (https://videocardz.com/newz/intel-xe-dg1-desktop-graphics-spotted-with-768-cores)

Wenn man etwas weiter sucht:

https://ranker.sisoftware.co.uk/show_run.php?q=c2ffcdf4d2b3d2efdae8dbedd8eaccbe83b395f095a898becdf0c8&l=en

Leonidas
2020-05-11, 10:11:18
DG1 is Mobile only:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-910-mai-2020

https://www.3dcenter.org/dateien/abbildungen/Intel-DG1-is-mobile-only.png

dildo4u
2020-05-19, 15:08:24
Compute Performance vs 1650 und 5500XT.



https://videocardz.com/newz/intel-xe-dg1-gen12-opencl-performance-leaks

crux2005
2020-05-19, 20:50:56
s13iFPSyKdQ

:crazy:

Was ein geiles Video. ;D ;D ;D

Schon lange nicht so gut Gelacht.

gmb
2020-06-02, 12:28:36
Ist zwar nicht neu aber trotzdem: https://twitter.com/aschilling/status/1256936357534019590


Also Artic Sound ist ein Xe HP Ableger für Datacenter. Damit ist klar, dass die DG2 der Consumer Ableger basierend auf Xe HP ist. Macht ja auch Sinn, wenn schon die DG1 für Consumer ist. Außerdem waren DG1 und DG2 in dem Testtreiber Leak mit drin.

Das ist für Datacenter und damit wahrscheinlich Artic Sound: https://twitter.com/IntelGraphics/status/1256238389969301506/photo/1

4 tiles mit je 128 EUs.

dildo4u
2020-06-02, 12:35:47
DG1 macht Sinn wenn die Yields der 8 Kern Tiger Lake nicht da sind, dann müssen sie Comet Lake + DG1 nutzen um Renoir Paroli zu bieten.

gmb
2020-06-02, 12:57:06
DG1 macht Sinn wenn die Yields der 8 Kern Tiger Lake nicht da sind, dann müssen sie Comet Lake + DG1 nutzen um Renoir Paroli zu bieten.


Die 3D Performance der iGPU bei den H-Modellen spielt praktisch keine Rolle, weil 98% davon sowieso mit einer dGPU augestattet werden. Deswegen bekommt Tigerlake-H auch nur eine GT1, für 2D und Videodecoding reicht das aus. Schau dir Renoir-H (https://geizhals.de/?cat=nb&xf=14265_H%7E14265_HS%7E9690_Renoir) an, nicht eine Listung ohne dGPU. CML-H das gleiche, alle mit dGPU.

dildo4u
2020-06-02, 13:13:54
Die 3D Performance der iGPU bei den H-Modellen spielt praktisch keine Rolle, weil 98% davon sowieso mit einer dGPU augestattet werden. Deswegen bekommt Tigerlake-H auch nur eine GT1, für 2D und Videodecoding reicht das aus. Schau dir Renoir-H (https://geizhals.de/?cat=nb&xf=14265_H%7E14265_HS%7E9690_Renoir) an, nicht eine Listung ohne dGPU. CML-H das gleiche, alle mit dGPU.

Comet Lake U ist eine Option für Chassis die man mit 25Watt Konfigurieren kann. Damit könnte man Ultra Books mit DG1 bauen.
Natürlich hätte AMD aber immer noch mehr CPU Power und weniger Verbrauch.


https://live.staticflickr.com/65535/49963265112_feb0a74dec_b.jpg (https://flic.kr/p/2j85N2o)19 (https://flic.kr/p/2j85N2o) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

https://www.techspot.com/review/1944-intel-core-i7-1065g7/

gmb
2020-06-02, 13:24:39
Comet Lake U ist eine Option für Chassis die man mit 25Watt Konfigurieren kann. Damit könnte man Ultra Books mit DG1 bauen.
Natürlich hätte AMD aber immer noch mehr CPU Power und weniger Verbrauch.



Du hast von 8 Kernen geredet, bedeutet CML-H oder TGL-H. 8 Kern Tigerlake hat nichts mit ULV zu tun. CML-U Designs mit MX250/MX350 könnten dagegen auch eine DG1 vertragen, theoretisch.

MR2
2020-06-25, 08:12:40
Raja Koduri teases Intel’s Xe Graphics Family

https://videocardz.com/newz/raja-koduri-teases-intels-xe-graphics-family

dildo4u
2020-07-24, 05:37:21
Schätze mal High End XE ist 7nm?Laut Intel gibt es dort Verschiebungen.

https://wccftech.com/intel-alder-lake-10nm-desktop-cpus-2h-2021-launch-7nm-delayed-till-2023/

AffenJack
2020-07-24, 07:10:51
Könnte mir vorstellen, dass man GPUs jetzt komplett zu TSMC auslagert. Bei Intels Prozessproblemen wäre nur von Vorteil für sie.

Unicous
2020-07-24, 07:16:48
Irgendwie muss man der Konkurrenz ja Herr werden. Wenn man nicht wettbewerbsfähig ist, nimmt man ihnen einfach die Fertigungskapazitäten weg.:freak:

dildo4u
2020-07-24, 07:45:56
Wird der Chip nicht auf Intels Fertigung zugeschnitten sein?

Slipknot79
2020-07-24, 08:28:09
Welche Fertigung? :redface:

gmb
2020-07-24, 12:34:38
Wird der Chip nicht auf Intels Fertigung zugeschnitten sein?


Xe ist entkoppelt von der Fertigung laut Intel. Ist nur die Frage, ob sie für Xe HP auf Samsung oder TSMC gehen, Gerüchte gab es zu beiden. Artic Sound könnte allerdings mit Intels 10nm kommen, der war nicht für 7nm geplant.

Blediator16
2020-07-24, 13:56:25
Egal wie man es dreht ist es eine riesen Katastrophe.

AffenJack
2020-07-24, 14:06:19
Für die CPU Sparte ja, für die GPU Sparte könnte das sogar von Vorteil sein, da man dann auf den gleichen Prozess setzt wie AMD/Nvidia, während man sonst vll sogar im Nachteil ist.

Blediator16
2020-07-24, 15:39:51
Solange sie das Volumen von den ehemals höchst profitablen 14nm Chips halten können, geht das gut, aber sobald die out sind und sie ihre Fabs nicht unter Kontrolle haben, dann wird es richtig eklig. Ich bin mir sicher, dass das kein schleichender Prozess sein wird. Sobald sie ihre Fabs abstoßen müssen, wirds krachen.
Mal davon abgesehen hat es schon seinen Grund, wieso sie ihre GPUs auf TSMC Wafer bringen möchten: 7nm ist kaputt.

Sunrise
2020-07-24, 17:22:43
Irgendwie muss man der Konkurrenz ja Herr werden. Wenn man nicht wettbewerbsfähig ist, nimmt man ihnen einfach die Fertigungskapazitäten weg.:freak:
Das könnte in der Tat zum Problem werden, wenn jetzt auch noch Intel hinzu kommt, mit der dicken Kapitaldecke.

Benutzername
2020-07-24, 17:25:55
Irgendwie muss man der Konkurrenz ja Herr werden. Wenn man nicht wettbewerbsfähig ist, nimmt man ihnen einfach die Fertigungskapazitäten weg.:freak:

Eigentlich nicht. TSMC oder Samsung werden da schon eher langfristige Zusagen von intel haben wollen Kapazitäten für fünf oder zehn Jahre einzukaufen angesichts der von intel wahrscheinlich benötigten Mengen. so oder so müssten sie Kapazitäten aufbauen und das machen die Auftragsfertiger bestimmt nicht für nur ein oder zwei Jahre.

=Floi=
2020-07-24, 17:26:26
Für den endkunden wird es aber den vorteil haben, dass die top tier fertigungen noch schneller und größer aufgebaut werden können. Es lohnt sich noch mehr, in die prozesse viel geld zu investieren.
Der kunde profitiert ebenfalls von günstigeren preisen und besseren produkten. Ich nennen hier mal ryzen.

Unicous
2020-07-24, 18:17:54
@Benutzername

Das ergibt keinen Sinn. Denkst du Intel bekommt nur die Brotkrumen die übrig bleiben, weil sie keinen zehnjährigen Vertrag eingehen.:confused:

So funktioniert das auch im Übrigen nicht. Man geht keine langfristigen Lieferverträge ein, man kauft je Zyklus Kapazitäten ein und es gibt sicherlich Firmen wie Apple die dann auch mal etwas mehr springen lassen um die ersten zu sein. TSMC interessiert ein langfristiger Vertrag also nicht die Bohne zumal das auch wenig Sinn macht, wenn man normalerweise alle 2-3 Jahre den Prozess wechselt (auch hier ist Apple Paradebeispiel). Apple und Co. haben den Vorteil, dass sie den bzw. die Prozesse und TSMC als Partner schon lange kennen und seit Jahren zusammenarbeiten. Dafür bringt Intel ihre eigene Expertise, mit durch ihre Fabs (was natürlich auch zu clashes führen kann, Intel ist ja nicht dafür bekannt besonders bescheiden zu sein).

Intel kann einen ordentlichen Batzen Geld in die Hand nehmen, und damit TSMC überschütten, das dürfte TSMC sicherlich dazu bewegen Kapazität exklusiv für sie bereitzustellen. Intels Chiphunger ist enorm und Intels Verzweiflung und die Erkenntnis dass sie in einer Notlage sind steigt von Monat zu Monat.

Intel hat einen Finanztypen zum CEO gemacht, weil sie offensichtlich keinen besseren Kandidaten finden konnten oder wollten. Auch zu der Zeit haben sie die Lage nicht erkannt. Krzanich hatte zumindest langjährige Erfahrung mit und auch Ahnug von Fabrikation, er war ja seit den frühen 80ern bei Intel.

Sie haben die "Not" in der sie sich befinden schlicht nicht erkannt bzw. es ist zu vermuten, dass sie es aus lauter Arroganz einfach ignoriert haben . Über Jahre.

Schon 14nm hatte Probleme, deswegen mussten sie Broadwell verschieben.

Intel delays Broadwell release date until 2014 because of defect density issues (https://www.extremetech.com/computing/168799-intel-delays-broadwell-2014)

Jährlich folgten dann die Beschwichtigungen und dass man on track sei.
https://www.anandtech.com/show/8367/intels-14nm-technology-in-detail

Die Analysten und Partner haben Intels Kool Aid blind weiter getrunken, weil es ja Intel ist und Intel versagt nicht.

Als die Probleme mit 10nm sichtbar wurden, hat man es weiterhin abgetan.

Jetzt nachdem Intel nicht nur fertigungstechnisch Probleme hat, sondern auch generell nicht genug liefern kann und die Konkurrenz immer weiter erstarkt, erkennt man langsam, dass das Dickschiff in Schieflage geraten ist.

Es wird natürlich weiterhin Leute wie gmb und Witeken bei Twitter geben die Intels Kool Aid trinken und franchisemäßig versuchen weiterzuverkaufen, aber langsam, sehr laaaangsam kommt hoffentlich auch Intel zur Erkenntnis, dass sie ein riesiges Problem haben und sich darum kümmern müssen und sie langfristig nicht auf TSMC oder gar Samsung bauen können um ihre Defizite auszugleichen.

Das kann jedenfalls weitreichende Konsequenzen haben, wenn Intel jetzt auch noch produktionsseitig mit AMD, Apple, Nvidia Qualcomm etc. konkurriert. Wir werden sehen ob sich das nur auf GPUs und Chipsätze, Modems? beschränkt. Sobald sie ankündigen CPUs fertigen zu lassen sollte man hellhörig werden.

dildo4u
2020-07-27, 15:30:46
Intel High-End GPUs sollen angeblich mit 6nm TSMC gefertigt werden.


https://wccftech.com/intel-ponte-vecchio-gpu-tsmc-6nm/

dildo4u
2020-08-12, 22:30:20
Gameing XE angeblich mit 1024 EU und 21 Tflops in 2021 + Hardware RT.


https://videocardz.com/newz/intel-to-unveil-xe-hpg-gaming-architecture-with-hardware-ray-tracing

Ravenhearth
2020-08-12, 22:50:32
Wo steht das mit 1024 EUs/21 TFLOPs für Gaming?

Linmoum
2020-08-12, 23:12:03
Gameing XE angeblich mit 1024 EU und 21 Tflops in 2021 + Hardware RT.


https://videocardz.com/newz/intel-to-unveil-xe-hpg-gaming-architecture-with-hardware-ray-tracing
Nein, Videocardz schreibt von 1-tile für Xe-HPG, also wäre das max. 512 EU/10.6 TFLOPs. Oder sogar weniger, da tbc.

Davon ab ist die reine TFLOPs-Angabe bei Intel eh sinnfrei, siehe GCN. Man weiß einfach nichts.

Leonidas
2020-08-13, 04:20:24
Xe-HPG wird nur als Single-Tile erscheinen - aber das sagt nicht aus, wie groß jene wird. Die Unterteilung in Tiles bei Xe-HP dient ja nur der besseren Skalierbarkeit / besseren Fertigung.

dildo4u
2020-08-13, 04:52:26
Gibt es nicht Gerüchte das RDNA3 auch Tiles nutzt? Ist das dort auch nur für HPC?

davidzo
2020-08-13, 10:48:13
Nein, Videocardz schreibt von 1-tile für Xe-HPG, also wäre das max. 512 EU/10.6 TFLOPs. Oder sogar weniger, da tbc.

Davon ab ist die reine TFLOPs-Angabe bei Intel eh sinnfrei, siehe GCN. Man weiß einfach nichts.

Aber darum geht es doch, XE-HPG nutzt keine Tiles aus Intel Fertigung, daher auch singlechip.
Dadurch dass es ein anderer Chip ist, noch dazu mit anderem featureset (RT) und Speicherinterface (GDDR6), ist völlig offen wieviele EUs darauf sein werden.

Btw, wenn ein Tile wirklich 512EUs sind und eine 4 Tile Karte 42Tflops FP32 bringen soll, dann wären 166Watt für eine Karte unglaublich energieefizient. Die 166Watt sind aus den geleakten chassis Informationen zu sawtooth pass und wilson creek wo drei Karten á 4 tiles in ein Chassis gehen sollen und dafür ein zusätzlicher TDP und Power Headrom von 500W gebraucht wird. Ergibt 166Watt pro 4 tile Karte.

Die 42tflops gehen aber auch von 1,3Ghz+ aus, möglicherweise werden es viel niedrigere Taktraten um die niedrige TDP zu halten.




Dementsprechend würden die TDPs so aussehen:
- 1 Tile 25Watt bis 50Watt (TDPup) = 3 Karten in 75 bis 150Watt
- 2 Tile 100Watt = 3 karten in 300Watt
- 4 Tile 133Watt bis 166 Watt (TDPup) = 3 karten in 400 bis 500Watt

bei letzterer braucht man eine zusätzliche 48V stromversorgung, da das originale server-chassis nicht genügend power bereitstellen kann.
Die weiter unten genannten Software Development Vehicle karten gehen dabei etwas effizienter zu werke als die Custom PCI Reverence Validation Platform Karten.




Eine andere Auflösung ist das die 4 Tile Karte alleine schon 400/500Watt braucht. Dann macht allerdings die Tabelle zu den chassis Capabilities keinen Sinn.



BTW, sind die 512 EUS pro Tile jetzt eigentlich gesetzt, gab es da einen leak zu oder ist das weiterhin eine Vermutung?

dildo4u
2020-08-13, 15:01:50
Hier die Werte aus den Leaks bestätigt.


https://www.computerbase.de/2020-08/intel-xe-hp-profi-gpu-ampere-fp32-leistung/

5AfBrkmM2do

Ravenhearth
2020-08-13, 15:04:54
The Intel Xe-LP GPU Architecture Deep Dive: Building Up The Next Generation
https://www.anandtech.com/show/15973/the-intel-xelp-gpu-architecture-deep-dive-building-up-from-the-bottom

Edit: Intel Xe HPG: Gamer-Grafikkarte mit GDDR6 und Raytracing kommt 2021
https://www.computerbase.de/2020-08/intel-xe-hpg-gamer-grafikkarte-gddr6-raytracing/

Intel’s Xe-HPG GPU Unveiled: Built for Enthusiast Gamers, Built at a Third-Party Fab
https://www.anandtech.com/show/15974/intels-xehpg-gpu-unveiled-built-for-enthusiast-gamers-built-at-a-thirdparty-fab

=Floi=
2020-08-15, 23:56:10
was sagt ihr denn zu den 40TF (ende) 2021?

dildo4u
2020-08-16, 06:16:09
Sagt nix aus ohne TDP Werte, im Server Bereich muss es ohne Wasser Kühlung kühlbar sein.
Ansonsten erhöht sich der System Preis zu viel, Intel hatte z.b Mal 400 Watt 56 Core Xeons geplant die dann nie gekommen sind.

AffenJack
2020-08-16, 08:38:09
TDP sollte ja gemäß der einen Folie von Februar bei 400-500W liegen. Die Diesize die man dafür braucht scheint auch riesig zu sein mit den 4 Tiles. Klingt also einersets ganz gut, aber ist erstmal eine Demonstration der guten Packeging Tech von Intel. Am Ende kommts auch drauf an, wie gut die TF genutzt werden können.

davidzo
2020-08-16, 22:24:41
was sagt ihr denn zu den 40TF (ende) 2021?

Ist schon ordentlich, wesentlich mehr als die kolportierten 34TF von Arcturus die hier viele für deutlich zu hoch geschätzt halten. Aber A100 schlägt selbst das in vielen Szenarien durch effektiver machende features bei reduzierter Präzision. Letztendlich wird es auf die Verbrauchswerte ankommen ob man mit Arcturus konkurrieren kann und selbst dann würde man es auch in 2021 noch schwer haben mit A100. Intel ist klar Außenseiter...

robbitop
2020-08-17, 10:49:44
Gibt es nicht Gerüchte das RDNA3 auch Tiles nutzt? Ist das dort auch nur für HPC?
Die Gerüchte von MCM 3D GPUs (die transparent zur Anwendung 100%ig funktionieren und anständig skalieren) kommen immer wieder. Seit mindestens 10 Jahren schon.
Ich bin gespannt, ob man die grundsätzlichen Probleme und Nachteile mittelfristig so gut lösen kann, dass es sich eindeutig lohnt. Bei CPUs und Compute Chips ist das Thema nunmal völlig anders gelagert.

davidzo
2020-08-18, 10:00:57
Hatten wir den Package Shot von XE-HP schon?

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=71148&stc=1&d=1597737631

https://www.anandtech.com/show/15990/hot-chips-2020-live-blog-intels-raja-koduri-keynote-200pm-pt

HOT
2020-08-18, 11:08:35
Das Ding ist ein Single-Chip, weil das bei Grafik einfach nicht anders geht momentan. AMD trennt jetzt I/O ab von den GPUs in einem separaten Die offenbar mit N31, um sowohl HBM als auch GDDR mit derselben GPU nutzen zu können, mehr ist z.Zt. aber nicht zu erwarten. Dass Intel auf N6 setzt, dürfte dem Umstand geschuldet sein, dass die eigene Fertigung einfach nicht gut geeignet zu sein scheint, um Gaming-GPUs damit zu bauen, ich würd mal darauf wetten. Da die Dinger das Tape Out schon hinter sich haben, wird man wohl im Sommer 2021 soweit sein. Ich freu mich. Fertigung ist konkurrenzfähig und man scheint es halbwegs ernst zu meinen, das könnte vielleicht ein ganz guter Einstand werden. Der Witz ist aber der, dass Intel der erste Anbieter sein könnte, der EUV-Technik für GPUs nutzt ;). Irgendwie ironisch.

davidzo
2020-08-18, 11:25:01
Das Ding ist ein Single-Chip, weil das bei Grafik einfach nicht anders geht momentan. AMD trennt jetzt I/O ab von den GPUs in einem separaten Die offenbar mit N31, um sowohl HBM als auch GDDR mit derselben GPU nutzen zu können, mehr ist z.Zt. aber nicht zu erwarten. Dass Intel auf N6 setzt, dürfte dem Umstand geschuldet sein, dass die eigene Fertigung einfach nicht gut geeignet zu sein scheint, um Gaming-GPUs damit zu bauen, ich würd mal darauf wetten. Da die Dinger das Tape Out schon hinter sich haben, wird man wohl im Sommer 2021 soweit sein. Ich freu mich. Fertigung ist konkurrenzfähig und man scheint es halbwegs ernst zu meinen, das könnte vielleicht ein ganz guter Einstand werden. Der Witz ist aber der, dass Intel der erste Anbieter sein könnte, der EUV-Technik für GPUs nutzt ;). Irgendwie ironisch.

Worauf beziehst du dich?

Wenn du das Foto von Raja meinst, das ist die Rückseite vom XE-HP Package mit 4 Tiles. Also nix single chip.

Aber ja, XE-HPG wird als single chip erwartet, allerdings wäre ich vorsichtig da highend zu erwarten. Viel eher wird man erstmal die AMD Strategie einer starken performance Karte mit hohen Stückzahlen fahren. á la 3870, 4870, rx480, 5700xt...


BTW, woher kam das Gerücht von 512EUs für XE HPG oder jeweils 1 Tile? Soweit ich weiß war das Spekulation, nichts bestätigtes, oder?

Anandtech hat gerade geschrieben:
Each compute slice is 96 EUs

512 ist nicht durch 96 teilbar. Es müssten viel eher 384, 480 oder 576 EUs sein...
Zwar lassen sich Subslices á 16EUs variabel hinzufügen oder entfernen, aber nach der Aussage wäre es doch merkwürdig wenn 3 von 4 Produkten mit XE eben nicht die "standard compute slice" benutzen? Also nur DG1 mit 96EU und XE-HPG sowie XE.HP und XE-HPC nutzen 64er oder 128er Slices...

HOT
2020-08-18, 11:32:46
Glaub ich nicht, die machen sehr sicher auch einen Großen mit 512Bit, da bin ich sicher. Mich interessiert i.Ü. nur HPG.

davidzo
2020-08-18, 11:34:27
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=71149&stc=1&d=1597743048

Bin ich der einzige der es merkwürdig findet dass XE-HP kein Foveros / EMIB und insbesondere kein XE Link benutzt?


Das klingt für mich nach einfachen Multichip Karten, bzw. 2D Multichip packages ohne den ganzen Fancy Interconnectkrams den man sich für XE-HPC aufhebt.
Machine Learning und media encoding ist auch ohne gigantisches Fabric gut parallelisierbar. Kann sein dass man hier einfach brute Force Chips auf die Karte baut um wenigstens auf dem Papier bei FP32, bfloat16 und Int8 mit AMD und Nvidia mit zu halten.

EDIT: In einer anderen Folie ist EMIB als Packaging für XE-HP wieder mit drauf.

Immerhin sind die 42TFlops für das 4 Tile Package bestätigt. 10.5Tf für einen Single Tile Chip klingt jetzt nicht weltbewegend. Das noch unter Vega64 Niveau (12.6Tflop) und war schon in 14nm ohne Probleme möglich. Da reicht heutzutage 1 Stack an HBM2 um das zu befeuern...

Fertigung wird wohl 10nm enhanced superfin, also noch etwas hin wenn superfin gerade erst vorgestellt wird.

y33H@
2020-08-18, 11:40:25
Wieso ist ein Single Die wenn Intel klar von 4 Tile spricht? Das Package ist viel zu fett für einen einzelnen Chip.

davidzo
2020-08-18, 12:00:37
Wieso ist ein Single Die wenn Intel klar von 4 Tile spricht? Das Package ist viel zu fett für einen einzelnen Chip.

HOT war ein bisschen zu faul die entsprechende Folie auch zu posten auf die er seine Feststellung bezieht, dadurch wirkt der Post out of Context.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=71151&stc=1&d=1597744698

Die Aussage bezieht sich also auf XE-HPG und der wurde bisher nicht live gezeigt. Das auf dem Foto ist XE-HP 4 Tile und die bisherigen Packageshots mit IHS und AA batterie als Größenvergleich sind von 2Tile und 4Tile chips.

XE-HPG kommt dagegen in externer Fertigung, wenn die Gerüchte stimmen in TSMC 6nm und hat mit XE-HP nichts zutun. Zudem listet Intel nur bei HP und HPC Emib und eindeutid "standard packaging" (analog zum single-die tigerlake mit DG1) und GDDR6 bei XE-HPG.

Sunrise
2020-08-18, 19:31:28
Von Intel will ich erstmal ordentliche Treiber-Arbeit sehen, denn solange wir diese Schrott-Treiber von Intel haben (die IGP im Laptop kann kein Mensch ordentlich konfigurieren, trotz neuester Treiberversion) helfen uns x-TFLOPS auch nicht viel.

Wenn man NV oder AMD gewohnt ist, muss man echt weinen, wenn man diese rudimentären, nichtssagenden Regler sieht.

Digidi
2020-08-18, 19:58:44
Interessant ist das Intel wohl das Frontend gut Aufgebohrt hat. Das Front end kann nun 2 Polygonen pro Takt für wohlgemerkt 1 tile.

https://www.anandtech.com/show/15973/the-intel-xelp-gpu-architecture-deep-dive-building-up-from-the-bottom/3

Digidi
2020-09-15, 18:20:49
Hier ein paar mehr neuigkeiten zu XE

Leider ist der Leaker auf Twitter nicht mehr da. Hier die Bilder von einer anderen Hompage
https://www.cnbeta.com/articles/tech/1029215.htm


https://static.cnbetacdn.com/article/2020/0915/3211b63ece352f8.png
https://static.cnbetacdn.com/article/2020/0915/609a3fb63b095d7.png

Screemer
2020-09-15, 20:38:13
96 eus sind ja eigentlich schon seit dezember letzten jahres gesetzt.

Raff
2020-09-15, 20:45:21
3 (mal X) ROPs pro Unit? Ich werde bei krummen Zahlen im Kontext IT immer stutzig.

MfG
Raff

Digidi
2020-09-15, 21:22:28
@Raff Na ja Nvidia hat ja auch 7 GPC :biggrin:

Krumm ist das neue Gerade :D

Auf dem Bild sind es auch 3 Pixel Backends:

https://images.anandtech.com/doci/15973/Xe_Header_678x452.jpg

https://www.anandtech.com/show/15973/the-intel-xelp-gpu-architecture-deep-dive-building-up-from-the-bottom

NC
2020-09-21, 11:24:05
3 (mal X) ROPs pro Unit? Ich werde bei krummen Zahlen im Kontext IT immer stutzig.

MfG
Raffist bei 10core bzw. 18core Skylake nicht anders, intern sind es dann 4x3 bzw 5x4, und 2 Tiles gehen dann für Flächenmässig äquivalente Elemente, bei Skylake für Memorycontoller usw. (Vielleicht ist da beim Xe noch ein 4. Block der im Diagram nicht gezeigt wird oder zum Verständnis anders angeordnet ist.)

dildo4u
2020-10-18, 10:43:27
Asus bringt ein 14 Zoll Notebook mit Intel discrete GPU.


https://www.asus.com/2-in-1-PCs/ASUS-VivoBook-Flip-14-TP470EZ/

davidzo
2020-10-18, 15:12:33
Asus bringt ein 14 Zoll Notebook mit Intel discrete GPU.


https://www.asus.com/2-in-1-PCs/ASUS-VivoBook-Flip-14-TP470EZ/

Könnte auch sein dass die Marketingabteilung da durcheinander gekommen ist, bzgl. DG1 und Tigerlake IGP, letztere hat ja ebenfalls 96CUs und entspricht damit weitestgehend DG1.
Einen 1165G7 mit einer DG1 zu kombinieren macht in meinen Augen wenig Sinn, es sei denn die Chips können effizient zu einem kombinert werden. Das Tigerlake ein Interface für GPU-Tiles abseits von PCIe hat wäre mir aber neu.

dildo4u
2020-10-18, 15:23:57
Hat die MX450 nicht GDDR6?Das dürfte man nicht mit IGP ersetzen können.

y33H@
2020-10-19, 13:16:02
DG1 mit GDDR6 und 25W ist dann doch was anderes als TGLs Xe LP mit LPDDR4X und shared Power.

davidzo
2020-10-22, 02:14:09
DG1 mit GDDR6 und 25W ist dann doch was anderes als TGLs Xe LP mit LPDDR4X und shared Power.

Also hier gibts so gut wie keine Unterschiede zwischen der XE IGP und der XE MAX: https://compubench.com/compare.jsp?benchmark=compu20d&did1=88993303&os1=Windows&api1=cl&hwtype1=dGPU&hwname1=Intel%28R%29+Iris%28R%29+Xe+MAX+Graphics&D2=Intel%28R%29+Iris%28R%29+Xe+Graphics



Btw, wie ich bereits vermutet hatte ist Intel der neue Hauptkunde für TSMCs 6nm, unter anderem mit DG2:

https://www.notebookcheck.net/More-Intel-Xe-HPG-gaming-GPU-specs-and-performance-info-leak-out.498703.0.html

512EUs und 256bit GDDR6 (500gb/s), das klingt doch schonmal vernünftig. Allerdings entsprechen 8 XE EUs derzeit nur etwa einer Vega/GCN CU.
512EUs wären demnach ausreichend für eine Midrange-performance SKU, so im Bereich 5700XT/2070, bzw. Navi22-23 bzw. RTX 3060.

Für einen ersten Shot nicht schlecht, zumal das ja erst der Anfang ist. Waren die 2 und 4 Tile Karten server only oder soll das auch für gaming kommen?

y33H@
2020-10-22, 11:00:34
Ja, die bisherigen Scores sehen unterdurchschnittlich aus, daher bin ich gespannt so ein Gerät in den Händen zu halten.

pixeljetstream
2020-10-30, 00:50:46
https://gitlab.freedesktop.org/mesa/mesa/-/merge_requests/7356?anzwix=print

Intel wohl mit ähnlichem Ansatz zu nvidia was ray tracing hardware angeht. Traversal loop in hardware und nicht in software.

y33H@
2020-10-31, 20:45:44
Intel hat die Iris Xe Max gelauncht:

96 EUs @ 1,65 GHz mit 4 GByte LPDDR4X-4266 bei 25W

https://www.golem.de/news/iris-xe-max-dg1-dedizierte-intel-grafik-soll-geforce-mx350-schlagen-2010-151849.html
https://www.computerbase.de/2020-10/intel-dg1-iris-xe-max/
https://www.anandtech.com/show/16210/intels-discrete-gpu-era-begins-intel-launches-xe-max-for-entrylevel-laptops

M4xw0lf
2020-10-31, 20:46:46
https://pbs.twimg.com/media/Elq8lEXW0AIG9Vb?format=jpg&name=4096x4096

davidzo
2020-10-31, 22:09:21
Intel hat die Iris Xe Max gelauncht:

96 EUs @ 1,65 GHz mit 4 GByte LPDDR4X-4266 bei 25W

https://www.golem.de/news/iris-xe-max-dg1-dedizierte-intel-grafik-soll-geforce-mx350-schlagen-2010-151849.html
https://www.computerbase.de/2020-10/intel-dg1-iris-xe-max/
https://www.anandtech.com/show/16210/intels-discrete-gpu-era-begins-intel-launches-xe-max-for-entrylevel-laptops


Mit LPDDR4X, "weil das schneller ist als GDDR5" ;D

Wo haben die die letzten zwei Jahre gelebt, auf dem Mond?
GDDR5 ist gar nicht mehr in großen Stückzahlen lieferbar, praktisch alles hat heute GDDR6. Was für ein fadenscheiniger Vorwand, in Wirklichkeit hat man es in 3 Jahren GPU Entwicklung nicht hin bekommen einen GDDR Controller auf 10nm zu portieren, so das man wohl oder übel den LPDDR Mist nehmen musste den man von der CPUseite schon hatte.

Selten eine sinnlosere dGPU gesehen die in Spielen zu Zeiten sogar langsamer als die IGP des Prozessors ist.:facepalm:

y33H@
2020-10-31, 22:14:04
Wo ist das Zitat her? Das was der LPDDR4X an Bandbreite liefert ist selbst weit unter GDDR5, aber vermutlich tatsächlich sparsamer.

davidzo
2020-10-31, 22:18:08
Wo ist das Zitat her? Das was der LPDDR4X an Bandbreite liefert ist selbst weit unter GDDR5, aber vermutlich tatsächlich sparsamer.

Hast recht, Energieverbrauch hat wohl auch eine große Rolle gespielt. Zitat CB:
Die Speicherbestückung ist eine Überraschung, so eine Kombination sucht man bei diskreten Lösungen bisher vergeblich. Laut Intel ist das der Mischung aus Leistung und Bandbreite geschuldet, die bei LPDDR4X gegenüber GDDR5 im Vorteil sei. Dies helfe der Lösung in ihrem TDP-Rahmen von 25 Watt zu bleiben, während die als separater Chip nahe der GPU verbauten 4 GByte LPDDR4x das Maximum für dieses Marktsegment ermöglichen.


Wobei nvidia das ohne probleme schafft die MX350 ebenfalls in 25 Watt zu bringen, in den meisten notebooks läuft sie sogar nur mit 20W. Und so ein 3 Generationen alter Salvage vom Salvagechip (1050) sollte nun wirklich nicht die Messlatte sein...

y33H@
2020-10-31, 22:23:17
Intel legt sogar den Fokus auf "Creator", sprich Encoding via MFX und Inferencing via DP4A etc.

Ravenhearth
2020-10-31, 22:26:42
Was sollen sie auch sonst machen? Bei 3D sind sie gegen die MX450 anscheinend nicht konkurrenzfähig.

y33H@
2020-10-31, 22:29:59
Ja, da hat Nvidia wissend vorgelegt.

Savay
2020-10-31, 23:00:41
Ist das eigentlich wirklich ein extra die oder verwursten die tigerlakes dafür? ;)

Fragman
2020-10-31, 23:00:57
Intel hat doch immer gesagt, das deren 1. Produkt nur Low End sein wird.

y33H@
2020-10-31, 23:08:10
Eigenes Die.

Savay
2020-10-31, 23:12:55
@Fragman.
Dass er lowend ist, ist nicht wirklich das was mich an dem Chip wundert.

Was der im Compute leistet macht mich dann aber doch neugierig. ;)

Fusion_Power
2020-11-01, 00:19:57
Ob die Treiber für diesen "MX350-Konkurrenten" auch schon so weit sind wie bei NVidia? Das scheint mir momentan noch die größere Frage, nicht nur in bezug auf Spiele.

Benutzername
2020-11-01, 00:22:32
@Fragman.
Dass er lowend ist, ist nicht wirklich das was mich an dem Chip wundert.

Was der im Compute leistet macht mich dann aber doch neugierig. ;)


Ich glaube die haben halt auf Compute gesetzt, weil bei Gaming FPS hätten sie so oder so kein Land sehen können. Halt eine Nische gesucht. Und Videos mobil bearbeiten ist ja immer beliebter.

Windi
2020-11-01, 01:10:56
Wenn man sich mal überlegt, wie viel Arbeit AMD und Nvidia in den letzten Jahrzehnten in ihre Treiber investieren mussten, dann ist es irgendwie logisch das Intel das erst einmal hinten anstellt.

Erst einmal die Bereiche abgrasen, die vor allem viel parallele Rechenleistung und nicht viel Treiberintelligenz benötigen. (Oder halt auf feste Hardware Encoder und Decoder setzen, da ist Intel schon seit längerem ganz gut). So sehen auch immer die ganzen Präsentationen aus. Da geht es häufig um neue Rekorde, dank der Möglichkeit 4 Tiles und 4 Grafikkarten zusammen zuschalten. Das wäre ein Multi-GPU System mit 16 Grafikchips, zum Spielen kaum geeignet.

Natürlich soll später noch ein Gaming tauglicher Chip kommen, aber man sieht halt wo die Prioritäten liegen. Erst einmal das machen, was man kann und dann Erfahrung gewinnen und kontinuierlich den Treiber und die Hardware verbessern. Echtzeitanwendungen, bei denen man im Bruchteil einer Sekunde ein Bild liefern muss, scheinen wesentlich komplexer zu sein, als ein Renderer der ruhig an mehreren Bildern gleichzeitig rechnen kann.

Ailuros
2020-11-01, 07:17:39
Ein laptop mit einer MX350 bzw. Xe GPU ist in Realitaet auch nicht wirklich ein gaming laptop. Da Intel jetzt diskrete GPUs vorstellt gibt es keinen anderen Ausweg als dass sie sich noch mehr auf Treiber-qualitaet und Unterstuetzung konzentrieren.

Fuer solch ein laptop ist mir als Verbraucher hauptsaechlich die Batterie-Laufzeit und das Gewicht am wichtigsten. Wer ein AAA game mit anstaendigen settings bzw. Aufloesung auf einem laptop spielen will, kann wohl schnell <1.5kg fuer's laptop vergessen u.a. und muss natuerlich auch zumindest das 5x fache auf den Ladentisch legen.

Intel's Iris Xe Max dGPU ist zwar nur eine Tiger Lake iGPU auf steroids, aber Intel hat IMHO schon mit der transcoding Leistung und Stromverbrauch einen guten Vorteil. Sonst sind Intel's GPU Treiber heutzutage alles andere als schlecht.

Linmoum
2020-11-01, 18:39:35
Erstes Review im Acer Swift 3X:

https://www.purepc.pl/test-acer-swift-3x-premiera-karty-intel-iris-xe-max-graphics

Für riesige 125mm² in 10nm ist das performancetechnisch echt... meh.

Lehdro
2020-11-01, 18:55:17
Also der Lenovo 4800u mit 35W hält ja teilweise richtig gut mit, Abstände von >15% sind eher selten. Damit ist das Ding eh durch, wenn man mal berechnet was man bei Intel und NV für das bisschen Mehrperformance an Strom verbläst. Hatte da von der dedizierten Xe GPU mehr erwartet - aber scheint quasi nur die Mehrperformance über die extra TDP rumzukommen, denn der VRAM ist auch nicht wirklich breiter angebunden als bei der iGPU, aber immerhin muss man sich das nicht mit der CPU teilen.

Tarkin
2020-11-01, 19:13:46
https://twitter.com/intelnews/status/1006592543201480706

check - eigentlich komplett sinnlos DG1, aber man muss ja zu seinen Aussagen von vor 2 Jahren stehen. Typischer Intel Move.

Ravenhearth
2020-11-02, 11:54:36
Erstes Review im Acer Swift 3X:

https://www.purepc.pl/test-acer-swift-3x-premiera-karty-intel-iris-xe-max-graphics

Für riesige 125mm² in 10nm ist das performancetechnisch echt... meh.
Ist der echt so riesig? :confused: Der dürfte doch nur ~halb so groß wie Tiger Lake sein.

aufkrawall
2020-11-02, 11:59:01
Wer ein AAA game mit anstaendigen settings bzw. Aufloesung auf einem laptop spielen will, kann wohl schnell <1.5kg fuer's laptop vergessen u.a. und muss natuerlich auch zumindest das 5x fache auf den Ladentisch legen.

Alte Spiele könnte man spielen. Wegen der Treiber allerdings wirklich nur im Konjunktiv. :freak:
Zumindest mit Gen 9-Grafik begegnen einem immer noch so komische Intel-Dinge wie fehlender Vollbild, grünes Bild etc. Eklig.

dildo4u
2020-11-02, 11:59:40
Wären 20 Milliarden Transistoren in 500mm², vermute mal TSMC 6nm wäre unter 400?

mczak
2020-11-02, 16:11:22
Ist der echt so riesig? :confused: Der dürfte doch nur ~halb so groß wie Tiger Lake sein.
Anandtech schätzt 72mm^2. Die Schätzung beruht aber rein auf Tiger Lake Dieshots. Scheint mir aber trotzdem einiges realistischer...

Ich finde den Chip an sich ja ganz interessant, aber ehrlich den in Tiger Lake Notebooks zu verbauen ist doch ein Witz - da zahlt wohl intel wieder mal dafür dass den tatsächlich jemand verbaut? Quasi gleich schnell wie der IGP. Gut es gibt noch das Dutzend Programme (die für typische Nutzer dieser Notebooks allesamt irrelevant sind) bei denen man IGP und GPU parallel nutzen kann (zumindest in der Zukunft), aber das wars dann auch schon.
Wäre jedenfalls deutlich sinnvoller den in Comet Lake Notebooks zu verbauen, da würde der echt was bringen gegenüber dem IGP, nur verbaut man dort im Normalfall halt deutlich leistungsfähigere GPUs.
Selbst als low-end Karte wäre der nicht so übel, um den lahmen Gen9 IGPs auf die Sprünge zu helfen (und selbst sinnvoll mit den zukünftigen Rocket Lake Chips, die haben ja bloss stark abgespeckte Xe Graphics).

Ailuros
2020-11-03, 16:16:41
Alte Spiele könnte man spielen. Wegen der Treiber allerdings wirklich nur im Konjunktiv. :freak:
Zumindest mit Gen 9-Grafik begegnen einem immer noch so komische Intel-Dinge wie fehlender Vollbild, grünes Bild etc. Eklig.

Theoretisch ja. Macht aber eine NV MX350 GPU oder dergleichen nicht nutzvoller als echte laptop gaming GPU. Oberhalb von 720p ist es in der Mehrzahl der Faelle sowieso selten etwas spielbar: https://www.notebookcheck.net/Intel-Tiger-Lake-U-Xe-Graphics-G7-96EUs-GPU-Benchmarks-and-Specs.462145.0.html

Was ich als Verbraucher sehen moechte ist ein review der sich mehr auf die generelle perf/W konzentriert. Persoenlich bezweifle ich dass Intel hier je konkurrenzfaehig sein wird so lange sie nicht ihre Herstellungsprozesse fuer GPUs anpassen oder standalone GPU chips bei dritten foundries herstellen lassen.

Mit besserem Stromverbrauch bzw. groesserer Batterielaufzeit koennten sie IMHO mehr potentielle Kunden ueberreden als mit gelegentlichem low end ruckel-gaming. Das aendert zwar nichts an der eigentlichen Notwendigkeit dass Intel's sw engineers ab jetzt mehr ueber Spiel-kompatibilitaet schwitzen muessen, aber es zieht wohl auch keiner seine Hosen runter weil sein neues laptop mit einer MX350 Spiele spielen kann ;)

Wuge
2020-11-03, 17:57:14
Theoretisch ja. Macht aber eine NV MX350 GPU oder dergleichen nicht nutzvoller als echte laptop gaming GPU. Oberhalb von 720p ist es in der Mehrzahl der Faelle sowieso selten etwas spielbar: https://www.notebookcheck.net/Intel-Tiger-Lake-U-Xe-Graphics-G7-96EUs-GPU-Benchmarks-and-Specs.462145.0.html

Was ich als Verbraucher sehen moechte ist ein review der sich mehr auf die generelle perf/W konzentriert. Persoenlich bezweifle ich dass Intel hier je konkurrenzfaehig sein wird so lange sie nicht ihre Herstellungsprozesse fuer GPUs anpassen oder standalone GPU chips bei dritten foundries herstellen lassen.

Mit besserem Stromverbrauch bzw. groesserer Batterielaufzeit koennten sie IMHO mehr potentielle Kunden ueberreden als mit gelegentlichem low end ruckel-gaming. Das aendert zwar nichts an der eigentlichen Notwendigkeit dass Intel's sw engineers ab jetzt mehr ueber Spiel-kompatibilitaet schwitzen muessen, aber es zieht wohl auch keiner seine Hosen runter weil sein neues laptop mit einer MX350 Spiele spielen kann ;)

Och naja, ich hab mir im Frühjahr kurzfristig nen Laptop im Ausland kaufen müssen. Sollte kein Gaming Teil sein. Es ist ne MX230 drin. Fragte mich bisher immer, was man mit so nem Ding will aber jetzt bin ich echt überrascht. Anno 1800 spielbar in FullHD und das sogar in passablen settings. Also ganz sinnlos ist die Low End Klassr vielleicht doch nicht.

y33H@
2020-11-03, 18:06:57
Was ich als Verbraucher sehen moechte ist ein review der sich mehr auf die generelle perf/W konzentriert.Iris Xe Max und MX350 sind beides 25W Designs, ergo sollte Intel bei Perf/Watt in 3D bzw Encoding/Inferencing eigentlich besser sein ... idle Laufzeit ist ein anderes Thema.

robbitop
2020-11-03, 19:50:31
Besser als eine 4 Jahre alte uArch mit 4 Jahre altem Prozess. Good job.

misterh
2020-11-06, 19:54:01
vielleicht interessierts den einen oder anderen

es wird nach und nach neue Video hochgeladen, wenn fertig getestet wurde. :smile:

Intel Iris Xe (96EU) (https://www.youtube.com/channel/UCS-L9dbf17z9s29HF3WCAig/videos)

y33H@
2020-11-06, 21:11:41
Besser als eine 4 Jahre alte uArch mit 4 Jahre altem Prozess. Good Job. Immerhin ^^

davidzo
2020-11-12, 12:22:30
Ich dachte ja dass sich Intel langsam mal an den Riemen reißt und keine peinlichen photoshop Präsentationen mehr bastelt.
Falsch gedacht, guckt euch mal diesen PCB-shot einer Grafikkarte an den ein Praktikant wohl aus einem Handyfoto gebastelt hat:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=72179&stc=1&d=1605179732

Das ist Intels neue 4-chip Grafikkarte "für Server": https://www.anandtech.com/show/16237/intel-launches-xelp-server-gpu-first-product-is-h3cs-quad-gpu-xg310-for-cloud-gaming#comments


Die GPU Packages und DIEs darauf sind eigentlich gleichgroß.


Die Speicheranordung erinnert mich an die Starfighter PCI ;D
Das war die eine der schnelleren i740 Auskopplung mit 12mb sdram, die aber keine Zukunft haben durfte weil die CPUzentrischen-Manager diktierten dass man statt einem ausreichend großen und schnellen vram doch unbedingt AGP 2x texturing nutzen soll um damit den teuren 440bx zu rechtfertigen. Ein an sich guter chip mit modernem featureset und guter BQ, der aber an der Bandbreite verhungert. Kommt dass irgendwie bekannt vor?

- Lange nicht mehr gesehen dass jemand die Speicherchips hintereinander und nicht äquidistand von der GPU anordnet. Retro flashback? Immerhin knüpft Intel damit bei den GPUs exakt da wieder an wo man mit der i740 überhastet abgebrochen hat - besser spät als nie?! :freak:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=72181&stc=1&d=1605180131


BTW und Intel hat jetzt ihre eigene Lisa aufgefahren damit das mit XE noch etwas wird: https://www.anandtech.com/show/16239/intel-xe-graphics-an-interview-with-vp-lisa-pearce

aufkrawall
2020-11-14, 13:15:14
Die Release Notes der Intel-Treiber sind jedes Mal der Brüller: Unter Known Issues ständig Grafikfehler, so weit das Auge reicht. Ich leite daraus ab, dass man ständig mit Problemen in zig Spielen rechnen muss. Kann man imho nicht kaufen.

Loeschzwerg
2020-12-09, 11:15:22
Raja zeigt Xe HP Samples:
https://www.computerbase.de/2020-12/intel-xe-hp-sample/
https://twitter.com/Rajaontheedge/status/1336412874739105792

https://pbs.twimg.com/media/EovX5w3U8AUPzuc?format=jpg&name=small

davidzo
2020-12-09, 12:09:15
Wow, hätte nicht erwartet dass zwei Tiles so genügsam sind! Klar, den FPI des kühlkörpers nach zu urteilen müssen die serverlüfter davor mit 8-K rpm drehen um genug static pressure aufzubringen, aber das ist trotzdem eine Kühllösung für deutlich unter 150W.

2 tiles á 512 EUs sind immerhin 8192 Alus, selbst wenn die mit nur 1Ghz laufen ist das eine Rohleistung weit oberhalb einer MI-50.



EDIT: Deckt sich mit der früheren Interpretation der ATS enablement Leaks: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12215889#post12215889

3 Karten á 2 Tiles sind eine Total Power von 300Watt für das Purley, Sawtooth Pass Chassis oder wilson city/wilson point.

Ergo sind die Raja Bilder eine weitere Bestätigung für eine TBP von 100Watt für eine 2 Tile Karte.


Wenn die 4 Tile Karte wirklich auch nur 125W TDP haben soll (500W für 4Stück), dann könnte das ein echtes Problem für die Mi-100 und A100 werden. Die 4 Tile Karte hat nämlich mal eben doppelt so viele Alus wie Arcturus.

dildo4u
2021-01-12, 14:38:03
Reuters berichtet das Intel verbesserte TSMC 7nm Fertigung für DG2 nutzen will.


https://www.reuters.com/article/intel-tsmc/intel-graphics-chip-will-tap-new-version-of-tsmc-7-nanometer-process-sources-idUSL1N2JJ2Y4

Blediator16
2021-01-12, 14:59:43
Intels 7nm broken confirmed

robbitop
2021-01-12, 15:04:21
Intels 7 nm = TSMCs 5 nm. Wäre Intels 7 nm broken, würden sie 5 nm nutzen. ;)
TSMCs 7 nm = Intels 10 nm. Der Prozess scheint nun endlich zu funktionieren aber man hat viel zu wenig Kapazität. Gerade bei GPUs ist aufgrund des hohen Automatisierungsgrades des Layoutes es sinnvoll, wenn man es von einer Kapazitätssenke zu einer Kapazitätsquelle verschiebt.

Blediator16
2021-01-12, 15:04:57
Sollte DG2 nicht ursprünglich in intels 7nm gefertigt werden? Deren Yields kennen wir doch gar nicht um sagen zu können, dass 7nm nicht broken ist. Alles deutet darauf hin, dass 10nm und 7nm eben noch nicht laufen. Q1 werden erstmal die Icelake Xeons produziert. Wenn das nicht ein Zeichen für broken ist, dann weiß ich auch nicht.

robbitop
2021-01-12, 15:06:05
Ein Outsourcing war IIRC schon länger im Gespräch. Ich hatte sogar mal was von 6 nm @TSMC im Hinterkopf.

Blediator16
2021-01-12, 15:19:16
Sie wollen ja einen 7nm enhanced nutzen. Evtl. ist das der sogenannte 6nm

robbitop
2021-01-12, 15:37:11
Naja alle möglichen Hersteller nennen bereits die existierenden 7 nm Verfahren "enhanced". Nicht zuletzt auch AMD.
6 nm ist 6 nm. ;)

Lehdro
2021-01-12, 16:21:10
Ein Outsourcing war IIRC schon länger im Gespräch. Ich hatte sogar mal was von 6 nm @TSMC im Hinterkopf.
Korrekt. Man darf hier die Xe Familien nicht durcheinanderwerfen, 10nm (Intel) für die Desktopvarianten und 7nm(Intel) für die HPC Ableger war Anfang 2019 der offizielle Stand.

Ursprünglich sollte Ponte Vecchio, als der HPC Xe, mit Intels 7nm gefertigt werden, was dann gerüchteweise auf 6nm TSMC umgelegt wurde. Für Xe HPC kommt aber eigentlich wegen der Transistorendichte nur TSMC 5nm in Frage, wenn man nicht alles noch einmal umgeworfen hat.

Für DG2 kann man dann durchaus jeweils eine Stufe nach oben gehen (da Intel 10nm), wäre also bei einem ~7nm Prozess von TSMC gelandet (7+ etc). Da würde ich dann auch die 6nm TSMC hinpacken.

davidzo
2021-01-13, 18:40:25
Naja alle möglichen Hersteller nennen bereits die existierenden 7 nm Verfahren "enhanced". Nicht zuletzt auch AMD.
6 nm ist 6 nm. ;)

Aber 6nm ist wiederrum N7+ enhanced ;D. Kann also gut sein dass Intel mit N7+ zu entwickeln angefangen hat und die Masse letztendlich im verbesserten N6 fertigt, oder?

robbitop
2021-01-14, 09:12:44
Aber 6nm ist wiederrum N7+ enhanced ;D. Kann also gut sein dass Intel mit N7+ zu entwickeln angefangen hat und die Masse letztendlich im verbesserten N6 fertigt, oder?
Ja und 12 nm ist 16 nm enhanced. Der Punkt ist, TSMC nennt 6 nm explizit 6 nm (das gleiche gilt für 12 nm). Es klingt einfach besser für die Masse und es sind entsprechend separate Produkte. Entsprechend trägt sich der Name auch bei Gerüchten und Press releases herum. Es würde mich sehr sehr stark wundern, wenn öffentlich 7 nm enhanced gesagt wird und 6 nm gemeint ist.
Deshalb würde ich wesentlich höhere Chancen für 7 nm sehen als für 6 nm.

Tarkin
2021-01-17, 09:15:04
ähm... Was läuft mit Raja Koduri auf Twitter?

Erst eine Reihe von seltsamen Tweets https://twitter.com/Rajaontheedge/status/1350567193201631234

MIMIMI, GPUs sind schwierig zu machen und dann...

ändert er seine Profilbilder

siehe Anhang

Ravenhearth
2021-01-26, 17:47:02
https://www.anandtech.com/show/16450/intel-iris-xe-video-cards-now-shipping-to-oems-dg1-lands-in-desktops

https://www.anandtech.com/show/16453/intel-teases-ponte-vecchio-xehpc-power-on-posts-photo-of-server-chip

davidzo
2021-01-26, 18:05:02
https://www.anandtech.com/show/16450/intel-iris-xe-video-cards-now-shipping-to-oems-dg1-lands-in-desktops

https://www.anandtech.com/show/16453/intel-teases-ponte-vecchio-xehpc-power-on-posts-photo-of-server-chip


Crazy shit
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=73849&stc=1&d=1611680578


Welches ist wohl der Rambo Cache, was der HBM, welches der connectivity DIE?

- Den Folien nach zu urteilen sind die beiden fetten Chips in der Mitte mit Foveros zusammengesetzt, auf einem riesigen Interposer.
Gut zu sehen sind die winzigen quadratischen Compute Chiplets, die noch kleineren länglichen XeMF memory Fabric Chiplets in der Mitte.
Aber was ist dann außen drum herum? Sind das Rambo cache Tiles oder xeMF Extensions?

Der HBM ist oben gut zu sehen, genau wie die I/O Dies in den ecken lins unten und rechts oben.
Was mich wundert ist dass unten kein HBM liegt sondern vier quadratische Chips. An sich müssten das Ebenfalls HBM Dies sein, da in den schematischen Folien acht HBM Module auftauchen. Aber die haben eindeutig andere Proportionen als die oben.


Ian Cutress war 2019 schon verdammt nah dran wie es aussieht:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=73850&stc=1&d=1611681505


https://www.anandtech.com/show/15188/analyzing-intels-discrete-xe-hpc-graphics-disclosure-ponte-vecchio/2



Am meisten verwundert mich das sie ausgerechnet den Compute Die Dualsourcen wollen. vermutlich weil der eigene 7nm Prozess noch nicht gut genug läuft und die Verträge für Aurora es aber erfordern pünktlich zu liefern.
Dadurch dass der Computer Die aber auf einem Foveros packaging eingebaut wird und wirklich auf allen Seiten eingekesselt ist, müssen die bei TSMC bestellten Chips extrem ähnlich designt sein wie die von Intel. Die Microbumps müssen pin für pin dieselben sein, der Flächenbedarf im Floorplan praktisch gleich, etc. sonst bräuchte man einen neuen base-die, neue XeMF Dies, einen anderen Rambocache Die etc.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=73851&stc=1&d=1611682411

Skysnake
2021-01-26, 21:11:23
Ich denke das ist nen bullshot.

Unicous
2021-01-26, 21:15:18
Sieht auf jeden Fall "glued together" aus.:freak:

Blediator16
2021-01-26, 21:39:30
Sieht vor allem sehr ziemlich aufwendig aus.

Edit:

Lächerlich :freak:

The Iris Xe discrete add-in card will be paired with 9th gen (Coffee Lake-S) and 10th gen (Comet Lake-S) Intel® Core™ desktop processors and Intel(R) B460, H410, B365, and H310C chipset-based motherboards and sold as part of pre-built systems. These motherboards require a special BIOS that supports Intel Iris Xe, so the cards won’t be compatible with other systems.

https://www.legitreviews.com/intel-iris-xe-discrete-card-will-only-work-with-select-cpus-and-motherboards_225470

Denniss
2021-01-26, 23:38:42
Klingt fast so als wären die Karten ohne VBios und eben dieses muß im Mainboardbios vorhanden sein.
Ein fragwürdiges vorgehen.

reaperrr
2021-01-27, 00:05:26
Angesichts der Specs frage ich mich ja nach wie vor, ob es sich bei DG1 nicht einfach um TGL-U mit deaktiviertem CPU-Teil handelt.

crux2005
2021-01-27, 00:13:13
Wie lange wird es dauern bis Intel die Treiber im Griff hat? 1-2 Generationen?

Viel wichtiger, was soll das Kaufargument für die Desktop Xe Karten sein? Sieht für mich so aus als ob sie nur Restverwertung von irgendwelchen Xe Versionen sind. Also gutes P/L Verhältnis?

https://pbs.twimg.com/media/EsrC27GXEAAcYWm?format=jpg&name=large

Angesichts der Specs frage ich mich ja nach wie vor, ob es sich bei DG1 nicht einfach um TGL-U mit deaktiviertem CPU-Teil handelt.

Würde zu Intel passen.

mczak
2021-01-27, 00:38:54
Viel wichtiger, was soll das Kaufargument für die Desktop Xe Karten sein? Sieht für mich so aus als ob sie nur Restverwertung von den HPC Xe Versionen sind.

Nein, Xe-HPC ist ein ganz anderer Chip. Der Xe-LP Chip in DG1 Ist auch relativ klein (77mm²), wobei das für 10nm SuperFin auch schon ordentlich gross ist.
Man kann sich tatsächlich fragen wozu hier intel überhaupt wertvolle 10nm Wafer verschwendet, der Chip ist im Notebook (weil quasi identisch zur IGP, fast ohne Möglichkeit beide zu verwenden) praktisch nutzlos (wenn es denn solche Notebooks tatsächlich gibt...), und im Desktop offensichtlich auch nicht gerade als Verkaufsrenner geplant. Gut da wird man dann wohl am Ende auch nicht wirklich viele Wafer opfern...

Eigentlich wäre ich aber trotzdem ziemlich gespannt darauf wie sich das Teil so schlägt im Vergleich zu low-end Chips von AMD und Nvidia (denn das Teil ist sowohl architektur- wie fertigungsmässig deutlich moderner als was nvidia und amd in dem Segment zu bieten haben). Aber irgendwer wird ja wohl dann trotzdem Tests durchführen (jedenfalls wenn das Teil mindestens die Verfügbarkeit von Cannon Lake CPUs erreicht...).

Da kann man nur hoffen dass das mit DG2 dann besser wird (Xe-HPG wird ja dann auch nicht bei intel gefertigt).

basix
2021-01-27, 00:58:23
Crazy shit
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=73849&stc=1&d=1611680578

:eek: Wahnsinnig viel Silizium haben die da zusammangepackt. Da hat sich Intel aber nicht lumpen lassen :D Bin gespannt, wann man auch mehr zur Funktionsweise und zur Performance hört.

Fusion_Power
2021-01-27, 01:00:16
Hab ich das richtig gelesen, die Intel dGPU hat weniger Execution Units als die Intel iGPU? Also zumindest die Tiger Lake i7 haben doch ne iGPU mit 96 EUs. Warum so knausrig bei der externen GraKa? Und wozu sollte man sich überhaupt so eine Karte zulegen wenns iGPUs gibt die mindestens gleich schnell sind? :uponder:

Ravenhearth
2021-01-27, 01:35:44
Die haben gleich viele EUs in Hardware, bei der Desktop-Lösung sind allerdings nur 80 aktiv.
In a curious twist, the desktop cards will have slightly lower specifications than the laptop parts. While I’m still waiting to hear what the TDPs and final clockspeeds will be, Intel’s announcement confirms that the Iris Xe cards will only ship with 80 of 96 EUs enabled, rather than being fully-enabled in the case of the laptop parts.

mczak
2021-01-27, 02:24:46
Und wozu sollte man sich überhaupt so eine Karte zulegen wenns iGPUs gibt die mindestens gleich schnell sind? :uponder:
Auf dem Desktop würde das schon Sinn machen, weil die Idee ist ja DG1 zusammen mit Comet Lake und Rocket Lake zu verkaufen. Ersterer hat ja noch viel langsamere Gen9 GT2 Grafik, letzterer zwar Gen 12 (Xe) aber bloss mit 32 EUs, das müsste also deutlich schneller sein.
Auf dem Notebook (zusammen mit Tiger Lake CPUs) kann ich den Sinn auch nicht erkennen - selbst intel behauptet nicht dass der externe Chip gross schneller ist (der Vorteil ist das separate Powerbudget und separater Speicher, allerdings auch bloss lpddr4x 4266), allerdings soll in ein paar Compute-Anwendungen IGP und externe Grafik gleichzeitig nutzbar sein. Kann mir aber nicht vorstellen dass das weltweit mehr als ein paar Dutzend Käufer interessieren dürfte :-).

crux2005
2021-01-27, 03:00:30
Wenn ich das schon lese: https://www.guru3d.com/news-story/intel-dg2-gpu-to-get-released-this-year-features-ray-tracing-support-natively.html
DG2, 512 EUs, 8 GB G6... Können die Froh über 3060 Ti Leistung sein (HW könnte wohl mehr aber SW wird die bremsen).

Nein, Xe-HPC ist ein ganz anderer Chip.

Habe ich gemerkt. :biggrin:
Deswegen der edit das es Restverwertung von irgendeinem Xe Chip sei.

Da kann man nur hoffen dass das mit DG2 dann besser wird (Xe-HPG wird ja dann auch nicht bei intel gefertigt).

Kann es sein das nur DG2 im Desktop kommt? DG1 nur OEM/für NBs...

Loeschzwerg
2021-01-27, 07:42:33
Auf dem Desktop würde das schon Sinn machen, weil die Idee ist ja DG1 zusammen mit Comet Lake und Rocket Lake zu verkaufen.

9th und 10th Gen, also CFL-S und CML-S (zudem B460, H410, B365, and H310C).

Deutet für mich ganz klar darauf hin dass die OEM Systeme mit DG1 Lösung auf den asiatischen Raum beschränkt sein werden.

mczak
2021-01-27, 09:02:42
9th und 10th Gen, also CFL-S und CML-S (zudem B460, H410, B365, and H310C).

Deutet für mich ganz klar darauf hin dass die OEM Systeme mit DG1 Lösung auf den asiatischen Raum beschränkt sein werden.

Tatsächlich, keine Ahnung was ich da gelesen habe. Welcher OEM baut denn überhaupt noch neue Systeme mit Coffee Lake? Macht ja eigentlich wenig Sinn (CML ist ja quasi identisch, im Endeffekt einfach billiger, wobei das natürlich für OEMs anders aussehen kann), auch nicht in Asien.
(Wobei es theoretisch denkbar wäre dass da auch noch Unterstützung für Rocket Lake kommt, aber halt noch nicht angekündigt ist?)
Aber immerhin, an der Aussage dass es mit der vorgesehenen Paarung mit intel cpus auf dem Desktop deutlich mehr Sinn ergibt als bei den Notebooks ändert das nichts :rolleyes:.

Loeschzwerg
2021-01-27, 09:23:00
Welcher OEM baut denn überhaupt noch neue Systeme mit Coffee Lake? Macht ja eigentlich wenig Sinn (CML ist ja quasi identisch, im Endeffekt einfach billiger, wobei das natürlich für OEMs anders aussehen kann), auch nicht in Asien.

Keine Sorge, da gibt es genügend :) Wird nur nicht öffentlich breitgetreten und vieles davon gelangt noch nicht einmal in den Einzelhandel. Das reicht wenn Firmen, Behörden und Co. da bedient werden, über entsprechende Channel Partner.
Den Comet Lake Refresh gibt es ja auch noch, das dürfte dann für den Life-Cycle auch ausreichen.

davidzo
2021-01-27, 10:58:53
Nein, Xe-HPC ist ein ganz anderer Chip. Der Xe-LP Chip in DG1 Ist auch relativ klein (77mm²), wobei das für 10nm SuperFin auch schon ordentlich gross ist.
Man kann sich tatsächlich fragen wozu hier intel überhaupt wertvolle 10nm Wafer verschwendet, der Chip ist im Notebook (weil quasi identisch zur IGP, fast ohne Möglichkeit beide zu verwenden) praktisch nutzlos (wenn es denn solche Notebooks tatsächlich gibt...), und im Desktop offensichtlich auch nicht gerade als Verkaufsrenner geplant. Gut da wird man dann wohl am Ende auch nicht wirklich viele Wafer opfern...

Eigentlich wäre ich aber trotzdem ziemlich gespannt darauf wie sich das Teil so schlägt im Vergleich zu low-end Chips von AMD und Nvidia (denn das Teil ist sowohl architektur- wie fertigungsmässig deutlich moderner als was nvidia und amd in dem Segment zu bieten haben). Aber irgendwer wird ja wohl dann trotzdem Tests durchführen (jedenfalls wenn das Teil mindestens die Verfügbarkeit von Cannon Lake CPUs erreicht...).

Da kann man nur hoffen dass das mit DG2 dann besser wird (Xe-HPG wird ja dann auch nicht bei intel gefertigt).

Ich tippe auf Shareholder commitment, genau so wie Cannonlake damals.
Die Karte macht sonst überhaupt keinen Sinn. Aber intel macht so manches merkwürdige gerade, Tigerlake H35 macht auch keinen Sinn, eine 2021 gaming cpu mit nur 4 cores und x4 pcie Lanes.
Das Marketing versucht da einen Spin auf Quicksync zu lenken, aber glaube kaum dass der markt das so annehmen wird. Wer Videoschnitt machen will holt sich auch mehr Kerne und hardware zum schnell transkodieren hat mittlerweile jedes mittelklasse Handy.

Als upgradekarte in einem alten PC mit ivybridge, Haswell oder so würd das Ding vllt. etwas Sinn machen, so für potentielle GT1030 oder 750ti Kunden.

Das es nur 80EUs sind ist wohl dem yield bei 10nm geschuldet. Die guten DG1 gehen in die SDVs und Notebooks. Die Leistung dürfte etwa dieselbe sein, da der Chiptakt angehoben ist und DG1 sowieso eher Software- und Bandbreitenlimitiert ist und die Rops und SI ja gleich sind.

basix
2021-01-27, 14:17:19
Hier noch ein annotiertes Bild von Xe-HPC
https://twitter.com/aschilling/status/1354152985807478789

Was mir noch in den Sinn gekommen ist: Das ist nur der 2-Tile Part. Es gibt ja noch eine 4-Tile Variante :freak:

davidzo
2021-01-27, 14:54:40
Hier noch ein annotiertes Bild von Xe-HPC
https://twitter.com/aschilling/status/1354152985807478789

Was mir noch in den Sinn gekommen ist: Das ist nur der 2-Tile Part. Es gibt ja noch eine 4-Tile Variante :freak:

Also genau wie vermutet. Nur merkwürdig dass die unteren HBM Dies größer sind und ein anderes aspect ratio haben. verzerrte Darstellung?


@basix Du verwechselst XE-HPC mit XE-HP.

Ponte Veccio hat keinen 4 Tile Part, PV ist chiplets und zwar weitaus mehr als 4. Wir wissen noch überhaupt nicht was in einem Ponte veccio compute Die steckt. Da es anscheinend um maximale DP-Leistung geht bei PV, handelt es sich wahrscheinlich gar nicht um EUs wie wir sie kennen.

Die 512EU pro Tile beziehen sich jedenfalls auf XE-HP. XE-HPC ist ein ganz anderes Projekt. Xe-HP hat auch kein Foveros, sondern lediglich Co-Emib, also wahrscheinlich HBM on Package. Jeder Tile ist damit ein monolitischer Die (EDIT: XeHP = 10nm superfin, PV = Intel 7nm / TSMC 5nm ).

Man kann die 2, 4 tile Xe-HP packages und Ponte veccio ganz gut am aspect ratio auseinanderhalten. 2-tile Xe-HP ist 2:1 länglich, PV ist eher 3:2.

amdfanuwe
2021-01-27, 17:21:10
Nur merkwürdig dass die unteren HBM Dies größer sind und ein anderes aspect ratio haben. verzerrte Darstellung?

I/O Tile und Kondensatoren/Widerstände sind im unterem Teil auch gestreckt.
Bildbearbeitungsfehler oder absichtliche Verzerrung.

eratte
2021-01-27, 20:19:46
Iris Xe Intel’s first desktop discrete GPU will not work with AMD processors (VideoCardz) (https://videocardz.com/newz/iris-xe-intels-first-desktop-discrete-gpu-will-not-work-with-amd-processors)

OgrEGT
2021-01-27, 21:51:13
Iris Xe Intel’s first desktop discrete GPU will not work with AMD processors (VideoCardz) (https://videocardz.com/newz/iris-xe-intels-first-desktop-discrete-gpu-will-not-work-with-amd-processors)

Wer braucht sowas wenn es AMD APUs wie Renoir und bald Cezanne gibt?

Screemer
2021-01-27, 22:06:29
Wer braucht sowas wenn es AMD APUs wie Renoir und bald Cezanne gibt?
Oems die Workstations mit vielen Kernen aber kleinen GPUs verkaufen wollen. Für was anderes taugen die dg1 doch eh nicht.

Benutzername
2021-01-27, 22:13:14
Oems die Workstations mit vielen Kernen aber kleinen GPUs verkaufen wollen. Für was anderes taugen die dg1 doch eh nicht.

Ja sowas oder halt ein Bürorechner, der aus welchen Gründen auch immer einen intel-Core ohne integrierte Grafik hat. Nicht daß das eine sinnvolle Konfig wäre.
Als Ersatzkarte für eine defekte 1030 oder sowas taugen die leider nicht (oder weil man AV-1 Beschleunigung haben will), weil die DG-1 von der Mobo-Firmware abhängt laut des videocardz Artikels. Was ein Kappes. :freak:


The Iris Xe discrete add-in card will be paired with 9th gen (Coffee Lake-S) and 10th gen (Comet Lake-S) Intel® Core™ desktop processors and Intel(R) B460, H410, B365, and H310C chipset-based motherboards and sold as part of pre-built systems. These motherboards require a special BIOS that supports Intel Iris Xe, so the cards won’t be compatible with other systems.

— Intel Spokesman to Legit Reviews



Also wird man die nur in OEM Systemen sehen. Witzig, daß Colorful sich die Mühe macht die Karten auf Gamerlook zu trimmen bei ~30W. Haben aber die RGB-Kirmes vergessen. ;D




Ich vermute wie zB Computerbase auch, daß das auch nur ein Testlauf ist, den intel halt auch verkauft.

RitterRost
2021-01-28, 00:08:40
Witzig, daß Colorful sich die Mühe macht die Karten auf Gamerlook zu trimmen bei ~30W. Haben aber die RGB-Kirmes vergessen. ;D

Colorful stellt gar keine Intel Grakas her:
https://videocardz.com/newz/colorful-confirms-in-official-statement-it-is-not-launching-intel-iris-xe-graphics-cards

-/\-CruNcher-/\-
2021-01-28, 01:09:07
Wenn ich das schon lese: https://www.guru3d.com/news-story/intel-dg2-gpu-to-get-released-this-year-features-ray-tracing-support-natively.html
DG2, 512 EUs, 8 GB G6... Können die Froh über 3060 Ti Leistung sein (HW könnte wohl mehr aber SW wird die bremsen).



Habe ich gemerkt. :biggrin:
Deswegen der edit das es Restverwertung von irgendeinem Xe Chip sei.



Kann es sein das nur DG2 im Desktop kommt? DG1 nur OEM/für NBs...

Wieso ist das denn bitteschön schlecht das ist mit einem schlag besser wofür AMD sehr viele Jahre nach VLIW gebraucht hat über GCN zu RDNA.
Allerdings kommt hier auch wiederum der Node unterschied zu tragen wobei der wiederum nun auch extreme minimal ausfällt.

Und mit nem 6800/3070 competitor ist man verdammt gut aufgestellt vor allem wenn der Preis stimmt.
Gut man hinkt dann wie AMD damals 1 Generation hinterher.
Allerdings kann Intel das eben durch Software wieder aufholen und da unterschätzt du Intel aber sowas von Gewaltig

Intel hat es schonmal geschaft AMD ganz schön unter druck zu setzen trotz besserer GPU einfach nur mit Node shrink power
Hier nutzen sie allerdings nur einen minimalen vorteil zum Ausgleichen.

Während Nvidia sogar mit einem Node Nachteil noch gut fährt und teils ebenfalls durch eine klevere kombi ausgleicht.

Loeschzwerg
2021-01-28, 09:52:40
Colorful stellt gar keine Intel Grakas her:
https://videocardz.com/newz/colorful-confirms-in-official-statement-it-is-not-launching-intel-iris-xe-graphics-cards

Da steht halt nicht der Name Colorful drauf, aber diese eine Karte kommt ziemlich sicher aus eine von deren ODM Fertigungsstätten. Würde ich jetzt zumindest vermuten.

Schnoesel
2021-01-30, 12:04:28
So wird das nix und ich setze keine 5 Cent auf Intels 3.? Versuch :

https://www.igorslab.de/satz-mit-xe-intel-iris-xe-max-grahics-im-exklusiven-teardown-und-mit-massiven-treiberproblemen-bei-den-benchmarks-leak/3/

=Floi=
2021-01-30, 12:45:04
für so eine große firma ist das echt mager, aber man kämpft auch gegen die alt eingesessenen und bei der gpu hat man die letzten 20 jahre geschlafen.

r3ptil3
2021-01-30, 13:26:53
Mich würde es wirklich interessieren wie es bei Intel intern aussieht in der Grafik/Management-Abteilung, speziell welchen stand nun Koduri hat.

Es wäre anmassend zu behaupten, dass AMD Grapics jetzt besser funktioniert nach ihm, schliesslich hat er an den aktuell neuen Produkten mitgearbeitet, aber der Aufwärtstrend ist definitiv da.

Dass er aber letztens HBM selber als Fehler bezeichnet hat, lässt zumindest darüber spekulieren, welchen Freiraum er genossen hat und damit einhergehend die fatalen Fehlentscheidungen.

Loeschzwerg
2021-01-30, 15:04:45
So wird das nix und ich setze keine 5 Cent auf Intels 3.? Versuch :

https://www.igorslab.de/satz-mit-xe-intel-iris-xe-max-grahics-im-exklusiven-teardown-und-mit-massiven-treiberproblemen-bei-den-benchmarks-leak/3/

Eigentlich völlig unbrauchbarer Test und Rückschlüsse. Warum? Das DG1 in Form der Xe Max ziemlich gut funktioniert zeigen die hier und da bereits getesteten Notebook Modelle.
Irgendetwas passt bei der Plattform auf die Igor Zugriff hatte hinten und vorne nicht.

y33H@
2021-01-30, 15:24:52
Ja, das sieht iwie kaputt aus angesichts von Iris Xe (Max) im Mobile Segment ... bin umso gespannter was bei DG2 bzw Xe HPG am Ende rauskommt.

=Floi=
2021-01-30, 15:54:25
Dass er aber letztens HBM selber als Fehler bezeichnet hat, lässt zumindest darüber spekulieren, welchen Freiraum er genossen hat und damit einhergehend die fatalen Fehlentscheidungen.

HBM könnten amd auch die hersteller aufgedrückt haben. Wenn es kein GDDR7 gibt und man die bandbreite braucht, muss man ja umsteigen. Eventuell dachte man auch, dass NV komplett umsteigen wird.
Es gab auch die folien, mit dem geringen energieverbrauch des HBM.

konkretor
2021-02-07, 12:15:57
Hat jemand schon Infos bis wann Asus dg1 in irgendwelchen OEM Kisten auftauchen soll?

y33H@
2021-02-07, 14:27:02
Da läuft noch die Validierung, denke wird erst Anfang von Q2 kommen ...

AffenJack
2021-02-07, 17:35:50
Wann hatte DG2 eigentlich sein Tapeout? Haben wir da irgendwelche Infos? Intel war bei den anderen Chips ja sehr offen, aber bei DG2 weiß ichs gerade nicht mehr. Sollte auch im Herbst kommen, wenn ich das richtig in erinnerung habe?

vinacis_vivids
2021-02-11, 10:21:09
Raja Koduri zeigt bei Intel mesh shading mit XE HPG

https://www.techpowerup.com/278367/intels-raja-koduri-teases-xe-hpg-mesh-shading-in-action-a-hint-at-directx-12-ultimate-readiness

Ghost1nTh3GPU
2021-02-17, 12:41:20
Koduri soll sich Mal mit dem Launch beeilen.

Einen besseren Zeitpunkt für einen Markteintritt, wo selbst eine 300W $500 ~RTX2060S Intel GPU Käufer finden würde, gibt es wohl nicht. Und mit 10nm aus eigener Fab, wäre man auch nicht von den TSMC Engpässen stark betroffen.

dildo4u
2021-02-17, 13:05:59
HPG kommt von TSMC. https://www.guru3d.com/news-story/intel-dg2-gpu-will-be-fabbed-on-latest-tsmc-7nm-fabrication-process.html

https://i.ibb.co/kxCCG20/Intel-Xe-HPG-2.jpg (https://ibb.co/s2YYg9Q)

Leonidas
2021-02-17, 13:34:22
Intel sollte sich ausreichend 6nm vorgebucht haben, dass man das gebacken bekommt. Es ist wirklich die allerallerbeste Zeit für diesen Launch. Jetzt könnte man aus dem Stand auf 30% Marktanteil unter Gamern kommen.

dildo4u
2021-02-17, 13:41:51
Ich sehe nicht wo die Dinger untauglich fürs Mining wären selbst wenn die Effizienz zwei Jahre zurück hängt.

vinacis_vivids
2021-02-17, 16:00:32
https://avalanchenoticias.com.br/desenvolvimento-e-fabricacao-de-eletronicos/placas-de-video-poderosas-para-jogos-no-intel-xe-hpg-receberao-suporte-para-a-tecnologia-mesh-shading/

Intel DG2 XXXX
512 TMUs
4096 SPs (wie bei Fiji bzw. Vega10)
GDDR6

Spekulazius

4096SP und ~ 2 Ghz GPU-Takt entsprechen 16.384 Tflop/s fp32 Rechenleistung
16GB GDDR6 256bit ~ 2 Ghz entsprechen 512GB/s Bandbreite

Bei guter Treiberfunktion kann Intel mit der RX6800 und GTX3070(ti)/3080 mitmischen.

Hackordnung bei 16GB GPUs
1. AMD RX6800 16GB
2. Intel DG2 4096 16GB
3. Nvidia RTX3070ti 16GB

davidzo
2021-02-17, 21:18:22
XE-HPG ist weiterhin Gen12, da würde ich nicht auf einmal eine Taktexplosion erwarten, auch mit 6nm nicht. Und IPC Verbesserungen kommen wohl erst wieder mit Gen13 / Jupiter Sound.

Außerdem geht Gen12 relativ verschwenderisch mit Bandbreite um, deswegen leisten die 96EUs/768 Alus ja auch nur selten mehr als die 512 Vega Alus in Renoir/Cezanne.

Ich sehe die Architektur von der IPC her eher auf dem Niveau der ersten generation Vega (10/20). Und die liegt eher auf 2070 Niveau, also heutzutage ca. 3060.

Ich denke daher kommt XE-HPG eher mit 8GB um preislich auch mit der 3060 und 6700 zu konkurrieren.

vinacis_vivids
2021-02-17, 21:49:21
Gen12 von Intel ist derzeit nur in 35W config als integrierte GPU zu sehen.

Gen12 auf dem Desktop ist ganz was anderes. Da herrschen andere Bedingungen und Raja ist nunmal ein ziemlich guter GPU-Designer, der hohe Wattzahlen machen kann (siehe Fiji). Die 4096SP - Konfiguration aus den Fiji-Zeiten sind von ihm als AMD-Spitze mitentwickelt worden.

Intel wird sicherlich mit der Brechstange 350-375W liefern um halbwegs mitmischen zu können. Sicherlich haben die das 14nm+++++++ bei 350-375W durchgetestet und als untauglich befunden. Raja ist für solche hohen Leistungszahlen und Spielereien bekannt.

Guck dir mal das Ding an, das ist riesig.

https://abload.de/img/7-2160.0a477bcdsij6s.png

Und jetzt Vega10 zum Vergleich

https://abload.de/img/vega10ncuu6kvd.png

Mit so einem riesigen Chip muss Intel die 10nm Fertigungsstärke demonstrieren können, allein schon um der Öffentlichkeit zu zeigen, dass man mithält und vorne mitmischt.
Vor allem sind Kunden absolut bereit auch 1500-2000€ für eine Grafikkarte zu zahlen, da sind fitte Chips gefragt.

Das schließt im übrigen den kleinen Chip mit 8GB Bestückung nicht aus.

Ravenhearth
2021-02-18, 02:18:24
Guck dir mal das Ding an, das ist riesig.

https://abload.de/img/7-2160.0a477bcdsij6s.png
Das ist Xe LP mit 96 EUs, also Tiger Lake/DG1 ;D

Mit so einem riesigen Chip muss Intel die 10nm Fertigungsstärke demonstrieren können, allein schon um der Öffentlichkeit zu zeigen, dass man mithält und vorne mitmischt.
Xe HPG kommt von TSMC.

davidzo
2021-02-18, 09:38:08
Gen12 von Intel ist derzeit nur in 35W config als integrierte GPU zu sehen.

Gen12 auf dem Desktop ist ganz was anderes. Da herrschen andere Bedingungen und Raja ist nunmal ein ziemlich guter GPU-Designer, der hohe Wattzahlen machen kann (siehe Fiji). Die 4096SP - Konfiguration aus den Fiji-Zeiten sind von ihm als AMD-Spitze mitentwickelt worden.


Wow, er kann hohe Wattzahlen machen :freak:
Raja hat mit Gen12 noch nichts zutun, dazu ist er zu spät gekommen. Der hilft nur bei der Execution.


Guck dir mal das Ding an, das ist riesig.

Und jetzt Vega10 zum Vergleich

ROFL ;D Wer hat das größere Schaubild X'D
Wenn das so ist, ich hätte hier noch eines von G80, der sieht auch "fett" aus.

btw Du vergleichst da eine low cost IGP mit einer enthusiast HBM GPU :rolleyes:

Tarkin
2021-02-24, 21:36:39
Darren McPhee hat Intel verlassen und ist nun wieder bei AMD

https://www.linkedin.com/in/darrenmcphee/

davidzo
2021-02-25, 11:49:58
Marketing, die Leute kommen und gehen eh wie die Jahreszeiten.
Es kann eine gute Gehaltsstrategie sein sich mal abwerben zu lassen um sich dann wieder zurückwerben zu lassen.
Was das über XE aussagt sehe ich irgendwie nicht.

konkretor
2021-02-26, 08:27:49
https://twitter.com/3DCenter_org/status/1365159153132576770?s=20

Mal sehen obs stimmt

512EU 256bit 8/16GB
384EU 192bit 6/12GB
256EU 128bit 4/8GB
192EU 128bit 4GB
128EU 64bit 4GB
96EU 64bit 4GB

Loeschzwerg
2021-02-26, 17:19:55
Meiner Meinung nach werden zumindest nicht alle dieser SKUs in den Retail Markt gelangen.

davidzo
2021-02-27, 11:49:22
Den Sinn einer 96EU 64bit Variante sehe ich auch nicht. Das haben wir ja schon mit DG1 gesehen dass das nicht für mehr als IGP Niveau reicht.
Große IPC Springe erwarte ich auch nicht, schließlich ist XE DG2 immer noch die Gen12 Architektur
.
Nvidia ist mittlerweile dazu übergegangen ein Lineup nur noch aus midrange bis Highend zu bauen und den Rest mit alten Chips zu bedienen oder featuremäßig abgespeckten (1650, 1660). Auch AMD macht das ganz ähnlich.
Dass Intel das komplett umgekehrt macht, nämlich maximal 3060ti Leistung und dann runter bis zur IGP, kann ich mir eigentlich nicht vorstellen. Schon mit den neuen Alderlake IGPs die wieder was auf TGL drauflegen sollen sind die unteren zwei SKUs doch überflüssig.
Und der retail upgrademarkt ist eh nichts für Intel, da wird viel mehr auf den Namen geachtet und sind 750ti und 1050 dementsprechend unschlagbar.

vinacis_vivids
2021-03-02, 02:15:09
Intel wird das Low-Mid-Range Lineup mit 14nm+++++ bringen, das ja "InHouse" spottbillig ist und die Konkurrenz mit den niedrigeren Preis unterwandern.

Das Top-Modell DG2-512EU ist fürs Marketing gedacht und kann auch in 10nm kommen um Fläche zu sparen, weil die 4096 ALUs doch relativ breit ist. Fast so breit wie Navi20 mit 5120 SPs.
Vega10 14nm mit 4096 SPs braucht ja 484mm² und 12,5 Mrd. Transistoren (25,82 Mio/mm²)

Es ist ja auch bekannt, dass die EUs für den höheren Takt extrem dick sein müssen. Um die 4096 ALUs hochzutakten braucht man viele Transistoren, vermutlich deutlich mehr als 12,5 Mrd. inkl. den neuen instructions und DX12_2 features. Summarum vermutlich 17-18 Mrd.

Ein Teil davon ist das I/O, das nicht ganz so dicht gepackt werden kann wie die ALUs. Mit einer super optimistischen Einschätzung ladet Intel DG2-512Eu mit 2,0Ghz unterhalb der RX6800 und im Bereich der aktuellen 3060Ti & 3070 und 6700XT & 6700.

Die angebotenen 16GB VRAM sind natürlich super verkaufsfördernd selbst wenn Intel pessimistisch nur die 3060er 12GB erreicht, aber eben 4GB mehr Speicher hat.
Schwache GPU`s mit viel Speicher kommen wieder in Mode.

=Floi=
2021-03-02, 03:50:49
Intel wird das Low-Mid-Range Lineup mit 14nm+++++ bringen, das ja "InHouse" spottbillig ist und die Konkurrenz mit den niedrigeren Preis unterwandern.

https://www.notebookcheck.com/Intel-Iris-Xe-MAX-DG1-Mobile-Grafikkarte.439515.0.html
10nm
Hier zweigt man lieber wichtige kapazitäten für nonsens ab.

Die karten könnten verschenkt werden und es würde kein erfolg werden, weil man dazu eine relativ aktuelle intel platform braucht.
Das teil ist einfach nur sinnlos.

RavenTS
2021-03-02, 19:53:07
Ist die INTeL-Architektur eigentlich für Mining-Aktivitäten (gut) geeignet? Das könnte ja schon in dieser Richtung etwas Entlastung in den Markt bringen! :-)