Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Xe discrete GPUs (DG1, 2021 + DG2 "Alchemist", 2022)
Lehdro
2021-08-20, 14:40:03
Stimmt, Turing-Kunden haben echt die Arschkarte: Raytracing, DLSS 2.0, DX12U und bald XeSS. Die schauen absolut neidisch auf die Leute, die sich so eine geile RDNA1 Karte gekauft haben.
Kann denn RDNA1 DP4a? Dann würde RDNA1 auch XeSS können...
Troyan
2021-08-20, 14:50:28
Pascal kann auch Raytracing. RDNA2 kann auch Raytracing. Support ist nicht das Problem, sondern wieviel Leistung benötigt wird.
XeSS wird irgendwann auch mit den TensorCores von Turing/Ampere laufen. Der Unterschied zwischen TensorOPS und DP4a liegt bei Turing/Ampere bei 4x. Man kann sich also leicht ausrechnen, wieviel langsamer XeSS auf RDNA Karten gegenüber Turing/Ampere sein wird.
Lehdro
2021-08-20, 14:51:52
XeSS wird irgendwann auch mit den TensorCores von Turing/Ampere laufen.
Welches deiner Körperteile verwettest du dafür?
basix
2021-08-20, 15:02:56
Kann denn RDNA1 DP4a? Dann würde RDNA1 auch XeSS können...
XeSS läuft, aber langsam (via FP32/INT32). Soweit uch weiss unterstützt nur N14 DP4a und somit 4x INT8 Beschleunigung.
Welches deiner Körperteile verwettest du dafür?
Muss er gar nicht: https://www.computerbase.de/2021-08/xe-ss-intels-dlss-konkurrent-mit-ki-auch-fuer-amd-und-nvidia/
Nvidias Turing- und Ampere-Architektur kann INT8 mit DP4a über die Tensor-Kerne beschleunigen, doch ist unklar, ob das von alleine und ohne Codeanpassung mit der maximalen Performance passieren wird – ComputerBase geht aktuell nicht davon aus
Da XeSS Open Source ist --> Tensor Core Support ist garantiert, entweder von den Spiele-Devs oder mit hoher Wahrscheinlichkeit direkt von Nvidia eine entsprechende Anpassung von XeSS
Troyan
2021-08-20, 15:48:20
DP4a macht kein Sinn auf Turing+ Karten. Daher ist DLSS die Methode für nVidia-User, solange niemand eine Implementierung für nVidia-Kunden vornimmt.
Wenn DirectML soweit ist, sollte das von Intel gemacht werden. Fände ich schon strange, die Verantwortung dann auf Dritte abzuwälzen. :rolleyes:
davidzo
2021-08-20, 16:07:17
Ja die 45 Tflops FP64 hat Moore's Law Is Dead schon im Februar vorhergesagt. Seine Intel Quellen sind in letzter Zeit sehr zutreffend.
https://youtu.be/2JMxnEblKlA?t=279
Ja, Quellen hat er auf jeden Fall.
Allerdings ist er bei manchen Dingen ziemlich durcheinander gekommen.
Wie WCCFtech und andere kriegt er ständig XE-HP und XE-HPC durcheinander.
Es sind außerdem 144mb L2 pro Base Tile, also 288mb für PV. MLID schreibt was von 442mb L3, dabei ist L2 gemeint:confused:
Es ist echt nicht einfach da den Überblick zu behalten, zumal es so aussieht als wenn Intel topologisch andere Aufteilungen hat als physisch, also pro DIE.
So wie ich es verstehe hat ein XE Slice 16 Cores, also genau doppelt soviel wie ein DG2 Render Slice.
Pro compute Tile sind aber nur 8 Cores vorhanden, das heißt ein Slice setzt sich immer aus zwei compute chiplets zusammen und mehreren cache chiplets dazu.
Ob der L2 Cache nun wie in Intels grafik auf dem Basedie selbst liegt oder das nicht viel eher die Rambo tiles dadrauf sind, ist auch unklar.
Btw, wie meint ihr wie die 45Tflops zustande kommen?
Bei einem XE HPC 2-stack, kommt man auf 8x Slices á 16 Cores, also 128 XE Cores (bzw. 1024 EUs)
Die Cores müssten dann schon 2,6Ghz Takten um auf 45Tflops zu kommen.
Oder habe ich da einen Denkfehler uns es sind in wirklichkeit 2048EUs so wie bei der 4-tile XE-HP Variante? Oder habe ich mich verrechnet?
Lehdro
2021-08-20, 16:14:40
Ist ja schön dass ihr euch da alle so sicher seit mit XeSS auf den TCs. Ich würde das gerne in der Praxis sehen oder als klare Aussage seitens Intel/NV lesen, bevor ich das als gegeben hinnehme. Gerade bei Intel oder NV.
PCGH schreibt:
Theoretisch ließen sich aber zumindest Nvidias Tensor-Kerne in Volta, Turing und Ampere für die XeSS-Berechnungen heranziehen, sofern sich ein Entwickler diese Mühe macht. Offiziell, d. h. von Seiten Intels, ist Derartiges nicht zu erwarten - zumal Stand jetzt unklar ist, ob die Tensor-Kerne mit DP4a umgehen können und ob es vielleicht eine Alternative zu diesem Format (wie FP16) gibt.
CB schreibt ja im Grunde dasselbe. Ihr verkauft das als Fakt, dass es so sein wird, ich bleibe da lieber skeptisch, wird man weniger enttäuscht ;)
aufkrawall
2021-08-20, 16:25:13
Kann mir auch gut vorstellen, dass Nvidia XeSS lieber noch ein paar Jahre ignoriert.
basix
2021-08-20, 17:50:25
Kann mir auch gut vorstellen, dass Nvidia XeSS lieber noch ein paar Jahre ignoriert.
Sich selber ein Bein stellen, nichts anderes wäre das ;)
XeSS wird von Nvidia sicher unterstützt. Ist die Frage, mit welcher Performance. Via SPs oder TC? Das liegt in der Hand von Nvidia. Läuft es mit letzerem, würde man "DLSS" Superiority demonstrieren und es wäre mit guter Wahrscheinlichkeit schneller als bei AMD (pro Nvidia Argument) und ähnlich schnell oder schneller wie bei Intel (pro Nvidia Argument). Ist man langsamer als AMD: Sich unnötig ein Bein gestellt. Noch lustiger: Pascals INT8 Beschleunigug lässt Turing und Ampere alt aussehen, wenn TCs nicht genutzt werden.
Btw, wie meint ihr wie die 45Tflops zustande kommen?
Bei einem XE HPC 2-stack, kommt man auf 8x Slices á 16 Cores, also 128 XE Cores (bzw. 1024 EUs)
Die Cores müssten dann schon 2,6Ghz Takten um auf 45Tflops zu kommen.
Oder habe ich da einen Denkfehler uns es sind in wirklichkeit 2048EUs so wie bei der 4-tile XE-HP Variante? Oder habe ich mich verrechnet?
Rechnest du mit Full-Rate FP64? Dann reichen 1.4 GHz für >45 TFlops. Evtl. gibt es kein "Double-Rate" FP32.
Bezüglich Flops pro Cycle gibt es die 32'768 FP64 Flops/clk Angabe. Deutet doch auf Full-Rate FP64 hin, oder? Edit: Japp, auf der selben Folie sind 32'768 FP32 Flops/clk angegeben.
Badesalz
2021-08-20, 19:32:07
Jo, die FP32 Tflops beeindrucken jetzt nicht so.
Aber 45Tflop FP64 ist schon heftig, das ist mehr als 4x A100 oder Mi-100.Ich will diese 45Tflops FP64 aber erstmal noch sehen ;)
Und die Bandbreite ist ebenso beeindruckend. 5TB/s on package (8xHBM2e) und 2TB/s off Package (CXL Links)
Das ist die Gesamtbandbreite von 4x Mi-100 und mehr als das Dreifache der 600gb/s NVlinks von A100.
Und PV ist ähnlich gut skalierbar wie Ampere, denn während Mi-100 nur 4x karten pro DualCPU Node sind geht PV biszu 8 pro Node (ampere praktisch auch bis 8x, theoretisch bis 16x).Du weißt schon, daß MI200 schon mit VW Caddys ;) an Supercomputer customers ausgeleifert wird? Das ist also schon fertig und wird diesjahr soweit lieferbar sein (hatten wir das nicht schon irgendwo im Forum?), daß Frontier diesjahr 1.5 Exaflops haben wird?
Warum reden wir also über MI100? Das ist vom Herbst 2020. Einerseits.
Andererseits, hab ich entweder nicht aufgepasst oder es gab das nicht. Aber:
Sie sprachen von coherency zwischen den GPUs. Ok. Hat aber diese Geschichte mit Trento und MI200 die coherency nicht AUCH zwischen den GPUs und CPUs? War eben jenes OAK nicht sogar recht wichtig?
Naja, das ist vermutlich weniger, als MI200 noch dieses Jahr liefern wird.Ist grad noch bisschen schwer zu sagen...
https://www.heise.de/news/Rechenbiest-AMDs-MI200-GPU-mit-128-GByte-HBM2e-und-mehr-als-50-TFlops-6129724.html
basix
2021-08-20, 19:51:32
Andererseits, hab ich entweder nicht aufgepasst oder es gab das nicht. Aber:
Sie sprachen von coherency zwischen den GPUs. Ok. Hat aber diese Geschichte mit Trento und MI200 die coherency nicht AUCH zwischen den GPUs und CPUs? War eben jenes OAK nicht sogar recht wichtig?
Ja, Infinity Architecture 3 bietet Kohärenz bei GPU-to-GPU, GPU-to-CPU und CPU-to-CPU. Letzteres zu OAK ist schwer zu sagen, aber für grosse Datenmengen & Berechnungsmodelle sicher ein sehr grosser Vorteil.
Ist grad noch bisschen schwer zu sagen...
https://www.heise.de/news/Rechenbiest-AMDs-MI200-GPU-mit-128-GByte-HBM2e-und-mehr-als-50-TFlops-6129724.html
Ich finde die Situation gerade ziemlich spannend für den HPC Markt von 2022. Hier die voraussichtlichen Stärken der Architekturen:
- CDNA2 = FP64 King + CPU-Speicherkohärenz
- Ponte Vecchio = FP64 + ML/AI + viel Cache + Raytracing --> "Meister aller Klassen" oder einfach nur ein guter Allrounder?
- Hopper = ML/AI King + viel Cache(?) + Raytracing(?)
- CDNA3 (Ende 2022?) = FP64 King + CPU-Speicherkohärenz + ML/AI + Infinity Cache
Badesalz
2021-08-20, 20:47:26
Ich überleg grad wozu HPC Raytracing braucht.
Wenn die Zahlen halbwegs stimmen, könnte CDNA2 auch FP32 King sein oder? ;)
Aktuell hat AMD noch den Vorteil, daß sie momentan real HPEs/Crays darling sind. Die MI200 hängen alle direkt am Slingshot. Und Slingshot ist schon extrem mächtig was Latenzen angeht. Da muß Mellanox 200G EDR noch ordentlich dran stricken. NV hat sich das aber nicht umsonst gekrallt...
Ich frag mich daher wie Intel das noch lösen will. Die Leistung des einzelnen Moduls muss man ja noch auf die Straße bringen.
In Shasta-Systemen hat AMD das "Problem" kaum mehr und muss ggf. nicht überall exorbitante Puffer haben (?)
(inoffiziell hat HPE Cray nur wegen Slingshot gekauft)
Locuza
2021-08-20, 20:48:34
Kann denn RDNA1 DP4a? Dann würde RDNA1 auch XeSS können...
XeSS läuft, aber langsam (via FP32/INT32). Soweit uch weiss unterstützt nur N14 DP4a und somit 4x INT8 Beschleunigung.
Muss er gar nicht: https://www.computerbase.de/2021-08/xe-ss-intels-dlss-konkurrent-mit-ki-auch-fuer-amd-und-nvidia/
Da XeSS Open Source ist --> Tensor Core Support ist garantiert, entweder von den Spiele-Devs oder mit hoher Wahrscheinlichkeit direkt von Nvidia eine entsprechende Anpassung von XeSS
DP4a gibt es bei:
Vega20 (Radeon VII),
Navi14 (5500 Series),
Navi12 (5600 Pro (Apple),
+ bei jeder RDNA2 Hardware:
Navi21 (6800-6900)
Navi22 (6700)
Navi23 (6600)
Navi24
Van Gogh (Steam Deck)
Rembrandt (Zukünftige APU für 2022 mit Zen3+ und 12 RDNA2 CUs)
Zusätzlich unterstützt die Xbox Series X/S DP4a.
DP4a gibt es nicht bei Navi10 und GFX1013, einer APU mit Raytracing-Support, aber ohne DP4a, welche genau die selbe Konfiguration zu haben scheint wie die PS5...
Also ich würde davon ausgehen das die PS5 es auch nicht unterstützt, auch dank anderen Behauptungen.
Es gibt bei Navi10/PS5 aber mindestens Packed-Math für FP16 und INT16.
Unter Umständen müsste man noch etwas extra rechnen, um overflow zu vermeiden.
____
Wie Intel XeSS handhaben wird, ist gerade sehr grob gehalten.
Zuerst erscheint ein SKD mit der Matrix-Umsetzung, danach die DP4a-Version.
DP4a sollte man direkt unter DX12 ab Shader-Model 6.4 nutzen können, da gibt es passende Intrinsics dafür:
https://docs.microsoft.com/en-us/windows/win32/direct3dhlsl/hlsl-shader-model-6-4-features-for-direct3d-12
Für die Matrix-Variante stellt sich aber die Frage, ob da nicht DirectML mit Metacommands notwendig wäre.
Also da gibt es noch einige Fragen, wie genau das umgesetzt ist, was Intel selber bereitstellt und supported und wie viel Aufwand es darstellt für die anderen Hersteller es zu unterstützen.
Dampf
2021-08-20, 22:46:22
Wenn XeSS open source ist, wird doch bestimmt jemand einen Pfad schreiben, um es auf den TCs auszuführen.
Wenn XeSS open source ist, wird doch bestimmt jemand einen Pfad schreiben, um es auf den TCs auszuführen.
Das werden AMD und NV schon selber machen in ihren Treibern mMn.
Orbmu2k
2021-08-21, 08:41:55
Um die Performance von XeSS würd ich mir bei NVIDIA/AMD keine Sorgen machen. Wieviel Anteil an der Frametime hat das XeSS denn? Das ist minimal und selbst wenn es auf NVIDIA/AMD etwas langsamer laufen sollte fällt das für das gesamte Frame kaum ins Gewicht. Der Performance Vorteil von der geringeren Input Auflösung wird immernoch immens sein. Man wird es ja sowieso nur dann verwenden wenn nur XeSS und kein DLSS zur Verfügung steht.
Troyan
2021-08-21, 08:53:05
Nein, der Vorgang hat wie DLSS einen fixen Zeitanteil. Wenn eine 3090 2ms benötigt, dann ist dies bei 120FPS aka 8,3ms schon 10,3ms und somit 24 FPS weniger. Eine 2060 Super benötigt dann schon vergleichsweise lange 5,2ms für 1080p -> 2160p. Dazu kommt, dass bei Turing/Ampere die TensorCores parallel arbeiten können, was bei DP4a nicht gegeben ist.
Halbiert sich die Abarbeitungszeit auf einer 2060 Super, wären das knapp 14% mehr Frames bei 1080p/60FPS.
basix
2021-08-21, 09:00:22
Performance ist schon ein Thema. Klar, einen Nettogewinn hat man immer. Aber umso höher die Framerate und Ausgabe-Auflösung, desto stärker fällt die Ausführungszeit fürs Upsampling ins Gewicht. Extrembeispiel: 8K/120 mit DLSS Performance wäre faktisch unmöglich, da ca. 6-7ms Ausführungszeit auf einer 3090. Läuft XeSS nun nochmals z.B. 2x langsamer ist es schon bei 60fps zu langsam. Entsprechend geht es den kleineren GPUs in kleineren Auflösungen.
Orbmu2k
2021-08-21, 09:05:25
Nein, der Vorgang hat wie DLSS einen fixen Zeitanteil. Wenn eine 3090 2ms benötigt, dann ist dies bei 120FPS aka 8,3ms schon 10,3ms und somit 24 FPS weniger. Eine 2060 Super benötigt dann schon vergleichsweise lange 5,2ms für 1080p -> 2160p. Dazu kommt, dass bei Turing/Ampere die TensorCores parallel arbeiten können, was bei DP4a nicht gegeben ist.
Halbiert sich die Abarbeitungszeit auf einer 2060 Super, wären das knapp 14% mehr Frames bei 1080p/60FPS.
Wie groß der Unterschied ist kann doch heute noch keiner sagen. Ich gehe aber dennoch davon aus dass der Vorteil von XeSS immernoch größer ist als das was man vielleicht durch Tensor Cores verliert. Will sagen ja vielleicht ist es langsamer als DLSS aber immernoch schneller als nativ.
Troyan
2021-08-21, 09:19:25
Das gilt vielleicht für simples bilineares Upscaling. Aber Spiele wie Metro EE oder auch UE4.6 bieten modernes TAAU an, dass auch schon einen deutlichen Mehrwert liefert. XeSS und DLSS müssen sich also nicht nur untereinander vergleichen lassen, sondern auch mit den Upscaling-Techniken, die deutlich einfacher, aber auch deutlich schneller sind.
robbitop
2021-08-21, 16:00:57
Also soweit ich mich erinnere, läuft DLSS nach der eigentlichen Fertigstellung des Framebuffers und vor dem Postprocessing. Dazu gab es auch schon screenshots vom NV Performance Analyse Tool wo man sehen konnte, dass am hinteren Ende der Frametime hauptsächlich die TCs arbeiteten, die FPUs aber praktisch stillstanden. Insofern scheint die Möglichkeit der parallelen Nutzung (sofern sich nichts geändert haben sollte) keinen Vorteil zu bringen.
aufkrawall
2021-08-21, 16:07:30
Afaik gibt es keinen Hinweis, dass es in irgendeinem neueren Spiel mit Ampere parallel läuft.
Edit: Intel sprach übrigens nicht nur von einem Performance-Nachteil auf anderer Hardware, sondern auch von einer anderen Performance/Qualität-Abwägung. Es könnte also nicht nur langsamer laufen, sondern auch schlechter aussehen.
TheAntitheist
2021-08-21, 16:46:30
Wie groß der Unterschied ist kann doch heute noch keiner sagen. Ich gehe aber dennoch davon aus dass der Vorteil von XeSS immernoch größer ist als das was man vielleicht durch Tensor Cores verliert. Will sagen ja vielleicht ist es langsamer als DLSS aber immernoch schneller als nativ.
man weiß doch wie stark die int8 Leistung der FP32 Units ist!? also wenn die das in der doppelten Zeit schaffen wäre das schon fix, aber 5-6ms wäre schon sehr viel performance Verlust.
robbitop
2021-08-21, 18:35:32
Ein Indikator könnte DLSS 1.9 sein. Das basierte IIRC auch schon auf temporalem SS + NN und lief aber noch auf den FPUs.
Entsprechend könnte man ein DLSS 1.9 Spiel mit gleicher nativen Auflösung benchen wie die Inputauflösung von DLSS. Mit unterschiedlichen Q Leveln. Und dann kann man sich anhand der fps Unterschiede die Frametime ausrechnen. Allerdings sollte die Inputauflösung so hoch sein, dass man immer im GPU Bottleneck ist.
https://youtu.be/9pVO1siJt50?t=756
https://wccftech.com/intel-xess-interview-karthik-vaidyanathan/?utm_source=dlvr.it&utm_medium=twitter
Tom Petersen und Karthik Vaidyanathan Interview über XeSS.
aufkrawall
2021-08-24, 21:53:19
Hatte ich mich schon in einem anderen Forum gefragt, und der Stream beantwortet das wohl: Also intelexklusive API für den Zugriff auf die XMX-Kerne und eine herstellerübergreifende Lösung dafür hoffentlich irgendwann später. DirectML "2.0"? Vulkan-Extension?
davidzo
2021-08-25, 01:09:01
ohnehin wäre die Leistung auf fremden Karten bescheiden, insbesondere auf RDNA2.
Navi22 bringt es gerade mal auf 50 Tops Int8, GA104 immerhin auf 174Tops.
Ein 512EU 2Ghz XE dürfte 256 Tops haben.
Bei solchen AI workloads zahlt sich dann Intel Fokus auf höhere low precision Leistung aus.
Badesalz
2021-09-01, 10:01:06
Xe wohl noch lange nicht fertig. Ist wohl alles noch bisschen... arc langsam :usweet:
https://www.hardwareluxx.de/index.php/news/allgemein/wirtschaft/56947-intel-system-verspaetet-sich-doe-ordert-weiteren-supercomputer.html
Loeschzwerg
2021-09-01, 10:32:51
Komischen Link hast du da ^^
https://efahrer.chip.de/tests/kia-sorento-phev-im-test-so-sparsam-ist-der-riesen-hybrid-mit-265-ps-wirklich_104394
Badesalz
2021-09-02, 06:29:29
Was für ein Müll :usweet: Kollege ist gestern mit so einem Teil das erste Mal angekommen und ich wollte mal schauen was es gibt und was es kann. Bin wohl mit den Tabs durcheinander gekommen.
Link korrigiert ;)
reaperrr
2021-09-02, 09:26:29
Xe wohl noch lange nicht fertig. Ist wohl alles noch bisschen... arc langsam :usweet:
https://www.hardwareluxx.de/index.php/news/allgemein/wirtschaft/56947-intel-system-verspaetet-sich-doe-ordert-weiteren-supercomputer.html
Naja, Ponte Vecchio ist eine fette HPC-GPU aus mehreren Tiles, gefertigt in mehreren verschiedenen Prozessen (u.a. Intels dollen 10nm).
Die Desktop-Arcs sind relativ kleine, in TSMC 6nm gefertigte monolithische GPUs. Verzögerungen kann es immer geben, aber wenn sich die Desktop-Grakas verzögern sollten, hätte das nichts mit der HPC-Variante zu tun und umgekehrt.
Badesalz
2021-09-02, 10:23:07
Thread handelt von "Xe". Von allen. Nicht nur von der Spielzeugausführung.
Ein proposed DG2 2022 lineup slide ist aufgetaucht (https://videocardz.com/newz/leaked-slide-shows-intel-dg2-arc-alchemist-gpus-compete-with-geforce-rtx-3070-and-radeon-rx-6700xt). Mit Retail Channel und NDA Wasserzeichen im Hintergrund.
https://abload.de/img/intel-dg2-lineupdujy3.jpg
Fragman
2021-09-11, 11:34:31
Die Folie ist doch nicht echt.
Die Preise stimmen nicht. ;)
Wäre aber schon amüsant wenn intel diese Preise für 1-2 Monate halten könnte.
MSRP und Straßenpreise nicht verwechseln. RTX 3070 MSRP liegt bei 499USD, Folie sagt 499 USD. 6700XT liegt bei 479USD, Folie sagt 479USD. Welche davon stimmen nicht?
Fragman
2021-09-11, 12:35:10
MSRP und Straßenpreise nicht verwechseln. RTX 3070 MSRP liegt bei 499USD, Folie sagt 499 USD. 6700XT liegt bei 479USD, Folie sagt 479USD. Welche davon stimmen nicht?
Natürlich stimmen die, nur bekommst du nichts zu diesen Preisen.
Deshalb wäre ich überrascht, wenn intel das halten kann für den Endkunden.
Natürlich bekommt man die (derzeit) nicht zu den Preisen, niemand hat etwas anderes behauptet. Du hast behauptet, die Folie sei nicht echt, weil die Preise nicht stimmen. Die MSRP Preise stimmen aber sehr wohl. Dass das MSRP Preise sind in dem Vergleich ist doch selbsterklärend.
dildo4u
2021-09-11, 12:44:06
Intel kann die Verfügbarkeit besser steuern als NV großer Fehler 12GB auf die 3060 zu packen Intel könnte z.b 8GB als Grundaustattung bringen und 16 als Option.
Imo hat NV mit den aktuellen Modellen keine Chance gegen Intel was Preise angeht, da entweder die Dies zu groß sind oder die GPU zu viel Vram haben.
dargo
2021-09-11, 13:32:48
Ein proposed DG2 2022 lineup slide ist aufgetaucht (https://videocardz.com/newz/leaked-slide-shows-intel-dg2-arc-alchemist-gpus-compete-with-geforce-rtx-3070-and-radeon-rx-6700xt). Mit Retail Channel und NDA Wasserzeichen im Hintergrund.
https://abload.de/img/intel-dg2-lineupdujy3.jpg
Der Verbrauch ist schon mal absolut konkurrenzfähig in der jeweiligen Leistungsklasse, bleibt spannend. Wichtig wäre natürlich, dass Intel früh in 2022 (besser wäre jetzt schon) liefern kann. Je näher H2 2022 rückt umso schwieriger wird der Einstieg für Intel. Die Treiberqualität bei Intel ist für mich auch noch ein großes Fragezeichen.
Intel kann die Verfügbarkeit besser steuern als NV großer Fehler 12GB auf die 3060 zu packen Intel könnte z.b 8GB als Grundaustattung bringen und 16 als Option.
Imo hat NV mit den aktuellen Modellen keine Chance gegen Intel was Preise angeht, da entweder die Dies zu groß sind oder die GPU zu viel Vram haben.
Intel hängt genau so am TSMC Tropf und die Miner werden auch die Intel Karten vom Markt kaufen imho.
aufkrawall
2021-09-11, 14:19:20
Außer, Intel will lieber Marktanteile bei Spielern schaffen und baut eine Drosselung ein, ggf. schärfer als die von NV.
Platos
2021-09-11, 15:03:04
Der Verbrauch ist schon mal absolut konkurrenzfähig in der jeweiligen Leistungsklasse, bleibt spannend. Wichtig wäre natürlich, dass Intel früh in 2022 (besser wäre jetzt schon) liefern kann. Je näher H2 2022 rückt umso schwieriger wird der Einstieg für Intel. Die Treiberqualität bei Intel ist für mich auch noch ein großes Fragezeichen.
Die Frage ist auch, welche Karten denn Anfangs 2022 kommen. Wenn sie gleich das ganze Line-Up auf einmal auf den Markt bringen (unwahrscheinlich), könnte das ja gehen, aber wenn dann die Karten im 150-350 Euro Bereich erst Monate danach launchen, dann sind sie schon am ersten Tag obsolet, wenn dann ein halbes Jahr später schon AMD und nvidia eine neue Chipgeneration launchen.
dildo4u
2021-09-11, 15:13:20
Intel hängt genau so am TSMC Tropf und die Miner werden auch die Intel Karten vom Markt kaufen imho.
Das kommt komplett drauf an was für Mengen du bestellen kannst, Apple hat Null Probleme genug M1 SOC geliefert zu bekommen weil sie bervorzugter Kunde sind.
Es kommt also drauf an wie ernst es Intel meint sie könnten NV und AMD für Kapazitäten überbieten.
Linmoum
2021-09-11, 15:20:44
Das hat rein gar nichts mit bevorzugten Kunden zu tun. Der M1 ist gerade einmal 119mm2 groß bzw. klein, AMD hat schließlich genauso keine Probleme CPUs zu liefern im Gegensatz zu den riesigen GPUs.
Und mal eben bei Kapazitäten überbieten ist auch nicht, es gibt bestehende Verträge.
dildo4u
2021-09-11, 15:27:10
Ebend die festen Verträge sind der springende Punkt NV und AMD haben die vor der Pandemie gemacht Intel konnte hingegen mit der erhöten Nachfrage im Kopf bestellen.
Das kommt komplett drauf an was für Mengen du bestellen kannst, Apple hat Null Probleme genug M1 SOC geliefert zu bekommen weil sie bervorzugter Kunde sind.
Es kommt also drauf an wie ernst es Intel meint sie könnten NV und AMD für Kapazitäten überbieten.
Das stimmt schon, aber sind sie wirklich so kühn und bestellen im Vergleich zu Nvidia und AMD so große Mengen? Oder sind sie da erstmal vorsichtig unterwegs? Kommt vielleicht drauf an wieviel vertrauen sie in das eigene Produkt haben
smalM
2021-09-11, 16:49:27
Ebend die festen Verträge sind der springende Punkt NV und AMD haben die vor der Pandemie gemacht Intel konnte hingegen mit der erhöten Nachfrage im Kopf bestellen.
Wieso glaubst Du, Intel bekäme mehr, als sie vor der Pandemie bestellt haben?
Und ausgerechnet an AMD vorbei, die dieses Jahr an die Stelle von HiSilicon als Kunde mit dem zweithöchsten Umsatz getreten ist?
Dazu kommt, daß AMD für TSMC auch technisch ein strategisch wichtiger Kunde ist, was HiSilicon nie war.
Intel ist dagegen „nur“ ein Umsatzbringer. TSMC wird ihnen liebend gerne so viele Wafer verkaufen, wie es geht - also ohne andere, wichtigere Kunden vor den Kopf zu stoßen.
aufkrawall
2021-09-11, 17:11:29
Das stimmt schon, aber sind sie wirklich so kühn und bestellen im Vergleich zu Nvidia und AMD so große Mengen? Oder sind sie da erstmal vorsichtig unterwegs? Kommt vielleicht drauf an wieviel vertrauen sie in das eigene Produkt haben
Wenn man als Newcomer Marktanteile gewinnen will, muss man eigentlich in Vorleistung gehen. Gerade Intel könnte das subventionieren. Hielte ich für unklug, das an ihrer Stelle nicht zu tun.
Fragman
2021-09-11, 17:42:56
Da stellen die Aktionäre nur wieder unbequeme Fragen am Quartalsende, besonders bei der aktuellen Preislage. Aber das stimmt schon, wenn intel zu den Preisen den ersten Ansturm beliefern könnte wäre das sicher nicht so schlecht. Vorausgesetzt die Produkte sind gut.
mocad_tom
2021-09-11, 22:19:27
Raja Koduri ist Anfang 2018 zu Intel gewechselt
Im April 2019 hat er ein Foto vor der Samsung Kiheung Fab gemacht:
https://twitter.com/Rajaontheedge/status/1118053585982328832
In dem Timeframe kam auch raus, dass nvidia die nächste GPU-Generation bei Samsung machen wird.
Raja hat hier beim Architecture Day gemeint(ich hab an die richtige Stelle schon gespult), dass der größte Konkurrent beim Supercomputing in den Jahren zwischen 2012 und 2020 enorm zugelegt hat(die Linie ist grün gezeichnet):
https://youtu.be/3jU_YhZ1NQA?t=6298
Es gab den Plan beides miteinander zu verbinden:
-eine GPU für Supercomputing
-eine GPU für Consumer/Mining/AI
Die Consumer-GPU hilft einfach dabei Scaling-Effekte mitzunehmen.
Und Forscher holen sich die Intel-Consumer-GPU, entwickeln Algorithem dafür und die laufen dann auch auf Ponte Vecchio.
Intel hat 2021 einen Umsatzanteil von 7.2% bei TSMC und AMD 9.2%.
https://www.computerbase.de/2021-03/tsmc-umsatz-apple-amd-huawei/
Die Bestellungen für die GPU sind sicherlich massiv.
2019 und 2020 wurden noch Intel LTE Modems bei TSMC gefertigt, die dann in die iphones reinwanderten, aber dieses Volumen ist mittlerweile weg.
dargo
2021-09-11, 22:35:26
Die Frage ist auch, welche Karten denn Anfangs 2022 kommen. Wenn sie gleich das ganze Line-Up auf einmal auf den Markt bringen (unwahrscheinlich), könnte das ja gehen, aber wenn dann die Karten im 150-350 Euro Bereich erst Monate danach launchen, dann sind sie schon am ersten Tag obsolet, wenn dann ein halbes Jahr später schon AMD und nvidia eine neue Chipgeneration launchen.
Das glaube ich weniger. AMD und NV launchen bei neuen Generationen auch zuerst ihre schnellsten SKUs. Die langsameren Ableger kommen erst Monate später.
Platos
2021-09-11, 22:45:58
Das glaube ich weniger. AMD und NV launchen bei neuen Generationen auch zuerst ihre schnellsten SKUs. Die langsameren Ableger kommen erst Monate später.
Ja, ich glaubs ja auch nicht. Damit will ich ja sagen, dass die grosse Kundschaft dann erst erreicht wird, wenn die Karten schon fast obsolet sind.
-/\-CruNcher-/\-
2021-09-13, 12:15:37
Das glaube ich weniger. AMD und NV launchen bei neuen Generationen auch zuerst ihre schnellsten SKUs. Die langsameren Ableger kommen erst Monate später.
Macht anders auch keinen sinn wenn man von Top to Bottom Designed und teildefekte mit einplannen muss.
Piefkee
2021-09-13, 12:28:23
Ebend die festen Verträge sind der springende Punkt NV und AMD haben die vor der Pandemie gemacht Intel konnte hingegen mit der erhöten Nachfrage im Kopf bestellen.
Wafer-Aggrements werden im Regelfall 3-4 Jahre im Vorraus unterschrieben. Mit dem Wafer-Agreements bekommst du nämlich erst das PDK. Und ohne PDK kannst du auch designen...
Bsp: Intel --> TSMC N3
Wurde noch unter Bob Swan im Jahre 2020 unterschrieben (Hat ihn den Kopf gekostet)
Erstes Intel Produkt welches auf N3 setzte wird erst 2023 kommen, wenn nicht später.
dildo4u
2021-09-13, 12:34:38
Kein Plan ob was dran ist aber angeblich sind nicht nur die Chips das Problem sondern auch PCBs und Teile für die Stromversorgung.
AMD baut z.b keine Mainboards Intel schon für ihre NUC Modelle sie sollten dort besseren Zugang zu Zulieferern haben.
Skysnake
2021-09-13, 14:12:56
Intel hat sich Server Boards gebaut, bzw wohl eher bauen lassen. So ganz klar ist mir das nicht.
Bin mir aber aktuell nicht sicher, ob die das noch machen. Die Desktopboards haben sie ja schon lange begraben.
smalM
2021-09-13, 14:54:57
.
2019 und 2020 wurden noch Intel LTE Modems bei TSMC gefertigt, die dann in die iphones reinwanderten, aber dieses Volumen ist mittlerweile weg.
Die Modems wurden bei Intel in 14nm gefertigt und haben Wafer für CPUs gefressen.
Der Plan war ja, mit der CPU-Produktion zu 10nm zu wechseln und die frei werdende 14nm-Kapazität so zu nutzen.
Ein paar Milliönchen dürften im abgelaufen Produktzyklus noch verbaut worden sein…
Badesalz
2021-09-13, 15:26:07
Die Consumer-GPU hilft einfach dabei Scaling-Effekte mitzunehmen.
Und Forscher holen sich die Intel-Consumer-GPU, entwickeln Algorithem dafür und die laufen dann auch auf Ponte Vecchio.Das macht bei den heutigen Preisen imho keinen wirtschaftlichen Sinn, da man dafür schon einen ordentlichen Ausbau (Consumer) nehmen sollte.
Und das bedeutet nur 3x weniger wie für die HPC zu bezahlen. Das ist in diesem Umfeld zu unattraktiv. Da kann man auch gleich das 6400€ HPC-Modell nehmen. MAcht den Kohl sozusagen nicht wirklich fett.
DavChrFen
2021-09-13, 15:35:32
Naja, Unis haben, speziell wenn man noch keinen Dr hat, das Geld nicht so locker. Da könnte das mit der Consumer-HW schon Sinn machen.
mocad_tom
2021-09-13, 15:46:24
@smalM
https://en.wikipedia.org/wiki/Intel_XMM_modems
Intel XMM 7480 modem - TSMC - im iphone X / iphone 8
Intel XMM 7360 modem - TSMC - im iphone 7
Es ging mir darum, wie kommt Intel zu 5.2% Umsatzanteil von TSMC im Jahr 2019.
Da dürfte ziemlich das LTE-Modem im TSMC-Prozess reinwirken.
iphone X und iphone 8 wurden im Herbst 2017 vorgestellt und waren 2 Jahre gute Arbeitspferde im Apple Portfolio (die werden dann ja nicht sofort ausgephast).
Dann haben sie den H310-Chipsatz auch beim TSMC fertigen lassen.
https://www.extremetech.com/computing/276690-report-intel-will-outsource-chipset-production-to-tsmc
Aber durch den wechsel von 14nm auf 10nm und weil man jetzt mehr Volumen in 10nm als in 14nm fertigt sind mittlerweile 14nm Ressourcen über.
Man fertigt also nur noch leading edge bei TSMC und lagging edge bei sich in den eigene Fabs.
Und das 2021er Volumen bei TSMC kommt mit ziemlicher Sicherheit aus der Grafikchip-Fertigung.
smalM
2021-09-13, 16:11:02
@mocad_tom
Ab 2.Hj. 2019 wurden vielleicht noch 10-15% der Modems in einem iPhone bei TSMC hergestellt, aller anderen bei Intel selbst.
Du wirst Dir was anderes suchen müssen, womit Intel auf den kolportierten Wert gekommen sein soll…
mocad_tom
2021-09-13, 22:22:59
vllt noch einen Teil Mobileye. Mobileye hat sich geweigert das Portfolio in einen Intel Prozess rüber zu ziehen.
Ich denke die Umsatzzahlen die in dem Artikel genannt wurden sind realistisch.
Es sind ja auch Prozentwerte an den Jahresumsätzen der einzelnen Jahre. TSMC ist von 19 auf 20 und von 20 auf 21 massiv gewachsen.
Ich denke man kann mit einer großen Bestellung für die Intel GPU Abteilung rechnen.
Badesalz
2021-09-14, 09:33:24
Naja, Unis haben, speziell wenn man noch keinen Dr hat, das Geld nicht so locker. Da könnte das mit der Consumer-HW schon Sinn machen.Wer ist dann dieser "Forscher"? ;)
konkretor
2021-09-17, 15:41:10
https://www.phoronix.com/scan.php?page=news_item&px=Intel-DG1-Status-XDC2021
aufkrawall
2021-09-17, 15:46:34
Bis auf NEO für OpenCL, sind die GPU-Treiber von Intel für Linux wohl sehr unterschiedlich vs. Windows. Angeblich soll auch der Shader Compiler verschieden sein.
Gibt von Intel nur jeweils einen Linux-Treiber für OGL und Vulkan (also nicht so ein Gehampel wie von AMD, die unbedingt ihren AMDVLK-Treiber außerhalb Mesas am Leben erhalten wollen), beides komplett innerhalb von Mesa. NEO gibts einfach dazu zu installieren aus z.B. dem Arch-Repository. :up:
konkretor
2021-09-20, 07:58:27
https://wccftech.com/intel-arc-alchemist-gpus-tsmc-6nm-because-of-insufficient-manufacturing-capacity-at-intel-fabs-xess-backwards-compatibility-custom-graphics-cards
konkretor
2021-09-20, 10:17:17
https://videocardz.com/newz/intel-arc-alchemist-xe-hpg-custom-design-graphics-cards-already-planned
mocad_tom
2021-09-20, 14:21:01
Hört sich ja fast so an, als könne man auch ECC-Ram an den DG2-512-Chip dranlöten.
Das klingt natürlich sehr sehr fein.
konkretor
2021-09-27, 14:02:33
https://videocardz.com/newz/intel-arc-graphics-card-with-dg2-128-gpu-might-feature-6gb-memory-leaked-photo-suggests
Narolf
2021-09-27, 20:52:41
https://videocardz.com/newz/intel-arc-graphics-card-with-dg2-128-gpu-might-feature-6gb-memory-leaked-photo-suggests
DG2-128 mit 6GB und ~1650S Leistung. Wenn die Daten so stimmen und wenn es die Grafikkarte für <=150€ gibt und die Reviews keine großen Treiberprobleme aufzeigen, ist das Ding meins. *daumendrück*
Aber wahrscheinlich ist so ein Preis in diesem GPU-Markt bloß ein Fiebertraum meinerseits...
basix
2021-09-27, 21:24:34
Für Einsteiger und Mobile hört sich das definitiv attraktiv an. Verglichen zur 1650/Ti/S gibt es neben +2GByte Speicher noch Raytracing und XeSS obendrauf.
Ich finde es zudem interessant, dass Intel zwei Chips mit einer grossen Lücke zwischendrin hat.
DG2-384 mit 192bit wird vermutlich mehr als doppelt so schnell sein wie DG2-128 mit 96bit. DG2-512 ist für den "Hal(l)o"-Effekt: Hey, wir sind auch noch da. Und zudem spielen wir oben mit. DG2-128 ist für den Mobile und Entry Desktop-Markt gedacht. Vor allem im ersteren Markt kann man Nvidia damit empfindlich weh tun (CPU + GPU Bundles).
GTX 1650 und 1660 gehen gebraucht auf ebay für wahnwitzige Preise weg, solche Karten sind immer noch sehr gefragt. Wenn man Glück hat, bekommt man eine GTX 1650 neu für 300€. Die hat dann aber nicht den neuen Turing Encoder, die Super mit Turing Encoder ist deutlich begehrter.
150€ halte ich für utopisch. Eine 1650 Super mit 4GB GDDR6 lag zu den günstigsten Zeiten bei etwa 175€. Und selbst wenn, wird Intel gar nicht so viel liefern können. Ich hoffe sehr, dass der 128EU SoC HDMI 2.1 und AV1 encoding mitbringt.
Narolf
2021-09-28, 21:09:32
GTX 1650 und 1660 gehen gebraucht auf ebay für wahnwitzige Preise weg, solche Karten sind immer noch sehr gefragt. Wenn man Glück hat, bekommt man eine GTX 1650 neu für 300€. Die hat dann aber nicht den neuen Turing Encoder, die Super mit Turing Encoder ist deutlich begehrter.
150€ halte ich für utopisch. Eine 1650 Super mit 4GB GDDR6 lag zu den günstigsten Zeiten bei etwa 175€. Und selbst wenn, wird Intel gar nicht so viel liefern können.
Rein rational weiß ich das, aber andererseits will ich es noch nicht so recht wahr haben, dass all IHVs in Zukunft komplett auf den sub-300€ (geschweige denn den sub-200€) Markt scheißen. Vor allem Intel darf es zunächst eigentlich nicht um Profit gehen sondern in erster Linie um Marktanteile, damit die Spieleentwickler und auch alle anderen, die Grafik-APIs verwenden, gezwungen sind sicherzustellen, dass die Intel GPUs mit ihren Anwendungen ordentlich laufen.
Nach allem, was man so hört, hat sich der Launch von Arc in erster Linie verzögert, weil die Treiber wohl noch nicht so weit waren. Das heißt, Intel könnte theoretisch schon über mehrere Monate vorproduziert haben und es damit keine Lieferengpässe zum Marktstart geben. Klar könnten die Miner wieder alles wegkaufen, aber vielleicht baut Intel ja eine Art Miningsperre in den Treiber ein, denn aus Sicht des Marktanteils ist es keine Hilfe, alle Grafikkarten an die Miner zu verhökern. Ich würde es jedenfalls an Intels Stelle so machen.
Ich hoffe sehr, dass der 128EU SoC HDMI 2.1 und AV1 encoding mitbringt.
Keine Ahnung, wie es um HDMI 2.1 steht, aber zumindest AV1 encoding soll wohl drin sein. Ist auch einer der Gründe, warum ich an einer Intel-Grafikkarte interessiert bin. Intel war schon immer gut bei den Hardwareencodern und ich würde gerne meine DVD-Sammlung komplett auf eine externe HDD packen. Mit einem ordentlichen AV1-Encoder sollten da komplette Filme in 300MB ohne allzu große BQ-Verluste möglich sein.
Slipknot79
2021-09-29, 02:02:09
Intel-Grakas werden genauso hochballern mit den Preisen mangels Verfügbarkeit wie das bei NV und AMD gerade der Fall ist. Das wird definitiv so passieren, auch wenn Intel "genug" vorproduziert. Es wird schlicht Länge mal Breite nicht ausreichen um den Markt zu bedienen. Es braucht absolut niemand davon ausgehen, dass sich da mit Intel irgendwas zu UVP normalisieren wird, derartige Annahmen sind sofort abzuschminken. (y) Intel braucht nicht mal eine UVP nennen, oder kann spaßhalber 1EUR ansetzten. Die UVP wird sowas von keine Rolle spielen mit dieser Generation (y).
mboeller
2021-09-29, 09:40:00
ich dachte die Intel GPU werden bei TSMC gefertigt?
Die hängen doch dann auch mit drin bzgl. Lieferengpässen, oder?
robbitop
2021-09-29, 09:59:30
Intels XeHPG GPUs sind 6 nm TSMC. Die IGP (XeLP) und die DG1 (XeLP) sind jedoch Intel 10 nm.
Geldmann3
2021-10-02, 00:58:07
Intel Arc Q2 2022
https://i.ibb.co/bKcLymB/Intel-Arc.png (https://www.youtube.com/watch?v=Cr1tBFUjPBQ)
Quelle: Moore's Law Is Dead (https://www.youtube.com/watch?v=Cr1tBFUjPBQ)
konkretor
2021-10-06, 21:54:25
Hier auf Twitter gibts jemand der meint die Grakas kommen erst in Q2/2022
https://twitter.com/hms1193/status/1445738478910668812?s=20
davidzo
2021-10-07, 15:20:48
Hört sich ja fast so an, als könne man auch ECC-Ram an den DG2-512-Chip dranlöten.
Das klingt natürlich sehr sehr fein.
Lol, Raja ist der Frage schon ziemlich deutlich ausgewichen, so dass ich selbst videocards Spekulation dass wohl Profikarten kommen werden für reichlich übertrieben halte. Ich glaube nicht an Profikarten, selbst wenn Intels IGP Driver eigentlich was openGL und standards angeht mittlerweile recht gut sind.
Raja hat lediglich gesagt "Die karten können auch 3dsmax". Das deute ich vielmehr daraufhin dass man in Richtung professional CAD noch nichts unternommen hat, denn 3ds Max ist eben kein professional Cad, sondern ein Animationtool für schicke Renderings.
Mit der Aussage dass man keine profikarten der A-serie plant würde Raja aber potentielle Käufer abschrecken, die Aussage "wir können 3DSmax" bezieht sich aber genau so auf die Consumer-Karten, insofern ist das eine taktisch sehr kluge Antwort die noch alles offen lässt.
Intel Arc Q2 2022
https://i.ibb.co/bKcLymB/Intel-Arc.png (https://www.youtube.com/watch?v=Cr1tBFUjPBQ)
Quelle: Moore's Law Is Dead (https://www.youtube.com/watch?v=Cr1tBFUjPBQ)
Der Referenzkühler sieht imo ein wenig lieblos aus. Sicher, das ist ein robuster Finstack und mit Vapourchamber geht man in die Vollen. Aber die sonstigen Designentscheidungen sind armselig.
De-shrouding wird hier noch mehr bringen als das jetzt schon bei den meisten partnerkarten mit nvidia und AMDchips bringt.
- Die zwei Lüfter sind genau so auf dem Kühler verteilt, dass keiner davon durch den flow through Bereich des Heatsinks bläst. Dabei wäre dass der für die Kühlung effektivste Bereich.
- Wäre ja okay, wenn die Shroud wenigstens als eine art vorkammer dienen würde und der Lamellenbereich außerhalb der Lüfter dann durch den Luftdruck durchströmt wird. Dem ist abe rnicht so, die Shroud ist um den Lüfter herum zu einem Rahmen nach unten gezogen. Damit verschenkt Intel fast die Hälfte der Lamellenfläche des Kühlers.
- An der schmalen Seite, also dort wo das Intel-logo aus Plexiglas eingelassen ist, ist die Shroud nur durch schmale Fenster unterbrochen. Das behindert die Luft beim Ausströmen. Öffnet man das dort, sieht das zwar wohl nicht so gut aus, aber man kriegt 20-30% mehr Airflow for free und geringere Geräuschpegel.
- Die FPI sind sehr hoch, zumal die Lüfter nicht nach druckstarken high CFM Fans aussehen. Das ist unausgewogen und würde besser funktionieren wenn Intel einen etwas größeren Lamellenabstand gewählt hätte, also weniger Fins oder druckstärkere, aber dickere Lüfter. Siehe AMD RX6800 Stock Fan Design, das ist eine deutlich andere Balance aus druckstärkerem Lüfter und größerem Fin spacing.
- Die Lamellen sind über Geknickte Tabs aufeinander gestackt verbunden, die in drei geschlossenen Balken gute 10% der Front-Eintrittsfläche unter dem Lüfter blockieren. Das kennt man von Nvidia Kepler Generation karten und davor, aber nicht mehr aus der Ampere Gen oder AMDs RX Referenzdesigns. Bei gutem Heatsink Design versucht man diese tabs entweder komplett zu vermeiden (nvidia ampere einzeln gelöttete lamellen) oder wenigstens in einen bereich wie die Seitenflächen zu verlegen, wo der Lüfter kaum im Airflow begrenzt wird. Der mittlere Balken könnte auch eine etwas ungeschickt gestaltete Lüfterhalterung sein. Egal, kostet beides Airflow und Geräuschkulisse.
konkretor
2021-10-23, 14:41:58
Erste Preise sind durchgesickert
https://videocardz.com/newz/intel-xe-hpg-scavenger-hunt-suggests-premium-arc-alchemist-gpu-might-cost-around-800-usd
Fusion_Power
2021-10-23, 15:39:40
Erste Preise sind durchgesickert
https://videocardz.com/newz/intel-xe-hpg-scavenger-hunt-suggests-premium-arc-alchemist-gpu-might-cost-around-800-usd
Das wären dann ja genau solche Mondpreise wie bei der Konkurrenz auch. Also indiskutabel. Da hätte Intel einen Vorteil gehabt um direkt in den gierenden GPU Markt zu stechen und dann versauen sie es durch den Preis? Ich hoffe nicht.
aufkrawall
2021-10-23, 15:56:35
Und angeblich ja auch keine Mining-Bremse. (no)
dildo4u
2021-10-23, 16:01:56
Die Top Karte wird 16GB haben wäre damit 200$ billiger als eine 3070 Ti mit 8GB.
Was ein Wunder wäre AMD kann die 16GB Karten nicht mal in die Nähe der Nvidia Karte bringen.
Linmoum
2021-10-23, 16:51:05
UVP != Straßenpreis. Immer noch.
basix
2021-10-23, 17:40:14
Das wären dann ja genau solche Mondpreise wie bei der Konkurrenz auch. Also indiskutabel. Da hätte Intel einen Vorteil gehabt um direkt in den gierenden GPU Markt zu stechen und dann versauen sie es durch den Preis? Ich hoffe nicht.
Kommt auf die Performance an ;) Stimmen 800$, müsste sie auf ~3080 Level liegen.
Platos
2021-10-23, 18:52:58
Kommt auf die Performance an ;) Stimmen 800$, müsste sie auf ~3080 Level liegen.
Selbst dann wäre es immer noch ein schlechter Deal. 1. wie gut die Spieleunterstüzung ist, steht in den Sternen (und Treiber von Intel), 2. wäre das 100 mehr, wie eben ne 3080 (schlechte Strassenpreise rechtfertigen keine höheren Listenpreise) und 3. muss dann auch noch die Kühlung/Stromverbrauch usw. stimmen bzw. die Custommodelle werden sicherlich 50-100 nochmals oben drauf legen. Ach ja, und wenn die Grafikkarten kommen, ist Lovelace und RDNA3 vermutlich so ~9 Monate entfernt.
Also wäre man bei 900 und ich bezweifle, dass 3080 Perfomance drinn liegt. Aber mal sehen.
Also wenn das so kommt, dann wäre das schon traurig und ich hoffe, dass Intel dann gleich ein Schlag ins Gesicht bekommt.
basix
2021-10-23, 19:16:31
Naja, bei den 800$ wären noch 16 anstatt 10 GByte dabei, da dürfte Intel mehr verlangen. Und klar, Xe müsste dann auch wie Ampere abliefern.
Distroia
2021-10-23, 21:55:18
Die offiziellen Preise und die Verkaufspreise an die Großhändler sind wohl einfach näher an den Straßenpreisen. Hätten AMD und NVidia geahnt, wie schlimm die Chipkrise wird, hätten sie bestimmt auch die Preise höher angesetzt, anstatt den Händlern die Marge zu überlassen. Im Moment hat man eben als Kunde keine andere Wahl als Mondpreise zu zahlen. So kann Intel vielleicht sogar mit riesigen technologischem Rückstand mit ihren Grafikchips Gewinn machen.
Shink
2021-10-23, 22:30:12
Treiber mit weniger Optimierung als die Konkurrenz, nette Speicherausstattung und Speicherbandbreite, keine Mining-Sperre. Eine wunderbare Miningkarte und sonst nix?
Die günstigsten RTX 3070 fangen bei newegg um die 1000 USD an, bei einer kolportierten performance auf Höhe der RTX 3070 würden 800 USD schon passen. Das ist zwar teuer, nur gibt der Markt nicht viel mehr her. Selbst wenn Intel für 500€ verkaufen würde, könnten sie sowieso nicht genug liefern.
=Floi=
2021-10-24, 04:35:58
anstatt den Händlern die Marge zu überlassen.
Die müssten wie apple einfach eine warteliste machen. Man WILL einfach keinen normalen preise.
vinacis_vivids
2021-10-24, 08:50:50
5nm Technik, 16GB VRAM, 20 Tflop/s fp32 -> 1200-1300€ Straßenpreis (orientiert an die RX6800er)
Falls die Hashrate höher ist als die RX6800, wird der Preis sich nach oben weiter anpassen.
Apple verschenkt ja auch nicht die 5nm Technik.
Nvidia vekauft selbst 8GB zu überteuerten Preisen. Intel kann in Anbetracht der Konkurrenz mit guten Gewissen :freak: 16GB auch höhere Preise ausrufen, falls die Treiber gut laufen.
Shink
2021-10-24, 09:06:31
Intel kann in Anbetracht der Konkurrenz mit guten Gewissen :freak: 16GB auch höhere Preise ausrufen, falls die Treiber gut laufen.
Natürlich. Nur: Wie wahrscheinlich sind denn Treiber auf dem Level der Konkurrenz?
Für eine Karte, die vielleicht in ein paar Jahren konkurrenzfähige Treiber hat, wäre das ja wenig interessant für Gaming.
Die Preise kommen mir sehr selbstbewusst vor. Entweder ist das XGI 2.0 oder wir haben hier wirklich was am Start.
Loeschzwerg
2021-10-24, 10:24:22
Entweder ist das XGI 2.0
Gekauft!!!! Außer V3 findet man so gut wie keine Volaris mehr, die sind selten und extrem teuer. Wäre eine gute Wertanlage ^^
Shink
2021-10-24, 10:27:57
Ich könnte mir vorstellen, mit dieser Speicherbandbreite und dem Preis wird der Markt von Minern abgegrast.
Aber ja, ich sehe auch eher ein XGI 2.0 darin.
Loeschzwerg
2021-10-24, 10:32:31
Naja komm, bei der XGI Geschichte hat schlichtweg alles nicht gepasst. Da wurde geschummelt bis zum geht nicht mehr.
Bei Xe weiß man wenigstens dass die IGP und DG1 recht gut funktionieren. Ganz so schlimm kann es schon gar nicht werden.
Wenn ihr einen Vergleich ziehen wollt, dann vielleicht eher Matrox.
Slipknot79
2021-10-24, 11:07:42
Die Preise kommen mir sehr selbstbewusst vor.
Es ist ein Oligopol und es ist somit nichts andere zu erwarten. :cool: Selten, aber doch, macht sich dieser Umstand bemerkbar: Als Intel vor wenigen Jahren gezwungen war seine 1800EUR CPUs in den Preisen zu halbieren. Daran erkennt man wie stark man bei den Preisen von Herstellerseite verarscht wird. "Wozu um 900EUR anbieten -was für uns locker möglich wäre-, wenn die Sautrotteln von Kunden auch um 1800EUR zugreifen?"
Bei den aktuellen Straßenpreisen spielt das sogar erstmal keine Rolle, dazu sind zu viele Konsumopfer in da hood.
Einfach aussitzen bis 2024-2025, frühestens.
VooDoo7mx
2021-10-24, 11:20:51
Angebot und Nachfrage nennt man das.
Grafikkarten kommen (noch) nicht vom VEB Grafikkartenkombinat Ernst Thälmann mit staatlich festgeschribenen Preisen.
TheAntitheist
2021-10-24, 11:28:42
denn 3ds Max ist eben kein professional Cad, sondern ein Animationtool für schicke Renderings.
Ist natürlich quatsch, Max ist ein PROfessionelles CAD (computer aided design)DCC Programm... Und da es auch NURBS hat, kann es das was normale CADs auch grob können...
Platos
2021-10-24, 11:30:38
Angebot und Nachfrage nennt man das.
Grafikkarten kommen (noch) nicht vom VEB Grafikkartenkombinat Ernst Thälmann mit staatlich festgeschribenen Preisen.
Angebot und Vollpfosten sollte man das vlt. langsam nennen ^^
Aber ne freie Marktwirtschaft ist ja schon gut. Aber wenn man hört, dass nvidia z.B künstlich die Marktknappheit aufrecht erhalten soll, hat das nix mehr damit zu tun.
Und die Miner sind halt auch so ne Sache. Ohne Miner gäbe es nicht mal Ansatzweise eine solche Knappheit. wahrscheinlich gar keine.
davidzo
2021-10-24, 12:19:01
Ist natürlich quatsch, Max ist ein PROfessionelles CAD (computer aided design)DCC Programm... Und da es auch NURBS hat, kann es das was normale CADs auch grob können...
Nein, pro CAD ist es nicht, mit pro DCC triffst du es aber. Es ist ein polygon modeler und hat damit im konstruktions-workflow nichts zu suchen, sondern ist für Visualisierungen gedacht. Das kann man nach der Konstruktion oder parallel dazu machen, zum Beispiel fürs Marketing, Produktrenderings, Videos, aber für die Konstruktion des realen Produkts nimmt man das nicht.
3DS max hat ja nichtmal support für das most basic ISO Standard CAD Austauschformat STEP. Beim Import wird die Step Datei in ein Meshobjekt umgewandelt, export wird nichtmal angeboten. Ebenso fehlen CAM-Schnittstellen und alle Funktionen zur automatischen generierung von technischen zeichnungen und Bemaßungen die ein CAD-programm ausmachen.
Ich glaube du verstehst die "CAD" ein wenig zu wörtlich. Design hat im englischen zwei Bedeutungen und die ältere und wichtigere Bedeutung vergessen wir im Deutschen immer wieder:
1. "James Watt developed the design of the first steam engine." Damit ist nicht etwa die Ästhetik, sondern rein die Konstruktion gemeint. J.Watt = Engineer, nicht "Designer" im deutschen Sinne.
2. Grafikdesign-Agentur. Das ist wir wir Design im deutschen verwenden, rein für ästhetische, künstlerische Entwürfe.
Der Begriff CAD verwendet Design aber in seiner ersten Bedeutung.
However, it involves more than just shapes. As in the manual drafting of technical and engineering drawings, the output of CAD must convey information, such as materials, processes, dimensions, and tolerances, according to application-specific conventions.
https://en.wikipedia.org/wiki/Computer-aided_design
Btw, die 3dsmax Page auf Wikipedia is sehr lang und verwendet kein einziges mal den Begriff "CAD".
konkretor
2021-10-24, 13:23:32
auch ganz spanned
https://twitter.com/Locuza_/status/1452100799086141440?s=20
Ebenso von ihm auf seinem YT
https://youtu.be/kVEgyRmIMXk
TheAntitheist
2021-10-25, 12:11:51
Nein, pro CAD ist es nicht, mit pro DCC triffst du es aber. Es ist ein polygon modeler und hat damit im konstruktions-workflow nichts zu suchen, sondern ist für Visualisierungen gedacht. Das kann man nach der Konstruktion oder parallel dazu machen, zum Beispiel fürs Marketing, Produktrenderings, Videos, aber für die Konstruktion des realen Produkts nimmt man das nicht.
3DS max hat ja nichtmal support für das most basic ISO Standard CAD Austauschformat STEP. Beim Import wird die Step Datei in ein Meshobjekt umgewandelt, export wird nichtmal angeboten. Ebenso fehlen CAM-Schnittstellen und alle Funktionen zur automatischen generierung von technischen zeichnungen und Bemaßungen die ein CAD-programm ausmachen.
Ich glaube du verstehst die "CAD" ein wenig zu wörtlich. Design hat im englischen zwei Bedeutungen und die ältere und wichtigere Bedeutung vergessen wir im Deutschen immer wieder:
1. "James Watt developed the design of the first steam engine." Damit ist nicht etwa die Ästhetik, sondern rein die Konstruktion gemeint. J.Watt = Engineer, nicht "Designer" im deutschen Sinne.
2. Grafikdesign-Agentur. Das ist wir wir Design im deutschen verwenden, rein für ästhetische, künstlerische Entwürfe.
Der Begriff CAD verwendet Design aber in seiner ersten Bedeutung.
https://en.wikipedia.org/wiki/Computer-aided_design
Btw, die 3dsmax Page auf Wikipedia is sehr lang und verwendet kein einziges mal den Begriff "CAD".Für Technische Dinge gibt es CAM, Computer aided Manufacturing. Natürlich nennen die das Wort CAD nicht, weil sie dafür ein eigenes Programm haben. Und nein MAX ist NICHT nur ein Poly Modeler, so ein Quatsch, ich hab 15Jahre damit gearbeitet... NURBS war das erste feature in max und das ist alles nur kein poly modeling. https://de.wikipedia.org/wiki/Non-Uniform_Rational_B-Spline
Dort wird explizit erwähnt das NURBS in CAD verwendet wird. Es gibt extra CADs für die Herstellung, wo es auf exakte maße ankommt, DAS ist max nicht, dennoch hat es CAD features. Um etwas zu designen muss es nicht haargenau sein.
für dich hier die Definition: CAD (von engl. computer-aided design [kɔmˈpjuːtɐ ˈeɪdɪd dɪˈzaɪn], zu Deutsch rechnerunterstütztes Konstruieren[1][2]) bezeichnet die Unterstützung von konstruktiven Aufgaben mittels EDV zur Herstellung eines Produkts (Beispielsweise Auto, Flugzeug, Bauwerk, Kleidung).
Nach dieser Definition wäre auch Marvelous Designer ein CAD Programm.
Du denkst immer es gibt nur den letzten Schritt (die Produktion) um ein Produkt herzustellen, Aber es gibt auch die Design Phase und das wird eben nie in einem reinen CAD gemacht.
Wiki sagt auch: Welche Tätigkeiten unter den Begriff CAD fallen, wird in der Literatur verschieden behandelt. In einem engeren Sinn versteht man unter CAD das rechnerunterstützte Erzeugen und Ändern des geometrischen Modells. In einem weiteren Sinn versteht man darunter sämtliche rechnerunterstützten Tätigkeiten in einem Konstruktionsprozess, einschließlich der geometrischen Modellierung, des Berechnens, des Simulierens und sonstiger Informationsgewinnung und Informationsbereitstellung, von der Konzeptentwicklung bis zur Übergabe an die Herstellung bzw. Fertigung
also ist MAX, BLENDER etc eben ein CAD, nur eben nicht NUR ein CAM
Neurosphere
2021-10-25, 12:20:10
CAM ist was komplett anderes, bitte nicht mit CAD in einen Topf schmeißen.
Rein von der Thematik als jemand der sowohl mit CAD als auch CAM und sogar Designdaten arbeiten muss, bin ich voll bei davidzo. Ob Wiki was anderes sagt ist mir da aus der Arbeitswelt ziemlich egal.
robbitop
2021-10-25, 12:41:32
Sehe ich als Ingenieur auch so. :)
Wikis sind auch keine vernünftige Quellen - insbesondere für Sachgebiete nicht.
Hübie
2021-10-25, 23:45:05
Wir hatten striktes Wiki-Verbot und das war auch gut so. :D
B. Eng. ;-)
davidzo
2021-10-26, 11:10:37
Ich kann dem nur zustimmen obwohl ich selbst Produktdesigner bin. Allerdings arbeite ich mittlerweile viel technischer und produktionsnäher als die Komilitonen von der Kunsthochschule mit denen ich mal studiert habe. Ein Großteil der Arbeit ist einfach DFM geworden, weil ich es Leid bin dass es viele Produktentwürfe es sonst nicht über die Prototypenphase hinaus schaffen.
Immer wenn Leute zu mir kommen, mit einem sehr schicken rendering und dann behaupten sie wären "fertig" mit der "Produktentwicklung", jetzt müsse es "nur noch jemand bauen", fällt es mir schwer denen ehrlich zu sagen dass sie auf dem Weg zum Prototypen wenn es hoch kommt bei 1/10 sind.
Wenn man dann etwas genauer hinguckt muss man fast alles neu modellieren, weil Maße+ Toleranzen nicht stimmen, Die Flächen keine solids bilden, aus meshes bestehen, Draft Angle bei Kunststoffteilen fehlen, etc., nicht zu vergessen dass Mechaniken die im Rendering funktionieren in der Regel nicht auf Anhieb real funktionieren, sondern eher etliche Prototypen und Änderungen brauchen.
Mittlerweile schicke ich solche Leute lieber gleich Weg und sage sorry, ich setze nur Produkte um (DFM) bie denen ich auch das ästhetische Design mache :tongue: Das kann sonst leicht frustrierend für beide Seiten sein :wink:
Jetzt aber zu XE:
auch ganz spanned
https://twitter.com/Locuza_/status/1452100799086141440?s=20
Ebenso von ihm auf seinem YT
https://youtu.be/kVEgyRmIMXk
On paper it's a real monster.
8 Geo+Raster units with a pixel fillrate of 128 per clock.
Not even AMD's & NV's high-end chips are that wide.
4+128 on N21, 7+112 on GA102
XE ist also wirklich ein Biest was die Geometrieleistung angeht.
Das ist die einzige Auflösung wenn man davon ausgeht dass jedes der 8 Renderslices 1triangle/clock schafft, bzw. das doppelte beim culling, wie die anderen µarches auch. Ist das nicht ein bisschen overkill, oder könnte es sein dass Intels geometry engine nur 1triankel every 2 clocks schafft? Dann wäre es ehe rin line mit AMD+Nvidia.
Die Alu Rohleistung Fp32, FP16, Int8 liegt über NAVI22, aber ein gutes Stück hinter GA104. Wobei GA104s zweites Set an FP32 ALUs ja auch zu 50% im INt32 Modus läuft und daher nicht voll mitgezählt werden kann.
Btw, war es nicht so dass bei Intel der Int32 Throughput nur halb so hoch wie der fp32 throughput ist? Und da das dieselben Einheiten benutzt, werden dann nicht wie bei Ampere EUs geblockt die gerade Int-Operationen berechnen? Damit wäre die maximale FP32 Leistung also genau so theoretisch wie bei Ampere und in der Praxis also nicht gleichzeitig zum Int-throughput zu erreichen.
basix
2021-10-26, 14:07:30
Irgendwo meine ich gelesen zu haben, dass Xe-IPC auf Niveau Vega liegen soll. Weiss nicht, ob das anhand der iGPUs eruiert wurde. Ist HPG von der Architektur her immer noch das selbe wie Xe bei Tigerlake und/oder Alderlake?
Das bezieht sich auf Xe LP, hier nimmt man Xe LP und Vega 8 bei den iGPUs als Vergleich. Xe HPG hat diverse Verbesserungen und Erweiterungen wie Raytracing oder Mesh Shading und einen viel größeren Cache. Durch Architektur und Prozess Verbesserungen soll die perf/w um 50% gegenüber Xe LP bei gleichem Takt steigen.
basix
2021-10-27, 18:01:34
OK, somit nicht dasselbe und somit könnte die IPC höher sein.
Ich sehe gerade irgendwie nicht ein, wie man bei diesen Leistungsdaten nicht auf 3070 Niveau rauskommen sollte.
- Bei 2.2 GHz hat DG2-512 18 TFLOPs --> 6700 XT +35%
- RDNA2 hat laut CB ~RDNA1 IPC --> Vega +28%
Also, mit Vega IPC sollte man ziemlich genau zwischen 6700 XT und 3070 landen.
Bei Vega IPC ist der Treiber ja eigentlich schon mit eingerechnet (Vega 8 vs. Xe LP Benchmarks). Ist die IPC höher und/oder der Treiber besser, könnte DG2-512 auch schneller sein.
Raytracing-Performance und XeSS werden Wundertüten. Bei Raster-Performance habe ich momentan aber ein relativ positives Bild.
Locuza
2021-10-28, 23:33:58
auch ganz spanned
https://twitter.com/Locuza_/status/1452100799086141440?s=20
Ebenso von ihm auf seinem YT
https://youtu.be/kVEgyRmIMXk
"Content Creation" ist eine sportliche Sache, wie ich persönlich in den letzten 2 Jahren feststellen musste.
Es gibt soviele News und Themen, Fragen und Antworten, um die man sich kümmern kann und die Lebenszeit reicht einfach nicht für alles.
Ich hätte ansonsten schon ein paar Zusammenfassungen geschrieben oder eine deutsche Variante erstellt.
Für technisch interessierte ist es wohl allgemein interessant ein bisschen über die Geschichte zu lernen und zu sehen wie AMD, Intel und Nvidia zumindest grob ihre GPUs aufbauen und skalieren.
Letztendlich endet man bei dieser theoretischen Tabelle, die zugegebenermaßen auf vielen Vermutungen bei Intel basiert:
https://abload.de/img/dg2-finaler-durchsatzqij7r.jpg
Durchsatz pro Takt pro High-Level-Modul (Render Slice, Shader Engine oder Graphics Processing Cluster):
https://abload.de/img/dg2-shader-engine83k8b.jpg
Durchsatz pro Takt für den ganzen DG2-, N22- oder GA104-Chip:
https://abload.de/img/dg2-ganzer-chipwajbb.jpg
____
Noch einmal nachgeschaut, 3DCenter hatte ja schon sehr früh einen Vergleich dazu aufgestellt:
https://www.3dcenter.org/news/intel-stellt-das-alchemist-grafikchip-design-der-xe-hpg-architektur-vor
XE ist also wirklich ein Biest was die Geometrieleistung angeht.
Das ist die einzige Auflösung wenn man davon ausgeht dass jedes der 8 Renderslices 1triangle/clock schafft, bzw. das doppelte beim culling, wie die anderen µarches auch. Ist das nicht ein bisschen overkill, oder könnte es sein dass Intels geometry engine nur 1triankel every 2 clocks schafft? Dann wäre es ehe rin line mit AMD+Nvidia.
Die Alu Rohleistung Fp32, FP16, Int8 liegt über NAVI22, aber ein gutes Stück hinter GA104. Wobei GA104s zweites Set an FP32 ALUs ja auch zu 50% im INt32 Modus läuft und daher nicht voll mitgezählt werden kann.
Btw, war es nicht so dass bei Intel der Int32 Throughput nur halb so hoch wie der fp32 throughput ist? Und da das dieselben Einheiten benutzt, werden dann nicht wie bei Ampere EUs geblockt die gerade Int-Operationen berechnen? Damit wäre die maximale FP32 Leistung also genau so theoretisch wie bei Ampere und in der Praxis also nicht gleichzeitig zum Int-throughput zu erreichen.
Ich vermute Xe HPG setzt auf die vorherige IP auf und allgemein ergibt sich dann ein "stimmiges" Bild, denn nicht nur der Geometriedurchsatz fällt mächtig aus, auch die Pixelfüllrate und der Texeldurchsatz.
Sowie ich es sehe, liegt man nur bei der FP32-Leistung gegenüber GA104 zurück.
FP16 läuft bei Ampere nicht schneller als FP32*, und INT8, so vermute ich es, wird nur von der SIMD-Einheit mit FP- und INT-Execution-Units unterstützt.
* Sofern die Ausführungen von Anandtech stimmen, laufen auch Non-Matrix BF16/FP16-Berechnungen über die Matrix-Einheiten, man könnte also FP32 auf den Shader-Cores und BF16/FP16 auf den Matrix-Einheiten gleichzeitig laufen lassen.
Spannende Frage, ob Intel das genau so lösen wird, völlig geraten denke ich nicht und das es bei den bisherigen SIMD-Units bleibt.
INT32-Durchsatz sieht nach half-rate bei Intels Gen12.1 aus, bei Gen11 war es sogar 1/4 (bei Gen9 war 1/2, wie bei Gen12.1).
Es könnte sein das Intel keine MAD-Pipes bei Integer-Operationen verwendet, sondern separate ADD und MUL pipes.
Bei AMD ist der Durchsatz noch viel schlechter, iirc läuft FMA&MUL @FP64-Rate, was bei den meisten GPUs 1/16 bedeutet.
Aktuelle Intel- und AMD-GPUs haben INT- und FP-Execution-Units am selben Issue-Port hängen.
Das läuft wie bei Amperes Mixed-SIMD-Einheit ab.
Entweder wird in einem Zyklus eine INT-Berechnung kalkuliert oder FP.
Es war Turing, der soweit ich weiß, separate INT-Einheiten angeboten hat, womit INT- und FP-Berechnungen unabhängig voneinander waren.
Ampere geht dann im Prinzip einen halben Schritt zurück und verbaut wieder eine Mixed FP/INT-SIMD-Einheit, wobei eine reine FP-SIMD-Einheit noch bleibt.
Xe HP hat laut Linux-Patches separate INT Pipes (vllt nur INT64) an einem anderen Issue-Port.
Ob Xe HPG INT-Pipes an einen eigenen Issue-Port bekommt ist soweit ich es gesehen habe noch nicht ersichtlich, ich tendiere aktuell aber zu nein.
https://www.coelacanth-dream.com/posts/2021/07/02/intel-xe_hp-dg2-linux-kernel-patch/
___
Die Vermutungen die ich aufgestellt habe, könnten teilweise falsch sein, aber selbst wenn sie richtig sind, stellt sich natürlich viel eher die Frage nach der praktischen Leistung und auch perf/mm².
Denn wie man bei N22 vs. GA104 sieht, haben die theoretischen Werte nicht soviel mit der Praxisleistung unter den meisten Games gemeinsam.
Irgendwo meine ich gelesen zu haben, dass Xe-IPC auf Niveau Vega liegen soll. Weiss nicht, ob das anhand der iGPUs eruiert wurde. Ist HPG von der Architektur her immer noch das selbe wie Xe bei Tigerlake und/oder Alderlake?
Xe LP bei Tiger Lake = Gen12.1
Xe LP bei Alder Lake = Gen12.2
Xe HP = Gen12.5
Xe HPG = Gen12.55
Im Vergleich zu Gen12.1 bei TGL/RKL bietet DG2 Matrix-Engines an, Support für Mesh Shaders, Ray Tracing und VRS Tier 2.
Xe LP hat schon VRS Tier 1 und Sampler Feedback Tier 0.9 unterstützt.
Es gibt auch ein paar Details zu Xe-Core-Verbesserungen.
Der Instruction-Cache wächst von 48KB auf 96KB an und es wird ein Thread mehr unterstützt, statt 7 werden es 8 sein.
Thread = Wavefront/Warp bei AMD/Nvidia, was Team Rot und Grün "Threads" nennen, heißt bei Intel Kernel Instance.
https://www.coelacanth-dream.com/posts/2021/09/16/intel-xe_hpg-icache
Neben einem 8-Thread-Modus wird Intel auch einen neuen 4-Thread-Modus anbieten, also bei Code wo Latency-Hiding nicht wichtig ist, stehen jedem Thread dann doppelt soviele Register zur Verfügung.
Edit:
Keine GPU im praktischem Sinne, aber Xe HP scheint laut dem Kommentar von Raja Koduri "tot" für den Markt zu sein:
We deployed Xe HP in our oneAPI devcloud and leveraged it as a SW development vehicle for oneAPI and Aurora. We currently don’t intend to productize Xe HP commercially, it evolved into HPG and HPC that are on general market production path
https://twitter.com/Rajaontheedge/status/1453808598283210752
davidzo
2021-10-29, 00:20:28
Das bezieht sich auf Xe LP, hier nimmt man Xe LP und Vega 8 bei den iGPUs als Vergleich. Xe HPG hat diverse Verbesserungen und Erweiterungen wie Raytracing oder Mesh Shading und einen viel größeren Cache. Durch Architektur und Prozess Verbesserungen soll die perf/w um 50% gegenüber Xe LP bei gleichem Takt steigen.
Das mit angeblich 50% mehr IPC höre ich zum ersten mal und will ich mal stark bezweifeln. EDIT: Lese gerade perf/watt. Ja das mag stimmen, wenn man 50% mehr Takt bei gleichem Verbrauch erziehlt. Ein großer Teil daran macht ja schon die bessere Fertigung bei TSMC aus, die gegenüber Intels 10nm einfach weniger Voltage benötigt.
Es ist eher schon eine Leistung wenn die Architektur überhaupt mit so viel mehr Einheiten skaliert, als dass man dabei sogar noch die IPC steigert. Das unterstützte Featurelevel hat nichts mit der IPC zutun.
Der L2 Cache hat sich auf die EU Anzahl bezogen auch nicht vergrößert mit 16mb/512EU. XeLP hatte ja schon 3,5Mb mit nur 96EU. Der L1 Cache pro Subslice scheint aber wie Locuza sagt gewachsen zu sein.
Also, mit Vega IPC sollte man ziemlich genau zwischen 6700 XT und 3070 landen.
Genau so hatte ich es auch überschlagen. Xe-LP IPC + Mehrtakt reichen schon aus um die anvisierte 3070 zu erreichen.
Das Bandbreitenverhältnis ist auch nahezu identisch wie bei Xe-Max (35gflop/s pro Gb/s).
"Content Creation" ist eine sportliche Sache, wie ich persönlich in den letzten 2 Jahren feststellen musste.
Appreciated! :up:
Edit:
Keine GPU im praktischem Sinne, aber Xe HP scheint laut dem Kommentar von Raja Koduri "tot" für den Markt zu sein:
https://twitter.com/Rajaontheedge/status/1453808598283210752
Krass, das ist völlig an mir vorbei gegangen. Das ist doch ne dicke News! Letztes Jahr hat Raja doch noch stolz die 1Tile, 2Tile und 4Tile Packages in die Kamera gehalten!
So macht die Aussage von Gelsinger dass man "nicht mehr im Rampenlicht stehen möchte" plötzlich Sinn. Man hat schon wieder die Server-GPU eingestellt.
Nun bleibt nur noch PV, was zwar weniger EUs hat, aber dafür Fabric und offchip Bandbreite ohne Ende. Das sieht allerdings höllisch aufwändig aus und und wird sicher teuer. Sieht nicht so aus als wenn man damit andere Kunden abseits von Aurora begeistern kann.
Ich kann mir eigentlich nur einen grund vorstellen wieso man PV vorzieht vor XE-HP, der ja auch eine frühere time to market gehabt hätte:
- Process availability bzw. yield. Womöglich braucht man die Kapazitäten für Alderlake und SR. Womöglich auch nicht so tolle yields und noch viele silicon fixes nötig. Einen super big Chip (bzw. quadrupel big chip) der stark verzögert ist hat man mit SR ja schon. Das reicht wohl erstmal. PV hat viel kleinere DIEs als die HP Tiles und die Hälfte davon kommt nichtmal von Intel.
Locuza
2021-10-29, 01:27:03
[...]
Der L2 Cache hat sich auf die EU Anzahl bezogen auch nicht vergrößert mit 16mb/512EU. XeLP hatte ja schon 3,5Mb mit nur 96EU. Der L1 Cache pro Subslice scheint aber wie Locuza sagt gewachsen zu sein.
Genauer gesagt hat Xe LP mit 96 EUs bei Tiger Lake 3,840KB bzw. 3,75MB lokalen L3$.
DG1 mit ebenfalls 96 EUs sogar 16MB, wie das Topmodell DG2-512.
Gegenüber der 3070 bietet Intel mehr Rohbandbreite (+14%), 512GB/s vs. 448GB/s, und einen vierfach so großen L2$, 16MiB vs. 4MiB.
Natürlich kommt es dann darauf an wie die restliche Cache-Struktur aussieht und wie effizient Intels 3D-Pipeline mit der Bandbreite umgeht und ob es Verbesserungen gegenüber vorher gibt.
Der Instruction-Cache wurde von 48KB auf 96KB verdoppelt, wie es um den L1D$ und Scratchpad-Memory bestellt ist, weiß ich dagegen nicht.
Anandtech hat geschrieben das der L1$ 64KB groß ist und Intels Dokumentationen listen 768KB für den Shared Local Memory (SLM) (128KB pro Subslice), Seite 3:
https://01.org/sites/default/files/documentation/intel-gfx-prm-osrc-dg1-vol04-configurations.pdf
Bei Xe HPC ist es eine programmierbare Storage-Struktur, wohl ähnlich wie sie Nvidia seit Volta hat.
512KB stehen bereit, die als automatisierter L1$ und programmierbarer Speicher zur Verfügung stehen.
Möglicherweise ist das schon seit Gen12.1 so.
Ich denke einige gehen davon aus, dass Intel bei TGL 64KB für den L1$ und 64KB für den SLM verwendet, man könnte es aber auch als 192KB Struktur interpretieren, 64KB für den L1$ und 128KB für den SLM.
Das wäre dann ähnlich zu Nvidias Turing, mit einem etwas anderem Splitt, welcher praktisch 192KB (2x96KB) für 128 "Shader Cores" verwendet hat.
AMD verwendet 128KB für den SLM und 2x16KB für den L1/Tex$, Letzteres ist mickrig und RDNA3 wird sicherlich das Memory-Subystem umbauen.
Krass, das ist völlig an mir vorbei gegangen. Das ist doch ne dicke News!
Das es an dir vorbei gegangen ist, ist gar nicht so krass, denn Raja hat es erst vor kurzem auf Twitter gepostet. :D
Da Intel noch relativ fleißig Linux Patches für Xe HP eingepflegt hat, dachte ich eigentlich bis vor kurzem das kommt dann irgendwann.
Die Ruhe um HP war dann aber auffällig, nachdem jetzt auch beim neuestem Event nichts dazu berichtet wurde bzw. auch nichts auf der Hot Chips zuvor.
Für 10nm ESF, was nun Intel 7 heißt, hätte ich mittlerweile anständige yields erwartet.
Aber nun gut, was ist schon eine Leiche mehr oder weniger bei Intel. :redface:
Loeschzwerg
2021-10-30, 09:50:39
Neue Infos und Bilder zur Alchemist Serie:
https://videocardz.com/newz/intel-arc-alchemist-flagship-desktop-graphics-card-has-been-pictured
https://cdn.videocardz.com/1/2021/10/Intel-Arc-Alchemist-DG2-128EU-Reference-Card--768x543.jpg
https://cdn.videocardz.com/1/2021/10/Intel-Arc-Alchemist-DG2-512EU-Reference-Card-768x404.jpg
https://cdn.videocardz.com/1/2021/10/Intel-Arc-Alchemist-DG2-512EU-Reference-Card-back-768x404.jpg
davidzo
2021-10-30, 12:47:45
DG1 mit ebenfalls 96 EUs sogar 16MB, wie das Topmodell DG2-512.
War mir bisher nicht aufgefallen, da DG1 trotzdem deutlich hinter GT1030 bzw. Vega8 liegt. Dabei ist das SI mit 68gb/s lpddr4x viel besser als die rund 50gb/s auf die eine GT1030 oder eine Vega8 kommen.
Gegenüber der 3070 bietet Intel mehr Rohbandbreite (+14%), 512GB/s vs. 448GB/s, und einen vierfach so großen L2$, 16MiB vs. 4MiB.
Natürlich kommt es dann darauf an wie die restliche Cache-Struktur aussieht und wie effizient Intels 3D-Pipeline mit der Bandbreite umgeht und ob es Verbesserungen gegenüber vorher gibt.
Das rohe Bandbreite nicht alles ist sieht man ja an Ampere vs navi2x. Oder an der 3070 vs 3070ti.
Bisher ist Gen12 als nicht sehr bandbreitenschonend bekannt, trotz der großen caches.
Mal sehen wie Intel das löst. Das ist noch ein Riesenproblem, denn den Hardwaresupport für ASTC hat man auch fallen lassen, was nicht grade gut für die Bandbreite sein sollte: https://www.phoronix.com/scan.php?page=news_item&px=Intel-Gen12.5-No-ASTC
Für 10nm ESF, was nun Intel 7 heißt, hätte ich mittlerweile anständige yields erwartet.
Aber nun gut, was ist schon eine Leiche mehr oder weniger bei Intel. :redface:
Jo, ich kann mir das eigentlich nur als firmenpolitische Entscheidung vorstellen. Intel hat schließlich auch mit der Chipknappheit zu kämpfen, die Lieferprobleme von 14nm gingen bis 2020 und die von 10SF/ESF dauern bis heute an.
Damit ist klar dass man da bei der aktuellen kompetitiven Marktsituation ein paar Big Chip Projekte streichen oder sehr lange hinauszögern musste. Alderlake und Sapphire Rapids haben sich da einfach durchgesetzt.
Immerhin kann man mit SR und PV schon den Aurora Supercomputer realisieren, auch wenn man ohne XE-HP nun erstmal bei den hyperscalern zurückstecken muss. Facebook wird ziemlich sauer sein dass man sie bei der gemeinsamen bfloat16 Strategie so im Regen stehen lässt. Cooper Lake war ja auch ein schlechter Witz, Knights Mill ist gecancelt und Icelake unterstützt nichtmal bfloat16. Vermutlich ist Facebook schon nach dem cooperlake fiasko zu Nvidia oder AMD gewechselt - weiß da irgendjemand was zu? - Das würde jedenfalls erklären wieso man XE-HP einstellt - wenn der größte Kunde wegbricht. Global Foundries lässt grüßen.
Die Entscheidung Arctic sound zu canceln macht auch technisch Sinn:
PV Erreicht bereits jetzt mit 45Tflops einen höheren Durchsatz als die 42Tflops der 4-Tile Variante. Und PV hat full rate FP64, Xe-HP nur 1:4.
Bei den Arctic Sound 2T Karten die man anscheinend an Partner und developer ausgeliefert hat sind 960EUs aktiv, für ca. 2x 13,8 FP32 Tflops bei 300Watt.
Das wär kompetitiv mit Mi-100 gewesen wenn man Ende 2020 gelauncht wäre.
Wo sind eigentlich die Leaks dazu, wenn Intel angeblich Karten an Developer geliefert hat? Wo sind die indischen Twitterer mit unscharfen Handyfotos der BFGPU?:biggrin:
Außer Igors renderings war da ja bisher nichts.
Es gibt Schätzungen anhand des packages dass 1Tile arctic sound 400-500mm2 groß sind, vergleichbar mit SR Tiles. Techpowerup geht aber von 190mm2 / 8Mrd pro Tile aus, was imo ziemlich unmöglich klingt in Anbetracht dass DG1 mit einem fünftel der EUs schon auf ca. den halben Flächenbedarf in 10SF kommt.
400mm2 sind deutlich realistischer, denn selbst DG2 HPG in TSMC N6 hat bei vergleichbarem EU count mit einem Tile ja diese Größe.
Von der Technik her sah ACS ja eher aus wie Aldebaran: Fettes MCM mit fetten Chips + HBM2e.
PV ist dagegen von der Fertigungsstrategie imo weit vor CDNA2, ist von der Leistung her aber auch nur im Aldebaran Territorium.
PV kommt auf 16x41mm2 Tiles, also 656mm2 in TSMCs N5.
ATS wären bei der 400mm Schätzung ganze 1600mm2 in 10SF geworden. Das frisst halt enorm in die Fertigungskapazitäten für Alderlake und SR.
Und wenn ich mir das Debakel mit SR so anschaue, der mittlerweile im C2 stepping noch nicht gut läuft, dann ist der yield bei 10ESF / Intel7 mit so großen DIEs wohl nicht optimal.
Ziemlich peinlich, da man noch in der letzten Generation (Cascadelake-SP) 700mm2 monolitische Dies geschafft hat.
Ich denke XE-HP ist genau wie CDNA1 einfach am Markt vorbei entwickelt worden. Für HPC wäre fullrate 64bit am besten und die AI/ML Leute interessieren sich eher für reduced precision und tensor cores a la tf32, bfloat16, int8, int4. Als FP32 GPUs sind beide am Bedarf des Markts vorbeientwickelt worden.
Neue Infos und Bilder zur Alchemist Serie:
https://videocardz.com/newz/intel-arc-alchemist-flagship-desktop-graphics-card-has-been-pictured
https://cdn.videocardz.com/1/2021/10/Intel-Arc-Alchemist-DG2-128EU-Reference-Card--768x543.jpg
Das Singlefan Design sieht nicht nach einem originalrendering aus, sondern eher Fan-Art. Die Slotblende ist nicht korrekt und die Lüfterhaube wirkt sehr anders geformt als auf den DG2-512 Fotos.
Die sind ja auch nicht Original. Die Renderbilder fertigt er selber auf Basis echter Fotos an, um seine Quelle zu schützen. In einen seiner Videos hat er das näher erklärt.
Sehr interessante Karte, weder AMD noch Nvidia bieten aktuelle low end Karten an, alles nur ältere Architektur und ältere Fertigung. So eine 75W Karte auf Niveau einer 1650 Super Karte wäre sehr beliebt bei OEMs, vielleicht sollte Intel zuerst die kleinere Karte in den Markt bringen.
Ich wäre daran auch interessiert wegen Intels Media Encoder.
mczak
2021-11-01, 17:36:42
Bisher ist Gen12 als nicht sehr bandbreitenschonend bekannt, trotz der großen caches.
Mal sehen wie Intel das löst. Das ist noch ein Riesenproblem, denn den Hardwaresupport für ASTC hat man auch fallen lassen, was nicht grade gut für die Bandbreite sein sollte: https://www.phoronix.com/scan.php?page=news_item&px=Intel-Gen12.5-No-ASTC
ASTC können nvidia und amd auch nicht, das liegt wohl am angepeilten Markt. Tendenziell baut man das bloss in Mobile-Chips (also für Smartphone und ähnliches) ein, ansonsten orientiert man sich da offenbar eher am D3D Featureset und da gibt's halt kein ASTC.
Intel kann immerhin noch ETC, das konnte AMD bloss bei Vega 10 und ein paar APUs (Stoney Ridge, Raven Ridge). Auch nvidia unterstützt sowohl ETC wie auch ASTC bloss bei den ARM-SoCs (ist ja verpflichtendes Feature von GLES, wird halt ansonsten emuliert). Gerade ASTC ist ja relativ komplex und da hat man wohl entschieden dass es die Transistoren einfach nicht wert ist.
davidzo
2021-11-08, 14:32:08
Intels Treiberoffensive ist anscheinend voll in Gange. ;D
Da wird es double-digit Fortschritte geben wenn die finalen XE-Gaming Treiber erstmal gelauncht werden!!einseinself!
Dafür sorgt Intel schon damit dass man die alten IGPs absichtlich obsolet werden lässt :freak:
applications based on DirectX 12 no longer work on 4th generation Intel graphics
https://www.intel.com/content/www/us/en/support/articles/000057520/graphics/graphics-for-4th-generation-intel-processors.html
*me_holt_:popcorn:_bevor_die_Fanboys_auftauchen_und_sich_rechtfertigen*
ASTC können nvidia und amd auch nicht, das liegt wohl am angepeilten Markt. Tendenziell baut man das bloss in Mobile-Chips (also für Smartphone und ähnliches) ein, ansonsten orientiert man sich da offenbar eher am D3D Featureset und da gibt's halt kein ASTC.
Intel kann immerhin noch ETC, das konnte AMD bloss bei Vega 10 und ein paar APUs (Stoney Ridge, Raven Ridge). Auch nvidia unterstützt sowohl ETC wie auch ASTC bloss bei den ARM-SoCs (ist ja verpflichtendes Feature von GLES, wird halt ansonsten emuliert). Gerade ASTC ist ja relativ komplex und da hat man wohl entschieden dass es die Transistoren einfach nicht wert ist.
Jo, aber wie gesagt verändert sich das Bandbreitenverhältnis und Cachesystem nicht und das obwohl das Design viel breiter ist und bisherige XE chips eher ein bandbreitenlimit hatten. Das ist schon noch ein problem, welches architekturell irgendwie adressiert werden muss, sonst skaliert das nicht gut. Irgendeine secret sauce kann man da schon erwarten.
aufkrawall
2021-11-08, 14:33:59
lol, classic Intel. ;D
mocad_tom
2021-11-29, 22:18:05
ich hätte so gerne eine intel gpu unterm weihnachtsbaum gehabt.
https://threadreaderapp.com/thread/1464913499130368007.html
aber der release rückt näher
Intels Treiberoffensive ist anscheinend voll in Gange. ;D
Da wird es double-digit Fortschritte geben wenn die finalen XE-Gaming Treiber erstmal gelauncht werden!!einseinself!
Dafür sorgt Intel schon damit dass man die alten IGPs absichtlich obsolet werden lässt :freak:
https://www.intel.com/content/www/us/en/support/articles/000057520/graphics/graphics-for-4th-generation-intel-processors.html
*me_holt_:popcorn:_bevor_die_Fanboys_auftauchen_und_sich_rechtfertigen*
Kein DX12 auf einer aktuellen und hochmodernen Gen7.5 aus dem Jahr 2013, ja das ist bedauerlich. Damit sind die ganzen DX12 Blockbuster nicht mehr mit 5 fps spielbar, wie schlimm. DX12 ist schon mit einer deutlich schnelleren Gen9 fragwürdig bzw. läuft der meist optionale DX11 Modus ohnehin besser bei schwachen GPUs. Also keine Sorge, die Gen7 ist auch so schon obsolet was DX12 anbelangt bzw. auch generell.
davidzo
2021-11-30, 13:11:13
Kein DX12 auf einer aktuellen und hochmodernen Gen7.5 aus dem Jahr 2013, ja das ist bedauerlich. Damit sind die ganzen DX12 Blockbuster nicht mehr mit 5 fps spielbar, wie schlimm. DX12 ist schon mit einer deutlich schnelleren Gen9 fragwürdig bzw. läuft der meist optionale DX11 Modus ohnehin besser bei schwachen GPUs. Also keine Sorge, die Gen7 ist auch so schon obsolet was DX12 anbelangt bzw. auch generell.
Da hat man vielleicht kein Gespür für wenn man nur Desktop-IPGs kennt, aber die Iris pro 5200 war Intels GPU Flaggschiff ohne Kompromisse und war in 3000€ Geräten verbaut. Mit Skylake hat man den edram gekürzt und schließlich irgendwann ganz fallen gelassen. So kompromisslos waren nur die Haswell und Broadwell Iris pro. Da ist das schon ärgerlich wenn nachträglich Features deaktiviert werden und Anwendungen dann nichtmal mehr starten, das betrifft halt nicht nur Spiele.
Die GT3e mit 40EU und 128mb EDRAM ist durchaus in einigen Benchmarks auf Icelake G7 Niveau und woanders bremsen mal wieder die miesen Treiber. Die aktuelle Alderlake/Rocketlake Spar-IGP kommt da nur über schnellere CPU und Speicher halbwegs mit.
mocad_tom
2021-12-10, 15:26:30
Wann werdet ihr Intel Arc kaufen?
https://youtu.be/0dC6dz9CxYc
Blediator16
2021-12-10, 16:08:45
Wenn die was zum minen taugen, wird keiner eine Karte bekommen. Es wird nicht um das Wollen gehen, sondern um das Können :D
aufkrawall
2021-12-10, 16:37:24
Wann werdet ihr Intel Arc kaufen?
https://youtu.be/0dC6dz9CxYc
Ernst gemeinte Frage? Tag 1 oder gar nicht.
Tag 1. Das werden Sammlerstücke, komme was wolle. :D
MfG
Raff
-/\-CruNcher-/\-
2021-12-10, 17:00:17
Exact allerdings wird schon interessant wenn es absolut keine Pre Windows 10 treiber geben sollte.
Windows 7? Literally over 9000 years old. Wenn der Treiber natürlich nur DX12 unterstützt, wäre das etwas eklig (aber schön einfach für Intels Software-Team). ;) Unwahrscheinlich und der Einstieg bei einem Betriebssystem von 2015 ist in Ordnung.
MfG
Raff
sChRaNzA
2021-12-10, 17:27:04
Tag 1. Das werden Sammlerstücke, komme was wolle. :D
MfG
Raff
Aber echt... Diesmal behalte ich die auch. Nicht wie damals meine GeForce FX 5800 Ultra (FE). :redface:
Fusion_Power
2021-12-10, 18:10:08
Exact allerdings wird schon interessant wenn es absolut keine Pre Windows 10 treiber geben sollte.
Wenn das so die Treiber besser macht, kein Problem. Aber die Intel Grafikkarten werden mit der Qualität und Unterstützung der Treiber stehen und fallen. Und da sind AMD und Nvidia Lichtjahre voraus.
Da hat man vielleicht kein Gespür für wenn man nur Desktop-IPGs kennt, aber die Iris pro 5200 war Intels GPU Flaggschiff ohne Kompromisse und war in 3000€ Geräten verbaut.
Iris Pro 5200 40EU vs Intel Iris Xe 96EU: https://youtu.be/0blRylM0vgc
Da ist das schon ärgerlich wenn nachträglich Features deaktiviert werden und Anwendungen dann nichtmal mehr starten, das betrifft halt nicht nur Spiele.
Falls es tatsächlich noch user gibt, die auf DX12 angewiesen sind und Haswell besitzen: Keiner zwingt sie dazu den Treiber zu installieren.
Die GT3e mit 40EU und 128mb EDRAM ist durchaus in einigen Benchmarks auf Icelake G7 Niveau und woanders bremsen mal wieder die miesen Treiber.
Das glaube ich nicht, siehe oben. Die Iris Pro konnte damals schon ihre Rohleistung gegenüber der GT2 nur bescheiden umsetzen. Iris Xe G7 ist gut doppelt so schnell wie Icelake G7. Oben in dem Video sehe ich meistens einen Faktor 3-4 Abstand. Broadwell GT4e vielleicht.
Slipknot79
2021-12-10, 22:27:08
Wann werdet ihr Intel Arc kaufen?
https://youtu.be/0dC6dz9CxYc
Gar nicht, es sind keine +100% Leistung auf meine 2080Ti zu erwarten. (y)
Loeschzwerg
2021-12-10, 22:30:58
Wann werdet ihr Intel Arc kaufen?
https://youtu.be/0dC6dz9CxYc
ASAP =) For science und der Rest ist auch langweilig (damit meine ich NV/AMD!).
Platos
2021-12-11, 03:04:26
Bin auch mal gespannt, was die Perfomance anbelangt.
Ich muss zuerst mit eigenen Augen sehen, dass das P/L vergleichbar ist mit AMD und nvidia.
Wobei das mit den Strassenpreisen ja ziemlich einfach ist, aber ich meine natürlich Listenpreise.
Benutzername
2021-12-11, 03:55:50
Tag 1. Das werden Sammlerstücke, komme was wolle. :D
MfG
Raff
Ja das auf jeden Fall. Komisch, daß der YT Kanal kaum 2500 Abonnenten hat? Hätte ich gedacht, daß den mehr abonnieren. Allein schon Journalisten für Neuigkeiten.
Ich würde ja geren eine der DG-1 Entwikclerkarten haben wollen. Einfach weil und zum ins Regal stellen. Und sieht ja auch eigentlich ganz hübsch aus.
https://news.gigarefurb.co.uk/wp-content/uploads/2020/01/mah_4688-100826475-large.3x2-825x510.jpg
dildo4u
2021-12-11, 09:07:32
Dauert alles noch er erwartet aber das man bald viel Low End Desktop kaufen von kann,(AMD/NV) da Intel die Notebook Verträge in der Tasche hat.(Ich Schätze es gibt Rabatte für OEM wenn sie Alderlake + ARC nehmen)
9sUM29iMO5w
konkretor
2021-12-14, 10:26:17
Nicht wirklich was neues
https://www.golem.de/news/arc-alchemist-dg2-512-intel-grafikkarte-soll-geforce-rtx-3070-einholen-2112-161776.html
Loeschzwerg
2021-12-14, 10:38:09
Jo, kurze knappe Zusammenfassung => Passt
Anders als das MLID Video... 30min Laberei für gerade mal 3min effektiv an Infos.
y33H@
2021-12-14, 10:48:41
Die News hat weniger Zeit gebraucht als das Video lang ist :freak:
dargo
2021-12-14, 11:18:54
Ich bin echt gespannt ob es mit dem dritten Spieler wieder etwas Bewegung bei den Preisen der dGPUs geben wird oder auch nur wieder lange Gesichter weil nichts oder zu völlig überhöhten Preisen zu bekommen ist. Etwas schade, dass Intel bei der ersten Gen "nur" bis RTX 3070 bzw. RX 6800 mitspielt. Aber gut... gleich in die Vollen gehen wäre auch zu risikobehaftet. So müssen wir halt noch mindestens eine weitere Generation abwarten bis der Kampf über das gesamte Portfolio ausgetragen wird. 225W @6nm stimmen mich aber nicht unbedingt sehr posititiv. Ist zwar keine Katastrophe... hätte bei N6 aber etwas mehr Performance oder weniger Verbrauch erwartet.
Tobalt
2021-12-14, 11:22:56
Intel wird den gleichen Lieferengpässen unterliegen.
Mehr Karten für Intel heißt dann wohl kurzfristig auch weniger Karten von nV/AMD.
Es wird spannend ob Intel *Listen*-Preise ausrufen wird die sich an den Listenpreisen oder an den Straßenpreisen von nV/AMD orientieren. Bei Letzterem befürchte ich eine Verlangsamung der Preisentspannung wenn die Chipkrise abflacht.
dargo
2021-12-14, 11:26:40
Intel wird den gleichen Lieferengpässen unterliegen.
Mehr Karten für Intel heißt dann wohl kurzfristig auch weniger Karten von nV/AMD.
Nicht wirklich, weder NV noch AMD lassen in 6nm produzieren. 6nm kommt bsw. bei AMD erst mit RDNA3 zum Einsatz und das dauert noch viele Monate.
PS: Lieferengpässe könnte es natürlich trotzdem geben, schließlich besteht so eine Grafikkarte nicht nur aus dem GPU-Die.
btw.
Mal angenommen Intel stellt die Serie tatsächlich nächsten Monat vor. Wie lange brauchts ab da bis zum Release?
basix
2021-12-14, 11:55:38
Nicht wirklich, weder NV noch AMD lassen in 6nm produzieren. 6nm kommt bsw. bei AMD erst mit RDNA3 zum Einsatz und das dauert noch viele Monate.
CDNA2 & Rembrandt sind bereits in-Production ;)
dargo
2021-12-14, 12:16:24
Ich beziehe mich natürlich auf Gaming dGPUs.
davidzo
2021-12-14, 16:11:26
Ich beziehe mich natürlich auf Gaming dGPUs.
Da soll auch was kommen, wahrscheinlich schon zur CES: https://videocardz.com/newz/amd-6nm-rdna2-mobile-gpu-refresh-to-be-called-radeon-rx-6000s
Würde mich nicht wundern wenn auch die 6700xt still und heimlich auf Navi22 in N6 umgestellt wird. Die richtig guten DIEs für mobile highend, der Rest ergänzt N7 Navi22 im Desktop als pin kompatibles replacement. Ob die anderen RDNA2 Chips auch einen N6 refresh bekommen steht noch in den Sternen, würde aber Sinn machen um RDNA3 unten herum zu ergänzen.
Auch gut möglich das Navi24 sich deswegen so verzögert hat, weil es direkt in N6 kommt. Eine Erklärung wäre dass man die 7nm Kapazitäten für die anderen laufenden chiplinien gleichgroß hält und daher erst mit einer neuen Produktionslinie aufspringen konnte. Ist aber Speku
Aber die CPU Sales fallen bei der Waferabnahme von viel mehr ins Gewicht als AMDs Gaming dGPUs. CPU, aber vor allem auch Mobile ist immer noch größer und wichtiger als Gaming GPUs. CPUs haben ein größeres Volumen und Mobile explizit hat sogar die größeren DIEs im vergleich zum Desktop PC. Der Hinweis auf Rembrandt ist also schon sehr richtig. Im vergleich zu XE-HPG wird Rembrandt auch einen nicht zu vernachlässigenden Anteil an der N6 Produktionsmenge haben.
TheAntitheist
2021-12-14, 16:43:04
225W @6nm stimmen mich aber nicht unbedingt sehr posititiv. Ist zwar keine Katastrophe... hätte bei N6 aber etwas mehr Performance oder weniger Verbrauch erwartet.
Ich bin eigentlich voll deiner Meinung. Wenn man die Karte aber mit der 6800 vergleicht muss man ja sagen das die Matrix/Tensor Cores haben und ich glaub auch dedicated RT Kerne. Beides hat AMD nicht, also könnte durch Intels DLSS und einer besseren RT Performance sogar ein Sieg gegen die 6900 in manchen Titeln möglich sein. Aber auch ohne beide Punkte hätte ich viel weniger von Intel erwartet. Wenn die Treiber jetzt noch passen ;D dann wäre das wirklich nicht verkehrt.
mocad_tom
2021-12-14, 22:37:53
Angesichts der vielen Waferstarts, die sich Intel gesichert hat könnte ein Marktanteil von 4 bis 6% im Desktop dgpu segment und 4 bis 6% im Mobile dgpu segment möglich sein.
Da kann Intel im margenreichen segment nun auch mitmischen.
btw.
Mal angenommen Intel stellt die Serie tatsächlich nächsten Monat vor. Wie lange brauchts ab da bis zum Release?
Na wenn das stimmt von MLID, beginnt die Produktion im ersten Quartal und mit einem release ist nicht vor März zu rechnen. Glaube kaum das sie Anfang Januar viel vorstellen werden, weil das noch weit vom möglichen Start entfernt liegt.
Tangletingle
2021-12-14, 22:45:56
Vorstellung zur CES und Verkauf 2-3 Monate später.
Skysnake
2021-12-15, 06:34:07
Dann läuft die Produktion aber schon die Durchlaufzeiten durch ne FAB sind ja schon fast in dem Bereich von 3 Monaten.
dargo
N6 hat die gleiche Performance wie N7, von daher ist das doch ne Fehleinschätzung. Ein identischer N22 produziert in N7 oder N6 hat theoretisch 0 Performanceunterschied. Und N24 bis N22 werden ja in N6 refresht wie es aussieht, zuerst als Notebook-RDNA2-Refresh, wobei da offensichtlich nicht N6 den Vorteil bringen wird sondern der Respin. N6 ist halt mittelfristig billiger in der Produktion als N7, dewegen macht man das.
Wenn Intel jetzt 6800 bzw. 3070-Leistung (evtl. sogar mit guter RT-Leistung) in N6 bringen kann mit 225W ist das doch ein gutes Produkt, zumal der Launch der neuen AMD und NV-Generation ja noch auf sich warten lässt.
mocad_tom
2021-12-15, 10:57:56
nVidia bietet eine 1660 und eine 2060 mit völlig veralteten Prozessen zu absolut absurden Preisen an.
Aber bei Intel will man meckern, weil die Effizienz mit den ersten Treibern noch nicht ganz mithalten kann.
Im Februar gekaufte Intel-GPU mit den Treibern vom Februar und die gleiche GPU mit den Treibern vom Sommer - da wird sicherlich nochmals positiv etwas dabei rumkommen.
Im Prinzip kann man da blind zugreifen.
Sehe ich auch so. Ich wär aber eher schon scharf darauf, weil das ein historisches Produkt wird ;).
Tigershark
2021-12-15, 13:15:56
nVidia bietet eine 1660 und eine 2060 mit völlig veralteten Prozessen zu absolut absurden Preisen an.
Aber bei Intel will man meckern, weil die Effizienz mit den ersten Treibern noch nicht ganz mithalten kann.
Im Februar gekaufte Intel-GPU mit den Treibern vom Februar und die gleiche GPU mit den Treibern vom Sommer - da wird sicherlich nochmals positiv etwas dabei rumkommen.
Im Prinzip kann man da blind zugreifen.
Dem ersten Teil Deiner Aussage stimme ich absolut zu. Aber blind zugreifen würde ich nicht, einfach weil intel bei GPUs in der Vergangenheit eigentlich IMMER die Treiber verkackt hat. Immer. Ich hoffe und wünsche mir wirlklich, dass es dieses Mal nicht so ist, aber ich würde mindestens mal 6 Monate abwarten und schauen, wie dann der Stand der Software ist. Ich schätze, es wird anfangs sogar noch Grafikbugs in Spielen geben. Ist ja auch absolut verständlich, von 0 auf 100 in einem so komplexen Bereich wie GPU Entwicklung kann auch ein Megakonzern wie intel nicht einfach aus dem Ärmel schütteln. Das braucht mehrere Iterationen und Geduld bei der Softwareentwicklung. Ich hoffe nur, sie haben diese Geduld und brechen es nicht nach Gen 1 wieder ab wie so oft in der Vergangenheit.
Lurtz
2021-12-15, 13:31:10
Die Known Issues der aktuellen Intel-Treiber lassen schon ein ungefähres Ausmaß erahnen, oder nicht?
Zeitweilige Abstürze oder Hänger können in Call of Duty: Black Ops Cold War (DX12), Call of the Duty: Vanguard (DX12), Far Cry 6 (DX12), CS: GO (beim Wechsel des Anzeigemodus zwischen Vollbild und Fenstermodus), The Sims 4 (Hot-Plug oder Trennen des externen Displays) auftreten.
Kleinere Grafikanomalien können in Baldur’s Gate 3 (Vulkan), Dark Souls 3 (DX11), Far Cry 6 (DX12) beobachtet werden, Halo Infinite (DX12), Metro Exodus (DX12), Mount & Blade II: Bannerlord (DX11), Red Dead Redemption 2 (Vulkan), The Surge 2 (Vulkan), Tom Clancy’s Ghost Recon Breakpoint (DX11) können auftreten..
Beim Starten von Battlefield 1 nach einem Upgrade von 30.0.100.9955 oder älteren Treibern kann ein Popup-Fehler „Treiber aktualisieren“ angezeigt werden. Oder älteren Treibern aufgrund des Roll-over der Treiberversion.
Intel Core-Prozessoren der 11. Generation mit Intel Iris Xe-Grafik]: Zeitweilige Abstürze oder Hänger können in ANVIL (DX12), Breathedge (DX11), Detroit: Become Human (Vulkan), Microsoft Build Simulator (während der Installation), NBA 2K21 (DX12) (beim Umschalten der Auflösung von 1920 x 1080 auf 1600 x 900 und 1280 x 720), The Ascent auftreten.
Intel Core-Prozessoren der 11. Generation mit Intel Iris Xe-Grafik]: Geringfügige Grafikanomalien können in Adobe Premiere Pro 2020 während der Videowiedergabe auftreten, Call of the Duty: Vanguard (DX12), Call of the Sea (DX11), Crysis Remastered (DX11), Elex (DX11), Forza Horizon 5 (DX12), Forza Horizon 4 (DX12), Just Cause 4 (DX11), Rage 2 (Vulkan), Red Dead Redemption 2 (DX12), The Ascent (DX11).
Intel Iris Xe diskrete Grafik]: Zeitweilige Abstürze oder Hänger können in Conan Exiles (Low End Laptop Mode“ in den Spieleinstellungen), Forza Horizon 4 (DX12), Forza Motorsport 6 (DX12), Spyro: Reignited Trilogy(DX11) auftreten.
Intel Iris Xe diskrete Grafik]: Geringfügige Grafikanomalien können in Assassin’s Creed Valhalla (DX12), Code Vein(DX11), Death Stranding (DX12), Microsoft Build Simulator(DX11), GRID 2019 (DX12) beobachtet werden.
(11. und 12. Generation Intel Core Prozessoren): Der Bildschirm wird bei 4K@60hz-Auflösung, die über das Dock angeschlossen ist, ausgeblendet.
Intel Core-Prozessoren der 12. Generation mit Intel UHD-Grafik]: Zeitweilige Abstürze oder Hänger können in Marvel’s Avengers (DX12), Metro Exodus (DX12) (nach Qualitätsänderung), Shadow of the Tomb Raider (DX12), The Sims 4 (beim Laden einer Speicherdatei) auftreten.
Intel Core-Prozessoren der 12. Generation mit Intel UHD-Grafik]: Kleinere Grafikanomalien können in Gears 5 (DX12), Genshin Impact (DX11), Ring of Elysium (DX12) beobachtet werden.
Intel Core-Prozessoren der 12. Generation mit Intel UHD-Grafik]: Leerer Bildschirm auf 8k-TV-Monitor nach Einstellung auf Klon-Modus mit 4k-Display
Zeitweilige Abstürze oder Hänger können in Marvel’s Guardians of the Galaxy auf Intel Core-Prozessoren der 11. Generation mit Intel Iris Xe-Grafik auftreten (wird untersucht).
Tigershark
2021-12-15, 13:50:26
Jaaaaein, ich würde schon zur Verteidigung noch sagen, dass der Effort, mit dem man an Verbesserungen arbeitet sicherlich mit dem Launch einer (major) dGPU Serie deutlich nach oben geht...
konkretor
2021-12-15, 13:51:09
https://www.golem.de/news/continual-compute-intel-zeigt-automatische-lastverteilung-auf-externe-gpu-2112-161825.html
Klingt spannend
Distroia
2021-12-15, 21:07:52
Wenn man hier mitliest, könnte man fast meinen wir wüssten schön dass Intel mit der 3070 gleichziehen kann. Woher nehmt ihr denn diese Gewissheit? Ich hab da meine Zweifel, vorsichtig gesagt. Bei der Performance und noch mehr bei den Treibern. Wüsste keinen guten Grund, warum es ausgerechnet diesmal bei Intel klappen sollte.
y33H@
2021-12-15, 21:40:19
Leute wie MLID behaupten das und es gibt zumindest Intels interne Schätzung bzw frühe Messungen - am Ende wird's der Spiele Parcours ausmachen, denn auch Xe hat Stärken/Schwächen je nach Titel und gerade Raytracing ist (für mich) noch völlig offen.
Benutzername
2021-12-16, 09:07:13
Wenn man hier mitliest, könnte man fast meinen wir wüssten schön dass Intel mit der 3070 gleichziehen kann. Woher nehmt ihr denn diese Gewissheit? Ich hab da meine Zweifel, vorsichtig gesagt. Bei der Performance und noch mehr bei den Treibern. Wüsste keinen guten Grund, warum es ausgerechnet diesmal bei Intel klappen sollte.
Im Gegensatz zu damals mit dem i740 und seinem völlig vermurksten Konzept und mangelnder Untestützung im Konzern, ist ARC voll von intel unterstützt und besonders die Perspektive "KI" Beschleuniger zu bauen und die mit intel CPUs zu bündeln als Komplettangebot treibt das Programm. Intel steht da wirklich hinter dieses Mal. Die bisherige integrierte Grafik in den -K CPUs war halt drin um irgendwas auf den Bildschirm zu bekommen um Briefe zu tippen. Ist also auch kein Vergleich.
basix
2021-12-16, 11:46:13
DG2-512 sieht rein von der HW her stärker aus als N22 und auch GA104. Und DG1 wird irgendwie mit Vega Perf/Flop angegeben. Diese zwei Angaben stimmem mich optimistisch bezüglich Grundperformance.
DG2 bietet dann noch obendrauf:
- Überarbeitete Architektur
- Matrix Cores
- Raytracing Cores (meine Vermutung: ~Ampere Niveau)
- XeSS @ Matrix Cores
- Vermutlich potente Video Encoder/Decoder
Den einzigen potentiellen Stolperstein sehe ich im Treiber, das ist wahr. Aber wie von meinem Vorredner angedeutet, ist hier neu viel mehr Drive sowie Ressourcen dahinter. OneAPI usw. sind riesige SW-Agendas, wo auch die GPUs mit ein Teil davon sind. Und da Xe-HPG das Potential zu einem riesen Big Bang am GPU-Markt hat und von Intel schon stark angeteasert und vermarket wird, will Intel einen guten Start hinlegen. Der erste Eindruck zählt.
Tobalt
2021-12-16, 12:01:46
Bezgl. der immer wieder aufkommenden Trolldiskussion um die 720p CPU Tests.
Lasst die Leute doch einfach ihren i3 kaufen, der im 4K Test genausoschnell ist, wie der Superduper i911. Damit können die Trolle dann super Spaß haben bis zur nächsten GPU und Spielegeneration
DrFreaK666
2021-12-16, 12:30:33
Also ich bin auch gehypt. 3070 Performance reicht mir und eine Intel Grafikkarte hatte ich noch nie im Rechner
Anfangs wirds sicherlich schwierig mit der 3070 mitzuhalten, aber mit der Zeit wird man 3070 und 6800 mMn überholen und die Hardware besser ausreizen können.
Die Treiberentwicklung ist halt der größte Pferdefuss bei der Sache, das wird sicherlich nicht sofort was, aber mit der Zeit wird sich das schon einschleifen, da mach ich mir wenig sorgen. Man scheint das ja auch echt sehr ernst zu nehmen, wenn man eine Generation pro Jahr bringen will und mit 3070-Leistung direkt einsteigt.
Die einzige Gefahr die ich da eher sehe ist Etherium 2.0. Das könnte u.U. den Markt mit gebrauchten GPUs geradezu fluten und was jetzt zu wenig ist, könnte dann schlichtweg viel zuviel werden. Wenn Intel da hineinlauncht, na dann mahlzeit ;).
mboeller
2021-12-16, 15:04:43
https://mobile.twitter.com/Locuza_/status/1469727449546117123
habe ich noch nicht gesehen
Loeschzwerg
2021-12-16, 17:04:40
Der Hersteller Gunnir bringt mit der DG1 MAX INDEX eine DG1 Desktop Karte mit vollen 96EUs, sofern ich das Kauderwelsch des Übersetzers richtig deute:
https://www.ithome.com/0/592/898.htm
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77745
mocad_tom
2021-12-16, 18:30:28
Die wollten 2017 schon weg von Proof of Work hin zu Proof of Stake.
Das wird wieder so laufen.
Proof of work wird einfach bleiben.
Elasti als Codename für DG3 hat sich im Treiber bestätigt (wurde erstmalig von MLID erwähnt): https://videocardz.com/newz/intel-accidentally-releases-test-driver-for-dg3-elasti-dgpu-raptor-meteor-arrow-lunar-lake-igpus
Zusammengefasst von rogame: https://twitter.com/_rogame/status/1471560689886052354
XE_HP_CORE
XE_HPC_CORE => PVC
XE_HPG_CORE => MTL, ARL, DG2
XE2_HPG_CORE => LNL, ELG
ELASTI => ELG
ELG_X1 => 2x4
ELG_X2 => 5x4
ELG_X3 => 7x4
ELG_X4 => 10x4
ARL_6x4x16 => Xe LPG Plus
MTL_2x4x16
MTL_3x4x16
MTL_1x4x16
Bei Arrow Lake gibt es eine Option auf 6x4x16, das sind 384EUs. Bislang wurden 320EUs angenommen.
basix
2021-12-17, 19:13:30
Elasti = Elastic? Chiplets? :D
10x4 = 10 Chiplets
10x4x16 gäbe aber nur 640 EUs, verglichen mit DG2-512 ein relativ geringer Anstieg. Evtl. dann 32 EUs pro HPG-Core? 1280 EUs und somit 10'240 Shader Units wäre eher ein Enthusiast Kandidat.
Fusion_Power
2021-12-17, 19:51:25
Der Hersteller Gunnir bringt mit der DG1 MAX INDEX eine DG1 Desktop Karte mit vollen 96EUs, sofern ich das Kauderwelsch des Übersetzers richtig deute:
https://www.ithome.com/0/592/898.htm
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77745
Die bringen tatsächlich auch ne 96EU Karte raus, interessant. Dachte das wird eh schon durch die integrierte Grafik der Tiger-Lake Generation abgedeckt, ab 128EU wirds also eigentlich erst interessant weils davon keine integrierte Version gibt, soweit ich weiß.
Elasti = Elastic? Chiplets? :D
10x4 = 10 Chiplets
10x4x16 gäbe aber nur 640 EUs, verglichen mit DG2-512 ein relativ geringer Anstieg. Evtl. dann 32 EUs pro HPG-Core? 1280 EUs und somit 10'240 Shader Units wäre eher ein Enthusiast Kandidat.
Meiner Info nach gibt es bei Xe2 HPG kein Dualsubslice mehr. Stattdessen gibt es 4 Subslices pro Slice. Allerdings weiß ich nicht, ob es bei 8 EUs pro Subslice bleibt.
basix
2021-12-18, 00:00:03
XE_HPG_CORE => MTL, ARL, DG2
...
ARL_6x4x16 => Xe LPG Plus
MTL_2x4x16
MTL_3x4x16
MTL_1x4x16
Bei Arrow Lake gibt es eine Option auf 6x4x16, das sind 384EUs. Bislang wurden 320EUs angenommen.
MTL soll ja mit 96-192 EUs kommen. Steht offiziell so auf den Intel Folien. Irgendwie passt das nicht ganz zusammen.
Und ARL wird bei Xe LPG Plus vermutlich einfach 2x der GPU Die von MTL verwenden. 384 EU sind aber schon fett. Bei 1.0 GHz sind das schon 6.1 TFlops
96EUs sieht besser aus auf der Folie, ihr interpretiert da immer viel zu viel rein. Dem Treiber ist mehr zu trauen als Intel, weil der frei von Marketing Absichten ist. 64EUs ist die GT1 von heute, also praktisch nicht relevant für MTL mobile.
basix
2021-12-18, 13:23:23
Kann schon sein. Mir stellt sich nur die Frage, wie es effektiv umgesetzt wird.
MTL soll ja nur noch aus Chiplets bestehen, monolithisch ist da nichts. Da passt die MTL_1x4x16 Konfiguration einfach nicht in die bestehenden Informationen rein. Die Ausnahme wäre, wenn Intel beim Low-End dennoch monolithisch kommt, das macht aber bezüglich iGPU dann keinen Sinn, da die GPU-IP auf TSMC Prozessen läuft.
Einzige schlüssige Auflösung wäre, wenn die 1x4x16 ein einzelnes Chiplet umfasst und die grösseren Versionen dann halt 2 oder 3 Chiplets verwendet. Natürlich kann man für alle drei Versionen separate Chips auflegen. Da MTL aber eh schon Foveros und Chiplets nutzt, wäre die Nutzung mehrerer GPU-Chiplets naheliegender. Die Chiplets wären dann aber schon ziemlich klein, wenn das effektiv N3 oder N4/N5 sein sollte.
96 EUs wären dann 2x 48 EU (Salvage des 64 EU Die) und 192 EUs wären dann 3x 64 EU. Das passt. Dazwischen hätte es noch Platz für 128 / 144 EU Varianten. Da wäre die 128er Variante wohl die naheliegendere.
Ein Render Slice besteht aus 64 EUs: https://youtu.be/3jU_YhZ1NQA?t=3960
Warum sollte das nicht passen? Je nach Tile Größe kann Intel auf 1, 2 oder 3 Render Slices gehen, genau was der Treiber sagt.
Also was der Treiber sagt passt perfekt. Was dann Intel freischaltet bzw. anbietet, ist eine andere Frage. Das lässt sich im Treiber nicht sehen und wäre auch zu früh.
basix
2021-12-19, 21:31:20
Der GPU-Aufbau mit 64 EU Slices ist logisch. Das war aber nicht die Frage, sondern die, wie man es physisch umsetzt.
- 3 verschieden Chiplets?
- 1 Chiplet, 1-3 Chiplets pro GPU?
mocad_tom
2021-12-21, 21:59:31
capframex schreibt auf twitter, dass er bald intel dgpu telemetry auslesen kann.
https://mobile.twitter.com/CapFrameX/status/1473393193014210563
davidzo
2021-12-23, 13:07:17
Apisak liefert mal wieder:
https://twitter.com/TUM_APISAK/status/1473210666274017286
Ich habe keine ahnung wo man die AOTS ergebnisse einsortieren kann, aber PCgamer ist der Meinung das könnte 3070 level oder drüber sein (TUUUT TUUT SCHHH SCHHH):
https://www.pcgamer.com/early-benchmarks-of-intels-arc-alchemist-gpus-look-promising-if-speculative/?utm_source=twitter.com&utm_campaign=socialflow&utm_medium=social
We don’t even know exactly what the card used in the benchmarking, but the results imply we could be looking at something around RTX 3070 or maybe even an RTX 3080 performance.
Sieht für mich eher nach CPU-Limit aus. Das wäre also ein Zeichen dass die Treiber dort nicht limitieren, immerhin etwas :uup:
Leonidas
2021-12-26, 09:47:35
Ich denke, unter "Medium"-BQ sind die AotS-Ergebnisse generell zu wenig zielgenau, um damit arbeiten zu können. Selbst wenn Niveau 3070 passen sollte.
mocad_tom
2021-12-27, 10:10:45
Raja Koduri war beim Youtuber DrLupo
https://videocardz.com/newz/intels-raja-koduri-livestreams-from-arc-alchemist-based-pc
Dort hat er darüber gesprochen, dass sie erstmal eine installierte Basis draussen haben will.
(Ich vermute, erster Meilenstein: sie wollen bei Steam im Hardware-Ranking einen Fußabdruck hinsetzen)
VooDoo7mx
2021-12-27, 13:43:17
Apisak liefert mal wieder:
https://twitter.com/TUM_APISAK/status/1473210666274017286
Ich habe keine ahnung wo man die AOTS ergebnisse einsortieren kann, aber PCgamer ist der Meinung das könnte 3070 level oder drüber sein (TUUUT TUUT SCHHH SCHHH):
https://www.pcgamer.com/early-benchmarks-of-intels-arc-alchemist-gpus-look-promising-if-speculative/?utm_source=twitter.com&utm_campaign=socialflow&utm_medium=social
Sieht für mich eher nach CPU-Limit aus. Das wäre also ein Zeichen dass die Treiber dort nicht limitieren, immerhin etwas :uup:
Ich hab mal den gleichen Test auf meinen Notebook mit Ryzen 7 5800H und Notebook 3060 (115-130W) laufen lassen und komme auf 89,6fps.
Ist aber in der Einstellung tatsächlich eher im CPU Limit
Wenn ich die Native Auflösung 2560x1600 mit dem High Preset teste komme ich auf 88,3fps.
Also Desktop 3070 Niveau bzw knapp darunter könnte schon hinkommen.
Der Treiber scheint auch gut zu funktionieren, es handelt sich ja eher um einen Nischentitel.
fondness
2021-12-27, 14:45:45
Raja Koduri war beim Youtuber DrLupo
https://videocardz.com/newz/intels-raja-koduri-livestreams-from-arc-alchemist-based-pc
Dort hat er darüber gesprochen, dass sie erstmal eine installierte Basis draussen haben will.
(Ich vermute, erster Meilenstein: sie wollen bei Steam im Hardware-Ranking einen Fußabdruck hinsetzen)
Eine besseren Zeitpunkt kann man eh nicht erwischen, GPUs sind Mangelware, defacto können die Dinger fast nicht so schlecht sein, dass sie nicht alles verkaufen werden was sie liefern können.
https://youtu.be/nfsDqHjjMRs?t=191
Moore's Law Is Dead meint (seine Intel Quellen besser gesagt), Intel wäre sehr zuversichtlich mit Battlemage im Jahr 2023 den Highend Bereich anvisieren zu können.
Laut digitimes (https://twitter.com/chiakokhua/status/1474308871774609411/photo/1) gibt es 2 große Abnehmer von TSMC 3nm und 4nm, das sind Intel und Apple. Gut möglich das Battlemage in 4nm oder sogar 3nm hergestellt wird.
konkretor
2021-12-27, 21:26:22
Hier noch mal das Video als Text das geht schneller als sich das gesabbel anzuören
https://wccftech.com/intel-enthusiast-gaming-graphics-cards-based-on-arc-battlemage-gpus-coming-in-mid-2023-will-tackle-high-end-nvidia-lovelace-amd-rdna-3-gpus
DG2-512 und DG2-384 launch im März laut China Quelle.
Bobantang’s existing supply chain broke the news that the INTEL DG2 series has been delivered to major brand-name board card manufacturers for debugging. Although the original plan was to release in January 2022, it is now delayed until March.
He said that by then Intel will have two core series products, one of which will have 512 EU units and 16GB of video memory. This version will target Nvidia’s latest RTX3070-RTX 3070Ti; and the other will only have 384 units and 12GB of video memory. The version is against the RTX 3060-RTX 3060Ti graphics card.
https://diy.zol.com.cn/784/7841029.html
konkretor
2022-01-03, 14:24:21
Benches der A380 GPU
https://videocardz.com/newz/intel-arc-a380-desktop-graphics-benchmark-leaks-almost-as-fast-as-rtx-3050-ti-laptop-gpu
Der GP (GPU) Processing score ist am interessantesten, das wäre am ehesten noch vergleichbar.
Verglichen mit einem sehr guten Iris Xe 1.3 Ghz Ergebnis von einem NUC mit viel power budget: https://ranker.sisoftware.co.uk/show_run.php?q=c2ffcdf4d2b3d2efdaefdee6d1e3c5b78aba9cf99ca191b7c4f9c1&l=en
Die Ergebnise schwanken so zwischen Faktor 2,7-2,8. Angenommen die 2,45 Ghz lagen durchgehend an (bei der Xe liegen 1,3 Ghz auf jeden Fall an)
1.3Ghz x 96EUs x x 16 FLOPS/EU= 1.997 TFLOPS
2.45Ghz x 128EUs x 16 FLOPS/EU= 5.018 TFLOPS +251%
Das kommt gut hin. Faktor 2,7-2,8 schneller bei einem theoretischen Vorsprung von 2,51. Die restliche Diskrepanz kommt entweder von einer gesteigerten IPC oder dem schnellerem Speicher.
davidzo
2022-01-03, 17:17:29
Ich hab mal den gleichen Test auf meinen Notebook mit Ryzen 7 5800H und Notebook 3060 (115-130W) laufen lassen und komme auf 89,6fps.
Ist aber in der Einstellung tatsächlich eher im CPU Limit
Wenn ich die Native Auflösung 2560x1600 mit dem High Preset teste komme ich auf 88,3fps.
Also Desktop 3070 Niveau bzw knapp darunter könnte schon hinkommen.
Der Treiber scheint auch gut zu funktionieren, es handelt sich ja eher um einen Nischentitel.
Ich sag ja CPUlimitiert. 30% CPUleistung liegen sicherlich locker zwischen 5800H und 12900K (89 - 129fps).
Der GP (GPU) Processing score ist am interessantesten, das wäre am ehesten noch vergleichbar.
Verglichen mit einem sehr guten Iris Xe 1.3 Ghz Ergebnis von einem NUC mit viel power budget: https://ranker.sisoftware.co.uk/show_run.php?q=c2ffcdf4d2b3d2efdaefdee6d1e3c5b78aba9cf99ca191b7c4f9c1&l=en
Die Ergebnise schwanken so zwischen Faktor 2,7-2,8. Angenommen die 2,45 Ghz lagen durchgehend an (bei der Xe liegen 1,3 Ghz auf jeden Fall an)
1.3Ghz x 96EUs x x 16 FLOPS/EU= 1.997 TFLOPS
2.45Ghz x 128EUs x 16 FLOPS/EU= 5.018 TFLOPS +251%
Das kommt gut hin. Faktor 2,7-2,8 schneller bei einem theoretischen Vorsprung von 2,51. Die restliche Diskrepanz kommt entweder von einer gesteigerten IPC oder dem schnellerem Speicher.
Nicht schlecht. Nvidia ist ja meistens bestens informiert und scheint soviel Respekt zu haben dass sie GA107 für den Desktop erstmal beerdigt haben:
https://twitter.com/kopite7kimi/status/1471297536480595968
RTX 3050
GA106-150, 2560FP32, 8G
GA106-140, 2304FP32, 4G
Das ist eine ziemlich hohe Ansetzung, zwischen 1660super und vanilla 2060.
Sollte dicke reichen um sowohl Intel als auch AMD zu kontern, kostet aber viel mit dem größeren chip, pcb und power.
AMD scheint auch alles aus Navi24 heraus zu holen was geht:
https://twitter.com/greymon55/status/1478000931442618368
AMD Radeon RX 6500XT with 6nm Navi 24 GPU to feature 2815 MHz boost clock
6500xt is really 18gbps.
Die scheinen das kleine Navi24 Silizium vergolden zu wollen.
basix
2022-01-03, 20:56:57
N24 zu pushen macht für AMD schon Sinn, je nach Konkurrenzlage von GA107 sowie DG2-128. Sind aber auch nur knapp +10% verglichen mit 16Gbps sowie 2.6 GHz, eigentlich nicht der Rede Wert. Die paar Watt mehr interessiert die wenigsten, da eh ein 6p PCIe Stromstecker benötigt wird.
- Arc A380 macht anscheinend knapp 5.0 TFlops (2.45 GHz)
- 6500XT macht in etwa 5.7 TFlops (2.8 GHz)
- 3050 Ti macht in etwa ~9 TFlops (1.8 GHz)
Wenn ich jetzt wählen müsste:
- Die A380 mit 6 GByte, XeSS sowie vermutlich performanterer RT-Beschleunigung hört sich im ersten Moment attraktiver an. Mal schauen, was die Treiber machen.
- Dito 3050 mit DLSS und RT
Die 6500 XT kann eigentlich nichts besser, ausser vermutlich günstiger sein. Energieeffizienz ist bei ~100W auch nicht so pralle, da der Chip nach oben geprügelt wird.
konkretor
2022-01-06, 20:35:23
Q1 2022 wurde gestrichen auf kommt 2022
https://twitter.com/VideoCardz/status/1479159180493824000?s=20
:-(
Wenn ich jetzt wählen müsste:
- Die A380 mit 6 GByte, XeSS sowie vermutlich performanterer RT-Beschleunigung hört sich im ersten Moment attraktiver an. Mal schauen, was die Treiber machen.
- Dito 3050 mit DLSS und RT
Die 6500 XT kann eigentlich nichts besser, ausser vermutlich günstiger sein. Energieeffizienz ist bei ~100W auch nicht so pralle, da der Chip nach oben geprügelt wird.
Bei der 6500XT gibt es noch andere Probleme: https://www.3dcenter.org/news/news-des-5-januar-2022
Nur 4 lanes PCIe4, kein AV1 decoding, kein H264/HEVC encoding.
Q1 2022 wurde gestrichen auf kommt 2022
https://twitter.com/VideoCardz/status/1479159180493824000?s=20
:-(
Ja sehr schade und das nicht q2 oder so dabei steht lässt vermuten, das Teil kommt wohl erst in der zweiten Jahreshälfte :-(.
Kann man den Titel nicht auf Intel Arc diskrete GPUs ändern?
Linmoum
2022-01-07, 09:44:33
Klassischer Koduri. Mal schauen, wann die Teile jetzt kommen und wie toll es am Ende tatsächlich wird.
Flusher
2022-01-07, 10:55:06
Klassischer Koduri.
;D
Ja erinnert tatsächlich an die Zeit als er noch bei AMD war.
davidzo
2022-01-07, 12:59:50
- Arc A380 macht anscheinend knapp 5.0 TFlops (2.45 GHz)
- 6500XT macht in etwa 5.7 TFlops (2.8 GHz)
- 3050 Ti macht in etwa ~9 TFlops (1.8 GHz)
XE hat aber bisher nicht den Anschein als könnte man die Auslastung und Effizienz von RDNA erreichen, die waren bisher eher ca. auf Vega-Niveau, also 28% langsamer als RDNA pro Tflop.
Und die 3050ti sind eben Ampere-Luftpumpen Tflops, das heißt man muss die durch 1.6 teilen um Turing / RDNA Tflops zu bekommen.
Die 3050ti ist aber auch eher der Gegner der 6600. Selbst die vanilla 3050 ist ein gutes Stück oberhalb der 6500xt positioniert (249 vs 199$). Preise sind bekanntlich Schall und Rauch, aber wir können schon sicher sein dass GA106 basierte Karten mit 8GB 128bit GDDR6 wohl kaum jemals auf das Peisniveau von N24 Karten mit 4GB 64bit fallen werden.
Dass AMD uns die nur 4GB VRAM als Vorteil auftischt weil es die Karte angeblich uninteressant für Cryptominer macht ist echt ein Schlag ins Gesicht. Zumal die x4 PCIelanes das ganze noch schlimmer machen, denn das trifft Aufrüster mit PCIgen3 boards wie b450, x370, x470 besonders hart, die jetzt schon seit 2 Jahren warten um endlich mal eine midrange GPU zu vernünftigen Preisen zu bekommen. - As if AMD cares about them! hahaha der war gut
Bei der 6500XT gibt es noch andere Probleme: https://www.3dcenter.org/news/news-des-5-januar-2022
Nur 4 lanes PCIe4, kein AV1 decoding, kein H264/HEVC encoding.
Das ist echt ein Armutszeugnis. Displayausgänge sind auch auf 2 begrenzt.
Verbraucht das wirklich so viel Diefläche? Wie haben das denn die älteren karten gemacht mit einem viel geringeren Transistorbudget?
Wenn das stimmt dann ist das ja sogar ein schlechter mobilechip, 2 Displays ist auch für eine mobile workstation unterdurchschnittlich zumal Applikationen und Treiber immer noch grottig sind was den headless betrieb bzw. passthrough zum IGP Displayausgang angeht.
basix
2022-01-07, 16:46:49
Ich glaube Navi 24 wurde vor allem für Kopplung mit Lucienne / Cezanne / Rembrandt entwickelt. Da hat die iGPU zusätzliche Display-Ausgänge und AV1 Decoding ist zumindest bei Rembrandt dabei.
Als dGPU sieht Navi 24 nicht so prickelnd aus.
mocad_tom
2022-01-10, 14:15:55
Angesichts der CES Präsentation wurde ja kurz spekuliert, ob die GPU nach hinten verschoben ist.
https://www.computerbase.de/2021-12/intel-arc-grafikkarten-intel-deutet-q1-2022-release-fuer-desktop-und-notebook-an/
Anscheinend hat aber Computerbase nochmal selber nachgefragt und die Antwort bekommen, das Q1 2022 immer noch angepielt wird.
Shink
2022-01-10, 14:31:39
Das ist echt ein Armutszeugnis. Displayausgänge sind auch auf 2 begrenzt.
Verbraucht das wirklich so viel Diefläche?
Vermutlich nicht. Aber man kann sich ein paar Hardwareteile und Leitungen sparen. 6400er werden wohl ein super einfaches Boardlayout haben - eine der "billigsten" Designs aller Zeiten. Genau das Richtige in "Zeiten wie diesen"
basix
2022-01-10, 14:49:42
Vermutlich nicht. Aber man kann sich ein paar Hardwareteile und Leitungen sparen. 6400er werden wohl ein super einfaches Boardlayout haben - eine der "billigsten" Designs aller Zeiten. Genau das Richtige in "Zeiten wie diesen"
Mit ASUS MSRP >= 300 Euro :D
https://www.computerbase.de/2022-01/radeon-rx-6500-xt-amd-bringt-rdna-2-mit-tsmc-n6-fuer-199-dollar-in-den-handel/
Shink
2022-01-10, 15:34:29
Mit ASUS MSRP >= 300 Euro :D
https://www.computerbase.de/2022-01/radeon-rx-6500-xt-amd-bringt-rdna-2-mit-tsmc-n6-fuer-199-dollar-in-den-handel/
Hab ich schon gesehen. Die haben sich wohl gedacht "wir können die Karte ja schlecht billiger als ne 1050Ti machen".:freak:
Ändert nix daran: Boardlayout ist sicher ein Klacks.
Angesichts der CES Präsentation wurde ja kurz spekuliert, ob die GPU nach hinten verschoben ist.
https://www.computerbase.de/2021-12/intel-arc-grafikkarten-intel-deutet-q1-2022-release-fuer-desktop-und-notebook-an/
Anscheinend hat aber Computerbase nochmal selber nachgefragt und die Antwort bekommen, das Q1 2022 immer noch angepielt wird.
Mobile Arc wird ausgeliefert, also es kann schon gut sein das wir die ersten 2-3 Notebooks mit Arc Grafik noch in Q1 sehen. Acer war mit dem Swift 3x einer der ersten und wenigen mit einer DG1. Auf der CES wurde das Acer Swift X16 mit Arc A370M vorgestellt. Aber so richtig wird DG2 erst in Q2 ein Thema mit den Desktop Karten.
https://videocardz.com/newz/acer-confirms-intel-arc-a370m-laptop-gpu-is-heading-to-swift-x-laptop
konkretor
2022-01-13, 14:16:27
Zumindest wird der Kernel vorbereitet
https://www.phoronix.com/scan.php?page=news_item&px=Intel-DG2-Mesa-22.0
davidzo
2022-01-13, 14:54:17
Mobile Arc wird ausgeliefert, also es kann schon gut sein das wir die ersten 2-3 Notebooks mit Arc Grafik noch in Q1 sehen. Acer war mit dem Swift 3x einer der ersten und wenigen mit einer DG1. Auf der CES wurde das Acer Swift X16 mit Arc A370M vorgestellt. Aber so richtig wird DG2 erst in Q2 ein Thema mit den Desktop Karten.
https://videocardz.com/newz/acer-confirms-intel-arc-a370m-laptop-gpu-is-heading-to-swift-x-laptop
Überinterpretiere ich das oder ist es kein gutes Zeichen wenn eine Arc A370 (also DG2-128EU full / 96bit / 6GB) ein dickeres und größeres 16" Chassis braucht, einen zweiten Lüfter und mehr Lufteinlassfläche, im Gegensatz zur RTX3050ti (20SM, 128bit, 4GB) die im dünneren 14" Swift verbaut ist?
Von den Leistungsdaten her boxt DG2-128EU doch eher in einer Liga wie salvage GA107 / 3050m vanilla.
Die 3050ti hat theoretisch fast doppelt soviele fp32 tflops (ampere luftpumpe, aber immerhin) und mit 128bit SI auch mehr Speicherbandbreite zur Verfügung. Klar wird das im swift 14" eher die 35w Variante sein, also Taktraten 30-40% niedriger als die non-maxQ Version, aber es wundert mich trotzdem sehr dass DG2-128 bei der TDP soviel höher angesetzt wird.
Ob sie es braucht, ist nicht unbedingt gesagt. Oft werden unterdimensionierte Kühlsysteme verbaut, einhergehend mit sehr hohen Temperaturen und Drosselung. Das ist sehr oft zu beobachten bei kleineren Geräten mit dGPU.
Ein Lüfter für CPU+dGPU ist absoluter Müll, das Nvidia Gerät wird thermische Probleme bekommen. Das ist selbst bei kleinen 25W GPUs ein Problem.
Aufgrund der sehr flexiblen CPU und GPU power Limits lässt sich nicht wirklich was sagen. Bessere Kühlung bedeutet auch, die CPU kann höher takten. RTX3050 Ti wird mit 35-80W angegeben, mobile DG2-128 soll bei 35-50W liegen.
Wie viel Leistung bringt denn eine RTX 3050 Ti 35W?
edit, sämtliche RTX 3050 Ti Notebooks auf Notebookcheck sind mit 2 Lüftern ausgestattet. Das sieht mir kühltechnisch oder leistungstechnisch nach einem Fail aus bei Acer, die können nicht zaubern.
Zossel
2022-01-15, 08:40:41
Gibt es für die neuen Intel-GPUs schon mehr oder weniger vollständige Patches für Linux, Mesa und Co?
basix
2022-01-21, 13:43:54
Compute scheint bei DG2-512 zumindest auf Höhe 6700XT / 3070 zu liegen:
https://www.computerbase.de/2022-01/intel-arc-alchemist-erreicht-geforce-rtx-3070-ti-in-benchmarks/
dildo4u
2022-01-21, 13:57:06
Laut AMD hat nicht Mal die 6800 20Tflops aber kein Plan ob das Vergleichbar mit Intel ist.
dargo
2022-01-21, 13:59:12
Laut AMD hat nicht Mal die 6800 20Tflops aber kein Plan ob das Vergleichbar mit Intel ist.
Ampere hat auch Unmengen an TFLOPs, wieviel die wert sind wissen wir bereits.
basix
2022-01-21, 14:31:00
Die TFlops nützen hier eh nicht viel (SiSoft Resultate sind übrigens MPix/s --> != TFlops). Innerhalb ähnlicher Architekturen ist ein relativer Vergleich möglich. Bei verschiedenen Architeturen nicht wirklich brauchbar und bei unbekannter Spieleperformance wie bei Arc faktisch unmöglich.
Hier wird reine Compute-Leistung aufgezeigt, was vor allem für Produktivanwendungen wohl schon ein guter Indikator ist. Für Spieleperformance eher nicht geeignet.
Intel ist in Compute oder auch synthetischen 3D Sachen wie 3dmark eigentlich schon immer verhältnismäßig gut unterwegs gewesen, insofern sollte die Sisoft Performance nicht überraschen. 2.1 Ghz sind nahe am anvisierten Ziel, angepeilt waren 2.2 Ghz bei der DG2-512. Falls die 2.1 Ghz schon final sind, haben sie das target knapp verfehlt.
Mit den TFlops hat Sisoft wie angemerkt nicht zu tun. 2.1 Ghz bei 512 EUs entsprechen 17.2 Tflops, bei 2.2 Ghz wären es 18 Tflops.
Für 20 Tflops wären 2.45 Ghz notwendig. Das wäre machbar, weil ja die DG2-128 bei 2.45 Ghz taktet, doch wird die Effizienz nach unten gehen und die TBP steil nach oben. Intel müsste bei der TBP dann schon aggressiv sein.
fondness
2022-01-22, 20:24:57
Intel schafft es echt noch mit ihren GPUs den Mining Boom zu verpassen. Wenn die Cryptos weiter so einbrechen, können die GPU Preise schnell wieder unten sein.
Slipknot79
2022-01-23, 03:03:28
Wir sind immer noch +300% bei den Kryptokursen im Vgl zu Sommer 2020 bevor die GPU Preise explodierten.
Da wird bei den GPU-Preisen noch lange nix so schnell dropen.
TheAntitheist
2022-01-23, 07:59:36
Ampere hat auch Unmengen an TFLOPs, wieviel die wert sind wissen wir bereits.
joa kommt aufs Szenario an, FP Leistung brauch man ja auch für RT und dann ist der Unterschied zu RDNA2 schon gewaltig...:rolleyes:
konkretor
2022-01-23, 11:15:05
Gibt wohl neue Varianten
https://www.phoronix.com/scan.php?page=news_item&px=Intel-DG2-G12-Linux
Gandharva
2022-01-23, 11:21:19
Intel schafft es echt noch mit ihren GPUs den Mining Boom zu verpassen. Wenn die Cryptos weiter so einbrechen, können die GPU Preise schnell wieder unten sein.
Zukünftige GPUs werden für Mining schlicht ungeeignet sein. Stattdessen dedizierte Karten für Mining mit wesentlich höherer Gewinnspanne für die Hersteller. Das ist nur eine Frage der Zeit.
konkretor
2022-01-23, 11:48:47
https://www.coelacanth-dream.com/posts/2022/01/16/xe_hpg-hpc-eu-inst/
Link kam von hier
https://twitter.com/davideneco25320/status/1485201202711257090?s=20
AffenJack
2022-01-23, 12:24:21
Wir sind immer noch +300% bei den Kryptokursen im Vgl zu Sommer 2020 bevor die GPU Preise explodierten.
Da wird bei den GPU-Preisen noch lange nix so schnell dropen.
Du vergisst, dass auch die Difficulty deutlich gestiegen ist und es das PoS Gespenst noch irgendwo gibt.
Laut Internet ist man bei ner RTX3080 (hohe Hashrate) bei unter 3$/Tag gerade und das bei günstigen Strom. Da werden dir die meisten Miner auch keine 1500$ mehr zahlen. Eher 1000$, um die Karte in einem Jahr wieder drin zu haben.
Heißt nicht, dass die Preise zur UVP zurückkehren, aber wenn die Coinpreise so bleiben wird es definitiv langsam runter gehen. Sobald dann aber durch Intel nochmal ne ordentliche Menge mehr GPUs auf den Markt kommen, kann es schnell abwärts gehen.
Allerdings auch nur, wenn AMD und Nvidia weiterhin ihre Kapazitäten gleich erhalten. Sollten die beiden wegen Intel ihre Produktion schon vorher runterfahren, weil sie Überproduktion befürchten, dann erledigt sich das.
Slipknot79
2022-01-23, 13:44:47
Es gibt mehrere Faktoren die beeinflussen, auch LHR, gestiegene Strompreise, Intel Graka release usw.
Die difficulty wird sich auch entsprechend anpassen.
Wir haben aber nicht mehr als die Vergangenheit um Vergleichbares zu suchen und Rückschlüsse daraus zu ziehen, besser gehts nicht.
Es muss noch ordentlich dropen am Kryptomarkt, dass was in den GPU Preisen passiert. Derzeit sind das eher noch dezente Moves.
Kann sein, dass es so weiter geht, bis wir aber bei UVP sind, ist schon die nächste AMD/NV Generation am Start.
Es müsste also sofort ordentlich krachen, damit es sich in absehbarerer Zeit in den GPU Preisen bemerkbar macht, das ist aber nicht zu erwarten.
Matrix316
2022-01-23, 15:47:58
Also ich muss sagen, wenn die Karten so um 3070/6800 Niveau sind und auch zu vernünftigen Preisen lieferbar, dann haben wir schon gewonnen. Wichtiger wären sogar noch mehr Karten im 3060/6700 Niveau die unter 500 euro kosten. Wenn Intel da liefern könnte, wäre das schon spitze.
Linmoum
2022-01-23, 15:55:08
Liefern kann an sich jeder Hersteller. Die Punkt ist nur, dass die Karten nicht dort landen, wofür sie als dGPUs eigentlich primär vorgesehen sind.
Auch Intel wird da nicht zaubern können. Wie auch?
Benutzername
2022-01-23, 16:14:10
Liefern kann an sich jeder Hersteller. Die Punkt ist nur, dass die Karten nicht dort landen, wofür sie als dGPUs eigentlich primär vorgesehen sind.
Auch Intel wird da nicht zaubern können. Wie auch?
Jeder Käufer muss persönlich vorstellig werden und darf nur eine mitnehmen. :wink:
Aber ja, stimmt schon. Wie soll man wirklich verhindern, daß die alle auch weggekauft werden.
Neurosphere
2022-01-23, 21:49:48
GPUs:
Intel DG2 is horribly late. Was supposed to be a high end product, but now it's basically a mid-high end product. Not really feature-rich? Not bad, just really late. Die sizes are large, so probably not very profitable. Charlie thinks there will be a lot of volume though. "Hundreds of thousands". Will probably have a big effect on GPU supply amongst OEMs, and hopefully open up more options for enthusiasts.
DG3 is the first GPU Raja will have designed from the beginning, and launches at the end of this year/early next year.
Kann ich mir nicht vorstellen. Entweder wird DG3 das Portfolio nur nach oben ergänzen oder kommt halt nicht so früh. Andernfalls hätte man DG2 ald dGPU fast schon wieder sterben lassen können.
Matrix316
2022-01-23, 22:14:11
Das ist doch die wichtige Aussage:
Charlie thinks there will be a lot of volume though. "Hundreds of thousands". Will probably have a big effect on GPU supply amongst OEMs, and hopefully open up more options for enthusiasts.
DG3 Ende 2022 oder Anfang 2023 ist viel zu früh, das ist doch wirklich unrealistisch. Wenn das so wäre, hätte man schon viel mehr zur DG3 gehört. DG3 ist nicht nur eine DG2 mit mehr Einheiten, das ist ein Architekturupgrade (12.7 auf 12.9) und gleichzeitig shrink auf 4nm oder 3nm. MLID hat letztens gesagt, Intel würde mitte 2023 anpeilen. Mitte 2023 hört sich realistischer an. Vorher würde ich da nichts erwarten.
konkretor
2022-01-24, 09:49:57
https://twitter.com/9550pro/status/1485527258399854594?s=20
Memory configuration
Neurosphere
2022-01-24, 12:35:26
https://twitter.com/9550pro/status/1485527258399854594?s=20
Memory configuration
Bin gespannt ob der Chip an der Bandbreite verhungert oder ob sie ebenfalls mit einer Cachelösung wie AMD aufwarten.
basix
2022-01-24, 13:18:48
DG2-512 soll anscheinend 16 MByte L2$ mitbringen. Was relativ viel ist für eine GPU. IF$ oder etwas ähnliches wäre eine Überraschung.
Performance wird mit ~3070 angepeilt. Bei 512 GByte/s könnte das schon klappen. Die 3070 hat nämlich 448 GByte/s mit 4MByte L2$ ;)
davidzo
2022-01-24, 13:45:20
Die sizes are large, so probably not very profitable.
Macht imo nicht wirklich sinn. Die-sizes sind ja mehr oder weniger confirmed bei 398mm2 für 512EU und 147mm2 bei 128. Große Veränderungen erwarte ich da nicht mehr.
Das ist weder besonders groß, noch bei den aktuellen Preisen unprofitabel.
Sicher, wenn man das mit der 6500xt vergleicht ist es groß, aber Navi24 ist aucb etwas niedriger angesetzt. Gegenüber der RTX 3050 mit GA106 ist das winzig und auch gegenüber GA104 ist DG2-512 flächenmäßig sehr konkurrenzfähig.
N6 soll außerdem kein besonders teurer Node sein. Weniger EUV steps als 5nm und geringere Maskenkosten durch reduziertes multipatterning und weniger processing steps. Dazu äußerst robuste Yields durch die N7 Abstammung. Das ist eigentlich der neue Volumennode, während N7P mal cutting edge war, das was nun gerade 5nm ist.
Ich habe das gefühlt Charlie plappert mal wieder zuviel... wäre ja nicht das erste mal dass er eine lose Info von OEMs deutlich überinterpretiert.
Iamnobot
2022-01-24, 15:32:37
https://twitter.com/9550pro/status/1485527258399854594?s=20
SKU4/5 mit 128/96 EUs sehen angesichts von bis zu 96 EUs bei den mobilen Alder Lakes nicht wirklich sinnvoll aus...
aceCrasher
2022-01-24, 15:40:22
SKU4/5 mit 128/96 EUs sehen angesichts von bis zu 96 EUs bei den mobilen Alder Lakes nicht wirklich sinnvoll aus...
Das eigene Speicherinterface macht schon was aus, unabhängig von den EUs sind integrierte Grafikeinheiten eigentlich fast immer von ihrer nutzbaren Bandbreite limitiert. Zudem hebelt eine dedizierte DG1 auch das Problem von Modellen mit nur einem Ram Modul aus - sowas kommt leider immer noch viel zu oft vor.
ChaosTM
2022-01-24, 15:43:52
Die Frage wird halt sein, wie gut man die Rohpower auf die Straße bringt und dann sind da noch die Treiber. Spannend !
basix
2022-01-24, 15:55:05
SKU4/5 mit 128/96 EUs sehen angesichts von bis zu 96 EUs bei den mobilen Alder Lakes nicht wirklich sinnvoll aus...
Siehe 6500XT/6400 vs. Rembrandt mit 12 CU. Ist genau das selbe Spiel dort. Irgendwo wird einfach eine dGPU verlangt als System Seller. Und im Desktop macht das als Low End Karte ebenfalls Sinn (Navi 24 aus gewissen Limitationsgründen nicht unter allen Bedingungen ;))
Ich habe schon im 6500XT Thread geschrieben, dass diese GPUs ohne Crossfire mit der iGPU nur begrenzt zu einer erhöhten Performance beitragen.
Das eigene Speicherinterface macht schon was aus, unabhängig von den EUs sind integrierte Grafikeinheiten eigentlich fast immer von ihrer nutzbaren Bandbreite limitiert. Zudem hebelt eine dedizierte DG1 auch das Problem von Modellen mit nur einem Ram Modul aus - sowas kommt leider immer noch viel zu oft vor.
64bit @ 14Gbps = 112 GByte/s
LPDDR5 mit 6400 MT/s bei Dual-Channel Konfiguration = 102 GByte/s
LPDDR5X mit 8533 MT/s bei Dual-Channel Konfiguration = 136 GByte/s
Aus meiner Sicht wird die iGPU eher von der TDP als der Bandbreite eingebremst. Zumindest diese Generation, da neu halt LPDDR5(X) zum Einsatz kommen wird.
Fusion_Power
2022-01-24, 16:10:31
Die Frage wird halt sein, wie gut man die Rohpower auf die Straße bringt und dann sind da noch die Treiber. Spannend !
Das sowieso. Und mich interessiert auch, wie sich eine vergleichbare externe GraKa mit ihrem iGPU Pendant schlägt. Ist z.B. die externe mit 96XE schneller oder langsamer als die 96XE iGPU? Und ist jene externe mit 128XE messbar schneller als die kleinere? Und wie viel mehr Strom werden die externen verbrauchen im Vergleich zu denen auf der CPU? Spannend.
SKU4/5 mit 128/96 EUs sehen angesichts von bis zu 96 EUs bei den mobilen Alder Lakes nicht wirklich sinnvoll aus...
Xe HPG kann viel höher takten als Xe LP, eine 2 Ghz taktende 128EU Version hätte fast die doppelte Rechenleistung. Rein von den specs wäre so eine 128EU Version mit 4GB VRAM und 112GB/s deutlich oberhalb einer MX450 angesiedelt.
Ich habe das gefühlt Charlie plappert mal wieder zuviel... wäre ja nicht das erste mal dass er eine lose Info von OEMs deutlich überinterpretiert.
Vielleicht hat er Quellen, er kann es nur nicht richtig verarbeiten. Ein bisschen mit Verstand muss man da schon rangehen.
Das sowieso. Und mich interessiert auch, wie sich eine vergleichbare externe GraKa mit ihrem iGPU Pendant schlägt. Ist z.B. die externe mit 96XE schneller oder langsamer als die 96XE iGPU? Und ist jene externe mit 128XE messbar schneller als die kleinere? Und wie viel mehr Strom werden die externen verbrauchen im Vergleich zu denen auf der CPU? Spannend.
DG1 ist power limitiert. Bei 25W Boardpower bleiben 10-11W für die GPU selber übrig, das ist zu wenig. Die iGPU kann höher takten bei 28W package power. Die Desktop DG1 hat zudem nur 80EUs.
aceCrasher
2022-01-24, 16:18:30
64bit @ 14Gbps = 112 GByte/s
LPDDR5 mit 6400 MT/s bei Dual-Channel Konfiguration = 102 GByte/s
LPDDR5X mit 8533 MT/s bei Dual-Channel Konfiguration = 136 GByte/s
Da sind aber zwei große IFs drin.
Es ist wie gesagt nicht immer Dual channel vorhanden, ich hab schon zu viele Laptops gesehen bei denen nur ein RAM Slot belegt ist, dann ist die verfügbare Bandbreite schnell mal halbiert.
Zusätzlich ist diese Bandbreite auch nur komplett verfügbar falls die CPU nichts davon nutzt. Beim Spielen beispielsweise wollen die CPU Kerne ja auch Bandbreite, da bleiben dann definitiv nicht die vollen 102GByte/s übrig.
basix
2022-01-24, 16:27:38
Da sind aber zwei große IFs drin.
Es ist wie gesagt nicht immer Dual channel vorhanden, ich hab schon zu viele Laptops gesehen bei denen nur ein RAM Slot belegt ist, dann ist die verfügbare Bandbreite schnell mal halbiert.
Zusätzlich ist diese Bandbreite auch nur komplett verfügbar falls die CPU nichts davon nutzt. Beim Spielen beispielsweise wollen die CPU Kerne ja auch Bandbreite, da bleiben dann definitiv nicht die vollen 102GByte/s übrig.
Klar, bei nur Single Channel kann man iGPUs eh vergessen. Wir hier als versierte Nutzer sollten sowas aber rausfinden können ;) Für den DAU ist das eher ein Problem.
Ich stelle hier eher die Performance/Kosten Frage: Eine dGPU mit 4GByte GDDR6 + Alder Lake 45W wird deutlich mehr kosten als ein Alder Lake 45W System mit Dual Channel LPDDR5. Bezüglich Komponenten aber auch bezüglich PCB und Kühlung.
Und zur CPU Bandbreite: Bei Spielen braucht die CPU nicht sehr viel Bandbreite. Klar, etwas reduziert wird es sein. Bei den Konsolen hatte man das mal abgeschätzt und das bei deutlich Latenz-reicherem GDDR5/6. Und dort waren es irgendwie 50 GByte/s, welche man nicht nutzen kann. Bei Speicher mit niedrigerer Latenz DDR5 und auch schwächerer GPU sollte der Overhead geringer ausfallen.
Die dGPU wird definitiv schneller sein. Aber so viel schneller wird eine 35W dGPU gegenüber einer iGPU in einem 45W SoC nicht sein. Sehr ähnliche Wattagen für die GPUs und die effektiv nutzbare Bandbreite wird nicht weit auseinanderliegen. Ausser du hast natürlich nur Single Channel, was aber wie oben beschrieben auch aus Seiten OEM dämlich sein müsste, wenn man Alderlake + Dual Channel LPDDR5 und Alder Lake + dGPU vergleicht.
LPDDR5-5400 ist das Maximum bei ADL-P, mehr geht nicht.
basix
2022-01-24, 16:35:53
Woher hast du diese Info? Finde dazu nichts...
Ich muss mich korrigieren, es sind maximal LPDDR5 5200. Und wo das steht? Eigentlich überall, auf Intel ark oder sämtlichen CES News zum lineup, das sollte überall dabei stehen. Oder hier: https://www.intel.com/content/www/us/en/products/platforms/details/alder-lake-p.html
https://download.intel.com/newsroom/2022/ces2022/intel-ces-2022-press-deck.pdf
basix
2022-01-24, 17:49:51
Alles klar, danke. Bei ARK bin ich nicht schauen gegangen.
In den gängigen ADL-P/U Vorstellungsnews fand man eigentlich gar nichts zum LPDDR Speed, nur dass LPDDR unterstützt wird. Überall steht das also mitnichten ;)
konkretor
2022-01-28, 15:32:23
https://www.phoronix.com/scan.php?page=news_item&px=Intel-DG2-ReBAR-Linux-Prepare
Intel Preparing Resizable BAR Support For Their Arc Graphics On Linux
y33H@
2022-01-28, 16:25:55
In den gängigen ADL-P/U Vorstellungsnews fand man eigentlich gar nichts zum LPDDR Speed, nur dass LPDDR unterstützt wird. Überall steht das also mitnichten ;)Falsche Webseiten besucht :redface:
https://scr3.golem.de/screenshots/2201/Alder-Lake-H-P-U-Intel/thumb620/ADL-H-P-U-02.png
KarlKastor
2022-01-29, 06:19:17
Ich frage mich warum die dem mobile PCH immer so viele PCIe Lanes spendieren. Wird dich nie genutzt, selbst bei mobilen Workstation.
basix
2022-01-29, 10:24:36
Weil die fast nichts kosten. 2mm2 für 4x Lanes. Und oftmals ist PCIe noch mit SATA geshared.
RavenTS
2022-01-29, 13:22:43
Die Frage wird halt sein, wie gut man die Rohpower auf die Straße bringt und dann sind da noch die Treiber. Spannend !
Kann man da nicht langsam anhand von Notebooks mit DG1 erste Eindrücke bekommen über einen Test mit einem größeren Lineup an Titeln?
y33H@
2022-01-29, 13:29:55
Ist ja nicht die selbe Architektur.
RavenTS
2022-01-29, 16:38:24
Ist ja nicht die selbe Architektur.
Das nicht, aber dürfte der Treiber zumindest in Sachen Spiele-Support nicht zumindest einen ähnlichen Stand haben auch wenn die grundlegende Hardware ein wenig anders aussieht bzw. natürlich Spiele-spezifische Anpassungen/Fixes für DG2 in einem anderen Entwicklungszweig laufen?
sapito
2022-01-29, 16:45:28
Das nicht, aber dürfte der Treiber zumindest in Sachen Spiele-Support nicht zumindest einen ähnlichen Stand haben auch wenn die grundlegende Hardware ein wenig anders aussieht bzw. natürlich Spiele-spezifische Anpassungen/Fixes für DG2 in einem anderen Entwicklungszweig laufen?
Äpfel Birnen Vergleich > beides Obst aber doch Grundverschieden
....
Leonidas
2022-01-30, 04:24:30
Raja Koduri:
I am with you, @pcgamer. This is a huge issue for PC gamers and the industry at large. @IntelGraphics is working hard to find a path towards the mission - getting millions of Arc GPUs into the hands of PC gamers every year.
https://twitter.com/Rajaontheedge/status/1487259645961854976
https://pbs.twimg.com/media/FKQv41hXMAMW2td.jpg
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.