PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - DG3 "Battlemage" (Xe2-HPG, Arc B-Series, 2024)


Seiten : [1] 2 3

Leonidas
2022-01-02, 03:37:18
3DCenter-Newsindex zu DG3 "Battlemage":
https://www.3dcenter.org/news/intel-battlemage

https://www.3dcenter.org/dateien/abbildungen/Intel-Xe-Roadmap.vorschau2.jpg

josefYY
2022-01-02, 08:32:04
Zugriff verweigert
Sie haben keine Zugriffsberechtigung für diese Seite. :confused:

Leonidas
2022-01-02, 15:44:19
Gefixt. Hatte vergessen die Seite zu "veröffentlichen".

mocad_tom
2022-02-14, 11:54:17
Da es hier ja ein Spekulations-Thread ist.
Und da sich die Anzeichen auf eine Multichip-Lösung hin verdichten.

MMn wird es Foveros.

Im Base-Die in Intel 10nm steckt der PCIe 5.0 Controller, der Memory-Controller, die Caches für die Display-Ausgabe (wenn hier drei 8K-Monitore HDR bedient werden können, dann kommen hier auch größere Mengen zusammen).

Der einzel GPU-Die von TSMC im 3nm-Verfahren wird nicht besonders groß, weil vieles in den Base-Die gewandert ist.

Die GPU wird eine Art Pipe-Cleaner.
Es wird der erste größere Auftrag im 3nm-Verfahren. Alle anderen Firmen, die jetzt aktuell Volumen benötigen greifen für diesen Herbst noch zum TSMC 4nm-Verfahren.
Das Die wird nicht besonders groß und selbst hierbei wird noch Redundanz mit dabei sein.

4 GPU-Dies und ein Base-Die ergeben die größte Ausbaustufe (meine Spekulation).

Foveros zusammengesetzt wird dann in den Werkshallen von Intel.

Wahrscheinlich ist der Battlemage-GPU-Die und der Meteor-Lake-GPU-Die ziemlich ähnlich aufgebaut.

Es ist ja z.B. auch ziemlich interessant, dass Intel ein extra Team für Low-Power-GPUs zusammenstellen will.

basix
2022-02-14, 12:31:41
Laut einigen Tweets zu Battlemage bin ich bei 10 GPU Die angelangt ;)

https://www.3dcenter.org/news/geruechtekueche-intels-dg3-battlemage-soll-einen-angriff-auf-die-leistungsspitze-bringen

ELG_X4 = 10x4

Wenn man sich die anderen SKUs ansieht, ist 10 vermutlich die Anzahl Chiplets.

ryan
2022-02-14, 13:16:22
Da es hier ja ein Spekulations-Thread ist.
Und da sich die Anzeichen auf eine Multichip-Lösung hin verdichten.

MMn wird es Foveros.

Im Base-Die in Intel 10nm steckt der PCIe 5.0 Controller, der Memory-Controller, die Caches für die Display-Ausgabe (wenn hier drei 8K-Monitore HDR bedient werden können, dann kommen hier auch größere Mengen zusammen).

Der einzel GPU-Die von TSMC im 3nm-Verfahren wird nicht besonders groß, weil vieles in den Base-Die gewandert ist.


Ich würde 4nm nicht ausschließen: https://twitter.com/chiakokhua/status/1474308871774609411/photo/1


Laut Digitimes hätten Intel und Apple Produktpläne für 4nm. Hängt natürlich vom Zeitraum ab. Einge reden von Anfang 2023 für Battlemage, in dem Fall wäre es glaube ich zu früh für 3nm, jedenfalls für größere Volumen. Wenn man von mitte 2023 oder später ausgeht, könnte es anders aussehen.

ryan
2022-03-03, 17:57:01
Btw BMG also has a very large cache

I'm not 100% sure because each different Intel team has a different name for the cache (L3 vs L4 for example) but it seems to be 112MB.
https://twitter.com/Kepler_L2/status/1498955114765336580

basix
2022-03-03, 20:48:01
Ich finde es interessant, dass alle drei grossen GPU-Vendors in die selbe Richtung gehen:
- Compute Centric
- Grosse Last Level Caches
- Matrix/Tensor Cores (RDNA3 noch unsicher)
- RT-Beschleunigung inkl. BVH Acceleration Structure
- Chiplets (RDNA3, Battlemage, vermutlich Lovelace Next)

Alle haben die selben Probleme. Alle scheinen deswegen in eine ähnliche Richtung zu gehen.

DavChrFen
2022-03-05, 04:15:06
Gerade bei den Chiplets, also wie viele, wie viele verschiedene, wo kommt der Cache, der Memmory Controller usw. hin, wie ist die Kommunikation etc., sehe ich die größten Unterschiede.

Leonidas
2022-08-02, 14:08:30
HBM in Battlemage?
https://twitter.com/Kepler_L2/status/1554146833244512257

basix
2022-08-02, 15:28:59
Für iGPUs und mGPUs von potentiellem Vorteil. Für dGPUs: Teuer...

w0mbat
2022-08-02, 18:01:42
Meinte Raja nicht, dass HBM für consumer tot ist?

ryan
2022-09-01, 00:34:44
Intel says it's fully committed to discrete graphics as it shifts focus onto next-gen GPUs (https://www.pcgamer.com/intel-committed-to-arc-graphics-cards/)



"We're not going anywhere on our discrete business. And our discrete business is the basic technology development that goes both into the data centre and integrated GPUs," Intel's Tom Petersen says.

"I feel like there's a lot of FUD (fear, uncertainty, and doubt) out there. I'd just like to be clear: we're not going anywhere," he continues.

"Most of our ASIC team is on Battlemage," Petersen says. "A small portion of it is on our future, which is Celestial. And then there's a very small portion on Alchemist today, but they're kind of different function sets. So like a board and, what I'll call, chip teams are on Alchemist right now. Kind of think of it as getting our board just right, getting our BIOS just right, making all the final tuning. But the bulk of our design team is on Battlemage.

"The bulk of the driver team is on Alchemist, but there's a small portion of the driver team, and it's the same people it's just like a portion of their time, working on Battlemage doing emulation, doing simulation, doing pre-silicon work. So that we have high confidence that we bring Battlemage to market more quickly with less surprises. With less growing pains."



Hört sich nicht so an, als wenn Intel die dGPU Sparte cancelt.

davidzo
2022-09-01, 12:28:55
Ja, das Team selbst vielleicht nicht, aber Pat. Es geht aber glaube ich auch weniger um Canceln als vielmehr um Stripping.

Der würde die ja auch nicht canceln, sondern eine neue Firma wie sie ist mit engineers, lizenzen und Fertigungsmöglichkeiten ausstatten dass man die noch gewinnbringend verkaufen kann. Die würden als unabhängiger GPU ISP operieren und dafür brauchen sie eben alles um alleine zu überleben plus frisches Geld zum Wachsen. Die Gewinnmöglichkeiten in einigen Jahren sind ja sehr attraktiv im GPUmarkt wie man an den vielen chinesischen GPU-startups sieht.
Das wäre für Intel eine gute Möglichkeit die Verluste zu begrenzen bzw. mehr externes Geld rein zu holen. Sicher, das was man reingesteckt hat bleibt erstmal drin, aber man muss nicht mehr alles für die Zukunft alleine stemmen. Einfach die Hälfte an der neuen Firma behalten, die andere an Investoren verkaufen welche die neue Firma mit frischem Kapital ausstatten. Lizenzdeal für IGPs inklusive, das wäre für die Investoren sogar ein Bonus weil sichere Einnahmen.

ryan
2022-09-01, 12:44:01
Ja, das Team selbst vielleicht nicht, aber Pat. Es geht aber glaube ich auch weniger um Canceln als vielmehr um Stripping.



Achso :freak:


"The thing I happen to believe—Pat, and I, and Roger, and Lisa, and Ryan, everybody is aligned on the idea—that graphics is a critical technology to the client, is a critical technology to the data centre, and we want to start competing in the mainstream area where our competitors are making a tonne of money. So all three of those things are critically important for Intel."


Das ist genauso FUD wie die Meteor Lake Meldung von Trendforce. Es wird echt unglaublich viel Müll geschrieben, nur um ein paar Clicks zu erhaschen. Die cancelling Meldung war von Anfang an fishy und hat gar kein Sinn ergeben.

Leonidas
2023-03-27, 14:55:13
Gerüchteküche: Intels "Battlemage" Grafikchip mit einer Verdopplung auf 64 Xe-Cores im ersten Halbjahr 2024
https://www.3dcenter.org/news/geruechtekueche-intels-battlemage-grafikchip-mit-einer-verdopplung-auf-64-xe-cores-im-ersten-ha

Battlemage – general specs & overview
• 64 Xe Cores (doubling that of A770)
• Clock targets 3Ghz+
• 256Bit Bus, GDDR6(X?)
• 48MB L2 cache
• Similar die sizes to AD103
• TSMC 4nm
• Launch for gaming variant Q1/Q2
• Melville Sound (BM DC) is 2nd Half, 2024
Less certain of:
• ‘Big’ Improvements in Ray Tracing / ML performance
• Overhaul to the Xe cores, particularly SIMD instructions

Κριός
2023-03-27, 15:20:45
Hardware verdoppelt und dazu 40% mehr Takt... Wenn die Karte nicht allzu spät kommt, könnte sie interessant werden.

Exxtreme
2023-03-27, 15:24:09
Jau. Eine Karte, die in etwa auf RTX4070Ti-Level ist mit 16 GB RAM und eventuell vernüftigeren Presien wäre wohl durchaus zu gebrauchen.

HOT
2023-03-27, 15:36:09
Es steht ja zu hoffen, dass man bis dahin den Treiber einigermaßen im Griff hat. Da es nur noch ein Chip ist bei BM offenbar, wird man das auch hoffentlich pünktlich im H1 24 schaffen dieses Mal :D.
Celestral würd ich auch nicht mit Chiplets sehen, das wird wohl erst bei Druid der Fall sein. Celestral dürfte dann C770 in N3X werden (BM soll ja N4X sein und Ce offenbar N3X).

Κριός
2023-03-27, 15:59:03
Es steht ja zu hoffen, dass man bis dahin den Treiber einigermaßen im Griff hat.

Für neuere Spiele brauchst du dir keine Sorgen machen. Für ältere Spiele wird Intel sicherlich noch breite Kompatibilität bringen und heute noch breit gespielte wie CS weiter optimieren.

Aber auf mehr brauchst du nicht zu hoffen. Dafür ist die Zahl der Spiele der Vergangenheit zu groß und das Treiberteam braucht ihre Manpower für die dutzenden Spiele die jeden Monat released werden.

HOT
2023-03-27, 17:01:49
Die werden in alle Richtungen weitermachen, deine Spezialisierungstheorie ist schlicht Blödsinn. Natürlich optimiert man nicht jedes alte Spiel, aber man schaut sich ne Menge alter Games und passt entsprechend den DX9/10- und DX11- sowie OpenGL-Treiber so an, dass der Großteil davon gut läuft. Die jüngst erzielten Durchbrüche sind nicht unbedingt Einzeloptimierungen (abgesehen jetzt mal von e-Sports-Titeln, die heute noch gespielt werden). Die Entwicklung geht an allen Fronten weiter. Und von dieser Basis aufgebaut wird dann der neue Treiber von BM. Dass man jetzt schon spezialisierte Treiber für neue Spiele bringt ist entweder pures Marketing (und in Wirklichkeit passiert nicht viel, müsste man nachmessen) oder ein gutes Zeichen, dass man schon dafür Ressourcen bereitstellen kann, den Treiber wirklich aktuell zu halten.
Intel ist ja in der guten Situation, dass man nur noch Windows 10/11 64 unterstützen muss. Das war vor ein paar Jahren noch weit schwieriger ;).

Κριός
2023-03-27, 18:49:58
Gratulation du hast gerade meinen Post in anderen Worten widergegeben.

basix
2023-03-27, 19:01:42
Hardware verdoppelt und dazu 40% mehr Takt... Wenn die Karte nicht allzu spät kommt, könnte sie interessant werden.

Jop, wäre ziemlich fein. Allerdings erst 2024. Wenn sie Pech haben, ist sowas wie RDNA4 nicht viel später dran.

Dasd Intel auf DXVK für alles zwischen FX7...DX11 setzt finde ich zudem top. Ist für sie einfach die beste Lösung.

horn 12
2023-03-27, 19:43:49
1-te bis 2-te Quartal 2024
Da ist (Reine! Spekulation) eine 7900XT bei 629 bis 679 Euro
und eine XTX wohl bei 849 Euro.

Was will da intel noch groß reißen?

arcanum
2023-03-27, 20:27:51
1-te bis 2-te Quartal 2024
Da ist (Reine! Spekulation) eine 7900XT bei 629 bis 679 Euro
und eine XTX wohl bei 849 Euro.

Was will da intel noch groß reißen?

Alles eine Frage vom preispubkt. In Q4 hat Intel so viele Grafikkarten wie AMD verkauft. Sagt natürlich nichts über Umsatz und Gewinn aus aber für AMD wird die Luft am graka Markt gerade sehr dünn.

crux2005
2023-03-27, 23:13:53
Jau. Eine Karte, die in etwa auf RTX4070Ti-Level ist mit 16 GB RAM und eventuell vernüftigeren Presien wäre wohl durchaus zu gebrauchen.

Ja, jetzt. Aber wenn dann in 1-2 Monaten schon die neue Gen. von AMD und NV vorgestellt wird interessiert diese B770 oder B780 Karte nur die wenigsten.

Exxtreme
2023-03-27, 23:20:36
Ja, jetzt. Aber wenn dann in 1-2 Monaten schon die neue Gen. von AMD und NV vorgestellt wird interessiert diese B770 oder B780 Karte nur die wenigsten.

Kommt drauf an was sie kostet und was die Konkurrenzkarten kosten. :) Kann gut sein, dass Intel über die Masse geht. Wäre zwar ungewöhnlich für Intel. Aber nicht unmöglich.

reaperrr
2023-03-28, 00:29:00
1-te bis 2-te Quartal 2024
Da ist (Reine! Spekulation) eine 7900XT bei 629 bis 679 Euro
und eine XTX wohl bei 849 Euro.

Was will da intel noch groß reißen?
Laut MLID ist der eine BM-Chip nur ~250mm² und 256bit (16GB), kostentechnisch sollten sie damit trotz N3(P/X) nicht weit über AD104 landen, und definitiv unter AD103 (und N31 sowieso).

Bei angenommenen 9K je N6 Wafer und 20K je N3 Wafer wären das nur ~40% höhere Chipkosten ggü. Arc, während sie zumindest ca. doppelt so hohe Preise nehmen könnten, was dann ~650$ für den Vollausbau und ~500-550$ für Salvage wären.
Weniger als 649-699$ für 4080/79XTX-Leistung sehe ich bei NV und AMD in 2024 auch nicht, also könnte Intel das in etwa auch nehmen, wenn sie bei der Treiber-Qualität einigermaßen aufschließen.

davidzo
2023-03-28, 09:31:28
BM ist aber N4 und 250mm sind etwas zu wenig für die gemunkelten Spezifikationen.

AMD liegt beim N31 GCD bei 150Mtr/mm2 und nvidia bei AD102 bei 125Mtr/mm2. Da Intel hier wie bei nvidia auch das SI, PCIe und viel SRAM einbauen muss, was alles nicht gut skaliert würde ich die Density eher zwischen NV und AMD einschätzen, also maximal 150mm2.
ACM-G10 hat 21,7Mrd Transistoren auf 406mm2, also 53Mtr/mm2.

250mm2 wären nur 62% der Diegröße von ACM-G10, was bei 150Mtr/mm2 eine Transistoranzahl 37,5Mrd wahrscheinlich macht. Das ist AD104 Territorium und nur 72% mehr als ACM-G10.
Wie Intel mit nur 72% Zuwachs gleichzeitig die Einheiten verdoppeln, den Cache verdreifachen und die Raytracing performance und den Takt erhöhen ist mir schleierhaft. Das geht nur mit ernsthaften Architekturabspeckungen. Eine Reduktion der Transistoren pro Shadereinheit ist nichtmal AMD mit Navi21 gelungen und das war der größte Sprung den eine Architekturverbesserung in der jüngeren Zeit gemacht hat.

Entweder MLID liegt falsch und der Chip liegt eher bei 350+ mm2 oder die Gerüchteweisen Specs sind zumindest teilweise bullshit.

robbitop
2023-03-28, 10:01:59
Vielleicht macht die Battlemage uArch aber auch sowas was Nv und AMD gemacht haben als sie jeweils ihre CUs/SMs die Anzahl der FPUs verdoppelt haben. (wobei das bei RDNA3 etwas einschränkender ist). Das kostet dann nicht zwangsweise unglaublich viel Transistoren. Man schaue sich N33 ggü N23 um mit theoretisch bis zu 2x FP Output bei kleinerem die.

HOT
2023-03-28, 10:11:21
Vielleicht muss man BM als eine Art Radeon HD4000 zu Radeon HD3000 sehen.

robbitop
2023-03-28, 10:21:40
Ja man darf nicht vergessen, dass Alchemist verglichen mit NV/AMD relativ viel Fläche pro Performance verballert.

DG-512: 21,7 Mrd
GA104: 17,4 Mrd
GA106: 12 Mrd
N22: 17,2 Mrd
N23: 11 Mrd
N33: 13,3 Mrd

DG-512 liegt aber von der Performance eher auf GA106/N22 Level. Da ist pro Transistor noch eine Menge Luft nach oben. Eine Nachfolge uArch könnte potenziell deutlich effizienter pro Transistor sein. Das darf man nicht vergessen. Warum sollte man da nicht auch an Verbesserungen arbeiten?

ryan
2023-04-03, 18:03:58
Battlemage mit TSMC 4nm wird jetzt auch aus einer Quelle aus Taiwan angegeben. Produktionsstart H1 2024, launch H2 2024.


The report comes from the Taiwanese media outlet, ctee.com.tw, which has sources close to TSMC and Intel. According to the news outlet, TSMC has won a large order from Intel to produce its next-gen Battlemage and Celestial GPUs.

In terms of the development of the existing Arc-based GPU and consumer discrete graphics cards, although Intel is facing the pressure of inventory reduction in the production chain this year and facing greater challenges in operations, GPU R&D will continue as planned. According to industry sources, Intel will launch the second-generation Battlemage graphics chip with the Xe2 architecture in the second half of 2024, and the third-generation Celestial graphics chip with the Xe3 architecture in the second half of 2026.

It is understood that the second-generation Battlemage graphics chip will adopt TSMC’s 4-nanometer process, and it is expected to start production in the first half of 2024. The third-generation Celestial graphics chip will use TSMC’s 3-nanometer N3X process, and it will enter volume in the first half of 2026.
https://wccftech.com/intel-making-next-gen-gpus-at-tsmc-battlemage-4nm-2h-2024-celestial-3nm-2h-2026/

bbott
2023-04-03, 22:58:26
BM wird wohl auch 1-2Q Verspätung haben. Dann steht man Dank Next Gen NV / AMD wieder genau da wo man jetzt steht.

basix
2023-04-03, 23:38:58
Wenn Battlemage zwischen 4070 Ti und 4080 Performance landet (was bei 2x Xe-Cores und +30% Takt realistisch wäre), wäre das inkl. 16GByte eine ziemlich anständige Karte. Auch in 2024. Das noch zu einem anständigen Preis und mit stabilen Treibern und damit kann Intel auch mit AMDs und Nvidias NextGen konkurrieren. Nvidia verlangt für die 4070 Ti 799$. Bietet Intel etwas mehr für 599$ wäre das bereits etwas Fortschritt.

DrFreaK666
2023-04-04, 00:05:17
Am besten dann mit mehr als 12GB

basix
2023-04-04, 01:28:53
Soll ja 256bit haben ;)

robbitop
2023-04-04, 06:41:34
BM muss wahrscheinlich den Großteil der Lebenszeit gegen Blackwell und RDNA4 antreten. Ist natürlich trotzdem alles eine Frage des Preises. Aber ggf ändert sich die Situation für Intel nicht. A7xx ist bereits aus P/L Sicht die beste Karte. Scheint erstmal nicht viel zu bringen. Und mittlerweile sollen die Treiber deutlich besser sein was die Karte auch benutzbar macht.
Die nextgen wird BM wie bereits Alchemist eine Klasse herunterreichen. Käme man deutlich eher wäre es wahrscheinlich besser weil man dann gegen Ada und RDNA3 antreten würde. Wenn das Ding Mitte 24 kommt ist next gen schon um die Ecke.

Leonidas
2023-04-04, 09:36:18
BMG erst in H2/2024 in 4nm TSMC:
https://www.3dcenter.org/news/news-des-3-april-2023

Lehdro
2023-04-04, 15:18:24
Wenn das Ding Mitte 24 kommt ist next gen schon um die Ecke.
Wenn Mitte 24 der Intelfahrplan ist, siehst du die Karten Ende 24, kennt man ja. :redface:
In Q4 hat Intel so viele Grafikkarten wie AMD verkauft. Sagt natürlich nichts über Umsatz und Gewinn aus aber für AMD wird die Luft am graka Markt gerade sehr dünn.
Ich verweise mal auf die News dazu. Alles Humbug und nichts genaues weiß man nicht. (https://www.3dcenter.org/news/news-des-45-maerz-2023)

ryan
2023-04-04, 16:20:34
BM muss wahrscheinlich den Großteil der Lebenszeit gegen Blackwell und RDNA4 antreten. Ist natürlich trotzdem alles eine Frage des Preises. Aber ggf ändert sich die Situation für Intel nicht. A7xx ist bereits aus P/L Sicht die beste Karte. Scheint erstmal nicht viel zu bringen. Und mittlerweile sollen die Treiber deutlich besser sein was die Karte auch benutzbar macht.
Die nextgen wird BM wie bereits Alchemist eine Klasse herunterreichen. Käme man deutlich eher wäre es wahrscheinlich besser weil man dann gegen Ada und RDNA3 antreten würde. Wenn das Ding Mitte 24 kommt ist next gen schon um die Ecke.



Wahrscheinlich und wenn sind die Schlagworte. Also nur geraten. RTX 3060 und 3070 Nachfolger kommen jetzt erst 2.5 Jahre danach.

dildo4u
2023-07-07, 12:36:05
Angeblich kommt DG3 mit maximal 448 EU und 16GB GDDR6X/7.(4nm TSMC)
Er bezweifelt aber das die 2024 Termine gehalten werden.


V2O-bkJKbvo

ryan
2023-07-07, 12:46:26
Battlemage wird von Video zu Video immer größer bei ihm :freak: Von cancelled hin zum lowend und jetzt zum midrange.

HOT
2023-07-07, 12:50:26
Nope, er sagte schon sehr lange Zeit, dass das Lineup gecancelt wurde, jetzt hat er immer noch 2 Chips in seinen Folien, aber davon ist vorauszusehen, dass der größere ebenfalls noch dem Rotstift zuim Opfer fallen wird (oder gefallen ist). Das was die ganze Zeit Toms Meinung. Es wird mMn nur der 250mm²-Chip übrigbleiben um ein Grundlagenprodukt am Markt zu halten, das war auch Toms Speku seit ca. einem Jahr. Was in den Folien steht, und was er schußfolgert sind unterschiedliche Dinge ;).

Ich würde sagen, wir sehen einen BM-Nachfolger der A750 in 2H22 und der A380 wird einfach am Markt bleiben. Der zwischenzeitlich durchgesickerte N5-Refresh von Alechemist+ ist mMn auch komplett gecancelt worden, davon bleiben nur 2 Varianten für MTL übrig. Gleiches wird mMn auch für ARL passieren, man wird hier ebenfalls 2 BM-Varianten für die integrierte Grafik von ARL in N4 fertigen.

dildo4u
2023-07-07, 13:04:23
Ich sehe schon eine Lücke alles unter der 4070 ist ein Witz wenn DG3 vor dem NV Refrech kommt könnte man die Chips absetzen, AMD und NV werden ihre TSMC Kapazität wenn möglich in AI/Workstation Chips stecken.

W7800 ist 2.5K.

https://www.servethehome.com/amd-radeon-pro-w7900-and-w7800-aim-to-undercut-nvidia-rtx-pro-pricing/

Der Chip würde im Desktop maximal 600$ bringen.

HOT
2023-07-07, 13:07:41
Na ja, es ist ja davon auszugehen, dass NV das 4k-Lineup entweder aufsupern wird oder gleich komplett als 5k-Lineup refreshen wird. Außerdem ist nicht klar, was AMD noch in dem Segment liefern wird mit N32. Ich glaub nicht, dass der G10 das Licht der Welt erblicken wird, das wird sich mMn alles auf G21 beschränken, der dürfte ein Konkurrent für AD107 und N33, vielleicht auch AD106 werden.

Platos
2023-07-07, 17:32:09
Ich sehe schon eine Lücke alles unter der 4070 ist ein Witz wenn DG3 vor dem NV Refrech kommt könnte man die Chips absetzen, AMD und NV werden ihre TSMC Kapazität wenn möglich in AI/Workstation Chips stecken.

W7800 ist 2.5K.

https://www.servethehome.com/amd-radeon-pro-w7900-and-w7800-aim-to-undercut-nvidia-rtx-pro-pricing/

Der Chip würde im Desktop maximal 600$ bringen.

Battlemage kommt doch H2 2024, also vermutlich 1-2 Modelle Ende 2024 und der Rest des Lineups 2025. D.H sie werden voll mit Blackwell konkurrieren. D.h selbst wenn Intel doppelte Perfomance hinkriegt, werden sie immer noch abstinken.

DrFreaK666
2023-07-07, 17:35:31
Es wird auch kleinere Blackwell-Modelle geben (der Sweetspot was Preis-Leistung angeht für viele)

Loeschzwerg
2023-07-07, 17:40:24
D.h selbst wenn Intel doppelte Perfomance hinkriegt, werden sie immer noch abstinken.

P/L muss halt für den Kunden passen. Gepaart mit steigender Treiberqualität sehe ich da gute Chancen, wenn AMD/NV den Preisbereich bis 300-350USD weiterhin so verdursten lassen.

Platos
2023-07-07, 17:48:34
Mal ehrlich: Intel hat auch nur deshalb eine Chance beim P/L momentan, weil die Preise so beschissen sind.

Ansonsten finde ich die nicht wirklich gut.

Also Fazit: Ich sehe es nicht kommen, dass Intel da zum P/L Wunder wird. Das hätten sie auch jetzt machen können, sind sie aber nicht.

Die A770 hat m.M.n nicht wirklich ein so gutes P/L. Die A750 ist irgendwie mit ihren 8GB auch nicht so wirklich das Gelbe vom Ei (da nehme ich lieber eine AMD Karte aus RDNA2) und das darunter ist so schwach, dass es nicht erwähnenswert ist.

Also da muss Intel schon sehr viel machen, damit ich sagen, dass die ein gutes P/L haben.

robbitop
2023-07-07, 18:52:53
P/L muss halt für den Kunden passen. Gepaart mit steigender Treiberqualität sehe ich da gute Chancen, wenn AMD/NV den Preisbereich bis 300-350USD weiterhin so verdursten lassen.

Naja die 6700XT lässt den von dir genannten Preisbereich nicht gerade verdursten und steht doch ganz gut da.

ryan
2023-07-08, 13:43:31
Nope, er sagte schon sehr lange Zeit, dass das Lineup gecancelt wurde, jetzt hat er immer noch 2 Chips in seinen Folien, aber davon ist vorauszusehen, dass der größere ebenfalls noch dem Rotstift zuim Opfer fallen wird (oder gefallen ist). Das was die ganze Zeit Toms Meinung. Es wird mMn nur der 250mm²-Chip übrigbleiben um ein Grundlagenprodukt am Markt zu halten, das war auch Toms Speku seit ca. einem Jahr. Was in den Folien steht, und was er schußfolgert sind unterschiedliche Dinge ;).



Er sprach von ich zitiere "Discrete ARC is Effectively Cancelled". Er hat das ganze in die Welt gesetzt.


Ein paar Monate später wollte er vom angeblichen dGPU cancelling nichts mehr wissen, sondern sprach von einem low end Chip in einer Größe von mindestens 250mm². Im neuesten Video bringt er eine weitere Größe ins Spiel, einem midrange Chip mit 362mm² und 448 EUs. Mit jedem Update entfernt er sich von seiner ursprünglichen Nachricht, Intel würde sich aus dem dGPU Geschäft zurückziehen. 362mm² mit 448EUs erscheint mir auf den ersten Blick sehr groß für ein shrink von N6 auf N4.


Er ist nicht zuverlässig, was Battlemage angeht. Generell was Grafik angeht. Er redet ständig von Battlemage bei MTL und ARL, obwohl schon sehr lange klar gewesen ist, dass dem nicht so ist. Erst im neuesten Video ist er bei MTL zurückgerudert.

robbitop
2023-07-08, 13:51:26
Man muss aber auch bedenken, dass alles ein „moving target“ ist insbesodere für Produkte die noch 2-3 Jahre weg sind. Die Aussagen die man zu einem bestimmten Termin machen kann, basieren auf den Quellen die Informationen zu dem Zeitpunkt waren. Ändert sicht die Sachlage, sind natürlich Informationen aus der Vergangenheit obsolet. Vieles ist so früh in der Entwicklung noch dynamisch. Das muss man in der Kritik schon berücksichtigen.

MD_Enigma
2023-07-10, 11:36:47
Ich habe gelernt: Wenn man keine Ahnung hat, einfach mal Fresse halten. Ist halt genau das Gegenteil vom YouTube Geschäftsmodell - ich weis nicht warum man sich soetwas antut. Dieses Jahr schaue ich nichts mehr von Ihm und ich hab nicht das Gefühl etwas verpasst zu haben.

mocad_tom
2023-07-11, 11:09:42
Bei DG2-512 Alchemist gibt es 4096 FP32-Einheiten.

Bei DG3-448 Battlemage gibt es 7168 FP32-Einheiten.

!!Wenn!! dieses Die so in den Handel kommt.

Sie wollen bei Battlemage natives FP64 mit drin haben.
Melville Sound und Battlemage werden wahrscheinlich wieder das gleiche Die sein.

Wobei ich nicht genau weiß -> Lancaster Sound verwirrt mich.

Ist Alchemist-Refresh & Lancaster Sound miteinander verwandt
und Battlemage & Melville Sound

oder

Alchemist Arctic Sound
Battlemage Lancaster Sound (dieser ist gecancelt)
Celestial Melville Sound


Es gibt nämlich diese News und die verwirrt mich sehr:
https://videocardz.com/newz/intel-next-generation-data-center-gpu-likely-codenamed-lancaster-sound


Wenn Battlemage und Melville Sound im Prozess TSMC N4 sind und im H2 2024 (vllt sogar H1 2024) starten, dann ist Battlemage kein Effizienzweltmeister für Games aber ein starkes Stück Hardware mit einem ziemlichen Fokus auf Datacenter.

Verkauft er sich gut ins Datacenter, dann wird es nichts mit dem Preiskampf bei Gaming GPU, verkauft er sich schlecht im Datacenter, dann wird man Lippenstift draufmachen und ihn über Gaming GPU verkaufen (dann macht Computerbase wieder seinen Review dazu, wie ineffizient doch Intel GPU sind).

HOT
2023-07-11, 11:18:41
Red sagt, das Ding hätte Tape Out gehabt und das Silizium ist auf dem Weg. Damit wäre 2H 24 wahrscheinlich, dann aber eher Anfang Q3, wenn alles klappt.

ryan
2023-08-18, 12:55:37
Mit der Info, dass Battlemage auf eine SIMD16 EU Konfiguration umstellt, sehen die Daten von MLID sogar valide aus. Es deutet auch alles auf 2 Chips hin (G21+G10). Es gibt 2 Testkit-Adapter. (https://www.tomshardware.com/news/intel-battlemage-gpu-test-tools-reveal-larger-package-size-than-alchemist)

BMG-X2: BGA2362
BMG-X3: BGA2727


X3 hat etwas mehr Kontakte als DG2-512 mit shrink von 6nm auf 4nm.

ryan
2023-08-29, 12:40:09
Battlemage G10 im Labor gesichtet.


Im Failure Analysis Lab sind wir übrigens auf einen Tray gestoßen, der offensichtlich Chips der nächsten Arc-Generation enthalten hat – zumindest hatte man bereits entsprechende Chips in der Analyse, die als "BMG G10" klar daraufhin deuten.
https://www.hardwareluxx.de/index.php/news/allgemein/hardwareluxx/61729-vom-wafer-bis-zum-package-ein-besuch-bei-intel-malaysia.html


Es deutet viel darauf hin, dass Intel bei Battlemage den umgedrehten Weg geht und zuerst den größten Chip bringt. In der geleakten Roadmap war das auch schon zu sehen.


edit:

Und das schließt nicht nur die CPUs ein, denn an den Werkzeugkästen waren ebenfalls Aufkleber wie DG2-128, Intels aktuelle Arc-Grafikkarte, und BMG zu sehen – auch Battlemage, Intels nächster Grafikchip, wurde in Malaysia demzufolge schon mal gesehen.
https://www.computerbase.de/2023-08/besuch-intel-test-packaging-malaysia/

Radeonator
2023-10-05, 12:31:26
Anhand der bekannten Zahlen, welche theoretische Leistung würdet ihr erwarten, ausgehend von Alchimist derzeitigem Leistungsstand ?
Nicht zu vergessen das in 3nm gefertigt wird, daher auch die zu erwartende GHz einberechnen ;)

mocad_tom
2023-10-06, 09:02:09
Nichts durcheinanderwerfen

>It is also claimed that Battlemage GPUs will be fabricated on
>TSMC 4nm, and Celestial on 3nm processes at TSMC.


https://www.tomshardware.com/news/intel-battlemage-celestial-gpus-tsmc-report

Maximal-Ausbau von Battlemage könnte eine 4070ti mit 12GB in etwa erreichen.

Sie wird dabei aber mehr saufen und ab und zu in manchen Spielen Ausreisser nach unten haben.

Sie wir halt eigentlich mehr mit Augenmerk auf Datacenter gebaut werden. Wenn XeSS mit einem Spiel ordentlich zusammenspielt, dann wird das gut arbeiten.

mocad_tom
2023-10-11, 12:33:55
https://twitter.com/GraphicallyChal/status/1711814393384894475


>Intel Battlemage Flagship full specs
>
>Node: TSMC 4nm
>Xe: 56
>Shaders: 7,168
>Boost Clock: 2.8GHz
>Bus: 256bit
>
>The rest is unknown.
>
>Expect 4070 Ti in gaming. Could be 4080 in compute.

robbitop
2023-10-11, 12:42:26
Die Timeline wird relevant. Es könnte sein, dass man sich nicht an Ada orientieren muss (4070ti) sondern an Blackwell (5000 Series). Und dann ist man ggf. nur noch unteres Midrange (~5060).

Exxtreme
2023-10-11, 12:44:42
Und der Stromverbrauch wird auch interessant werden. Wenn das Ding 450 W zieht dann ist es auch keine Alternative.

ryan
2023-10-11, 12:55:50
Und der Stromverbrauch wird auch interessant werden. Wenn das Ding 450 W zieht dann ist es auch keine Alternative.


Gemäß alter Roadmap bleibt es bei max 225W. Das passt zu den angeblichen Specs. Die Effizienz sollte erheblich steigen dank 4nm und Architektur Verbesserungen. Schon Xe LPG in 5nm kommt mit erheblich weniger Spannung aus.

Exxtreme
2023-10-11, 13:02:40
225 W wären in der Tat sehr gut, ja. Wäre viel weniger als die direkte Konkurrenz.

maximus_hertus
2023-10-11, 13:26:34
Das könnte auf ein direktes Duell Battlemage Flagship vs Navi 43 hinauslaufen.

Ansonsten ist es nicht ganz unwichtig, wann Battlemage dann raus kommt / kaufbar sein wird.

HOT
2023-10-11, 13:32:57
N48. N43 wurde ebenfalls gecancelt. Aber sehe ich auch so, das wird das Duell sein. Mir gefällt, wie Intel momentan mit dem Treiber vorwärts kommt. Vielleicht ist man mit BM dann sogar halbwegs konkurrenzfähig.

davidzo
2023-10-11, 15:33:49
225 W wären in der Tat sehr gut, ja. Wäre viel weniger als die direkte Konkurrenz.

Große Probleme sehe ich noch bei der Idle und Teillast. Ähnlich wie AMD früher hat man das leider nur stiefmütterlich behandelt und sich erstmal auf die performance konzentriert. Mit BM muss Intel das fixen, denn die hohen Stromverbräuche im Idle sind bisher auch für OEMs unverträglich. Zum Teil liegt das sicher auch an Firmware und Treiberverhalten, aber das hin und herschalten zwischen verschiedenen Betriebsmodi erfordert nicht selten auch hardwareanpassungen um Instabilitäten zu vermeiden. Diesmal muss Intel Power Management von Anfang an in der Firmwareentwickung nach vorne stellen, sonst wird das wieder nichts wenn man sich erst dann drum kümmert wenn die steppings final sind oder gar die boards schon draußen sind.

robbitop
2023-10-11, 16:18:29
Wobei man immer konstatieren muss, dass ARC (das ist die uArch die wir kennen) die erste ihrer Art ist. Ein absolutes green slate design und das erste seiner Art mit Gaming Fokus. Dafür ist die uArch beeindruckend modern (deutlich moderner als RDNA3 und knapp hinter Ada; Level 4 RT HW und Matrixcores und sogar ein eigenes LL basierendes Upsampling...). Es ist nachvollziehbar, dass man pro Transistor nicht mit AMD und Nvidia mithalten kann.
Ich hoffe, Intel bleibt dran und gibt hier nicht auf - denn Iteration ist nun einmal immer notwendig, um richtig gut zu werden. Es muss deren Management klar sein, dass man mit den ersten paar Iterationen nicht vorn sein kann. Aber wenn man dran bleibt und iteriert, sind die Chancen sicherlich besser.

Für uns Endkunden ist ein dritter Marktteilnehmer wünschenswert, weil das Potenzial für etwas weniger komfortable Margen und damit attraktivere Preis/Leistung damit zurück kommen kann.

Die Treiber sind ja auch deutlich besser geworden. Ich drücke uns Endkunden die Daumen.

mocad_tom
2023-10-11, 18:27:23
https://twitter.com/SquashBionic/status/1712074332565033424

BionicSquash, der recht gut informiert ist, sagt:

> Battlemage has been scheduled for mid 2024
> since over a year ago

robbitop
2023-10-11, 19:37:14
Also hat man noch ein paar Monate Ada und RDNA3 als Wettbewerber. Aber der Großteil des Lebenszyklus muss man sich mit deren Nachfolger messen.

HOT
2023-10-11, 20:47:11
Da N4x wohl auch Mitte 24 kommt (ziemlich sicher) dürfte das direkte Konkurrenz sein.
Ich würd doch eher sagen, dass alle ihre Stärken und schwächen haben, und für ein Erstdesign ist ARC auch gut, da stimme ich zu. Klar, hat nicht den mordernsten Prozess abbekommen und Fläche und Energieeffizienz sind auch nicht so dolle, aber wenn Intel den Treiber hinbekommen hat, dürfte das Teil trotzdem ein gutes Erstlingswerk sein.
BM kann dann auch schon noch einen großen Schritt nach vorne machen, ich freu mich drauf. Zudem hat Intel noch Glück, dass sich AMD und NV verzögern mit den echten neuen Generationen, es kann durchaus sein, dass wird H2 25 alle 3 neuen Architekturen sehen werden und dann in N3. Möge der Bessere gewinnen ;).

davidzo
2023-10-11, 20:47:45
Wobei man immer konstatieren muss, dass ARC (das ist die uArch die wir kennen) die erste ihrer Art ist.


Bei der Performance pro Transistor muss ich dir zustimmen dass man da nicht viel mehr erwarten konnte. Allerdings aus dem einzigen Grund das Intel bisher noch keine so breite GPU gebaut hat. Die A380 performt weit über den theoretischen 25-33% die sie eigentlich bringen müsste. Performancetechnisch sind das also Skalierungsprobleme die "big" Alchemist ACM-G10 zurückhalten.

Ich stimme dir aber nicht zu dass Arc die erste diskrete µArch war und man daher alles andere durchgehen lassen kann. Der erste Chip dieser Art war DG1, also XP-LP. Auch die perf/transistor und die Treiberqualität hätte man also anhand DG1 und den IGP Vorgängerarchitekturen schon vorrausahnen können. Dafür dass das Powermanagement vergeigt wurde ist das aber keine Entschuldigung. Da gehts nicht um perf/watt unter Last, sondern um vernünftige idle Modi. Dafür hatte man ja DG1 zum lernen, das hätte mit DG2 besser funktionieren müssen.

iamthebear
2023-10-11, 21:00:00
Intel hat primär 3 Probleme:

1.) Das Design hinkt was die Performance/Fläche bei gleichem Node angeht meilenweit hinter Nvidia und auch noch ein Stück hinter AMD zurück.
Gegen Ampere ist das nicht so aufgefallen, da man einen Node Vorsprung hatte und Nvidia sich die günstigeren Produktionskosten durch billige Samsung Fertigung und geiz beim VRAM in Form von höheren Margen selbst einverleibt hat.
Nun gegen 5nm Karten wenn beide auf demselben Node sind wird das jedoch sehr klar ersichtlich.

2.) Intel hat massive Skalierungsprobleme, die primär vom hohen Treiber Overhead kommen. Intel hat starke Fortschritte gemacht aber wenn man performancemäßig höher hinaus will, dann liegt die Latte hier auch deutlich höher.

3.) Intel hinkt auch bei den Features hinterher. Bei FSR profitiert man zwar stark von AMD, jedoch bietet AMD auch immer mehr Treiberfeatures wie RSR, AFMF, AntiLag+, wo man überhaupt nichts als Konter hat. Ja man kann FSR3 nutzen aber der Input Lag ist grauenhaft.
Man hat eine Menge in RT Support investiert nur für die Zielgruppe ist das sowieso uninteressant. Da ist gutes Upscaling wichtiger.

davidzo
2023-10-11, 22:46:38
Intel hat primär 3 Probleme:
egen 5nm Karten wenn beide auf demselben Node sind wird das jedoch sehr klar ersichtlich.

Arc ist 6nm, da ist also schon ein Nodevorteil für Lovelace.


Abseits davon muss ich dir zustimmen das es hauptsächlich Skalierungsprobleme sind. Die A380 erreicht mit 1024 Shadereinheiten mittlerweile durchgängig bessere Leistungen als eine RX6400 mit 768Shadereinheiten bei praktisch identischen Taktraten. IPC-technisch ist das nicht schlecht, denn RDNA2 ist ein hoher Benchmark für ppa den selbst ampere meistens verliert. Auf WQHD schlägt die Arc sogar die 6500XT welche deutlich mehr Rechenleistung aufweisen kann.
Man braucht halt ein etwas breiteres Speicherinterface, was auch daran liegt dass der GDDR6 niedriger getaktet wird als bei einigen AMD Karten.
Navi24 ist auch hauptsächlich deswegen fast 1/3 kleiner mit 107mm2 vs 157mm2 bei ACM-G11 weil AMD die mediacodecs weglässt und PCIe beschnitten hat.

Aber nach oben skaliert Alchemist halt katastrophal. Während bei der A380 vs 64900/6500xt fast Gleichstand bei shadercount und Tflops herrscht, braucht die a580 ganze 3072Shader und 12,3Tflops um gerade so RX6600 Leistung zu erreichen (1792 Shader, 8,9Tflops). Und mit der A770 wird es noch schlimmer, die braucht praktisch schon 4K um sich nennenswert von der 6650xt abzusetzen.

Ein Großteil liegt am weiterhin hohen Treiberoverhead der einfach nicht genug draw calls schafft. Das wird sich zwar langsam immer mal wieder etwas verbessern, aber den großen Durchbruch bei den Treibern erwarte ich mit Battlemage nicht.
Ich denke vieles liegt aber auch am verkorksten GDDR6 Speichercontroller. cheese and chips hat festgestellt das einzelnen threads bzw bei zu niedriger workgroup size nur ein Bruchteil der theoretischen Bandbreite zur verfügung steht. Das wird man bei Battlemage wohl schon eher fixen. Sei es dass man ein andere GDDR6 IP lizensiert.
Und letztendlich gibt es noch den Taktnachteil, zumindest gegenüber RDNA2. Den wird man denke ich auch gelöst haben.

BM wird also wohl keine ppa Rekorde mehr brechen aber könnte tatsächlich eine relativ anständige µArch werden.

basix
2023-10-11, 22:53:03
Wenn der Chip irgendwo bei 350-400mm2 und zwischen 4070 Ti und 4080 sowie bei 225W landet, wäre das mMn ein ziemlicher Erfolg. Wenn dazu noch Idle-Verbrauch, Treiber-Stabilität sowie XeSS gut zulegen, wäre das insgesamt eine ziemlich beeindruckende Vorstellung. Ja, man ist deutlich später als Nvidia dran. Und ja, RDNA4 sowie Blackwell werden die effektiven Gegner sein. Doch "technologie-neutral" hätte man immens aufgeholt, und das bereits mit der erst zweiten vollwertigen dGPU Generation. Und man wäre eine echte Alternative zu AMD und Nvidia.

ryan
2023-10-12, 00:48:13
Ich stimme dir aber nicht zu dass Arc die erste diskrete µArch war und man daher alles andere durchgehen lassen kann. Der erste Chip dieser Art war DG1, also XP-LP. Auch die perf/transistor und die Treiberqualität hätte man also anhand DG1 und den IGP Vorgängerarchitekturen schon vorrausahnen können. Dafür dass das Powermanagement vergeigt wurde ist das aber keine Entschuldigung. Da gehts nicht um perf/watt unter Last, sondern um vernünftige idle Modi. Dafür hatte man ja DG1 zum lernen, das hätte mit DG2 besser funktionieren müssen.



Auf dem Papier höchstens, praktisch war DG1 eine iGPU von TGL-U mit 96EUs und ansonsten den gleichen specs. Sogar der LPDDR4x IMC wurde von TGL-U übernommen. DG1 war nie relevant, viel mit lernen war da eher nicht. Die war viel zu langsam, der große API overhead war mit so einer langsamen Karte weniger ein Problem, weil eh alles GPU limitiert lief. Zum Problem wurde das erst mit den großen Alchemist dGPUs. Davon abgesehen sind 3D Optimierungen zwischen Xe LP und Xe HPG/Xe LPG anscheinend nicht kompatibel. Das erste native und relevante dGPU Design ist Xe HPG/Alchemist, hier hat robbitop schon recht.

robbitop
2023-10-12, 10:16:16
Bei der Performance pro Transistor muss ich dir zustimmen dass man da nicht viel mehr erwarten konnte. Allerdings aus dem einzigen Grund das Intel bisher noch keine so breite GPU gebaut hat. Die A380 performt weit über den theoretischen 25-33% die sie eigentlich bringen müsste. Performancetechnisch sind das also Skalierungsprobleme die "big" Alchemist ACM-G10 zurückhalten.

Ich stimme dir aber nicht zu dass Arc die erste diskrete µArch war und man daher alles andere durchgehen lassen kann. Der erste Chip dieser Art war DG1, also XP-LP. Auch die perf/transistor und die Treiberqualität hätte man also anhand DG1 und den IGP Vorgängerarchitekturen schon vorrausahnen können. Dafür dass das Powermanagement vergeigt wurde ist das aber keine Entschuldigung. Da gehts nicht um perf/watt unter Last, sondern um vernünftige idle Modi. Dafür hatte man ja DG1 zum lernen, das hätte mit DG2 besser funktionieren müssen.
Naja DG1 war ja eher für developer und kein Serienprodukt. Basierte zudem auf XeLP was in den IGPs war. Eigentlich nur eine IGP mit eigenem IMC auf ein PCB geflanscht.
Da ja auch XeLP eine Xe Architektur ist, kann man sagen, das war ein Preview. Aber grundsätzlich ist das nur Khorintenkackerei und ändert nichts an der Grundaussage. Intel hat mit Xe neu angefangen mit erstmals dem Ziel auch Gaming zu bedienen und nicht nur Alibi Grafik IP für Laptops und Bürocomputer zu liefern. ARC war das erste Serienprodukt.
Ob es da schon ein Preview gab oder nicht macht die uArch von ARC nicht minder beeindruckend. Und dazu muss man sagen, das Teil funktioniert mit modernen und alten Grafikpipelines verschiedenster Engines. Und die Kompatibilität wird auch immer besser.
Nvidia und AMD hatten Jahrzehnte lang Zeit - Intel ist mit Xe neu eingestiegen. IMO ist XeLP eher sowas wie eine Übergangs uArch und Xe-HPG dann die erste uArch für Gamingprodukte. Dazu kommt wahrscheinlich ein fieses Patente Minenfeld, was es Intel sicherlich auch nicht einfacher macht, da man sicherlich einiges umgehen muss.

Auf jeden Fall gibt es wie du schreibst natürlich noch ganz klar sichtbare Verbesserungspotenziale um die Auslastung hoch zu kriegen. AMD hat das ja auch erst mit RDNA hinbekommen und gurkte mit GCN auf mittelmäßiger Auslastung herum (wobei die pro CU immerhin nicht so transistorhungrig war weshalb es in CDNA aufgegangen ist).


3.) Intel hinkt auch bei den Features hinterher. Bei FSR profitiert man zwar stark von AMD, jedoch bietet AMD auch immer mehr Treiberfeatures wie RSR, AFMF, AntiLag+, wo man überhaupt nichts als Konter hat. Ja man kann FSR3 nutzen aber der Input Lag ist grauenhaft.
Man hat eine Menge in RT Support investiert nur für die Zielgruppe ist das sowieso uninteressant. Da ist gutes Upscaling wichtiger.
Im Gegensatz zu AMD hat Intel seit 1 Jahr ein NN basiertes Upsamplingverfahren mit XeSS, was auf ARC dank XMX Matrixunits auch schnell läuft und in den neusten Versionen besser aussieht als FSR 2/3 upsampling.

AFMF ist ja noch ganz neu und noch in der Preview und funktioniert auch noch nicht so richtig toll. Und bis auf den Teil mit dem Preview gilt das gleiche für FSR3 und für Antilag+ (weit entfernt davon vernünftig zu funktionieren). Fairerweise muss man Intel hier auch etwas Zeit zugestehen. AMD stand jetzt auch 1 Jahr ohne Frame Generation da.

Intel würde ich zutrauen, mit Battlemage auch eher sowas abzuliefern wie Nvidia mit DLSS 3 FG und sogar sowas wie DLSS 3.5. Denn man hat 1.) schon seit ARC Matrixcores, die man nutzen kann und 2.) hat man anscheinend auch die richtigen Leute für NN da (siehe XeSS schon in 2022).
Muss man abwarten, was Intel zu Battlemage vorstellt - wenn sie es nicht tun, bleiben sie hinten. Aber zuzutrauen ist es ihnen schon. AMD muss dringend aufholen was NN HW und SW angeht - ansonsten kann es passieren, dass Intel vorbeizieht, wenn sie ihre GPUs erst einmal auszulasten wissen.
Bereits ARC ist moderner als RDNA3.

robbitop
2023-10-12, 10:35:28
Auf WQHD schlägt die Arc sogar die 6500XT welche deutlich mehr Rechenleistung aufweisen kann.
Man braucht halt ein etwas breiteres Speicherinterface, was auch daran liegt dass der GDDR6 niedriger getaktet wird als bei einigen AMD Karten.
Navi24 ist auch hauptsächlich deswegen fast 1/3 kleiner mit 107mm2 vs 157mm2 bei ACM-G11 weil AMD die mediacodecs weglässt und PCIe beschnitten hat.

Wobei das auch daran liegen kann, dass der 6500XT mit den mikrigen 4 GB VRAM der VRAM ausgeht und man über die mickrigen 4 PCIe Lanes in den RAM auslagern muss. Wenn man 1440p testet und die "IPC" bei höherer Auslastung der GPU testen will, müsste man darauf achten, dass der VRAM nicht überläuft - und dann wahrscheinlich häufig Texturdetails runtersetzen. Und wie du sagst hat A380 50% breiteres SI als die 6500 XT. Ich glaube man kommt an RDNA2 schon halbwegs ran aber nicht darüber hinaus in Rasterizing.

Man findet leider kaum neuere Tests zu A380 - alle scheinen A770 nachzutesten. Da hat sich ja doch eine Menge getan.

mksn7
2023-10-12, 10:51:35
Soweit ich mich erinnere, gibt es schon einige Neuerungen bei den Alchemist GPUs, aber es gibt definitiv auch eine hohes Maß an Kontinuität beim Aufbau der Xe cores, wie z.B. die 8 wide execution units, das Konzept der variablen SIMD/warp Breite und das dazu nötige 2D register file.

Außerhalb der cores kann sich bestimmt noch mehr geändert haben, durch die Skalierung auf mehr Xe cores bestand da auch der größte Bedarf. Ich würde aber wirklich nicht sagen dass Intel's GPUs Architektur komplett neu aus dem Boden gestampft wurden.

Eine der neuen Herausforderungen, neben dem Skalieren auf mehr Einheiten, war wohl auch der separate GPU Speicher statt dem geteilten Speicher in den iGPUs. Dafür war der Treiber nicht gut vorbereitet, dass jetzt alles übe den PCIe Bus muss.

Loeschzwerg
2023-10-12, 12:18:37
Man wird sehen wie/wo sich Battlemage gegenüber Alchemist verbessert. Gerade auch die Detailbetrachtung der Arch dürfte spannend werden: https://chipsandcheese.com/2022/10/20/microbenchmarking-intels-arc-a770/

davidzo
2023-10-12, 12:37:51
Naja DG1 war ja eher für developer und kein Serienprodukt.

Ich finde nicht dass man das so retrospektiv entscheiden darf dass der erste Versuch deswegen nicht zählt.
DG1 war sehr wohl als Endkundenprodukt geplant, genau wie Arctic Sound als Server GPU Familie geplant war. Was am Ende den Ausschlag gegeben hat das DG1 nicht wie großspurig angekündigt im retail gelauncht wird ist doch egal. Die Verzögerungen, die schlechte und kaum zur Verfügung stehende 10nm Fertigung, die nicht fertigen Treiber, etc. am Ende hat man den geplanten Launch halt mehr oder weniger gestoppt.
DG1 war als erstes Serienprodukt geplant und DG2 als zweite diskrete GPU Serie, erkennt man ja schon unschwer an der Namensgebung.
Dass man durch diverse Fehlentscheidungen nicht die richtigen Learnings aus DG1 gezogen hat wie man hätte sollen ist doch keine Entschuldigung. Fehlentscheidungen sind auch learnings. Die Abschreibungen von Intel in der AXG entsprechen durchaus einer vollen Architekturentwicklung.

Und Nebenher war übrigens auch Actic Sound in 3 verschiedenen Tile-Konfigurationen als volles Produkt geplant. DG2 ist also sogar die dritte diskrete µArch wenn man datacenter mitzählt.

Wir wissen ja das Intel zu Anfang mit HBM geplant hat auch für DG2. Das könnte erklären wieso man bei DG1 keinen GDDR Controller ausprobiert hat sondern den von den CPUs genommen hat. Vermutlich gab es für Intel 10nm auch gar keine IP die man hätte nehmen können. Den eigenen HBM Controller hatte man aber schon mit arctic sound in der Evaluation.
Der Schwenk auf GDDR6 könnte mit Raja Koduri gekommen sein, genau so wie der Wechsel auf TSMC Fertigung für DG2. Arctic Sound hat man erst spät im Entwicklungszyklus gecancelt, das könnte mit dem gestiegenen Bedarf an 10nm Fertigungskapazitäten für CPUs zusammen hängen. Tigerlake, Alderlake und Sapphire Rapids hat man einfach höhere Margen zugesprochen als Arctic Sound.
Ob das alles letztendlich gute Entscheidungen waren oder ob DG2 mit HBM in Intel7 besser/früher dran gewesen wäre wissen wir nicht. Für die Treiberreife hätte es wohl eh keinen Unterschied gemacht.
Aber diese Managemententscheidungen schon vor Raja und insbesondere auch während Raja haben halt dazu geführt dass Intel trotz ausreichend vielen test-vehikeln und vorgänger µArches in Bezug auf GPU Speichercontroller nicht die richtigen learnings und Erfahrungen gesammelt hat.

robbitop
2023-10-12, 12:49:11
Wenn man sich DG1 anschaut, sieht man dass das nie und nimmer für Gamer gedacht war. LPDDR4X sagt überhaupt nicht consumer. Man hat da einfach den IMC und die IGP (gleiche Anzahl an EUs und dabei nochmal teildeaktiviert) übernommen und ein Tapeout gemacht.

Es mag ja vieles geplant gewesen sein. Aber richtige Learnings zieht man nur mit einem Produkt, was es am Ende dann auch gibt und wo es customer feedback gibt.
Für mich war DG1 eine Art Preview. War es anders geplant? Möglicherweise. IMO macht das ARC nicht weniger beeindruckend.

ryan
2024-01-10, 22:49:55
Petersen spricht über Battlemage:

It's coming, I am excited about it, and all our engineers you know how they are constantly doing their engineering things. I'd say about 30% of our engineers are working on Battlemage, mostly on the software side because our hardware team is on the next thing (Celestial), so think about it as the Battlemage has already has its first silicon in the labs which is very exciting and there's more good news coming which I can't talk about right now.

We hope we are going see it before it (next CES '25).
https://wccftech.com/intel-arc-battlemage-xe2-gpus-in-labs-software-team-good-news-coming-celestial-xe3-hardware-team/


Also wenn Battlemage dieses Jahr kommt, dann spät im Jahr. Hört sich jedenfalls so an. Vor Herbst war aber nicht realistisch, sonst wäre es nicht so ruhig.

Au jeden Fall geht Battlemage in die Breite.


The main motivation for this series right now is to prepare the compiler for the additional multipolygon modes available on Gfx20+, which is likely to get a greater benefit from multipolygon dispatch than Gfx12 due to its doubled ALU vector width and larger variety of multipolygon dispatch modes."
https://www.phoronix.com/news/Intel-Dual-SIMD8-Mesa

mocad_tom
2024-01-11, 20:51:44
> Bei DG2-512 Alchemist gibt es 4096 FP32-Einheiten.
> Bei DG3-448 Battlemage gibt es 7168 FP32-Einheiten.

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13347633#post13347633

:D

Nachdem Lunar Lake jetzt N3E ist könnte auch Battlemage N3E werden.

y33H@
2024-01-11, 21:48:59
N3E?

mocad_tom
2024-01-11, 22:41:58
https://www.anandtech.com/show/18833/tsmc-details-3nm-evolution-n3e-on-schedule-n3p-n3x-deliver-five-percent-gains

TSMC N3E

ryan
2024-01-11, 22:42:40
N3B bei Lunar Lake. Battlemage soll angeblich in N4 kommen.

Exxtreme
2024-01-11, 22:47:18
Wenn sie die Leistung verdoppeln dann werden sie rund an eine RTX 4070 Ti im Rastern rankommen. Wenn der Preis stimmt dann wird's passen. Und den Stromverbrauch müssten sie auch zügeln.

mocad_tom
2024-01-11, 23:12:20
https://videocardz.com/newz/intel-lunar-lake-mx-leak-44-cpu-cores-8-xe2-gpu-cores-tsmc-n3b-node-and-displayport-2-1-support

Okay N3B(steht in der Folie)

Ich dachte nur Apple hat sich (exklusiv) Volumen bei N3B gekauft?

N3B ist aber doch so ein inkompatibler Prozess.
Will man von N3B auf N3E umsteigen muss man neu designen.

So jetzt wäre mein Gedankengang man designed die GPU von Lunar Lake und Battlemage genau im gleichen Prozess(weil N3B so eine Sackgasse ist).

Tatsächlich könnte es Sinn machen diesen Exotenprozess zu nutzen. Man geht einmal intensiv zu TSMC und dann mit dem 18A Prozess geht man wieder zurück.

davidzo
2024-01-12, 13:16:05
EDIT: falscher thread, hatte zudem LNL Leak aus dem Link geantwortet.

reaperrr
2024-01-12, 19:12:51
https://videocardz.com/newz/intel-lunar-lake-mx-leak-44-cpu-cores-8-xe2-gpu-cores-tsmc-n3b-node-and-displayport-2-1-support

Okay N3B(steht in der Folie)

Ich dachte nur Apple hat sich (exklusiv) Volumen bei N3B gekauft?

N3B ist aber doch so ein inkompatibler Prozess.
Will man von N3B auf N3E umsteigen muss man neu designen.
Von N3B auf N3E umsteigen wird Intel sicherlich nicht, solange N3B gut genug funktioniert.
N3B ist jetzt auch nicht grundsätzlich "schlechter" als N3E, bei Packdichte sogar besser, auf Kosten etwas komplexerer und teurerer Fertigung. Wie N3B gegen N3E in Sachen Perf abschneidet ist nicht wirklich bekannt, aber ein großer Unterschied wird da eher nicht (mehr) bestehen.
N3P als Weiterentwicklung von N3E bringt auch nur 5%, dafür lohnt sich der Umstieg ebenfalls nicht.

Was in N3B rauskommt wird m.E. auch auf N3B bleiben, und dann später durch Shrinks oder Nachfolger direkt in N2 oder hauseigener Fertigung ersetzt.

reaperrr
2024-01-15, 01:42:42
Neuer Battlemage-Leak von RGT: https://www.youtube.com/watch?v=WBsRW-TYu9c

Wenn das stimmt, ist Battlemage quasi DOA.

- Der 56 Slices / 448 EU, 256bit (16GB) Part wird wahrscheinlich nicht rauskommen, und wäre auch nur im Bereich zw. 4070Ti und 4080 gelandet, trotz vmtl. >300mm² + 512MB großen Adamantine Cache.

- Der ~250mm² Part der noch rauskommen soll ist nicht der obige, sondern nur ein 40 Slice (320 EU) 192bit SI Chip mit 18MB L2 und GDDR6, davon dann wohl auch nur 12 GB, der dementsprechend auch nur im Bereich von N32 bis max. 4070 landen würde, wenn überhaupt.

Und Intel selbst haben angedeutet, dass BMG erst gegen Ende 2024 kommt.

Also im Klartext:
- Der Konkurrent zu 4070 Ti / 7900 XT ist so gut wie gestrichen, wäre aber wohl auch mit >= 300 mm² + 512MB Adamantine-Cache viel teurer zu produzieren gewesen als AD104, und generell zu spät.
- Der kleinere Chip kann wohl bestenfalls mit N32 und 4070 konkurrieren und kommt wohl nach RDNA4 und kurz vor den Mainstream-Blackwells, also sehr diplomatisch ausgedrückt: "In ein schwieriges Marktumfeld".

Fazit: Wenn's keine Ente ist (wonach es aber nicht wirklich klingt, weil zu realistisch), brauchen wir auf großen Markteinfluss von BMG demnach nicht hoffen...

Der_Korken
2024-01-15, 02:19:01
Es wäre schade, wenn Intel hier auch mit der zweiten Generation keinen Fuß in die Tür bekäme. Die "Schwäche" von RDNA3 hätte Intel hier gut in die Karten spielen können, aber Ende 2024 sind sie leider viel zu spät dran dafür. Wobei ich mich frage, was die sich bei einem 512MB großen Cache gedacht haben, wenn der Chip für 16GB sowieso auf 256bit setzen muss und AMD/Nvidia in der Gewichtsklasse mit 64MB auskommen. Die ">300mm²$ allein klingen für 4070Ti-Leistung erstmal nicht so wild.

ryan
2024-01-15, 02:45:14
Fazit: Wenn's keine Ente ist (wonach es aber nicht wirklich klingt, weil zu realistisch), brauchen wir auf großen Markteinfluss von BMG demnach nicht hoffen...


Realistisch weil RedGamingTech in seinen Videos immer richtig liegt?

reaperrr
2024-01-15, 03:09:05
Realistisch weil RedGamingTech in seinen Videos immer richtig liegt?
Realistisch, weil es zu dem passen würde, was man an Alchemist schon gesehen hat: Auch mit den Ressourcen von Intel stampft man nicht mal eben aus dem Nichts eine in jeder Hinsicht voll konkurrenzfähige Architektur aus dem Boden.

Bei ALC brauchen sie selbst im Vergleich zu RDNA3 (N33) im gleichen Prozess fals doppelt so viele mm² und ~75W mehr Saft für ähnliche Performance.

War abzusehen, dass BMG die Lücke noch nicht komplett schließt, im Grunde wäre schon verkürzter Abstand ein Erfolg...

Mit RGT hat das erstmal nichts zu tun, wobei die pessimistischeren Gerüchte sowohl beim ihm als auch MLID oft zutreffen.

Raff
2024-01-15, 13:11:44
Es wäre schade, wenn Intel hier auch mit der zweiten Generation keinen Fuß in die Tür bekäme. Die "Schwäche" von RDNA3 hätte Intel hier gut in die Karten spielen können, aber Ende 2024 sind sie leider viel zu spät dran dafür. Wobei ich mich frage, was die sich bei einem 512MB großen Cache gedacht haben, wenn der Chip für 16GB sowieso auf 256bit setzen muss und AMD/Nvidia in der Gewichtsklasse mit 64MB auskommen. Die ">300mm²$ allein klingen für 4070Ti-Leistung erstmal nicht so wild.

Habe ich eigentlich die ganze Zeit etwas verpasst? 512 MiB Cache, stand das schon mal irgendwo? Und WTF? Folgt man den Ausführungen von AMD und Nvidia, wäre das ziemliche Verschwendung - es sei denn, man kann den Cache aus unbekannten Gründen schön klein, billig und ohne Fehler fertigen.

Ich drücke alle Daumen, dass der große Kampfmagier noch erscheint. Alchemist performt mittlerweile einfach zu gut (https://www.pcgameshardware.de/Arc-A770-16GB-Grafikkarte-279179/Tests/16-GB-vs-RTX-4060-vs-RX-7600-Battlemage-Release-Benchmark-1436321/), um jetzt vom Gas zu gehen.

MfG
Raff

Exxtreme
2024-01-15, 13:41:02
Ja, die 512 MB Cache erscheinen mir auch als gewaltig. Das ist VIEL mehr als auf CPUs. Also entweder ist so ein Cache sehr langsam oder extrem teuer. Und es ist so, Grafikkarten skalieren jetzt nicht so dolle mit Cache. Die Datenmengen sind da viel zu groß und das bedeutet sehr viele Cache-Misses.

bbott
2024-01-15, 13:56:03
Es wäre schade, wenn Intel hier auch mit der zweiten Generation keinen Fuß in die Tür bekäme. Die "Schwäche" von RDNA3 hätte Intel hier gut in die Karten spielen können, aber Ende 2024 sind sie leider viel zu spät dran dafür. Wobei ich mich frage, was die sich bei einem 512MB großen Cache gedacht haben, wenn der Chip für 16GB sowieso auf 256bit setzen muss und AMD/Nvidia in der Gewichtsklasse mit 64MB auskommen. Die ">300mm²$ allein klingen für 4070Ti-Leistung erstmal nicht so wild.
Wenn intessieren denn die 20% Marktanteil von AMD, man muss was von den 80% von NV bekommen.

robbitop
2024-01-15, 14:49:03
Alchemist performt mittlerweile einfach zu gut[/URL], um jetzt vom Gas zu gehen.

MfG
Raff
Naja pro Transistor ist es aber immer noch nicht doll. Aber ja mit RT steht er besser da als eine preislich vergleichbare Radeon SKU was aber mit so viel RT HW auch keine Kunst ist. Ggü Ada steht man transistornormiert in RT nicht doll da. Und ggü RDNA3 in Raster auch nicht. Da muss nochmal ordentlich was kommen, damit Intel auch aus Kostensicht kompetativ ist. Ansonsten wird es nicht nachhaltig sein denn Intel will ja auch was verdienen und nicht nur bezuschussen. :)

reaperrr
2024-01-15, 15:13:29
Und es ist so, Grafikkarten skalieren jetzt nicht so dolle mit Cache. Die Datenmengen sind da viel zu groß und das bedeutet sehr viele Cache-Misses.
Also bei AMD seit RDNA2 und Nvidia seit Ada müssen die L2/IF-Caches schon ne Menge bringen, sonst würden sie mit so schmalen SIs nicht diese Performance-Steigerungen erreichen, da bei DCC etc. langsam das Ende der Fahnenstange erreicht ist.

Wir reden im Fall von DG3-448 laut RGT von 20Gbps @ 192bit, während DG2-512 16Gbps@256bit hatte.

D.h. die VRAM-Bandbreite ginge leicht zurück, obwohl man ca. doppelte Performance zum Vorgänger anpeilte. Anders als über einen großen Cache sehe ich nicht, wie das gehen sollte. Es sei denn, das SI von ALC-G10 war völlig überdimensioniert für dessen Bandbreitenbedarf, aber dann wäre die Frage, warum sie nicht schon dort auf 192bit gesetzt haben.
Das impliziert, dass Intel bei Dingen wie DeltaColorCompression usw. noch nicht so weit wie NV und inzwischen auch AMD ist, und deshalb breitere SIs und/oder größere Caches braucht.

Exxtreme
2024-01-15, 15:20:52
Also bei AMD seit RDNA2 und Nvidia seit Ada müssen die L2/IF-Caches schon ne Menge bringen, sonst würden sie mit so schmalen SIs nicht diese Performance-Steigerungen erreichen, da bei DCC etc. langsam das Ende der Fahnenstange erreicht ist.


Dann schalte mal bei CPUs alle Caches ab. Und da bist du wieder auf Pentium 1-Niveau. Und nein, das ist kein Witz. :freak: So stark skalieren GPUs bei weitem nicht weil sie viel zu große Datenmengen durchschaufeln. Das habe ich gemeint, dass GPUs da nicht so dolle skalieren mit Cache. Cache ist immer ein Kompromiss aus Performance und Kosten. Und da kann es immer sein, dass man einen Punkt erreicht bei dem Cache billiger ist als ein breiteres Speicherinterface. Und da nimmt man lieber den Cache. Und bei einem 512 MB-Cache kann ich mir gut vorstellen, dass er zu teuer ist.

basix
2024-01-15, 15:24:16
Wir reden im Fall von DG3-448 laut RGT von 20Gbps @ 192bit, während DG2-512 16Gbps@256bit hatte.

D.h. die VRAM-Bandbreite ginge leicht zurück, obwohl man ca. doppelte Performance zum Vorgänger anpeilte. Anders als über einen großen Cache sehe ich nicht, wie das gehen sollte. Es sei denn, das SI von ALC-G10 war völlig überdimensioniert für dessen Bandbreitenbedarf, aber dann wäre die Frage, warum sie nicht schon dort auf 192bit gesetzt haben.
Das impliziert, dass Intel bei Dingen wie DeltaColorCompression usw. noch nicht so weit wie NV und inzwischen auch AMD ist, und deshalb breitere SIs und/oder größere Caches braucht.

Knapp 4070 Performance bei knapp 4070 Speicherbandbreite. Das würde ja nicht schlecht passen. Entweder war das Speicherinterface bei Alchemist überdimensioniert oder Battlemage macht einen grossen Sprung vorwärts bei der Bandbreiteneffizienz. Ich tippe auf etwas dazwischen.

Alles in allem:
4070 Performance, 4070 Speicherbandbreite, 250mm2 in N4 sieht für mich recht gut aus. PPA etwa auf Lovelace Niveau (falls DG3-448 bei ~200W landen sollte) inkl. starken RT-Cores und Matrix-Units. Klar, das ist 2 Jahre nach Lovelace. Aber "Technologie normiert" sieht das nicht schlecht aus.

Der_Korken
2024-01-15, 15:38:39
Habe ich eigentlich die ganze Zeit etwas verpasst? 512 MiB Cache, stand das schon mal irgendwo? Und WTF? Folgt man den Ausführungen von AMD und Nvidia, wäre das ziemliche Verschwendung - es sei denn, man kann den Cache aus unbekannten Gründen schön klein, billig und ohne Fehler fertigen.

Die Specs sind aus dem oben verlinkten RGT-Video. Auf den zweiten Blick sehen 192bit mit 8MB L2 und 512MB L3 aber schräg aus. Und ja, 512MB wäre absoluter Overkill. Bevor man die Karte zieht, hätte man doch das SI wenigstens wieder auf 256bit angehoben, weil die "Bandbreite pro mm²" da viel höher sein dürfte bei dem aktuellen Verhältnis.

Wenn intessieren denn die 20% Marktanteil von AMD, man muss was von den 80% von NV bekommen.

Intel wäre froh, wenn sie die 20% hätten. An Nvidia kommen sich technisch so schnell nicht dran, keine Chance.

DrFreaK666
2024-01-15, 16:16:50
Es wäre aber wünschenswert wenn AMD und Intel jeweils 20% hätten und nicht dass Intel sich bei AMDs Prozenten bedient. Das hilft am Ende nur Nvidia

AffenJack
2024-01-15, 16:33:06
Die Specs sind aus dem oben verlinkten RGT-Video. Auf den zweiten Blick sehen 192bit mit 8MB L2 und 512MB L3 aber schräg aus. Und ja, 512MB wäre absoluter Overkill. Bevor man die Karte zieht, hätte man doch das SI wenigstens wieder auf 256bit angehoben, weil die "Bandbreite pro mm²" da viel höher sein dürfte bei dem aktuellen Verhältnis

Finde ich auch. 192Bit mit 12Gb, aber 512mb L3 klingt für mich nach sehr merkwürdigen Spekulationen und wenn man am Ende noch sagt, ach, aber der Chip kommt nicht klingt das noch viel mehr nach purer Newsgenerierung durchs Ausdenken von Spekulation. Dazu gerade einmal eine Erhöhung der XE-Units von 40 auf 56 Stück, das macht keinen Sinn. Das müsste da schon ne deutlichere Steigerung sein, wenn man schon solche Kniffe macht.

mocad_tom
2024-01-15, 19:34:47
https://twitter.com/harukaze5719/status/1691638266922151993

Schade, dass man zu dem BGA2727-BMG kein Bild sieht.


BGA2362-BMG ist aber eigentlich ein BGA482(482 balls)


Frage an diejenigen, die eine Alchemist Graka gekauft haben:
Hatte schon irgendjemand einen Garantiefall oder Graka blöde/unerwartet abgeraucht?

Loeschzwerg
2024-01-15, 21:00:45
Frage an diejenigen, die eine Alchemist Graka gekauft haben:
Hatte schon irgendjemand einen Garantiefall oder Graka blöde/unerwartet abgeraucht?

Noch laufen alle drei Alchemist (A770, A380 und A310) und die A770 LE steckt dabei im primären Gaming-Sys d.h. ist fast täglich gut in Nutzung.

davidzo
2024-01-16, 15:06:54
Habe ich eigentlich die ganze Zeit etwas verpasst? 512 MiB Cache, stand das schon mal irgendwo? Und WTF? Folgt man den Ausführungen von AMD und Nvidia, wäre das ziemliche Verschwendung - es sei denn, man kann den Cache aus unbekannten Gründen schön klein, billig und ohne Fehler fertigen.

Der ADM könnte in einem obsoleten Intel Verfahren gefertigt sein.
14nm hat 0.050µm großen SRAM und Intel7 0.031µm (6T HCC).
Da die Fabs schon abgeschrieben sind, dürften die Kapazitäten entsprechend günstig verfügbar sein.

Ohne Ansteuerungslogik (+ 30-50%) sind selbst in 14nm gute 16mb/mm2 möglich. 512MB in unter 100mm2 wäre also kein Problem. Oder man reduziert analog zum 22FFL Spezialprozess von lakefield zusätzlich die Anzahl an Layern und Steps und setzt stattdessen auf einen größeren Base-DIE. Auch würde es wohl Sinn machen das SI in den ADM base-DIE zu packen.

Das würde aber bedeuten dass Battlemage eine Multichip GPU oder Foveros / advanced stacking, 3d der 2.5D GPU ist. Das wundert mich dann schon dass wir davon bisher nichts gehört haben.
Ich räume dem Gerücht also nur geringe Chancen ein.


Es sei denn, das SI von ALC-G10 war völlig überdimensioniert für dessen Bandbreitenbedarf, aber dann wäre die Frage, warum sie nicht schon dort auf 192bit gesetzt haben.
Das impliziert, dass Intel bei Dingen wie DeltaColorCompression usw. noch nicht so weit wie NV und inzwischen auch AMD ist, und deshalb breitere SIs und/oder größere Caches braucht.

Ja das SI war völlig überdimensioniert, aber auch schlecht partitioniert. Volle Bandbreite gibt es nur wenn auch die Compute Ressourcen voll ausgelastet sind. Sonst kannst du froh sein wenn du die Hälfte oder ein viertel der theoretischen GDDR6 Bandbreite bekommst. Die ganze Cache-Hierachie ist bei DG2 problematisch, wie Chips and cheese in mehreren Artikeln festgestellt hat.

Intel hat Latenzprobleme auf beinahe jeder Cache-Stufe. Der L1 ist zwar vergleichweise groß, aber hat auch die doppelte Latenz von AMD oder Nvidia, zudem hat AMD zusätzlich noch den noch Latenzärmeren L0 davor.

Der Grund für die Notwendigkeit des großen L1 jedes XE Cores ist die vergleichsweise langsame Anbindung an den globalen L2, der von Bandbreite und Latenz eher mit AMDs RDNA2 Infinity cache vergleichbar ist der wiederum 8x so groß ist. RDNA2 ist bei der Speicherhierachie einfach eine ganz andere Generation.

Der Fokus auf den L1 ist eine Gemeinsamkeit mit der verwandten XE Architektur bei Ponte Vecchio, die sogar 512kb L1 pro Core hat (vmtl. wegen Fullrate FP64) aber direkt dahinter nur sehr lahme Off-DIE Verbindungen von 230Gb/s für 8XE Cores.

Da der L2 bei ARC ja der LLC ist, kann man den eher mit dem L3 bei AMD und Nvidia vergleichen. 16MB sind dafür also nicht besonders groß gegenüber 72MB, 96MB und 128mb.

Last but not least ist die VRAM-Latenz Katastrophal mit fast 400ns. Das ist Datacenter Level, wo niedrigere Taktraten und HBM mit hohen Latenzen üblich ist und noch parallelere Workloads laufen als Spiele. Navi31 hat eher etwas bei 280ns trotz Die to Die Interconnect, N21 hat 260ns und GA102 liegt bei 230ns. Das ist umso verwunderlicher, als dass AMD und NV ja eine Cache Stufe mehr haben und daher die deutlich höheren VRAM Latenzen haben müssten.

Zudem kriegt man den Speichercontroller nur sehr schwer ausgelastet, da anscheinend die Crossbar bzw. Verbindung der einzelnen XE_Cores zum SI unterdimensioniert sind. Ein XE-Core kriegt laut Chips and Cheese nur rund 8gb/s durch, ein RDNA2 WGP kommt auf 63gb/s und ein Ampere SM auf 34gb/s. Selbst GCN1.0 war schon um Größenordnungen besser pro CU.

Eine volle Auslastung der theoretischen Bandbreite des 256bit Interfaces ist also nur bei perfekt symmetrischen Lasten, hoher Workgroup Size möglich. Das ist eine enorme Aufgabe an den Compiler und deswegen ist Software für Intel auch so ein großes Problem. Das liegt an den getroffenen Hardware-Entscheidungen. Man hätte stattdessen auch Hardware bauen können die eine bessere Auslastung erreicht, dafür aber weniger theoretischen Durchsatz bietet und sich nicht so gut durch bessere Compiler beschleunigen lässt (und damit weniger mit der Datacenter Architektur gemeinsam hat).

Ein einfacher Trick um höhere Workgroup Sizes zu ermöglichen ist die Renderauflösung zu erhöhen. Daher skaliert Arc auch so gut in 4K und umgekehrt sind die kleinen IGPs eher schneller als der viermal so große ACM-G10 Chip erwarten lassen würde. Der Compiler liefert halt ähnliche Threadanzahlen an die kleinen IGPs aus wie an die großen dGPUs.

Die Partitionierung von DG2 mit riesigen Lücken zwischen L1 und L2 und schlechter Anbindung der einzelnen XE-Cores wirkt so als wenn hier aus praktischen Gründen viel von der Chiplet-GPU übernommen wurde.

AMD ist dasselbe Spiel damals mit GCN eingegangen, also enorm vorzulegen bei Compute und darauf zu hoffen dass man die Auslastung im Laufe der Jahre durch compute-lastige Workloads und bessere Compiler in den Griff bekomt. Nvidia hat das ignoriert und bei Maxwell und Turing die Hardwareauslastung auch bei kleineren Workgroup sizes optimiert. Es gab also wenig Grund für den herbeigesehnten Paradigmenwechsel in der Software angesichts Nvidias großer Marktmacht. Spiele-Workloads haben häufig threads die von mehr Ressourcen pro Core/WGP/SM profitieren und sind daher selten total symmetrisch. DG2 klingt eher nach einer Compute GPU. Auch wenn die XE Cores total anders sind erinnern mich die Limitierungen viel an GCN. Auch GCN war nur bei sehr hoher Workgroup-Size auszulasten.


Entweder war das Speicherinterface bei Alchemist überdimensioniert oder Battlemage macht einen grossen Sprung vorwärts bei der Bandbreiteneffizienz.

Ja + Ja und das ist auch nicht schwer angesichts obigem.

Der GDDR6 Speichercontroller und die Crossbar sowie das interne fabric sind auf jeden Fall totaler Schrott und Intel wird für BGM definitiv eine andere, potentere IP verwenden. Dann reicht auch ein 192bit Interface.

Sobald das Problem mit low occupancy workloads gelöst ist dürften das nicht nur bei der Bandbreitenskalierung sondern auch bei den XE-Cores ein paar Handbremsen lösen.

bbott
2024-01-16, 17:34:25
Intel wäre froh, wenn sie die 20% hätten. An Nvidia kommen sich technisch so schnell nicht dran, keine Chance.
Wenn Sie nichts von NV bekommen können, würde es aber auf 10: 10: 80 hinauslaufen, dann geäbe es zwei Verlierer und die heißen AMD und Intel.
Worst-case: beide müssen den Markt gleichzeitig aufgeben, weil Entwicklungskosten mit 10% Marktanteil nicht gedeckt werden können und NV massig Geld für F&E hat.
Also ich sehe für niemanden (Kunden, AMD, Intel) ein gutes Szenario außer für NV...
Nur wenn NV Marktanteil schrumpft wird es Innovationen und einen gesunden Markt geben.

davidzo
2024-01-16, 18:20:14
Naja, AMD hat erstmal mit dem Konsolengeschäft einen Fuß in der Gaming-Tür und scheint bei den entry level GPUs auch die deutlich belastbarerer Kostenstruktur zu haben als Intel. Siehe RX7600 vs ARC A770 16G, die in der gleichen Leistungsklasse liegen, letztere aber in der Herstellung fast doppelt so teuer sein dürfte.
Verschwinden wird AMD also nicht, eher ist es so das Intel weiter bluten muss sollten sie einen Preiskrieg anzetteln.

Zudem konzentriert sich AMDs GPU Division derzeit mit Absicht erstmal auf den AI Markt, weil margenträchtiger. Ich sehe kein Problem wieso AMD nicht die Ressourcen haben sollte nochmal einen RDNA-Moment zu produzieren sobald man mit dem Fokus auf den AI Markt durch ist.

Für Intel macht es natürlich Sinn erstmal nur den Entry bis maximal Midrange abzudecken.
Nvidia vernachlässigt das Entrylevel Segment sowieso sträflich, insofern kann man im Sub-250€ Markt echt gut wildern. Bei Performance- und Enthusiast Chips ist die Konkurrenz durch Nvidia und AMD zu hart. Nvidia hat letztendlich eine Kostenstruktur die mit jeden Preiskämpfen mitgehen könnte, aber meistens nichtmal muss, denn man dominiert AMD auch so, einfach durch die hohe Brand-recognition.

Schon bei DG2 gleich zwei Chips zu bringen war imo nicht unbedingt notwendig. ACM-G11 ist eh zu nah dran an den IGPs gewesen. Ein Chip in der Mitte dazwischen mit 128bit und 16XE-Cores hätte es wohl auch getan um einen ähnlichen Marktanteil zu bekommen. Sub 200€ gibt es auch nichts anständiges von AMD, da wäre also die Nische gewesen.

Sich mit der 4070 anzulegen ist ein ehres Ziel, aber Kostentechnisch wäre man wohl besser beraten sich die 4060 und 7600 (XT) als Gegner auszusuchen. Die haben ja beide so ihre Schwächen. Navi33 durch das schmale SI, begrenzte Effizienz und begrenzte Taktraten/Rechenleistung und AD107 durch die kleine Ansetzung des Chips. Nvidia hat dafür noch AD106 in der Hinterhand, aber soviel größer ist der auch nicht.

Ich würde es tatsächlich bevorzugen wenn Intel BMG erstmal in diesem Marktbereich launcht, ohne teuren schnickschnack wie ADM interposer und so. Da würden erneut 32XE Kernen reichen, mit gefixter Speicherhierachie und 192bit SI höherem Takt und verbessertem Energieverbrauch sowie gesenkten Herstellungskosten. Insgesamt +50% Leistung wäre imo schon drin, wenn Intel die Fabric-Handbremsen löst, wir einen großen on-DIE Cache bekommen und die Taktraten um 25% auf rund 2,8Ghz gesteigert werden können.


Worst-case: beide müssen den Markt gleichzeitig aufgeben, weil Entwicklungskosten mit 10% Marktanteil nicht gedeckt werden können und NV massig Geld für F&E hat.
Also ich sehe für niemanden (Kunden, AMD, Intel) ein gutes Szenario außer für NV...
Nur wenn NV Marktanteil schrumpft wird es Innovationen und einen gesunden Markt geben.

Das wäre auch für NV ein worst-case Szenario, da man dann einen Monopolprozess am Hals hätte, also Zerschlagung. Nvidia verdient sowieso ein Vielfaches mehr mit AI Hardware aktuell, dafür geben die im Moment wohl gerne auch ein bisschen gaming-Marktanteil ab. Ich glaube Nvidia würde bei einstelligen Marktanteilsverlusten gar nicht erst reagieren, denn für einen 80% Marktführer sind die Einschnitte bei der Marge bei einem Preiskrieg wesentlich teurer als die paar Prozent Marktanteil.

Hat Intel auch sehr lange so gemacht und mit Cascade-Lake X, Cooperlake etc. weiterhin Gewinne eingefahren obwohl EPYC Rome und Milan billiger verfügbar waren und AMD an Marktanteilen aufholte. Mit dem Unterschied dass Nvidia die nächste überlegene µArch in der Hinterhand hat und keinen Fertigungsnachteil, also ohne Risiko.

ryan
2024-01-27, 13:40:58
MLID hat ein neues Video gepostet, diesmal mit angeblichen Dokumenten (von dem einiges geschwärzt ist). Zusammenfassung auf Videocardz (https://videocardz.com/newz/rumor-suggests-intel-not-planning-add-in-mobile-cards-with-battlemage-gpu).

Demnach wäre Battlemage für mobile gestrichen. Für Desktop sollen aber alle GPUs gelistet sein zwischen Q4 2024 - Q1 2025.

MLID macht ein großes Drama draus, weil mobile gestrichen wurde. Finde ich jetzt relativ egal solange die Desktop Karten kommen. Alchemist mobile dGPU war kaum präsent und auch AMD ist kaum präsent im dGPU Markt für laptops. Das dürfte die wenigsten hier tangieren.

Laut dem Dokument kommt Battlemage mit x16 PCIe 5.0, was auf den größeren G10 Chip hindeutet. MLID nennt 512EU+448EU 16GB 387 mm² und 320EU/256EU 8-12GB 271 mm². Ansonsten die übliche Weltuntergangsstimmung zu Intel. Celestial und Druid dGPU gestrichen oder nur als low end. Die Wiederholung seiner Battlemage Story sozusagen.

dildo4u
2024-01-27, 13:54:22
Er vergisst immer AI natürlich wird Intel weiterhin massiv Geld in GPU versenken da es jeder Inverstor will.

ceed
2024-01-27, 14:20:32
MLID hat ein neues Video gepostet, diesmal mit angeblichen Dokumenten (von dem einiges geschwärzt ist). Zusammenfassung auf Videocardz (https://videocardz.com/newz/rumor-suggests-intel-not-planning-add-in-mobile-cards-with-battlemage-gpu).

Demnach wäre Battlemage für mobile gestrichen. Für Desktop sollen aber alle GPUs gelistet sein zwischen Q4 2024 - Q1 2025.

MLID macht ein großes Drama draus, weil mobile gestrichen wurde. Finde ich jetzt relativ egal solange die Desktop Karten kommen. Alchemist mobile dGPU war kaum präsent und auch AMD ist kaum präsent im dGPU Markt für laptops. Das dürfte die wenigsten hier tangieren.


Ich denke im Low-End Bereich werden sie mit der integrierten Lösung fischen . Glaube das der Markt von unten eh aufgefressen wird mit den integrierten Lösungen- dann bleibt nur noch Mid und Oben- wird eher schwierig gegen Nvidia da

bbott
2024-01-27, 17:15:09
Er vergisst immer AI natürlich wird Intel weiterhin massiv Geld in GPU versenken da es jeder Inverstor will.
AI wird aber Mittel bis langfristig auf AI Bescheuniger setzen. GPUs waren immer nur Türöffner für neue Märkte, sobald dieser groß genug waren, kamen angepasste Beschleuniger.

GPUs sind viel zu ineffektiv für AI und wie viel Prozent einer GPU sind AI beschleuniger?

Troyan
2024-01-27, 17:36:01
AI wird aber Mittel bis langfristig auf AI Bescheuniger setzen. GPUs waren immer nur Türöffner für neue Märkte, sobald dieser groß genug waren, kamen angepasste Beschleuniger.

GPUs sind viel zu ineffektiv für AI und wie viel Prozent einer GPU sind AI beschleuniger?

Niemand macht AI mit GPUs. nVidia hat TensorCores als dedizierte Beschleuniger. Das selbe gilt für Intel.

basix
2024-01-27, 17:49:03
Kommt drauf an, was ihr mit ML meint. 0815 Client Inferencing wird langfristig in Accelerators aufgehen. Aber die <10% Die Size Vergrösserung durch Tensor Cores sind bei GPUs eher vernachlässigbar, wenn immer mehr ML Client & Workstation Anwendungsfelder entstehen. Und niemand packt sich bei Client einen 1000 TOPS ML Accelerator rein der nichts anderes kann und 1000$ kostet.

Ist auch ähnlich wie iGPU zu dGPU: Mit geringen Anforderungen geht alles mit einer APU. Wer mehr will packt eine Karte dazu.

mocad_tom
2024-03-07, 14:01:19
Schaut halt wirklich aus wie die guten alten Bitcoin-Mining-Rigs:

https://twitter.com/mov_axbx/status/1765573827080147416


https://twitter.com/mov_axbx/status/1765616681471152624

Und bei inferencing wird den A770 ein gutes Preis-Leistungsverhältnis nachgesagt.


__tinygrad__ regt sich gerade ziemlich darüber auf, dass der Software-Stack von AMD nicht so besonders prickelnd ist:

https://twitter.com/__tinygrad__/with_replies

davidzo
2024-03-07, 16:12:59
Wut?

1/2 4090 wäre mega gut für einen Lastgen Midrange Chip wie die A770. Die VRAM größe ist auch sehr sehr wichtig und ist mit 16GB für den preis sehr gut.



Schaut halt wirklich aus wie die guten alten Bitcoin-Mining-Rigs:

Mit dem Unterschied dass man mit i3 oder pentium CPU auf consumer Plattform nicht weit kommt. Man braucht soviele PCIeGen4 oder 5 Lanes wie man kriegen kann, da jede GPU gerne mit x16 Lanes angebunden werden will.

mocad_tom
2024-03-24, 22:16:54
Es kann sein, dass dies erste Sisoft-Werte von Battlemage sind

https://twitter.com/miktdt/status/1771576768542998893

ryan
2024-03-25, 12:26:38
Es kann sein, dass dies erste Sisoft-Werte von Battlemage sind

https://twitter.com/miktdt/status/1771576768542998893


Ich hatte das auch hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13513808#post13513808) schon gepostet. Bei den specs und der Performance kann es sich nur um Battlemage handeln.

Bei der relevantesten Single-float GP Compute für OpenCL sieht es so aus


ACM 128VE 2.45 Ghz 6GB= 4414460Mpix/s
BMG 160VE 1.8 Ghz 12GB= 1.199684Mpix/s
BMG 196VE 1.8 Ghz 12GB= 1.43662.8Mpix/s
ACM 512VE 2.4 Ghz 16GB= 1.638197Mpix/s

Ob sich OpenCL in games widerspiegelt, ist natürlich eine andere Frage. Die doppelten SIMD ALUs pro EU müssen hier aber voll durchschlagen und darüber hinaus gibt es Verbesserungen. BMG mit 160VE und 1.8 Ghz bietet rechnerisch eher so 2x mehr Tflops über ACM 128VE und hier sind es fast 3x Unterschied.

DrFreaK666
2024-04-09, 16:52:51
Industriekreise: Intel Battlemage soll noch vor Black Friday erscheinen
https://www.computerbase.de/2024-04/industriekreise-intel-battlemage-soll-noch-vor-black-friday-erscheinen/

Könnte doch noch spannend werden 2024

Raff
2024-04-09, 17:07:21
Unnötig voll und ausbrennend, meinst du. Hoffentlich startet wenigstens RDNA 4 früher, damit nicht wieder alles in einem Quartal durchgeknuspert werden muss.

MfG
Raff

Platos
2024-04-09, 17:17:54
Was sind nochmals so die Gerüchte bezüglich Perfomance und Effizienz ?

robbitop
2024-04-09, 18:43:18
4070ti bis 4080 Performance hieß es mal. Könnte dann ganz grob zu N48 und 5060/ti passen

DrFreaK666
2024-04-09, 18:58:50
Wie gesagt: "Könnte doch noch spannend werden 2024"
Auch wenn ich eher Team Rot bin; aber neue Hardware ist immer interessant, besonders von Intel.
Mal schauen wie sie sich gebessert haben - und ob

Platos
2024-04-09, 19:16:30
Ja, grundsätzlich schon, aber nur wenn Intel mit nvidia konkurriert (in den erreichbaren Perfomancesegmenten). Nicht so wie letztes mal, da haben die Marktverbreitungszahlen eigentlich eher dargelegt, dass Intel Marktanteile von AMD abgräbt. Und das ist eig nicht das, was man will. Dann macht man aus "Einer Übermacht + 1 kleiner" stattdessen "Eine Übermacht + 2 halb so kleine".

4070ti bis 4080 Performance hieß es mal. Könnte dann ganz grob zu N48 und 5060/ti passen

Ah ok, aber 4070Ti -->5060 & 4080--> 5060Ti ist aber auch eine relativ optimistische Prognose. Die 4060 ist mehr als halb so langsam wie die 4070Ti im 3DCenter 4k Index (und fast halb so langsam im 1080p Index).

DrFreaK666
2024-05-05, 13:19:32
Intel's next-gen Arc Battlemage Xe2 and Celestial Xe3 GPUs might possibly be delayed or even canceled based on the latest posts from Golden Pig Upgrade over at Weibo.
https://wccftech.com/intel-battlemage-xe2-gpus-on-hold-celestial-xe3-gpus-might-delayed-too/

Hoffentlich ist das nur eine Ente

Leonidas
2024-05-05, 13:47:33
Naja, so falsch kann es kaum sein. Ein Sommer-Termin ist für Battlemage kaum noch zu schaffen, womit man in jedem Fall hinter der letzten öffentlich bekanntgewordenen Roadmap zurückliegt. Derzeit muß man von Glück reden, wenn es überhaupt dieses Jahr was wird bei Intel. Aber wie schlagkräftig ist BMG, wenn es zum Jahresende herauskommt und dann gleich gegen RDNA4 und Blackwell antreten darf?

PS: Celestial war laut MLID auf Mitte 2026 geplant, damit ergibt mittels "nicht mehr 2025" noch keine Verschiebung bei Celestial.

mocad_tom
2024-05-05, 17:40:30
Ich denke dass wir tatsächlich im Desktop Super-APUs sehen könnten.

Deshalb ist nvidia gerade so aufgebracht und möchte ihre GPUs dann als "Super-KI-Desktop" sehen.

Es könnte Entwicklerworkstations mit LPCAMM2 Module geben, die man mit 64gb Modul pro Channel ausrüstet, bei einer 4-Channel Super-APU wäre man dann bei 256GB.

Genau das was man für Inferencing für größere Modelle braucht.

Nvidia wäre komplett aus dem Markt rausgeknippst.

Und bei den Unternehmen gäbe es mal wieder Desktops oder Laptops, bei denen man im Kaffee-Klatsch so richtig angeben könnte.

In den letzten Jahren hat man eigentlich alles so in die gleiche Schiene runtergespart.

Klar aufrüsten kann man hier nur noch bei den LPCAMM Modulen und bei der NVME-SSD, aber der Aufrüster-Markt liegt eh am Boden.
Die Super-APUs könnten mittelprächtig Rasterizing und den Puderzucker macht man dann drauf über RT und AI-Upscaling.

mocad_tom
2024-05-08, 10:11:14
nvidia hat ja gegen AI-Laptops gestänkert:

https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidia-criticizes-ai-pcs-says-microsofts-45-tops-requirement-is-only-good-enough-for-basic-ai-tasks

The entire event was centered around how Nvidia's RTX GPUs outperform modern-day "AI PCs" equipped with NPUs. According to Nvidia, the 10–45 TOPS performance rating found in modern Intel, AMD, Apple, and Qualcomm processors is only enough for "basic" AI workloads.

Tatsächlich ist es aber so - kann man ein LLM nicht in den Speicher laden (egal ob nun VRAM oder unified), dann hört sich der Spaß komplett auf (stellt euch vor ein Laptop mit 32GB beerdigt eine 4060ti mit 8GB).

Und hier könnten "Super-APUs" tatsächlich ganz interessant werden.
Und hier wird LPCAMM2 auch brutal interessant.

https://www.computerbase.de/2024-05/lpcamm2-im-handel-64-gbyte-lpcamm2-lpddr5x-7500-kosten-bei-crucial-330-us-dollar/

Vier LPCAMM2 Module sind dann 512bit Speicherinterface/8 Speicherkanäle und dann 256GB unified Speicher(später wenn 128GB LPCAMM2 gibt, dann ist man bei 512GB RAM).

Ich würde es sofort kaufen - sofort.

Egal ob nun Strix Halo oder Panther Lake - irgendwer wird so etwas noch basteln.

mboeller
2024-05-08, 10:23:56
Ist jetzt normales DDR5:


Crucial DDR5 memory is available at 4800, 5200, and 5600MT/s speeds and at 8, 16, 24, 32, and 48GB densities per module (24 and 48GB modules may not be available at all resellers). As the technology matures, future DDR5 products will deliver speeds up to 8800MT/s and densities up to 128GB per module.


https://www.crucial.com/articles/about-memory/everything-about-ddr5-ram

Sollte also schon sehr gut funktionieren mit Strix Halo, falls sich ein OEM findet, der so große Speicher verbaut und Strix Halo auch weiterhin DDR5 und LPDDR5x unterstützt.

Ansonsten:
https://www.anandtech.com/show/21069/modular-lpddr-becomes-a-reality-samsung-introduces-lpcamm-memory-modules

sind wohl 128GB das max.

davidzo
2024-05-08, 10:56:37
nvidia hat ja gegen AI-Laptops gestänkert:

https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidia-criticizes-ai-pcs-says-microsofts-45-tops-requirement-is-only-good-enough-for-basic-ai-tasks



Tatsächlich ist es aber so - kann man ein LLM nicht in den Speicher laden (egal ob nun VRAM oder unified), dann hört sich der Spaß komplett auf (stellt euch vor ein Laptop mit 32GB beerdigt eine 4060ti mit 8GB).



Kommt drauf an was man machen will. Für Training sind nvidia GPUs immer noch King. Und bei Inferenz reicht der Vorsprung immer noch um von einer völlig anderen Performanceklasse zu sprechen. Selbst die mobilen GA107 Versionen erreichen fast die dreifache Performance einer hypotetischen 45Tops Version. Vorrausgesetzt die NPUs erreichen überhaupt eine vergleichbare Kompatibilität.

Eine sechs Jahre alte Tesla T4 rauscht immer noch zügig an allen NPUs auf dem Markt vorbei.

Etwas ChatGPT-mäßiges lokal laufen zu lassen ist in greifbarer Nähe. Nvidias Ram-Geiz Strategie hat aber dazu geführt das speichersparende Modelle dominieren. Llama2 7B kann auf 3bit präzision reduziert selbst auf einer RTX 500 laufen und ist dann deutlich schneller als auf jeder NPU.

Für annähernd Chat-GPT mäßige Ergebnisse (also das Chat GPT auf early 2023) braucht man aber eher das Llama2 70B Modell. Das sind immerhin 28GB RAMbedarf. Das sind also eh Workloads die den ganzen Laptop blockieren und der Strombedarf ist auch auch mit NPUs eher etwas für den Docked Modus.
Um da brauchbare Token/s zu bekommen will man aktuell unbedingt dass GPU und CPU mitbenutzt werden. Die Apple Pro und Max CPUs+GPU+NPUs kommen da bereits auf annehmbare 20-30 Token/s. Das ist schneller als die meisten lesen können, reicht also.



Egal ob nun Strix Halo oder Panther Lake - irgendwer wird so etwas noch basteln.

Ja, Strix halo wird leistungsfähig genug sein weil man die fette IGP dazu nehmen kann. Das ist ja auch Apples Strategie bei ihren M-Chips, denn von der PPA ist die GPU nicht soviel schlechter und halt viel universeller nutzbar als eine NPU. Bei dem Leistungsniveau ist Power sowieso erstmal egal, selbst auf einer hypotetisch fetteren NPU würde der Labtop aufheizen müssen und volle Ramauslastung erreichen. Aber AMD muss ihre Software bis dahin erstmal in Gang bekommen. Noch kann man die XDNA NPU mit fast keinem gängigen framework ansteuern und die AMD GPUs sind wenig besser.
Wenn ich ehrlich bin würde ich es besser finden wenn sich AMD auf ROCm konzentrieren würde und nicht irgendwelche XDNA Nebenkriegsschauplätze aufbauen würde. ROCm ist das was auch auf Mi300X läuft und bringt da Milliarden ein. Das müssen die also sowieso weiterentwickeln und zwar eher gestern als übermorgen. Wenn man dann einfach fettere GPUs mit kräftigem low precision rate speedup verbaut wären sie einem richtigen AI-PC viel näher als mit den komischen NPUs (und nebenbei auch schneller in 3D workloads).

Bei Intel habe ich da mehr Hoffnung, da sie einfach mehr Manpower Ressourcen in der Softwarentwicklung haben. OpenVino zeigt ja schon in die richtige Richtung. Aber von ARL-halo, also dem produkt was vermutlich Strix Halo bei AMD losgetreten hat fehlt in jüngster Zeit jede Spur.


Ich schätze aber dass die NPUs der 45Tops Klasse alleine immer noch deutlich zu klein sind um eine sinnvolle Leistungsfähigkeit erreicht zu haben dass sie ihren Speichermengenvorteil wirklich ausspielen können. Aber mit einer fetten IGP auf voller Power dazu könnte es schon Sinn machen. Dann brauchen wir aber auch bald Labtops mit 64Gb damit noch was übrig bleibt für was anderes außer den persönlichen Sprachassistenten.

Eigentlich wird Microsoft das gar nicht wollen dass man lokale Modelle laufen lassen kann. Deren Geschäftsmodell ist doch die Cloud. Vielleicht deswegen die kleinen "Spielkram"-NPUs?

mocad_tom
2024-05-08, 12:09:10
Anwendungsfälle:

RAG retrieval augmented generation - also finetuning

und danach inferencing.

Und nein, wenn das Modell bei Inferencing nicht reinpasst, dann reden wir hier über den Faktor 200 langsamer - also bricht man das gleich ab.

Und diese Super-APUs kann ich mir durchaus für Desktop-Developer-Workstations vorstellen.

Ich will das LLama 3 400b irgendwo vernünftig reinladen können.

Das dann innen drin die NPU zu schmalbrüstig ist, ist dann ja zunächst mal egal, dann läuft es halt übernacht.

davidzo
2024-05-08, 14:07:35
Anwendungsfälle:

RAG retrieval augmented generation - also finetuning

und danach inferencing.

Und nein, wenn das Modell bei Inferencing nicht reinpasst, dann reden wir hier über den Faktor 200 langsamer - also bricht man das gleich ab.

Und diese Super-APUs kann ich mir durchaus für Desktop-Developer-Workstations vorstellen.

Ich will das LLama 3 400b irgendwo vernünftig reinladen können.

Das dann innen drin die NPU zu schmalbrüstig ist, ist dann ja zunächst mal egal, dann läuft es halt übernacht.


Aber wozu dann in der NPU wenn es sowieso über Nacht läuft? Da würde Strix halo mit 64 oder 128GB DDR5 doch ideal sein wenn AMD mal mehr am Softwaresupport von RDNA3s quadruple rate ui4 und double rate iu8 schrauben würde. Die 40CU GPU alleine dürfte 80+ TOPs haben und dank LLC und breitem SI auch wesentlich besser auslasten können als die strix point NPU.
Wer braucht dann noch eine NPU wenn man genug GPU kerne hat und Energie keine so große Rolle spielt?
Also ich hätte lieber ne 48-56CU GPU mit etwas mehr LLC Cache anstatt ne 40CU GPU + 45Tops NPU. Da scheint es mir Softwareseitig leichter die maximale Leistung zu extrahieren und die Leistungsrelevanten Parameter optimal zu skalieren.

mboeller
2024-05-08, 15:34:29
netter Preis

377,- Euro für 64GB

https://www.notebookcheck.com/LPCAMM2-statt-SO-DIMM-So-teuer-sind-die-RAM-Upgrades-kuenftiger-Laptops.835216.0.html

mocad_tom
2024-05-08, 16:06:49
Was würde eine 4090 mit 64GB kosten.

:biggrin:

OgrEGT
2024-05-08, 19:38:19
Wozu lokal LLMs zu Hause laufen lassen? Zu welchem Zweck?

mocad_tom
2024-05-09, 00:18:30
Ich will ein LLM mit unserem Source-Code RAG retrieval augmented generation/finetuning machen lassen.

Ich will aber unseren Firmen-Source-Code nicht nach draussen geben.

Nach dem das LLM sich also mit unserem Source-Code angefreundet hat, soll es uns weiteren Source Code generieren.

Und RAG bei Chat with RTX geht schon.

https://www.nvidia.com/de-de/ai-on-rtx/chatrtx/

Das ist die eigentliche Killeranwendung. Und LLama 3 400B (ich hoffe die Lizenz wird dort ebenfalls so entspannt aussehen) wird dorthin gehen können, wo es beginnt spaß zu machen.

Hauwech
2024-05-09, 13:13:31
Was würde eine 4090 mit 64GB kosten.

:biggrin:

Gibt ja zumindest die 6000er Ada Karten mit 48GB. Für Privatleute natürlich nicht ganz billig.

mocad_tom
2024-05-10, 12:42:22
https://twitter.com/Olrak29_/status/1788811592353906728

Golden Pig Upgrade

There is no shadow of battlemage at all, there will be no DG3

To clarify, I'm talking about mobile independent graphics. Desktop card have plans.


Desktop Battlemage dGPU wird es wohl geben.

DrFreaK666
2024-05-10, 12:43:10
ah gut. Ungefähres Datum wäre noch nice

basix
2024-05-10, 12:57:09
netter Preis

377,- Euro für 64GB

https://www.notebookcheck.com/LPCAMM2-statt-SO-DIMM-So-teuer-sind-die-RAM-Upgrades-kuenftiger-Laptops.835216.0.html

So extrem überteuert finde ich das jetzt nichtmal. Aber egal, ist neu und Preise werden sinken.

Bei LPCAMM2 sehe ich eher einenen anderen Vorteil: Dual-Channel ist quasi gesetzt. Dann hört endlich diese Unsitte mit Single-Channel SO-DIMM auf, was die iGPU unnötig kannabalisiert.

robbitop
2024-05-10, 17:12:34
Für mobile kommt BM ja mit Lunar Lake. Ggf wird es dann mal spannend im Handheldformat.

Ob BM dGPU so anders wird als Alchemist ist die Frage. Klar die Treiber sind jetzt besser. Aber die stärkste GPU wird wieder nur 60 class. (weil ja Blackwell und RDNA4 der jeweilige Wettbewerber ist)

Für den Endkunden wäre es am Besten wenn Intel MV Marktanteile abnehmen würde. Alchemist hat iirc nur AMD welche abgenommen. So ist es nicht wirklich mehr Wettbewerb.

TheAntitheist
2024-05-11, 15:42:40
Für mobile kommt BM ja mit Lunar Lake. Ggf wird es dann mal spannend im Handheldformat.

Ob BM dGPU so anders wird als Alchemist ist die Frage. Klar die Treiber sind jetzt besser. Aber die stärkste GPU wird wieder nur 60 class. (weil ja Blackwell und RDNA4 der jeweilige Wettbewerber ist)

Für den Endkunden wäre es am Besten wenn Intel MV Marktanteile abnehmen würde. Alchemist hat iirc nur AMD welche abgenommen. So ist es nicht wirklich mehr Wettbewerb.
es gibt mehr Wettbewerb im Low/Midrange Markt, also ist es schon mehr Wettbewerb. Wenn Intel dazu AMD noch den Lowend Markt weg nimmt, wird AMD vielleicht ja doch nochmal etwas Geld in die Radeons investieren und versuchen den Highend Markt anzugreifen weil denen nichts mehr übrig bleibt.
Sieht man auch stark im letzten Quartalsbericht, die Radeon-Sparte ist ja fast tot. ohne Konsolen würden die ja nur noch 250 Millionen pro Quartal damit machen.

mocad_tom
2024-05-11, 17:27:09
Vllt kann einer mit konkreten Zahlen helfen.

Aber mMn ist der dGPU-Markt Laptop größer als der dGPU-Markt Desktop

Nun kommen diese ganzen AI-Laptop-Initiativen daher.

Und da dedizierter RAM für CPU und dedizierter RAM für GPU sche....e.

Deshalb gibt es jetzt von Arrow Lake eine muskulöse Version und von Strix Halo eine muskulöse Version.

Und von Panther Lake ist auch schon eine muskulöse Version aufgetaucht.
Wer schaut in die Röhre?
nvidia mit den Laptop-dGPU.

64Gbyte Laptops werden im Inferencing um alle nVidia-dGPU Kreise rundherum ziehen.

Dieser 4080er-/4090er-Markt wird so implodieren.
Die werden deshalb Kreise drumherum ziehen, weil sie mit viel mehr unified RAM glänzen können.

https://twitter.com/miktdt/status/1788648028909298117

Irgendwie ist auch Panther Lake schon aufgetaucht.

ryan
2024-05-12, 11:32:48
Deshalb gibt es jetzt von Arrow Lake eine muskulöse Version und von Strix Halo eine muskulöse Version.



Was für eine muskulöse Version bei Arrow Lake? Meinst du XMX? Ansonsten ändert sich nichts. 15% schneller soll sie werden, was aber an der Takfrequenz liegt, leider noch Alchemist. Mich wundert, dass Intel bei Panther Lake schon Celestial bringen will. Der Abstand ist deutlich kürzer als bei Alchemist zu Battlemage.

Dann könnte es wirklich so sein, dass Battlemage und Celestial von zwei Teams entwickelt wird oder wurde, so habe ich das gehört.

robbitop
2024-05-12, 11:36:06
Komisch dass Arrowlake nur Alchemist bringt und praktisch gleichzeitig Lunarlake mit Battlemage kommen soll. Woran liegt das?

ryan
2024-05-12, 12:10:33
Tja weil Intel schon von Anfang an die Absicht hatte, bei Arrow Lake alles zu recyclen bis auf das compute tile. Vielleicht weil der Aufwand und das Risiko so minimiert wird, keine Ahnung. Bei Lunar Lake ist nicht nur die GPU neuer, der IMC wandert auch wieder in das compute tile genauso wie die LPE Kerne und die NPU ist Neu. Intel spricht jetzt schon mehr von LNL+PTL als von ARL, kein Wunder.

Leonidas
2024-05-12, 13:46:35
Aber mMn ist der dGPU-Markt Laptop größer als der dGPU-Markt Desktop.

Nein. Ungefähr 1:1 bei dGPU. Bei Prozessoren ist es aber in der Tat 1:2 pro Mobile.

mocad_tom
2024-05-13, 11:36:33
Intel Arrow-Lake bekommt viele einzelne SKUs aber man spendiert nur dort zusätzliche Silizium-Fläche, wo es sich auch auszahlt.

In den Arrow Lake-H Prozessoren(Laptop) kommt ein anderes iGPU-Tile zum Einsatz als in den Arrow Lake-S Prozessoren(Desktop)


Die iGPU von Arrow Lake-H bekommt die Bezeichnung "Xe-LPG Plus" und wird eine vollständige XMX Einheit drinhaben.
Sie wird in TSMC N3B gefertigt.

https://www.igorslab.de/intel-arrow-lake-xe-lpg-plus-mit-xmx-fuer-schnelleres-xess/

Die NPU von Arrow Lake-H wird die gleiche Leistung haben wie die NPU von Meteor Lake. Aber das starke iGPU-Tile von Arrow Lake-H wird deutlich mehr AI-Leistung bekommen. Und so kann dann Intel den Kopf aus der Schlinge ziehen und die Microsoft-Anforderungen einhalten.


Ergänzung:

Lunar Lake hat 4 XE Cores mit Battlemage (Verdoppelung der Einheiten innerhalb eines Cores)

Arrow Lake H hat 8 XE Cores mit Alchemist-Refresh (mit XMX)

Wenn die Arrow Lake H-GPU ca. die gleiche Leistung wie Lunar Lake hat, dann kommt dies dabei raus:


Lunar Lake
NPU 45 TOPS
GPU 53 TOPS (Battlemage)
CPU 3 TOPS
Gesamt 101 TOPS

Arrow Lake H
NPU 11TOPS
GPU 53TOPS (Alchemist-Refresh)
CPU 4TOPS
Gesamt 68TOPS

https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/63363-lunar-lake-intel-nennt-100-tops-an-ai-rechenleistung.html

ryan
2024-05-13, 15:43:36
Die iGPU von Arrow Lake-H bekommt die Bezeichnung "Xe-LPG Plus" und wird eine vollständige XMX Einheit drinhaben.
Sie wird in TSMC N3B gefertigt.


N4 beim ARL-H GPU tile.





Ergänzung:

Lunar Lake hat 4 XE Cores mit Battlemage (Verdoppelung der Einheiten innerhalb eines Cores)

Arrow Lake H hat 8 XE Cores mit Alchemist-Refresh (mit XMX)




8 Xe cores bei Lunar Lake. Dafür keine subslice, also 8 EUs pro Xe core und dafür 16 ALUs pro EU statt 8 ALUs bei Alchemist. Lunar Lake soll bei 104-105 Plattform TOPS liegen. ARL-H werden 72 TOPS nachgesagt.

dildo4u
2024-06-04, 07:11:14
Präsentation zu Xe2


MGD41i5QCyk

ryan
2024-06-04, 07:15:23
„Battlemage“: Intels Xe2-Architektur für Lunar Lake und Arc 2.0 im Detail
https://www.computerbase.de/2024-06/battlemage-intels-xe2-architektur-fuer-lunar-lake-und-arc-2-0-im-detail/

DrFreaK666
2024-06-04, 07:22:16
Naja, keine ersten Performance-Prognosen... Theoretische Werte interessieren mich nicht

dildo4u
2024-06-04, 07:46:31
Intel verspricht 1.5x zu Meteorlake was einfach ist da man weniger CPU Kerne hat die der GPU die nötige Power rauben.

https://i.ibb.co/M1W5mty/2024-06-04-8-47-44-1456x819.jpg (https://ibb.co/4S9gHXw)

dildo4u
2024-06-29, 12:20:50
Angebliche Konfigurationen Low End wird aufgewertet.

https://i.ibb.co/PrcD0Qb/Screenshot-2024-06-29-124336.png (https://ibb.co/kG4mv1r)
free pictures (https://de.imgbb.com/)

https://videocardz.com/newz/intel-confirms-flagship-arc-battlemage-bmg-g31-graphics-processor-with-32-xe2-cores

mocad_tom
2024-06-29, 20:02:33
https://x.com/harukaze5719/status/1691638266922151993

2362 und 2727 ist schon länger bekannt

Der 3283 ist neu

vielleicht wird ja wirklich ein bisschen nach oben hin gestreckt, weil AMD dort nicht mehr so hin will.

Raff
2024-06-29, 21:40:16
"Strecken" ist keine gute Idee, wenn man das nur mit Takt kann, das wird mit Ansage ineffizient. Apropos, sind zwischenzeitlich nochmal Gerüchte bezüglich des "Adamantine"-Caches aufgekommen, oder ist das tot?

MfG
Raff

y33H@
2024-06-29, 22:16:39
Wolverine = Multiverse

ryan
2024-06-30, 16:12:26
https://x.com/harukaze5719/status/1691638266922151993

2362 und 2727 ist schon länger bekannt

Der 3283 ist neu

vielleicht wird ja wirklich ein bisschen nach oben hin gestreckt, weil AMD dort nicht mehr so hin will.


Sieht nicht danach aus. BGA3282 ist ja der neue G31 Chip, den es für den gecancelten G10 BGA2727 gibt. Angeblich soll G31 aber nur mit 32 Xe Kernen kommen und dementsprechend G21 mit nur 20 Xe Kernen. Also maximal nur so viel Einheiten wie bei Alchemist. Die Mehrleistung müsste durch Taktsteigerungn und IPC Verbesserungen kommen. Das können dann aber keine 2x über Alchemist werden sondern nur so im Bereich 1.2x bis 1.6x schätze ich mal. Zumindest in games, wo Alchemist durch ein paar große Hardware Flaschenhälse gebremst wurde.

davidzo
2024-07-01, 12:50:50
Laut Intels Lunarlake Folien ist der Zuwachs an Grafikperformance 50% bei gleicher Anzahl an EUs.

LNL und MTL sind beide 8CU, ersterer ist Battlemage Technologie und letzterer Alchemist. Lunarlake hat außerdem 8mb L2 für die GPU, doppelt soviel wie MTL mit Alchemist und deutlich LPDDR5 8533 statt 6400 support.

Ausgehend von einem 50% Zuwachs an Performance gegenüber der ACM-G10 könnte G31 ca. auf RTX 4070 / RX6800 Niveau landen und G21 auf 4060 / 7600XT Niveau. Das sind sehr stückzahlenstarke Preissegmente in denen performance per Dollar durchaus wichtig ist. Es lohnt sich für Intel kaum darüber hinaus zu gehen weil nvidia als stärkere Marke den Highendmarkt dominiert.

dildo4u
2024-07-01, 13:47:50
Müsste Intel nicht zwei Sprünge machen "Midrange" in 2025 wäre Navi 48 also deutlich über 7800XT?

davidzo
2024-07-01, 14:09:53
Eben, Battlemage ist ja auch wieder erheblich verzögert.
Alchemist wäre drei Jahre früher konkurrenzfähig gegenüber Navi und Turing gewesen und hätte man die Treiber so fertig gehabt wie sie es jetzt sind wäre es auch ein guter 6700XT bzw. 3060ti Konkurrent gewesen.
Battlemage ist sicher auch nicht für erst drei Jahre nach Alchemist geplant gewesen sondern eher für den üblichen Rythmus von 2 Jahren wie bei Nvidia und AMD, also als Konkurrent für Ada und RDNA3.

Navi48 sieht aber auch verzögert aus, insofern hat Intel vielleicht Glück im Unglück.
Nvidia springt mit Blackwell nur so hoch wie sie müssen, ohne größere Hardwareanwsetzung und im selben N4 Prozess wie Ada sehe ich keine große Gefahr für Intel. Der Hauptkonkurrent wird Navi48 und die sind einen vollen Sprung vorne. Nur ist das wohl eh kein bedeutender Sprung wenn man bedenkt dass AMD die Highend SKUs schon lange gecancelt hat und sich lieber auf RDNA5 konzentriert. Wenn Intel schon nicht mit N48XTX konkurrieren kann, dann vielleicht mit dem Salvage-modell.

G10 sollte ja den ADM Cache haben, G21 wiederum nur einen relativ großen 18mb L2. Das passt einigermaßen zu LnLs 8MB für 8CU. G31 könnte also ein redesign von G10 ohne ADM sein, stattdessen mit kleinerem on-DIE L2 cache und 256bit SI. Wenn G31 wirklich weiterhin nur 192bit hat müsste der On-DIE cache schon mehr als 32mb sein, eher 48mb. Daher würde ich dann weiterhin von ADM in irgendeiner Form ausgehen. Aber wieso dann G10 streichen?

Das könnte so aussehen:
BMG G31:
- TSMC N5P
- 32XE Cores
- 256bit SI
- 32MB L2

BMG G21:
- TSMC N5P
- 20 Xe Cores
- 192bit SI
- 18MB L2

BMG G10 (gecancelt):
- möglicherweise TSMC N3E?
- 56 XE Cores
- 192bit SI
- Adamantine L3$

Die Streichung könnte dieselben Gründe haben wie die Streichung von Navi41: Kosten + Packaging Kapazitäten werden für AI Chips und hochmargigere Clientprodukte gebraucht (LNL, ARL).

DrFreaK666
2024-07-07, 13:15:58
wccftech hat mal alle aktuellen Gerüchte zusammengefasst


Up To 50% Performance Increase Versus Alchemist
Next-Gen Memory Subsystem & Compression
Improved Ray Tracing
Micro-Architecture improvements
Next-gen ML-based rendering tech
Latest DeepLink capabilities
Targeting Performance/Enthusiast Gaming


https://wccftech.com/intel-arc-battlemage-xe2-discrete-gpus-tsmc-4nm-process-node/

"Next-gen ML-based rendering tech" dürfte XeSS 2.0 bedeuten?

y33H@
2024-07-07, 13:48:36
In dem Artikel steht wieder so viel Quatsch und ein Copy-Editor wäre auch hilfreich ..

DrFreaK666
2024-07-07, 17:42:34
Wie kann es Quatsch sein, wenn es sich um Gerüchte handelt?

robbitop
2024-07-07, 17:58:18
y33h@ weiß zu viel und darf nichts sagen. ^^
Segen und Fluch zugleich für einen IHV zu arbeiten. :)

1ch0
2024-07-07, 18:41:36
Ich würde wahrscheinlich einen GPT verwenden, der automatisch alles, was ich in meinem Beitrag schreibe, auf interne Informationen überprüft und zensiert. 😄

DrFreaK666
2024-07-07, 19:01:36
y33h@ weiß zu viel und darf nichts sagen. ^^
Segen und Fluch zugleich für einen IHV zu arbeiten. :)

Stimmt ja. Total vergessen

w0mbat
2024-07-07, 22:35:50
y33h@ weiß zu viel und darf nichts sagen. ^^
Segen und Fluch zugleich für einen IHV zu arbeiten. :)
Du denkst echt, y33h@ arbeitet? Ich weiß auch sicheren Quellen, dass er nur rum gammelt.

y33H@
2024-07-07, 23:39:21
Wie kann es Quatsch sein, wenn es sich um Gerüchte handelt?Weil es plausible Gerüchte gibt und weil es Bullshit Gerüchte gibt ...
Du denkst echt, y33h@ arbeitet? Ich weiß auch sicheren Quellen, dass er nur rum gammelt.Ertappt ^^

Raff
2024-07-07, 23:41:22
Öffne mal das Nähkästchen, wir warten schon viel zu lange. :D

MfG
Raff

Fusion_Power
2024-07-08, 01:03:15
Gibts auch irgend welche belastbaren Gerüchte über den Idle Verbrauch der kommenden Intel Arc Generation? Oder gibts wieder böse Überraschungen? Treibertechnisch konnte Intel ja seit Release so einiges fixen bezüglich ihrer ersten dedizierten Grafikkarten. Bis auf diese eine, nicht ganz unbedeutende Sache.

reaperrr
2024-07-08, 01:11:53
Gibts auch irgend welche belastbaren Gerüchte über den Idle Verbrauch der kommenden Intel Arc Generation?
Mir sind keine bekannt.
Abgesehen davon, ganz ehrlich, ich glaube der Idle-Verbrauch ist das, wonach Leaker ihre Quellen als letztes befragen ^^
Die meisten Leute interessiert Raster-Perf, RT-Perf, Preis, P/L, allgemeine Effizienz (Perf/W), ungefähr in der Reihenfolge.

Fusion_Power
2024-07-08, 02:31:25
Mir sind keine bekannt.
Abgesehen davon, ganz ehrlich, ich glaube der Idle-Verbrauch ist das, wonach Leaker ihre Quellen als letztes befragen ^^
Die meisten Leute interessiert Raster-Perf, RT-Perf, Preis, P/L, allgemeine Effizienz (Perf/W), ungefähr in der Reihenfolge.
Yoah, am Ende war der Idle (und Maximal-)Verbrauch ja mit der größte Kritikpunkt, nachdem Intel irgend wann die Treiber bezüglich Performance halbwegs in den Griff bekommen hatte. Verkaufspreise der Arc sind auch vollkommen Ok, über irgend was muss man ja noch meckern können. ;)

Loeschzwerg
2024-07-08, 09:34:59
Nachdem Intel bei MTL die Idle Leistungsaufnahme für Arc im Griff hatte, mache ich mir da bezüglich Battlemage recht wenig Sorgen.

HOT
2024-07-08, 11:07:21
Intel hätte mit nem Konkurrenten für die 7900XT(X)/RTX4080 gut verdienen können mMn. Aber das hat man sich offensichtlich wieder nicht getraut. Also wird BM wieder da landen wo die A770 landet, im gänzlich unlukrativen Bereich...

Exxtreme
2024-07-08, 11:16:02
Intel hätte mit nem Konkurrenten für die 7900XT(X)/RTX4080 gut verdienen können mMn. Aber das hat man sich offensichtlich wieder nicht getraut. Also wird BM wieder da landen wo die A770 landet, im gänzlich unlukrativen Bereich...

Man weiss halt wiederum nicht wieviel Strom das gezogen hätte. RTX 4080-Leistung bei 500 W wäre auch ein Reinfall gewesen. Ich gehe davon aus, dass BM deutlich unter einer RX7900XT liegen wird. Eventuell nur halb so schnell.

dildo4u
2024-07-08, 11:31:26
Ebend niemand braucht mehr 400 Watt Karten, der Material Aufwand ist Unsinn für Midrange Karten.

Die Effizienz müsste um 100% steigen für Lovelace level, Intel selbst gibt nur 50% an für Lunar Lake.(Das Ding nutzt 3nm!)

Neues UE5 Game The First Descendant ARC770 45 fps, 4070S 92fps Beide um 230 watt.

https://www.techpowerup.com/review/the-first-descendant-fps-performance-benchmark/5.html

davidzo
2024-07-08, 16:12:12
Intel hätte mit nem Konkurrenten für die 7900XT(X)/RTX4080 gut verdienen können mMn. Aber das hat man sich offensichtlich wieder nicht getraut. Also wird BM wieder da landen wo die A770 landet, im gänzlich unlukrativen Bereich...

Die Kunden die sich mit einem Kompromiss beim Treiber und Spielesupport zufrieden geben findet man selten im highend- und performance-Bereich. Die sind eher im Mainstream unterwegs, also 4060er Level. Die 60er Serie ist bei nvidia auch so schlecht ausgestattet (vram?) und mit abfallchips bestückt welche die mobile tdp nicht schaffen dass hier einfach das größte Angriffspotential für einen underdog besteht. Die besten chancen hat man eh nicht in den USA oder europa sondern in wachstumsmärkten wie und Indien, China, Südostasien, wo in vielen kleineren Läden 3060s und 4060s das größte sind was man bekommen kann und weiterhin GT1030s und rx6400s für den Aufrüstmakrt über die theke gehen. Da sind 12gb oder 16gb vram schon ne Ansage über die man gut überlegt wenn nachdenkt wenn man sein ganzes gespartes investiert.

ryan
2024-07-17, 16:37:16
BATTLEMAGE e20b:0000 dgfx:1 gfx:Xe2_LPG / Xe2_HPG (20.01) media:Xe2_LPM / Xe2_HPM (13.01)
https://intel-gfx-ci.01.org/tree/intel-xe/xe-1619-cf52b34c47ed2a05c46193f0b9807ffd8838dbd8/bat-bmg-1/dmesg0.txt

Was Intel dort testet ist Battlemage G21 mit 20 Xe cores oder 160VE mit 12GB.

VVC Decoding scheint aber nicht an Bord zu sein bei der G21. Lunar Lake hat eine Media Version mit Version 20.00. 13.x bei G21 ist wie bei Meteor Lake.


LUNARLAKE 64a0:0004 dgfx:0 gfx:Xe2_LPG / Xe2_HPG (20.04) media:Xe2_LPM / Xe2_HPM (20.00)

ryan
2024-08-21, 22:46:33
Intel hat die Xe2 Vorstellung aus Taiwan hochgeladen. Besser spät als nie.

https://youtu.be/1LSF-II0l-4

Raff
2024-08-21, 23:15:39
Ah, besser als die Fragerunde zum Thema. :up:

MfG
Raff

dildo4u
2024-09-03, 19:27:37
Werte der IGP von Lunar Lake angeblich 30% besser als AMD in RT kein Plan ob das besser als der aktuelle Stand ist.

https://videocardz.com/newz/intel-claims-arc-xe2-lunar-lake-graphics-are-worlds-best-built-in-gpu

Unabhängige Tests erst Ende September.

robbitop
2024-09-03, 19:55:11
In RT war schon Alchemist stark. Kein Wunder Intel verbaut RT HW Level 3.5 wohingegen AMD bis inkl RDNA3 nur HW Level 2 verbaut.
Aber: ich würde sagen das ist für IGPs noch irrelevant. Bei dGPUs wird es schon relevant. Allerdings wird Intels Battlemage dGPU dann gegen AMDs RDNA4 antreten müssen wo es laut Gerüchten deutlich bessere RT Leistung geben soll.

dildo4u
2024-09-24, 15:17:19
Test der Lunar Lake IGP auf Battlemage Basis


https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Intel-Lunar-Lake-und-Battlemage-im-Test-gegen-Xe-und-RDNA-3-5-1456286/


1g-rGkRvzlQ

DrFreaK666
2024-09-25, 15:34:51
Auch wenn Open CL Benchmarks absolut nichtssagend und die Karten und Treiber noch nicht final sind:
Intel Arc Battlemage “G21” GPU With 20 Xe2 Cores, 12 GB Memory & 2850 MHz Clock Speed Benchmarked
https://wccftech.com/intel-arc-battlemage-with-20-xe2-cores-12-gb-2850-mhz-clock-speed-benchmarked/

https://i.postimg.cc/gJJQ7GHz/grafik.png (https://postimg.cc/mcvmzfnJ)free image upload (https://postimages.org/de/)

robbitop
2024-09-25, 15:38:33
Also Xe2 zeigt bereits heute in LNL wie gut die IP ist. Man scheint zumindest Core für Core mit RDNA3 mithalten zu können.
G21 hat AFAIK 4096 "Cores". Wenn da nicht wieder Skalierungsprobleme vorhanden sind, kann man schon grob erwarten, dass Battlemage leicht über N32 performt (in Raster) und wahrscheinlich in RT schneller. Entsprechend könnte es gegen N48 schon ein Kopf an Kopf Rennen geben. Es bleibt spannend :)

DrFreaK666
2024-09-25, 15:45:11
Wenn FSR4 zeitgleich mit RDNA4 erscheinen sollte, dann hätte AMD dank AFMF2 das bessere Feature-Set :freak:, außer Intel zaubert Ähnliches aus dem Ärmel

robbitop
2024-09-25, 15:47:13
Wenn FSR4 zeitgleich mit RDNA4 erscheinen sollte, dann hätte AMD dank AFMF2 das bessere Feature-Set :freak:, außer Intel zaubert Ähnliches aus dem Ärmel
Wenn nicht hat Intel den Vorteil mit XeSS über XMX. Schneller und sieht besser aus.
AFMF2 ist ein Vorteil - aber mit dem tool "lossless scaling" mit der neusten Frame Generation Version kommt man da schon gut ran.

DrFreaK666
2024-09-25, 16:05:13
Bin gespannt.
Wie heißts: Konkurrenz belebt das Geschäft.
Problem ist nur, dass nur AMD und Intel in Konkurrenz stehen und nicht Nvidia heißen

robbitop
2024-09-25, 16:11:02
Das ist leider so. Für den Markt wäre es besser, Anteile von NV zu holen.
Aber AMD hat da auch selbst ein Stück weit Schuld dran. IMO haben sie nach RDNA2 irgendwie den Absprung verpasst und die IP wurde nicht um das gewohnte Maß besser als der Vorgänger.
Intel kam von einer ziemlich mittelmäßigen ersten Iteration und hat anscheinend aber ordentlich in die Hände gespuckt. Hoffentlich gilt das auch für RDNA4.

konkretor
2024-09-25, 20:58:00
So wieder etwas mehr Infos



https://videocardz.com/newz/intel-battlemage-gpu-leak-shows-2-85-ghz-clock-20-xe2-cores-and-12gb-vram

fondness
2024-09-25, 21:22:35
Also Xe2 zeigt bereits heute in LNL wie gut die IP ist. Man scheint zumindest Core für Core mit RDNA3 mithalten zu können.


Du übertreibst. Zum einen hängt Strix an der Bandbreite und LNL hat bei allen vergleichen schnelleren Speicher und mehr Cache. Zum anderen war das größte Problem von Intel die miese perf/mm2 - und dazu habe ich noch gar nichts gesehen. Bei der perf/Watt hilft auch der 3nm Prozess und die Bandbreite um vieles zu verschleiern. Zudem ist der Konkurrent am Desktop RDNA4.

robbitop
2024-09-25, 23:29:23
Absolut und das habe ich ja auch alles eingeräumt (RDNA4 und auch den Prozessvorteil - wobei N3B jetzt nicht so wahnsinnig toll vs N4P ist wie man erwarten könnte und es eher N3E ist der beTSMCs N3 Familie den erwarteten Sprung zeigte - siehe M3 vs M2 und dann M4). Aber auf den ersten Blick sieht es nach einem mehr als ordentlichen Sprung aus. Man muss, da gebe ich dir Recht, erstmal die dGPU SKUs abwarten. Aber es ist zumindest gut zu sehen, dass Intel da nicht geschlafen hat.

dildo4u
2024-09-26, 06:25:35
RDNA3.5 scheint schon der Gegner für ARC dort will Intel Markanteile holen im Desktop kannst du die Margen vergessen, die holt man in 2000€ Notebooks.

AMD sieht das genau so ansonsten würden sie keine Über APU bringen.

Das ist die letzte Kategorie wo Intel/AMD Vorteile gegenüber Nvidia haben so lange ARM Kompatibilitäts Probleme in Windows hat.

robbitop
2024-09-26, 06:40:25
Ja in APUs wird RDNA3.5 der Gegner sein.
Was mir auffällt bei Strix (und auch Phoenix) rein vom Anschauen von Reviews. AMD lässt die GOU bei genug TDP massiv ins Bandbreitenlimit laufen. Meint: die GPU Taktraten gehen stark nach oben obwohl sie dann keine bessere Performance mehr bringen. Dann wird unnötig Energie verbrannt. Da gibt es definitiv Potential zur Verbesserung. Jede Komponente sollte nur so hoch takten bis Mehrtakt nichts mehr bringt. ZB bei einem fps Limit sollten CPU, GPU und Speicher jeweils so takten, dass es für die Frametime ausreicht.
Beim Steam Deck unter SteamOS funktioniert das schon ganz gut. Grundsätzlich sollte das also funktionieren.

Mal schauen wann die nächste APU mit RDNA4 und Zen 6 herauskommt. Gab es da schon was auf Roadmaps?
Auf der MLID Roadmap tauchen jedenfalls für nächstes Jahr keine Strix Nachfolger APUs auf:
https://m.winfuture.de/news/139371

dildo4u
2024-09-26, 08:10:24
Das Modell unter Strix hat doch nur 8 CU das sollte OK sein.

Ich denke alles da drüber ist zu viel für Handhelds was TDP angeht und nur dort ist die IGP Leistung entscheidend für das Produkt.

robbitop
2024-09-26, 08:53:35
Ich bin mir da nicht so sicher. Mehr CUs bieten auch die Option, performancenormiert den Takt zu senken. Und Takt korreliert mit einer Potenzfunktion zur Leistungsaufnahme (Leistungsaufnahme skaliert mit Takt zwar nur linear aber für höhere Taktraten sind auch höhere Spannungen nötig und die Leistungsaufnahme korreliert grob quadratisch mit Spannung -> je nach Betriebspunkt kann das dann insgesamt mit einer n^3 Korrelation enden). Bedeutet, die Energieeffizienz einer GPU kann bei breitereren Konfiguration deutlich besser sein. Natürlich hat das alles bestimmte Grenzen.

Bei Strix kann man das übrigens in einigen Reviews sehen. Da gibt es eine 12CU und eine 16CU version. Und im Vergleich zu Hawk/Phoenix legt bei einer kleinen TDP (also die GPU ist TDP limitiert egal ob 8, 12 oder 16 CUs) die 16 CU Variante am Meisten zu und zwar signifikant. Bedeutet ein Großteil der besseren Energieeffizienz der GPU in Strix kommt von der Breite (und nicht von RDNA3.5 vs 3).

Insofern bin ich nicht überzeugt, dass Kraken notwendigerweise bessere Effizienz (Perf/W) bieten wird.
Die Frage ist, ob AMD für Handheld unnötiges I/O besser powergaten kann, so dass nicht benutztes I/O auch nichts verbraucht. Dann bräuchte man ggf. auch keinen extra custom SoC für Dinge wie das Steam Deck 2 wie damals mit Van Gogh.

fondness
2024-09-26, 08:56:52
Ja in APUs wird RDNA3.5 der Gegner sein.
Was mir auffällt bei Strix (und auch Phoenix) rein vom Anschauen von Reviews. AMD lässt die GOU bei genug TDP massiv ins Bandbreitenlimit laufen. Meint: die GPU Taktraten gehen stark nach oben obwohl sie dann keine bessere Performance mehr bringen. Dann wird unnötig Energie verbrannt. Da gibt es definitiv Potential zur Verbesserung. Jede Komponente sollte nur so hoch takten bis Mehrtakt nichts mehr bringt. ZB bei einem fps Limit sollten CPU, GPU und Speicher jeweils so takten, dass es für die Frametime ausreicht.
Beim Steam Deck unter SteamOS funktioniert das schon ganz gut. Grundsätzlich sollte das also funktionieren.

Mal schauen wann die nächste APU mit RDNA4 und Zen 6 herauskommt. Gab es da schon was auf Roadmaps?
Auf der MLID Roadmap tauchen jedenfalls für nächstes Jahr keine Strix Nachfolger APUs auf:
https://m.winfuture.de/news/139371

Wie soll das gehen? Ein Bandbreitelimit ist ja nicht pauschal sondern hängt von der Anwendung und natürlich auch vom verbauten Speicher ab und AMD kann ja in Hardware nicht die fps messen. 😅 Und beim Steam Deck funktioniert das natürlich überhaupt nicht, die haben nur schlicht genug Bandbreite ;-) (fps Limit ist was anderes, da werden ja die fps gedrosselt und damit natürlich die Taktraten gesenkt, das geht aber auch bei Strix)

Deshalb macht es Sinn die TDP zu limitieren und deshalb bin ich überzeugt, dass ein stix mit schnellere RAM nicht lange auf sich warten lassen wird und auch einiges bringen wird.

dildo4u
2024-09-26, 09:18:51
Tomshardware hat IGP Benches und berichtet von Problemen mit Framegen

Core Ultra 9 288V vs Core Ultra 7 155H vs Ryzen AI 9 HX 370

https://www.tomshardware.com/pc-components/gpus/we-benchmarked-intels-lunar-lake-gpu-with-core-ultra-9-drivers-still-holding-back-arc-graphics-140v-performance

GPU Takt ist down gegenüber Meteor Lake.

robbitop
2024-09-26, 10:19:28
Wie soll das gehen? Ein Bandbreitelimit ist ja nicht pauschal sondern hängt von der Anwendung und natürlich auch vom verbauten Speicher ab und AMD kann ja in Hardware nicht die fps messen. 😅 Und beim Steam Deck funktioniert das natürlich überhaupt nicht, die haben nur schlicht genug Bandbreite ;-) (fps Limit ist was anderes, da werden ja die fps gedrosselt und damit natürlich die Taktraten gesenkt, das geht aber auch bei Strix)

Deshalb macht es Sinn die TDP zu limitieren und deshalb bin ich überzeugt, dass ein stix mit schnellere RAM nicht lange auf sich warten lassen wird und auch einiges bringen wird.
Warum soll das nicht gehen? man wird doch sicherlich messen können, wie lange es dauert bis Dinge in den Speicher gelesen und geschrieben werden und das in Echtzeit statistisch auswerten können. Da gibt es sicherlich etliche counter in der HW. Und wenn diese Wartezeiten über einem Threshold sind -> GPU Takt runter. Sinnloses Energieverbrennen.
Was man als User machen kann: schauen wo grob das Bandbreiten Limit ist und dann den maximalen Takt begrenzen. Das ist natürlich ein Stück weit ein "moving target" - hilft aber sicherlich. IIRC hatte Ancient Gameplays damit mal rumgespielt und es hatte auch Energieeffizienz gebracht (Leistungsaufnahme ging zurück und je nach TDP Limit kann sich die CPU dann mehr genehmigen, sofern sie der bottleneck ist).

Was ich mein Steam Deck meinte: die CPU, GPU und der Speicher takten sich dynamisch runter (auch ohne TDP limit) wenn sie die Frametime schaffen, auf die die Framerate gelockt ist. Du siehst in der Praxis wie alle drei Dinge runtertakten und auch die Leistungsaufnahme zurückgeht und wie dann auch mehr Headroom für Spikes da ist, den sich dann die jeweilige gebottleneckte Komponente nimmt um kurzzeitig höher zu takten.

ryan
2024-09-26, 12:23:05
Auch wenn Open CL Benchmarks absolut nichtssagend und die Karten und Treiber noch nicht final sind:

https://wccftech.com/intel-arc-battlemage-with-20-xe2-cores-12-gb-2850-mhz-clock-speed-benchmarked/

https://i.postimg.cc/gJJQ7GHz/grafik.png (https://postimg.cc/mcvmzfnJ)free image upload (https://postimages.org/de/)


2850 Mhz beim Boost, lässt sich offenbar deutlich besser takten als Alchemist. Mit 20 Xe Kernen kann man nur keine Wunder erwarten, viel mehr als 200€ können sie dafür nicht verlangen. Immerhin weg von den 8GB. Bei der G31 mit 32 Kernen sieht es anders aus.


Mal schauen wann die nächste APU mit RDNA4 und Zen 6 herauskommt. Gab es da schon was auf Roadmaps?
Auf der MLID Roadmap tauchen jedenfalls für nächstes Jahr keine Strix Nachfolger APUs auf:
https://m.winfuture.de/news/139371


Es gab mal ein Gerücht (https://videocardz.com/newz/amd-apus-rumored-to-use-rdna3-gpu-architecture-until-at-least-2027), wonach RDNA4 iGPUs nicht vor 2027 zu erwarten sind. Wenn man sieht wie Xe2 in Lunar Lake performt, sollten sie sich nicht zu sehr ausruhen. Panther Lake bekommt Xe3 mit 50% mehr Einheiten.

robbitop
2024-09-26, 12:36:45
Das wären noch 3 Jahre. Bis dahin gibt es schon RDNA5. Wenn man das wirklich tut gibt man damit automatisch einen großen Teil dieses Marktes auf. Ich hoffe, dass das nicht stimmt.
Ab jetzt muss man voll nachlegen Gen für Gen ansonsten wird man schnell überholt werden.

ryan
2024-09-26, 12:51:18
Das gab es schonmal. In der Vergangenheit hatten sie mehrere Generationen lang Vega nur mit höheren Taktraten immer wieder recycelt, allerdings war Intel damals viel schwächer aufgestellt bei der GPU und später die Fertigung. Sie konnten sich das erlauben. GCN ist heute immer noch aktuell im Segment unter 1000€.

robbitop
2024-09-26, 12:55:08
Ja das stimmt allerdings. Erst mit Rembrandt ging man von GCN weg. RDNA1 wurde ja Sommer 2019 vorgestellt. Rembrandt dann Januar 2022. Also 2,5 Jahre beinahe Stillstand in der Hinsicht.
Es sei aber nicht zu hoffen, dass man das nochmal tut.

dildo4u
2024-09-27, 14:04:59
Mher IGP Test@28 Watt


IZkSoXPNBpA

fondness
2024-09-27, 14:20:50
https://i.postimg.cc/Gtjhz1GC/Screenshot-2024-09-27-142016.png (https://postimg.cc/7JfkYdKs)

robbitop
2024-09-27, 14:58:18
Beide 28W?

dildo4u
2024-09-27, 15:04:04
Ja er sagt im Video das war das Geringste was er für Strix einstellen konnte und das maximale für Lunar Lake.

aufkrawall
2024-09-27, 15:34:15
Im Desktop bliebe dann wenigstens die Verbrauchskeule. Macht aber null Lust auf Battlemage-Karten, dürfte gegen RDNA4 sang- und klanglos untergehen.

dildo4u
2024-09-27, 15:36:58
Wenn sie im Desktop 4070 erreichen könnte RT Performance wichtig werden das bencht natürlich keiner mit Lunar Lake.

aufkrawall
2024-09-27, 15:41:20
Bei Intels Hit & Miss-Performance ist nicht unwahrscheinlich, dass RT in realen Implementierungen in Spielen auf RDNA4 gar besser laufen wird.

mocad_tom
2024-09-27, 15:46:44
Bionic Squash sagt, dass Lunar Lake-GPU-Driver noch weggesplittet vom Main-Branch ist.

https://x.com/SquashBionic/status/1838610561765941420

Ich vermute, das braucht noch ein bis zwei Monate.

Meteor Lake war auch am Anfang nicht prickelnd und hat dann plötzlich einiges zugelegt (dort wo dieser Handheld mit Meteor Lake plötzlich 20% zugelegt hat).

davidzo
2024-09-27, 22:35:38
Beide 28W?
vom SW-limit her schon, vom realen verbrauch nicht.
Ja er sagt im Video das war das Geringste was er für Strix einstellen konnte und das maximale für Lunar Lake.
allerdings zeigt er am Ende dass das Strix Gerät teilweise deutlich mehr verbraucht hat was ein anderer screen oder ssd nicht erklärt. in cyberpunk hat Strix mal eben 40% mehr verbraucht, war aber nur 20% schneller.

Im Desktop bliebe dann wenigstens die Verbrauchskeule. Macht aber null Lust auf Battlemage-Karten, dürfte gegen RDNA4 sang- und klanglos untergehen.

Ich glaube nicht dass die IGP-Wars viel aussagen über bmg. Die laufen eh im bandbreitenlimit und die 140V scheint auch noch niedriger zu takten als arc in meteorlake, was im desktop nicht zu erwarten ist.

ryan
2024-09-28, 01:24:33
Ja bei der perf/w sieht es dann so aus:


https://s20.directupload.net/images/240928/wjk9v3nh.png



Streng genommen müsste man wirklich das Gerät ohne Display messen. Der on package RAM wird ja auch nie berücksichtigt, der bei Lunar Lake mit im power budget drin ist. Genauso gut kann man Tests verlinken, wo Lunar Lake deutlich besser aussieht. Das sollte man nie an einem einzigen Test festmachen. Ein Ultra 9 Lunar Lake ist das ebenso wenig. Strix Point hat auf jeden Fall den höheren peak schon alleine wegen der Taktfrequenz von bis zu 2900 Mhz. Beim 258V sind es nur maximal 1950 Mhz.

fondness
2024-09-28, 08:09:36
Ja bei der perf/w sieht es dann so aus:


https://s20.directupload.net/images/240928/wjk9v3nh.png



Streng genommen müsste man wirklich das Gerät ohne Display messen. Der on package RAM wird ja auch nie berücksichtigt, der bei Lunar Lake mit im power budget drin ist. Genauso gut kann man Tests verlinken, wo Lunar Lake deutlich besser aussieht. Das sollte man nie an einem einzigen Test festmachen. Ein Ultra 9 Lunar Lake ist das ebenso wenig. Strix Point hat auf jeden Fall den höheren peak schon alleine wegen der Taktfrequenz von bis zu 2900 Mhz. Beim 258V sind es nur maximal 1950 Mhz.

Der gesamtberbrauch des Laptops ist ja auch bedeutungslos. Wenn beide SoC auf 28W gelocked waren ist das vergleichbar. Aber ich habe mir das Video jetzt nicht angesehen.

/Edit: lol das strix Gerät ist ein gaming Laptop mit dicker dgpu die sicher auch im Idle strom zieht plus die PCIe Kommunikation, das Display ist wesentlich größer etc. Da wundert es wenig, dass das amd Gerät mehr zieht.

ryan
2024-09-28, 16:17:20
Dann müsste das Gerät deutlich mehr verbrauchen als das Meteor Lake Gerät ohne dGPU, macht kein Sinn. Wir reden hier von 20 Watt Differenz. Notebookcheck (https://www.notebookcheck.com/Intel-Lunar-Lake-iGPU-Analyse-Arc-Graphics-140V-ist-schneller-und-effizienter-als-die-Radeon-890M.892512.0.html) hat übrigens 28W Werte hinzugefügt und sieht den Ultra 7 258V in 10 Spielen 4% vorm Ryzen 9 HX 370. Nicht ganz fair wieder, weil bei den 28W der Speicher in Lunar Lake inbegriffen ist.

Ultra 9 288V sollte demnach die schnellste iGPU bis 30W haben. Über 30W sollte Strix Point durch den viel größeren Taktspielraum nach oben besser skalieren. Insgesamt sieht Battlemage deutlich stabiler aus, es gibt weniger starke Ausreißer. In einigen Spielen wo Alchemist arg zurücklag, hat die Battlemage iGPU überproportional stark zugelegt. Zum Beispiel in Starfield, einem chronisch schlechten Spiel für Alchemist, wurde der Rückstand von 65% auf 15% verkürzt wenn ich jetzt mal die Jarrod'sTech Werte als Referenz nehme.

dildo4u
2024-09-28, 16:33:08
Die Timespy Werte sehen Eher so aus das Intel eher noch mehr Watt will der Ryzen gewinnt fast nix über 20Watt 2900 vs 3400 @20Watt 3100 vs 3900 @ 28 Watt

ryan
2024-09-28, 17:59:37
Die Timespy Werte sehen Eher so aus das Intel eher noch mehr Watt will der Ryzen gewinnt fast nix über 20Watt 2900 vs 3400 @20Watt 3100 vs 3900 @ 28 Watt


Komisch, im chinesischen Test (https://youtu.be/RAQJhqJ9fkc?t=244) sind es bei 20 Watt bereits fast 4000 GPU Punkte. Notebookcheck liegt 500 Punkte drunter warum auch immer. Ok die testen mit einem Lenovo während Notebookcheck das Asus Zenbook verwendet. Hat das Lenovo ein so viel besseres power Management? Lenovo holt oft mehr raus als die anderen, wäre aber krass der Unterschied.

aceCrasher
2024-10-16, 10:52:26
Wie sieht es jetzt eigentlich mit Battlemage dGPUs aus? Müsste doch bald mal kommen jetzt wo es Xe² schon in Lunar Lake gibt? Erscheinen die Karten vorraussichtlich auch noch Q4 oder Q1 2025?

robbitop
2024-10-16, 10:55:30
Intel meinte mal dass es spätestens bis zur nächsten CES gelauncht werden soll. Aber die Aussage (IIRC von Tom Peterson) ist schon ziemlich alt. Aber wahrscheinlich ist das aktuell der beste Anhaltspunkt.

dildo4u
2024-10-16, 10:55:31
Wie sieht es jetzt eigentlich mit Battlemage dGPUs aus? Müsste doch bald mal kommen jetzt wo es Xe² schon in Lunar Lake gibt? Erscheinen die Karten vorraussichtlich auch noch Q4 oder Q1 2025?
Infos möglicherweise am 29.10 aber keine Garantie für ein Launch.

https://wccftech.com/intel-next-gen-core-ultra-series-2-mobile-client-graphics-updates-29th-october-arc-battlemage-imminent/

dildo4u
2024-10-19, 11:07:33
Moores Law is Dead Leak

https://youtu.be/G0bDB2AkHvE?si=MHQ92Br7t8S1mJIP&t=158


G32 Angeblich 4070 und G21 7600XT Performance.
Er sieht es extrem negativ wenn ich das so überblicke wäre das ein massiv Sprung wer mehr erwarte hat imo kein Bezug zur Realität.
Das ist genau das was AMD macht der Chip wird nicht breiter sondern Taktet vermutlich höher, nur das AMD sich nicht nach vorne Bewegt.

A770 zu 4070 + 70% laut PCGH.

https://www.pcgameshardware.de/Raytracing-Hardware-255905/Tests/Gaming-Grafikkarten-Vergleich-Benchmark-Preis-Leistung-1411231/2/

ryan
2024-11-07, 11:19:30
Nächsten Monat gibt es irgendwas mit Battlemage zu sehen laut Golden Pig.

Looking forward to the exciting play of Battlemage (desktop only) next month!

Leaker teases Intel Arc "Battlemage" desktop update next month
(https://videocardz.com/pixel/leaker-teases-intel-arc-battlemage-desktop-update-next-month)

Loeschzwerg
2024-11-07, 11:39:50
Zeit wird's, ich hab schon Bock auf den Kriegsmagier =) Der Durchbruch wird es für Intel vermutlich wieder nicht, aber die müssen da schlichtweg weiter am Ball bleiben, eine andere Option gibt es nicht (außer natürlich komplett in der Versenkung zu verschwinden).

konkretor
2024-11-07, 17:55:05
Es zuckt noch, hoffentlich kommt die Karte noch


https://www.computerbase.de/news/grafikkarten/geruechte-um-intel-arc-2-0-battlemage-als-desktop-grafikkarte-noch-dieses-jahr.90207/


Pat hat ja anklingen lassen das dGPU Geschäft wohl einzustampfen :uconf2:

E39Driver
2024-11-08, 09:59:50
Ohje das klingt wirklich nach Einstellung wenn Pat sagt es gäbe wenig Bedarf an dedizierten GPUs und der Fokus liegt zukünftig auf iGPUs. Und dann noch die Rede von limitierten Stückzahlen.

Schade drum. Denke ich werde mir direkt zum Launch zweimal das größte Arc-B Referenzmodell von Intel sichern. Eine zum experimentieren und rum spielen. Und eine um sie ungeöffnet weg zu legen für zukünftige Sammler-Wertsteigerung.

Lurtz
2024-11-08, 10:16:06
Pat hat ja anklingen lassen das dGPU Geschäft wohl einzustampfen :uconf2:
Wo?

basix
2024-11-08, 10:16:39
Battlemage wird gegenüber RDNA4 und Blackwell wohl wieder einen PPA Nachteil haben. Aber der Abstand dürfte sich etwas reduziert haben. Dafür wären die meisten SW-Kompatibilitätsprobleme mittlerweile ausgemerzt und würde deutlich runder laufen als bei Xe1.

Ich hoffe, Intel behält die Strategie von Battlemage bei und baut einfach nur 2x etwas kleinere Chip für den Mainstream / Performance Markt (ähnlich wie AMD mit RDNA4). Auch für Xe3+ und damit den Markt von 200...600$. Dort ist Konkurrenz und eine gute Auswahl für die meisten Kunden am meisten wert. Die GPU-Architekturen und SW rundherum (Treiber etc.) muss Intel bei den iGPUs ja eh weiterentwickeln. Die zwei dGPUs sind primär Umsetzungsaufwand der Chips (Ausnahme: GDDR-Interface, das gibt es bei den CPUs und HPC-Accelerators nicht) und wenn Intel die GPUs auf die eigenen Nodes zurückholt (z.B. 18A) sieht Marge und zusätzlicher Designaufwand auch wieder besser aus als wenn man (teilweise) bei TSMC fertigt. Die Alternative wäre hier, dass Intel bei TSMC bleibt und dGPU wie iGPU-Chiplet bei TSMC fertigt (wie heute), hat aber vermutlich Nachteile bei der Marge.

Bei den dGPUs gibt es zudem noch den Anwendungsfall Workstation / AI, wo Intel bei entsprechender SW-Prowess nicht so schlecht dastehen könnte.

arcanum
2024-11-08, 10:18:50
Intel kämpft mit dem gleichen Problem wie AMD. Alle wollen einen wettbewerbsfähigen Markt und feuern die Underdogs an, am Ende wird aber trotzdem fast nur Nvidia gekauft. Der Gamer-Markt ist verglichen mit Enterprise vom Volumen zudem so klein, dass sich ein jahrelanger Preis- und Technologiekampf nicht lohnt, nur um am Ende ein paar Kröten einzufahren.

basix
2024-11-08, 13:06:30
Wie gesagt, der Technologie-Kampf wird via iGPUs sowieso ausgetragen (AMD, Intel, Qualcomm und neu bald evtl. auch Nvidia). Spart man so viel, wenn man aus der dann bereits existierenden IP keine dGPU baut?

Eine dGPU hat eine gewisse Werbewirkung, welche sich auch auf iGPUs auswirkt (man wird am Markt gesehen). Und solange man keine roten Zahlen mit den dGPUs schreibt, ist es immer noch Gewinn. Und es öffnet neue Märkte wie eben Workstation & Professional Visualization. Intel ist hier momentan sicher ein wenig zurückgebunden, man muss sich aufs wesentliche konzentrieren. Doch eine dGPU ist mMn immer von Vorteil, ausser sie ist nicht konkurrenzfähig und kann sie nicht gewinnbringend verkaufen. Bei Xe1 war/ist das vermutlich der Fall, die werden ja zu sehr günstigen Preisen verkauft, haben ein grosses Die und 16GB Speicher.

vinacis_vivids
2024-11-08, 19:45:11
Navi33 XT = 204mm^2 Monolith ~ 290-350€
DG2-512 = 406mm^2 Monolith ~ 310-320€

Intel verbrennt viel Geld (=Silizium Fläche) mit dem 406mm^2 Chip.

mocad_tom
2024-11-08, 21:42:48
https://x.com/miktdt/status/1854505089399943668

Hier sind G31 Spekulationen.
Könnte im Bereich einer 4070Super liegen.

Raff
2024-11-08, 21:49:45
Navi33 XT = 204mm^2 Monolith ~ 290-350€
DG2-512 = 406mm^2 Monolith ~ 310-320€

Intel verbrennt viel Geld (=Silizium Fläche) mit dem 406mm^2 Chip.

Das kann uns als Konsumenten vollkommen egal sein. Hauptsache, das nächste Ding knallt ordentlich disruptiv und setzt damit vor allem den Platzhirsch Nvidia unter Druck.

MfG
Raff

bbott
2024-11-09, 22:54:57
Das kann uns als Konsumenten vollkommen egal sein. Hauptsache, das nächste Ding knallt ordentlich disruptiv und setzt damit vor allem den Platzhirsch Nvidia unter Druck.

MfG
Raff

Ganz oberflächlich betrachtet ja, praktisch nein. Preis ist auf Dauer nicht darstellbar bzw. nicht konkurrenzfähig und Stromverbrauch ist sehr wahrscheinlich auch höher, mit den Damit verbundenen Nachteilen Größer, schwerer und Lauter. Es gibt noch weitere Nachteile...
Indirekt: Wenn Intel nicht unnötig viel N3 belegen würde wären, die anderen Produkte günstiger...

AffenJack
2024-11-10, 01:23:15
Das kann uns als Konsumenten vollkommen egal sein. Hauptsache, das nächste Ding knallt ordentlich disruptiv und setzt damit vor allem den Platzhirsch Nvidia unter Druck.

MfG
Raff

Das kann dir nicht egal sein, denn die Konsequenz daraus ist der Marktaustritt von Intel. Was hast du also gewonnen, wenn eine Generation die Preise senkt, aber in Konsequenz die Preise in Zukunft höher werden?

ryan
2024-11-12, 17:54:41
Napoleon im chiphell Forum sagt launch der kleineren G21 im Dezember und ~4060 Ti Level. Kann ich mir kaum vorstellen, hätte eher non Ti gedacht und eher eine Preview statt launch erwartet, weil es noch so ruhig ist.

reaperrr
2024-11-12, 18:36:22
Napoleon im chiphell Forum sagt launch der kleineren G21 im Dezember und ~4060 Ti Level. Kann ich mir kaum vorstellen, hätte eher non Ti gedacht und eher eine Preview statt launch erwartet, weil es noch so ruhig ist.
Naja, passt zu den Gerüchten, dass man nur die bereits eingetüteten älteren Verträge für Wafer-Mindestabnahme erfüllt und es nur ne begrenzte Stückzahl geben wird, und kaum Interesse von Boardpartnern besteht (keine Board-Partner -> weniger Leaks).
Wenn die Karten zumindest deutlich besser als die ALC-Karten sind und die Stückzahl begrenzt ist, werden sie auf Sicht wohl eh alles los, dann kann man sich die Millionen-Kosten für groß angelegte Werbung auch sparen.

ryan
2024-11-23, 01:57:36
Es gibt erste Listungen der B580. GPU und Speicher Takt sind hier wohl vertauscht. Die 650W bezieht sich auf die Netzteilempfehlung nehme ich an.


ASRock Intel ARC B580 Steel Legend 12GB OC GDDR6 2800 MHz 19 Gbps 192 Bits
https://www.amazon.com/dp/B0DNV4NRK5?ref_=ast_sto_dp


Kompatible Geräte Desktop
Maximale Auflösung 7680 x 4320 Pixels
Taktrate des Speichers 2800 MHz
Gesamtanzahl der Lüfter 3
Interface Grafikkarte PCI-Express x8
Taktrate der GPU 19 Gigabits Per Second
Videoausgabeschnittstelle DisplayPort, HDMI
Grafikkartenspeicher GDDR6
Grafik-Koprozessor Intel ARC B580
Speichergröße Grafikkarte 12 GB


ASRock Intel Arc B580 Challenger 12GB OC GDDR6 2740 MHz 19 Gbps 192 Bits
https://www.amazon.com/dp/B0DNV4NWF7?ref_=ast_sto_dp

Kompatible Geräte Desktop
Maximale Auflösung 7680 x 4320 Pixels
Taktrate des Speichers 2740 MHz
Gesamtanzahl der Lüfter 2
Interface Grafikkarte PCI-Express x8
Taktrate der GPU 19 Gigabits Per Second
Videoausgabeschnittstelle DisplayPort, HDMI
Grafikkartenspeicher GDDR6
Grafik-Koprozessor Intel ARC B580
Speichergröße Grafikkarte 12 GB

robbitop
2024-11-23, 07:59:47
Sollte noch eine 256 bit SKU kommen oder?

Wake
2024-11-23, 10:47:22
Amazon-Links sind verpufft:tongue:, Album der ASRock B580-Modelle als Imgur-Mirror (https://imgur.com/a/arc-b580-JU1R7d0) oder als VC-News (https://videocardz.com/newz/asrock-arc-b580-has-been-leaked-first-battlemage-graphics-card-features-12gb-vram) verwurstet.

basix
2024-11-23, 11:53:02
Sollte noch eine 256 bit SKU kommen oder?

Die 192bit Karten sind vermutlich vom kleineren Chip: BMG-G21 -> B580

Gibt noch BMG-G31 mit 256bit oben drüber -> B780

robbitop
2024-11-23, 12:04:53
Das wäre aber ein kleiner Unterschied zwischen klein und groß? Bei Alchemist war es doch 128 bit für den richtig kleinen A380 und 256 bit für den viel größeren A580/750/770.

basix
2024-11-23, 12:07:20
So ist die Gerüchtelage ;)

Und 192bit sind eine Wohltat für den Kunden. 8GB bei einer Mainstream-Karte sind 2025 schon ein wenig einschränked. 12GB sind ideal für 1080p und reicht in den meisten Fällen auch für 1440p. 8GB sind selbst in 1080p schon oft knapp.
Und gegenüber N33 / N44 und AD107 / AD106 / GB206 / GB207 hat man damit mMn einen Konkurrenzvorteil.

ryan
2024-11-23, 13:08:02
G21 mit 20 Xe Kernen und einer TDP von vermutlich um die 200W ist eher ein mittlerer Chip mit spekulierten 270 mm². Richtiges A380 low end wird es wohl nicht geben mit Battlemage. Der Markt ist sehr klein in dem Segment wegen den iGPUs. Ob die größere G31 überhaupt noch kommt, muss man erstmal abwarten. Auf github sehe ich keine Aktivitäten.

reaperrr
2024-11-23, 13:26:59
Und gegenüber N33 / N44 und AD107 / AD106 / GB206 / GB207 hat man damit mMn einen Konkurrenzvorteil.
Mit einem 1,5x-2x so großen Chip, der von den Produktionskosten und Kühl-/PCB-Anforderungen wohl eher mit N48/GB205 vergleichbar sein wird.

Heißt auch, Intel muss ihn Margen-technisch wieder verramschen, weil sie kostentechnisch gegen den Salvage von N48 und GB205 antreten.

N44 und GB206 werden vermutlich ähnlich schnell bzw. letzterer gar schneller, GB206 kann mit 3GB-Chips oder sonst halt Clamshell ebenfalls auf 12-16GB kommen, AMD kann ebenfalls mit Clamshell ein 16GB-Modell bringen.

Da die Mainstream-Chips von AMD und NV viel billiger herzustellen sein dürften als G21, haben beide auch den Kosten-Spielraum, das schmale SI bei den Top-SKUs dieser Chips durch Clamshell oder im Fall von GB206 evtl. größere G7-Chips zu kompensieren.

dildo4u
2024-11-23, 13:28:36
Um 250€ wäre sie Konkurrenzlos wegen der 12GB, die 3060 ist langsam in 2024.

konkretor
2024-11-23, 13:52:22
https://www.computerbase.de/news/grafikkarten/intel-battlemage-zwei-custom-designs-der-arc-b580-auf-amazon-gesichtet.90394/