PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Xe discrete GPUs (DG1, 2021 + DG2 "Alchemist", 2022)


Seiten : 1 2 3 4 5 [6] 7

TheAntitheist
2022-01-30, 04:34:11
Nvidia hat doch den Output erhöht und AMD hat ihn für den Profit gesenkt und lieber CPUs verkauft. Da sollte man schon das Diagramm ändern :tongue:
Oder Jesus steht dafür das Volk zu belügen (was die Religionen ja de facto tun)

Leonidas
2022-01-30, 07:00:24
Und dabei hast Du noch gar nicht an die SM-Fans gedacht, die sich eher mit dem linken Bild identifizieren würden. Am Ende ist es einfach nur ein Gag ...

=Floi=
2022-01-30, 08:49:11
Eine karte die nicht auf AMD platformen läuft wird keine gutem karte werden. Da hat koduri schon verloren, bevor es losgeht. Das ist wieder so intel typisch.

-/\-CruNcher-/\-
2022-01-30, 09:03:30
Raja Koduri:
I am with you, @pcgamer. This is a huge issue for PC gamers and the industry at large. @IntelGraphics is working hard to find a path towards the mission - getting millions of Arc GPUs into the hands of PC gamers every year.
https://twitter.com/Rajaontheedge/status/1487259645961854976

https://pbs.twimg.com/media/FKQv41hXMAMW2td.jpg

Oh man diese Klientel sprache immer Intel währe froh wenn sie die Konsolen wieder übernehmen könnten ;)

Eine karte die nicht auf AMD platformen läuft wird keine gutem karte werden. Da hat koduri schon verloren, bevor es losgeht. Das ist wieder so intel typisch.
Das meinst du ja wohl als schlechten Scherz die Interop zu AMD wird höher ausfallen als zu Nvidia.

davidzo
2022-01-30, 12:46:02
Äpfel Birnen Vergleich > beides Obst aber doch Grundverschieden

....

Eben nicht Grundverschieden. Wenn du aufgepasst hättest, wüsstest du dass DG1 eben jenes SDV, also software development vehicle ist um die Treiber für XE-DG2 fertig zu bekommen. XE-HPG gehört klar zur selben Architekturfamilie, die Basis-Funktionsblöck sind dieselben, lediglich getunt auf bessere Skalierung mit mehr Einheiten.

Ein XE-HPG Core und XE-LP Subslice sind bis auf die Matrix-Cores identisch. Die Matrixeinheiten werden bei klassischem rasterizing aber gar nicht benutzt, wozu sollte da also der Renderpfad anders sein? Wahrscheinlich ist die L0/L1 cache-anbindung passend zu den matrixeinheiten etwas größer, aber das ist nichts was jetzt grundlegend andere Programmierung bedeutet. Die Anzahl an Pixel backends pro Core scheint gegenüber XE-LP sogar zu sinken. Aber ich glaube das macht Intel nur weil die bisherige konfiguration nicht voll ausgelastet ist.
Ebenso die RT units, die als fixed function hardware einfach keinen Effekt auf den rasterizing renderpfad haben.
Der große on-Die L2 cache wird bei XE-HPG sehr stark sein um den Bandbreitenbedarf im Zaum zu halten, aber das entspricht im wesentlichen dem XE-LP L3, der bereits außerordentlich groß war für so eine kleine Chipkonfiguration.


Ich kann mir höchstens vorstellen dass Intel einige größere Änderungen im Treiber noch zurückhält um den größtmöglichen Aufschlag zu generieren. Das haben AMD und Nvidia auch mehrfach schon so gemacht. Über regelmäßige Veränderungen im einstelligen Prozentbereich berichtet niemand, sobald es zweistellig wird, ist es aber eine News wert. Zudem hat Nvidia so etwas in der Vergangenheit gerne zusammen mit einer Refresh Gen gelauncht, so z.B. bei GF110 oder GK110, wo man mit derselben Architektur eine völlig neue Leistungsklasse aufstellen musste.

=Floi=
2022-01-30, 21:57:03
Das meinst du ja wohl als schlechten Scherz die Interop zu AMD wird höher ausfallen als zu Nvidia.

https://www.tweakpc.de/news/47204/intel-dg1-vorerst-nur-mit-intel-hardware-und-speziellem-bios-kompatibel/
wurde das mittlerweile abgestellt?

Slipknot79
2022-01-30, 22:43:17
Raja Koduri:
is working hard to find a path

Die haben also selbst keine Lösung und werden auch keine finden. "Bald" ist release, da werden keine Wunder mehr passieren. In 3 Monaten schafft man bestenfalls noch "Hello World" als easter egg in den Treiber zu coden, das wars auch schon. (y)

ryan
2022-01-30, 23:04:46
Eben nicht Grundverschieden. Wenn du aufgepasst hättest, wüsstest du dass DG1 eben jenes SDV, also software development vehicle ist um die Treiber für XE-DG2 fertig zu bekommen. XE-HPG gehört klar zur selben Architekturfamilie, die Basis-Funktionsblöck sind dieselben, lediglich getunt auf bessere Skalierung mit mehr Einheiten.



Die DG1 war anfangs (oder ist immer noch) ziemlich fehlerbehaftet gewesen im Vergleich zur iGPU, obwohl die Architektur identisch ist zwischen den beiden. In den Treiber release notes sind Iris Xe und Iris Xe Discrete oft einzeln benannt. Also von daher wäre ich mir da nicht so sicher, ob man wirklich DG1 mit DG2 vergleichen kann, wenn es um Spielekompatiblität geht (ich glaube eher nicht), das werden wir erst nach release langsam erfahren.

Für allgemeine Optimierungen wäre Gen12 LP schon ausreichend schätze ich, die dann auch für Gen12 HPG greifen könnten. Oder für game bugs (muss ja nicht immer der Treiber Schuld sein). Um die DG2 Treiber fertig zu bekommen braucht es keine DG1, das ist wiederum Quatsch.


https://www.tweakpc.de/news/47204/intel-dg1-vorerst-nur-mit-intel-hardware-und-speziellem-bios-kompatibel/
wurde das mittlerweile abgestellt?


Nein, die DG1 hat keinen eigenen Bios Chip und braucht deswegen immer Bios Support vom Board.


Die haben also selbst keine Lösung und werden auch keine finden. "Bald" ist release, da werden keine Wunder mehr passieren. In 3 Monaten schafft man bestenfalls noch "Hello World" als easter egg in den Treiber zu coden, das wars auch schon. (y)


Der Tweet hat gar nichts mit dem Treiber zu tun, du verstehst den Kontext nicht.

davidzo
2022-01-30, 23:42:31
Die DG1 war anfangs (oder ist immer noch) ziemlich fehlerbehaftet gewesen im Vergleich zur iGPU, obwohl die Architektur identisch ist zwischen den beiden. In den Treiber release notes sind Iris Xe und Iris Xe Discrete oft einzeln benannt.

Eben, aber DG1-SDV ist doch die discrete Karte.
Sicher ist es mit einer IGP etwas anders, die hat ja keinen eigenen DRAM Controller und sogar CPU-L3 zugriff wenn mich nicht alles täuscht.


Also von daher wäre ich mir da nicht so sicher, ob man wirklich DG1 mit DG2 vergleichen kann, wenn es um Spielekompatiblität geht (ich glaube eher nicht), das werden wir erst nach release langsam erfahren.

Schon, allerdings gibt es wie ich schon sagte die Möglichkeit dass Intel große neue Code-pfade zurückhält für den Launch. Die werden dann aber auch für XE-lp verfügbar werden,


Um die DG2 Treiber fertig zu bekommen braucht es keine DG1, das ist wiederum Quatsch.

Aber Treiber bestehen doch abseits der simplen Referenzimplementation doch genau aus dem: Anwendungsoptimierungen. Das weiß Intel auch sehr genau, im CPUbereich machen die seit 50 Jahren Kompiler und libraries um anwendungsspezifischen Code auf ihren CPUs zu optimieren.

Eben deswegen gibt es ja XE-SDV als real gefertigtes, wenn auch nicht frei verkaufbares Produkt. Der Großteil der Arbeit wird von oder zusammen mit Game-devs gemacht und sowas braucht Jahre an Vorlauf, weil gamestudios nicht gerade schlange stehen bei Intel beim üblichen Arbeitspensum und Zeitmanagement der Branche.
Ohne DG1 in den Händen von Devs kannst du zwar Treiber bauen, nach DirectX oder Vulkan Spezifikation, aber keine Kompatibilität sicherstellen und keine Performance- Optimierung machen. Das ist aber der wesentliche Teil von GPU Treibern.

ryan
2022-01-31, 00:36:08
Eben deswegen gibt es ja XE-SDV als real gefertigtes, wenn auch nicht frei verkaufbares Produkt. Der Großteil der Arbeit wird von oder zusammen mit Game-devs gemacht und sowas braucht Jahre an Vorlauf, weil gamestudios nicht gerade schlange stehen bei Intel beim üblichen Arbeitspensum und Zeitmanagement der Branche.
Ohne DG1 in den Händen von Devs kannst du zwar Treiber bauen, nach DirectX oder Vulkan Spezifikation, aber keine Kompatibilität sicherstellen und keine Performance- Optimierung machen. Das ist aber der wesentliche Teil von GPU Treibern.


Auserwählte Entwicklerstudios haben seit geraumer Zeit eine DG2, da braucht keiner eine lahme DG1. Dann hätten sie auch gleich ein schnelles Tigerlake-U Notebook nehmen können, wenn sie es wirklich darauf anlegen würden auf Xe LP hin zu optimieren oder zu testen. Einen richtigen dev support wird es erst mit der DG2 geben (und dann auch nicht gleich von heute auf morgen).

Slipknot79
2022-01-31, 01:27:56
Der Tweet hat gar nichts mit dem Treiber zu tun, du verstehst den Kontext nicht.


Ich weiß, dass der Tweet nix mit dem Treiber zu tun hat. Du hast nicht verstanden, dass das mit dem Treiber ein Beispiel dafür war, was man in 3 Monaten schafft.
Jedenfalls sicher nicht sowas wie schwups und schon XY Millionen GPUs am Markt, weltweit ausreichend und fair verteilt und schon GPU Mangelproblem solved, happy gamers incoming, Gamingwelt ist gerettet.
Genau das wird nicht passieren. (y)

Dorn
2022-01-31, 08:48:46
Ich weiß, dass der Tweet nix mit dem Treiber zu tun hat. Du hast nicht verstanden, dass das mit dem Treiber ein Beispiel dafür war, was man in 3 Monaten schafft.
Jedenfalls sicher nicht sowas wie schwups und schon XY Millionen GPUs am Markt, weltweit ausreichend und fair verteilt und schon GPU Mangelproblem solved, happy gamers incoming, Gamingwelt ist gerettet.
Genau das wird nicht passieren. (y)
Weil Auftragsfertiger nein sagt

konkretor
2022-01-31, 15:42:07
https://www.computerbase.de/2022-01/millionen-arc-gpus-fuer-spieler-intel-befluegelt-erwartungen-die-kaum-zu-erfuellen-sind/

ChaosTM
2022-01-31, 16:22:29
Pat ist ein alter Dampfplauderer. "Millionen pro Jahr" wären nur mit Intels eigenen Fabs und Prozessen möglich. Dass man mit 10nm/7 so tolle GPUs bauen könnte wird allgemein bezweifelt oder hab ich da was verpasst ?

AffenJack
2022-01-31, 17:11:12
Da ist erstmal nix Dampfplauderei. Millionen pro Jahr kann auch 2,3 Millionen heißen und das wäre sehr wenig beim aktuellen Marktumfeld. Da hätte Intel sich verdammt geringe Kapazitäten gesichert. Man dürfte eher hoffen 4-5 Millionen auszuliefern.
Ob Intel genug liefern kann, um wirklich einen großen Unterschied für die Preise etc zu machen, das muss man dann sehen.

Unicous
2022-01-31, 18:36:10
Das ist per se natürlich keine Dampfplauderei, aber Gelsinger hat als CEO schon ordentlich gepoltert, dahingehend bin ich doch etwas enttäuscht. Hatte Gelsinger als Macher und nicht als Plauderer in Erinnerung.

Das was Koduri und Gelsinger hier machen ist nichts als Pandering, neudeutsch für sich beim Klientel anbiedern und das versucht jedes Unternehmen. Das mag auf kurze Sicht dem "Hype" helfen, aber wenn sie nicht liefern wird die Enttäuschung um so größer sein. Wenn man sich den Markt anschaut wird Intel keine preislichen Wunder vollbringen können, wenn sie die GPU unter Marktpreis anbieten schneidet das ins eigene Fleisch. Ob Intel dazu bereit ist wage ich zu bezweifeln.

VooDoo7mx
2022-01-31, 19:18:17
Ich finde das ist auch eine lächerliche Marketingaussage die am Ende denen noch vorgehalten werden wird.

Damit sich der Markt entspannt müsste wohl Intel 10 Millionen je Quartal ausliefern.
Halte ich für absolut unwahrscheinlich.

Meine Prognose ist, dass Intel Grafikkarten genauso schlecht erhältlich sein werden wie die von AMD und nVidia.
Intel nutzt die selben knappen TSMC Kapazitäten, Speicherbausteine und Komponenten wie die anderen Hersteller. Wie man da annehmen kann, dass Intel den Markt entspannen wird, erschließt sich mir nicht.

Was ich nicht verstehe, warum Intel nicht auch die eigene Fertigung für die GPUs nutzt, die scheinen ja sehr gute Kapazitäten zu haben.
Man könnte ja zusätzlich das etwas schlechtere Modell mit dem Intel Prozess anbieten, die dann weniger Takt oder ggf etwas schlechtere Performance je Watt habe. Die Teile werden denen doch trotzdem aus den Händen gerissen werden.

Und was ich noch weniger verstehe wieso Intel den 6P+8E Core 96EU Alder Lake DIE nicht für den Desktopmarkt bringt. Damit hätten sie doch echt ne gute Einstiegs iGPU am Markt mit der man zu mindestens was im Einstiegsbereich machen kann.
Ich könnte mir z.B. einen Core i7 12650G mit 6P+8E Core/96EU für 350€-400€ oder Core i5 12550G mit 6P+4E Core/80EU für 250-300€ gut vorstellen.
Warum nicht Intel?

mocad_tom
2022-01-31, 22:25:09
Kunden von TSMC sortiert nach Volumen in 2021:
Apple 25.4%
AMD 9.2%
Mediatek 8.2%
Broadcom 8.1%
Qualcomm 7.6%
Intel 7.2%

https://www.computerbase.de/2021-03/tsmc-umsatz-apple-amd-huawei/

Nach einem anfänglichen Ramping wird man mit Sicherheit bei 2 bis 3 Millionen dgpu pro Quartal stehen.

Raja hat im April 2019 sowohl bei Samsung als auch bei TSMC für gute Preise gefeilscht.
https://twitter.com/Rajaontheedge/status/1118053585982328832

Die Chips liegen schon bei Intel im Lagerhaus, oder bei den Grafikkartenherstellern im Lagerhaus.

Ich denke nicht, dass sie noch sehr viel mehr Revisions gebraucht haben, aktuell sitzen sie über den Treibern, aber bei festgezurrten Chip-Revisionen.

davidzo
2022-02-01, 00:29:48
2021:
Intel 7.2%

https://www.computerbase.de/2021-03/tsmc-umsatz-apple-amd-huawei/

Die Chips liegen schon bei Intel im Lagerhaus, oder bei den Grafikkartenherstellern im Lagerhaus.


Schade, es werden also nicht gerade viele GPUs in der aktuellen GPU-Knappheit.

2019:
Intel 5.2%
Das ist was Intel mit Wireless, Chipsets, Altera, Mobileye etc. bisher schon bei TSMC gebraucht hatte.

Das Gesamtvolumen von Intels GPUs ist also 2% von TSMCs jahresausstoß bzw. ca. 20% von AMDs Gesamtvolumen an GPUs und Ryzen Chiplets.
Das ist zwar nicht wenig, aber auch auch nicht genug um den Grafikkarten Markt supply-technisch aufzumischen.

TheAntitheist
2022-02-01, 01:22:07
und Nvidia hat 5.8% und das nur fürs Enterprise Segment, also mehr als die hälfte von AMD oder 1/5 von ganz Apple.

mocad_tom
2022-02-01, 06:43:45
schonmal überlegt, dass Intel 2019 noch die iphone modems bei tsmc hatte und damals auch chipsets über tsmc gefertigt wurden.

andersherum wird ein schuh draus.

AMD hat nur 2% mehr. Muss aber damit GPU, CPU und Konsolenprozessoren fertigen.

Ausserdem sind das zahlen relativ zu den gesamtjahreszahlen, tsmc hat aber den waferoutput, von 2019 auf 2021 ordentlich hochgedreht. Intel wird sich aktuell nur bei leading edge bedienen, nicht bei lagging edge.

Der einzige große Posten, den ich aktuell bei tsmc verorten kann, ist Mobileye.

wie bereits gesagt, 2019 hat Intel chipsets bei tsmc fertigen lassen, weil die eigenen 14nm kapazitäten komplett am Limit waren. das wurde aber mittlerweile alles wieder nach hause geholt.

https://www.heise.de/amp/meldung/Bericht-Intel-lagert-Chipsatzfertigung-an-TSMC-aus-4159010.html

dargo
2022-02-01, 07:11:43
Meine Prognose ist, dass Intel Grafikkarten genauso schlecht erhältlich sein werden wie die von AMD und nVidia.

Inwiefern sind Grafikkarten von AMD schlecht erhältlich? Zumindest in DE sind die Händlerlager voll mit RDNA2. :confused: Auch bei Nvidia mit Ampere, außer vielleicht die kürzlich erschienene RTX 3050.

ceed
2022-02-05, 12:48:21
https://www.computerbase.de/2022-02/intel-arc-alchemist-engineering-sample-mit-6-pin-und-8-pin-pcie-abgelichtet/

konkretor
2022-02-05, 13:17:24
Video einer DG2

https://twitter.com/VideoCardz/status/1489907175203946497?s=20&t=RhegM9ZChOYZxFwTtQkkCQ



Wurde zum kauf angeboten jedoch ohne Treiber

ryan
2022-02-05, 13:24:13
30.0.101.1109 unterstützt DG2, zum laufen würde man die bestimmt bringen.

A370M (DG2-128 mobile) auf Pugetbench: https://www.pugetsystems.com/benchmarks/view.php?id=76887

dargo
2022-02-05, 13:32:38
Video einer DG2

https://twitter.com/VideoCardz/status/1489907175203946497?s=20&t=RhegM9ZChOYZxFwTtQkkCQ



Wurde zum kauf angeboten jedoch ohne Treiber
Ist das ein Referenzdesign? Finde es toll, dass sich Intel offenbar Gedanken über eine effiziente Kühlung macht. Auf der Rückseite ist nach dem PCB alles offen.

PS: ist DG2 jetzt der Topdog von Intel oder war es andersrum? Ist ja alles DG2. :anonym:

davidzo
2022-02-05, 13:37:35
Videocardz hat auch fullres Bilder: https://videocardz.com/newz/intel-arc-alchemist-engineering-sample-pictured-once-again

Sehr schönes ENIG PCB (vergoldet). Das wird so wohl kaum auf den Markt kommen, die OEMs nehmen selbst bei einer 3090 nur OSP und vergolden nicht mehr als die PCIe Kontaktleiste.
Auch nett sind die schwarz vernickelten Halbrundkopf Torx Schrauben. Die dürfte deutlich mehr aushalten als die üblichen Phillips Panhead Schrauben.

In außerdem fehlt die Hälfte der Schrauben für die Backplate. Das ist wohl die klassischer Engineer Lässigkeit: Wenn es nicht mit der Hälfte der Schrauben schon hält, wäre es eh nicht solide genug konstruiert.

Ich halte den Kühler nach wie vor für etwas schlechter als Nvidias und selbst AMDs Referenzdesign. Klar, NV hat durch den hohen Verbrauch da sowieso eine hypothek, aber die haben sogar nicht unwesentlich für reinen Style ausgegeben. AMDs Referenzdesigns sind nicht ganz so teuer wie nvidias, aber einfach nur textbook umgesetzt. Und immerhin sind die Lüfterabdeckungen bei AMD DIE-Cast und bemalt, das wirkt wesentlich hochwertiger in der Hand als so eine wellige Plastikabdeckung. Selbst die 6700xt hat schon einen besseren Heatsink (auch wenn das Weglassen von wärmeleitpads an der Backplate dort ein mieser Fehler war).

Der Intel Kühler ist dagegen in mehreren Punkten schlechter, welche ich aber nicht als Zeichen einer sehr sparsamen karte interpretieren würde:
- Die Stacking Perforation der Lamellen ist in Airflowrichtung und blockiert einen Teil des Lüfters. Das hat nvidia elegater gelöst indem man gar keine perforation verwendet und dickere, stabilere Lamellen einzeln verlötet. Und auch AMD verlötet die Lamellen und platziert die Stacking-Flächen bei der 6700xt oberhalb und unterhalb vom Lüfter, also nicht den Airflow blockierend.
- Dünnere, unbeschichtete Lamellen. Die Schwarze eloxierung hilft im Passivbetrieb, idle/teillast und sieht natürlich besser aus.
- Geringer Lamellenabstand, deutet auf eine hohe Drehzahl der Lüfter hin. Insofern glaube ich nicht wirklich an eine sehr sparsame Karte.
- Die Luftauslässe zu den Kartenseiten sind stark eingeschränkt / sind im Vergleich zur Lufteinlassfläche der Lüfter zu klein geraten.
- Luftauslass auf der I/O-Blende hat keinen Sinn. Da die lamellen senkrecht sind kann hier keine warme Luft ausströmen, höchstens kalte Luft direkt aus dem Lüfter, was einen Druckverlust im lamellenpaket zur Folge hat, also schlechtere Kühlleistung. Siehe AMDkarten, die sind da auch sinnvollerweise geschlossen.
- Man sieht den Schatten von vier Heatpipes die durch das gesamte Finstack laufen. Allerdings sind diese sehr mittig direkt nebeneinander, also schlecht verteilt und sorgen mittig für hohen Gegendruck auf den Airflow durch die ohnehin schon zu engen Lamellen. Oben und unten sind anscheinend keine Heatpipes mehr in den Lamellen - schlechte Wärmeverteilung jedenfalls im Gegensatz zu z.B. AMDs 6700xt Heatsink.

Wenn ich mal ganz ins Blaue tippen daf, würde ich eine ähnliche TDP zur 6700xt schätzen, bei etwas höherer Lautstärke/Temperatur.
Hoffentlich kommen noch vernünftige OEM-designs, denn das hier ist ganz klar kein Kühler den Intel für ein Retail Referenzdesign á la "Founders edition" entwickelt hat. Das sieht eher nach einer kostenoptimierten Dell/HP OEMkarte aus.

ryan
2022-02-10, 15:57:40
DG2 verschiebt sich weil die Treiber noch nicht ausgereift sind, ohje...

https://youtu.be/5Y7oF1bLpcU?t=468

Das läuft auf Mai-Juni raus für die große DG2. PAX East startet Ende April (und das ist vorm launch).

fondness
2022-02-10, 16:09:08
Also tritt das Ding schon fast gegen RDNA3/Lovelace an.

Linmoum
2022-02-10, 16:12:31
Raja Koduri und aus der Traum.

konkretor
2022-02-10, 16:19:40
Die sollen die Karten raus hauen.

Dann auf Github nen Repo aufmachen so das jeder seine Probleme posten kann und ab gehts.Dann ist der Windows Treiber halt auch OpenSource unter Linux klappt das doch auch.


Dann reift das Teil halt beim Kunden.


Das ist egal wann sie es bringen es wird immer was zu meckern geben.

Wenns wirklich so schlecht steht, bekomm ich als Sammler gleich 2 Karten zum selben Preis :P

Radeonator
2022-02-10, 21:20:19
Die sollen die Karten raus hauen.

Dann auf Github nen Repo aufmachen so das jeder seine Probleme posten kann und ab gehts.Dann ist der Windows Treiber halt auch OpenSource unter Linux klappt das doch auch.


Dann reift das Teil halt beim Kunden.


Das ist egal wann sie es bringen es wird immer was zu meckern geben.

Wenns wirklich so schlecht steht, bekomm ich als Sammler gleich 2 Karten zum selben Preis :P

FULL ACK ...bitte nicht wieder ein "intel larrabee" Fake...

ryan
2022-02-10, 21:53:40
Zuerst wird DG2-128 kommen nach aktuellem Stand. Das erste oder einer der ersten wird das Swift 16X: https://www.acer.com/ac/en/US/content/series/swiftxsfx1652g

Verfügbarkeit in Nordamerika ist ab mitte April möglich laut Acer. Wie es mit DG2-128 für Desktop terminlich bestellt ist, ist nicht so ganz klar. Eine Desktop Karte wird jedoch immer genauer unter die Lupe genommen, was die Treiber angeht. Das könnte ein Grund sein zu warten.

Slipknot79
2022-02-10, 23:50:44
Die Karten werden so oder so nicht verfügbar sein zu UVP bei einem planmässigen baldigen release.
Ist vielleicht nicht schlecht, wenn TSMC in der Zwischenzeit GPUs produzieren can, dann werden Grakas im Lager gestapelt und dann sollte, wenn der Treiber fertig ist, ne anständige Zahl an Grakas verfügbar sein? In Kombination mit Sommer könnten gute Preise rausschauen?
Blöd nur, dass 6 Monate später die neue Generation am Start sein wird. ^^

basix
2022-02-11, 10:02:19
Intel will und muss schon fast mit einem "Big Blow" in den Markt einsteigen:
- Konkurrenzfähige Performance
- Anständige Preise
- Anständige Verfügbarkeit
- Anständige Treiber
- Anständiges Featureset

Können sie das alles abdecken, ist es ein gutes Resultat. Ist nur eines dieser Kriterien nicht erreicht, sieht es schlecht aus, der erste Eindruck zählt. Bei Intel als Neueinsteiger zählt es sogar überproportional. Sich hier einen Ausrutscher zu leisten, wenn man 2 Monate früher launcht, wäre fatal. In der jetzigen Situation ist der spätere Release auch relativ egal, da die Produktionsmenge dieser 2 Monate sowieso wegkommen wird und dafür der Eindruck bei den Reviews stimmt. Man sollte aber mindestens vor RDNA3 und Lovelave am Markt aufschlagen, sonst, naja :D

Potential für den Big Blow liegt vor allem in Preisen und Verfügbarkeit, solange der Rest gut genug dasteht.

Und wenn die oben genannten Punkte anstatt "anständig" sogar in Richtung gut tendieren, desto besser. Für Intel wie auch den Kunden.

Shink
2022-02-11, 10:05:54
Man kann ja in 2 Monaten so unglaublich viel erreichen in der Treiberentwicklung.:confused:

basix
2022-02-11, 10:17:08
Naja, wenn man sich einige Geschichten in den Crunching Phases von Games anhört, können 2 Monate noch viel ausmachen. Ist halt einfach das Polishing, was dann oftmals den Eindruck stark verbessert.

Und hier ist evtl. nicht nur Intel im Boot. Was ist mit Spieleoptimierungen von Seiten der Engine- und Spiele-Entwickler? XeSS Integrationen? Da gibt es mehr als "nur" den Treiber.

Und mit mehr Zeit entsteht automatisch ein zusätzlicher Vorteil: Höhere Liefermengen ;)

Fragman
2022-02-11, 10:44:18
- Anständige Preise


Wenn sie nicht vorhaben die Karten ueber einen eigenen Shop mit vor Scalpern gesicherten Zugang anzubieten,
wird man sicherlich sekuendlich den Preisanstieg bei freien Haendlern verfolgen koennen und nach 30 min ist der Releasespuk dann auch schon wieder vorbei und das noch bevor man die ersten Kartenreviews ueberhaupt durchgelesen hat.

Wenn sie schlau sind nehmen sie davon etwas mit und setzen die UVP gleich etwas hoeher an. Spielt fuer die Kaeufer eh keine Rolle.

Dorn
2022-02-11, 14:19:24
Erst bestellen dann in Ruhe Reviews lesen. Stornieren, 14 Tage Rückgaberecht oder teurer weiter verkaufen sollte man kennen. Ansonsten behalten.

Fragman
2022-02-11, 15:38:34
Ist auch eine Möglichkeik, ja. 😁

ChaosTM
2022-02-12, 19:50:05
-CULeocEw38


Ich mag ihn irgendwie, auch wenn er sich oft dumme Dinge (Ampere Coprozessor) zusammenfabuliert.

Mal schaun wohin das führt. :)

basix
2022-02-12, 20:15:06
DG3 soll multi-chiplet sein. Was zu Intels Strategie passt, siehe Meteor Lake

ryan
2022-02-13, 04:17:36
Ein Tile Design bei Battlemage wird schon länger vermutet. Einer der Quellen von MLID hat das schon im Dezember erwähnt.

https://youtu.be/nfsDqHjjMRs?t=314

Ravenhearth
2022-02-17, 19:42:32
Intel Arc mit Xe: Start im 1. bis 3. Quartal und Arbeit an „Ultra Enthusiast“ (https://www.computerbase.de/2022-02/intels-diskrete-xe-grafik-start-im-1.-bis-3.-quartal-und-arbeit-an-ultra-enthusiast/)

Intel hält am Xe-Zeitplan fest, wenngleich mit Sternchen: Im ersten Quartal gibt es nur Notebook-GPUs, Desktop ab Q2, im dritten folgen Lösungen für Workstations. Damit sind sowohl Gerüchte über einen gehaltenen Termin als auch die Aussagen über Verschiebungen zutreffend.

4 Millionen diskrete GPUs will Intel dieses Jahr bereitstellen. Das deckt die ganze Bandbreite ab, von kleinsten Lösungen für Notebooks bis hin zum möglichen Vollausbau im Desktop. Die Verteilung dürfte am Ende vermutlich deutlich zugunsten der Notebook-Chips ausfallen, hier hat Intel den Fokus seit Jahren gesetzt.

4 Millionen GPUs für 2022 sind aber ein Tropfen auf dem heißen Stein bei den ~95 Millionen dGPUs in 2021.

Linmoum
2022-02-17, 20:35:35
Tropfen auf dem heißen Stein ist gut. Das ist absolut lächerlich, zumal man erst noch vor kurzem große Töne gespuckt hat. Und dann sowas. Einfach nur albern.

Aber gut, Raja Koduri halt. Kennt man ja schon von früher. Und Pat ist genauso ein Dampfplauderer.

Piefkee
2022-02-17, 21:20:18
4 Millionen GPUs für 2022 sind aber ein Tropfen auf dem heißen Stein bei den ~95 Millionen dGPUs in 2021.

Die 95M GPU sind alles dGPUs von AiBs. Die 4M von Intel sind Auch mit notebooks

Ex3cut3r
2022-02-17, 21:37:22
Raja lässt halt gerne die Puppen tanzen. Und er pafft ne fette Zigarre.

https://i.imgur.com/thCSaDS.gif

Ravenhearth
2022-02-18, 01:09:23
Die 95M GPU sind alles dGPUs von AiBs. Die 4M von Intel sind Auch mit notebooks
Die 95M sind auch mit Notebooks, zumindest wenn diese Zahlen (https://www.3dcenter.org/news/news-des-7-februar-2022) stimmen. AIBs kommen demnach auf ca. 50 Millionen.

ryan
2022-02-19, 07:57:58
4 Millionen sind mehr als beachtlich für ein Newcomer im ersten Jahr, zumal das kein volles Jahr ist. Eher 3 Quartale und wahrscheinlich läuft das so richtig erst im zweiten Halbjahr an, so ein erster ramp up läuft nicht gleich auf dem Maximum. Wer da jetzt 10+ Millionen erwartet hat, träumt zu viel.

vinacis_vivids
2022-02-19, 09:06:07
:freak:

Intel steht an vierter oder fünfter Stelle bei TSMC 6nm. Davor sind mindestens AMD, Apple, Qualcomm und Nvidia.

Vor allem baut AMD mit TSMC 6nm EPYC CPUs mit 128 bzw. 256 Cores. Da gehts richtig vorwärts.

Sicher bleiben da ein paar Krümel für Intel Arc 6nm übrig damit sich die Aktionäre und Fanbois freuen können. Falls Intel preissubventioniert die 6nm billigt verkauft, bin ich auch dabei. Aber das war in Intels Geschichte noch niemals so.

Raja kann jetzt seinge eigene Vega uArch bei Intel schön umsetzen. Ja er ist ein hervorragender GPU-Designer, aber aus seinem Hintern kommen keine 6nm Silizium Chips.

Daredevil
2022-02-19, 09:13:24
Das wäre vermutlich auch schwierig, wenn Intel eigens produziert und gleichzeitig noch externe Quellen zum versiegen kommen lässt, findest du nicht? ^^
Raja macht das schon, der konnte "Vega" bei AMD vermutlich nicht zu ende denken, das war etwas schade. Hoffentlich hat er bei Intel die Chance dazu.
Immerhin sehen wir 5 Jahre später immer noch Vega iGPUs, also so mistig scheint seine Idee nicht gewesen zu sein.

basix
2022-02-19, 15:45:08
Bei Vega kommt schon eine Art Infinity Fabric zum Einsatz. Das erleichterte die Integration in APUs enorm. Und war damals auch die neueste GPU-IP bei AMD. Vega hatte aber fünf Nachteile:
- GloFo / Samsung 14nm, halt weniger effizient wie TSMCs Prozesse
- Compute Microarchitecture (Throughput) und weniger auf Games optimiert (Latenz)
- Umsetzung Infinity Fabric damals noch nicht optimal für GPUs (Aussagen von Raja), was vermutlich den Stromverbrauch nach oben getrieben hat
- Gute Features, welche allerdings broken waren und deswegen nur einen kleine Teil ihres Potentials abliefern konnten
- HBM + Interposer sind teuer

Alles in allem war Vega wohl etwas zu ambitioniert (man wollte mit einer Architektur alle Märkte abdecken) und hatte ein paar Design-Flaws. Dennoch war es AMDs bis dato modernste und performanteste Architektur. Jetzt mit RDNA2 in Rembrandt sieht man aber auch, dass Vega dagegen deutlich abstinkt. Einzig bezüglich Perf/mm2 kann Vega hier mithalten.

ryan
2022-02-19, 17:06:21
Das ist hier untergegangen, Intel hat erstmals AV1 encoding bestätigt.

Arctic Sound-M brings the industry’s first hardware-based AV1 encoder into a GPU to provide 30% bandwidth improvement and includes the industry’s only open-sourced media solution. The media and analytics supercomputer enables leadership transcode quality, streaming density and cloud gaming. Arctic-Sound M is sampling to customers and will ship by mid-2022.
https://www.intel.com/content/www/us/en/newsroom/news/intel-technology-roadmaps-milestones.html#gs.pl5ht9


Hoffentlich deaktivieren sie das nicht bei den Consumer DG2.

y33H@
2022-02-19, 17:08:40
Ich behaupte doch, wenn sie bei ATS-M explizit damit werben ^^

ryan
2022-02-19, 17:28:58
Ich behaupte doch, wenn sie bei ATS-M explizit damit werben ^^


Bislang haben sie nie etwas bei den Media Funktionen deaktiviert, was nicht physisch auch vorhanden wäre, egal welche SKU. Aber warten wir mal ab.

aufkrawall
2022-02-19, 17:32:55
Das ist hier untergegangen, Intel hat erstmals AV1 encoding bestätigt.

Nice, das erlaubt hoffentlich Uploads auf YT in besserer Qualität ohne erneute Konvertierung. Wär interessant, ob auch 10 Bit gehen. Ggf. lässt das dann x264 bei der Qualität/Bitrate weit hinter sich.

vinacis_vivids
2022-02-22, 11:11:19
Line Up steht fest für Intel Arc Alchemist
https://www.techpowerup.com/292252/intel-arc-alchemist-graphics-card-lineup-detailed

https://abload.de/img/lhvsrjbbcrlu7ldm1fjr8.jpg
https://abload.de/img/rfd3taugtylrh7ntxsjg8.jpg

Bin gespannt auf sie A700 Series mit 4096SP als Fiji/Vega "re engineering".

Vermutlich wird es auch eine Salvage A700 Version geben mit 3584SP oder 3840SP je nach dem die der Chip aufgebaut ist. Mit 512GB/s Bandbreite sind die Ähnlichkeiten zu Navi21 XL (RX6800) doch frappierend.

aufkrawall
2022-02-22, 20:12:49
Verhältnis Die-Size und Performance/Features wie Turing-RTX, aber genau so groß einen Full Node weiter? :freak:

Mir crasht seit einigen Monaten sporadisch immer mal wieder der Treiber mit Gemini Lake, nervt ziemlich. Gibt auch quasi kaum einen alten D3D8/9-Schinken, der nicht irgendwelche Grafikfehler mit dem Treiber unter Windows macht. Einfach nur Müll vs. Linux. Kann mir kaum vorstellen, dass das mit ihren dGPUs anders wird. Die Release Notes sprechen ja auch immer noch Bände. Quasi die extreme Steigerung zu AMD? Besseres RT/Medien-Features unter Linux, aber noch schlimmerer Windows-Treiber. ;D

basix
2022-02-22, 23:26:34
Die erste Folie von folgendem Post zu Arrowlake ist noch interessant:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12927429#post12927429

Growing Die Size beyond ~80mm2 (320EU) would drive reassessment of TSMC wafer request...

Laut anderen Gerüchten könnte Arrowlake auch auf 384 EU gehen. Evtl. wird die GPU kleiner oder das zurückziehen der CPU-Chiplets auf Intel A20 macht entsprechende Kapazitäten frei.

Nichtsdestotrotz und egal ob nun 320 oder 384 EU, die Angabe von ~80mm2 für 320EU ist ziemlich klein. Passt aber in etwa mit den Angaben zu DG2-128 und DG2-512 zusammenm, wenn auf 3nm geshrinkt. Extrapoliert ergibt das ~500mm2 für 20'000 Shader Units, was für High End / Enthusiast reichen könnte. Die 500mm2 beherbergen aber nur die Render Slices. L2$ und der Rest des Die werden wohl 3D-Stacked und mit Foveros / Foveros Omni verbunden.

konkretor
2022-02-25, 14:07:52
Der Linux Kernel wird weiter fleißig gefüttert


https://lore.kernel.org/dri-devel/YhbDan8wNZBR6FzF@intel.com/

konkretor
2022-03-03, 13:57:07
https://www.phoronix.com/scan.php?page=news_item&px=Last-Intel-Graphics-Linux-5.18

konkretor
2022-03-08, 12:23:08
https://www.igorslab.de/en/the-geforce-rtx-3070-ti-16gb-doesnt-come-into-arc-promises-again-and-the-gddr6x-is-itching/

https://videocardz.com/newz/intel-arc-alchemist-high-end-desktop-skus-rumored-to-launch-between-week-18-and-22-may-8-june-5

Mal sehen bis wann wirklich die Karten zu kaufen gibt

ryan
2022-03-08, 12:48:55
Würde mich nicht wundern, wenn sich das Richtung Ende Juni hin verschiebt. DG2-128 mobile kommt zuerst. Ich frage mich jetzt noch, wie es mit DG2-128 für Desktop aussieht. Zum rumexperimentieren würde ich mir so eine gerne holen, ein Notebook kommt für mich nicht in Frage. Außerdem finde ich die Notebook DG2-128 nicht so prickelnd, weil nur 4GB und 64 Bit Interface.

Loeschzwerg
2022-03-09, 07:05:09
Ein Test der Gunnir Iris Xe MAX Index V2 von Igor:
https://www.igorslab.de/gunnir-iris-xe-max-index-v2-intels-dg1-neu-im-testlabor-und-die-suche-nach-dem-passenden-microcode-2/

In meinen Augen wäre DG1 durchaus als kleine Upgrade Karte oder allgemein als LowEnd Begleiter brauchbar gewesen. Hätte Intel ruhig bringen können.

dildo4u
2022-03-09, 08:43:01
Macht Sinn das man die nicht so leicht kaufen kann, es gibt Reviewer die 30 Games testen Intel will das nicht an die große Glocke hängen so lange der Treiber damit nicht klar kommt.
Gibt Tonnen Probleme mit weit verbreiteten AAA games.

KNOWN ISSUES:
• Crash or hang may be seen when starting CrossFire* (DX9), FIFA 21* (DX12), Forza Horizon 4* (DX12), Watch
Dogs: Legion* (DX12).
• Intermittent crash or hang may be seen in Call of Duty: Black Ops Cold War* (DX12), Horizon Zero Dawn*
(DX12), Far Cry 6* (DX12).
• Graphic anomalies may be observed in Dark Souls 3* (DX11), Diablo II: Resurrected* (DX12), Far Cry 6* (DX12),
Farming Simulator 22* (DX12), Gears 5* (DX12), Genshin Impact* (DX11), Grand Theft Auto* (DX11), GRID
2019* (DX12), Halo Infinite* (DX12), Metro Exodus* (DX12) (when quality set to low), Tom Clancy’s Ghost Recon
Breakpoint* (DX11).


https://downloadmirror.intel.com/715380/ReleaseNotes_101.1298.pdf

Loeschzwerg
2022-03-09, 09:57:15
Nach der Argumentation dürfte Intel keine APUs ausliefern ;)

ChaosTM
2022-03-09, 09:58:35
Naja, mit Intels APUs ist Spielen nicht gerade eine Freude.

Loeschzwerg
2022-03-09, 10:08:22
Geht mit den 80 / 96EU Xe Varianten im Rahmen der Leistungsmöglichkeit eigentlich ganz gut und wäre jetzt kein Unterschied mit DG1. Als Aufrüstoption und für kleine Rechner hätte DG1 völlig getaugt, wie es auch z.B. RX540, GT1010/1030 usw. tun.
Hinsichtlich der Entwicklungsgschichte, dem Fokus auf Mobile und problematische Fertigung kann ich aber verstehen warum Intel da keine Notwendigkeit drin gesehen hat. Ich hätte mir den Aufwand letztendlich auch gespart.

dildo4u
2022-03-09, 11:39:59
Die APUs kommen imo erst in den Fokus wenn man billige DDR5 Systeme kaufen kann, aktuell ist das alles noch viel zu teuer oder zu langsam dank DDR4.

Platos
2022-03-09, 13:41:59
Interessieren würde mich vor allem, wie Intel bei älteren Spielen abschneidet. Und ich meine jetzt nicht GTA 5 und witcher 3. Da sieht der Treibersupport evtl. (noch) schlechter aus, als er mir für aktuelle Spiele scheint.

basix
2022-03-09, 14:05:27
Ich sähe eine coole Lösung: Intel wrapped alle Spiele mittels Intel eigenem dgVoodoo / DXVK auf Vulkan :D

Der Treiber-Core wäre dann DX12 / Vulkan only.

konkretor
2022-03-09, 16:46:49
https://twitter.com/momomo_us/status/1501555578249699361?s=20&t=EhvI1YZp_E7ST5QHBUt7FA

aufkrawall
2022-03-09, 17:11:21
Der Treiber-Core wäre dann DX12 / Vulkan only.
Der D3D12-Treiber von Intel ist leider auch ein Haufen Müll. Zumindest in Strange Brigade verursacht der mit der ADL-IGP massivste Frame Time-Probleme, wie auch in vielen anderen Spielen (gibt genug Videos auf YT dazu). Mit Vulkan lief es dann komplett sauber (und minimalst schneller) In Diablo 2R direkt offensichtliche Grafikfehler. Der Intel-Windowstreiber ist das pure Grauen und ich gehe davon aus, das auch in einem Jahr die Release Notes noch dutzende Spiele mit Grafikfehlern aufführen werden. Völlig unbrauchbarer Schrott.

konkretor
2022-03-12, 13:22:58
https://videocardz.com/newz/intel-might-be-preparing-three-dg2-gpus-after-all-soc3-with-256eus-appears

konkretor
2022-03-16, 06:50:39
https://twitter.com/momomo_us/status/1503726981661093891?s=20&t=h6GANaNPhzKdCrSg5Z5cDg

iamthebear
2022-03-16, 23:55:34
Ein Test der Gunnir Iris Xe MAX Index V2 von Igor:
https://www.igorslab.de/gunnir-iris-xe-max-index-v2-intels-dg1-neu-im-testlabor-und-die-suche-nach-dem-passenden-microcode-2/

In meinen Augen wäre DG1 durchaus als kleine Upgrade Karte oder allgemein als LowEnd Begleiter brauchbar gewesen. Hätte Intel ruhig bringen können.

Was mir da verdächtig vorkommt ist, dass der Rückstand sowohl zu schnelleren AMD als auch Nvidia Karten unter 720p größer ist als unter 1080p. Das riecht schwer nach Treiber Overhead und CPU Limitierung und wenn dies bei den kleinen 30W Teilen schon der Fall ist will ich nicht wissen was dann beim Spitzenmodell oder schwächeren CPUs los ist.
Besonders sichtbar wird dies in World War Z wenn man die min FPS zwischen 720p und 1080p vergleicht. Während alle anderen GPUs noch kräftig fps zulegen tut sich da bei Intel nicht viel.

Nach der Argumentation dürfte Intel keine APUs ausliefern ;)

Es soll auch Leute geben, die ihren PC nicht zum Spielen nutzen aber trotzdem ein Bild am Monitor haben wollen und vielleicht mal gelegentlich ein paar Videos abspielen wollen.
Manche tun so als würde Intel zum ersten Mal einen Grafiktreiber schreiben. Die liefern seit über 10 Jahren stabile Treiber für Businessgeräte und Server.
Nur spielen kann man damit nicht.

aufkrawall
2022-03-17, 00:15:44
Ist die Frage, ob dieser "Business-Markt" nicht nur auf dem Papier existiert und bei Firmen nicht doch fast immer eine GPU von Nvidia & AMD zum Einsatz kommt.

amdfanuwe
2022-03-17, 03:04:10
Zumindest nicht in D. Für Word/Excel/Powerpoint und Programmieren reicht eine iGPU.
So die Erfahrung aus meinem Berufsleben und das waren keine kleinen Klitchen.

konkretor
2022-03-17, 08:02:08
Im Enterprise Umfeld und ich rede hier von tausender Stückzahlen von Rechner kommt zu 99,99% eine iGPU von Intel zum Einsatz.

Beispiel Dell Optiplex kannst zwar mit extra Karte bestellen aber bei 3 Monitoren brauchst keine extra Karte.

Wenn dann doch eine AMD/Nvidia gebraucht wird dann sieht dies Workstation Karten. Zwecks Support etc.


Igor hat hier noch was seltsames ausgegraben zu einer DG2 mit 4 GHz in der Intel Ark Datenbank


https://www.igorslab.de/mysterioeser-dg2-eintrag-in-intels-interner-ark-liste-aufgetaucht-neue-grafik-loesung-oder-nur-ein-platzhalter/

mocad_tom
2022-03-17, 09:29:42
Das mit den 3 Monitoren lässt sich halt leider nicht so vereinfacht sagen.

Dreimal 1920x1200 @ 60Hz mag noch gehen.

Ich habe hier ein Mainboard mit 1xDisplayport, 1xHDMI und 1xDVI.
Ich hab da lange rumgetüftelt.
Auch das Daisy-Chainen habe ich ausprobiert.

Dreimal 1920x1200 @ 60Hz geht, sobald ich da einen der Monitore größer mache geht es dahin.
Testsystem ist ein Rocket-Lake auf einem 1200er Mainboard.


Sobald aber einer 2560 x XYZ oder gar 3840 x XYZ haben soll ist der ganze spaß zu Ende.

Ich habe jetzt eine uralt Geforce GTX 650 mit reingeknallt, an dem hängt ein 1920x1200.
Und am Mainboard hängt ein 4k und ein 1920x1200.
Im BIOS so umgestellt, dass integrierte Grafik und zweite Grafikkarte beide initialisiert werden sollen.

Ich gehe davon aus, dass die großen DG2-Chips am Anfang fast mehrheitlich an Miner gehen werden. Die gute Rohleistung wird man wegen der mittelprächtigen (Spiele-)Treiber noch nicht gleich so gut nutzen können. Aber beim Mining wird das Ding von Tag 1 weg ziemlich gut abgehen.

Die kleinen Ableger vom DG2 werden eh fast ausschließlich in Laptops wandern.

Platos
2022-03-17, 14:37:40
Die werden eher an OEMs gehen und im Retailmarkt wird nix ankommen. Das sollte mna zumindest als möglivhes Szenario im Hinterkopf behalten.

Oder für andere Anwenudngen, die nicht Gaming sind.

fondness
2022-03-22, 09:14:48
Intel hat es echt geschafft, ihre GPUs so lange zu vertrödeln, dass mittlerweile die GPU Preise wieder fast auf UVP sind. Wenn sie jetzt wirklich wie angekündigt hohe Stückzahlen produzieren, dann sehe ich schon hohe Abschreibungen incoming.

robbitop
2022-03-22, 09:21:59
Wird Intel wenig jucken. Die wollen unbedingt in den Markt. Die rechnen für eine Weile sicherlich nicht mit Gewinnen - wenn nicht sogar mit Verlusten. Und bei so komplexen Dingen wie GPUs ist es klar, dass es ein paar Iterationen brauchen wird, eh man mit NV und AMD mithalten kann, die ja nunmal seit Ewigkeiten dabei sind.
Natürlich ist Intel dank GPUs auch seit Ewigkeiten dabei - aber man sieht, dass es ihnen abseits von grundsätzlicher Funktionalität nie richtig ernst damit war. Entsprechend ist der Abstand was den Grad an "polished product" angeht schon noch ordentlich groß.
Wenn sie dran bleiben, wird man den sukzessive schrumpfen können.

Dennoch aufregend endlich mal seit langem einen ernsthaften 3. Wettbewerber zu haben. Wie lange ist das her, dass es das letzte Mal so weit war?
2002 mit Matrox und der Parhelia, 3D Labs mit dem P10 und 2004-2010 mit S3 und der Chrome Serie oder 2003 mit XGI/Trident? Alle sind wir Kartenhäuser zusammengefallen (wobei die Parhelia noch die Ernsthafteste war).

y33H@
2022-03-23, 18:07:39
Intel XeSS – an AI based Super Sampling solution for Real-time Rendering
https://schedule.gdconf.com/session/intel-xess-an-ai-based-super-sampling-solution-for-real-time-rendering-presented-by-intel/886745

DrFreaK666
2022-03-23, 18:16:40
Spannend :up:

Troyan
2022-03-24, 01:19:35
Die Präsentationen ist online für XeSS: https://www.intel.com/content/www/us/en/events/developer/gdc-march-2022.html?videoid=6301546498001

AffenJack
2022-03-24, 15:26:49
Interessanter in Sachen Hardware finde ich die RT Präsentation.
https://www.intel.com/content/www/us/en/events/developer/gdc-march-2022.html?videoid=6301519388001

Hab die bisher nur kurz überflogen. Aber sieht nach einer starken Implementierung aus. Traversal shader implementiert für zukünftige DXR Versionen? Das würde glaube bei b3d mal diskutiert, dass das noch kommen könnte. Evtl. auch bei lovelace?
DXR 1.0 bevorzugt wie nvidia und nicht dxr1. 1 wie amd. Aber trotzdem noch einige Unterschiede zu Nvidia.

Bin sehr gespannt auf die erste Implementierung in Hitman. Könnte aber für AMD zum Problem den, wenn jetzt auch Intel Sponsoren Games mit RT Fokus kommen.

DrFreaK666
2022-03-24, 15:44:38
...Bin sehr gespannt auf die erste Implementierung in Hitman. Könnte aber für AMD zum Problem den, wenn jetzt auch Intel Sponsoren Games mit RT Fokus kommen.

Wieso? RX7000 könnte womöglich bei der RT-Performance einen Zahn zulegen.
Und sollte die schnellste Karte tatsächlich auf 3070Ti-Niveau liegen, dann hat AMD erstmal nichts zu befürchten

Loeschzwerg
2022-03-24, 18:34:53
Mit dem Asus PRIME B560M-A läuft die GUNNIR Index V2 (DG1) ohne extra Microcode Update:
https://twitter.com/Loeschzwerg_3DC/status/1507046504644718605?cxt=HHwWmsC9lfazjeopAAAA

konkretor
2022-03-24, 20:06:36
Klasse das es ohne Bios Mod funktioniert.


Mich würde noch der World of Tanks Encore Test jucken wie es da aussieht. Wie gut da die Fußhupe ist.


Ach herrlich endlich mal andere Graka Test wie AMD/Nvidia

mczak
2022-03-24, 20:45:10
Intel hat es echt geschafft, ihre GPUs so lange zu vertrödeln, dass mittlerweile die GPU Preise wieder fast auf UVP sind. Wenn sie jetzt wirklich wie angekündigt hohe Stückzahlen produzieren, dann sehe ich schon hohe Abschreibungen incoming.
Naja also es ist jetzt nicht so dass zur Zeit die UVPs von AMD und Nvidia so angesetzt sind dass man da am Ende bloss knapp in der Gewinnzone landet. Es dürfte problemlos möglich sein die preislich zu unterbieten und trotzdem Gewinne zu machen - halt etwas weniger. Jedenfalls wenn die Chips was taugen und die Preise nicht gleich völlig zusammenbrechen.

DrFreaK666
2022-03-24, 21:01:27
Die Treiber müssen auch was taugen. Aber das weiß Intel auch.
Ich bin gespannt.
Gegen einen Preiskampf hätte ich nichts

ryan
2022-03-24, 21:03:10
XeSS sieht vielversprechend aus, am Ende muss man das aber am heimischen Rechner ausprobieren.


+ Really nice built in sharpening
+ Claimed eliminates ghosting
+ Claimed minimal artifacts (shimmering) compared to TAAU. (I spot visible shimmering on fine horizontal geometry)
+ Fixed cost based on output rest
+ Replaces TAA
https://twitter.com/nerdtechgasm/status/1506942940631171082

Bewegtbilder:

https://youtu.be/ABFW-wrhvNc
https://youtu.be/DWE0oKN0p8g

TheAntitheist
2022-03-24, 23:45:41
XeSS sieht vielversprechend aus, am Ende muss man das aber am heimischen Rechner ausprobieren.


+ Really nice built in sharpening
+ Claimed eliminates ghosting
+ Claimed minimal artifacts (shimmering) compared to TAAU. (I spot visible shimmering on fine horizontal geometry)
+ Fixed cost based on output rest
+ Replaces TAA
https://twitter.com/nerdtechgasm/status/1506942940631171082

Bewegtbilder:

https://youtu.be/ABFW-wrhvNc
https://youtu.be/DWE0oKN0p8g
sieht wirklich super aus, hoffentlich wird dann FSR eingestampft und man konzentriert sich dann darauf.

Blediator16
2022-03-25, 00:36:21
sieht wirklich super aus, hoffentlich wird dann FSR/DLSS eingestampft und man konzentriert sich dann darauf.

Fixed :freak:

Loeschzwerg
2022-03-30, 06:49:49
Zur Erinnerung, heute gibt es evtl. ein paar neue Infos zu Arc:
https://www.intel.com/content/www/us/en/events/arc-events.html

Zu DG1 und Xe Graphics Allgemein:
Egal was ich versucht habe, der ethminer läuft bei mir weder mit der DG1, noch UHD750. Es wird kein OpenCL fähiges Gerät erkannt, auch manuelles hinzufügen der Schlüssel in der Registry hilft nicht. Ich weiß jetzt nicht wie es mit anderen Crypto Projekten aussieht, aber es lässt mich zumindest hoffen dass das DG2 Lineup für Spieler verfügbar sein wird.

y33H@
2022-03-30, 08:04:26
https://videocardz.com/newz/intel-arc-alchemist-mobile-specifications-leaked-arc-a770m-with-32-xe-cores-and-16gb-g6-memory-to-launch-early-summer

https://videocardz.com/ezoimgfmt/cdn.videocardz.com/1/2022/03/Intel-Arc-Alchemist-SPECS-768x429.jpg?ezimgfmt=ng:webp/ngcb1

dildo4u
2022-03-30, 08:17:28
Arc 3 sollte schneller sein als die RDNA2 IGP oder?

1650 Speed?

https://www.computerbase.de/2022-02/amd-radeon-680m-ryzen-6000-igpu-test/2/#abschnitt_leistung_in_fhd_mit_mittleren_details

Shink
2022-03-30, 08:35:27
Arc 3 sollte schneller sein als die RDNA2 IGP oder?

1650 Speed?

https://www.computerbase.de/2022-02/amd-radeon-680m-ryzen-6000-igpu-test/2/#abschnitt_leistung_in_fhd_mit_mittleren_details
In vielen Bereichen ist das anzunehmen bei einem dedizierten GDDR6, wenn es die Treiber nicht versemmeln.

ryan
2022-03-30, 09:59:29
Bei 35W wäre ich mir nicht sicher, das für eine Boardpower mit GDDR6 nicht viel. Eine RTX 3050 mobile (https://www.notebookcheck.com/NVIDIA-GeForce-RTX-3050-Mobile-Grafikkarte-Benchmarks-und-Spezifikationen.509230.0.html) macht bei 35W nur ~1050 Mhz, bei 50W sind es dann schon ~1450 Mhz. Mal sehen, was Intel uns anbietet. Im worst case nur Vergleiche mit ADL-P iGPU.

Livestream ab 17:00 Uhr: https://www.youtube.com/watch?v=q25yaUE4XH8

davidzo
2022-03-30, 17:57:11
Okay, das sind ja mal extrem enttäuschende Taktraten, sowohl GPU als auch DRAM.

EDIT: Ahh, das sind die mobile only chips. Na dann ist ja okay.

Das ist ja bei den Taktraten und Tflops noch auf DG1 Niveau - fehlen ca. 50% Mehrleistung durch den Taktboost die man sich von DG2 versprochen hat. Hoffentlich sehen wir die geleakten 2,2Ghz + noch im Desktop, mit maximal 13Tflops FP32 zieht man nicht soviel vom Teller im Jahre 2022.

Und was ist das für ein langsamer GDDR6? 14gt/s, ist es noch 2020 oder was?


A370M mit 030-40% auf XE-IGP Niveau sieht gerade mal nach Rembrandt-Niveau aus. Nicht gut wenn der als single chip schon sparsamer ist als ein 1280P der sich eigentlich die TDP noch mit der GPU teilen muss.

Aber nette Media engine, sieht sehr featurecomplete aus und 2x streams ist auch erstmal gut, wenn auch nicht auf Apple-niveau.:uup:

Leonidas
2022-03-30, 18:07:28
Intel launcht DG2 wirklich zähflüssig ... selbst die größeren Mobile-Lösungen kommen erst im Sommer.

konkretor
2022-03-30, 18:34:25
https://videocardz.com/newz/intel-teases-desktop-arc-a-series-limited-edition-graphics-gard


DG2 Sepecial Edition

Edit:

wie Arc Control aussehen soll und kann

https://www.intel.com/content/www/us/en/products/docs/arc-discrete-graphics/software/arc-control.html

konkretor
2022-03-30, 19:34:04
https://www.intel.com/content/www/us/en/download/726609/intel-arc-graphics-windows-dch-driver.html

Launch Treiber da wäre ein Test gegen den März Treiber spannend

basix
2022-03-30, 23:29:50
wie Arc Control aussehen soll und kann

https://www.intel.com/content/www/us/en/products/docs/arc-discrete-graphics/software/arc-control.html

Sekunde 29: 2250MHz GPU Clock, 172W GPU Power :D

ChaosTM
2022-03-30, 23:33:08
172 GPU für das Einsteigermodell wäre nicht so prickelnd ;)

basix
2022-03-30, 23:37:45
Ich denke eher, dass das die grosse dGPU für Desktop ist ;)

GPU Power wird wohl wie bei AMD die TGP und nicht TBP sein. Wäre dann ca. 220W "TBP".

konkretor
2022-03-31, 13:54:18
https://videocardz.com/newz/intel-flagship-arc-gpu-features-21-7-billion-transistors-more-than-navi-22-and-ga104

mocad_tom
2022-03-31, 17:39:36
https://twitter.com/harukaze5719/status/1509471689926582275

Samsung Galaxy Book 2 PRO
Intel i7 1260P + Intel ARC A350M

Mit dem "performance-switch" auf an kommt ein Timespy GPU Score von 3197 raus.

Eine GTX 1650 Mobile kommt mal auf 3400 und mal 3050 je nach Kühler design.

https://www.notebookcheck.net/Mobile-Graphics-Cards-Benchmark-List.844.0.html

Ich glaube das war so ziemlich das, was MLID mal so ca. versprochen hat für die kleine Variante.

Leonidas
2022-04-01, 10:07:57
https://www.3dcenter.org/dateien/abbildungen/Intel-Arc-Desktop-Grafikkarte-Taktraten.jpg

Loeschzwerg
2022-04-01, 11:01:38
Allgemein zur Info:
Der 1325 Treiber für Arc enthält auch wirklich nur IDs für die kleinen Arc Modelle, ältere Gen12 Hardware wird nicht unterstützt. Das Arc Control Center kann gesondert installiert werden, es liegt in einem extra Verzeichnis. Wichtig: Das Control Center geht Hand in Hand mit dem Intel DSA (Driver & Support Assistant) d.h. der Assistant wird zwangsweise installiert, kann aber danach auch wieder manuell gelöscht werden.

Der 1325 Treiber lässt sich mit INF Mod installieren (DG1 in meinem Testfall), aber das Arc Center läuft leider nicht und stürzt ab (Visual C++ Runtime Problem). Auch mit dem 1631 läuft das Center bei mir nicht. Das kann an meiner Windows 10 Installation liegen, halte ich aber für unwahrscheinlich, da es ziemlich im Default Zustand ist und alle Updates hat.

EOT

Doom 2016 und Shadow Warrior 3 @ DG1 Videos im Spoiler:

GXOnke4T0Gw
-PLv3Gsreyk

iamthebear
2022-04-01, 12:46:18
Die ersten Geräte werden bereits gelistet:
https://www.amazon.de/dp/B09V133CZ6?linkCode=xm2&camp=2025&creative=165953&smid=A3JWKAKR8XB7XF&creativeASIN=B09V133CZ6&tag=geizhals1-21&ascsubtag=1ahyeFiauSUgwfxefhoZQ

ryan
2022-04-02, 13:24:10
Allgemein zur Info:
Der 1325 Treiber für Arc enthält auch wirklich nur IDs für die kleinen Arc Modelle, ältere Gen12 Hardware wird nicht unterstützt. Das Arc Control Center kann gesondert installiert werden, es liegt in einem extra Verzeichnis. Wichtig: Das Control Center geht Hand in Hand mit dem Intel DSA (Driver & Support Assistant) d.h. der Assistant wird zwangsweise installiert, kann aber danach auch wieder manuell gelöscht werden.

Der 1325 Treiber lässt sich mit INF Mod installieren (DG1 in meinem Testfall), aber das Arc Center läuft leider nicht und stürzt ab (Visual C++ Runtime Problem). Auch mit dem 1631 läuft das Center bei mir nicht. Das kann an meiner Windows 10 Installation liegen, halte ich aber für unwahrscheinlich, da es ziemlich im Default Zustand ist und alle Updates hat.

EOT

Doom 2016 und Shadow Warrior 3 @ DG1 Videos im Spoiler:

https://youtu.be/GXOnke4T0Gw
https://youtu.be/-PLv3Gsreyk



Wie sehen die Spieletaktraten aus bei der Gunnir, lässt sich das auslesen?

Fusion_Power
2022-04-02, 14:35:14
Mein nächster PC wird sicher ein Laptop. Und nicht nur deshalb wird für mich eine dedizierte Intel GPU immer uninteressanter. Denn seit AMD sein RDNA2 raus gelassen hat wird so eine potente iGPU gleichzeitig wesentlich interessanter für mich. Gerade im Hinblick auf den Stromverbrauch und daher potentiell leise und effektivere Kühlung bei mobilen Geräten.
Und für den Desktop? Nun ja, wie es aussieht wird Intel mit seinen dedizierten GPUs weder Geschwindigkeits- noch Effizienzrekorde aufstellen. Sie werden wohl höchstens was über den Preis regeln können aber auch das wird schwierig in diesen Zeiten.

aufkrawall
2022-04-02, 14:50:39
Doom 2016 und Shadow Warrior 3 @ DG1 Videos im Spoiler:

https://youtu.be/GXOnke4T0Gw
https://youtu.be/-PLv3Gsreyk

Schon mal Linux probiert? Diese Frame Times.. :freak:

Loeschzwerg
2022-04-05, 07:11:38
Wie sehen die Spieletaktraten aus bei der Gunnir, lässt sich das auslesen?

HWiNFO kann diese aktuell noch nicht auslesen, aber wenn ich mir die GPU-Z Werte so anschaue, dann springt dieser zwischen 1200-1650MHz wild hin und her.

Hier siehst du das Taktverhalten im GPU-Z Test und Leistungsaufnahme:
https://www.youtube.com/watch?v=NHoRzb_KfAQ&t=570s

Schon mal Linux probiert? Diese Frame Times.. :freak:

Habe ich versucht, bekomme aber entweder keine Oberfläche zum laufen (KDE, GNOME) oder hänge bei 1024x768 (XFCE; sobald ich händisch etwas anpasse bleibt nur CLI). Versucht habe ich Manjaro und openSUSE Tumbleweed.
Beste Kombo ist Tumble + XFCE, da wird auch der i915 geladen.

konkretor
2022-04-05, 15:05:37
https://videocardz.com/newz/intel-might-still-release-a-third-arc-gpu-with-16-xe-cores-new-patches-for-intel-graphics-compiler-suggest

aufkrawall
2022-04-05, 15:32:36
Habe ich versucht, bekomme aber entweder keine Oberfläche zum laufen (KDE, GNOME) oder hänge bei 1024x768 (XFCE; sobald ich händisch etwas anpasse bleibt nur CLI). Versucht habe ich Manjaro und openSUSE Tumbleweed.
Beste Kombo ist Tumble + XFCE, da wird auch der i915 geladen.
Ok. Bei Bros Galaxy Book2 mit dicker Xe-IGP crashte Doom 2016 unter Linux mit Vulkan leider auch beim Start. Leider kann auch ANV bei der Kompatibilität um Längen nicht mit RADV mithalten. :(

ryan
2022-04-05, 21:57:29
HWiNFO kann diese aktuell noch nicht auslesen, aber wenn ich mir die GPU-Z Werte so anschaue, dann springt dieser zwischen 1200-1650MHz wild hin und her.

Hier siehst du das Taktverhalten im GPU-Z Test und Leistungsaufnahme:
https://www.youtube.com/watch?v=NHoRzb_KfAQ&t=570s



10 Watt Boardpower, dann könnte man von 15W für die GPU ausgehen. Efrahrungsgemäß von der TGL-U iGPU Version sind nicht mehr als 1300-1400 Mhz avg drin bei 15W. Schade das es noch keine freien Arc Tests gibt mit Retail Geräten zum Vergleich.

Loeschzwerg
2022-04-06, 07:22:02
Hoffentlich kommt bald ein Treiber mit Arc Control auch für ältere Gen12, ich würde gerne an den Einstellungen der DG1 herumpfuschen wollen ^^

Loeschzwerg
2022-04-06, 15:42:02
@ryan: Ich habe eben noch mit GPU-Z die Sensordaten mitschreiben lassen. In Tomb Raider 2013 liegt der Takt zwischen 1450-1500MHz (~960mV), in Doom 2016 sind es 1350-1400MHz. Mit Boost wären es in Tomb Raider fast immer 1650MHz (~1,060v). Die Karte braucht unbedingt durchgehend 5W mehr spendiert, dann ginge da auch was.

Tomb Raider 2013 @ DG1

AztS0C-uxio


Edit:
Serious Sam - Siberian Mayhem @ DG1 - Iris Xe MAX - Gunnir Index V2

tHGifLCd55k

mocad_tom
2022-04-10, 11:26:54
In Süd Korea hat jemand das Samsung Book mit Intel Arc 350m getestet.

https://mobile.twitter.com/SquashBionic/status/1512448811448168449

angesichts des flachen designs ist es schon ganz okay, was da an performance rauskommt

ryan
2022-04-10, 12:02:23
Die timespy Werte von 3000+ sind eigentlich gut für die kleinere 96EU Variante, aber irgendwas stimmt in den Spielen nicht, 50% Auslastung und 20W sind zu wenig. Allerdings haben die einen älteren Treiber drauf. Das hatten wir in dem Thread (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12974781#post12974781) schon.

konkretor
2022-04-21, 11:53:28
https://wccftech.com/intel-arc-alchemist-graphics-card-lineup-to-include-a310-entry-level-gpu-replaces-dg1

mboeller
2022-04-21, 12:29:51
hat jemand schon mal Tests mit und ohne DTT gemacht:

https://www.notebookcheck.com/Die-Gaming-Performance-von-Intel-Arc-wird-ohne-Intel-DTT-deutlich-besser-laut-eines-neuen-Tests.613810.0.html


denn wie ein neuer Test zeigt, kann die Bildrate beim Zocken durch das Deaktivieren von DTT fast verdoppelt werden

DrFreaK666
2022-04-21, 13:18:31
https://wccftech.com/intel-arc-alchemist-graphics-card-lineup-to-include-a310-entry-level-gpu-replaces-dg1

Hübsch, sollte die Karte tatsächlich so aussehen

Loeschzwerg
2022-04-29, 08:36:10
@ryan: Mit dem 1934 Beta Treiber und der letzten HWiNFO Beta funktionieren endlich die Sensoren wieder mit Iris Xe MAX.

Wild Life Loop:
Im PL2 liegen meist die 1650MHz an, mit PL1 geht es dann runter bis 1300MHz.
79166 79167

Noch etwas YT Kram im Spoiler:

HlYrhwCBZdE
i_-Jw3zD0LE
Bg2a_G9JdnE
mTqNbmx256o

Loeschzwerg
2022-05-04, 18:46:07
3DMark Ergebnisse zu folgenden Gerätschaften:


Gunnir Index V2 (Iris Xe MAX; ~1300-1400 im PL1 mit 25W)
Radeon RX550 2GB (OEM Karte mit 1183 MHz; 50W)
Quadro P600 2GB (hält den Boost mit 1620MHz; 30W)
1165G7 Xe IGP 96EU (28W)
1065G7 Iris Plus IGP 64EU (Gen11; ~800MHz bei 15W)


https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=79228&stc=1&d=1651682515

Screenshots der einzelnen Ergebnisse gibt es ab hier im CB Forum:
https://www.computerbase.de/forum/threads/intel-dg1-probleme-u-loesungen.2077997/page-4#post-26855707

Beschwerden wegen dem zermatschten Bild/Diagramm gebe ich an Leo weiter ;) Das Forum hat wegen ein paar wenigen Pixeln wieder genervt (1701 x 936; 195KB) und jetzt ist das Bild 1531 x 843 und sogar mit 304KB größer (Paint macht es möglich :D).

DrFreaK666
2022-05-04, 19:05:19
Ist das jetzt gut oder schlecht?

davidzo
2022-05-04, 19:56:54
Hübsch, sollte die Karte tatsächlich so aussehen

Das Bild ist von DG1 SDV von 2020 und nicht von A310. Und ja, die sah wirklich so aus, afaik war die shroud sogar aus metallguss, also echt hochwertig vom feeling. https://www.igorslab.de/satz-mit-xe-intel-iris-xe-max-grahics-im-exklusiven-teardown-und-mit-massiven-treiberproblemen-bei-den-benchmarks-leak/2/

Ist das jetzt gut oder schlecht?

Schwer zu sagen.
Sieht auf ersten Blick eher schlecht aus, nichtmal Polaris IPC.
768 XE Alus sind bei 1300-1650mhz nur 20-30% schneller als eine uralte RX550 mit lediglich 512SP bei 1100-1183mhz. Eine RX560 mit vergleichbarer FP32 Rechenleistung liegt bei Igor uneinholbar vorn.

Praktisch ist die Gunnir V2 aber wahrscheinlich sowohl Bandbreitenlimitiert als auch TDP-limitiert. Die Karte hat lediglich 68gb/s während die RX550 über 112gb/s verfügt. XE hat größere caches die das etwas abfedern sollten, aber mit genaueren IPC Vergleichen würde ich mich erstmal zurückhalten. Dafür müsste man die Karte wohl eher untertakten um ein TDP- und Bandbeitenlimit auszuschließen.

Es sieht trotzdem nicht so aus als wenn wir wesentlich mehr als Polaris/Vega IPC + Raytracing bekommen werden. DG2-512 quasi als Vega64 auf Steroiden (+50% takt). Wahrscheinlich etwas Bandbreiteneffizienter dank der großen caches. Trotz der neuen, hohen Taktraten bei DG2 könnte das knapp werden gegen GA104 und Navi22. Hoffen wir mal dass sich mehr an der µarch getan hat als nur Takt, RT und SI.

ryan
2022-05-04, 22:28:22
Schwer zu sagen.
Sieht auf ersten Blick eher schlecht aus, nichtmal Polaris IPC.
768 XE Alus sind bei 1300-1650mhz nur 20-30% schneller als eine uralte RX550 mit lediglich 512SP bei 1100-1183mhz. Eine RX560 mit vergleichbarer FP32 Rechenleistung liegt bei Igor uneinholbar vorn.

Praktisch ist die Gunnir V2 aber wahrscheinlich sowohl Bandbreitenlimitiert als auch TDP-limitiert. Die Karte hat lediglich 68gb/s während die RX550 über 112gb/s verfügt. XE hat größere caches die das etwas abfedern sollten, aber mit genaueren IPC Vergleichen würde ich mich erstmal zurückhalten. Dafür müsste man die Karte wohl eher untertakten um ein TDP- und Bandbeitenlimit auszuschließen.

Es sieht trotzdem nicht so aus als wenn wir wesentlich mehr als Polaris/Vega IPC + Raytracing bekommen werden. DG2-512 quasi als Vega64 auf Steroiden (+50% takt). Wahrscheinlich etwas Bandbreiteneffizienter dank der großen caches. Trotz der neuen, hohen Taktraten bei DG2 könnte das knapp werden gegen GA104 und Navi22. Hoffen wir mal dass sich mehr an der µarch getan hat als nur Takt, RT und SI.



A350M mit ebenfalls 96 EUs macht im Galaxy Book2 Pro 3200 Punkte in timespy, also gut 80% schneller als die Gunnir V2.

davidzo
2022-05-05, 11:31:54
A350M mit ebenfalls 96 EUs macht im Galaxy Book2 Pro 3200 Punkte in timespy, also gut 80% schneller als die Gunnir V2.

Das könnte aber auch wieder lediglich das Bandbreitenlimit abbilden, denn die A350 hat immerhin 112gb/s, genau wie RX550 und RX560.
Taktraten sind in etwa vergleichbar, aber die Bandbreite der A350 ist 64% höher als die Gunnir V2 mit nur LPDDR4. Und das Powerlimit ist durch TSMCs N6 wohl auch aufgehoben.

DG2 hat auch einfach das bessere Cachesystem:
DG1: 64kb L1/tex + SLM(?), 3,75mb L3
DG2: 192kb L1/tex/SLM, 4mb L2

Der größte Unterschied ist wohl dass der L2 weitaus schneller ist als der L3 von DG1. Ein Bandbreitenlimit, mit dem alle vorherigen Intel Gen9-11 und XE Architekturen zu kämpfen hatten sollte somit deutlich seltener anliegen.

Aber 3200 in Timespy ist in der Tat ein sehr akzeptabler Vorsprung gegenüber Polariskarten mit ähnlicher Rohleistung und Bandbreite wie der RX550 (1300) und RX560 (2000). Allerdings ist letztere auch wieder bandbreitenlimitiert, sonst wäre sie doppelt so schnell wie die 550. GCN war ja bis auf die HMB Modelle durch die Bank Bandbreitenlimitiert.


Allerdings lässt sich für Timespy sehr geinfach optimieren. Intel ist dort schon immer gut gewesen, was sich aber traditionell nicht auf die Performance in Spielen übertragen lässt.

ryan
2022-05-05, 16:09:49
Our friends in Taiwan told us that Intel held a call for some of its supply chain members a week ago and revealed some final details about its upcoming ARC launch.


The initial launch will consist of the A750 and the A580, followed by the A380 a few weeks later. The A780 flagship will not be launching in the first salvo.

Intel ARC Graphics Ready For Showtime: A750, A580 and A380 GPU Sales Embargo, MSRP and Positioning
(https://wccftech.com/intel-arc-graphics-ready-for-showtime-a750-a580-and-a380-gpu-sales-embargo-msrp-and-positioning/)

Lehdro
2022-05-06, 14:36:25
Genau mein Humor: Noch nicht einmal richtig mit der Hardware im Markt aber die "Optimierungen" (sprich: Benchmarkcheats) stehen schon bereit. Natürlich immer noch nicht abschaltbar, trotz anderer Versprechungen.

Quelle: Computerbase (https://www.computerbase.de/2022-05/intel-arc-grafiktreiber-nicht-fertig/)

Platos
2022-05-07, 01:02:57
Ja krass, wie armselig ist das denn bitte ? Jetzt bescheisst Intel auch noch, indem sie knallhart den Leistungszustand im Auslieferungszustand verfälscht.

Das ist ja eine absolute Kapitulation. Gleicht einem "wir können nix, müssen daher fälschen was das Zeug hält".

ryan
2022-05-07, 02:35:18
Ja krass, wie armselig ist das denn bitte ? Jetzt bescheisst Intel auch noch, indem sie knallhart den Leistungszustand im Auslieferungszustand verfälscht.

Das ist ja eine absolute Kapitulation. Gleicht einem "wir können nix, müssen daher fälschen was das Zeug hält".


AMD und Nvidia optimieren also nicht? Kannst du das belegen? Das würde ich überraschend finden. Ich würde sogar so weit gehen und behaupten, es wäre blauäugig zu glauben, AMD und Nvidia würden in Benchmarks nicht versuchen mehr Leistung rauzukitzeln (solange es keinerlei optische Einbußen gibt)

Absolute Kapitulation und verfälschen was das Zeug hält, kannst du das näher ausführen? Und wo bescheißen sie denn jetzt konkret?

Intel ist sogar noch so transparent es zuzugeben und einen Optimierungsschalter in den Treiber einzubauen. Ob der nun Ende April oder Ende Mai kommt, who cares? Die Karten sind eh noch nicht kaufbar. Insofern finde ich deinen Beitrag arg daneben, oder um es mit deiner Wortwahl auszudrücken richtig krass daneben.


Hersteller Benchmarks sollte man sowieso immer mit Vorsicht betrachten, siehe AMD und Rembrandt TDP Beschiss. Das kann immer cherry picking sein. Die Desktop Karten werden von unabhängigen Testern getestet, was wollen sie denn da verfälschen? Das ist bei mobilen GPUs nicht so einfach, weil das immer stark abhängig von der jeweiligen OEM Implementierung ist und ein Notebook schwerer zu bekommen ist als eine einzelne Grafikkarte, jedoch gab es in Intels Slides zur A370M keinen 3dmark.

aufkrawall
2022-05-07, 02:49:19
Der Arc-Treiber soll so hart mogeln, dass 3DMark bzw. dessen Entwickler die Ergebnisse deshalb als ungültig deklariert. Und das ist definitiv bei AMD & Nvidia nicht so. Intel haben da zudem ihre eigene Deadline für das Treiber-Release mit dem Toggle dafür gerissen.
Man muss auch kein Prophet sein, um noch für Monate, wenn nicht Jahre üble Ausfälle in realen Spielen bei Performance oder Grafikfehlern zu erwarten. Das sind Karten für Miner oder OEM-Deals, wo alles egal ist. Lässt leider auch übles ahnen für Intels zukünftige Karten. War wohl nix mit Ende des Duopols...

ryan
2022-05-07, 03:05:28
Man muss auch kein Prophet sein, um noch für Monate, wenn nicht Jahre üble Ausfälle in realen Spielen bei Performance oder Grafikfehlern zu erwarten. Das sind Karten für Miner oder OEM-Deals, wo alles egal ist. Lässt leider auch übles ahnen für Intels zukünftige Karten. War wohl nix mit Ende des Duopols...


Das sind wieder nur Mutmaßungen und Behauptungen. Viel Substanz steckt da nicht drin wenn man mal ehrlich ist. Und auf Jahre irgendwas vorherzusagen kann man sowieso nicht, weder bei der Hardware noch bei den Treibern. Vor Jahren hat auch keiner glauben können, dass Intel überhaupt mal in den dGPU Markt einsteigen könnte.

Im übrigen müssen sich nicht nur die Treiber verbessern, sondern auch der Entwicklersupport. Nicht immer sind Grafikfehler dem Treiber geschuldet. Entwicklersupport fängt schon bei der Entwicklung vom Spiel an, lange vor dem release.

Nüchtern betrachtet muss man erstmal den Desktop release abwarten mitsamt der ersten Erfahrungstests und erst dann wird man sehen, wie es wirklich aussieht.

Es scheint ja auch so zu sein, als könnte man doch nicht einfach die iGPU als Maßstab nehmen und alles auf Arc übertragen, was derzeit Probleme macht. Das wurde vorher anders dargestellt, aber ja behaupten kann man immer viel wenn der Tag lang ist.

Fusion_Power
2022-05-07, 03:11:12
Sollte Intels langjährige Erfahrung im Bereich integrierte Grafik nicht längst ausreichen um auch treibertechnisch bei dedizierter Grafik was zu reißen? Die Xe iGPUs waren doch schon mal ein großer Schritt nach vorn. Und die dedizierten Karten basieren ja darauf.

ryan
2022-05-07, 03:34:45
Sollte Intels langjährige Erfahrung im Bereich integrierte Grafik nicht längst ausreichen um auch treibertechnisch bei dedizierter Grafik was zu reißen? Die Xe iGPUs waren doch schon mal ein großer Schritt nach vorn. Und die dedizierten Karten basieren ja darauf.


Ja und Nein. Ohne dGPUs kein Entwicklersupport und ohne dGPUs keine große Investition in "gaming Treiber" und dergleichen. Würde es XeSS ohne dGPU geben, wohl kaum.

Xe LP ist auch nicht Xe HPG, selbst wenn Xe HPG darauf basiert. Sonst hätte es keinen dedizierten Treiber für die A370M gebraucht, die hätten ja sonst einfach Arc mit den iGPU Treibern releasen können. Der unified Treiber kommt erst noch, wobei die Treiber files im Treiber package trotzdem noch dediziert sein könnten.

KarlKastor
2022-05-07, 07:29:19
Ja krass, wie armselig ist das denn bitte ? Jetzt bescheisst Intel auch noch, indem sie knallhart den Leistungszustand im Auslieferungszustand verfälscht.

Die Karten sind schon im Handel? Oder wo soll der Beschiss sein?
Ich würde meinen Karten auch nicht durch nicht finale Treiber im vorhinein besonders schlecht darstellen.
Die Entrüstung kann man sich für den Launch aufheben, alles was davor inoffiziell durchsickert ist völlig unerheblich.

Linmoum
2022-05-07, 09:15:13
Natürlich sind die Mobile-Karten schon offiziell gelauncht. Nur, weil sie in Deutschland noch nicht verfügbar sind, heißt das nicht, dass das auch auf den Rest der Welt zutrifft. Da ist nichts inoffiziell oder vor dem Launch.

Im Übrigen hat Intel selbst versprochen, einen entsprechenden Treiber bis Ende April nachzuliefern. Software scheint sie wohl jetzt schon zu überfordern, dass sie sowas simples nicht hinkriegen...

aufkrawall
2022-05-07, 15:36:42
Im übrigen müssen sich nicht nur die Treiber verbessern, sondern auch der Entwicklersupport. Nicht immer sind Grafikfehler dem Treiber geschuldet. Entwicklersupport fängt schon bei der Entwicklung vom Spiel an, lange vor dem release.

Faktisch läuft ~alles mit Mesa, obwohl es ~kein Entwickler gezielt "unterstützt". Die Ausrede ist nun echt alt und passt nicht mehr ganz in die Zeit...
Zu den anderen Punkten kannst du auch einfach die Medien lesen. Alles falsch und nur 3DC-ryan hat den Überblick? :confused:

ryan
2022-05-07, 16:49:39
Natürlich sind die Mobile-Karten schon offiziell gelauncht. Nur, weil sie in Deutschland noch nicht verfügbar sind, heißt das nicht, dass das auch auf den Rest der Welt zutrifft. Da ist nichts inoffiziell oder vor dem Launch.

Im Übrigen hat Intel selbst versprochen, einen entsprechenden Treiber bis Ende April nachzuliefern. Software scheint sie wohl jetzt schon zu überfordern, dass sie sowas simples nicht hinkriegen...


Und wo ist das Problem jetzt konkret? Meinst du der Koreaner fühlt sich betrogen, weil im 3dmark Optimierungen eingeschaltet sind? Wer sich GPUs anhand 3dmark Resultate kauft, ist ohnehin selber Schuld. Und nochmals, von Intel selber gab es keinerlei 3dmark Resultate.

Der letzte Satz ist dann leider auch Trollerei, als wenn fähige Treiberprogrammierer auf Bäumen wachsen. Aber Ok das ist bei dir ja nichts Neues. Wo immer du gegen Intel schießen kannst, bist du zur Stelle. Sonst sieht man dich in Diskussionen nie. So eine Welle wird meist von Anhängern anderer Hersteller gemacht, die wahrscheinlich selber erstens nie eine Intel GPU kaufen würden und zweitens selber keine Erfahrungen haben. Das trifft sicherlich auch auf dich zu.



Faktisch läuft ~alles mit Mesa, obwohl es ~kein Entwickler gezielt "unterstützt". Die Ausrede ist nun echt alt und passt nicht mehr ganz in die Zeit...
Zu den anderen Punkten kannst du auch einfach die Medien lesen. Alles falsch und nur 3DC-ryan hat den Überblick? :confused:


Du hast alles auf Mesa getestet? Respekt! Mesa ist aber nicht Windows mit der zigfachen Spieleauswahl. Und nein es ist keine Ausrede. Oder willst du wirklich verleugnen das es ein Vorteil ist, wenn ein Spielentwickler während der Entwicklung feststellende Grafikprobleme schon weit vorm release Nvidia/AMD übermitteln kann? Oder bei einem Engine Problem das Problem selber beheben kann weit vorm release? Du meinst, das wäre kein Vorteil? Halo Infinite (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12945926#post12945926) war so ein prominentes Beispiel.

Warum hat der Spielentwickler das Problem erst Monate nach dem release behoben? Weil der Spielentwickler nicht auf einer Intel iGPU testet, weil Intel im Markt mit einer richtigen Spiele GPU nicht vertreten ist, also hat es für ihn keine Relevanz gehabt. Das ist keine Ausrede, sondern eine nüchterne Feststellung. Die Beiträge von Skysnake könnten für dich auch interessant sein, denk mal drüber nach.

Es streitet doch keiner aber, dass Intel Nachholbedarf hat. Entwickler Support aber als unnütz hinzustellen, ist mehr als befremdlich und zeigt, dass einige zu emotional sind. Wie gesagt, einfach mal abwarten, was wirklich rauskommt. Dass der Ende April Treiber mit dem Optimierungsschalter jetzt etwas später kommt, ist jedenfalls überhaupt nicht entscheidend.

aufkrawall
2022-05-07, 18:00:22
Du hast alles auf Mesa getestet? Respekt!

Ja, ich bin ein konstruktives Individuum.



Mesa ist aber nicht Windows mit der zigfachen Spieleauswahl.

So viel größer ist die auch nicht mehr und an RADV arbeiten eine handvoll Leute. Intel ist arschriesig und sollte für ihre Windows-Treiber das zigfache an personellen Ressourcen aufwenden können. Das Ergebnis dafür ist bislang einfach nur todtraurig.



Entwickler Support aber als unnütz hinzustellen
Das hast du mir jetzt in den Mund gelegt, nicht sonderlich integer. Selbst wenn der Effekt so groß wäre, wie du darzustellen versuchst, wär es trotzdem grottenschlecht. Das Bild, was Intel bislang angibt, ist sicherlich keine Motivation für Entwickler, Überstunden für Intel-GPUs zu schieben. :cool:

ryan
2022-05-07, 21:02:44
Das hast du mir jetzt in den Mund gelegt, nicht sonderlich integer. Selbst wenn der Effekt so groß wäre, wie du darzustellen versuchst, wär es trotzdem grottenschlecht. Das Bild, was Intel bislang angibt, ist sicherlich keine Motivation für Entwickler, Überstunden für Intel-GPUs zu schieben. :cool:


Entwickler Support als Ausrede runterszuspielen soll integer sein? Das ist schon wieder substanzloses Gerede von dir. Bleib doch mal sachlich.

Es hat noch nie eine Motivation gegeben für größere Titel, weil Intel keine Spiele GPU im Markt hat, die Frage stellt sich gar nicht erst. Höchstens für Mainstream Spiele mit geringen Anforderungen, wo iGPUs gut dabei sind und Entwickler die große install base von Intel iGPUs mitnehmen können. Das sind dann aber auch Spiele, die in der Regel weniger Probleme bereitet haben.

Dass das zukünftig anders aussieht oder aussehen kann, sieht man schon an der XeSS Ankündigung einiger Studios. Das wäre nur mit einer iGPU im Portfolio undenkbar. Als kleiner Nebeneffekt profitieren zukünftige iGPUs von Intels dGPU.

aufkrawall
2022-05-07, 21:25:45
Entwickler Support als Ausrede runterszuspielen soll integer sein? Das ist schon wieder substanzloses Gerede von dir. Bleib doch mal sachlich.

Du hast mir unterstellt, dass ich Entwickler-Support für unnütz halte. Denk dir doch einfach keinen Bullshit aus?

Unicous
2022-05-08, 00:03:10
Interessant. Als AMDs Treiber zum Teil extrem schrottige Ergebnisse ablieferte, hat man den fehlenden (direkten) Entwickler-Support nicht als Ausrede durchgehen lassen, bei Intel ist es jetzt ein legitimes Argument.:confused:

Fakt ist, dass Intel auch eine riesige Softwareschmiede ist, die Chips seit Ewigkeiten von Intel in house getestet werden (und es auch vereinzelte Kooperationen gab/gibt die aber so scheint es auch nur exklusive PR-Features sind um der Konkurrenz etwas im Optionsmenü entgegensetzen zu können), es seit Jahren iGPUs gibt die auf einer grundlegend ähnlichen Architektur basieren (also im Gegensatz zu AMD keine Sprünge von VLIW4/5 auf GCN und dann RDNA) und Intel es dennoch nicht hinbekommt ihren großen Worten Taten folgen zu lassen.

Das sollte der große Befreiungsschlag sein, nachdem man Intel GPU-seitig jahrelang belächelt hat. Wieder einmal hinkt man den hochtrabenden PR-Versprechen der letzten Jahre hinterher. Zusammen mit der unsäglichen und völlig unnötigen Salamitaktik die Intel betreibt, wirft das ein extrem schlechtes Omen auf diese Generation. Kaum Volumen, vermutlich deswegen ein Release der sich nicht nur um Monate verspätet sondern auch monatelang hinzieht. Softwareseitig hat man einen Haufen mit tollen Features bemalt um darüber hinwegzutäuschen, dass man noch lange nicht da ist wo man sein sollte. Das ist kein Triumphzug, das ist fast schon im Bereich eines Cannonlake-Release mit mehr als einer angekündigten SKU und zumindest funktioniert die GPU.:freak:

Locuza
2022-05-08, 00:37:35
Xe LP/Gen12 kann man schon als größeren Umbruch betrachten.
Anstatt zwei SIMD4-Units gibt es eine SIMD8-Unit und Extended Math Pipes hängen an einem dedizierten Issue port.
Zwei EUs teilen sich die Thread-Control-Unit und zusätzlich verwendet man jetzt SW scoreboarding und nicht mehr eine Hardwarelösung.
Async Compute wird auch erstmals mit neuer Hardware unterstützt (CCS=Compute Command Streamer).
Das Memory-Subsystem wurde auch umgebaut.
Darüber hinaus hat man für >=Xe LP einen neuen DX11-Treiber geschrieben.

Allgemein muss sich Intel auch zum ersten male mit dedizierten VRAM herumschlagen, was ein anderes Speichermanagement als bei den UMA-Chips erfordert.
Möchte man dann allgemein relativ gut dastehen und konkurrenzfähig sein, kommt extrem viel zusammen.
Offensichtlich zuviel für Intels ursprünglichen Zielsetzungen.

Vorerst empfinde ich es nicht als dramatisch, erst wenn man auf lange Sicht keinen Anschluss findet.
Mit dem neuen DX11 Treiber Monza, neuer Treiber-UI und Settings, XeSS, den starken Architekturumbrüchen und Entwicklungen, wie Xe LP/DG1, DG2/Ponte Vecchio, etc., hat Intel in den letzten Jahren schon sehr viel auf die Beine gestellt, was es teilweise davor gar nicht gab.
Alles mit ein paar harten Kanten, aber wenn das mal weg ist, wird es hoffentlich was.

davidzo
2022-05-08, 02:08:50
AMD und Nvidia optimieren also nicht? Kannst du das belegen?

Es sind halt die Art von "Optimierungen" welche die Darstellungsqualität spürbar beeinflussen. Das ist aber nicht Sinn eines Benchmarks, weil auflösung und qualität runterschrauben kann man ja selber, da braucht es kein automatisch aktiviertes treiberprofil.

Solche "Optimierungen" sind auch kein Zeichen von zu wenigen Entwicklern, zu wenig Zeit, sondern von falschen Prioritäten.
"Genosse Gelsinger hat gesagt wir brauchen X Punkte im 3Dmark." Also wird alles so gebaut dass die Ziele und Deadline passt, also lieber an Benchmarkcheats geschraubt anstatt eines generell funktionalen Treibers. Am Ende fehlts halt woanders.

Schade, Intel reiht sich da in eine unwürdige Reihe mit Geforce FX, XGI Volari, und Radeon 8500 (AF, bilinear/trilinear) ein.

Unicous
2022-05-08, 02:09:29
Meiner Meinung nach sind das eher schwache Argumente. Ja, die Architektur ist nicht automatisch vergleichbar mit den iGPUs, das haben dedizierte GPUs so an sich.:wink:
Darüber hinaus hat Intel auch schon gewisse Erfahrung mit einem "VRAM" der außerhalb der CPU liegt auch wenn es traditionell eher als ein Cache bezeichnet wurde.

In gewisser Hinsicht hätte man auch schon Erfahrung mit Kabylake sammeln können, aber das Projekt hat man ja kurz nachdem die Tinte unter dem Vertrag mit AMD getrocknet war schon abgeschossen und dann den Treibersupport, der von AMD kam, eingestellt.

Es geht nicht darum, dass Intel auf lange Sicht es nicht hinbekommt einen vernünftigen Treiber auf die Beine zu stellen. Es geht vor Allem um die vollmundigen aber im Endeffekt leeren Versprechungen die man jetzt seit vielen Jahren in die Welt telegrafiert und das verpufft alles im Nichts.

Das Duopol will man sprengen, aber die erste Generation verspätet sich mehrfach. Man will die vom bösen Markt geknechteten Gamer entlasten und günstige und konkurrenzfähige GPUs liefern, am Ende sind es aber wenn alles klappt nur ein paar Millionen fürs gesamte Jahr 2022 und wir bewegen uns langsam schon auf die zweite Jahreshälfte zu.
Es ist also ein Paradebeispiel von too little too late insbesondere wenn man bedenkt, dass es zum Ende des Jahres aller Voraussicht nach neue Chips von AMD und Nvidia gibt und es dann nicht klüger wäre eine günstigere "Duopol"-Karte zu kaufen. Es sieht auch mMn derzeit nicht danach aus, als würde Intel ein überragendes und unschlagbares P/L-Verhältnis bieten, sondern eher das alte "Ich unterbiete den Laden auf der anderen Straßenseite um einen Taler"-Spiel spielen. (Ein Gewinnspiel seitens Intel hat ja unlängst einen Hinweis auf die Preisgestaltung bezüglich der High End SKUs fallen gelassen, für wie voll man das nimmt ist jedem selbst überlassen. :uponder:)

Ein Marktbeben wie Intels Marketing über die letzten Jahre und vor allem 2021 heraufbeschwört hat wird es nicht geben und genau das ist das Problem.
Intel overhyped und underdelivered seit vielen Jahren und bei der ersten Arc-Generation sehe ich keine Trendwende.

Und Intel hier den benefit of the doubt als "Markteinsteiger" zu geben ist, mit Verlaub, an Naivität nicht mehr zu übertreffen. Diese großmütterliche Nachsicht hat Intel als führendes Halbleiterunternehmen nicht verdient und auch nicht nötig.;)
Insbesondere wenn man sich anschaut, dass Intel gerne gegen die Konkurrenz austeilt und auch ehemalige Partner wie z.B. Apple.

Intel hat über die letzten Jahre durch die Presse und diverse Foren einen hype aufgebaut dem sie aller Voraussicht nach nicht gerecht werden, die Verzögerungen und Treiberproblem tun hier ihr Übriges.

Hier mit einem wohlwollenden "Das wird schon irgendwann" drüberzuwischen ist meiner Meinung nach unangebracht und geschichtsklitternd.

edit:
Dazu auch noch ein Artikel vom letzten Jahr, bevor (iirc) die Gerüchte um eine Verzögerung hoch kamen.

https://www.pcworld.com/article/395005/what-intel-has-to-do-to-make-its-arc-gaming-gpu-a-win.html

The most important thing to gamers right now isn’t how fast your new GPU is—it’s about being able to buy one. In a world where people pay MSRP for a five-year-old used graphics card, being able to buy an Arc GPU is enough to make it a raging success. So yes Intel, just ship it, and ship it on time, to win.

I’m actually sad Arc won’t ship this holiday—we have to wait until Q1 of 2022. It doesn’t look like the GPU supply will improve by then, but six months is a long time. God forbid Arc gets delayed any further, giving Nvidia and AMD more time to build up supplies. If by March, you have a choice between AMD, Intel, or Nvidia GPUs, the conversation will go back to performance, performance, performance—not just having a pulse.

The fact that people will pay above MSRP for used graphics cards might tempt Intel to price it for “what the market will bear.” If the GPU drought is still bad in early 2022, then yes, charging the price of a GeForce RTX 3070 for the first Arc will likely mean the cards will still sell—and likely sell out. But that doesn’t build brand loyalty nor excitement.

Intel has long had to deal with Nvidia and AMD disrupting its key businesses, so why not take the time to play a little payback and finally screw up their game? That means taking a slight loss or less profit on the cards to win the optics war of looking like Intel GPUs are the PC gamer’s best friend. Danach sieht es momentan leider nicht aus. (Intel kann mich eines Besseren belehren, ich zweifel aber an ihrem Willen wirklich den Markt zu "sprengen".)

Intel actually has a long driver history with gamers—it’s just never been a good history. Having a reputation for reliable, high-performance drivers that fix bugs immediately, not three months from now, is as important as the hardware itself. Money quote.

If Alchemist ships as a winning story early next year—don’t get off the gas. Nvidia and AMD execute on new GPUs with the reliability of a Casio G-Shock sports watch. With a new competitor, both will likely step it up even more so.

The execution of Battlemage, Celestial, and Druid will matter as well. Gamers will see slipped launches as failure.

Solange Intel nicht allzu viel guten Willen mit Alchemist verspielt hat, und meiner Meinung nach sieht es medial durch die vielen Hiobsbotschaften/Verschleierungstaktiken der letzten Monate düster aus, muss Intel bei den künftigen Generationen viel mehr ranklotzen um die Kohlen wieder aus dem Feuer zu holen. Durch die vielen delays wurde ein großer Teil des Momentums verloren und wie gesagt durch die Salamitaktik und damit verbundene Unehrlichkeit hat man viel Wohlwollen eingebüßt.

ChaosTM
2022-05-08, 02:43:09
Kurzform der Textwand - Pat the Gelsinger from Intel blufft wieder mal, wie schon so oft, und er hat weniger in der Hand als er uns glauben machen will.

Soll heißen - ich hab keine Ahnung, aber ich hoffe dennoch, dass Intel das Duopol mittelfristig sprengen kann, aber die Hoffnung sinkt..

KarlKastor
2022-05-08, 02:51:00
Na gut, aber wer hat das denn bei der ersten Generation geglaubt?
Die Verzögerungen sind natürlich wenig hilfreich, da sie dann gegen die neue Generation antreten. Da sind sie dann komplett chancenlos. Außer in Notebooks wird dann nichts verkauft.
Intel muss hier einen langen Atem haben und ordentlich Geld reinpumpen. Das wird kein kurzer Sprint.

Locuza
2022-05-08, 03:24:41
@Unicous

Kommt darauf an wie man die genannten Punkte einsortiert, du spazierst etwas zu weit mit ihnen. ;)
Das waren keine Argumente, um DG2 explizit zu verteidigen.
Es ist klar das man die Zeitpläne nicht eingehalten hat und Alchemist keine Perle wird, angesichts dessen das bald Ada und RDNA3 erscheinen.
Persönlich ist mir das egal, da ich so oder so an der Technik von allen interessiert bin, keine Intel-Aktien halte und auch nicht auf die Befreiung "meiner" Sklavenschaft durch einen Dritten warte.

Bei jeder Marketingabteilung würde ich mir wünschen, dass mehr Ehrlichkeit dahinter stecken würde und die, zusammen mit den Leuten die das letztendlich absegnen, verdient natürlich auch entsprechende Kritik.
Wobei es da teilweise manchmal schwer einzuschätzen ist, woran es letztendlich lag.
Manchmal verspricht auch eine Ingenieursabteilung, dass alles gut wird zum Zeitpunkt X und dass man schon vollmundig verkünden kann, dass der Messias kommt.

Von meiner Seite ist die Einordnung auch keine liebevolle Nachsicht, sondern einfach was real vor sich abgeht.
Vor mehreren Jahren ist mir irgendwann der Geduldsfaden mit AMDs Kommunikation gerissen, als es für ein halbes Jahrzehnt zu große Versprechungen gab.
Klar, anders als Intel saß AMD damals tief im finanziellen Dreck, eine realistische Einschätzung und Ankündigung ist dennoch immer angebracht.
AMD zeigt, dass man jahrelang verkacken kann und später dennoch fett absahnen, wenn man gute Produkte liefert.

Mit Battlemage wird es auch keinen fulminanten Befreiungsschlag geben, aber einen progressiven Schritt nachdem anderem.
Intel wird sich da vermutlich wohl oder übel durchbeißen, die GPU IP werden Sie "immer" weiter entwickeln und anders als bei Xeon Phi scheint es eine klare Perspektive zu geben.

ChaosTM
2022-05-08, 03:36:01
SOCs, eventuell/optional gepaart mit externen Grafikkarten scheinen die Zukunft zu sein und Intel will nicht komplett von AMD abgehängt werden. Daher geht eine Menge Geld in die Entwicklung von GPUs.
Nvidia versucht ähnliches, nur von der anderen Seite her kommend.

Die Zeit der fetten Grafikkarten wird früher oder später zu Ende gehen.
Die Apple und AMD SOCs, allen voran die viel verschmähten Konsolen und das Steam Deck sind ein Vorbote dessen was kommt, bzw kommen muss.

500 Watt Grafikkarten sind die modernen Dinosaurier.
Sie werden noch ein paar Jahre leben, aber ihr Schicksal ist vorprogrammiert.

=Floi=
2022-05-08, 08:59:00
Fakt ist, dass Intel auch eine riesige Softwareschmiede ist,


Schön wäre es, wenn dort auch für den consumer etwas bei rumkommen würde. Pro quartal 100mio wären kein ding für intel und über die jahre würde da bei viel rumkommen. Früher hätte man man dort software auf 4 cores optimieren können und heute auf multicore.
Daran krankt es bis heute noch immer oft und intel ist es im grunde egal, obwohl das ein key feature von den X64 cpus sein könnte. Egal ob AMD oder Intel davon profitieren würde. Es würde die platform supporten und stärken.
Die igpu ist aussserhalb vom desktop und YT noch immer grottig. Man denkt wow, endlich viel mehr leistung und laufen tut dann nichts wirklich gut damit. Googlet mal im bezug dazu den landwirtschaftssimulator.


Na gut, aber wer hat das denn bei der ersten Generation geglaubt?

ein leeres blatt papier und neue patente über abkommen hätten sehr viel potential gehabt. Gerade wenn man bei null anfangen kann, und man bei 2020 einsteigen kann mit all den neuen erklenntnissen und methoden aktueller GPUs.

HOT
2022-05-08, 09:37:18
Bei Intel bin ich mittlerweile sehr sehr skeptisch, was die überhaupt noch auf die Reihe kriegen. Bei GPUs wird immerhin der massive Geldeinsatz noch etwas helfen, ich könnt mir vorstellen, dass man für Battlemage N3 verwenden möchte, was ein Fertigungsvorteil wäre, aber das wird natürlich nicht reichen für die neue Generation des Duopols. Immerhin wird man aber halbwegs (mit Preisabschlag) konkurrenzfähig sein mMn, auch wenn mMn jetzt schon klar ist, dass man von BM bis Ende 2023 wenig sehen wird.
Aber ich denke, wir werden bei den CPUs noch die ein oder andere negative Überraschung erleben, denn ich denke, dass mit Arrow Lake wieder mal was verschoben werden muss, weil die Pläne mal wieder viel zu ehrgeizig waren und eine Zwischengeneration nach Meteor Lake eingeschoben wird, ich sehs schon kommen... und ich hoffe, dass es dann dabei bleiben wird. Dass Arrow Lake nicht 24 erscheinen wird, sollte jedem realistisch denkenden Beobachter sonnenklar sein. Gleiches gilt für Celestral.

Der eigentliche Plan ist einfach: Irgendwie durchhalten, bis man Royal Core möglichst auf 18A bringen kann. Alles bis dahin ist mMn sehr flexibel und dient nur dazu dieses Ziel zu erreichen. Die GPUs sind halt notwendiges Übel um weiterhin alles aus einer Hand liefern zu können.

DavChrFen
2022-05-08, 19:54:33
Im HPC Markt ist Intel ja nun konkurrenzfähig. Das war bei den ersten HPC-Produkten nicht so. Ich denke ähnlich wird es mit der GPU-Sparte gehen.
Ich denke/ hoffe, das die erste Xe-Generation dafür genutzt wird Erfahrung zu sammeln und dann die nächsten Generationen davon profitieren können. Hoffe ich jedenfalls.

aufkrawall
2022-05-09, 02:05:22
Ich bin auch auf 720p-Benchmarks gespannt. Eigentlich rechne ich fest mit einigen CPU-Overhead-Leichen bei mindestens einer API. Wär heftig, wenn der extra neu geschriebene D3D11-Treiber sich hierbei als Müll entpuppt. :freak:
Wenn man es nicht kann, richtet es auch ein Neuschreiben nicht. Zumindest scheint AMD das so zu sehen. :freak:

Rabiata
2022-05-09, 11:26:05
Faktisch läuft ~alles mit Mesa, obwohl es ~kein Entwickler gezielt "unterstützt". Die Ausrede ist nun echt alt und passt nicht mehr ganz in die Zeit...
Zu den anderen Punkten kannst du auch einfach die Medien lesen. Alles falsch und nur 3DC-ryan hat den Überblick? :confused:
Da gibt es den kleinen Unterschied zwischen "API (z.B. Vulkan) sauber unterstützen" und "zusätzlich spezielle Optimierungen für Spiele, bei denen die Entwickler das Optimieren nicht selbst hin bekommen haben".
Letzteres ist in den "Game Ready" Treibern, deshalb haben die Installer auch mehrere hundert Megabytes...

Intel hatte in Tests bisher sehr gemischte Ergebnisse, was die Performance im Vergleich zu AMD und Nvidia angeht. Könnte ein Mangel an "Game Ready" Treibern sein, oder auch generell schwache Treiberprogrammierung. Oder beides.

aufkrawall
2022-05-09, 14:21:07
Da gibt es den kleinen Unterschied zwischen "API (z.B. Vulkan) sauber unterstützen" und "zusätzlich spezielle Optimierungen für Spiele, bei denen die Entwickler das Optimieren nicht selbst hin bekommen haben".

So spezifisch sind diese Optimierungen nicht (und auch nicht so riesig beim Anteil der Dateigrößen). Gab von CB ja auch einen Test, dass du bei Nvidia auch mit altem Treiber fast keine Leistung verlierst. Mit AMDs Windows-Treiber scheint das nötiger zu sein, jüngst etwa wieder bei Tiny Tina Wonderlands mit D3D12.

mocad_tom
2022-05-09, 17:30:09
PCWorld mit ersten Tests eines Intel Arc 370M-Laptops


https://www.pcworld.com/article/698534/tested-intels-arc-a370m-laptops-already-compete-with-nvidia-and-amd.html

StevenB
2022-05-09, 17:34:52
Sieht doch gar nicht so schlecht aus, Mal schauen wie sich das größere Paket schlägt und was Intel noch aus den Treiber rausholt.

Unicous
2022-05-09, 17:48:05
Sehe ich das richtig? PCWorld war bei Intel und durfte auf einem Referenz-Laptop Benchmarks ablaufen lassen und hat dann Ergebnisse von eigenen Laptop-Tests zum Vergleich genommen?:freak:

Die genauen Specs wurden auch nicht abgebildet also gibt es keinerlei Möglichkeit das einzuordnen. Embedded journalism at its finest.:rolleyes:

Loeschzwerg
2022-05-09, 18:04:45
Speicher Latenz von DG1 und Xe IGP, gemessen mit dem Mem Latency Benchmark:
79267 (Gunnir DG1 @1650MHz)
79268 (1165G7 Xe IGP @ 1300MHz)
79269 (Xe MAX im Swift3X @ 1650MHz)

Hier auch noch der 3DMark PCI Express Feature Test:
79270 (Gunnir)
79271 (Swift3X)

Von PCIe 4.0 x8 merkt man bei der Gunnir wenig...

davidzo
2022-05-09, 21:17:42
PCWorld mit ersten Tests eines Intel Arc 370M-Laptops


https://www.pcworld.com/article/698534/tested-intels-arc-a370m-laptops-already-compete-with-nvidia-and-amd.html

3x Leistung gegenüber der Iris mit 96EU sieht nicht übel aus. Ich hätte von +33% Einheiten und + 80% Bandbeite sowie etwas mehr Takt nicht mehr als die zweifache Leistung erwartet, also +100%.

Und GA107 Leistung wäre auch nicht schlecht. Vielleicht hat AMD ja wirklich Grund zur Propaganda, wie etwa zu behaupten die RX6500m wäre 40% schneller in bestimmten games. Würde sie nicht in derselben Leistungsklasse wie GA107 und Navi24 liegen, dann gäbe es keinen grund sowas vorab zu veröffentlichen.

basix
2022-05-09, 23:37:55
Hmm, anhand dieser Zahlen (A370M = RTX 3050 Mobile) und auf 32 EU sowie Desktop extrapoliert, wäre die grosse DG2 evtl. in Richtung RTX 3080 unterwegs. Oder täusche ich mich da?

RTX 3050M = 2048 FP32
RTX 3080 = 8704 FP32 -> 4.25x

A370M = 128 EU
A780 = 512 EU -> 4.0x

Und A780 soll laut Gerüchten mit ~2.2 GHz kommen, was so 5.0...5.5x Rohleistung der A370M entspräche. Speicherbandbreite etc. sollte bei 256bit vs. 64bit sowie höherem Speichertakt auch passen.

robbitop
2022-05-10, 07:50:11
Hast du bei der Skalierung die Skalierungsineffizienz berücksichtigt? RDNA2 zB skaliert nur in etwas mit 0,7 der Anzahl der CUs. Einen ähnlichen Faktor würde ich auch erstmal für Intel annehmen

davidzo
2022-05-10, 11:09:50
Xe LP/Gen12 kann man schon als größeren Umbruch betrachten.
Anstatt zwei SIMD4-Units gibt es eine SIMD8-Unit und Extended Math Pipes hängen an einem dedizierten Issue port.
Zwei EUs teilen sich die Thread-Control-Unit und zusätzlich verwendet man jetzt SW scoreboarding und nicht mehr eine Hardwarelösung.
Async Compute wird auch erstmals mit neuer Hardware unterstützt (CCS=Compute Command Streamer).

XE LP ist mittlerweile 2 Jahre alt und war davor schon sehr lange in Entwicklung (und 2020 bereits sehr verspätet).
Das sind alles keine neuen Änderungen von DG2, die sind in der Tigerlake IGP schon drin, ebenso in Rocketlake, Alderlake etc.
Das ist in den letzten 2 jahren Millionenfach ausgeliefert worden und sollte doch mittlerweile Treibermäßig funktionieren.



Aber ich denke, wir werden bei den CPUs noch die ein oder andere negative Überraschung erleben, denn ich denke, dass mit Arrow Lake wieder mal was verschoben werden muss, weil die Pläne mal wieder viel zu ehrgeizig waren und eine Zwischengeneration nach Meteor Lake eingeschoben wird, ich sehs schon kommen... und ich hoffe, dass es dann dabei bleiben wird. Dass Arrow Lake nicht 24 erscheinen wird, sollte jedem realistisch denkenden Beobachter sonnenklar sein.
Ach und das sagt deine Glaskugel dir alles?

Erstmal haben wir von Meteor lake bisher nur die mobile Version gesehen. Das mit dem powered on und so bezieht sich auf eine einzige Konfiguration an Chiplets. Arrowlake könnte dasselbe in grün sein nur für den Desktop, mit lediglich einem anderen CPU Tile, oder eine version von meteor lake mit einem 20A CPU Tile während der rest gleich bleibt.
Ich wüsste nicht wieso sich Arrow lake verschieben sollte und Meteor nicht. Diesmal scheint es keine handfesten Fertigungsschwierigkeiten Meteor zu geben und im Gegensatz zu AMD hat Intel keinen Engpass bei den Implementierungs- und Bring-up Teams. Das heißt man kann mehr parallel machen und muss nicht Projekte zurückstellen bis andere fertig sind. Die sind ziemlich disaggregated mittlerweile, dafür hat Pat gesorgt.


Hmm, anhand dieser Zahlen (A370M = RTX 3050 Mobile) und auf 32 EU sowie Desktop extrapoliert, wäre die grosse DG2 evtl. in Richtung RTX 3080 unterwegs. Oder täusche ich mich da?


Wäre schön. Aber Imo deutet der Umstand dass man Softwareprobleme hat, aber die kleinen und Mobilchips schon uneingeschränkt launchen kann eher darauf hin dass Intel sich ein paar handfeste Bottlenecks eingebaut hat.

Bei den kleinen Chips greifen die Bottlenecks wohl nicht. Wäre auch verwunderlich, schließlich ist der Sprung von den IGPs die Intel seit Generationen baut relativ gering.

Könnte gut sein das beim SW scoreboarding ein hartes CPUlimit anliegt oder der "Smart Cache" controller für den großen 16mb L2 macht nicht ganz was er soll und die GPU hängt im Bandbreitenlimit.

HOT
2022-05-10, 12:05:55
Meine Glaskugel ist ne Einschätzung, die speist sich aus den Ereignissen in den letzten 3 Jahren. Und wir sprechen uns dann in 24 wieder ;).

misterh
2022-05-10, 12:47:26
"Intel confirms desktop Arc will be China exclusive at launch"
https://videocardz.com/newz/intel-confirms-desktop-arc-will-be-china-exclusive-at-launch

mksn7
2022-05-10, 13:08:59
Könnte gut sein das beim SW scoreboarding ein hartes CPUlimit anliegt oder der "Smart Cache" controller für den großen 16mb L2 macht nicht ganz was er soll und die GPU hängt im Bandbreitenlimit.

Falls du mit "software scoreboarding" auf den quote von Locuza raus willst:


Zwei EUs teilen sich die Thread-Control-Unit und zusätzlich verwendet man jetzt SW scoreboarding und nicht mehr eine Hardwarelösung.


Ein CPU limit kann es dadurch nicht geben, die CPU ist da nirgendwo beteiligt! Egal ob software oder hardware score boarding. "Software scoreboarding" ist auch ein unpassendes Wort, "scheduling" wäre hier besser. "Software" bedeutet dass der compiler (der natürlich von der CPU ausgeführt wird, aber nur einmal, und viel früher) die Instruktionsabhängikeiten in den Instruktionen kodiert, und die Hardware dann strikt die vorgeschriebenen Wartezeiten einhält, also ohne scoreboard.

Mit "Hardware scoreboarding" dagegen gibt es ein scoreboard in hardware dass die Abhängigkeiten zur Ausführungszeit trackt und bei Bedarf wartet.

basix
2022-05-10, 14:34:49
Hast du bei der Skalierung die Skalierungsineffizienz berücksichtigt? RDNA2 zB skaliert nur in etwas mit 0,7 der Anzahl der CUs. Einen ähnlichen Faktor würde ich auch erstmal für Intel annehmen

Muss man bei dieser Betrachtung nicht direkt, da ich nur die Rohwerte bei gleichbleibender Architektur untereinander vergleiche.

Einzige Annahme ist, dass Ampere und Xe HPG ähnlich gegen oben skalieren. Auch Ampere skaliert nicht perfekt ;)

davidzo
2022-05-10, 16:48:18
"Software" bedeutet dass der compiler (der natürlich von der CPU ausgeführt wird, aber nur einmal, und viel früher) die Instruktionsabhängikeiten in den Instruktionen kodiert, und die Hardware dann strikt die vorgeschriebenen Wartezeiten einhält, also ohne scoreboard.
Okay, wusste nicht dass das nicht zu Laufzeiten passiert sondern im Shadercache. Dann fällt das als Bottleneck wohl raus.

Aber irgend ein Bottleneck wird es sein, weshalb man die A370m entlässt und die größeren Modelle nicht. Die Performance der A370 scheint ja zu stimmen den ersten Benchmarks nach. Das muss sie auch wenn sie im chinesischen Gaming-Markt bestehen will. Laut PCperf waren die Benchmarks auch nicht von Intel ausgesucht, Rosinenpicken halte ich also für unwahrscheinlich in diesem Fall.

Btw, beim Shader kompilieren hat der Inteltreiber aber auch noch massig Nachholbedarf, die Ladezeiten sind mit integrierter Grafik mitunter 3mal so lang.

basix
2022-05-10, 18:59:01
Naja, vielleicht sind es auch ganz einfach Supply Chain Issues oder der grosse Chip hat noch einen Bug (kein Bottleneck). Wenn es die GPUs nicht zu kaufen gibt, bringt auch ein früher Release nichts.

BlackBirdSR
2022-05-11, 11:35:18
Vielleicht haben sich die Engine Entwickler der Spiele und Treiber Entwickler von AMD und Nvidia über Jahre auch so aufeinander eingeschossen, dass selbst ein peinlich genaues einhalten der DX Spec einfach nur zu schlechten Ergebnissen und Fehlern führt.

Dann würde ich meine Chips auch nicht in die Reviews geben....


Naja, vielleicht sind es auch ganz einfach Supply Chain Issues oder der grosse Chip hat noch einen Bug (kein Bottleneck). Wenn es die GPUs nicht zu kaufen gibt, bringt auch ein früher Release nichts.

Gratzner
2022-05-11, 18:06:23
Nvidia und AMD releasen ihre Chips ebenfalls nicht alle gleichzeitig. Zwischen GA102 und GA106 war ein halbes Jahr Abstand, ohne das Nvidia irgendwelche Chips wegen komplett zerstörerische Hardwarebugs verschieben musste. In diesem Kontext zu behaupten: "Intel hätte irgendwelche Probleme mit ihrem großen Chip, ohne weitere Anhaltspunkte, sondern einfach nur weil sie in später releasen", ist einfach nur ein schlechtgerede von Intel.

Aber irgend ein Bottleneck wird es sein, weshalb man die A370m entlässt und die größeren Modelle nicht.
Der Bottleneck könnte sich human resources nennen. Bspw. brauch jeder Chip ein eigenes floorplaning, hat dadurch unterschiedliche Latenzen zwischen den einzelnen Modulen, etc. Es ist nicht damit getan, in MS Paint den kleinen Chip zu mehrfach zu kopieren und schick anzuordnen, um den großen Chip zu erhalten. Intel wird vielleicht zuerst begonnen haben, den kleinen Chip fertig zu stellen, weshalb man ihn zuerst releasen kann

davidzo
2022-05-12, 00:53:47
In diesem Kontext zu behaupten: "Intel hätte irgendwelche Probleme mit ihrem großen Chip, ohne weitere Anhaltspunkte, sondern einfach nur weil sie in später releasen", ist einfach nur ein schlechtgerede von Intel.

ROFL :freak: und dein Kalender zeigt auch noch 2021 an, nicht?

Dass sie sich mittlerweile um mindestens ein Jahr verzögert haben ist ganz sicher kein anzeichen für probleme :freak:

Erst hieß es XE SDV in 2020 und XE-HPG anfang-mitte 2021. Dann hieß es in der zweiten Jahreshälfte kommt XE-HPG. Dann die Vorstellung zum architecture Day im august mit der Ankündigung dass soc2 noch in q4 an oems ausgeliefert und retail zur CES im Januar 22 gelauncht wird. Dann hieß es in Q1, also März. Dann Q2, was aber nur notebook und china betrifft. Mal sehen ob sie diesmal den neuen Q3 termin halten können.


Bspw. brauch jeder Chip ein eigenes floorplaning, hat dadurch unterschiedliche Latenzen zwischen den einzelnen Modulen, etc.
Floorplanning für SOC1 ist seit Jahren durch du Witzbold. Die Chips sind seit Monaten schon powered up und die Boardpartner haben chips und sind dabei SerienPCBs vorzubereiten:freak:
Und der große SOC heißt seitens Intel auch nich aus Spaß "1" und der kleine SOC "2". Btw hat Intel was RTL Synthese und Layout angeht massive Manpower Ressourcen dass die locker etliche Projekte gleichzeitig stemmen können. Diese teams sind vermutlich gerade schon dabei den tape-in für Battlemage durchzuführen.

Btw, das mit Softwareentwicklung als momentanes Bottleneck habe ich mir ja nicht ausgedacht, das ist die Aussage von Intel selbst.

Gratzner
2022-05-13, 12:23:02
ROFL :freak: und dein Kalender zeigt auch noch 2021 an, nicht?

Dass sie sich mittlerweile um mindestens ein Jahr verzögert haben ist ganz sicher kein anzeichen für probleme :freak:

Das sich die Grafikkartengeneration als ganzes verzögert hat, habe weder ich abgestritten, noch war das Dein Punkt. Dein Punkt war, dass der größere Chip später released wird als der kleinere Chip und es deshalb irgendwelche zusätzliche Probleme geben muss.

Floorplanning für SOC1 ist seit Jahren durch du Witzbold.

Es kann doch nicht ernsthaft Dein Argument sein, dass ein länger dauernder Projektabschnitt nicht zu einer längeren Gesamtzeit beitragen kann, weil er aus einer früheren Phasen stammt.

Btw hat Intel was RTL Synthese und Layout angeht massive Manpower Ressourcen dass die locker etliche Projekte gleichzeitig stemmen können..
Jup, Intel hat viel mehr Manpower, müssen aber viel mehr Projekte gleichzeitig stemmen (W-Lan-Chips, FPGas, etc.). Ob das Intel-Management mehr Manpower für das layouten von Alchemist investiert hat, ist eine ganz andere Frage. Ich behaupte mal, für das Layouten von Alchemist hat Intel sogar weniger Manpower als AMD oder Nvidia. Sie haben nur 2 Chips rausgebracht, da hat sogar AMD in der aktuellen RDNA2-Generatrion ein vielfaches an Chips rausgebracht. Die 2 Alchemist-Chips sind so grob abgestuft, mit ausreichend Manpower für das Projekt würde man definitiv einen dritten Chip für eine bessere Abstufung erwarten

davidzo
2022-05-13, 13:03:50
Es kann doch nicht ernsthaft Dein Argument sein, dass ein länger dauernder Projektabschnitt nicht zu einer längeren Gesamtzeit beitragen kann, weil er aus einer früheren Phasen stammt.

Das "floorplanning" :freak: hat aber nicht länger gedauert! Wir haben seit Mitte letzten Jahres PCB shots und sogar Fotos der Kartenprototypen die bei den OEMs liegen. Da mussten die Chips schon seit Monaten fertig sein. Das ist viel früher als bei irgendeinem der etablierten GPUhersteller wo man sowas erst in den letzten Wochen vor Launch sieht.
Es gibt etliche Hinweise der OEMs dass man schon Ende 2021 in den Startlöchern stand und nur auf Intel gewartet hat.

Dass Intel's Lisa Pearce öffentlich angesagt hat dass die Verzögerungen auf mangelhafte Software-readiness zurückzuführen sind ignorierst du einfach?

Eine andere Suppe die sie sich durch die lange Verzögerung auch noch eingebrockt haben ist dass die Kosten von vielen SMD Komponenten seit letztem Jahr verdoppelt oder dreifacht haben. Dass ist auch darauf zurückzuführen dass plötzlich alle großen OEMs sich große Mengen auf Lager gelegt haben um genau dem zu entgehen. Intel bzw. Boardpartner haben das für ARC anscheinend nicht gemacht und es wird laut Industrieinsidern noch bis ende 2024 dauern bis die Auftragslisten abgearbeitet sind und die Lager wieder voll.
Intel wird also im moment auch alle Hände voll zu tun haben sich Restbestände zu sichern, das PCB für alternative Bauteile um zu Layouten und die Preiskalkulation zu updaten.
Angesichts dessen dass sie Samsung, Lenovo, Acer, HP, and Asus als Launchpartner aufzählen rechne ich aber damit dass die das relativ schnell gelöst bekommen.
Ich halte die "Covid19 hat alles verzögert"-Ausrede für nicht mehr als eine normale Ausrede. der erste Teil, nämlich "software readyness" ist der eigentliche Grund.


Die 2 Alchemist-Chips sind so grob abgestuft, mit ausreichend Manpower für das Projekt würde man definitiv einen dritten Chip für eine bessere Abstufung erwarten
Sie sind so grob abgestuft weil es
1. Kein Highend oder, nur entrylevel und midrange-
2. man keine großen Marktanteile erwartet und dementsprechend nur mittlere Kapazitäten reserviert hat.
3. Wozu mehr Masken fertigen, wenn die Stückzahl pro Design dadurch noch geringer wird und die Kosten hochtreibt?
4. Fertigung ist bei TSMC (auch Masken), das hat rein gar nichts mit Intels manpower zutun.

Gratzner
2022-05-13, 16:43:04
Dass Intel's Lisa Pearce öffentlich angesagt hat dass die Verzögerungen auf mangelhafte Software-readiness zurückzuführen sind ignorierst du einfach?

Kann ja alles sein bzw. ist die Software sicherlich ein/das Problem, wenn Intel-Mitarbeiter es offiziell so sagen.

Und wie kommst Du dann auf Bottlenecks (in der Architektur? oder wo meinst Du soll es Bottlenecks geben?). Ich meine, Du schreibst ja sogar selber, es ist die Software. Für mich hört sich die Bottleneck-Erklärung ohne weitere Erklärungen einfach nur nach krampfhafter Interpretation an. Oder schließt Du (kategorisch) aus, das Intel aus irgendwelche Gründe den großen Chip zurückhält, bis die Software in einem besseren Zustand ist?

davidzo
2022-05-13, 17:41:59
Kann ja alles sein bzw. ist die Software sicherlich ein/das Problem, wenn Intel-Mitarbeiter es offiziell so sagen.

Und wie kommst Du dann auf Bottlenecks (in der Architektur? oder wo meinst Du soll es Bottlenecks geben?). Ich meine, Du schreibst ja sogar selber, es ist die Software. Für mich hört sich die Bottleneck-Erklärung ohne weitere Erklärungen einfach nur nach krampfhafter Interpretation an. Oder schließt Du (kategorisch) aus, das Intel aus irgendwelche Gründe den großen Chip zurückhält, bis die Software in einem besseren Zustand ist?

Wenn die Software die performance der großen Chips zurückhält aber nicht die der entrylevel SKUs, dann nennt man das ein Bottleneck.

Und ja, wir sind hier auch im Spekulationsforum ;)

DrFreaK666
2022-05-15, 08:06:50
nächsten Freitag erscheint womöglich das erste Spiel mit XeSS
https://videocardz.com/newz/intel-xess-super-resolution-technology-launches-on-may-20-with-dolmen

bbott
2022-05-15, 15:11:44
nächsten Freitag erscheint womöglich das erste Spiel mit XeSS
https://videocardz.com/newz/intel-xess-super-resolution-technology-launches-on-may-20-with-dolmen
Ist den XeSS mit NV / AMD schon nutzbar? Weil die ARC Karten sind doch recht selten.

Locuza
2022-05-15, 21:06:53
XE LP ist mittlerweile 2 Jahre alt und war davor schon sehr lange in Entwicklung (und 2020 bereits sehr verspätet).
Das sind alles keine neuen Änderungen von DG2, die sind in der Tigerlake IGP schon drin, ebenso in Rocketlake, Alderlake etc.
Das ist in den letzten 2 jahren Millionenfach ausgeliefert worden und sollte doch mittlerweile Treibermäßig funktionieren.

Würde man teilweise gerne so meinen, aber man sieht es immer wieder, wie teilweise mehrere Jahre vergehen, bevor Software einen gewissen Reifegrad erreicht.
Xe LP hat nach wie vor Treiberbugs was die Darstellung von Games angeht, wie z.B. fehlende Raucheffekte bei Rainbow Six Extraction, schwarze Block Artefakte bei Deus Ex Mankind Divided und sicherlich mehr.
Wenn es schon visuell nicht hinhaut und dort auch Monate/Jahre gedauert hat, bis Renderingartefakte gefixt worden sind, wie die springenden Eimer in Deux Ex, oder die Artefaktsäulen in Death Stranding, dann sieht es mit den Performanceoptimierungen sehr wahrscheinlich nicht besser aus.

Ist den XeSS mit NV / AMD schon nutzbar? Weil die ARC Karten sind doch recht selten.
Der letzte offizielle Stand war nein, denn XeSS launched zuerst XMX exklusiv und irgendwann später ist die DP4a-Variante inkludiert.

DrFreaK666
2022-05-15, 21:27:41
...
Der letzte offizielle Stand war nein, denn XeSS launched zuerst XMX exklusiv und irgendwann später ist die DP4a-Variante inkludiert.

Sicher? Was war denn der letzte Stand und wo steht das?

Locuza
2022-05-15, 22:22:50
https://youtu.be/CsvUtuzaCQw?t=3111 (https://youtu.be/CsvUtuzaCQw?t=3116)

31.03.2022:
"In the short term, we focus on XMX."
"Later this fall we will make our DPa4 version available."

Fall = September 1 to November 30

aufkrawall
2022-05-15, 22:27:59
Das ist ja ein Witz. ;D

DrFreaK666
2022-05-15, 23:00:34
hat er da schon gewusst, dass die Karten erst in China launchen werden?

Loeschzwerg
2022-05-17, 17:32:37
Deathloop FSR2.0 @ Intel Gen11/Gen12 IGP:
https://www.tomshardware.com/news/amd-fsr2-tested-on-intel-integrated-graphics

Allgemein macht Deathloop noch Probleme, aber FSR1.0/2.0 funktionieren.

Loeschzwerg
2022-05-17, 17:45:01
...3DMark PCI Express Feature Test:
79270 (Gunnir)
...

Von PCIe 4.0 x8 merkt man bei der Gunnir wenig...

Irgendetwas passt da mit DG1 nicht so recht :freak: Aber immerhin stimmen die x8 Links.

4.0 -> 3.64 GB/s
3.0 -> 3.67 GB/s
2.0 -> 2.61 GB/s
1.1 -> 1.34 GB/s

Loeschzwerg
2022-05-19, 08:41:17
Ein Lebenszeichen des größeren Alchemist Chips (A730M) in einem Notebook (Asien):
https://www.computerbase.de/2022-05/intel-arc-a730m-notebook/

vinacis_vivids
2022-05-20, 11:33:32
A770M ~ Fiji/Vega Floorplan 4096SP at its best :biggrin:

https://abload.de/img/2022-05-2011_24_49-inhvjzd.png

:biggrin::eek::freak:

Raja bringt bestimmt bei seiner nächsten Firma Apple, Google, Tesla bestimmt auch Fiji uArch wieder unter. :D

Wake
2022-06-04, 08:45:02
Intel ARC LE zeigt sich auf einem eSports-Event:
https://i.imgur.com/tUikPlR.png

Quelle (https://twitter.com/theBryceIsRt/status/1532775229356969988)
Videocardz (https://videocardz.com/newz/intel-shows-off-real-arc-alchemist-desktop-graphics-card-with-full-acm-g10-gpu)

Denniss
2022-06-04, 10:43:49
Also wieder nur Pappnasen und nichts handfestes. Gab es da nicht mal einen mit nem Holzmodell ?

Ghost1nTh3GPU
2022-06-04, 10:58:46
Also wieder nur Pappnasen und nichts handfestes. Gab es da nicht mal einen mit nem Holzmodell ?

https://www.semiaccurate.com/2009/10/01/nvidia-fakes-fermi-boards-gtc/ ... der gute alte Charlie. X-D

Mal sehen wie Launch von 770/780 sich gestaltet, Intel ist ja auch kein Kind von Traurigkeit, wenn es um FUD zu anderen Produkten ging.

davidzo
2022-06-04, 14:29:27
A770M ~ Fiji/Vega Floorplan 4096SP at its best
Du wurdest hier schon tausendfach korrigiert dass die µarches nichts miteinander zutun haben und sülzt den quark trotzdem weiter herum. Vergiss es einfach, okay?

https://www.semiaccurate.com/2009/10/01/nvidia-fakes-fermi-boards-gtc/ ... der gute alte Charlie. X-D

Mal sehen wie Launch von 770/780 sich gestaltet, Intel ist ja auch kein Kind von Traurigkeit, wenn es um FUD zu anderen Produkten ging.

Der gute alte Charlie hat halt keine Ahnung von Holzschrauben. Das war ein Skandal der keiner war. Die eigentliche story war doch dass Jensen erst auf Nachfrage bestätigt hat dass es ein Mockup war und die Bringup boards zu der Zeit noch ganz anders aussahen. Das sind vernickelte Flachkopfschrauben und das hat rein gar nichts zutun mit Holzschrauben, die sind selten vernickelt sondern meist verzinkt, gelbverzinkt oder aus grauem v2a. Festplatten werden mit ganz ähnlichen ebenfalls vernickelten Schraubenköpfen montiert.

Es ist völlig normal bei Prototypen etwas andere Schrauben zu verwenden. Die Slotblende ist ja auch noch nicht gestanzt sondern lasercut, denn das Stanzwerkzeug wird erst für die Serienfertigung gebaut. Dementsprechend sind noch keine Kegelsenkungen vorhanden und die Kanten auch grundsätzlich schärfer, manchmal fehlen aussteifende Kantungen und Prägungen.
Auch spart man sich bei Prototypen das vernickeln und nimmt stattdessen lieber gleich rostfreien Stahl bzw. sprüht das dann einfach kurz schwarz an wenn man eine dunkle optik braucht. Schwarz vernickelte Senkkopfschrauben sind dann das was in der Produktion zum Einsatz kommt, die hatte man für den Prototypen eben einfach noch nicht da gehabt.

davidzo
2022-06-07, 13:46:43
https://videocardz.com/newz/intel-arc-a730m-has-been-tested-in-games-with-performance-between-rtx-3050-and-rtx-3060


Immerhin ist die Treiberoptimierung für 3Dmark schon fertig! :biggrin:


2050mhz Boost @960mv in Furmark ist ziemlich gut dafür dass der mobile Baseclock nur 1100mhz ist. Also bezüglich der Hardwaredaten wird da geliefert.

aufkrawall
2022-06-07, 13:53:18
Oder es hat ein Auslastungsproblem, etwa durch den OGL-Treiber.

davidzo
2022-06-07, 14:13:43
Oder es hat ein Auslastungsproblem, etwa durch den OGL-Treiber.

In AC Odyssey? Das ist ein D3D11 Titel.

Gehe davon aus dass die settings auf Ultra sind, aber die Ergebnisse sind trotzdem sehr unterdurschnittlich, auf 1660ti max-Q niveau bzw. knapp unterhalb einer RX5600m.
https://www.notebookcheck.net/Assassin-s-Creed-Odyssey-Notebook-and-Desktop-Benchmarks.337682.0.html#toc-3

Aber ja, es könnte sein dass sich Intel erstmal auf D3D12 konzentriert zu Anfang um in allen vorzeigetiteln/blockbustern gut aus zu sehen und der d3d11 Teil sowie Vulkan noch hinterher hängt.

Ich freue mich auf die ersten D3D12 und Rt Benchmarks. Es kann sich eigentlich nur noch um stunden handeln bis wir diese bekommen, die Notebooks sind ja in china bereits in Consumerhand.
Das SOTTR noch nicht startet ist aber nicht gerade ermutigend.

aufkrawall
2022-06-07, 14:16:41
In AC Odyssey?
Ich meine den hohen Takt in Furmark.

Loeschzwerg
2022-06-07, 14:35:46
Das SOTTR noch nicht startet ist aber nicht gerade ermutigend.

Wobei das sogar unter Xe IGP und DG1 läuft. Das Treiberteam sollte da schleunigst die Entwicklungsstränge zusammenlegen.

Nazar
2022-06-07, 15:23:49
Wurde das schon gepostet?

https://www.guru3d.com/news-story/intel-arc-a730m-game-tests-gaming-performance-differs-from-synthetic-performance.html

Aus dem Link:
The performance seems to match entry-level NVIDIA RTX 3050/3060 GPUs. The Arc A730M may score well in synthetic tests, but gaming performance shows another story. In Furmark the GPU registers back 92 Watts (TGP), which is not bad. let us also reiterate that this is a mobile GPU, not the desktop version.

Scheint wohl so 3050 Niveau zu haben.

Ghost1nTh3GPU
2022-06-07, 16:43:01
Läuft der 3DMark vielleicht schon mit XeSS? :ulol:

basix
2022-06-07, 17:50:20
Es wird einen Grund geben, wieso sie Xe noch nicht releasen. Massive SW-Probleme scheinen der Grund zu sein. In den meisten handelsüblichen Standardbenchmarks und einigen Spielen scheint Xe gut zu rennen. In anderen Spielen scheint es ein Totalausfall zu sein.

bbott
2022-06-07, 21:32:37
Ich vermute ja, dass Intel als den Release als hinausschiebt, weil jedes mal kurz vor Release ein neuer AA(A) Titel erscheint, welcher nicht auf ARC (richtig) läuft und Intel zwingt den Release zu verschreiben. Es deswegen zu never ending Story wird.

P.S.: In 3Dmark war Intel doch immer noch stärker als AMD und erst recht NV.

Linmoum
2022-06-07, 21:38:45
3DMark wird deswegen verhältnismäßig gut laufen, weil immer noch die treiberseitigen ""Optimierungen"" greifen werden. Ist naheliegend, da das Resultat auch nicht validiert ist.

Wollte Intel das nicht eigentlich auch schon bis spätestens Ende April mit einem entsprechenden Treiber fixen?

basix
2022-06-07, 21:43:55
Intel kann sich einen allzu holprigen Start auch gar nicht leisten. Das würde sonst ewig nachhängen (aka AMDs Treiber seien so grottig...). Für uns schade, aber für Intel notwendig. Über OEM Verträge werden die eh alles los.

Zossel
2022-06-08, 06:33:57
3DMark wird deswegen verhältnismäßig gut laufen, weil immer noch die treiberseitigen ""Optimierungen"" greifen werden. Ist naheliegend, da das Resultat auch nicht validiert ist.

Wie ist das eigentlich mit den allfälligen treiberseitigen Optimierungen bei Mesa unter Linux? Hat da schon mal jemand nachgeschaut?

davidzo
2022-06-08, 20:45:55
WTF-tech hat mal eine schöne Übersicht gebastelt wie sich die A730m mit aktuellen Betatreibern gegenüber einer 3060m mit ähnlicher TDP verhält:
https://wccftech.com/intel-arc-a730m-high-end-mobility-gpu-slower-than-rtx-3060m-despite-latest-drivers/

https://cdn.wccftech.com/wp-content/uploads/2022/06/Intel-Arc-A730M-GPU-vs-NVIDIA-RTX-3060M-GPU-Benchmarks.jpg

Die Treiberversionen sind:
30.0.101.1369
30.0.101.1726
30.0.101.1735

Wobei letzterer in zwei Spielen schon zwischen 3-8% mehr Performance bringt. Mehr vergleichbare Spiele gibts leider nicht.


Im Durchschnitt liegt man ca. 40% hinter der 3060m. Wenn man die Outlier entfernt und nur die einigermaßen gut performenden Titel wie Apex legends, Elden Ring, Control, F1, Metro Ex, TW Troy, Hitman, Civ6, Strange Brigade, zählt sind es nur 25% Rückstand.
Cyberpunk und Gow5 performen noch unterdurchschnittlich, während in den anderen Titeln eindeutig etwas völlig im Argen liegt, mit über 100% Rückständen. Über Specviewperf brauchen wir zu diesem zeitpunkt gar nicht reden.

aufkrawall
2022-06-08, 20:58:02
während in den anderen Titeln eindeutig etwas völlig im Argen liegt, mit über 100% Rückständen.
Ist mit den Gen 12 IGPs auch so. Manche Spiele wie Trine 4 laufen anständig (bis man auf Grafikfehler stößt), in anderen wie Borderlands 2 ist die Performance unabhängig von API/OS/Treiber grausam. Ich würd mir da null Illusionen machen, dass sich das bald ändert.

dildo4u
2022-06-09, 07:01:40
Die Werte sind imo ok die 3060 im Notebook ist sher gut.


Nur wenn die 6GB vollaufen kackt sie ab CP77 hat sie z.b auf Desktop Level bei weniger Verbrauch.

https://youtu.be/S1sCLpkOkhY?t=135

mboeller
2022-06-09, 08:15:55
da ist jemand ziemlich direkt, wenn nicht gar unfreundlich:

Intel Arc A730M: Auch mit offiziellem Treiber-Support bleibt die Gaming-Leistung miserabel (https://www.notebookcheck.com/Intel-Arc-A730M-Auch-mit-offiziellem-Treiber-Support-bleibt-die-Gaming-Leistung-miserabel.626644.0.html)

Ghost1nTh3GPU
2022-06-09, 08:27:17
Bleibt die Frage, ob Intel da noch etwas im Treiber richten kann, oder ob da grundlegend etwas bei der Skalierung der Tiles/Slices schief gelaufen ist.
Dann bleibt es wohl beim Abverkauf der 1.Gen in China, da hat man ja mit Cannonlake schon seine Erfahrungen gesammelt.:tongue:

ryan
2022-06-09, 12:42:30
WTF-tech hat mal eine schöne Übersicht gebastelt wie sich die A730m mit aktuellen Betatreibern gegenüber einer 3060m mit ähnlicher TDP verhält:
https://wccftech.com/intel-arc-a730m-high-end-mobility-gpu-slower-than-rtx-3060m-despite-latest-drivers/

https://cdn.wccftech.com/wp-content/uploads/2022/06/Intel-Arc-A730M-GPU-vs-NVIDIA-RTX-3060M-GPU-Benchmarks.jpg


Bei völlig unbekanntem power budget, das kann man so überhaupt nicht richtig beurteilen. Es reicht nicht aus das im Furmark abzulesen weil die CPU nicht mit ausgelastet wird, das muss man schon in den Spielen selber machen. Wenn DTT aktiv ist, wird das power budget zwischen der CPU+GPU aufgeteilt, das hat bei den ersten A350M Tests massiv Leistung gekostet. Bei der RTX3060M fehlt die Info auch, es gibt Geräte mit 65W bis 140W.

ryan
2022-06-11, 13:17:19
da ist jemand ziemlich direkt, wenn nicht gar unfreundlich:

Intel Arc A730M: Auch mit offiziellem Treiber-Support bleibt die Gaming-Leistung miserabel (https://www.notebookcheck.com/Intel-Arc-A730M-Auch-mit-offiziellem-Treiber-Support-bleibt-die-Gaming-Leistung-miserabel.626644.0.html)


Übrigens hat das Gerät nur 1 Speicherslot belegt, läuft also nur im Singlechannel mit 1x16GB :freak:


https://youtu.be/rB6Ml_RegJo?t=805


Das wird definitiv Leistung kosten, mit einer Intel GPU vielleicht sogar mehr als bei AMD/Nvidia durch größeren CPU overhead der Treiber. Power budget der GPU und DTT an oder aus immer noch unbekannt, davon mal abgesehen.

Loeschzwerg
2022-06-17, 10:55:35
Ich verlinke das einfach mal, für alle die sich dafür interessieren sollten.

Dolmen @ DG1, inkl. Screenshots, Perf-Werte und FSR1.0 Vergleich:
https://www.computerbase.de/forum/threads/intel-dg1-probleme-u-loesungen.2077997/page-6#post-27004000

Ich bin auf XeSS @ DG2 gespannt und evtl. kommt auch noch eine FSR2.0 Implementierung (hieß es mal).
Das Spiel selber ist für die 20€ die ich gezahlt habe ganz OK, aber man merkt schon deutlich das geringe Budget. Das erste Drittel ist leider recht schwach, sowohl vom Leveldesign, als auch von den Schauplätzen und der Grafik. Spielerisch ist es auch nicht perfekt, das Balancing ist manchmal etwas komisch. Immerhin ist es der erste Souls-Like-Titel den ich auch wirklich durchgespielt habe, denn die Spawn-Punkte sind fair gesetzt, man kann gut Leveln (und das bringt auch was!) und vermutlich ist es auch einfach nicht so unfair schwer.

Ich würde es als Elex 1/2 unter den Souls bezeichnen. Spielerisch, hinsichtlich Story und auch grafisch.

mocad_tom
2022-07-04, 19:34:36
Wo habt ihr die schon wieder herbekommen?

:biggrin:

https://twitter.com/konkretor/status/1543976751935754241

Zuerst die Gunnir Xe

Und jetzt die Gunnir Arc A380

Sind die alle vier vergeben?

Leonidas
2022-07-16, 07:44:11
Performance-Preview zur Arc A750
https://game.intel.com/story/intel-arc-a750-graphics-performance-preview/

Hinweis:
Performance results shown here are from a small subset of the games, that work very well with Intel® Arc™ and the Alchemist architecture. I’m not asserting that ALL GAMES will show these results, but it’s a view of what Intel Arc A-series cards are capable of with the right software and engineering enablement.

https://pbs.twimg.com/media/FXuHeiwVUAIvwZk?format=jpg

OgrEGT
2022-07-16, 07:48:57
Performance-Preview zur Arc A750
https://game.intel.com/story/intel-arc-a750-graphics-performance-preview/

Hinweis:
Performance results shown here are from a small subset of the games, that work very well with Intel® Arc™ and the Alchemist architecture. I’m not asserting that ALL GAMES will show these results, but it’s a view of what Intel Arc A-series cards are capable of with the right software and engineering enablement.

https://pbs.twimg.com/media/FXuHeiwVUAIvwZk?format=jpg

Macht es Sinn diese Karten nicht im GPU Limit zu testen?

dildo4u
2022-07-16, 09:24:02
Das sind beides 1080p Karten bei dieser Einstellung 1440p/High sind sie grad bei 60fps in Cyberpunk/Control.(Ohne RT)



https://youtu.be/uctDN9uYcXI?t=91

mironicus
2022-07-16, 11:02:03
Wer hier im 3DCenter würde denn seine AMD/NVidia GPU gegen eine Intel GPU tauschen wollen...? :)

Glaubt ihr ernsthaft das größere Hersteller wie Asus/MSI/Gigabyte sich zur Verfügung stellen und solche Karten auf den Markt bringen werden?

OgrEGT
2022-07-16, 11:09:58
Wer hier im 3DCenter würde denn seine AMD/NVidia GPU gegen eine Intel GPU tauschen wollen...? :)

Glaubt ihr ernsthaft das größere Hersteller wie Asus/MSI/Gigabyte sich zur Verfügung stellen und solche Karten auf den Markt bringen werden?
Ich würde derzeit keine Intel GPU kaufen da sie für mich in dem Leistungsegment welches für mich relevant ist nicht konkurenzfähig sind... das heißt aber nicht dass es so bleiben muss... wenn die Folgegenerationen an Leistung und die Treiber an Stabilität zulegen können die auch interessant werden... damn steigen auch die großen AIBs und auch die Kunden ein...

Loeschzwerg
2022-07-16, 11:12:19
Tauschen... Nein. Eine kaufen, herumtesten und auch am Testsystem damit zocken aber auf jeden Fall =) Wo bleibt euer Entdeckungsdrang?

mironicus
2022-07-16, 11:28:51
Vielleicht als Nebenfrau ähm Nebenkarte zur eigentlichen Hauptkarte zwecks bestimmter Anwendungsfunktionen die bei Intel schneller beschleunigt werden (Adobe Premiere und Co.). Da reicht vielleicht auch die kleinste Karte. :smile:

dildo4u
2022-07-16, 11:56:49
Es sieht so aus das sie ok läuft wenn man keine alten schninken zockt was sinn macht da unter Vulkan/DX12 der Treiber weniger eine Rolle spielt.
Das Argument hat bei AMD weniger Sinn gemacht da AMD auf dX12 setze als die Verbreitung ein Witz war heute sieht es deutlich besser aus.

Exxtreme
2022-07-16, 12:02:41
Wer hier im 3DCenter würde denn seine AMD/NVidia GPU gegen eine Intel GPU tauschen wollen...? :)

Glaubt ihr ernsthaft das größere Hersteller wie Asus/MSI/Gigabyte sich zur Verfügung stellen und solche Karten auf den Markt bringen werden?

Never. Ich habe da so meine Erfahrungen mit Intels Treibern gemacht. Den Stress gebe ich mir nicht auch noch privat.

aufkrawall
2022-07-16, 15:38:59
Das Argument hat bei AMD weniger Sinn gemacht da AMD auf dX12 setze als die Verbreitung ein Witz war heute sieht es deutlich besser aus.
Hat man 1. bei GoW gesehen und zweitens gibt es noch etwas anderes als AAA-Spiele. Aber auch The Quarry ist wohl D3D11, das Argument ist einfach Unsinn. Jede API hat gescheit zu laufen, so einfach ist das...

y33H@
2022-07-16, 15:50:12
Also ein generelle D3D11 "Schwäche" sehe ich bei der A380 nicht, insgesamt aber braucht der Treiber noch diverse Verbesserungen ...

ryan
2022-07-16, 17:18:22
Also ein generelle D3D11 "Schwäche" sehe ich bei der A380 nicht, insgesamt aber braucht der Treiber noch diverse Verbesserungen ...


Testet ihr schon mit dem neuen Preview (https://www.intel.com/content/www/us/en/download/737144/intel-graphics-windows-dch-drivers-preview-features.html) Treiber? Wann kommt der Test online?

mocad_tom
2022-07-17, 08:45:15
Bei Gamers Nexus wurden ja auch die älteren Spiele getestet.

https://youtu.be/La-dcK4h4ZU?t=1067

Und dort kam man dann bei einigen älteren Spielen auf
die Nvidia 1650 kommt auf 140FPS
die Intel Arc 380 kommt auf 70FPS
und dann der Satz "dieser Treiber braucht aber noch jede Menge Feinschliff bei älteren Spielen"

Das Spiel läuft mit :freak: !! 70FPS !! :freak:

Schau ich da zu entspannt auf die Sache drauf oder macht er sich komplett zum Clown mit dem Satz?

Müsste ich bei einem Projektteam priorisieren, was wird die erste Kategorie sein, wo ich einspare?

Linmoum
2022-07-17, 09:20:32
Die A380 hat +53% Transistoren, +45% Bandbreite, +13% Shader und wird in N6 gefertigt statt wie noch die 1650 in 12nm.

Warum sollte er sich zum Clown machen, wenn die 1650 trotzdem mal eben doppelt so schnell ist? :freak:

y33H@
2022-07-17, 09:43:09
Die Transistoren wanderrn zugeben anteilig auch in Raytracing und XeSS und in Media Decoding/Encoding ... aber ja, die Tendenz ist schon richtig.

y33H@
2022-07-17, 10:32:14
Testet ihr schon mit dem neuen Preview (https://www.intel.com/content/www/us/en/download/737144/intel-graphics-windows-dch-drivers-preview-features.html) Treiber? Wann kommt der Test online?Ja, kurz angeguckt [die Messungen waren bei Release schon durch], und bald(tm).

ryan
2022-07-17, 10:50:01
Ja, kurz angeguckt [die Messungen waren bei Release schon durch], und bald(tm).


Wäre interessant, falls sich an der Performance was ändert. Die Build Nummer vom Preview Treiber ist deutlich höher.

y33H@
2022-07-17, 11:32:15
Ich hab einen Nachtest geplant ... bin aber erst mal im Urlaub, daher basiert das Review nun primär auf dem 1743.

Loeschzwerg
2022-07-17, 12:00:13
Time Spy und SotTR zeigen zumindest keine Änderung, RE3 schaue ich mir später noch an.

Hier noch die GPU Caps Info zur A380 mit dem v3220 Beta:
https://opencl.gpuinfo.org/displayreport.php?id=528
https://vulkan.gpuinfo.org/displayreport.php?id=15837
http://opengl.gpuinfo.org/displayreport.php?id=7693

Slipknot79
2022-07-17, 12:02:30
Was steckt eigentlich in so nem 830MB Treiber alles drin? Oo Das können ya keine texture-packs sein, was so viel Platz braucht?

Leonidas
2022-07-17, 13:09:54
Intel-Lineup der Arc A-Serie
https://www.3dcenter.org/news/intel-lineup-zur-arc-serie-zeigt-ungefaehre-listenpreise-samt-tdp-werten

https://www.3dcenter.org/dateien/abbildungen/Intel-Arc-A-Serie-Lineup.vorschau2.jpg

Fusion_Power
2022-07-17, 14:16:27
Bei Gamers Nexus wurden ja auch die älteren Spiele getestet.

https://youtu.be/La-dcK4h4ZU?t=1067

Und dort kam man dann bei einigen älteren Spielen auf
die Nvidia 1650 kommt auf 140FPS
die Intel Arc 380 kommt auf 70FPS
und dann der Satz "dieser Treiber braucht aber noch jede Menge Feinschliff bei älteren Spielen"

Das Spiel läuft mit :freak: !! 70FPS !! :freak:

Schau ich da zu entspannt auf die Sache drauf oder macht er sich komplett zum Clown mit dem Satz?

Müsste ich bei einem Projektteam priorisieren, was wird die erste Kategorie sein, wo ich einspare?
Ich nehme an, dazu hat die NVidia Karte auch noch wesentlich weniger Leistungsaufnahme? :D Bei dem Punkt bin ich am meisten enttäuscht von Intel: Die Grafikkarten brauchen durch die Bank weg zu viel Strom für das gebotene. Sehr ungünstig in diesen Zeiten und sicher keine verkaufsfördernde Eigenschaft.

Loeschzwerg
2022-07-17, 14:43:23
RE3 schaue ich mir später noch an.


Etwas bessere Frametimes und ca. 1-2fps bei den Lows, im Avg. aber kein Unterschied.

Fusion_Power
2022-07-21, 01:04:34
Das liest sich jetzt nicht so Mega-pornös:

Arc A380 im Test: Intels Grafikkarte hat ein (prä)historisches Problem (https://www.golem.de/news/arc-a380-im-test-intels-grafikkarte-hat-ein-prae-historisches-problem-2207-166780.html)

Absturz bei Dinos: Der noch optimierungsbedürftige Treiber bringt die Arc A380 zu Fall, nicht die Hardware mit AV1 und Raytracing an sich.

Aber mal abwarten was Intel da noch alles raus holen kann, vor allem bezüglich der Treiber. Ob man so aber Dinge wie den vergleichsweise hohen Stromverbrauch der Intel Grafik optimieren kann, wage ich zu bezweifeln.

Noch einer:

45n5pnEyw9o

Denniss
2022-07-21, 09:52:54
Die Vids von Linus und teils von GN haben so ein gewisses Geschmäckle

Loeschzwerg
2022-07-21, 09:56:00
Ist halt Entertainment, gepaart mit Marketing, aber auch ein paar versteckten Nadelstichen.
Letztendlich hat man schon ein paar interessante Infos aus den Videos sammeln können.

basix
2022-07-21, 20:22:18
Primär interessant war für mich das Tier 1-3 Thema (aus technischer Sicht) und dessen Kopplung an die Preise (aus Käufersicht). Sollte sich letzteres bestätigen, ist es für die potentielle Käuferschaft ja dennoch eine gute P/L Karte. Wird halt nicht die Performance-Krone werden aber für den extrem ausgetrockneten und momentan unbefriedigenden Marktbereich <400$ sollte es ein wohltuender Zustupf werden.

Aber an der Stabilität der SW und der entsprechenden User Experience muss Intel noch arbeiten.

Monkey
2022-07-27, 09:39:47
Hat jemand schon mal Tests/Benchmarks gefunden wo keine Spiele getestet werden sondern Videoschnittsoftware? Auch wenn alle bzgl der Performance in Spielen enttäuscht sind (oder sich lustig machen) könnte ein Arc 770m Laptop extrem gut fürs Videoediting sein sofern die Media Engine in den Dingern was taugt. Leider finde ich dazu aber bisher nichts...

Bis aufs geheule beim zocken und ein paar freaks die mit dem Multimeter gucken was das Teil an Strom verbraucht passiert ja irgendwie nichts :/

robbitop
2022-07-27, 09:44:42
Laut MLIDs broken silicon stream ist das noch sehr instabil - deshalb gibt es praktisch keine Encoding/Decoding tests. Der Kram crasht wohl andauernd.

Loeschzwerg
2022-07-27, 10:06:36
DaVinci Resolve hätte ich längst getestet, aber die Studio Version kostet mir zu viel für "nur mal schauen". QSVEnc läuft soweit zumindest stabil beim umwandeln.

Monkey
2022-07-27, 17:51:31
DaVinci Resolve hätte ich längst getestet, aber die Studio Version kostet mir zu viel für "nur mal schauen". QSVEnc läuft soweit zumindest stabil beim umwandeln.

Mich würde die Timeline performance interessieren, das encoding ist mir fast schon egal mittlerweile.

Benutzername
2022-07-27, 18:16:08
Laut MLIDs broken silicon stream ist das noch sehr instabil - deshalb gibt es praktisch keine Encoding/Decoding tests. Der Kram crasht wohl andauernd.


Schade. Das wäre doch eine Nische gewesen als Hardware Codec für AV1, wenn es mit den Spielen noch nicht so rund läuft.



Treiber noch reifen lange sie müssen, Meister Yoda sagt.