PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Sammelthread: ARC Alchemist Infos , Reviews etc.


Seiten : 1 [2] 3 4 5 6 7 8

Loeschzwerg
2022-06-23, 16:40:54
Die günstigsten Angebote für RX6400 auf Taobao liegen aktuell zwischen 1099-1199 Yuan.

DrFreaK666
2022-06-23, 19:27:24
https://www.notebookcheck.net/Our-first-Intel-Arc-A370M-benchmarks-are-in-and-the-results-are-comparable-to-the-GeForce-GTX-1050-Ti-at-best-and-slower-than-the-GeForce-MX250-at-worst.631236.0.html

A370M teils langsamer als MX250

DerKleineCrisu
2022-06-23, 19:56:02
https://www.notebookcheck.net/Our-first-Intel-Arc-A370M-benchmarks-are-in-and-the-results-are-comparable-to-the-GeForce-GTX-1050-Ti-at-best-and-slower-than-the-GeForce-MX250-at-worst.631236.0.html

A370M teils langsamer als MX250

Oo ich sehe da nix das sie langsamer sein sol als diese MX250 oO.

Linmoum
2022-06-23, 20:06:23
In X-Plane und Dota 2 ist sie langsamer. Kannst die Spiele auch von FFXV wechseln. ;)

misterh
2022-06-23, 20:06:25
Oo ich sehe da nix das sie langsamer sein sol als diese MX250 oO.

X-Plane und Dota 2 Reborn (fastest)

Edit: zu spät

DerKleineCrisu
2022-06-23, 22:24:42
In X-Plane und Dota 2 ist sie langsamer. Kannst die Spiele auch von FFXV wechseln. ;)


Nicht gesehen das man die spiele durchwechseln kann :freak:

ChaosTM
2022-06-23, 22:29:22
Das Ding ist einfach nicht besonders gut. Nach all den Vollmundigen Versprechen der Gelse und seinen Leuten darf man da schon Flop dazu sagen. Mal abwarten, was die größeren Karten so leisten. Die Hoffnung stirbt zuletzt, obwohl diese schon stark gesunken ist.

ryan
2022-06-24, 01:11:04
A730M und A770M Benchmarks von Intel


https://www.tomshardware.com/news/intel-arc-mobile-benchmarks-a770m-beats-rtx-3060

Linmoum
2022-06-24, 02:53:14
A770M also irgendwo zwischen 120W und 150W, die als Gegenspieler genommene Mobile 3060 aber nur mit 85W TGP. Erstere nur 12% schneller und das sind schon Benchmarks von Intel selbst. Nach der "25% better perf/yuan"-Irreführung muss man bei 3060 Mobile vs. A770M also real das schlimmste befürchten. Wobei schon Intel selbst bei 85W vs. 120W+ kein rosiges Bild zeichnet... Das ist dann auch noch Samsung 8nm vs. TSMC N6. Whew. Und dabn bleibt auch noch die Frage, inwieweit die CPU das Bild ggf. verfälscht.

Irgendwie hat man immer mehr das Gefühl, dass Intel gar nicht richtig will bzw. von den Arc-GPUs selbst nicht wirklich überzeugt ist.

DrFreaK666
2022-06-24, 04:42:47
Schade, hab da irgendwie mehr erhofft. Bleibt noch XeSS, das keine Krücke sein muss (wenn es denn noch erscheint und nicht buggy ist)

HOT
2022-06-24, 06:31:21
Intel muss erst mal ein Jahr Treiberentwicklung in der Praxis, also am Kunden und an der Konkurrenz, hinter sich bringen. Vielleicht ist man dann mal auf einem Stand, der akzeptabel wird. Alchemist ist hierfür das Testfeld. Es gibt ja eh nur wenige Karten, natürlich war Intel klar, dass man mit Alchemist keine Bäume ausreißen wird.

Skysnake
2022-06-24, 12:49:53
Fragt sich nur wie es dann mit den Treibern für PV aussieht. Wahrscheinlich auch mies

Shink
2022-06-24, 15:40:12
Intel muss erst mal ein Jahr Treiberentwicklung in der Praxis, also am Kunden und an der Konkurrenz, hinter sich bringen.
Ja stimmt, die machen ja erst seit 1998 Grafikkartentreiber.

ceed
2022-06-24, 17:58:00
Ja stimmt, die machen ja erst seit 1998 Grafikkartentreiber.

Hm es gibt aber auch ein Henne Ei Problem hier: die Spieleoptimierung der Spieleprogrammierer. Die konnten/können ja auch nicht auf Intel Hardware testen/optimieren ohne funktionierende Hardware/Treiber. Das wird sicherlich auch n paar Prozente ausmachen, vorallem bei den AA Titeln.

ryan
2022-06-26, 17:21:43
Uiuiui, gar nicht mal so gut:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=79696&stc=1&d=1655978784

Thx @ misterh für den Link


Angeblich erkennt AIDA nur 512 Einheiten statt der 1024, das würde dann zu den 2504 Gflops gut passen. Es sind nicht immer nur die Treiber.

misterh
2022-06-27, 18:37:47
https://twitter.com/SkyJuice60/status/1541414495683514368?t=lLzXTP7EFzF1DBkWxcZiAQ&s=19
https://pbs.twimg.com/media/FWQzV_AacAItc7J?format=jpg&name=large

Ghost1nTh3GPU
2022-06-27, 19:00:37
Intels Discreet GPU... X-D

misterh
2022-06-30, 01:16:02
evtl. gibt noch weitere unbekannte Inhalte (ist bereit auf neueste umgestellt).

https://search.bilibili.com/all?keyword=intel+arc+a380&from_source=webtop_search&spm_id_from=333.1007&order=pubdate

Loeschzwerg
2022-06-30, 09:50:54
Neue Beta Treiber:
https://www.intel.com/content/www/us/en/download/729157/intel-arc-graphics-windows-dch-driver-beta.html (30.0.101.1743)
https://www.intel.com/content/www/us/en/download/19387/intel-graphics-beta-windows-dch-drivers.html (30.0.101.3113)

Der ARC Treiber bringt u.a. Unterstützung für 550M und 770M.

DrFreaK666
2022-06-30, 11:52:24
"Furthermore, Intel finally adds the promised 3DMark optimizations toggle"

Man kann das cheaten bei 3D Mark ausschalten. Wie viel es wohl ausmacht? 10%?

Ghost1nTh3GPU
2022-06-30, 12:01:11
Anstatt die Optimierung im 3DMark auszuschalten, sollte man eher mal die Optimierungen für Triple-A-Titel programmieren und einschalten.

Dass man bei GPUs nicht auf die Benachteiligung durch Compiler Flags, wie bei den CPUs, setzen kann, ist wohl noch nicht angekommen.:|

Linmoum
2022-06-30, 12:04:19
Wie lange hat das mit den Optimierungen abschalten jetzt gedauert? Zwei Monate? Was haben die da überhaupt extra optimiert und warum macht man das überhaupt?

Dass man dafür dann auch noch Zeit und Aufwand investiert, obwohl es dringendere Treiber-Baustellen gibt... Nunja. Bei Intel spielt man wohl 3DMark.

DrFreaK666
2022-06-30, 12:08:41
Anstatt die Optimierung im 3DMark auszuschalten, sollte man eher mal die Optimierungen für Triple-A-Titel programmieren und einschalten...

Ist ja nicht so, dass Intel sonst nichts macht.
Intel is also adding new games to its Game On program (similar to NVIDIA Game Ready). These drivers support Monster Hunter Rise: Sunbreak, F1 22 and Arcadegeddon games on Arc GPUs.

AMD hat auch erst kürzlich durch einen Treiber eine DX11-Bremse gelöst, Monate nachdem Karten auf dem Markt waren. Vielleicht findet Intel auch noch Bremsen

Raff
2022-06-30, 12:09:41
Interessant. Auf diesem Flachköpper-Optimierungs-Niveau waren ATI und Nvidia vor etwa 20 Jahren.

MfG
Raff

DerKleineCrisu
2022-06-30, 12:19:03
vielleicht denken ja die Treiber Software Entwickler " Wir müssen 20 Jahre der Treiberentwicklung die AMD/Nvidia gemacht haben schritt für schritt nachholen ;) ".

Raff
2022-06-30, 12:24:01
Oh nein, dann kommt jetzt auch direkt Flimmer-AF mit "Bri"-Banden des augenzerschneidenden Todes. :ugly:

MfG
Raff

aufkrawall
2022-06-30, 12:28:27
Die Texturfilterung von den Gen12-IPGs geht halbwegs. Nicht so flimmerfrei wie AMD & NV, aber offenbar auch nicht so schlecht wie z.B. Polaris. Aber leider nur mit schlechter Qualität für neg. LOD-Bias.

konkretor
2022-06-30, 13:44:25
https://www.computerbase.de/2022-06/intel-arc-3dmark-benchmarks/

ryan
2022-06-30, 16:00:29
"Furthermore, Intel finally adds the promised 3DMark optimizations toggle"

Man kann das cheaten bei 3D Mark ausschalten. Wie viel es wohl ausmacht? 10%?


Bei der A380 macht das in Timespy etwa 800 Punkte aus bzw. 18%. In Port Royal dagegen nur 4%.

https://twitter.com/CapFrameX/status/1542430246401605633

Loeschzwerg
2022-06-30, 16:42:02
Jetzt noch mit genauer Betrachtung und Vergleich der Bildqualität.

ryan
2022-07-02, 13:58:21
https://youtu.be/qgZsLiDuhj0?t=282


Hier ist die DG1-96 im Test im Vergleich zur DG2-128.


Wenn man sich die Balken mal so ansieht, also bei hohen FPS wird der Abstand zur GTX 1650 größer. Bei den Spielen mit weniger fps ist der Abstand überschaubarer. Normalerweise müsste es eher andersrum sein. Ich kann mir das nur durch einen sehr hohen Treiber overhead vom Intel Treiber erklären, der sich bei hohen fps deutlicher bemerkbar macht, wobei das je nach API bestimmt unterschiedlich ausgeprägt ist.

Auch ganz interessant, die Gunnir hat ein GPU power budget von 65.5 Watt. Im Arc Control Panel lässt sich das auf 97.5W erhöhen. Es bringt aber wohl nichts, weil der Takt ohne Übertaktung nicht höher als 2450 Mhz geht.

65W in Furmark reichen bei 2450 Mhz. Etwa 60W im timespy und rund 50W in Spielen. In Dota 2 geht es sporadisch auf unter 30W, die Auslastung scheint nicht optimal. Kein Wunder bei der Performance.

misterh
2022-07-02, 14:20:05
evtl. gibt noch weitere unbekannte Inhalte (ist bereit auf neueste umgestellt).

https://search.bilibili.com/all?keyword=intel+arc+a380&from_source=webtop_search&spm_id_from=333.1007&order=pubdate

https://youtu.be/qgZsLiDuhj0?t=282


Hier ist die DG1-96 im Test im Vergleich zur DG2-128.


Wenn man sich die Balken mal so ansieht, also bei hohen FPS wird der Abstand zur GTX 1650 größer. Bei den Spielen mit weniger fps ist der Abstand überschaubarer. Normalerweise müsste es eher andersrum sein. Ich kann mir das nur durch einen sehr hohen Treiber overhead vom Intel Treiber erklären, der sich bei hohen fps deutlicher bemerkbar macht, wobei das je nach API bestimmt unterschiedlich ausgeprägt ist.

Auch ganz interessant, die Gunnir hat ein GPU power budget von 65.5 Watt. Im Arc Control Panel lässt sich das auf 97.5W erhöhen. Es bringt aber wohl nichts, weil der Takt ohne Übertaktung nicht höher als 2450 Mhz geht.

65W in Furmark reichen bei 2450 Mhz. Etwa 60W im timespy und rund 50W in Spielen. In Dota 2 geht es sporadisch auf unter 30W, die Auslastung scheint nicht optimal. Kein Wunder bei der Performance.

https://www.bilibili.com/video/BV1BW4y1z7SA

ryan
2022-07-02, 14:39:50
https://www.bilibili.com/video/BV1BW4y1z7SA


Den Test hatte ich schon gesehen. Wenn es halbwegs normal läuft, ist die A380 etwa 3x so schnell wie die DG1. In Dota liegt der Abstand eher bei nur 1.5x, das deutet auf große Treiberprobleme hin.


Hier noch einer mit DG1. Komirscherweise sieht die RX6400 dort schlechter aus als woanders.

https://youtu.be/6ljwDieKohc?t=400

dildo4u
2022-07-03, 06:46:22
A370 Probleme mit Treiber/Software.


mdFnY74dVNE

DerKleineCrisu
2022-07-03, 10:34:19
Angeblich soll nun doch bei der Graka auf AMD Systemen das Smart Access Memory (SAM) funktionieren.

Wäre eine sehr dumme Entscheidung gewesen einfach eine Plattform außen vor zu lassen, wobei es ist Intel . Da ist alles möglich. Es wäre ihnen sicher dann so ergangen wie damals Nvidia nach dem aufkauf von der Phyx Erweiterung. Von Anfang an zum scheitern verurteilt.

ryan
2022-07-03, 11:13:53
Was heißt doch? Intel hat nie gesagt, sie würden es nicht unterstützen wollen. Sie haben nur gesagt, es würden mehr Plattformen später folgen. Eine endgültige Liste war das nie.

Support for more platforms will be added at a later time.

y33H@
2022-07-13, 13:38:31
Dann wollen wir mal :ulove:

79887

DrFreaK666
2022-07-13, 13:40:36
:up:

edit:
6xBBJLoCnxI

Loeschzwerg
2022-07-13, 14:09:20
Dann wollen wir mal :ulove:

79887

Läuft :cool:(y)

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=79888&stc=1&d=1657714127

y33H@
2022-07-13, 14:14:12
Wundertreiber installiert? :ulol:

Loeschzwerg
2022-07-13, 14:23:54
Den 1743, da ist APO per default deaktiviert. 4x AA ist im Heaven ziemlich hässlich, 8x dagegen sauber. Sonst lief bis jetzt alles.
Arc Control hat gute Ansätze, aber es hat noch kleinere Macken und mich nervt dass es kein Fenster ist, sondern eine Art Overlay (oder es spinnt bei mir, who knows).
Wundertreiber sind es noch nicht, aber verglichen zur DG1 schon eine deutliche Steigerung.

y33H@
2022-07-13, 14:28:03
Mal gucken, wie schnell ich durch komme, habe Urlaub nächste Woche ^^

DrFreaK666
2022-07-13, 14:38:09
irgendwelche Anzeichen von XeSS?

y33H@
2022-07-13, 15:19:03
Bisher nüscht, leider.

Loeschzwerg
2022-07-13, 15:57:34
Falls es jemanden interessiert, hier der GPU Info Report für Vulkan und OpenCL (API Erweiterungen, Features usw.):
http://vulkan.gpuinfo.org/displayreport.php?id=15807
http://opencl.gpuinfo.org/displayreport.php?id=517

dildo4u
2022-07-13, 17:03:12
Gamer Nexus hat schon ein 750 aber schwer zu sagen wo die liegt 3050?


https://videocardz.com/newz/intel-arc-a750-limited-edition-desktop-gpu-pictured-review-already-in-the-works

dargo
2022-07-13, 17:12:20
Mit 3072 SPs soll das Teil gerade mal ne poppelige RTX 3050 erreichen? X-D :eek: :freak:

Edit:
Unter der Annahme, dass A380 die RX 6400 erreicht würde ich davon ausgehen, dass A750 ca. RX 6700 non XT erreicht. Was wiederum bedeuten würde, dass sich A750 zwischen RTX 3060 und RTX 3060TI positionieren dürfte.

dildo4u
2022-07-13, 17:14:40
Kein Plan bisher haben sie ja nur im 3DMark performt und in Games waren sie eine Klasse drunter, daher 750 und nicht 760 als 3060 Gegner?

Benches mit und ohne Rebar es ist Voraussetzung für Konkurenzfähige Performance.

La-dcK4h4ZU

dargo
2022-07-13, 18:06:50
Alter Schwede... was ist denn das? X-D
https://youtu.be/La-dcK4h4ZU?t=980

Da ist die poppelige RX 6400 mal eben 85% schneller. :hammer: Sind die DX11 Treiber von Intel so extrem schlecht oder was ist da los? :freak: Da ist bei Intel speziell in GTA V irgendwas völlig kaputt im Treiber. Anderes DX11 Game performt wie erwartet.

Loeschzwerg
2022-07-13, 19:15:14
Habe die A380 mal durch den Mem Latency Benchmark gejagt:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=79890&stc=1&d=1657732502

ReBAR war aktiv, ein Test ohne folgt noch.

Denniss
2022-07-13, 21:17:33
säuft 30W mehr als die 6400, dafür ist die gebotene Leistung ein Witz. für alte Rechner ohne Rbar nicht zu gebrauchen.
Die 6500XT säuft das doppelte der 6400 kann das aber nicht in entsprechender Mehrleistung umsetzen. Ist von der Konzeption halt ein wenig überzogen

aufkrawall
2022-07-13, 21:20:02
säuft 30W mehr als die 6400, dafür ist die gebotene Leistung ein Witz. für alte Rechner ohne Rbar nicht zu gebrauchen.

Es haben aber mehr alte Rechner rBAR als PCIe 4.0. Oder sind die Lanes bei den Intel-Karten auch komplett verstümmelt?

dargo
2022-07-13, 21:33:13
säuft 30W mehr als die 6400, dafür ist die gebotene Leistung ein Witz. für alte Rechner ohne Rbar nicht zu gebrauchen.
Die 6500XT säuft das doppelte der 6400 kann das aber nicht in entsprechender Mehrleistung umsetzen. Ist von der Konzeption halt ein wenig überzogen
Die RX 6500XT ist halt Brechstange bei der Frequenz, ergo auch hohe Spannung. Die RX 6400 erinnert mich etwas an die R9 Fury Nano, ein wesentlich besserer Betriebspunkt vom IHV gewählt.

y33H@
2022-07-13, 22:01:23
Also JWE2 sieht im Menü so aus und crasht beim Laden des Savegames ;(

79892 79893

ryan
2022-07-13, 22:43:57
säuft 30W mehr als die 6400, dafür ist die gebotene Leistung ein Witz. für alte Rechner ohne Rbar nicht zu gebrauchen.
Die 6500XT säuft das doppelte der 6400 kann das aber nicht in entsprechender Mehrleistung umsetzen. Ist von der Konzeption halt ein wenig überzogen


Das muss man in den Spielen testen, Furmark oder 3dmark sagt nicht viel aus. Arc hat Auslastungsprobleme in einigen Spielen, also wahrscheinlich eher in denen wo die Performance besonders schlecht aussieht. Und dann kann die Leistungsaufnahme bei der Hälfte von Furmark liegen.




65W in Furmark reichen bei 2450 Mhz. Etwa 60W im timespy und rund 50W in Spielen. In Dota 2 geht es sporadisch auf unter 30W, die Auslastung scheint nicht optimal. Kein Wunder bei der Performance.
https://youtu.be/qgZsLiDuhj0?t=396

DrFreaK666
2022-07-14, 06:05:17
Test von Gamers Nexus

La-dcK4h4ZU

konkretor
2022-07-14, 09:21:46
https://twitter.com/ComputerBase/status/1547473270299033602?s=20&t=b2FSR6-Ad6Aj04zeMY--aw



https://twitter.com/wallossek/status/1546844991401730048?s=20&t=b2FSR6-Ad6Aj04zeMY--aw


https://twitter.com/GolemRedaktion/status/1547183388339191808?s=20&t=b2FSR6-Ad6Aj04zeMY--aw


Ich freu mich schon auf die Tests

dargo
2022-07-14, 09:51:15
Naja... ich fänds interessanter wenn jemand schon die A750 oder gar A770 testen würde. Die A380 ist von der Performance her eher der unterste Einstieg.

konkretor
2022-07-14, 10:13:23
Er hat klar gestellt er hat sie nur mal anfingern dürfen.


https://twitter.com/VideoCardz/status/1547335734226567169?s=20&t=_Qn5C2xin6F_timJf6Ku4A

konkretor
2022-07-14, 13:06:09
YT hat das Video auf FSK 18 gesetzt

https://twitter.com/GamersNexus/status/1547528351442771968?s=20&t=tZU1ZqtzfM_5z9l4t9NSeQ


Ein schelm wer dabei Intel dahinter vermutet :ulol4:

y33H@
2022-07-14, 13:19:33
Was ein Bug-Fest, ey ...

ChaosTM
2022-07-14, 13:20:54
Das war zu befürchten/erwarten leider. Hoffentlich ziehen sie es trotzdem durch und lernen... :)

=Floi=
2022-07-14, 13:23:31
Was ein Bug-Fest, ey ...
Hat man etwas anderes erwartet?

Jetzt sieht man wenigstens mal die warheit über die ach so tollen igp von intel. Die müssen einfach noch richtig geld in die hand nehmen für den treiber. (ich glaube eher an ein sterben des projektes innerhalb der nächsten 5 jahre)

Billige karten und viel support für ein bug melde programm (wie es intel, eh schon betreibt) wären es. Die erste gen müsste zum EK verkauft werden.

Loeschzwerg
2022-07-14, 13:40:30
Was ein Bug-Fest, ey ...

Wie in der guten alten Zeit mit S3, SiS, Matrox und Co. :D Ich habe richtig Spaß beim testen ^^

Loeschzwerg
2022-07-14, 15:42:33
ReBAR war aktiv, ein Test ohne folgt noch.

ReBAR off macht keinen Unterschied:
79899

Planlose Bilder von der Karte im Anhang...

Loeschzwerg
2022-07-14, 17:06:49
Hier die Featureliste für HEVC und AV1:
79904 79905 79906

Vollständige Auflistung in der Textdatei im Anhang.

aufkrawall
2022-07-14, 17:22:20
Leider nichts zu 12 Bit. Aber gut, AV1 10 Bit Hardware-Encoding ist auch schon extrem nett.

Loeschzwerg
2022-07-14, 17:37:07
Habe auf Anfrage einen Demo-Clip mit HEVC und AV1 encodiert, das Ergebnis gibt es in folgendem Archiv:
https://filehorst.de/d/eoznrBpB

AV1:
11708 frames, 334.49 fps, 2418.42 kbps, 140.64 MB
time 0:00:35, CPU: 51.6, GPU: 48.1, VD: 74.9

HEVC:
11708 frames, 380.93 fps, 2498.27 kbps, 145.29 MB
time 0:00:30, CPU: 59.8, GPU: 55.6, VD: 86.5

Benutzername
2022-07-14, 18:01:04
Gamers Nexus muss wohl echten 3D-nerd-pr0n produziert haben mit dem Test der Arc A380. ;D



Wie in der guten alten Zeit mit S3, SiS, Matrox und Co. :D Ich habe richtig Spaß beim testen ^^


War doch langeweilig, daß fast alles sofort plug & play lief mit AMD und nVidida die letzten über zehn Jahre. :wink:




edit: GN macht ja noch einen teardown. Den dann auf Pornhub? Onlyfans?

y33H@
2022-07-14, 18:29:54
8K30 via AV1-Decode im Edge tut nicht, kriege max 4K30 mit VP9 ... im RG steht auch nur was von Encoding ^^

Loeschzwerg
2022-07-14, 19:33:46
Habe auf Anfrage einen Demo-Clip mit HEVC und AV1 encodiert, das Ergebnis gibt es in folgendem Archiv:


Das Ergebnis des Qualitätsvergleichs HVEC vs AV1, gemessen mit dem MSU VQMT (MSU Video Measurement Quality Tool):
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=79911&stc=1&d=1657820012

Danke geht an Twitter User @mikdt :
https://twitter.com/miktdt/status/1547629603950252033

Loeschzwerg
2022-07-14, 19:48:20
https://videocardz.com/newz/intels-preproduction-arc-a380-graphics-card-emerges-and-its-tiny

79912

So hätte das irgendwie ein wenig besser gepasst :freak:

ceed
2022-07-14, 20:07:01
https://www.youtube.com/watch?v=AN8ZAf15DrM

in dem Interview gibt er zu dass sie die Spiele die viele Reviewer nutzen mit zuerst optimieren

Loeschzwerg
2022-07-14, 20:37:06
Hinsichtlich 3DMark: Es gibt nur Optimierungen (APO) für Time Spy, Mesh und Port Royal, für alles andere gibt es nichts und man kann auch über manuelles hinzufügen nichts im Arc Control optimieren.
Gemerkt habe ich mir noch Dirt Rally und CSGO... aber APO ist per default aus.

Arc Control ist noch eine richtig schöne Baustelle... Für die Tool-Tipps sind teilweise nur Platzhalter gesetzt (also planloser Text) und ich kann z.B. auch manuell hinzugefügte Spiele nicht wieder entfernen (WTF!).

Aber dafür funktioniert OC und die Sensorwerte... so halbwegs:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=79914&stc=1&d=1657823748

aufkrawall
2022-07-14, 20:48:04
Der Spannungsoffset sieht ja drollig aus. Hoffentlich noch unfertig?

Loeschzwerg
2022-07-14, 20:50:39
Frag mich was leichteres :freak: Bis jetzt geht das zumindest nur in eine Richtung. GPU Power steht per Default auf 65.5W (frage mich nicht warum .5, ist immer so).

DrFreaK666
2022-07-15, 01:00:14
Grid 2 ist zwar nicht mehr ganz frisch, aber hat man mit den Arc-Grafikkarten die zusätzlichen Effekte?

https://www.pcgameshardware.de/Grid-2-Spiel-4699/News/Grid-2-Exklusive-Grafikeffekte-fuer-Haswell-1071513/

=Floi=
2022-07-15, 06:11:50
https://www.youtube.com/watch?v=AN8ZAf15DrM

Ganersnexxus mit Tom Pettersen.

Benutzername
2022-07-15, 14:45:53
https://www.youtube.com/watch?v=AN8ZAf15DrM

in dem Interview gibt er zu dass sie die Spiele die viele Reviewer nutzen mit zuerst optimieren


Ist auch die einzig sinnvolle Vorgehensweise. Auch intel hat nicht unendlich Programmierer und muss Schwerpunkte setzen. Also die oft getesteten Spiele und DX12 & Vulkan im Allgemeinen fertig machen. DX9 für Counterstrike oder etwas ähnlich altes oder DX11 muss dann warten.

AMD und nVidia optimieren ja auch auf die oft genutzten Spiele und 3DMark usw.. Lügen -> verdammte Lügen -> Benchmarks.

@=Floi=: ceed war einenTicken schneller. ;) Aber gutes ehrliches Gespräch. Bei intel scheinen ja wenigstens einige sich bewusst zu sein, daß sie der Neue sind. Okay, Pettersen ist auch schon lange im Graka Geschäft.

--------------------------------------

edit: sieht so aus als ob das A380 Video von Gamers Nexus nicht mehr AB18 ist. Toll, hat GN jetzt bestimmt um die Million views für das Video gebracht. Ganz toll YouTube. :P(no)

https://www.youtube.com/post/UgkxW6Uytt2SsM8NfLld6RmmcaM89dwFP2Hp

Raff
2022-07-15, 14:58:42
Grid 2 ist zwar nicht mehr ganz frisch, aber hat man mit den Arc-Grafikkarten die zusätzlichen Effekte?

https://www.pcgameshardware.de/Grid-2-Spiel-4699/News/Grid-2-Exklusive-Grafikeffekte-fuer-Haswell-1071513/

Die Rauchschatten gibt's IIRC seit paar Jahren nimmer extra.

MfG
Raff

Loeschzwerg
2022-07-15, 16:04:33
Es gibt nur Optimierungen (APO) für Time Spy, Mesh und Port Royal,

Um nochmals darauf zurückzukommen... So sieht das ganze im Arc Control aus:
79926 (Games Library)
79929 (Time Spy; mit APO)
79928 (Wild Life; kein APO)
79927 (Fire Strike; kein APO)

Wie man sehen kann gibt es für Wild Life und Fire Strike kein APO. Diese musste ich btw. auch manuell hinzufügen!

In Time Spy bringt aktives APO bei mir +14%. In SotTR ändert aktives APO nichts, genauso wenig in CS:GO. In Dirt Rally bringt aktives APO von P0.1% bis Avg zwischen 2-3fps.

ryan
2022-07-15, 16:45:21
8K30 via AV1-Decode im Edge tut nicht, kriege max 4K30 mit VP9 ... im RG steht auch nur was von Encoding ^^


Microsoft AV1 Video Extension installiert? Ansonsten geht es nicht im Browser. Den Fehler hatten damals einige zum Xe launch gemacht, zum Beispiel Computerbase.

y33H@
2022-07-15, 16:51:41
Intel Arc A750 Limited Edition Graphics Card Performance Showcase

https://www.youtube.com/watch?v=uctDN9uYcXI

y33H@
2022-07-15, 16:53:51
Microsoft AV1 Video Extension installiert? Ansonsten geht es nicht im Browser. Den Fehler hatten damals einige zum Xe launch gemacht, zum Beispiel Computerbase.Klar doch - ich hab's ja bei Ampere und RDNA2 immer getestet (https://scr3.golem.de/screenshots/2009/RTX-3080-uArch/RTX-3080-uArch-06a.png) schon mit Edge ... dummerweise tut's bei Arc nicht mit Edge, aber mit Chrome - wie ich mittlerweile rausgefunden habe :freak:

79930

ryan
2022-07-15, 16:55:50
Intel Arc A750 Limited Edition Graphics Card Performance Showcase

https://www.youtube.com/watch?v=uctDN9uYcXI


Hier die Kurzfassung:

https://abload.de/img/arcnrk8o.png

Troyan
2022-07-15, 16:59:54
Ist das jetzt gut? Die 3060 hat 170W. Da müsste Intel bei ca. 190W liegen, um effizienzmäßig gleichzuziehen...

Loeschzwerg
2022-07-15, 17:04:22
Ohne die genauen Specs der Karte zu wissen... schwer zu sagen. Rein von den Zahlen und der Produktkategorie hätte ich gesagt dass das ganz ordentlich ist.

dargo
2022-07-15, 17:04:41
Hier die Kurzfassung:

https://abload.de/img/arcnrk8o.png
Punktlandung. :)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13055964&postcount=297

y33H@
2022-07-15, 17:21:55
A750 soll 24 Xe-Cores (3072 ALUs) bei 192b und 12GB habe, meine ich im Hinterkopf zu haben.

EDIT:

8P+6P sind für 300W gut, die RX 6700 XT mit gleichen Anschlüssen hat 230W - ist aber auch arg hoch getaktet.

Ex3cut3r
2022-07-15, 18:21:32
Punktlandung. :)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13055964&postcount=297

Herstellen Angaben und eigene Benchmarks sind immer so ne Sache, ich glaubs ja erst, wenn ich es bei der PCGH, CB, Golem sehe. :wink:

Auch wenn es stimmt, die 4060 dürfte Q1 nächstes Jahr schon erscheinen, dann ist so ne Argh A750 auch nix mehr dolles. Ist es IHMO schon heute nicht. Ampere ist fast 2 Jahre alt.

Linmoum
2022-07-15, 19:18:37
Ist das jetzt gut? Die 3060 hat 170W. Da müsste Intel bei ca. 190W liegen, um effizienzmäßig gleichzuziehen...Ob das gut ist kann man schon direkt verneinen, da die Benchmarks von Intel selbst kommen. Alleine nach dem zwischen "up to +25% price/perf" und der Realität vs. 6400 kann man diese Bastelbude nicht mehr ernst nehmen bei allem, was publizierte Benchmarks oder Zahlen generell anbelangt.

Und wenn Intel zu den fünf Spielen dort noch zwei DX11-Titel aufgenommen hätte.... ;D

dargo
2022-07-15, 19:23:01
Imho wird es Intel sehr schwer mit dem Einstieg haben. Dass am Anfang nicht sofort das gesamte Portfolio bis zum High-End kommt ist klar. Aber die Dinger kommen dennoch viel zu spät. Intel muss sich bald mit RDNA3 und Ada messen lassen. Diese Gen wird das imo nichts, vielleicht bei der nächsten Gen dann.

Herstellen Angaben und eigene Benchmarks sind immer so ne Sache, ich glaubs ja erst, wenn ich es bei der PCGH, CB, Golem sehe. :wink:

Auch wenn es stimmt, die 4060 dürfte Q1 nächstes Jahr schon erscheinen, dann ist so ne Argh A750 auch nix mehr dolles. Ist es IHMO schon heute nicht. Ampere ist fast 2 Jahre alt.
Da hat Intel noch etwas Zeit zum atmen. :tongue: Ne 4060 erwarte ich erst ca. März bis Mai 2023.

dildo4u
2022-07-15, 19:43:14
Erstmal wird nur High-End ersetzt ich erwarte erstmal nix neues unter 500€ von NV und AMD Und dort ist noch Potenzial was Preise angeht.
6650XT und 3060 für 400€ sind Murks.

Ex3cut3r
2022-07-15, 20:16:03
Trotzdem ist das ganz gut für uns (Konsumenten) wenn jetzt ein dritter Player einsteigt. Ich begrüße das, auch wenn Intel natürlich nicht gleich mithalten kann, aber mittelfristig, dürfte das recht "nette" Preise hervorbringen. *Hoffentlich*

=Floi=
2022-07-15, 21:17:15
Bei den preisen sind die sich doch einig...
Wenn solche schmutz karten wie die 1630 und 6400er grundlos kommen, dann sehe ich auch schwarz. Hier hätte man viel mehr bringen können.

gedi
2022-07-15, 23:24:07
Punktlandung. :)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13055964&postcount=297

Wenn überhaupt! Wahrscheinlich sind se im ll besser aufgestellt, als in med- oder hl! Es sei ihnen verziehen. Gab es seit 1993 jemals ne Descrete GPU seitens Intel? Anders herum: Gab es so etwas in der Form schon mal?

DrFreaK666
2022-07-16, 00:48:26
Wenn überhaupt! Wahrscheinlich sind se im ll besser aufgestellt, als in med- oder hl! Es sei ihnen verziehen. Gab es seit 1993 jemals ne Descrete GPU seitens Intel? Anders herum: Gab es so etwas in der Form schon mal?

EDibgeNzZ7c

https://vintage3d.org/i740.php#sthash.vtJTWVYL.dpbs

Benutzername
2022-07-16, 16:02:11
https://youtu.be/EDibgeNzZ7c

https://vintage3d.org/i740.php#sthash.vtJTWVYL.dpbs

Project Larabee war der letzte Anlauf vor etwas über zehn Jahren. Gab nur die Xeon Phi Rechner-Karten zu kaufen.

https://en.wikipedia.org/wiki/Larrabee_(microarchitecture)



huch, ich wusste gar nicht, daß es auch i740 für PCI gab. Ziemlich schräg, daß die Karten dann ihren eigenen zusätzlichen RAM für AGP auf der Karte mitbrachten.

dildo4u
2022-07-17, 07:56:52
Erstmal wird nur High-End ersetzt ich erwarte erstmal nix neues unter 500€ von NV und AMD Und dort ist noch Potenzial was Preise angeht.
6650XT und 3060 für 400€ sind Murks.

Intel sieht genau dort die A770.Die Einschätzungen scheinen ziehmlich realistisch die 380 ist dort unter der 6400.

https://videocardz.com/newz/intel-arc-alchemist-desktop-sku-pricing-leaks-out-arc-a770-for-less-than-400-usd

Linmoum
2022-07-17, 09:11:49
Fast 100W mehr obwohl sie schon TSMC N6 nutzen? Autsch.

dildo4u
2022-07-17, 09:47:47
Fast 100W mehr obwohl sie schon TSMC N6 nutzen? Autsch.
Die 6600 ist ein RT Krücke möglich das dort die Transistoren in der Intel GPU drauf gingen müsste man mal testen.
Wenn die 220 Watt Karten die 6700Xt deutlich schlagen, passt Performance für die Zukunft.

https://www.computerbase.de/2022-06/f1-22-benchmark-test/3/#abschnitt_benchmarks_mit_rt_in_full_hd_wqhd_und_ultra_hd_update

Linmoum
2022-07-17, 09:58:12
Es gibt keine nahe Zukunft für Stromfresser in der Einstiegs- oder Mittelklasse. Das ist bei den Enthusiasten vielleicht noch irrelevant, aber nicht wenn es Richtung Massenmarkt geht. Genauso, wie es genug non-RT Games weiterhin geben wird und selbst RT-Spiele manchmal müllig selbst in FHD auf High-End-GPUs laufen, weil Entwickler sich darum scheinbar nicht scheren.

dildo4u
2022-07-17, 10:02:12
Das ist imo kein Argument wenn sich das Upscaling ständig weiter entwickelt, auch AMD wird nicht nur mher RT Performance haben sondern deutliche Sprünge beim Upscaling machen.
Genau das wird z.b bei nästen Forza genutzt dort hast du auf Konsole RT auf der Strecke und nicht nur im Replay.

ryan
2022-07-17, 12:20:14
Arc Smooth Sync Demo:

https://youtu.be/8ENCV4xUjj0?t=979

y33H@
2022-07-17, 13:25:30
Um nochmals darauf zurückzukommen... So sieht das ganze im Arc Control aus:
79926 (Games Library)
79929 (Time Spy; mit APO)
79928 (Wild Life; kein APO)
79927 (Fire Strike; kein APO)

Wie man sehen kann gibt es für Wild Life und Fire Strike kein APO. Diese musste ich btw. auch manuell hinzufügen!

In Time Spy bringt aktives APO bei mir +14%. In SotTR ändert aktives APO nichts, genauso wenig in CS:GO. In Dirt Rally bringt aktives APO von P0.1% bis Avg zwischen 2-3fps.War APO bei dir per default an oder aus bei Time Spy? weil App hinzufügen ist schon leicht sperrig ...

Loeschzwerg
2022-07-17, 14:05:23
Per default war APO aus und Arc Control hat bei mir automatisch Time Spy, Mesh erkannt. Für WildLife und FireStrike scheint es keine Profile zu geben, weshalb in meinen Augen diese auch nicht regulär gelistet werden.

y33H@
2022-07-17, 14:56:26
Gut, dann passt das.

Atma
2022-07-17, 15:31:09
Die 6600 ist ein RT Krücke möglich das dort die Transistoren in der Intel GPU drauf gingen müsste man mal testen.
RT ist in der Preisklasse nun wirklich kein Argument, sonst müsstest du im gleichen Atemzug auch die RTX 3050 erwähnen. Die RX 6600 und RTX 3050 kosten beide in etwa gleich viel, beide haben eine vergleichbare RT-Leistung doch liefert die RX 6600 deutlich mehr Leistung beim klassischen Rasterizing. Beim Performance/Watt Verhältnis ist die Radeon in der Preisklasse deshalb unangefochten auf Platz 1.

dildo4u
2022-07-17, 16:57:33
Und genau deswegen muss Intel liefern und besser als AMD sein, was jetzt Angeboten wird ist nicht besser als vor 3 Jahren.
6600 ist auf Level mit einer 2060, also alles was dazu gekommen ist sind 2GB-Vram.

Atma
2022-07-17, 18:10:44
6600 ist auf Level mit einer 2060
Bei RT, ja. Beim Rasterizing ist die 6600 in den meisten Games ein gutes Stück schneller. Aber das soll hier nicht das Thema sein, OT und so.

dildo4u
2022-07-18, 09:27:12
Bei RT, ja. Beim Rasterizing ist die 6600 in den meisten Games ein gutes Stück schneller. Aber das soll hier nicht das Thema sein, OT und so.
12GB Version selbe Performance wie 6600 laut dem.

https://www.pcgameshardware.de/Geforce-RTX-2060-12GB-Grafikkarte-278029/Tests/RTX-2060-12GB-vs-RTX-2060-6GB-Was-bringen-12-GByte-1386067/3/

300€

https://www.notebooksbilliger.de/gigabyte+geforce+rtx+2060+d6+12g+grafikkarte+751811?nbbct=4001_geizhals

Intel kann es sich leisten beide zu unterbieten AMD nimmt eher die Marge mit da der Ruf nicht mher Katastrophal ist.

dargo
2022-07-18, 10:17:32
12GB Version selbe Performance wie 6600 laut dem.

Nur säuft sie auch 39% mehr. Aus Effizienzsicht ist Turing schon länger keine Konkurrenz mehr.

dildo4u
2022-07-18, 11:21:54
Welche Systeme vertragen das nicht? Selbst AMD hat das als Argument aufgegeben und die 6650XT auf 180 Watt gezogen.
Das spielt höstens eine Rolle wenn Leute extra neue Netzteile brauchen oder man 24/7 Mining betreibt.

dargo
2022-07-18, 11:25:01
Welche Systeme vertragen das nicht?
Was ist das denn in dem Zusammenhang für eine beknackte Frage?

Selbst AMD hat das als Argument aufgegeben und die 6650XT auf 180 Watt gezogen.

Ist das wieder die berühmte Dildo Logik? Wenn AMD der Verbrauch scheiß egal wäre würde man keine RX 6400 ins Portfolio aufnehmen und halten.

konkretor
2022-07-18, 12:24:53
Test von Computerbase, Golem und Igorslab, Mittwoch 20.07.22 um 12 Uhr gehen die Test Online.

ryan
2022-07-18, 13:38:17
PRO Hi-Tech review von der Gunnir:


https://youtu.be/vrwfHuEb_Gw


Wie kann es sein, dass die OC Gunnir so viel schneller ist bei gerade mal 50-100 Mhz mehr GPU Takt? Werden die GPU Taktraten falsch ausgelesen?

Ganz extrem ist das in Doom Eternal.

https://abload.de/img/doomnmk1k.png


33W Vs 56W passt auch nicht zusammen bei +50 Mhz. Als wenn die default A380 nicht richtig ausgelastet wird. Oder ist die Spannung zu niedrig bei der default A380? Dann würden aber die GPU Taktraten nicht passen.

Ex3cut3r
2022-07-18, 14:08:39
Nur säuft sie auch 39% mehr. Aus Effizienzsicht ist Turing schon länger keine Konkurrenz mehr.
Dafür hat sie ganze 4GB mehr VRAM, DLSS Support und die Raster Leistung ist gleich. Sollten einen der Stromverbrauch stören, dann UV bitte. Hast du mit Vega 64 ja auch hinbekommen.

misterh
2022-07-18, 14:19:18
Wie kann es sein, dass die OC Gunnir so viel schneller ist bei gerade mal 50-100 Mhz mehr GPU Takt? Werden die GPU Taktraten falsch ausgelesen?


wegen dieser Einstellung evtl.
https://abload.de/img/unbenanntu8k2k.png

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=79914&stc=1&d=1657823748

OCmylife
2022-07-18, 14:30:47
PRO Hi-Tech review von der Gunnir:


https://youtu.be/vrwfHuEb_Gw


Wie kann es sein, dass die OC Gunnir so viel schneller ist bei gerade mal 50-100 Mhz mehr GPU Takt? Werden die GPU Taktraten falsch ausgelesen?

Ganz extrem ist das in Doom Eternal.

https://abload.de/img/doomnmk1k.png


33W Vs 56W passt auch nicht zusammen bei +50 Mhz. Als wenn die default A380 nicht richtig ausgelastet wird. Oder ist die Spannung zu niedrig bei der default A380? Dann würden aber die GPU Taktraten nicht passen.

Ich fand den Unterschied zwischen Stock und OC in dem Video auch exorbitant und ich kann mir ehrlich gesagt nicht vorstellen, dass Intel freiwillig so viel Leistung verschenkt. Man muss sich da nur mal das Übertaktungspotenzial bei den CPUs anschauen. Und dann bei 50 MHZ Taktunterschied so einen Leistungszuwachs? Glaube ich nicht. Mit OC sieht sie gegen die 1650 in FHD doch gar nicht so schlecht aus.

Loeschzwerg
2022-07-18, 15:34:02
Da stimmt auch etwas nicht, die Karte müsste bei der eingestellten "Leistungsverstärkung" auch einen höheren Takt anliegen haben. Also zumindest wenn ich das mit meiner vergleiche.

Bubba2k3
2022-07-18, 19:11:03
Bitte bleibt beim Thema!

ryan
2022-07-19, 01:09:10
Da stimmt auch etwas nicht, die Karte müsste bei der eingestellten "Leistungsverstärkung" auch einen höheren Takt anliegen haben. Also zumindest wenn ich das mit meiner vergleiche.


Das Powermanagement könnte buggy sein.


https://forums.anandtech.com/threads/intel-to-develop-discrete-gpus-almost-5-years-later-cards-are-here.2526376/page-105#post-40804541


Hältst du das für plausibel? Teilweise springt die Anzeige bei der A380 ganz kurz auf 100 Mhz, das kann auch schon ein Anzeichen für ein power Management Problem sein. Gibt man der Karte jetzt mehr Spannung und Watt, löst sich das Problem. Die Mhz Anzeige scheint falsch zu sein. Interessant wäre, was das Intel overlay für Taktfrequenzen anzeigen würde in den Spielen.

Loeschzwerg
2022-07-19, 11:26:42
Konnte ich bei mir zumindest nicht feststellen. Sowohl Arc Control als auch HWiNFO zeigen keine Drops auf 100MHz oder ähnliches.
Wenn ich Furmark laufen lasse, rennt die GPU in das 65W Limit (per default gesetzt) und der Takt sinkt von 2450MHz auf 2400MHz. In Spielen wie z.B. Shadow of the Tomb Raider oder auch 3DMark TimeSpy und Co. reicht das Limit aus und es liegen durchgehend 2450MHz an (Anzeige via HWiNFO @ RTSS).

Mit +20%, +0,050mV und das Limit maximiert habe ich durchgehend 2545 MHz. Das Leistungsplus entspricht dann in etwa ziemlich genau den +100MHz. Das erkauft man sich aber durch deutlich schlechtere Varianzen bei den Frames.

Was auch immer der Kollege bei Hi-Tech da getestet hat, es war eindeutig etwas faul.

ryan
2022-07-20, 12:01:24
Konnte ich bei mir zumindest nicht feststellen. Sowohl Arc Control als auch HWiNFO zeigen keine Drops auf 100MHz oder ähnliches.
Wenn ich Furmark laufen lasse, rennt die GPU in das 65W Limit (per default gesetzt) und der Takt sinkt von 2450MHz auf 2400MHz. In Spielen wie z.B. Shadow of the Tomb Raider oder auch 3DMark TimeSpy und Co. reicht das Limit aus und es liegen durchgehend 2450MHz an (Anzeige via HWiNFO @ RTSS).

Mit +20%, +0,050mV und das Limit maximiert habe ich durchgehend 2545 MHz. Das Leistungsplus entspricht dann in etwa ziemlich genau den +100MHz. Das erkauft man sich aber durch deutlich schlechtere Varianzen bei den Frames.

Was auch immer der Kollege bei Hi-Tech da getestet hat, es war eindeutig etwas faul.


Bei manchen läuft es sonderbar, nicht nur bei Hi-Tech. Kann auch systemabhängig sein, wer weiß.

https://twitter.com/GPUsAreMagic/status/1549637380637921280


Tests sind jetzt online:

https://www.computerbase.de/2022-07/intel-arc-a380-review-test/
https://www.golem.de/news/arc-a380-im-test-intels-grafikkarte-hat-ein-prae-historisches-problem-2207-166780.html
https://www.igorslab.de/intel-arc-a380-6gb-im-test-gunnir-photon-samt-benchmarks-detailanalysen-und-ausfuerlichem-teardown/


Muss ich mir noch genauer anschauen, die sind recht umfangreich.

Linmoum
2022-07-20, 12:11:42
Bin gerade erst mittendrin bei CB, aber das ist ja desaströs und vernichtend bislang. Unfassbar.

Mal schauen, ob das anhält und ob Igor und Golem ähnliches erlebt haben.

Doch das war erst der Anfang. Ebenso kurios ist das Verhalten der Grafikkarte mit Resizable BAR – beziehungsweise vielmehr ohne. Die Kurzfassung: Arc ohne rBAR ist aktuell völlig unbrauchbar. Man muss es gar nicht erst versuchen. Für gewöhnlich bringt das Feature auf modernen AMD- und Nvidia-Grafikkarten je nach Spiel ein paar Prozent mehr Performance. Vor allem Radeons profitieren ordentlich, dort kann das Plus auch mal 20 Prozent betragen, im Schnitt sind es aber deutlich weniger.

Die Arc A380 profitiert dagegen um 27 Prozent von rBAR. Im Durchschnitt wohlgemerkt. In einzelnen Spielen können es auch schon mal 84 Prozent sein. Und nein, das ist kein Schreibfehler oder Witz. Ohne Resizable BAR hakt darüber hinaus fast jedes Spiel auf Intels neuer GPU, in manchen Titel „nur“ gelegentlich, in anderen dagegen eigentlich immer. Schlussendlich ist beides unspielbar und die deutlich reduzierten Durchschnitts-FPS sind das kleinste Problem.

Und damit ist die Arc A380 auf allen Ryzen-Systemen schlicht unbrauchbar. Denn Intels Grafiktreiber unterstützt Resizable BAR noch nicht auf AMDs Plattform, nur Intel-CPUs und -Mainboard können damit umgehen. Wer sich eine Arc A380 für einen Ryzen-Prozessor kauft, holt sich damit eigentlich ein nicht funktionierendes Produkt ins Haus. Wenn die neuen Grafikkarten außerhalb Chinas erscheinen, will Intel rBAR auch auf AMD-CPUs unterstützen. Doch sicherlich gibt es in China ebenso den ein oder anderen Ryzen-Spieler. Der kann den Beschleuniger aktuell eigentlich nur zurückgeben.

Ist das hier wirklich Intel oder irgendein Zirkusartist der versucht lustig zu sein? WTF?

Noch abstruser ist, dass es Spiele gibt, die mit angeschaltetem rBAR auf der Arc A380 einfach nicht starten wollen. :facepalm:

Bitte direkt wieder einstampfen den dritten (?) Versuch. Sowas amateurhaftrs kann doch nicht ernst gemeint sein.

konkretor
2022-07-20, 13:03:49
Wenn der gleiche Treiber für A750 und A770 zum Einsatz kommt dann ist klar wieso Intel erst in Q2/2022 ah moment das war ja schon....

Wie Marc schon im Golem Test festgestellt hat, endlich wieder eine Karte zum basteln und rumprobieren.

Prinzenrolle
2022-07-20, 13:05:33
https://abload.de/img/screenshot2022-07-201y7ku6.png

Man schafft die 6400 immerhin hinsichtlich der Leistung zu erreichen.
Die Energieeffizienz liegt auf dem Niveau einer GTX 1650.
Mit besseren Treibern sollte da noch Steigerungspotenzial drinnen sein.
Für den Anfang gar nicht schlecht.


Ist das hier wirklich Intel oder irgendein Zirkusartist der versucht lustig zu sein? WTF?

Laber doch nicht so einen Käse.
Ja, es gibt Probleme, dennoch geht das in die richtige Richtung und sorgt für einen dritten Player am Markt.
Ich würde die Karte jedenfalls alleine schon wegen dem Speicher und Interesse lieber kaufen, als eine 6400.
rBar läuft bisher nur auf Intel Systemen, ist doch ok.

https://abload.de/img/screenshot2022-07-201pakc1.png

Die Karte hat Potenzial und kann mehr leisten.

Linmoum
2022-07-20, 13:11:19
So, mittlerweile auch die anderen Reviews gesehen. Noch ein paar weitere Stellen aus allen:

CB:
Die Perzentil-FPS-Messungen zeigen bereits, dass die Intel Arc A380 teils deutliche Probleme beim Frame-Pacing hat. Doch wie sich dies genau äußert, ist nur in einem Verlaufsdiagramm der Frametimes richtig zu erkennen. Es zeigt die zeitlichen Abstände zwischen der Ausgabe jedes einzelnen Bildes an und entsprechend lassen sich Unregelmäßigkeiten und Stottern sofort ausmachen.

Und die Diagramme zeigen dann auch schnell, dass die Arc A380 in mehr als nur wenigen Spielen massive Probleme bei den zeitlichen Abständen der Bilder hat und Games so dann schnell auch trotz ausreichender FPS schlicht unspielbar sind. Das Worst-Case-Szenario ist zum Beispiel The Witcher 3, das man auf einer Arc A380 aktuell gar nicht erst ausprobieren sollte. So hat es zwar generell kein gutes Frame-Pacing, aber die A380 macht daraus endgültig eine Katastrophe. Es gibt viele große Spikes im Bereich der 40 bis 50 ms und zwischendurch andauernd Abstände von rund 30 ms, obwohl nach dem FPS-Bereich auch gleichmäßige 16 ms möglich gewesen wären. Oft brauchen die Bilder also knapp doppelt so lange wie eigentlich nötig, um zum Bildschirm abgeschickt zu werden – teils sogar drei Mal so lange. Das erzeugt dann ein andauerndes Stottern auf Intels GPU.

Igor:
Das sogenannte P1 (1% der langsamsten FPS) ersetzt die Min FPS und hier bekommt Intels Arc A380 in 720p fast schon eine Demütigung verpasst. Die Radeon RX 6400 liegt hier nämlich satte 27,3 (!) Prozent vor der nicht übertakteten Arc A380 und 22 Prozentpunkte vor der übertakteten Variante, was erneut auf echte Treiber-Probleme schließen lässt. Nutzt man statt des Core i9-12900K einen deutlich langsameren Core i5-12400, dann verschärft sich das Dilemma beim P1 sogar noch einmal drastisch, auch später in Full-HD.
Auch in Full-HD zeigt sich, dass die Arc A380 knapp 25 bzw. mit OC sogar fast 27 Watt über der Radeon RX 6400 liegt. Das sind über 52 Prozentpunkte mehr für eine nur identische Gesamtperformance und eine in manchen Spielen auch schlechtere Bildqualität.

https://www.igorslab.de/wp-content/uploads/2022/07/10-FHD-Efficiency.png

Golem:
Jurassic World Evolution 2 zeigt im Hauptmenü starke Grafikfehler und stürzt beim Laden eines Spielstands ab (JWE1 und Planet Zoo mit gleicher Engine-Basis aber laufen), God of War erreicht erst innerhalb von Missionen mehr als 5 fps und The Witcher 3 stottert so übel, dass Geralts getreues Pferd Plötze sich in ruckartigen Sprüngen vorwärtsbewegt.
Bei der Arc A380 ist das anders, da die P1%-Fps praktisch durchweg viel schlechter ausfallen, als es die nominellen Avg-Fps vermuten lassen. So ist die Radeon RX 6400 rein von der durchschnittlichen Bildrate her über unseren Gaming-Parcours hinweg "nur" 31 Prozent schneller, liegt bei den Frametimes aber immense 78 Prozent vorne.
Die Arc A380 als erstes Modell der Alchemist-Serie mit Xe-HPG-Architektur samt Raytracing-Unterstützung und moderner 6-nm-EUV-Fertigung kann jedoch gleich aus mehreren Gründen nicht überzeugen: Ohne ein System mit rBAR-Support ist die Performance signifikant schlechter als mit, weshalb die Karte für AMD-basierte PCs derzeit einen Komplettausfall darstellt. Aber auch mit rBAR kann die Arc A380 sich weder mit einer Geforce GTX 1650 noch einer Radeon RX 6400 messen und benötigt obendrein (deutlich) mehr Strom, die Effizienz ist ergo schlecht.

Sowas schlechtes gab es echt noch nie. Nicht einmal die 6400 kann man trotz deutlicher Hardware-Vorteile schlagen, nein, man braucht sogar >=50% mehr Leistungsaufnahme für nur eine nur grob ähnliche Performance. Wer das für einen Anfang gar nicht so schlecht erachtet, hat Tomaten auf den Augen oder ist schlicht blind. Oder Fanboy. Eines von denen auf jeden Fall, daran gibt es gar nichts zu beschönigen und es ist hier auch immer noch nicht erst Intels erster Versuch. Weder mit dGPUs, noch mit Treibern. Das muss wenigstens halbwegs passabel sitzen, sowas schlechtes haben NV und AMD/ATi niemals abgeliefert.

RT-Performance ist übrigens auch nur minimal vor einer 6400. Da letztere sogar hardwareseitig schwächer ist, ist die RT-Performance am Ende also eher maximal auf RDNA2-Niveau. Nachdem man gehofft hatte, dass Intel wenigstens hier positiv überraschen konnte, ist auch das meh für Mitte 2022. Einfach zu spät, zu schlecht, zu unfertig.

Tangletingle
2022-07-20, 13:25:09
was für ein müll. das lässt für die großen böses erahnen.

Linmoum
2022-07-20, 13:29:56
Das ist vor allem das Problem. Es bleibt ja nicht nur beim Einstiegssegment, da scheint ja auch noch was mit wohl +-3060 Performance zu kommen. Das ist für viele schon mehr als genug. Sowas kannst du aber schlicht niemandem in dem Zustand empfehlen zu kaufen. Von den angeblich >=225W dann auch noch zu schweigen trotz TSMC N6.

Ex3cut3r
2022-07-20, 13:30:24
Naja, da muss man halt auf die Zweiten oder dritte Gen warten, bin mittelfristig guter Dinge. AMD hat ja auch Jahre gebraucht.

Loeschzwerg
2022-07-20, 13:33:46
Tests sind jetzt online:

https://www.computerbase.de/2022-07/intel-arc-a380-review-test/
https://www.golem.de/news/arc-a380-im-test-intels-grafikkarte-hat-ein-prae-historisches-problem-2207-166780.html
https://www.igorslab.de/intel-arc-a380-6gb-im-test-gunnir-photon-samt-benchmarks-detailanalysen-und-ausfuerlichem-teardown/


Muss ich mir noch genauer anschauen, die sind recht umfangreich.

Meine Werte gibt es hier:
https://www.computerbase.de/forum/threads/intel-dg2-sammelthema.2093683/#post-27107685

Ich habe auch den 30.0.101.1743 mit dem 31.0.101.3220 Beta verglichen.

---

Die Lüfterprobleme von CB habe ich z.B. nicht, auch hatte ich nicht wirklich mit Abstürzen oder großartigen Grafikfehlern zu kämpfen.

Hier eine kurze Auflistung meiner Probleme:
- MemLatencyTester (OpenCL) => jeder zweite Lauf führt zu einem Treiberreset
- 4x MSAA im Unigine Heaven ist kaputt und zeigt an den Kanten kleine Blöcke
- Ich hatte exakt einen Absturz mit dem FFXV benchmark
- Die Shaderkompilierung bei Dota 2 @ Vulkan dauert etwas (~2 Minuten) und es muss sich dann erst im Hauptmenü kurz "einruckeln", danach läuft es aber
- 8x MSAA @ CS:GO zeigt mit dem 31.0.101.3220 Beta gelegentlich ein Flackern in der oberen/unteren Viertel des Bildes

Probleme mit Arc Control:
- teilweise fehlen die korrekten Beschreibungen in den Drop-Down Feldern
- Arc Control ist ein Overlay und kein Fenster
- Bilder zu Spielen werden teilweise nicht geladen
- manuell hinzugefügte Titel lassen sich nicht entfernen
- Arc Control setzte zwingend den Treiber Assistenten von Intel voraus und nur über diesen gibt es Updates für Arc Control
- per Default liefert Intel aktuell eine uralte Version von Arc Control vom März 2022 aus und dieser läuft teilweise gar nicht erst! Ohne Updates funktioniert als Arc Control nicht
- Arc Control kann einen negativen Einfluss auf die Leistung haben

Ja, es sind Baustellen vorhanden, aber bei mir liefen bis jetzt zumindest alle Spiele und das zudem auch spielbar. Auch wenn die Frametimes manchmal unschön sind, ohne die Messungen hätte ich es an meinem 60Hz FullHD Monitor via HDMI gar nicht nennenswert bemerkt (außer natürlich ordentliche Hänger).

Ich sag es mal so, man kann es mit Kritik auch manchmal übertreiben. Wichtig und richtig ist allerdings, dass man diesen Wurf von Intel noch nicht der Allgemeinheit empfehlen kann, gerade wenn man NV/AMD Qualität und Kompatibilität erwartet.

Prinzenrolle
2022-07-20, 13:39:42
Sowas schlechtes gab es echt noch nie. Nicht einmal die 6400 kann man trotz deutlicher Hardware-Vorteile schlagen, nein, man braucht sogar >=50% mehr Leistungsaufnahme für nur eine nur grob ähnliche Performance.

Bei Computerbase ist die 6400 32% Energieeffizienter.
Fokussiert man sich auf die Hälfte des Gamingparcours (was angesichts der Treiber eine sinnvolle Überlegung ist) ist die Effizienz der Radeon auch noch deutlich besser, aber nicht mehr so grob.
Es mangelt schlicht noch am stabilen Treiber.

Wenn es so etwas schlechtes angeblich noch nie gab, hast du wohl die Effizienz von Vega vergessen.:wink:


Wer das für einen Anfang gar nicht so schlecht erachtet, hat Tomaten auf den Augen oder ist schlicht blind.

Oder ist Realist. Vor dem Launch wurde ja permanent von Spezialisten erzählt, dass man niemals eine 6400 erreichen würde.
Heute kann man die Karte im halben CB Parcour immerhin leicht schlagen.


Das muss wenigstens halbwegs passabel sitzen, sowas schlechtes haben NV und AMD/ATi niemals abgeliefert.

Halbwegs passabel sitzt es auch. Man bringt so gut wie jedes Spiel zufriedenstellend zum Laufen - Intel System vorrausgesetzt denn ohne rBar braucht man es erst gar nicht versuchen.


RT-Performance isScheint übrigens auch nur minimal vor einer 6400. Da letztere sogar hardwareseitig schwächer ist, ist die RT-Performance am Ende also eher maximal auf RDNA2-Niveau.

Die RT Leistung kannst du erst mit den größeren Modellen bestimmen und die ist deutlich besser als bei RDNA2 - vorausgesetzt die Treiber arbeiten richtig.


Nachdem man gehofft hatte, dass Intel wenigstens hier positiv überraschen konnte, ist auch das meh für Mitte 2022.

Nachfolger der Mittelklasse wird es erst bis mitte 2023 von AMD und Nvidia geben.

Tangletingle
2022-07-20, 13:55:19
Naja, da muss man halt auf die Zweiten oder dritte Gen warten, bin mittelfristig guter Dinge. AMD hat ja auch Jahre gebraucht.
du hast ne ganz schön verschobene erinnerung.

@prinzenrolle: dein post ist absolut unlesbar. kannst du mal aufhören quotes so zu zerhacken.

Ex3cut3r
2022-07-20, 14:00:50
Ach wirklich?

DX11 war über 8 Jahre langsamer als bei Nvidia. AMD hat erst vor einigen Monaten ein Treiber rls. der DX11 endlich auf das Level von Nvidia beschleunigt. So viel dazu. Aber das war natürlich alles "ok". Ist ja schließlich unsere Lieblingsfirma nä?

https://www.pcgameshardware.de/DirectX-11-Software-233669/News/Preview-Treiber-Adrenalin-22-5-2-veroeffentlicht-1395687/

https://www.computerbase.de/2014-04/nvidia-geforce-337.50-benchmark-test-wundertreiber/

konkretor
2022-07-20, 14:08:39
https://videocardz.com/newz/intel-arc-a380-discrete-gpu-reviews-its-like-living-in-the-middle-of-a-minefield

Linmoum
2022-07-20, 14:11:00
Bei Computerbase ist die 6400 32% Energieeffizienter.
Fokussiert man sich auf die Hälfte des Gamingparcours (was angesichts der Treiber eine sinnvolle Überlegung ist) ist die Effizienz der Radeon nur 20% besser, da mangelt es schlicht noch am stabilen Treiber.CB hat einzig ein (!) Spiel zur Messung der Leistungsaufnahme verwandt. Daraus irgendwas Perf/Watt-mäßiges ableiten zu wollen, ist kompletter Quatsch. Daher Igor, wie sowieso im Prinzip bei allem, was deep dive z.B. bzgl. Akustik oder Leistungsaufnahme(n) anbelangt.

Wenn es so etwas schlechtes angeblich noch nie gab, hast du wohl die Effizienz von Vega vergessen.:wink:Keine Ahnung, wie du beim Thema unglaublich miese Treiber, bei denen etliche Spiele entweder

a) gar nicht erst starten
b) unglaublich miese Frametimes aufweisen und dadurch unspielbar sind
c) die Grafikkarten ohne rBAR im Prinzip unbrauchbar sind oder
d) schlechterer Bildqualität in Spielen

- um nur einiges zu nennen - plötzlich auf Vega kommst. Whataboutism, der sogar noch komplett fehl geht? :confused:

Treiber sind nie fehlerfrei, auch bei NV und AMD gibt es aktuell known issues und auch bei neuen Gens haben beide übliche Kinderkrankheiten. Das ist aber normal und wir reden hier nicht mehr von üblichen Kinderkrankheiten, sondern von absurd schlechten Treibern bei einem Tech-Giganten, der seit Ewigkeiten schon Treiber für die eigenen iGPUs hat.

Oder ist Realist. Vor dem Launch wurde ja permanent von Spezialisten erzählt, dass man niemals eine 6400 erreichen würde.
Heute kann man die Karte im halben CB Parcour immerhin leicht schlagen.Ah, im "halben" Parcours also. Sprich nur die Ergebnisse nehmen, die einem gefallen, hm? Mehr muss man nicht dazu sagen.

Im Übrigen muss erwähnt sein, dass die Intel zwingend nur mit rBAR halbwegs performant läuft. Das ist lächerlich und noch abstruser, als nur die Lanes zu beschneiden. Nicht nur läuft das auf einer ganzen Plattform dadurch nicht, auch ältere Intel-Unterbauten sind dadurch komplett nutzlos.

Halbwegs passabel sitzt es auch. Man bringt so gut wie jedes Spiel zufriedenstellend zum Laufen - Intel System vorrausgesetzt denn ohne rBar braucht man es erst gar nicht versuchen.Hast du dir meine Zitate zum P1 eigentlich mal angeschaut (und auch die Diagramme dazu) oder trollst du bewusst? Das ist desolat und deine Verweise auf avg. fps sind komplett fehl am Platz. Wie so vieles.

Die RT Leistung kannst du erst mit den größeren Modellen bestimmen und die ist deutlich besser als bei RDNA2 - vorausgesetzt die Treiber arbeiten richtig.Kann man jetzt schon, zumal es auch von Intel selbst Aussagen bzgl. RT auch im Vergleich zu AMD gab. Dafür ist das Ergebnis ernüchternd.

Nachfolger der Mittelklasse wird es erst bis mitte 2023 von AMD und Nvidia geben.
Ändert nichts am faktischen Ist-Zustand.

Ach wirklich?

DX11 war über 8 Jahre langsamer als bei Nvidia. AMD hat erst vor einigen Monaten ein Treiber rls. der DX11 endlich auf das Level von Nvidia beschleunigt. So viel dazu. Aber das war natürlich alles "ok". Ist ja schließlich unsere Lieblingsfirma nä?
Und was hat das jetzt mit dem Zustand der Intel-Treiber zu tun, um den es geht? :confused: Das ist komplett am Thema vorbei und nein, das, was Intel hier abliefert treiberseitig, hat es so von AMD/ATi oder NV schlicht noch nicht gegeben.

Prinzenrolle
2022-07-20, 14:16:25
CB hat einzig ein (!) Spiel zur Messung der Leistungsaufnahme verwandt.

Ja, das stimmt, dennoch ist die Effizienz für den Start völlig im Rahmen - kein Ausschlusskriterium.
Wichtig ist hier vor allem der Preis.
Ansonsten kann ich mich deiner Meinung in fast allen Punkten nicht anschließen, reiner Verriss.
Die GPU ist zum Gamen mit UVP 125 bis149 Dollar inkl. 6GB, Intel Sys vorrausgesetzt durchaus ok.
Wird zum basteln und rumtesten bestellt, sobald sie verfügbar ist.

Linmoum
2022-07-20, 14:18:55
Ansonsten kann ich mich deiner Meinung in fast allen Punkten nicht anschließen.Es ist nicht meine Meinung. Sei es zur rBAR-Kompatibilität, zur allgemeinen Treiber-Problematik in Spielen oder den extrem schlechten Frametimes - das sind Fakten die alle drei Reviews übereinstimmend berichten.

Muss dir nicht passen, aber man kann es anerkennen und als solche Probleme, die mithin auch in die Unspielbarkeit gehen, benennen. Und genau deswegen ist das schlicht eine Katastrophe von vorne bis hinten.

Prinzenrolle
2022-07-20, 14:27:38
Es ist nicht meine Meinung.

Was ist an den P1 bei CB so schlimm?
Mal Formel 1 und Fortnite ausgenommen, sind sie im Mittel 7% hinter der 6400. Kann man mit arbeiten.
Bestreitet ja niemand, dass die Leistung schwankt.

Prinzenrolle
2022-07-20, 14:38:18
Keine Ahnung, wie du beim Thema unglaublich miese Treiber, bei denen etliche Spiele entweder

a) gar nicht erst starten
b) unglaublich miese Frametimes aufweisen und dadurch unspielbar sind
c) die Grafikkarten ohne rBAR im Prinzip unbrauchbar sind oder
d) schlechterer Bildqualität in Spielen

Wenn man sich ausschließlich alles negative herauspickt, dann stimme ich zu.
Bei CB gibt es aber nur bei 2 von 15 Spielen große Probleme bei den P1, das ist verschmerzbar.


- um nur einiges zu nennen - plötzlich auf Vega kommst. Whataboutism, der sogar noch komplett fehl geht? :confused:

Ich sprach von der Effizienz.


sondern von absurd schlechten Treibern bei einem Tech-Giganten, der seit Ewigkeiten schon Treiber für die eigenen iGPUs hat.

Das ist deine Bewertung.


Ah, im "halben" Parcours also. Sprich nur die Ergebnisse nehmen, die einem gefallen, hm? Mehr muss man nicht dazu sagen.

Immer noch besser als sich ausschließlich auf negative Aspekte zu beschränken.
Total langweilig einfach, besonders wenn man weiß, dass du das bei AMD nicht tust.

Ex3cut3r
2022-07-20, 14:44:31
Und was hat das jetzt mit dem Zustand der Intel-Treiber zu tun, um den es geht? :confused: Das ist komplett am Thema vorbei und nein, das, was Intel hier abliefert treiberseitig, hat es so von AMD/ATi oder NV schlicht noch nicht gegeben.

Mag so sein, oder auch nicht. Trotzdem fällt auf, dass du mit ganz gezielten "herauspicken" immer wieder auffällst, wenn es um Nvida oder Intel geht. Aber AMD ist immer astrein. :biggrin: :uup:

KA was du erwartest hast, auch Intel ein wie du sagt, Techgigant (Was ist AMD? Kein Gigant?) braucht nun mal auch Zeit, warum gönnt man ihn diese Zeit nicht? AMD war 5 Jahre lang bei CPUs komplett abgemeldet, bei GPUs sind Sie auch erst seit kurzen wieder da. Dieses "Zerstückelung" und hetzen muss nun wirklich nicht sein, mal sehen wie die Sache mit den Treibern schon ende des Jahre aussehen, dann kann man gerne ein erstes Zwischenfazit ziehen. Und die kommenden GPUs werden erst wirklich interessant werden.

][immy
2022-07-20, 15:22:06
Mag so sein, oder auch nicht. Trotzdem fällt auf, dass du mit ganz gezielten "herauspicken" immer wieder auffällst, wenn es um Nvida oder Intel geht. Aber AMD ist immer astrein. :biggrin: :uup:

KA was du erwartest hast, auch Intel ein wie du sagt, Techgigant (Was ist AMD? Kein Gigant?) braucht nun mal auch Zeit, warum gönnt man ihn diese Zeit nicht? AMD war 5 Jahre lang bei CPUs komplett abgemeldet, bei GPUs sind Sie auch erst seit kurzen wieder da. Dieses "Zerstückelung" und hetzen muss nun wirklich nicht sein, mal sehen wie die Sache mit den Treibern schon ende des Jahre aussehen, dann kann man gerne ein erstes Zwischenfazit ziehen. Und die kommenden GPUs werden erst wirklich interessant werden.
Also auf so einem Stand war AMD/ATI tatsächlich nie. Normalerweise liefen zumindest die Spiele. Nicht unbedingt flott aber sie liefen. In diesem Fall ist der Treiber aber ein Totalausfall. Manche Titel laufen, andere wieder überhaupt nicht. Dazu noch Abstürze & co. Also wie so ein Treiber eine QS-Phase überhaupt überleben konnte ... naja, vermutlich hat er das nie.
Es zeigt sich eher, das Intel den Chip jetzt notgedrungen unfertig auf den Markt geworfen hat, weil die neue Gen bei AMD/Nvidia anstehen und es bis vor kurzen einen GPU-Mangel gab. Letzteres hat sich inzwischen mal erledigt und jetzt stehen sie mit einem absolut kaputten Produkt da.
Ja sie werden vermutlich bei der nächsten Gen (wenn es denn eine gibt) einen besseren Treiber abliefern (schlechter kann er ja kaum mehr werden), fraglich ist aber ob sie jemals für diese Generation einen laufenden Treiber rausbringen werden.

Wie gesagt, es geht dabei nicht mal um performance. Als erstes sollte Prio haben, das der Treiber stabil seine Arbeit tut und das tut er abgesehen von ein paar Benchmark-Titeln noch nicht.

hab Deine Antwort auf den Spam-Beitrag von vinacis_vivids gelöscht. Rincewind

Adam D.
2022-07-20, 15:27:02
KA was du erwartest hast, auch Intel ein wie du sagt, Techgigant (Was ist AMD? Kein Gigant?) braucht nun mal auch Zeit, warum gönnt man ihn diese Zeit nicht? AMD war 5 Jahre lang bei CPUs komplett abgemeldet, bei GPUs sind Sie auch erst seit kurzen wieder da. Dieses "Zerstückelung" und hetzen muss nun wirklich nicht sein, mal sehen wie die Sache mit den Treibern schon ende des Jahre aussehen, dann kann man gerne ein erstes Zwischenfazit ziehen. Und die kommenden GPUs werden erst wirklich interessant werden.
Warum man es ihnen nicht gönnt? Was für 'ne blöde Frage, sorry. Natürlich gönnt man es ihnen, aber dann sollen sie das Produkt so nicht auf den Markt werfen. Die können sich alle Zeit der Welt nehmen, aber dann sollen sie ihr Zeugs dann verkaufen, wenn es nutzbar ist. Das ist doch wirklich absolute Verarsche am Kunden, die schrottigen AMD-CPUs von anno dazumal haben immerhin funktioniert.

Linmoum
2022-07-20, 15:38:12
Mag so sein, oder auch nicht. Trotzdem fällt auf, dass du mit ganz gezielten "herauspicken" immer wieder auffällst, wenn es um Nvida oder Intel geht. Aber AMD ist immer astrein. :biggrin: :uup:

KA was du erwartest hast, auch Intel ein wie du sagt, Techgigant (Was ist AMD? Kein Gigant?) braucht nun mal auch Zeit, warum gönnt man ihn diese Zeit nicht? AMD war 5 Jahre lang bei CPUs komplett abgemeldet, bei GPUs sind Sie auch erst seit kurzen wieder da. Dieses "Zerstückelung" und hetzen muss nun wirklich nicht sein, mal sehen wie die Sache mit den Treibern schon ende des Jahre aussehen, dann kann man gerne ein erstes Zwischenfazit ziehen. Und die kommenden GPUs werden erst wirklich interessant werden.*seufz*

Lies dir doch einfach mal die drei Reviews durch und schau dir an, welche Probleme es hier mit und von einer Intel-dGPU gibt.

Es geht hier nicht um irgendwelche reinen fps. Ist das echt so schwer zu verstehen? Ich weiß nicht, warum du immer wieder darauf verweist. Wo AMD komplett abgemeldet war mit Bulldozer oder dass man keine Konkurrenz im High-End zu NV hatte ist doch überhaupt nicht Thema. Warum muss man das alles miteinander vermischen?

Du kannst Arc ohne rBAR komplett vergessen. Du hast in vielen Spielen Frametimes aus der Hölle, die dadurch schlicht zur Unspielbarkeit führen. Dann gibt es Spiele, die gar nicht erst - trotz rBAR - starten. Die Bildqualität ist teils schlechter. Einfach mal trennen und die Software-Problematik als solche betrachten ohne auf die anderen beiden Hersteller in irgendeiner Form zu verweisen, was Performance anbelangt. Das spielt hier gar keine Rolle, weil es zu sinnvollen Vergleichen - gerade wegen der Frametimes - häufiger gar nicht erst kommen kann.

w0mbat
2022-07-20, 16:01:55
Wenn man die ganzen Treiberprobleme, niedrigere min. FPS und schlechten frametimes ausblendet, kann die A380 ganz gut mit einer GTX 1650 bzw. einer RX 6400 mithalten.

Aber wenn man sich dann die Chips selber anschaut, wird es echt übel für Intel. ACM-G11 hat über 50% (!!!) mehr Transistoren als TU117 und die GTX 1650 ist dazu noch beschnitten. Klar, bei Nvidia fehlt hier die RT-Implementierung, aber das ist ein extrem krasser Unterschied. Über 50% mehr Transistoren als eine 3 Jahre alte GPU, die noch nicht mal den vollen Chip nutzt, und dann schafft man bei den avg. FPS gerade so einen Gleichstand? Dazu nutzt die A380 die neueste N6 node und besseren GDDR6. Totales Versagen von Intels Design-Team. Raja kann halt anscheinend doch nix.

Und auch der Vergleich mit der RX 6400 sieht sehr schlecht aus. ACM-G11 hat immer noch 33% mehr Transisoren, braucht dafür aber ein 47% größeres die (auf der selben node!), nutzt ein 50% breiteres Speicherinterface, hat 50% mehr VRAM und verbraucht ca. 50% mehr Strom. Und das alles für ca. die gleiche avg. performance und viel schlechtere frametimes.

Also auch wenn es auf den ersten Blick "gar nicht so schlecht" aussieht, wenn man genauer hinschaut ist es ein totales Disaster für Intel.

aufkrawall
2022-07-20, 16:09:19
Raja kann halt anscheinend doch nix.

Doch, CEOs blenden. :D
Aber vielleicht hats Lisa ja gemerkt. Wird spannend, wo er als Nächstes aufschlägt und eine mindestens mittlere Katastrophe hinterlässt.

dargo
2022-07-20, 16:20:39
Naja, da muss man halt auf die Zweiten oder dritte Gen warten, bin mittelfristig guter Dinge. AMD hat ja auch Jahre gebraucht.
Bei AMD kann ich es noch nachvollziehen da sie finanziell völlig angeschlagen waren. Aber bei Intel?

RoughNeck
2022-07-20, 17:06:43
Bei AMD kann ich es noch nachvollziehen da sie finanziell völlig angeschlagen waren. Aber bei Intel?

Geld alleine reicht halt nicht.
War klar dass das nix wird, sonst hätte Intel schon vor Monaten angefangen damit zu werben und alle bekannten Tester hätten da einen Hype entstehen lassen.

Abhaken und fertig.
Mal sehen wie es in ein paar Jahren aussieht.

dargo
2022-07-20, 17:29:49
Geld alleine reicht halt nicht.

Schon klar... exzellente Fachleute insbesondere auch im Softwarebereich regnet es nicht einfach so vom Himmel. Aber ohne Geld geht es genauso wenig. :)

Benutzername
2022-07-20, 17:44:16
Doch, CEOs blenden. :D
Aber vielleicht hats Lisa ja gemerkt. Wird spannend, wo er als Nächstes aufschlägt und eine mindestens mittlere Katastrophe hinterlässt.


Ob das alles Raja Koduris Schuld allein ist? Bei intel knirscht es doch schon seit Jahren im Getriebe. Wie lange wurden uns 10 nm versprochen um nur ein Beispiel zu nennen? Irgendwas stimmt da intern bei intel nicht, glaube ich, wenn intel so viel nicht schafft umzusetzen. Daß Koduri gerne mal den Mund viel zu voll nimmt, hilft da natürlich nicht.


--------------------------------------------


Schon klar... exzellente Fachleute insbesondere auch im Softwarebereich regnet es nicht einfach so vom Himmel. Aber ohne Geld geht es genauso wenig. :)


Ich vermute mal, die Spezis, die es gibt, arbeiten schon für AMD oder Nvidia. Fähige Grafiktreiberprogrammierer dürften wohl eher selten auf Arbeitssuche sein.

Linmoum
2022-07-20, 17:55:33
Intel hat gefühlt so viele Leute von AMD und auch NV in all den Jahren ins Boot geholt. Gefühlt hat man mittlerweile den Eindruck, dass es genau die gewesen sind, denen beide Firmen sowieso nicht hinterhergetrauert haben. ;D

Blediator16
2022-07-20, 18:08:05
Geld alleine reicht halt nicht.
War klar dass das nix wird, sonst hätte Intel schon vor Monaten angefangen damit zu werben und alle bekannten Tester hätten da einen Hype entstehen lassen.

Abhaken und fertig.
Mal sehen wie es in ein paar Jahren aussieht.

Gefühlt wurde von Raja/ehemaliges AMD PR Team seit zwei(2!) Jahren geteastert. Typisch altes AMD PR Team schätze ich mal :freak:

Adam D.
2022-07-20, 19:35:46
https://www.youtube.com/watch?v=45n5pnEyw9o

Tatsächlich ganz interessantes Video. Angeblich ist sich Intel der schwierigen Situation bewusst und will die A770 mit einem aggressiven Preis (orientiert an der Performance von Tier 3-Titeln, also denen, die besonders scheiße laufen) launchen. Schauen wir mal, was das heißt.

dargo
2022-07-20, 19:49:54
Ok... Linus bestätigt im Prinzip die Treiberprobleme von Intel. In die älteren APIs ist über Jahrzehnte jede Menge Hirnschmalz bei Nvidia und AMD geflossen was Intel nicht einfach so schnell aufholen kann. Insofern besteht hier also durchaus noch Hoffnung das verschenkte Potenzial später zu liefern.


Angeblich ist sich Intel der schwierigen Situation bewusst und will die A770 mit einem aggressiven Preis (orientiert an der Performance von Tier 3-Titeln, also denen, die besonders scheiße laufen) launchen. Schauen wir mal, was das heißt.
Hier wird es interessant ob AMD und Nvidia dann mit Preissenkungen reagieren werden.

konkretor
2022-07-20, 21:18:13
Die sollen endlich die A750 und A770 auf den Markt werfen.
Da sieht man einfach wie DX11 die letzten 11 Jahre optimiert worden ist.
Wie schwer es ist das aufzuholen.


Das rBAR Problem auf AMD Systemen find ich viel schlimmer.

w0mbat
2022-07-20, 22:02:14
Die Frage ist, ob es überhaupt Sinn macht die Nachteile bei der Nutzung von älteren APIs "aufzuholen", oder ob es nicht einfach besser ist, sich auf die Zukunft zu konzentrieren.

Kleiner und leichter Treiber direkt auf DX12 + Vulkan optimiert, mit ReBAR konzipiert und dann genau dort versuchen einen Vorsprung aufzubauen.

Klar, wenn es ein paar tiefhängende Früchte gibt kann man die schon mitnehmen, aber jetzt Jahre in die Optimierung alter Titel stecken, die dann nochmal älter sind, macht für mich keinen Sinn. Und ja, ich weiß dass sehr viele Spiele noch auf DX11 laufen, ist halt eine Zwickmühle.

Linmoum
2022-07-20, 23:28:34
Es sollte überhaupt erstmal eine stabile und funktionierende Treiber- bzw. Softwarebasis geben, bevor man sich überhaupt um reine fps Gedanken macht. Volle rBAR-Kompatibilität mit allen Plattformen, nutzbar auch ohne rBAR, unbedingt die Frametime-Problematik angehen, allgemeine Stabilität in Spielen ohne Abstürze und gleichwertige Bildqualität zur Konkurrenz.

Dann kann man sich um die reine Performance kümmern und zwar für alle APIs. Sich auf DX12 und Vulkan zu fokussieren ist nachvollziehbar, aber in dem Zustand kann DX11 und älter definitiv nicht bleiben. Das muss vernünftig laufen und zwar am besten so schnell wie möglich.

ryan
2022-07-21, 00:39:49
https://www.youtube.com/watch?v=45n5pnEyw9o

Tatsächlich ganz interessantes Video. Angeblich ist sich Intel der schwierigen Situation bewusst und will die A770 mit einem aggressiven Preis (orientiert an der Performance von Tier 3-Titeln, also denen, die besonders scheiße laufen) launchen. Schauen wir mal, was das heißt.


Ein paar andere Sachen finde ich interessant.

https://youtu.be/45n5pnEyw9o?t=65

In Tombraider läuft die Arc 770 in DX12 doppelt so schnell gegenüber der DX11 Version. Krasser Unterschied.


https://youtu.be/45n5pnEyw9o?t=499

Deswegen ist Feedback so wichtig, ergo müssen sie die Karten einfach mal in den Handel lassen.

Bezüglich der hohen Idle Werte, die man auch in den A380 Tests sieht:

https://youtu.be/45n5pnEyw9o?t=604

Arc unterstützt einen G8 power state in Hardware, Linus erwähnt was von 10 Watt. Der G8 power state wird vom Treiber derzeit noch nicht unterstützt. G8 power state befindet sich im letzten Teststadium, im August soll der Treiber erscheinen.

Alleine daran kann man schon erkennen, wie unfertig der Treiber ist.

dargo
2022-07-21, 06:04:33
Ein paar andere Sachen finde ich interessant.

https://youtu.be/45n5pnEyw9o?t=65

In Tombraider läuft die Arc 770 in DX12 doppelt so schnell gegenüber der DX11 Version. Krasser Unterschied.

Naja... was soll daran jetzt so interessant sein? Wenn der D3D11-Treiber Grütze ist kommt halt sowas bei raus. Bei der A770 fällt es halt wesentlich stärker auf als bei einer poppeligen A380. Thema Treiberoverhead.

Prinzenrolle
2022-07-21, 08:50:38
Raja kann halt anscheinend doch nix.

Seit wann ist Koduri alleine für die Treiberentwicklung zuständig?:confused:
Das ist ein Rädchen im Getriebe.

Linmoum
2022-07-21, 08:56:47
Er sprach doch in dem Zusammenhang nicht von Treibern, sondern der Hardware - die auch einfach nicht gut ist - und was Intel hier an Transistoren, Die Size, Recheneinheiten, SI und Verbrauch (trotz N6!) in Relation zu einer 6400 bzw. sogar 1650 auffahren muss, um überhaupt konkurrenzfähig zu sein.

Das hat harte Koduri-Vibes von seinen AMD-Zeiten.

Prinzenrolle
2022-07-21, 08:59:52
Es sollte überhaupt erstmal eine stabile und funktionierende Treiber- bzw. Softwarebasis geben, bevor man sich überhaupt um reine fps Gedanken macht.

Vielleicht sollte Intel dich einstellen?:wink:
Der aktuelle Zustand ist nicht gut, aber scheinbar verstehst du auch nicht die Schwierigkeiten der Treiberentwicklung.


Volle rBAR-Kompatibilität mit allen Plattformen, nutzbar auch ohne rBAR, unbedingt die Frametime-Problematik angehen, allgemeine Stabilität in Spielen ohne Abstürze und gleichwertige Bildqualität zur Konkurrenz.

Wie lange hatte AMD eine schlechtere Bildqualität? 10 Jahre?:redface:


Dann kann man sich um die reine Performance kümmern...

Nö, man versucht sich auf allen Ebenen zu verbessern und viel wichtiger als rBar auf AMD Systemen ist die Performance der Karte um sie zu bewerben, sonst kauft die nämlich keiner. Und zu "reine Performance" gehören genauso die P1..., ansonsten nervt dein Geheuchel einfach nur, du wirst ja nicht gezwungen die Karte zu kaufen.


Das hat harte Koduri-Vibes von seinen AMD-Zeiten.

Wenn Koduri das lesen würde.
Der würde sich über anonyme Besserwisser Trolle im Netz totlachen.:wink:

konkretor
2022-07-21, 09:18:34
Er sprach doch in dem Zusammenhang nicht von Treibern, sondern der Hardware - die auch einfach nicht gut ist - und was Intel hier an Transistoren, Die Size, Recheneinheiten, SI und Verbrauch (trotz N6!) in Relation zu einer 6400 bzw. sogar 1650 auffahren muss, um überhaupt konkurrenzfähig zu sein.

Das hat harte Koduri-Vibes von seinen AMD-Zeiten.

Was wir nicht vergessen dürfen:
6400/6500 hat keine Media Einheit als kann nicht wirklich was encodieren.
Dazu wissen wir nicht wie groß der Teil der XMX Anteil im Chip ist.

Grendizer
2022-07-21, 09:26:15
Naja Raja hat doch auch mit so manchem Feature der Vega 8 eine veritablen Fail hingelegt. Was für einen Hype um den primitive Shader gemacht wurde und dann hat man das nie zum laufen bekommen. Kein Wunder, das das bei Intel auch nicht soviel besser läuft. Ich vermute, das wir keine 2. und 3. Generation sehen werden. Dafür stampft Intel Grafikkarten auch schnell wieder ein oder habt ihr Larrabee vergessen. Ich glaube das hat man wenigstens noch als Xeon Phi in HPC gerettet.

Ex3cut3r
2022-07-21, 10:48:01
Vielleicht sollte Intel dich einstellen?:wink:
Der aktuelle Zustand ist nicht gut, aber scheinbar verstehst du auch nicht die Schwierigkeiten der Treiberentwicklung.



Wie lange hatte AMD eine schlechtere Bildqualität? 10 Jahre?:redface:



Nö, man versucht sich auf allen Ebenen zu verbessern und viel wichtiger als rBar auf AMD Systemen ist die Performance der Karte um sie zu bewerben, sonst kauft die nämlich keiner. Und zu "reine Performance" gehören genauso die P1..., ansonsten nervt dein Geheuchel einfach nur, du wirst ja nicht gezwungen die Karte zu kaufen.



Wenn Koduri das lesen würde.
Der würde sich über anonyme Besserwisser Trolle im Netz totlachen.:wink:

Ich frage mich auch langsam was einige hier erwartet haben. AMD war seit 2012 nicht konkurrenzfähig im CPU Segment, für Spieler/Gamer sogar bis 2019 (Zen 2) nicht, wo waren dann alle die jetzt auf Intel motzen?

Einfach mal etwas Zeit geben und gut ist. So ein Tech Gigant wie Intel kann mittelfristig gar nicht failen. Ja, das wage ich zu behaupten. :ulol:

Und selbst wenn Intel über den Preis kommen muss in Europa. Gut für uns. Für 250€ nehme ich das Flaggschiff, und sei es nur als Backup Karte. Ich spiele sowieso nur AAA Games.

ryan
2022-07-21, 12:51:37
Die sollen endlich die A750 und A770 auf den Markt werfen.
Da sieht man einfach wie DX11 die letzten 11 Jahre optimiert worden ist.
Wie schwer es ist das aufzuholen.


Das rBAR Problem auf AMD Systemen find ich viel schlimmer.


Vielleicht funktioniert es schon?

https://twitter.com/CapFrameX/status/1549740082390769664

Thunder99
2022-07-21, 12:56:37
Test bei CB quer gelesen, unterm Strich Potential aber Treiber brauchen Zeit.

Freuen wir uns wieder endlich auf den 3. Player, was gut ist für die Konsumenten :).

Intel wird AMD und Nvidia weh tun, durch die OEMs, schätze ich.

Bleibt spannend was die Karten mit ausgereiften Treiber können

dargo
2022-07-21, 13:05:25
Ein Mega-Fail mit Ansage!

Lt2LTsH2ueg

Ist das Teil wirklich 406mm² groß oder ein Softwarefehler? :eek: :|

konkretor
2022-07-21, 13:35:47
Nein ist nen Software Fehler

Laut CB/Golem 157 mm² groß der Chip

Slipknot79
2022-07-21, 13:57:28
Was ne Kack-GPU und/oder Kacktreiber. Oo
Hoffentlich m8 Intel nicht nen rage quit, sondern bleibt dran und entwickelt mit den nächsten Generation was konkurrenzfähigeres.
Die aktuelle Shice kann der Laden nur noch über nen tiefen Price verkaufen. (y)

DrFreaK666
2022-07-21, 14:23:38
Die Treiber heißen nicht umsonst AlcheMist :D

dargo
2022-07-21, 14:26:42
Nein ist nen Software Fehler

Laut CB/Golem 157 mm² groß der Chip
Danke.

Edit:
Habe mir das Video von Igor jetzt zu Hause komplett angesehen, vernichtender könnte sein Fazit nicht ausfallen. :eek:

Mein Lieblingsabschnitt. ;D ;D ;D
https://youtu.be/Lt2LTsH2ueg?t=2938

Loeschzwerg
2022-07-21, 17:17:22
Wenn man die Leistungsaufnahme der GPU auf 33W limitiert, dann liegen im Furmark Stresstest (720P) noch zwischen 1400 - 1450MHz an, laut Arc Control (und auch HWiNFO).
=> https://www.computerbase.de/forum/threads/intel-dg2-sammelthema.2093683/page-2#post-27112249

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=79984&stc=1&d=1658416627

Loeschzwerg
2022-07-21, 19:18:41
Ich habe mir kurz das Intel Smooth Sync mit der Nvidia Pendulum Demo angeschaut:
https://www.computerbase.de/forum/threads/intel-dg2-sammelthema.2093683/page-2#post-27112673

https://www.computerbase.de/forum/attachments/a380_sync-off-png.1241156/
https://www.computerbase.de/forum/attachments/a380_smooth-sync-on_1-png.1241154/

https://www.computerbase.de/forum/attachments/a380_sync-off_pendulum-png.1241160/
https://www.computerbase.de/forum/attachments/a380_smooth-sync-on_pendulum_1-png.1241158/

Ein kurzes Video auf YT folgt noch bzw. ist im Upload.

aufkrawall
2022-07-21, 19:22:10
Und subjektiv während dem realen Spielen?

DerKleineCrisu
2022-07-21, 19:31:16
zusammenfassung: die Treiber sind einfach mist. Was für ein Wunder, das haben wir schon vor wochen gewusst das sie kacke sind.

Und nun gut frage, man wird warten müssen was sich in dem Bereich noch tut.
Mit solchen Treibern brauchen sie nicht die Graka auf die Westlichen welt lassen. Denke das ist ihnen selber bewusst.
Sonst sehe ich bei den Test nur eins, sie haben noch viel arbeit vor sich und die " tester " müssten normal jeden Treiber der nun kommt bei der Graka komplett durchtesten. Ob die Seiten das wirklich machen bezweifel ich extrem, außer Intel würde die " Test" bei den Seiten bezahlen , dann würde es aber heißen " Die tests sind gekauft " .

Loeschzwerg
2022-07-21, 19:42:22
Hier das versprochenen kleine Video mit der Pendulum Demo:
LZVC6b_whTQ

Ich finde das verdeckt die harten Schnittkaten ziemlich effektiv, man muss schon sehr genau hinschauen beim Pendel. In Spielen muss ich mir das erst noch anschauen, ich hatte die Tage vor mir noch Shadow Warrior 3 anzuschauen.

ryan
2022-07-22, 23:43:34
Intel Arc A380 | H264 vs H265 vs AV1 | Encording Quality Test

https://youtu.be/2xo0CIdXHFk


AV1 besser als H264 ist klar, es sieht auch besser als H265 aus würde ich meinen, jedenfalls in dem Vergleich. Beispielbild:


https://abload.de/img/av12ij0n.png

StefAlb
2022-07-23, 13:03:59
Eigentlich kann Intel die Karte nur als reinen Übungslauf für die nächste Generation nehmen und hoffen, dass der Negativeindruck nicht in den Köpfen hängen bleibt.

Ein dritter konkurrenzfähiger Wettbewerber würde dem Grafikkartenmarkt nämlich gut tun.

ceed
2022-07-23, 15:23:10
Eigentlich kann Intel die Karte nur als reinen Übungslauf für die nächste Generation nehmen und hoffen, dass der Negativeindruck nicht in den Köpfen hängen bleibt.

Ein dritter konkurrenzfähiger Wettbewerber würde dem Grafikkartenmarkt nämlich gut tun.

Es gibt eine Folie von MLID in dem eine seiner "Quellen" genau das behauptet. Also Arc ist nur der "Pipecleaner" und damit das Treiberteam was zum "Probieren" hat (denn Treiber ohne Hardware entwicklen geht ja eigentlich auch schlecht- man benötigt ja immer was zum Testen). Würde auch zu den produzierten Stückzahlen passen. Intel ist sich der Sache denke ich mal bewusst bzw. bewusster als viele das hier wahr haben wollen.
Deswegen wird es imho auch keinen Ragquit geben wie viel schreiben(auch weil die Spielergrafikkarten ja auch nur eine Anwendung sind- Intel braucht die Grafkchips auch im Servermarkt). Vielleicht läuft das alles sogar ungefähr nach Plan.

StefAlb
2022-07-23, 15:30:16
Intel könnte sich das finanziell leisten. Aber wäre halt sinnvoller, dann das ganze viel mehr geheim zu halten.

Aktuell denkt doch jeder, dass die Grafikkarten eigentlich demnächst in den Verkauf gehen sollten und AMD und NVIDIA im unteren Bereich Marktanteile klauen.

=Floi=
2022-07-23, 15:44:58
Es gibt eine Folie von MLID in dem eine seiner "Quellen" genau das behauptet. Also Arc ist nur der "Pipecleaner" und damit das Treiberteam was zum "Probieren" hat (denn Treiber ohne Hardware entwicklen geht ja eigentlich auch schlecht- man benötigt ja immer was zum Testen). Würde auch zu den produzierten Stückzahlen passen. Intel ist sich der Sache denke ich mal bewusst bzw. bewusster als viele das hier wahr haben wollen.
Deswegen wird es imho auch keinen Ragquit geben wie viel schreiben(auch weil die Spielergrafikkarten ja auch nur eine Anwendung sind- Intel braucht die Grafkchips auch im Servermarkt). Vielleicht läuft das alles sogar ungefähr nach Plan.


Dann hätte intel nicht so die werbetrommel rühren dürfen. Man richtet sich explizit an gamer!
Andere preise. Eventuell nur für server oder bestimmte anwendungen.

Shink
2022-07-23, 17:40:53
Dann hätte intel nicht so die werbetrommel rühren dürfen. Man richtet sich explizit an gamer!

Definitiv, das weckt schon fast Erinnerungen an Volari. Vielleicht wäre deren nächste Generation ja auch super gewesen... (Nö)

DrFreaK666
2022-07-23, 19:19:46
Definitiv, das weckt schon fast Erinnerungen an Volari. Vielleicht wäre deren nächste Generation ja auch super gewesen... (Nö)

Ich hab tatsächlich auch an Volari denken müssen. Aber ich glaube damals waren die Treiber weniger buggy

kmf
2022-07-23, 22:17:25
Abwarten und Tee trinken. Wie lang hat's bei AMD u. Nvidia gedauert bis die Treiber auf aktuellem Stand waren? Die Intelfritzen haben quasi bei 0 begonnen.

Daredevil
2022-07-23, 23:01:33
Vega war auch ein halber Sturz, die hat sich nur durch den Schleuderpreis gehalten und wurde von AMD finanziert. Insofern kann man Intel nochmal ne Chance geben, Raja hat auch bei AMD nicht auf dem ersten Blick hinbekommen. ( Oder es war Rajas Schuld :> )

Denniss
2022-07-23, 23:02:46
Arc ein Pipecleaner fürs Treiberteam - fürn Arsch. Die hatten jahrelang Zeit ein vernünftiges Softwareumfeld mit den IGP-Treibern zu schaffen damit dann wenigstens die Basics funktionieren.

davidzo
2022-07-24, 03:50:55
Es gibt eine Folie von MLID in dem eine seiner "Quellen" genau das behauptet. Also Arc ist nur der "Pipecleaner" und damit das Treiberteam was zum "Probieren" hat (denn Treiber ohne Hardware entwicklen geht ja eigentlich auch schlecht- man benötigt ja immer was zum Testen). Würde auch zu den produzierten Stückzahlen passen. Intel ist sich der Sache denke ich mal bewusst bzw. bewusster als viele das hier wahr haben wollen.
Deswegen wird es imho auch keinen Ragquit geben wie viel schreiben(auch weil die Spielergrafikkarten ja auch nur eine Anwendung sind- Intel braucht die Grafkchips auch im Servermarkt). Vielleicht läuft das alles sogar ungefähr nach Plan.

Der Pipecleaner zur Treiberentwicklung war aber schon DG1. Das heißt ja nicht umsonst SDV - Software Development vehikel. Dafür dass die Karte nie in stückzahlen erschienen ist hat man einenganzen DIE, masken und steppings geopfert.
Intel hatte sicher nicht vor dass nun mit gleich zwei weiteren, viel teureren chips zu wiederholen. Dann hätte ACM-G11 gereicht und man bräuchte keinenviermal so großen Chip mit 32 XEcores dazu.

Ich werde den Gedanken nicht los, das Intel anstatt den IGPtreiber weiter zu entwickeln, bzw. deren Team zu verstärken lieber ein neues Team aufgebaut hat das von einer grünen Wiese anfängt auch um die CPU releases mit IGPs nicht zu verzögern. Soviele Bugs, vor allem mit echten crashes und schlechtem powermanagement, das hat doch der IGP-treiber nicht.

Und dieses neue Gaming-Team läuft eben schlecht. Es kann niemand behaupten dass diese Geschwindigkeit und Qualität irgendwelche selbstgewählten Ziele des neuen Treiberteams waren. Die waren schon bei DG1 hinterm Zeitplan und daraus hat Intels Management aber nicht die richtigen Schlüsse gezogen. - oder direkt Überreagiert.

Es gibt nur wenig was eine solche Verzögerung von 2x-3x der ursprünglich geplanten zeit verursachen kann, außer harte Personalwechsel. In demFall sitzen dann neue Softwareingenieure über dem angefangenen Treibercode und müssen überlegen was verwendet werden kann und was neu geschrieben wird. Das dauert ewig und tötet jegliche Motivation im Rest-team.

dargo
2022-07-24, 07:35:04
Angeblich <349$ für die A750 und <399$ für die A770. Wären schon mal nette Kampfpreise.
https://youtu.be/JnBm1HUWGmg?t=252

Insbesondere die A770 mit 16GB kommt mir verdammt günstig vor. Wobei mir nur eine Differenz von 50$ recht unglaubwürdig erscheint.

konkretor
2022-07-24, 09:20:58
Keine Sorge die Karten werden noch günstiger, aktuell ist das ja nur der UVP.

Da wird Intel extrem viel Geld dran kleben müssen.
Denkt ihr die Boardpartner gehen das Risiko ein und haben nachher 100 K Karten auf Halde liegen die keiner kauft. Es gibt so viele die immer Nvidia kaufen weil sie es schon die letzten 10 bis 15 Jahre so gemacht haben. Das es 5 oder 6 Hersteller gibt und man Grakas tauscht wie Unterwäsche das ist schon lange vorbei. Kennen die Leute nicht mehr.

DrFreaK666
2022-07-24, 09:36:50
man kann ja problemlos zwei Karten verschiedener Hersteller im PC betreiben, oder?

dildo4u
2022-07-24, 09:43:40
Intel kann die Karten wenn nötig in OEM Systeme versenken, daher vermutlich das limitieren auf 225 Watt dadrauf sollten fast alle Gameing Modelle ausgelegt sein.
Alder Lake ist vorallem im i5 Bereich extrem agressiv was Preise angeht sollte schwer sein da nein zu sagen wenn OEMs niedrige Bundle Preise angeboten bekommen.

Lehdro
2022-07-24, 11:39:19
Wir werden wohl eher nicht so viele dGPUs als Desktopkarten sehen: Intel kann den Kram viel kostengünstiger in Laptops als Bundle versenken. Das ist auch das Endziel von Intel: NV aus dem margenreichen Notebookbereich verdrängen.

Ex3cut3r
2022-07-24, 12:23:22
Angeblich <349$ für die A750 und <399$ für die A770. Wären schon mal nette Kampfpreise.
https://youtu.be/JnBm1HUWGmg?t=252

Insbesondere die A770 mit 16GB kommt mir verdammt günstig vor. Wobei mir nur eine Differenz von 50$ recht unglaubwürdig erscheint.

Die werden sogar noch günstiger werden. Ich sage dir in ein paar Monaten bekommt man das Flaggschiff, für 300€. Als Ersatzkarte für den Notfall gar nicht mal übel, weil ich auch nur AAA Spiele spiele. :biggrin:

DrFreaK666
2022-07-24, 13:12:40
Die werden sogar noch günstiger werden. Ich sage dir in ein paar Monaten bekommt man das Flaggschiff, für 300€. Als Ersatzkarte für den Notfall gar nicht mal übel, weil ich auch nur AAA Spiele spiele. :biggrin:

Aber auch nur wenn rBar mit AMD wirklich funktioniert. Sonst vergeht dir das Grinsen ziemlich schnell - AAA hin oder her

dildo4u
2022-07-24, 13:28:45
Bin mal auf weitere Benches gespannt kann das mit dem Rebar nicht sein weil die 380 beim PCI-E Interface beschnitten ist?
Das scheint im Budget Bereich Geld zu sparen daher macht AMD das auch bei der 6400/6500.

Denniss
2022-07-24, 14:12:50
Also ne AMD 6600 hat ebenfalls nur 8 PCIe-lanes und die kommt prima ohne Rbar zurecht.

dildo4u
2022-07-24, 14:28:27
Die hat auch 8GB scheint so langsam das Minium zu sein vorallem wenn man nicht bewusst Textureinstellungen reduziert.


Die 3050 ist hier satte 50% schneller als die 1060, da scheint sich Einiges getan zu haben.

https://www.computerbase.de/thema/grafikkarte/rangliste/#abschnitt_empfehlungen_fuer_wqhd

ryan
2022-07-24, 18:16:32
Intel Arc A380 | APO ON vs OFF | Only works on TimeSpy?
https://youtu.be/1KnrjKQ0PZE?t=296


Intel sagt, APO (Advanced Performance Optimizations) hätte nur in Time Spy und Port Royal einen Effekt. In Lost Ark macht das 21% Unterschied. Ein bug?

dargo
2022-07-24, 18:35:42
Alter.... die Frametimes. Das Ding ist Kernschrott in diesem Zustand. :facepalm:

Ex3cut3r
2022-07-24, 18:53:22
Bei Valhalla, Warhammer, PubG, LOL passen Sie, bist du sicher, dass das nicht das Spiel selber ist?

Linmoum
2022-07-24, 19:00:25
CB, Golem und Igor haben dasselbe festgestellt. Das liegt nicht an den Spielen, sondern an Intels miesen Treibern. AMD und Nvidia haben diese Probleme im direkten Vergleich nämlich nicht.

Ex3cut3r
2022-07-24, 19:05:06
Hoppelt hier aber auch ziemlich rum. Von 4ms rauf auf 22ms.

https://youtu.be/i_T7yD9ux1M?t=251

Ist auf dem Graphen nur schwieg zu sehen, da er relativ klein eingestellt ist.

=Floi=
2022-07-25, 09:57:18
Insbesondere die A770 mit 16GB kommt mir verdammt günstig vor. Wobei mir nur eine Differenz von 50$ recht unglaubwürdig erscheint.

Es ist weder der langzeit support bekannt, noch ob die DX11 situation dauerhaft besser wird bei dieser gen.
Aktuell kann man nicht wirklich brauchbar damit zocken.
Meiner meinung ist es das den preis nicht wert. Da gebe ich mehr geld aus und kann einfach zocken. Man kann auch keine bits verändern und abseits vom mainstream wird auch weiterhin tote hose sein mit diesen karten.


Die karte kann/soll problemlos weder produktiv noch fürs gaming genutzt werden. Es ist ein sammerlstück.

HOT
2022-07-25, 11:56:21
Exakt, so ist es. Ich überleg mir das auch, aber nur, falls das Ding ne richtige Firmware hat, anders als die A380.

Shink
2022-07-25, 11:59:55
Es ist weder der langzeit support bekannt, noch ob die DX11 situation dauerhaft besser wird bei dieser gen.
Mir egal, ich spiele alles unter Linux. Gibt's nicht auch Vulkan-emuliertes DX11 unter Windows, dass auch bei AMD lange genug schneller als die DX11-Treiber ist? Bin schon gespannt, ob die Linux-Treiber was taugen.

aufkrawall
2022-07-25, 12:07:27
Es wird garantiert massiv mehr Probleme mit dem Intel-Vulkantreiber unter Linux (ANV) geben als mit RADV (und Nvidia). Und da es Intel-Entwickler sind, die nach Intel-internem Fahrplan arbeiten, kannst du auch von massiv schlechterem Support ausgehen, wenn du selber etwas reportest. Außerdem massiv kleinere Benutzer-Basis und weniger direkter Support für DXVK/VKD3D-Proton, weil RADV halt von Valve kommt. Ich würd sehr davon abraten.

mjs
2022-07-25, 12:26:26
Aber auch nur wenn rBar mit AMD wirklich funktioniert. Sonst vergeht dir das Grinsen ziemlich schnell - AAA hin oder her
Das tut es erstaunlicherweise bereits problemlos:
https://www.computerbase.de/2022-07/intel-arc-a380-oc-amd-ryzen-test/2/

konkretor
2022-07-25, 12:26:31
CB hat ein AMD System getestet

https://www.computerbase.de/2022-07/intel-arc-a380-oc-amd-ryzen-test/


Anscheinend geht rBAR doch auf einem AMD System

DrFreaK666
2022-07-25, 12:32:09
lol, ok

Loeschzwerg
2022-07-25, 13:32:09
Intel sagt, APO (Advanced Performance Optimizations) hätte nur in Time Spy und Port Royal einen Effekt. In Lost Ark macht das 21% Unterschied. Ein bug?

Das hat Intel so nie gesagt. Arc Control muss das jeweilige Spiel erkennen bzw. ein Profil dafür haben, nur dann kann APO aktiviert werden.

Aber ich meine eigentlich ich hätte das schon einmal geschrieben... ^^

man kann ja problemlos zwei Karten verschiedener Hersteller im PC betreiben, oder?

Kannst du. Ich habe z.B. vor ein paar Tagen erst eine DG1 parallel zu einer Quadro RTX 4000 und das ging völlig problemlos.

Anscheinend geht rBAR doch auf einem AMD System

Hätte mich ehrlich gesagt auch gewundert wenn das nicht ginge.

ryan
2022-07-25, 14:41:07
Das hat Intel so nie gesagt. Arc Control muss das jeweilige Spiel erkennen bzw. ein Profil dafür haben, nur dann kann APO aktiviert werden.

Aber ich meine eigentlich ich hätte das schon einmal geschrieben... ^^



Das hat Intel sehr wohl so behauptet. In Lost Ark ist es nicht so, wie Intel es behauptet.



Advanced Performance Optimizations: A new feature now available within Arc Control that allows users to select and enable advanced application optimizations. The initial implementation of the feature only affects 3DMark Timespy and 3DMark Port Royale.

Integrated graphics performance, as well as discrete GPU game and content creation applications will see no performance impact from the disabling of the optimizations.


Beides steht im Widerspruch. Ich gehe von einem Bug aus.

aufkrawall
2022-07-25, 14:51:15
Man kann auch für die IGPs in den Spiele-Profilen irgendwelche "Optimierungen" anklicken, etwa für Strange Brigade. Ist das das Gleiche?
Hat jedenfalls Grafikfehler in besagtem Titel verursacht. Die Frame Times in Strange Brigade sind auf dem Galaxy Book2 mit D3D12 auch immer noch völlig hinüber, während Vulkan eine komplett glatte Linie abliefert.
Von den ganzen Problemen mit HDR etc. in Spielen und auf dem Desktop mal ganz zu schweigen. Ist also auch mit den aktuellsten Treibern immer noch ein gigantisches Elend.

Die Gen 12-Grafik ist mittlerweile schon ziemlich abgehangen, aber der Reife-Prozess gammelt offenbar in einem feuchten, versifften Keller vor sich hin...

Loeschzwerg
2022-07-25, 15:13:03
Beides steht im Widerspruch. Ich gehe von einem Bug aus.

"Initial", damit hast du deine Antwort.

Ich kann mich nur noch einmal wiederholen, wenn Arc Control das Spiel erkennt bzw. im System findet, dann gibt es für gewöhnlich den APO Regler, sonst nicht. So oder so, es ist per default immer aus.

---

@aufkrawall: Game Compatibility ist nochmals etwas anderes.

ryan
2022-07-25, 15:22:09
"Initial", damit hast du deine Antwort.

Ich kann mich nur noch einmal wiederholen, wenn Arc Control das Spiel erkennt bzw. im System findet, dann gibt es für gewöhnlich den APO Regler, sonst nicht. So oder so, es ist per default immer aus.

---

@aufkrawall: Game Compatibility ist nochmals etwas anderes.


Das initial ist aktuell. Er verwendet Treiber 1743, dem ersten APO Treiber. In Lost Ark sollte APO laut Intel keinen Effekt erzielen. Das Schlimme ist ja, dass Lost Ark im default Zustand, also APO off, viel langsamer läuft.

Loeschzwerg
2022-07-25, 15:43:02
Stimmt, das ist schon ein wenig komisch. Bedeutet aber auch dass für Lost Ark ein funktionierendes Profil existiert und APO tut was es soll, nämlich die Leistung zu verbessern.

dargo
2022-07-25, 16:35:48
Reaktion von Sapphire auf die A380? :D
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13065914&postcount=370

Oder zu weit hergeholt?

Ex3cut3r
2022-07-25, 16:43:06
Glaube nicht, wenns erlaubt ist, dürfen die Hersteller das machen. Haben die bis Maxwell ja auch regelmäßig gemacht. Später hat das Nvidia verboten. Wie die Sache bei AMD war, weiß ich nicht.

dargo
2022-07-25, 16:46:22
Aber irgendeinen Grund muss es ja geben. Sapphire macht das nicht aus Langerweile. Nvidia ist in diesem Segment keine Konkurrenz, bleibt also nur Intel mit der A380 und 6GB. Dafür würde auch sprechen, dass die Karte vorerst nicht nach DE kommt. Eventuell will Sapphire wie Intel in Asien verkaufen?

Ex3cut3r
2022-07-25, 16:51:00
Bei der negativen Publicity stand jetzt, meinst du wirklich das wird eine Konkurrenz für Nvidia und AMD?

Ich kann das nicht glauben. Intel muss doch stand jetzt froh sein, die Dinger halbwegs loszuwerden. Gut, den Asiatischen Markt kenn ich gar nicht, wird da alles gekauft was es gibt ohne Verluste?

dargo
2022-07-25, 16:54:01
Keine Ahnung zu beidem. :freak: Ich kann weder den asiatischen Markt einschätzen wie schmerzfrei die sind (vielleicht kann man die da drüben mit besonders guten Angeboten locken) noch kann ich einschätzen wie schnell Intel die Treiber optimieren kann.

konkretor
2022-07-25, 19:32:09
Laut Intel war nur keine Zeit für Tests wegen der rBAR auf AMD Systemen

https://twitter.com/ryanshrout/status/1551599321132306434?s=20&t=iu9ZGy1pzOOt-Kae5ZmZIg

][immy
2022-07-26, 11:28:16
Scheinbar hat Intel zumindest im Vulcan-Treiber die RT-Performance stark steigern können

https://www.golem.de/news/intel-arc-graphics-massive-verbesserung-in-open-source-vulkan-treiber-2207-167157.html

Hintergrund ist wohl das für RT Berechnungen der Hauptspeicher anstelle des GPU-Speichers genutzt wurde. Was dann vielleicht auch teilweise erklärt, warum die GPU so auf rBAR angewiesen ist.

Ernsthaft Intel ... so einen Treiberstand, was macht die Qualitätssicherung eigentlich den ganzen Tag?

aufkrawall
2022-07-26, 12:07:05
Das ist nur für den Linux-Vulkantreiber. Ich hatte ja erst auf der letzten Seite gesagt, dass man da nicht viel erwarten sollte. ;)
Der Windows-Treiber ist nach öffentlichem Informationsstand ein anderer.

][immy
2022-07-26, 12:51:33
Das ist nur für den Linux-Vulkantreiber. Ich hatte ja erst auf der letzten Seite gesagt, dass man da nicht viel erwarten sollte. ;)
Der Windows-Treiber ist nach öffentlichem Informationsstand ein anderer.
Jo, ging mir eher um die allgemeine Qualität der Treiber. Ja is "nur" "der" Linux Treiber, aber wie kann so etwas durch gehen? So ein kleines Flag nach dem Motto "wir Liefern zwar Hardware aus, aber nutzen diese eigentlich nicht".

StevenB
2022-07-26, 15:25:13
Hat jemand Mal Crysis getestet? Nur so aus Spaß? :D

Loeschzwerg
2022-07-26, 18:07:52
Gibt ein paar weitere Ergebnisse die ich im CB hochgeladen habe:
https://www.computerbase.de/forum/threads/intel-dg2-sammelthema.2093683/page-4#post-27128693

Die Leistungslimitierung funktioniert nicht ganz sauber und bleibt in den häufigsten Fällen bei ca. 43,5W als Minimum hängen.

ryan
2022-07-27, 00:33:30
Ein weiterer ausführlicher A380 Test von https://www.techpowerup.com/review/intel-arc-a380/


Die verwenden ein AMD System:

AMD Ryzen 7 5800X, PBO Max Enabled


Der Ray Tracing Test mit 9 Spielen ist sehr ausführlich. In einigen Spielen mit Raytracing On fällt die 6400/6500XT doch deutlich ab zur A380.


Der Preview Treiber 3220 enthält bereits viele Bugfixes.

101.1743:

The official "stable" 101.1743 driver from Intel's website is everything but! I encountered numerous bugs including bluescreens, corrupted desktop after startup, random systems hangs, system getting stuck during shutdown sequences, and more—very frustrating issues that made me ask myself "WTF? Has anybody even tested this driver once?". A couple of times I had to replace the Intel card with an NVIDIA card so that Windows would actually boot—because the Intel driver can no longer load and that kept breaking things—so I could manually wipe the Intel driver and pray that a new driver install would work better. In order to work around some other issues, I had to connect through Remote Desktop because the Arc card wouldn't send any output to my monitor (most often when no driver installed). When games did run, they usually ran well enough and I didn't encounter any visual rendering errors or crashes except in Divinity Original Sin 2 (screen corruption), Witcher 3 (crash on startup), and Red Dead Redemption 2 (crash on startup).

101.3220 Beta Preview:

I then tried Intel's newest 101.3220 Beta driver and it magically solved all serious issues. The card would now work and be 100% stable in all games, including Witcher, DoS 2 and RDR2—looks like the driver team is actually fixing bugs, good job! Just to emphasize, as soon as I switched to the beta drivers there was not a single crash during all my testing—a huge improvement.

Loeschzwerg
2022-07-27, 07:09:22
Witzigerweise ist das "Blackscreen" Problem bei mir genau anders herum aufgetaucht, also ich hatte es mit dem v3220, der v1743 hat dagegen jetzt schon unzählige Systemstarts problemlos mitgemacht.
Sofern das Problem auftritt (ich hatte es btw. schon mit der DG1) ist die Lösung relativ simpel, einfach warten bis Windows vermeintlich oben ist und dann das System hart abwürgen. In 90% der Fälle bekommt man dann in Windows wieder ein Bild.

ryan
2022-07-28, 12:26:33
Die Limited Edition unterstützt HDMI 2.1 über PCON, das kann ein Vorteil sein gegenüber den OEM Versionen.



Hinsichtlich der Display-Ausgabe bieten die Arc-A-Series-GPUs die Unterstützung für HDMI 2.0. Über einen PCON-Chip kann das DisplayPort-Signal zu einem HDMI-2.1-kompatiblen Signal gemacht werden, sodass OEMs und Boardpartner für die Arc-Karten sich dazu entscheiden können, HDMI 2.1 anzubieten. Es handelt sich dabei aber um eine optionale Funktion, die nicht von jedem Partner genutzt werden wird. Die Limited-Edition-Karten der Arc A750 und A770 haben diesen PCON-Chip und unterstützen damit auch HDMI 2.1.
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/59189-arc-a750-limited-edition-intel-spricht-ueber-vrr-hdr-und-hdmi-2-1.html

Loeschzwerg
2022-07-28, 12:31:03
Nochmals ein Blick auf Smooth Sync, diesmal mit World of Tanks EnCore:
https://www.computerbase.de/forum/threads/intel-dg2-sammelthema.2093683/page-6#post-27134673

7lK2ZpOA3kc

80050 80051

80052 80053

---

Abseits dieser Thematik gibt es auch einen neuen Treiber, den 31.0.101.3222 und 31.0.101.2111 (Legacy):
https://www.intel.com/content/www/us/en/download/19344/intel-graphics-windows-dch-drivers.html

ryan
2022-07-28, 19:10:35
Von Digital Foundry gibt es demnächst einen Stream Test.


Zwar noch kein AV1, aber H264 streaming hat er sich angeschaut.


https://youtu.be/H0pCpNT4b-Q?t=620


Ok der H264 Test ist mit der 12900K iGPU, der h264 encoder in Arc sollte aber der gleiche sein.

Loeschzwerg
2022-07-28, 19:38:04
Sieht doch soweit ganz gut aus :) Bin gespannt wie sich dazu dann AV1 schlägt.

ryan
2022-07-28, 23:09:13
Nochmals ein Blick auf Smooth Sync, diesmal mit World of Tanks EnCore:
https://www.computerbase.de/forum/threads/intel-dg2-sammelthema.2093683/page-6#post-27134673

https://youtu.be/7lK2ZpOA3kc



1080p youtube ist schwierig für Bildvergleiche. Kannst du das Original hochladen?

ryan
2022-07-29, 10:47:26
https://www.igorslab.de/intel-arc-a380-und-die-drawcalls-wo-liegt-der-api-overhead/


Der 3220 Treiber läuft 2% schneller bei igorslab im Testparcours, vor allem aber verbessert er die Stabilität, das hatte ja schon techpowerup festgestellt. In 1080p reicht das für ein Gleichstand zur RX 6400.

Wenn man sich 720p ansieht, muss noch viel mehr passieren und speziell beim driver overhead, siehe draw call Test im 3dmark. In 1080p muss es das Ziel für Intel sein das die RX 6400 10%+ überboten wird.

ryan
2022-07-30, 14:02:25
30.0.101.3259 BETA für Alchemist: https://www.intel.com/content/www/us/en/download/729157/intel-arc-graphics-windows-dch-driver-beta.html

ryan
2022-08-01, 13:46:14
Und noch ein A380 review: https://youtu.be/e3o7tKRGcMY


In der Summe ist das Ergebnis bei allen Tests gleich auf Level der RX6400 mit rBAR in 1080p. In den einzelnen games selber gibt es immer wieder größere Ausreißer.

Loeschzwerg
2022-08-01, 16:21:56
1080p youtube ist schwierig für Bildvergleiche. Kannst du das Original hochladen?

Ist mittlerweile echt abartig was YT für einen Matsch produziert ;(

Hier kannst du dir das Video ziehen:
https://mega.nz/file/CZlVAagI#Kyd01AgtsJvL3CDQGXPX8WonbzIW8sSyYKHESQwierE

konkretor
2022-08-02, 07:20:51
Wer seine Arc380 unter Wasser setzen will

https://videocardz.com/newz/intel-arc-a380-graphics-now-have-their-own-very-first-water-block

Loeschzwerg
2022-08-02, 07:35:27
Ich würde einen Single-Slot Kühler mit Lüfter für DHE bevorzugen ^^

DerKleineCrisu
2022-08-02, 18:21:03
Und ich hoffe das die Graka ein bissel konkurrenzfähig ist und dadurch ne alternative dann gibt zu den beiden Herstellern.

Wen eine Graka an die AMD 6700 oder Nvidia 3070 rankommt würde das mir reichen.

ryan
2022-08-03, 01:36:27
Intel's WORLD FIRST GPU AV1 encoder was worth the hype | Intel AV1 vs X264 vs NVENC/AMF/QSV

https://youtu.be/ctbTTRoqZsM


Heftiger Qualitätssprung :eek:

3.5 Mbit AV1 hardware encoding besser als 6 Mbit H264 QSV/NVENC/AMF in den meisten games. x264 very slow kommt meistens erst ab 6 Mbit ran, bei 3.5 Mbit ist x264 very slow unterlegen. Wenn Intel was kann, dann die Media Einheit.

robbitop
2022-08-03, 11:29:41
Ich fand das Video irgendwie nicht überzeugend:

(1) Warum kein Vergleich zu x265? Das ist Stand der Technik.
(2) die Scores vom Intel AV1 Encoder schienen nicht immer konsistent. In manchen Spielen waren die Ergebnisse durchweg vor den x264 Encodern von Intel/NV/AMD und in manchen war 3,5 MBit und 8 Mbit besser aber 6 Mbit schlechter. Hat er da ggf Unsinn gemessen und das nicht hinterfragt und nochmal untersucht? Kommentiert hat er dazu nichts
(3) Die Score Skala Begann oft bei 50 von 100 und ließ die Vorteile deutlich größer erscheinen als sie waren. Oftmals waren es 10% oder weniger bezogen auf den Score und er nennt es "amazing" - aber es wird mit einem Codec verglichen, der Jahrzehnte auf dem Buckel hat und nicht mit dem Stand der Technik

Auf jeden Fall hat er anhand von CPU AV1 Encoding gezeigt, dass noch eine Menge Luft für GPU AV1 Encoding nach oben ist.

Schön wäre es wenn Plex/Emby mal modernes Echtzeitencoding unterstützen würden. Die gammeln leider auch noch auf x264 herum obwohl es schon seit gut 8 Jahren x265 Hardwareencoding (mit Maxwell eingeführt) gibt.

ryan
2022-08-03, 12:57:50
Ich fand das Video irgendwie nicht überzeugend:

(1) Warum kein Vergleich zu x265? Das ist Stand der Technik.


Das erklärt er eigentlich im Video. H265 ist kein freier Standard, es werden Lizensierungsgebühren verlangt. Das ist für twitch, youtube usw. keine Option. Twitch ist komplett h264. Das macht AV1 als freien Standard doch so besonders.

Aus Erfahrung her kann ich sagen ist x264 very slow vergleichbar mit x265 medium.



(2) die Scores vom Intel AV1 Encoder schienen nicht immer konsistent. In manchen Spielen waren die Ergebnisse durchweg vor den x264 Encodern von Intel/NV/AMD und in manchen war 3,5 MBit und 8 Mbit besser aber 6 Mbit schlechter. Hat er da ggf Unsinn gemessen und das nicht hinterfragt und nochmal untersucht? Kommentiert hat er dazu nichts


Also erstmal sollte man wissen, dass das nie konsistent ist im Vergleich zwischen mehreren Encodern. Jeder Encoder hat Stärken und Schwächen, je nach Content kann das Ergebnis anders ausfallen und anders skalieren. Auch ist es generell so, dass je höher die Bitrate die VMAF scores enger zusammenrücken. Seltsam sieht nur Splitgate aus, ich schaue es mir mal an. Aber klar, das wird bei Intel auch noch nicht optimal laufen, alles andere wäre ja auch überraschend. Auf Software Ebene gibt es zukünftig bestimmt noch Verbesserungen. Und nicht nur auf Intel Seite, sondern auch bei der Implementierung selber in Handbrake, QSVEnc etc. H264 wurde über viele Jahre Software und Hardware seitig optimiert.



(3) Die Score Skala Begann oft bei 50 von 100 und ließ die Vorteile deutlich größer erscheinen als sie waren. Oftmals waren es 10% oder weniger bezogen auf den Score und er nennt es "amazing" - aber es wird mit einem Codec verglichen, der Jahrzehnte auf dem Buckel hat und nicht mit dem Stand der Technik


10% Unterschied beim VMAF score ist wahnsinnig viel. 10% Unterschied VMAF bedeutet nicht 10% Unterschied bei der Bitrate. Für 5% mehr VMAF braucht es nicht selten 70-80% mehr Bitrate im VMAF Bereich über 90.

Das macht schon Sinn, wie er das zeigt. Das sind keine fps Balken. Aber Ok wer sich mit VMAF nicht auskennt, der kann das nicht wissen. Noch krasser ist das bei einigen anderen Metriken, bei SSIM sind das Unterschiede im Kommabereich.

robbitop
2022-08-03, 13:35:00
Ist x265 nicht auch kostenlos (bei Nutzung der GPL 2.0 Lizenz)?

Weiterhin hat er in der Vergangenheit auch schon x265 mit getestet mit VMAF scores. Insofern verbleiben "nur" die Gründe, dass es bei Twitch und Youtube nicht genutzt wird. Es gäbe auch andere Nutzungsmöglichkeiten (z.B. Plex und Emby).

Ich vermute, dass sich die meisten viewer (inklusive mir) nicht mit VMAF auskennen. Ist die Skala in Bezug auf die Qualität nicht-linear? (bspw logaritmisch)

aufkrawall
2022-08-03, 14:18:29
Ist x265 nicht auch kostenlos (bei Nutzung der GPL 2.0 Lizenz)?

Es geht um HEVC. Das unterstützt wegen der schwierigen rechtlichen Lage um den Codec (insbesondere in den USA) obs-studio nicht mal mit Nvidia mit dem mitgelieferten NVENC-Plug-In. Brauchbares AV1 HW-Encoding wär hier also definitiv eine große Verbesserung, sofern es die Streaming-Seiten ohne erneute Konvertierung für Livestreams denn irgendwann mal unterstützen werden.

Exxtreme
2022-08-03, 14:53:02
Ist x265 nicht auch kostenlos (bei Nutzung der GPL 2.0 Lizenz)?


Der Codec an sich ja. Es ist aber so, man muss Lizenzgebühren abdrücken wenn man Software oder Geräte vertreibt, die H.265 abspielen können. Selbst wenn die Software kostenlos und Opensource ist. Und darauf haben sehr viele Firmen schlicht keine Lust. Ergo würde ich nicht damit rechnen, dass das breit unterstützt wird. Alleine die Browser-Unterstützung sieht sehr mau aus:
https://en.wikipedia.org/wiki/HTML5_video#Browser_support

aufkrawall
2022-08-03, 14:56:15
Du darfst afaik nicht mal als Privatperson HEVC-Dateien anderen in dem Format zugänglich machen, ohne Lizenzgebühren abzudrücken.

konkretor
2022-08-04, 07:07:40
https://www.igorslab.de/intels-arc-grafikkarten-auf-der-kippe-ueber-resignierende-boardpartner-systemintegratoren-und-haendler/