Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Erster unabhängiger Test zeigt Intels Arc A380 klar langsamer als ...
Leonidas
2022-06-22, 14:26:30
Link zur News:
https://www.3dcenter.org/news/erster-unabhaengiger-test-zeigt-intels-arc-a380-klar-langsamer-als-eine-radeon-rx-6400
Etwas über dem Niveau einer GTX 1050 Ti. Für den ersten Versuch gar nicht mal so schlecht. Mal gucken, was die nächsten Iterationen bringen...
konkretor
2022-06-22, 14:55:56
Ich hoff es gibt irgendwelche Retail Karten zu kaufen in China.
Bis jetzt ist da wenig zu sehen.
Hätte Intel die Karten mal im Herbst verkauft, da hätte der ein oder andere in sauren Apfel gebissen.
Wird wohl ein seltenes Einhorn werden wo sich die Sammler drum klopfen.
Jetzt bleibt spannend ob Intel noch die zwei Generationen fertig macht oder alles einstellt.
Ist doch bald Herbst, die 3 Monate... Was für eine Enttäuschung, wenn man sich nur halbwegs in Erinnerung ruft, was Intel alles versprochen hat...
Booby
2022-06-22, 16:39:34
Endlich in der Realität angekommen.
Wird bei der nächsten CPU Generation genauso aussehen. +5% Single-Core, + 10% Multi-Core.
Robinsky
2022-06-22, 16:40:19
Nachdem sich nun die Spieleperformance als uninteressant erwiesen hat, bin ich immer noch gespannt auf die En- und Decoding Geschwindigkeiten, womit Intel ja auch selbst geworben hat. Neben Apple Silicon bietet Intels 12te Generation nämlich als einziger Hersteller HEVC (H.265) Hardware Support bis hinauf zu 12bit 4:4:4 De- und Encoding, für AV1 - likely der nächste Standard - sind sie sogar die ersten. Somit könnte es sein, dass man mit einem Alchemist Schnittrechner bei vielen Formaten (alles ab 10bit HEVC 422) schneller arbeiten kann als mit einer 3090 Ti, weshalb sich eine Alchemist Karte durchaus als Geheimtipp für bestimmte Workloads herausstellen könnte bis AMD und Nvidia eine breite Verfügbarkeit ihrer neuen Generation bieten können.
Das Featureset von deren Folgegeneration bezogen auf Hardware Codierung ist aber noch nicht spruchreif und in der jüngsten Vergangenheit bin ich da eher enttäuscht worden, sodass es momentan für Filmschnitt in vielen Formaten besser ist mit Mac oder Intel zu arbeiten. Dieser Content-Creator Markt dürfte gar nicht so klein sein als dass sich AMD und Nvidia hier weiteres Trödeln erlauben können. Für mich auf jedenfall völig unverständlich wieso hier die Hersteller an Treiberarbeit oder Lizenzgebühren für den Codec-Support sparen.
@Leonidas: falls du diesbezüglich schon etwas gelesen/gesehen hast wäre ich um Hinweise sehr dankbar!
Ist doch bald Herbst, die 3 Monate... Was für eine Enttäuschung, wenn man sich nur halbwegs in Erinnerung ruft, was Intel alles versprochen hat...
Man muss Intel aber auch eine Startchance zugestehen. Die ersten Fahrversuche auf dem Fahrrad sind für einen Neuling immer schwierig.
Die Architektur und die synthetischen Benchmarks stimmen zuversichtlich. Womöglich lassen sich die Performance und der Stromverbrauch in der nächsten Iteration noch deutlich optimieren.
Die Leute sind zu ungeduldig. In heißem Wasser gebadet.
Sind denn die hohen 3DMark-Werte vertrauenswürdig? So von wegen Optimierung. Scheinbar ja nicht. Sehr schade das ganze.
H0fn43rrchen
2022-06-22, 18:37:04
"Jene kann man sicherlich gut im Mobile- und OEM-Segment unterbringen, wo kleine Grafiklösungen gern gesehen werden, Intel einen tradionell exzellenten Marktzugang hat und AMD wie nVidia sowieso sich nicht wirklich um diese Posten im LowEnd-Bereich schlagen."
Das darf bezweifelt werden. Ich denke zumindest AMD ist sich diesem Segment sehr wohl bewusst und hat auch ein Interesse daran dort zu wildern. Dafür sind - angesichts derart armseliger Leistung von Seiten intels - nicht einmal dedizierte GPUs notwendig um dieses Niveau zu erreichen oder sogar zu übertreffen. APUs bieten dabei außerdem bessere Voraussetzungen, sowohl im Bereich Kosten als auch Verbrauch.
konkretor
2022-06-22, 20:37:11
Sind denn die hohen 3DMark-Werte vertrauenswürdig? So von wegen Optimierung. Scheinbar ja nicht. Sehr schade das ganze.
Nein da sind schon Gerüchte zu Optimierungen laut geworden.
Vielleicht sollte man noch irgendwo im Text erwähnen, dass die getestete A380 nicht die spezifizierten 75W nutzt, sondern 92W. Mit 75W wird's also noch mal langsamer als im Test.
Trotzdem sollte man erst mal abwarten, bis mehr Tests online sind (andere Spiele, RT und so). Vielleicht sind das ja auch besonders schlechte Ausreißer, die man da erwischt hatte.
Rabiata
2022-06-22, 22:34:48
An anderer Stelle hat Löschzwerg ein Video von "Benchmark LAB" (https://www.youtube.com/watch?v=9jsZBpTfwfw) verlinkt, in dem die A380 durchweg etwas schneller als die GTX 1650 läuft. Sofern das kein gezielter Fake ist, erscheinen mir die Werte glaubwürdig.
Weil sie offenbar mit manueller Steuerung aufgenommen sind und nicht mit einer vorprogrammierten Benchmark-Sequenz. Die Bewegungen der Spielfiguren sind etwas unterschiedlich zwischen A380 und GTX 1650.
Das wird etwas mehr Ungenauigkeit im Ergebnis bringen, aber spricht gegen einen Fake seitens der Kartenhersteller.
Nein da sind schon Gerüchte zu Optimierungen laut geworden.
Es gab mal eine merkwürdige Aussage von Intel, daß bald eine Treiberversion ohne spezielle Optimierungen verfügbar sein soll. Das heißt wohl im Umkehrschluß, das erst mal spezielle Benchmark-Optimierungen dabei sind.
iamthebear
2022-06-22, 22:38:00
"Jene kann man sicherlich gut im Mobile- und OEM-Segment unterbringen, wo kleine Grafiklösungen gern gesehen werden, Intel einen tradionell exzellenten Marktzugang hat und AMD wie nVidia sowieso sich nicht wirklich um diese Posten im LowEnd-Bereich schlagen."
Das darf bezweifelt werden. Ich denke zumindest AMD ist sich diesem Segment sehr wohl bewusst und hat auch ein Interesse daran dort zu wildern. Dafür sind - angesichts derart armseliger Leistung von Seiten intels - nicht einmal dedizierte GPUs notwendig um dieses Niveau zu erreichen oder sogar zu übertreffen. APUs bieten dabei außerdem bessere Voraussetzungen, sowohl im Bereich Kosten als auch Verbrauch.
Bei Geräten mit AMD CPU werden wohl auch AMD GPUs verbaut werden. Da sind die Chancen für Intel schlecht.
Bei Geräten mit Intel CPUs wurden bisher in der Regel Nvidia GPUs verbaut und mit so Karten wie der 1050 Ti oder 1650 kann Intel noch mithalten.
Nein da sind schon Gerüchte zu Optimierungen laut geworden.
Das waren afaik mehr als nur Gerüchte. UL hat die Ergebnisse von Arc nicht in den offiziellen Datenbanken akzeptiert weil diese verbotene Optimierungen enthalten haben. Zumindest solange diese nicht default off sind. Ein Feature zum Abschalten wurde von Intel im Treiber angekündigt aber ob es dieses schon gibt bzw. dieses auch genutzt wurde weiß ich nicht.
Ich würde aber einmal behaupten: Besser auf echte Spiele schauen.
Leonidas
2022-06-23, 05:45:52
Sind denn die hohen 3DMark-Werte vertrauenswürdig? So von wegen Optimierung.
Wenn ich mir den TimeSpy ansehen, dann stelle ich diese Frage auch. Wahrscheinlich drückt allein FireStrike das reale Performance-Potential aus, im TimeSpy könnte Intel noch schummeln.
An anderer Stelle hat Löschzwerg ein Video von "Benchmark LAB" (https://www.youtube.com/watch?v=9jsZBpTfwfw) verlinkt, in dem die A380 durchweg etwas schneller als die GTX 1650 läuft.
Sieht interessant aus. Aber ich bin bei Spiele-Szenen nebeneinander ohne echten Benchmark-Run sehr skeptisch. Dass muß dann schon eine bekannte Quelle sein, um dem zu vertrauen. Es gibt auf YouTube hunderte Kanäle, welche massenweise nur diese Szenen-"Tests" raushauen, darunter ein hoher Anteil an Fake-Content.
Loeschzwerg
2022-06-23, 08:10:59
Ist auch mit Vorsicht zu genießen das YT Video und wenn man sich den Takt der A380 anschaut, dann stimmt der letztendlich nicht.
Besser das Review von expreview durchstöbern:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13038688#post13038688
Man muss Intel aber auch eine Startchance zugestehen. Die ersten Fahrversuche auf dem Fahrrad sind für einen Neuling immer schwierig.
Die Architektur und die synthetischen Benchmarks stimmen zuversichtlich. Womöglich lassen sich die Performance und der Stromverbrauch in der nächsten Iteration noch deutlich optimieren.
Die Leute sind zu ungeduldig. In heißem Wasser gebadet.
Für den ersten Versuche?
Du meinst die >20 Jahre Erfahrung mit Grafikkarten zählen nicht?
Sorry, ist doch Quatsch, Intel hat sehr viel Erfahrung was Grafik Beschleuniger angeht.
Der selbe Quatsch wie wenn jemand behauptet Apple habe mit dem M1 einen Super tollen ersten Prozessor hingelegt, NEIN, die haben über 10 Jahre lang bereits Erfahrung mit den eigenen ARM Chips.
Die Leute sind zu ungeduldig. In heißem Wasser gebadet.
Nein.
intel entwirft schon sehr lange iGPUs und es ist auch nicht der erste Versuch mit dGPU. Alle 'heißem Wasser gebadeten' haben darauf hingewiesen, dass die Hardware ohne gute Treiber unbrauchbar sein würde. Und genau das ist eingetreten. Zudem wurde intel beim Mogeln erwischt und hat Elona-mäßig eigene Ankündigungen vielfach nicht eingehalten. Dass Sahnehäubchen und - von der Verzögerung abgesehen - nicht intels Schuld ist, dass man sich Erleichterung im Cryptoirrsinn versprochen hatte.
Für den ersten Versuche?
Du meinst die >20 Jahre Erfahrung mit Grafikkarten zählen nicht?
Sorry, ist doch Quatsch, Intel hat sehr viel Erfahrung was Grafik Beschleuniger angeht.
Ja, aber welche Art von Grafikbeschleunigern? iGPUs und onBoard VGA.
Keine Gaming-Grafikkarten... Intel Zeug reichte bisher um ein Bild auszugeben und um zu surfen. Nicht mehr!
Leonidas
2022-06-24, 04:50:51
Das Intel trotzdem so viele Schwierigkeiten mit dem Treiber hat, ist dennoch irritierend. Über die iGPUs hatten sie nun Grafiktreiber-Entwicklung über die letzten 20 Jahre.
Loeschzwerg
2022-06-24, 06:36:16
Das ist dennoch nicht vergleichbar. Wozu sollte ich Aufwände in Optimierungen (und nur darum geht es) stecken, wenn die Leistung so oder so nicht reicht? Der Fokus lag darauf die Standards abzubilden und Fehler zu bereinigen, was für Office und Casual Games auch völlig reicht.
Erst jetzt mit den höheren Leistungsklassen wird es dann überhaupt erst sinnvoll die Ärmel hinsichtlich Optimierungen hochzukrempeln.
An der Arch selbst kann es natürlich auch klemmen, da muss man sich als Beispiel nur GCN (Theoretische Leistungs vs Games; Datacenter vs Gaming). Hier müsste man mit gezielten Tests mehr in die Tiefe gehen und Schwächen analysieren.
Denniss
2022-06-24, 07:21:20
Es ist ja nicht so das man die Treiberentwicklung im Voraus hätte anstoßen können und das Treiberteam entsprechend verstärkt hätte ..... aber da kam wohl mal wieder so ein Buchhalter mit dem angespitzten roten Bleistift
Loeschzwerg
2022-06-24, 07:45:22
Was intern abgeht ist Spekulation. Fakt ist aber dass du Arbeit nicht unendlich parallelisieren kannst, man also nicht immer von gigantisch großen Teams profitiert. Und das ist dann auch der Punkt wo einem das ganze Geld nichts bringt, außer dass man sich mehr erlauben kann und länger durchhält bis es dann hoffentlich irgendwann passt.
Das Marketing im Vorfeld war allerdings ganz klar nicht hilfreich.
Linmoum
2022-06-24, 09:34:49
Spekulation ist aber nicht, dass die Performance massiv hinter dem zurückbleibt, was man anhand der Hardwaredaten erwarten kann und darf.
Dann muss man sich halt extern fähige Softwareentwickler holen, die bei Treiberentwicklung entsprechende Expertise haben und für einen deutlich besseren Stand sorgen als das, was man jetzt geboten bekommt.
Ist aber auch im Endeffekt egal. iGPUs hin oder her Intel entwickelt lange genug Grafiktreiber, anhand dessen man erwarten muss, dass die Software nicht derart hinterherhängt. Kriegt man das trotz der jahrzehntelangen Erfahrung nicht hin, muss man sich extern Verstärkung besorgen. Nicht alle talentierten und fähigen Menschen sind bei AMD und/oder NV beschäftigt.
Am Ende zählt das Resultat und das ist erschreckend und unverständlich. Auch, wen man man es befürchten musste. Aber bei einem Giganten wie Intel hofft man trotzdem, dass da im Voraus Maßnahmen ergriffen werden, damit die Treiberentwicklung auch auf einem vernünftigen Stand ist. Jahrelang hatten sie dafür Zeit, inkl. mehrerer Launchverschiebungen.
Leonidas
2022-06-24, 09:41:54
Vielleicht läßt sich die eigentliche Treiber-Arbeit auch erst dann richtig anfangen, wenn man endlich echte Karten in der Hand hält. Sprich, erst jetzt macht das große Treiber-Team Sinn, man konnte aber nicht vor-arbeiten. So gesehen konnte die erste Gen ja nichts werden.
Loeschzwerg
2022-06-24, 10:09:06
Vor-Arbeit geht nur bis zu einem gewissen Grad, danach brauchst du viel Hardware, viel Software und Tests.
Man muss sich doch nur einmal vor Augen halten wie beschissen teilweise Spiele oder Portierungen auf dem PC laufen (UE4 Ruckler als prominentes Beispiel) und was passiert dann da? In den meisten Fällen springen die Grafikkartenhersteller ein und biegen es irgendwie hin (oder helfen sogar schon während der Entwicklung aus). Das hat nichts mit Expertise zu tun, sondern ist ganz einfach beschissene Optimierung auf Einzelfälle hin.
Auch kann man mal zu Apple mit M1 Max / Ultra linsen. Enorm viel Rohleistung und beeindruckende Daten, aber selbst bei den wenigen Spielen die nativ Metal Unterstützung haben sieht es mit der Skalierung mau aus. Und jetzt? Soll Apple die Eigenentwicklung wieder einstellen?!
Das soll jetzt nicht den Bauchplatscher entschuldigen den Intel gerade hingelegt hat, aber man kann auch mal die Kirche im Dorf lassen. Diese Erwartungshaltung ist teilweise schon etwas hirnrissig. AMD hat bis JETZT gebraucht um DX11 und OpenGL auf ein allgemeines Niveau von NV zu bringen. Das ist kein Vorwurf, es zeigt vielmehr die Komplexität der Thematik.
Ich schaue mir das gemütlich an wie es sich bis Battlemage entwickelt. Das schlimmste von Seiten Intel wäre jetzt sämtliche Bemühungen wieder einzustellen.
Gast-chk
2022-06-24, 11:07:41
Die Frage ist für mich, ob Raja Koduri es eingesehen hat, dass man zwei verschiedene Architekturen für Gaming und Data Center braucht.
Wenn ich mich richtig erinnere, ist bei AMD die Trennung von RDNA und CDNA entweder gegen seinen Willen oder erst nach seinem Abgang erfolgt.
arcanum
2022-06-24, 11:24:01
wichtig ist nur ein langer atem und den wird intel mitbringen da der markt zu luktrativ ist, um ihn einfach liegen zu lassen. das ergebnis ist nach den großen vorankündigungen natürlich enttäuschend aber wenn zumindest die kommenden generationen (irgendwann) brauchbar werden, ist es ein klarer win für die verbraucher.
Platos
2022-06-24, 11:52:57
Das Intel trotzdem so viele Schwierigkeiten mit dem Treiber hat, ist dennoch irritierend. Über die iGPUs hatten sie nun Grafiktreiber-Entwicklung über die letzten 20 Jahre.
Ja und die iGPUs sind doch regelrecht dafür bekannt, unter massiven Treiberproblemen bei manchen Spielen zu leiden. Also stichwort sehr ungleichmässige Perfomance. In manchen Spielen gut, in manchen Spielen deopt die eprfomance hart.
Ich denke, das selbe sieht man jetzt (und vermutlich auch noch ne Weile in der Zukunft) bei Intels "Gaming-"Grafikkarten.
Wenn ich mich richtig erinnere, ist bei AMD die Trennung von RDNA und CDNA entweder gegen seinen Willen oder erst nach seinem Abgang erfolgt.
Die Trennung ist erst deshalb so spät erfolgt, weil AMD die Ressourcen nicht hatte 2 Architekturen zu entwickeln.
Und genau genommen machen sie das auch heute nicht wirklich, CDNA ist im Prinzip eine Weiterentwicklung von GCN. Man hat also eigentlich nur für Gaming mit RDNA eine neue Architektur entwickelt und verwendet die alte weiter für Compute.
Vielleicht läßt sich die eigentliche Treiber-Arbeit auch erst dann richtig anfangen, wenn man endlich echte Karten in der Hand hält.
Das ist schon lange nicht mehr der Fall.
GPUs werden zu 100% simuliert schon lange bevor physische Hardware existiert.
Ab da kann die Treiberarbeit beginnen.
Problematisch wird es höchstens wenn die reale Hardware gröbere Überarbeitungen erfordert, und damit die Simulation nicht mehr mit der realen Hardware übereinstimmt.
Leonidas
2022-06-26, 07:06:37
Ich bin mir unsicher, ob man mit diesen Simulationen ernsthafte Treiber-Arbeit machen kann. Wenn ja, könnte der Treiber theoretisch fertig sein, wenn die Grafikkarten validiert sind. Vom Designende bis Validierungs-Ende sind es nahezu ein Jahr.
Ich bin gespannt wie rund die Low End Intel Grafikkarten am Ende sein werden. Ob diese nun 15% mehr oder weniger Perfoirmance haben spielt absolut keine Rolle. Wichtig wird Stabilitaet der Treiber, Lautstaerke und (Idle/Video) Stromverbrauch sein. Und natuerlich der Preis.
AMD hat es leider komplett verbockt, wie man es auch sehr gut an folgender, leider wenig beachteten Randnotiz erkennt: "kein AV1 Decode, kein H.264/4K & H.265 Encode, max. 2 Displays". Gerade DAS erwarte ich von Office und Production Grafikkarten. Spiele Leistung ist irrelevant. Wichtig waere noch zu wissen wie diese Karten bei Hitfilm, Resolve, Photoshop, etc. performen. Und auch sehr wichtig: Wie ist die Browser Performance.
Leider richtigen alle mir bekannten Tests in den Hardware Magazinen (online wie offline) den Fokus immer nur auf Spiele. Dabei spielt das eigentlich gar keine Rolle. Fuer alle Grafikkarten die nicht absolutes Highend entsprechen, vor allem fuer Low End, muss man eh immer den einen oder anderen Kompromiss eingehen um damit Spielen zu koennen, oder bei solchen Low End Karten: Alle Kompromisse, 720p, low Details etc. Es spielt gar keine Rolle ob iorgend eine Karte 10 oder 15% schneller oder langsamer ist. Das kann man in der Regel schon mit einem Regler ohne nennenswerte Auswirkungen auf das Spielerlebnis rausholen. Performancemessungen bei so geringen Abweichungen sind lediglich im Schwanzmark zu gebrauchen um sich im Block als den dicksten Macker zu waehnen. Stromverbrauch und Renderperformance, aber auch die Performance beim Schneiden von Videos und beim Bearbeiten von Bildern wirken sich direkt auf die Nutzbarkeit und Produktivitaet aus. Die Hardware Review Welt ist leider so beschraenkt in ihrer Vorgehensweise, das ist so als wuerde man LKW und Transportschiffe nur, oder zumindest vor allem, nach ihrer Hoechstgeschwindigkeit bewerten. Und das trifft leider auf alle Kategorien zu. CPUs, Mainboards, etc. ebenso. Und ich bin sicher nicht der einzige der im Strahl kotzt, wenn er sich mal ein Mainbo0ard aussuchen will und leider aufgrund dieses unsinnigen Gamer Focuses nur bunte pseudoprofessionelle Hardware findet, und abseits davon quasi nur noch Server Hardware oder den billigsten abgespecktesten Schrott bei dem an jedem Ende gespart wird, der dann als Office Hardware vertickt wird.
Sorry musste mal wieder sein. Das Problem besteht schon seit Ewigkeiten, und es geht immer so weiter.
Ich bin mir unsicher, ob man mit diesen Simulationen ernsthafte Treiber-Arbeit machen kann.
Selbstverständlich kann und muss man das auch machen, die Treiberarbeit ist ja nicht in einem Monat erledigt.
Und das 1 Jahr was du rechnest ist üblicherweise grob das Tapeout bis zu kaufbarer Hardware. Das Tapeout selbst ist aber noch weit von einer lauffähigen Grafikkarte entfernt, die ersten DIEs die aus dem Tapeout zurückkommen landen auch nicht in lauffähigen Grafikarten sondern dienen rein dem Test des Hardwaredesigns auf Funktionsfähigkeit.
Lauffähige Grafikkarten in ausreichender Menge, dass du jedem Treiberentwickler eine in den Rechner stecken kannst gibt es vielleicht 1/2 Jahr vor Release. Zu der Zeit muss der Treiber aber schon im Grunde fertig sein, da erfolgt nur mehr der Feinschliff.
Leonidas
2022-06-27, 10:15:13
Und wie gesagt bin ich mir unsicher, dass man mit Simulationen ernsthafte Treiber-Arbeit machen kann. Anders formuliert: Ein Beleg dessen wäre schön.
Lehdro
2022-06-27, 14:44:30
Und wie gesagt bin ich mir unsicher, dass man mit Simulationen ernsthafte Treiber-Arbeit machen kann. Anders formuliert: Ein Beleg dessen wäre schön.
Wie machen das AMD und vor allem NV? Die haben zu Release jeweils schon sehr gute Treiber, trotz Architekturwechseln. Nichts anderes sollte man von Intel erwarten können - denn deren grobe Architektur existiert eben schon vor den dGPUs (als iGPU), anders als bei AMD und NV. Intel hat hier Häme verdient, kein Mitleid.
Zumal jeder halbwegs realistisch denkende Beobachter genau das Szenario vorhergesagt hat. Nur Intel konnte es nicht kommen sehen :freak:
Leonidas
2022-06-28, 05:23:32
Die vorhandenen guten Treiber bei AMD & NV basieren natürlich auch auf früheren Generationen - und letztlich müssen AMD & NV sich nur auf die Gen-Unterschiede konzentrieren, können ansonsten auf bekanntes Wissen setzen. Das ist ein großer Unterschied dazu, dass man aus dem Urschleim kommt.
Zumal jeder halbwegs realistisch denkende Beobachter genau das Szenario vorhergesagt hat. Nur Intel konnte es nicht kommen sehen :freak:
Natürlich hat auch Intel das vorhergesehen, kann man nur schlecht öffentlich kommunzieren.
Die erste Generation war bei Intel immer als Lehrgeld eingeplant.
Von 0 auf 100 geht auch schlecht, Apple hat auch einige Generationen gebraucht um mit den eigenen CPUs der Konkurrenz davonzurennen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.