PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 8. März 2022


Leonidas
2022-03-09, 07:42:50
Link zur News:
https://www.3dcenter.org/news/news-des-8-maerz-2022

Sweepi
2022-03-09, 10:18:23
Damit schließt Apple faktisch den Kreis bzw. sein Vorhaben ab, für alle Performance-Bereiche eigene SoCs zur Verfügung zu haben.

Wahrscheinlich kommt fuer den MacPro nochmal etwas groesseres (oder "nur" ein M1/M2 Ultra mit PCIe Slots?), aber erst im Herbst oder gar im nächsten Jahr.

konkretor
2022-03-09, 10:51:10
Leo wärst du so nett und würdest den Test noch bei den Grakas verlinken

https://www.igorslab.de/gunnir-iris-xe-max-index-v2-intels-dg1-neu-im-testlabor-und-die-suche-nach-dem-passenden-microcode-2/

danke

Leonidas
2022-03-09, 11:34:38
Steht schon auf der Liste.

Gast
2022-03-09, 13:06:52
Dies ist in theoretischen Benchmarks sicherlich denkbar, im Praxiseinsatz muß Apple allerdings erst einmal beweisen, dass sich die zwei GPU-Blöcke der zwei "zusammengeklebten" SoCs überhaupt als "eine GPU" ansteuern lassen – oder dass Apple eine sinnvolle Lastverteilung irgendwie anders regeln kann.

Die GPU ist aus Softwaresicht eine einzelne GPU, damit sind alle bisherigen Multi-GPU-Probleme aus Sofwaresicht passé.

Mit 2,5TB/s interconnect lässt sich das auch ohne Probleme bewerkstelligen, und angesichts des sonstigen enormen Effizienzvorteils dürfte dieser Nachteil zu verschmerzen sein.

und zum anderen geht es beim "M1 Ultra" auch eher um die doppelte CPU-Power, eine mögliche doppelte GPU-Power wäre nur ein Nebeneffekt.

Natürlich geht es Apple auch, bzw. sogar vornehmlich um GPU-Power, nicht umsonst ist der M1Max praktisch eine GPU die eine CPU integriert hat und nicht umgekehrt.

Über 800mm2 wären ja eine enorme Siliziumverschwendung, wenn man davon 75% gar nicht nutzen würde. Würde es nur um die Multicore CPU-Power gehen, würde AMD einfach einen 16-Kerner mit kleinerer GPU bauen, das wäre wesentlich günstiger.

Gast
2022-03-09, 13:17:28
Wie schafft es der M1 Ultra, mehr als doppelt so schnell zu sein als der M1 Max? Es müsste doch eigentlich Verluste geben, wenn z.B. Daten von einem M1 Max auf den anderen transferiert werden müssen (gilt ja nicht nur für GPU, auch bei CPUs hat man das Problem ja evtl.). Oder ist der Max thermisch limitiert?

Die Angabe bezüglich Verbrauch des Ultra ist auch fraglich, wenn bei Notebookcheck ein M1 Max schon über 90W braucht (Peak 135W). Ändert nichts daran, dass das Ding sehr effizient ist, aber ist schon ein großer Unterschied.

Platos
2022-03-09, 13:38:26
Bezüglich Apple: Apple nutzt hald auch 5nm TSCM. Und diese "Vergleiche" sind auch schon bald fehl am Platz. Bald schon steht Lovelace und RDNA3 mit ebenfalls 5nm TSMC auf dem Platz. Dann sieht man dann, wie gut Apple wirklich ist (ohne Fertigungsvorteil).

Gast
2022-03-09, 13:49:56
Bezüglich Apple: Apple nutzt hald auch 5nm TSCM. Und diese "Vergleiche" sind auch schon bald fehl am Platz.

Sie nutzen es eben, es hätten ja auch andere Hersteller die Möglichkeit gehabt bei TSMC die entsprechenden Kapazitäten zu ordern.

Wenn man eben immer Apple die sprichwörtliche Drecksarbeit machen lässt und selbst erst wechselt wenn der Prozess ausgereift ist darf man sich auch nicht beklagen, dass man ständig einen Fertigungsnachteil hat.

Aber grundsätzlich stimmt es schon, es sind immerhin knapp 120Mrd. Transistoren gegen 30Mrd. Klar sind in den 120Mrd. auch noch 8 + 8 + 2 + 2 CPUs und jede Menge sonstige Speziallogik integriert, aber selbst wenn wir realistisch von 60-70% für die GPU ausgehen sind es auf Apple Seite immer noch weit mehr als doppelt so viele.

Dovregubben
2022-03-09, 13:52:43
Apple könnte mal angeben, was sie als Performance messen. Das ist echt unterste Schublade.

Bei Intel bin ich mir nicht sicher, wo sie mit ihrer 3070 Performance noch hinwollen, wenn sie dann im Endeffekt gegen Lovelace antreten. Das könnte in der ersten Generation ein Rohrkrepierer werden.

Leonidas
2022-03-09, 13:53:24
Die GPU ist aus Softwaresicht eine einzelne GPU, damit sind alle bisherigen Multi-GPU-Probleme aus Sofwaresicht passé.

Mit 2,5TB/s interconnect lässt sich das auch ohne Probleme bewerkstelligen, und angesichts des sonstigen enormen Effizienzvorteils dürfte dieser Nachteil zu verschmerzen sein.

Der Interconnect selber sagt nicht zwingend, wie die Software die Sache sieht. Eine absolut explizite Aussage hierzu habe ich nicht gefunden.

WedgeAntilles
2022-03-09, 14:00:57
Bei Intel bin ich mir nicht sicher, wo sie mit ihrer 3070 Performance noch hinwollen, wenn sie dann im Endeffekt gegen Lovelace antreten. Das könnte in der ersten Generation ein Rohrkrepierer werden.

Die erste Generation könnte einfach nur als Beweis dienen, dass die Treiber einwandfrei funktionieren.
FALLS die Treiber einwandfrei funktionieren. Ist ja noch ein großes Fragezeichen und völlig unklar.

Die paar GraKas die Intel im Bereich der 3060/3070 verkaufen will machen den Kohl ja eh nicht fett.
(Vorausgesetzt die kolportierten 4 Mio Einheiten und die von Intel unterstellen erwarten Umsätze daraus sind korrekt, bedeutet das ja, dass von den 4 Mio der überwältigende Anteil LowEnd Chips sind. Es bleiben also nur wenige hunderttausend GraKas übrig, die überhaupt im Bereich 3060 rum angesiedelt sind. Da spielt es kaum eine Rolle ob man jetzt früher oder später dran ist.
Wie gesagt, gilt natürlich nur, falls die von Intel angegebenen Umsatzprognosen für Arc1 der Wahrheit entsprechen.)

Gast
2022-03-09, 15:30:51
Wenn man eben immer Apple die sprichwörtliche Drecksarbeit machen lässt und selbst erst wechselt wenn der Prozess ausgereift ist darf man sich auch nicht beklagen, dass man ständig einen Fertigungsnachteil hat.
Die Drecksarbeit macht TSMC. Apple Ordert bestimmte Mengen und wenn TSMC die nicht liefern kann, müssen sie entsprechende Strafen zahlen. Was Apple hingegen macht, ist einen Aufpreis für den neuesten Node zahlen. Den kann sich Apple leisten weil man keinen Konkurrenten hat, sondern immer exklusiver Hardware Lieferant für Apple Geräte ist. AMD, Intel und NVidia haben hingegen einen Markt, in dem sie bestehen müssen.
Bei Apple ist man quasi in einer Art Paralleluniversum. Wer ein Apple Gerät will, der muss jetzt (fast überall) auch Apple Hardware wählen (Intel und AMD gibt's nur noch im Mac Pro und da ist das Ende auch schon absehbar). Das ist halt der Vorteil von Apple, man bietet keine Hardware an, sondern fertige Geräte. Also ist es auch egal, ob ein Prozessor 20€ mehr in der Herstellung kostet oder nicht. Das geht im Gesamtgerät dann irgendwann unter...

Gast
2022-03-09, 15:53:53
Der Interconnect selber sagt nicht zwingend, wie die Software die Sache sieht. Eine absolut explizite Aussage hierzu habe ich nicht gefunden.

Anandtech Artikel verlinkt, aber nicht gelesen?

Gast
2022-03-09, 15:56:10
Die Angabe bezüglich Verbrauch des Ultra ist auch fraglich, wenn bei Notebookcheck ein M1 Max schon über 90W braucht (Peak 135W). Ändert nichts daran, dass das Ding sehr effizient ist, aber ist schon ein großer Unterschied.

Apple vergleicht auch den GPU-Verbrauch.
Die GPU im M1 Max peakt irgendwo bei ca. 60W, insofern sind die knapp über ca. 120W die Apple für 2 M1 Max veranschlagt durchaus realistisch.

Platos
2022-03-09, 16:41:58
Sie nutzen es eben, es hätten ja auch andere Hersteller die Möglichkeit gehabt bei TSMC die entsprechenden Kapazitäten zu ordern.

Wenn man eben immer Apple die sprichwörtliche Drecksarbeit machen lässt und selbst erst wechselt wenn der Prozess ausgereift ist darf man sich auch nicht beklagen, dass man ständig einen Fertigungsnachteil hat.

Aber grundsätzlich stimmt es schon, es sind immerhin knapp 120Mrd. Transistoren gegen 30Mrd. Klar sind in den 120Mrd. auch noch 8 + 8 + 2 + 2 CPUs und jede Menge sonstige Speziallogik integriert, aber selbst wenn wir realistisch von 60-70% für die GPU ausgehen sind es auf Apple Seite immer noch weit mehr als doppelt so viele.

Ja, kostet auch demnetsprechend viel plus noch die Apple extragage oben drauf und des weiteren die Deppen-Aufschlagsteuer ;)

Gast
2022-03-09, 17:49:36
Ja, kostet auch demnetsprechend viel plus noch die Apple extragage oben drauf und des weiteren die Deppen-Aufschlagsteuer ;)

Die Top GPUs kosten auch genug und stehen Apple um nichts nach.

greeny
2022-03-09, 22:16:10
"Alexa, hack dich selbst": Forscher nutzen Voice-Schwachstelle aus []
[Winfuture]

Leonidas
2022-03-10, 05:08:28
Anandtech Artikel verlinkt, aber nicht gelesen?

Ich sehe da nix, was auf diese Problematik in eindeutiger Sprache eingeht. Auf welchen Wortlaut beziehst Du Dich genau?




[Winfuture]

Gefixt.

Gast
2022-03-10, 08:57:52
Ich sehe da nix, was auf diese Problematik in eindeutiger Sprache eingeht. Auf welchen Wortlaut beziehst Du Dich genau?



By enabling the M1 Ultra’s two dies to transparently present themselves as a single GPU, Apple has kicked off a new technology race for placing multi-die GPUs in high-end consumer and workstation hardware.


Thanks to UltraFusion, Apple has become the first vendor to ship a chip that transparently combines two otherwise separate GPUs. And while we’ll have to wait for reviews to find out just how well this works in the real world, Apple is understandably excited about their accomplishment, and the performance implication thereof.

Mein Text ist nicht zu kurz

Flusher
2022-03-10, 09:08:59
Dass man mit dem M1 Ultra die Leistung einer 3090 erreichen oder gar überbieten möchte, ist schon eine Ansage. Ich frage mich nur in welchem Gebiet? Gaming Performance wird es ja wohl nicht sein, denn dafür werden die Apple Produkte eigentlich nicht konzipiert und gekauft. Ich denke hier ist eher professionelle Software gemeint.

Leonidas
2022-03-10, 09:40:51
Mein Text ist nicht zu kurz

Nein, Dein Text ist perfekt.

Nur lese ich das anders. Denn "UltraFusion" ist der Marketing-Name für den Interconnect. Nur sagt dessen Verwendung 0,0 etwas darüber aus, was die Software sieht.

Natürlich kann es sein, dass Apple dieses Problem löst. Ich würde es nur gern sauber bestätigt sehen.

Gast
2022-03-10, 09:52:50
Dass man mit dem M1 Ultra die Leistung einer 3090 erreichen oder gar überbieten möchte, ist schon eine Ansage. Ich frage mich nur in welchem Gebiet?

Apple Grafiken übertreffen sogar jene von Intel wenn es beim fehlen von Informationen geht.

Aber es wird wohl über typische Mac Anwendungsfälle gehen, also eher nicht Gaming, sondern Content Creation, wofür Macs eben typischerweise verwendet werden.

Wie es bei Spielen aussieht, lässt sich mangels Verfügbarkeit jener auf MacOS kaum sagen. Das einzige was meines wissens wirklich nativ läuft ist World of Warcraft. Vieles ältere ist auf MacOS noch mit OpenGL umgesetzt, was traditionell beschissen läuft, wenn du auf MacOS Performance willst musst du Vulkan oder Metal verwenden, und ältere Spiele gibt es nur als 32bit Anwendung, welche MacOS schon seit einiger Zeit nicht mehr unterstützt (auch nicht mit Intel).

Gast
2022-03-10, 10:18:00
Nein, Dein Text ist perfekt.


Das Forum war anderer Meinung 😁


Nur lese ich das anders. Denn "UltraFusion" ist der Marketing-Name für den Interconnect. Nur sagt dessen Verwendung 0,0 etwas darüber aus, was die Software sieht.


Klar ist ein toll klingender Marketingname nichts wert, wenn aber darüber bzw. darunter eindeutig steht, dass dieses dazu verwendet wird um die 2 DIEs als eine GPU aussehen zu lassen, ist das schon ziemlich nun ja eindeutig.

Von der Logik her ist das auch überhaupt kein Problem. Wenn wir bei Nvidia bleiben, ist jeder GPC im Prinzip eine eigene GPU. Problematisch ist bzw. war bisher lediglich, dass man die dafür benötigten Bandbreiten Off-Die nicht zur Verfügung hatte, bzw. dass es energetisch zu kostspielig wäre die benötigten Bandbreiten Off-Die zu implementieren.

Mit den 2,5TB/s hat Apple weit mehr als genug Bandbreite zur Verfügung, jeder DIE hat 400GB/s zum eigenen Speicher, beide DIEs können also Fullspeed auf den jeweils anderen Speicher zugreifen und es bleibt immer noch mehr als genug für den Rest übrig.

Die Bandbreite reicht also mehr als aus für "eine GPU", bleibt als offene Frage wie sehr sich das auf den Verbrauch niederschlägt, aber nachdem Apple bei der Effizienz so große Vorteile hat sollte es auch verschmerzbar sein, wenn man da was liegen lässt.

Leonidas
2022-03-10, 10:35:04
Klar ist ein toll klingender Marketingname nichts wert, wenn aber darüber bzw. darunter eindeutig steht, dass dieses dazu verwendet wird um die 2 DIEs als eine GPU aussehen zu lassen, ist das schon ziemlich nun ja eindeutig.

Das lese ich da nicht. Da würde ich eher gern so was lesen wollen wie "sieht für die Software wie eine GPU" aus. Etwas klares, eindeutiges. Eine "transparente Kombination zweier GPUs" geht in diese Richtung, ist aber weit von Eindeutigkeit entfernt. Doch: Alles was von Apple kommt, benötigt Eindeutigkeit. Deren Marketing läßt einen ansonsten an 2 Äpfel (anstatt einen angebissenen) glauben.

PS: Interconnect-Bandbreite braucht man so oder so, egal ob 1 Chip oder 2 Chips. Nur klärt dies nicht die Hauptfrage.

Gast
2022-03-10, 12:21:06
Etwas klares, eindeutiges.


Also wenn...
Thanks to UltraFusion, Apple has become the first vendor to ship a chip that transparently combines two otherwise separate GPUs.

nicht eindeutig ist weiß ich nicht mehr weiter. Und btw. das ist eine Anandtech Formulierung, keine vom Apple Marketing.

Leonidas
2022-03-10, 14:28:25
Eine Kombination zweier Chips ist für mich nicht sicher genug. Eine definitive Hersteller-Aussage wäre hierzu zielführender. Die Frage ist halt nicht, was der Interconnect kann (UltraFusion ist nur der Connect), sondern was die Software kann.

PS: Sobald ich hierzu was sicheres habe, was Deine These bestätigt, werde ich dies extra herausstreichen. Es geht hier sicherlich nicht darum, ob ich Recht habe oder nicht. Ich will nur sicher sein, ehe ich Apple ein solches Feature zuschreibe.

Gast
2022-03-10, 14:46:38
Eine Kombination zweier Chips ist für mich nicht sicher genug.

Aber "transparently" ist absolut eindeutig.

Lehdro
2022-03-10, 16:01:24
Also wenn...


nicht eindeutig ist weiß ich nicht mehr weiter. Und btw. das ist eine Anandtech Formulierung, keine vom Apple Marketing.
Ich bin jetzt kein englisch Profi, aber "transparently combined" kann auch beispielsweise bedeuten dass das für den User unsichtbar ist, wie Programme damit umgehen steht dann wieder auf einem anderen Blatt.

So gesehen hat Ryzen (z.B. TR) mit 2x CCD auch "transparently combined", aber für Programme kann das durchaus noch anders nutzbar sein. Siehe NUMA aware Software.

Gast
2022-03-11, 12:15:50
Ich bin jetzt kein englisch Profi, aber "transparently combined" kann auch beispielsweise bedeuten dass das für den User unsichtbar ist, wie Programme damit umgehen steht dann wieder auf einem anderen Blatt.

Der User ist die Software die im Userspace läuft. Dass spätestens der Treiber Ahnung vom physischen Design haben muss ist klar. Aber dieser abstrahiert dies eben für den User (und der ist in dem Fall der Developer und nicht der Enduser).

Mag ja sein, dass Anandtech hier auf irgendein Marketinggedöns von Apple reingefallen ist, aber laut dem was Anandtech mit eigenen Worten beschreibt ist es klipp und klar dass die GPU aus Usersicht (und User ist hier wie nochmal erwähnt die Anwendungssoftware) als eine einzige Grafikkarte erscheint, da gibt es keine 2 Deutungsmöglichkeiten.

Die einzige Möglichkeit ist, dass sich Anandtech irrt.

Leonidas
2022-03-11, 15:10:13
Ich sehe das schon, dass es in diese Richtung geht. Schön wäre halt eine super-eindeutige Bestätigung. Etwas, was man nicht deuten muß bzw. keinerlei andere Auslegungen offenläßt.