Badesalz
2021-08-19, 09:16:07
Moin.
Kauft, im Sinne von Aufkauft ;)
Vorweg: Mir wäre es natürlich lieber, wenn sie eine eigene Firma bleiben würden bzw. sich einfach nicht kaufen lassen möchten, aber sie würfeln grad alles neu und das sieht nicht nach Eintagsfliege aus. Dafür sind sie jetzt schon viel zu gut.
Ist AI/DL also auf diskreten GPUs tot? Ist das der Grund warum AMD sich eher auf FP konzentriert als auf Nvidias Spezialitäten? Oder, hat Cerebras später auch FP32/FP64 in der Größenordnung vor?
Größenordnung von CS-1 (System) bzw. WSE-1 (der Chip selbst), mit der Info im Hinterkopf, daß der Speedup CS-2/WSE-2, bereits fertiggestellt, bei der langsamsten Aufgabe 2x ist. Meist mehr als 3x.
Kundenurteile: 2 Tage statt 2 Wochen, 80fach schneller als das Produktive System, hundertfach (mehrere!) schneller...
https://en.wikipedia.org/wiki/Cerebras#Deployments
Anderes Beispiel: Die erste reale Möglichkeit über Teilergebnisse einer Simulation maschinell nachzudenken um ihre Parameter zu optimieren. Theoretischer Ansatz der erst mit Cerebras real schnell genug möglich ist
https://www.osti.gov/servlets/purl/1643766
Sozusagen, 1000 GPUs rechnen einen klassischen FP32/FP64 Job und ein CS-x analysiert und optimiert die Simulation während der Laufzeit...
Was man an den Links erkennt: Sie finden ihre Softwarebasis 1:1 so wichtig wie die Hardwareentwicklung. Es hat keine 6 Monate gedauert bis early adopters ihre bisherigen AI/DL Lösungen auf WSE umgeschrieben haben und das auch direkt in Produktiv. 1x adaptiert, ist der Aufwand bei neuen WSEs nur noch geringfügig. Sie hatten und haben also schon mit der ersten Version ein komplett erwachsenes und fertiges System.
Mit diesen Speedups zu aktuell und bisher genutzten AI/ML/DL Lösungen macht man doch ALLES platt?
Ein System aus (hypothetisch) 700 Hopper wird ja nicht 80x schneller als mit 700 Ampere (?) Und das war CS-1. CS-2 ist bei gleicher Größe und gleichem Verbrauch 2x bis 4x schneller als CS-1.
edit:
Großteil des PR-Journalismus der allgemein auch über CPUs und GPUs berichtet, schweigt mehr oder weniger. Die einzigen die das Thema gelegentlich aber richtig aufgreifen ist überraschenderweise Luxx. Die meisten anderen meiden es nahezu =)
Kauft, im Sinne von Aufkauft ;)
Vorweg: Mir wäre es natürlich lieber, wenn sie eine eigene Firma bleiben würden bzw. sich einfach nicht kaufen lassen möchten, aber sie würfeln grad alles neu und das sieht nicht nach Eintagsfliege aus. Dafür sind sie jetzt schon viel zu gut.
Ist AI/DL also auf diskreten GPUs tot? Ist das der Grund warum AMD sich eher auf FP konzentriert als auf Nvidias Spezialitäten? Oder, hat Cerebras später auch FP32/FP64 in der Größenordnung vor?
Größenordnung von CS-1 (System) bzw. WSE-1 (der Chip selbst), mit der Info im Hinterkopf, daß der Speedup CS-2/WSE-2, bereits fertiggestellt, bei der langsamsten Aufgabe 2x ist. Meist mehr als 3x.
Kundenurteile: 2 Tage statt 2 Wochen, 80fach schneller als das Produktive System, hundertfach (mehrere!) schneller...
https://en.wikipedia.org/wiki/Cerebras#Deployments
Anderes Beispiel: Die erste reale Möglichkeit über Teilergebnisse einer Simulation maschinell nachzudenken um ihre Parameter zu optimieren. Theoretischer Ansatz der erst mit Cerebras real schnell genug möglich ist
https://www.osti.gov/servlets/purl/1643766
Sozusagen, 1000 GPUs rechnen einen klassischen FP32/FP64 Job und ein CS-x analysiert und optimiert die Simulation während der Laufzeit...
Was man an den Links erkennt: Sie finden ihre Softwarebasis 1:1 so wichtig wie die Hardwareentwicklung. Es hat keine 6 Monate gedauert bis early adopters ihre bisherigen AI/DL Lösungen auf WSE umgeschrieben haben und das auch direkt in Produktiv. 1x adaptiert, ist der Aufwand bei neuen WSEs nur noch geringfügig. Sie hatten und haben also schon mit der ersten Version ein komplett erwachsenes und fertiges System.
Mit diesen Speedups zu aktuell und bisher genutzten AI/ML/DL Lösungen macht man doch ALLES platt?
Ein System aus (hypothetisch) 700 Hopper wird ja nicht 80x schneller als mit 700 Ampere (?) Und das war CS-1. CS-2 ist bei gleicher Größe und gleichem Verbrauch 2x bis 4x schneller als CS-1.
edit:
Großteil des PR-Journalismus der allgemein auch über CPUs und GPUs berichtet, schweigt mehr oder weniger. Die einzigen die das Thema gelegentlich aber richtig aufgreifen ist überraschenderweise Luxx. Die meisten anderen meiden es nahezu =)