Hamster
2021-12-11, 11:44:30
Servus!
ich würde gerne ein wenig mit verteilter Compute-Power rumspielen.
Sprich, ich möchte lokal erstellte ML-Modelle (Python) auf anderen Rechner ausführen lassen.
Dies hat keinen konkreten Anwendungsfall, sondern ich möchte mich einfach in die Materie etwas einarbeiten und damit rumspielen.
Die Frage ist jetzt, mit welchen (freien) Softwarepaketen ich hier am Besten starten sollte.
Apache Spark?
Folgende Systeme will ich testweise als Cluster einbinden:
- Raspberry Pi (Linux)
- Intel System (Windows)
- Macbook Air mit M1 (OS X)
Habt ihr ein paar gute Tipps oder Webseiten parat um mich damit näher zu beschäftigen?
Danke :)
ich würde gerne ein wenig mit verteilter Compute-Power rumspielen.
Sprich, ich möchte lokal erstellte ML-Modelle (Python) auf anderen Rechner ausführen lassen.
Dies hat keinen konkreten Anwendungsfall, sondern ich möchte mich einfach in die Materie etwas einarbeiten und damit rumspielen.
Die Frage ist jetzt, mit welchen (freien) Softwarepaketen ich hier am Besten starten sollte.
Apache Spark?
Folgende Systeme will ich testweise als Cluster einbinden:
- Raspberry Pi (Linux)
- Intel System (Windows)
- Macbook Air mit M1 (OS X)
Habt ihr ein paar gute Tipps oder Webseiten parat um mich damit näher zu beschäftigen?
Danke :)