Machine Learning

Gut gebrüllt, SINGA!

Apache SINGA: Neues Top-Level-Projekt für verteiltes und skalierbares Machine Learning
Keine Kommentare

Apache SINGA, eine Open-Source-Bibliothek für verteilte und skalierbare Machine-Learning-Anwendungen, hat den Inkubator der Apache Software Foundation (ASF) verlassen. Das neue Top-Level-Projekt hat bereits ein paar Jahre auf dem Buckel, ist aber thematisch so aktuell wie nie zuvor…

Das Projekt SINGA wurde 2014 an der National University of Singapore ins Leben gerufen, seit März 2015 war Apache SINGA im Inkubator der ASF beheimatet und wurde auf Herz und Nieren getestet, schließlich weiterentwickelt und im Oktober dieses Jahres vollendet. Gestern verließ das Projekt den Apache Inkubator und ist seitdem als neues Top-Level-Projekt nun Teil der Apache Software Foundation. Ein Ereignis, das auch Wei Wang, Vizepräsident des Projekts und Assistenzprofessor an der National University of Singapore sehr erfreut:

We are excited that SINGA has graduated from the Apache Incubator. The SINGA project started at the National University of Singapore, in collaboration with Zhejiang University, focusing on scalable distributed deep learning. In addition to scalability, during the incubation process, built multiple versions to improve the project’s usability and efficiency. Incubating SINGA at the ASF brought opportunities to collaborate, grew our community, standardize the development process, and more.

Apache SINGA – Das steckt drin

Bei Apache SINGA geht es, wie eingangs bereits erwähnt, um verteilte und skalierbare Machine-Learning-Anwendungen bzw. -Modelle. Der Software-Stack besteht aus drei Komponenten: Core, IO und Model. Dabei stellt der Kern Speichermanagement und Tensor-Operationen zur Verfügung. IO stellt darüber hinaus Klassen für das Lesen und Schreiben von Daten von bzw. auf Datenträgern und Netzwerken bereit. Die Modell-Komponente beinhaltet Datenstrukturen und -algorithmen für Machine-Learning-Modelle. Gemeint sind mit Letzteren etwa Layer für Modelle, die auf Neuronalen Netzwerken basieren, sowie Optimizer, Initializer oder Metriken für herkömmliche Machine-Learning-Modelle.

Die Architektur von Apache SINGA / © Copyright 2019 The Apache Software Foundation

Die Bibliothek soll Entwicklern die Möglichkeit geben, große Machine-Learning-Modelle verteilt über einen ganzen Cluster an Maschinen trainieren zu können. Im Fokus liegen dabei die sehr rechenintensiven Deep-Learning-Modelle. Für die Skalierung und die Performanz des Ganzen enthält die Library verschiedene Optimierungsoptionen bezüglich der Kommunikation, Speichernutzung und Synchronisation.

Gründer und Initiator des Projekts, Beng Chin Ooi, betont in der Pressemitteilung, wie wichtig es sei, Deep Learning im Sinne des Distributed Computing zu skalieren. Auf einem einzelnen GPU könnte das Training von Deep-Learning-Modellen hunderte von Tagen beanspruchen, da diese besonders groß und anhand riesiger Datenmengen trainiert werden. Apache SINGA soll das Deep Learning damit in neue und vor allem performantere Welten bringen.

Weitere Informationen zum Projekt gibt es auf dem Blog der Apache Software Foundation, sowie auf der offiziellen Homepage des Projektes. Wer gleich tief einsteigen will in die Thematik, dem sei die Dokumentation ans Herz gelegt.

Unsere Redaktion empfiehlt:

Relevante Beiträge

Hinterlasse einen Kommentar

Hinterlasse den ersten Kommentar!

avatar
400
  Subscribe  
Benachrichtige mich zu:
X
- Gib Deinen Standort ein -
- or -