DSSTNE soll zweimal schneller als TensorFlow sein

Amazon stellt Deep-Learning-Software DSSTNE Open Source
Kommentare

Heimlich, still und leise hat Amazon das Feld der quelloffenen Deep-Learning-Software betreten: Der E-Commerce-Riese hat jetzt die Deep-Learning-Library DSSTNE unter der Apache-Lizenz auf GitHub Open Source gestellt. Mit DSSTNE lassen sich unter Nutzung von künstlichen neuralen Netzen Machine-Learning-Modelle entwickeln, die auf Anwendungen mit spärlichen Daten optimiert sind.

Amazon ist eigentlich nicht gerade bekannt dafür, sich besonders in der Open-Source-Community zu engagieren. Allerdings haben in den letzten Monaten einige der Web-Giganten ihre Deep-Learning-Technologien Open Source gestellt – darunter zum Beispiel Google mit TensorFlow oder Facebook mit Big Sur. Jetzt ist also auch Amazon auf den Zug aufgesprungen und hat die Deep-Learning-Library DSSTNE quelloffen gemacht:

We are releasing DSSTNE as open source software so that the promise of deep learning can extend beyond speech and language understanding and object recognition to other areas such as search and recommendations.

Zudem erhofft sich Amazon eine rege Beteiligung von Entwicklern, um die Bibliothek stetig zu verbessern und „innovation in many more areas“ anzuregen.

DSSTNE – Wegweiser im Machine Learning?

Unter dem klangvollen Namen Deep Scalable Sparse Tensor Network Engine hat Amazon seine hauseigene Library zum Erstellen von Deep-Learning-Machine-Learning-Modellen veröffentlicht. Kurz nennt sich die Bibliothek DSSTNE, Destiny ausgesprochen. DSSTNE soll bestehende Deep-Learning-Libraries signifikant übertreffen, wenn es darum geht, Aufgaben zu bewältigen, für die kaum Trainingsdaten vorliegen.

Amazon hat DSSTNE darauf optimiert, mit unvollständigen Informationen umzugehen, um so die Geschwindigkeit der Recommendation Engines zu beschleunigen. Denn diese haben normalerweise keinen Zugriff auf alle Informationen, die sie prüfen müssen. Typisches Beispiel ist das Produktvorschlagsfeature, das die Bestellhistorie eines Kunden nicht durchsuchen kann, wenn dieser nicht eingeloggt ist. Suchapplikationen können dann die Daten von DSSTNE auswerten – die Library kann zudem auch mit semantischen Lücken umgehen, die oft in Nutzeranfragen vorliegen.

Performance-Boost dank DSSTNE

Im Gegensatz zu anderen Libraries wie TensorFlow oder Caffe, die zwar einen größeren Funktionsumfang und bessere Netzwerkunterstützung besitzen, punktet DSSTNE mit seiner Performance. Laut Amazon ist DSSTNE wesentlich schneller als jedes andere Deep-Learning-Package, wenn es darum geht, auftretende Probleme mit spärlichen Daten anzugehen (z. B. beim Verständnis von Natural Language). Die Geschwindigkeitssteigerung resultiert aus der parallelen Nutzung von mehreren GPUs innerhalb eines Server, wodurch eine verteilte Distribution möglich ist. DSSTNE soll dabei 2,1-mal schneller als TensorFlow auf einer g2.8xlarge-GPU-Einheit in der AWS-Cloud sein.

Des Weiteren hat die C++-basierte Library weitere Vorteile in puncto Nutzerfreundlichkeit. So ist die Network-Definition-Language einfacher als etwa die von Caffe: Wo Caffe für die Wiedergabe des Bilderkennungsmodells AlexNet über 300 Zeilen Code benötigt, braucht DSSTNE lediglich 33. Allerdings unterstützt DSSTNE bislang nicht die Convolutional Layers, die für eine Bildverarbeitung nötig sind. Auch für rekurrente Layer, die für viele Spracherkennungs- und Natural-Language-Tasks gebraucht werden, gibt es nur eingeschränkten Support. Laut Q&A wird an diesen Features aber bereits gearbeitet.

Der Quellcode von DSSTNE sowie FAQ und User Guide stehen auf GitHub zur Verfügung.

Aufmacherbild: Phrenology Head and Deep Space Banner von Shutterstock / Urheberrecht: Nikki Zalewski

Unsere Redaktion empfiehlt:

Relevante Beiträge

Meinungen zu diesem Beitrag

X
- Gib Deinen Standort ein -
- or -