Entwicklervorschau für TensorFlow Lite ist da

TensorFlow Lite: Ein Schritt in Richtung mobilen Machine Learnings
Kommentare

Maschinelles Lernen ist aktuell ein großes Thema. TensorFlow erreicht jetzt mit TensorFlow Lite auf diesem Gebiet ein neues Evolutionsstadium. In Zukunft kommen mobile und embedded Devices dazu. Entwickler dürfen schon einmal einen Blick auf TensorFlow Lite werfen.

Das TensorFlow-Team hat sich bei der Konzeption von TensorFlow Lite vor allem drei Dinge vorgenommen. Die neue Programmbibliothek soll leichtgewichtig sein, plattformübergreifend und schnell. Die Zahl der mobilen Geräte, die maßgeschneiderte Hardware erhalten, um ML-Workloads effizient verarbeiten zu können, wächst. TensorFlow Lite unterstützt das Android Neural Networks API. Es nutze die neuen Beschleuniger, sobald sie verfügbar seien, heißt es auf dem Google Developers Blog.

Die Architektur von TensorFlow Lite

TensorFlow Lite besteht aus den Komponenten TensorFlow Model, Converter und Model File. Hinter Model verbirgt sich ein trainiertes Modell, das auf der Festplatte gespeichert wird. Der Converter konvertiert das Modell in das TensorFlow-Lite-Dateiformat. Die TensorFlow-Lite-Modelldatei ist ein auf FlatBuffern basierendes Modelldateiformat, das für maximale Geschwindigkeit und minimale Größe optimiert wurde. Sie wird innerhalb einer mobilen App deployet. Das Java-API ist ein komfortabler Wrapper rund um die C++-API auf Android. Die C++-API lädt die Lite-Modelldatei  und ruft den Interpreter auf. Auf Android und iOS ist jeweils die gleiche Bibliothek verfügbar. Der Interpreter führt das Modell schließlich mit einer Reihe von Operatoren aus. Er unterstützt selektives Laden von Operatoren. Ohne diese beansprucht er 70 KB, mit allen Operatoren 300 KB. Auf einzelnen Android-Geräten nutzt der Interpreter das Android Neural Networks API zur Beschleunigung der Hardware, oder wechselt standardmäßig zur CPU-Ausführung, falls kein API verfügbar ist.

Architektonischer Aufbau von TensorFlow Lite, Quelle: Google Developers Blog

Was ist mit TensorFlow Mobile?

Über das TensorFlow-Mobile-API unterstützt TensorFlow bereits die mobile und embedded Bereitstellung von Modellen. Google sieht Lite als nächste Evolutionsstufe von Mobile. Mit zunehmendem Reifegrad soll sich Lite als empfohlene Lösung für den Einsatz von Modellen auf mobilen und eingebetteten Geräten etablieren. Der Umfang von TensorFlow Lite ist groß und wird laut Google noch aktiv weiterentwickelt. „Mit dieser Entwickler-Vorschau haben wir bewusst mit einer eingeschränkten Plattform begonnen, um die Performance auf einigen der wichtigsten gängigen Modelle sicherzustellen. Wir planen, zukünftige funktionale Erweiterungen entsprechend den Bedürfnissen unserer Benutzer zu priorisieren“, erklärt das Unternehmen. Die Ziele der Weiterentwicklung sind die Vereinfachung der Entwicklererfahrung und Beispiel-Deployments für eine Reihe von mobilen und eingebetteten Geräten zu ermöglichen.

Unsere Redaktion empfiehlt:

Relevante Beiträge

Meinungen zu diesem Beitrag

X
- Gib Deinen Standort ein -
- or -