Die Take-aways von der ML Conference 2018 - Tag 2

Machine Learning: Das alles und noch viel mehr!
Keine Kommentare

An Tag zwei der ML Conference 2018 in München schauen wir auf die Vergangenheit, die Gegenwart und die Zukunft des Maschinellen Lernens. Was haben wir von der Konferenz mitgenommen?

Erst das Problem finden, dann das ML-Tool zücken

Worum geht es eigentlich bei Machine Learning? Wie bei vielen Trendthemen in der Tech-Branche kann man manchmal den Eindruck gewinnen, dass der Fokus verloren geht: ML wird manches Mal zum neuen Wundermittel erklärt, mit dem einfach alles besser wird. Unsere Speaker wissen das natürlich besser: Jos Polfliet (Faktion) erklärte in seiner Session zu 75 (sinnvollen) Use Cases für künstliche Intelligenzen, dass eigentlich zwar alle Unternehmensbereiche von künstlicher Intelligenz profitieren können. Er betonte aber auch, dass es nichts bringt, einfach mal eine künstliche Intelligenz einzusetzen, wenn man gar nicht weiß, welches Problem man damit lösen möchte.

Das ist nämlich der erste Schritt auf dem Weg zur guten KI-Implementierung: herausfinden, wo das Problem liegt, das gelöst werden soll. Dabei sollte man durchaus auch mit mathematischem Sachverstand vorgehen, betonte der Speaker: Lohnt es sich, eine KI-Lösung zu entwickeln und zu implementieren? Wenn weniger damit gespart werden kann, als man ausgibt, geht die Rechnung natürlich nicht auf.

Auch der nächste Schritt darf dann nicht vergessen werden: Wer die per ML erworbenen Erkenntnisse nicht in Aktionen umsetzen kann, verliert am Ende auch dann, wenn die erste Berechnung von Kosten und Nutzen positiv ausfiel.

ML leicht gemacht: APIs, Interfaces und Co.

Ob AWS, Google oder Microsoft – viele Tech-Größen bieten inzwischen ML-Implementierungen an, die den Entwickler ein Stück weit zum Anwender machen. Statt TensorFlow aufzusetzen und zu trainieren, wird einfach ein grafisches Webinterface genutzt, das ein fertiges Netzwerk mit Daten füttert. Um solche Dienste ging es gleich mehrfach auf der ML Conference in München.

Bereits am ersten Tag stellten Christian Petters und Constantin Gonzalez (Amazon Web Services GmbH) in ihren jeweiligen Sessions verschiedene Optionen vor, die AWS im Bereich ML bietet. Sage Maker ist beispielsweise ein Dienst, der sich eher an versierte Entwickler richtet, die viel Rechenleistung für ihre ML-Netze benötigen. Hier werden große Workloads auf viele Kerne verteilt, sodass auch aufwändige Berechnungen schnell gehen.

Daneben bietet AWS aber auch Services an, die sich mit wenigen Klicks so konfigurieren lassen, dass das Machine Learning für einen eigenen Anwendungsfall ohne großen Aufwand oder tieferes Verständnis für die mathematischen Prozesse dahinter genutzt werden kann.

Auch Google bietet diverse Machine-Learning- und KI-APIs an, die Dienste zur Verfügung stellen, die sonst aufwändig selbst entwickelt und trainiert werden müssten. Mit dem neuen Dienst WaveNet, der im Rahmen von Googles DeepMind zur Verfügung steht, kann Text in einer sehr natürlichen Form und trotzdem besonders schnell in Sprache umgewandelt werden. Laurent Picard (Google), der über dieses und weitere APIs aus dem ML- und KI-Bereich von Google sprach, kündigte an, dass WaveNet bald für viele Google-Apps ausgerollt werden soll.

Rainer Stropek (software architects / www.IT-Visions.de) stellte auf der ML Conference außerdem LUIS vor, einen Sprachservice, der im Rahmen von Microsofts Cognitive Services verfügbar ist. LUIS bietet Entwicklern eine einfache Möglichkeit dafür, mit Intents und Entities zu arbeiten und Anwender so in natürlicher Sprache mit Anwendungen kommunizieren zu lassen. Dafür müssen Entwickler nicht selbst mit TensorFlow oder anderen Tools arbeiten, sondern bekommen ein Interface für die Konfiguration ihrer Services zur Verfügung gestellt, das Schritt für Schritt durch den Prozess leitet.

Für die Implementierung von LUIS in eigene Anwendung steht dann ein REST API zur Verfügung; Analyseergebnisse werden als JSON-Files ausgegeben – klassisches Webtech also, das komplexes maschinelles Lernen zugänglich macht. Natürlich ist das aber mit Einschränkungen verbunden. LUIS kann nur auf von Microsoft gehosteten Servern verwendet werden, trainierte Netzwerke stehen nicht zum Download oder der Nutzung auf eigenen Servern bereit.

Das alles und noch viel mehr

In ihrer Session „AI really is all that!“ holt Alison Lowndes (Nvidia) zum Rundumschlag aus. Sie nimmt ihr Publikum mit auf eine spannende Reise ins ML-Universum und fängt ganz grundsätzlich mit der Frage an, was Maschinelles Lernen überhaupt ist. Um diesen Punkt zu klären, schaut sie zuerst auf die Basis, Big Data.

Für Lowndes ist Big Data das maschinelle Äquivalent zu Erfahrung. Aus historischer Sicht lässt sich die AI-Entwicklung in drei Phasen einteilen, die denen der Erfahrungsschatz stetig gewachsen ist. Ab etwa 1950 taucht AI auf der Bildfäche auf, um 1980 beginnt Machine Learning und seit ca. 2010 sprechen wir von Deep Learning.

Der aktuelle Diskurs beschäftigt sich mit Themen wie den Status Neuronaler Netze oder Generative Models. Zukünftig könnten Generativ Adversarial Networks (GAN) helfen, Leben zu retten. Auf dem Gebiet der Diagnose und Therapie macht die Medizin schon jetzt durch sie große Fortschritte. „Imagine no limitations in drug discovery“, sagt Alsion.

Bleibt nur eins zu sagen: Es bleibt spanned im Kontext von AI und Machine Learning.

Unsere Redaktion empfiehlt:

Relevante Beiträge

X
- Gib Deinen Standort ein -
- or -