Highlights von der ML Conference 2018 in München

Man lernt nie aus – das gilt auch für Maschinen! 5 Take-aways von der ML Conference 2018
Keine Kommentare

Die ML Conference 2018 in München steht unter dem klaren Motto: Wir sind noch lange nicht am Ende und es gibt noch so viel zu lernen. Der erste Konferenztag ist vorbei und wir richten den Scheinwerfer auf eine kleine Zusammenstellung der spannendsten Themen.

Take-away #1: IQ-Tests gelten auch für künstliche Intelligenz

Ist künstliche Intelligenz bereits so schlau wie wir Menschen? Nein, so weit sind die Systeme noch lange nicht, sagten Marc Ruef (SCIP AG) und Marisa Tschopp (SCIP AG) in ihrer Session zum Thema der Intelligenztests für künstliche Intelligenz. Das ist aber natürlich noch nicht die ganze Antwort: Man kann durchaus einen IQ für künstliche Intelligenzen ermitteln, der Auskunft über Stärken und Schwächen der Systeme gibt.

Genau dafür haben die Speaker einen A-IQ-Test für künstliche Intelligenzen entwickelt und mit Cortana, Siri, Google Assistant und Alexa durchgeführt. Überraschend für die Teilnehmer der Session war beispielsweise das Ergebnis, dass Google keineswegs die höchste Intelligenz im Bereich des abrufbaren Wissens besitzt, obwohl dahinter doch der Datenriese steht.

In der Gesamtwertung schnitt Siri am besten ab. Recht gut sind inzwischen jedoch alle getesteten Systeme im Bereich des Arbeitsgedächtnisses: Wer eine Frage stellt, auf die eine zugehörige Nachfrage folgt, kann inzwischen damit rechnen, dass die Systeme das häufig richtig interpretieren werden. Das kann man aber ja auch einfach selbst testen. Der A-IQ wird vor allem dann spannend, wenn es darum geht, Systeme gezielt einzusetzen oder ihre Weiterentwicklung anhand der noch sichtbaren Schwachstellen voranzutreiben.

Take-away #2: Machine Learning ist angekommen – auch in der Windows-Server-Welt

Alle reden über TensorFlow, Python, die AWS-Tools für maschinelles Lernen, Deeplearning4J und andere typische Sprachen und Tools, die für ML geschaffen wurden. Wer denkt aber zuerst an SQL Server, wenn er ML hört? Das werden wohl die wenigsten sein – dabei bieten SQL Server 2016 und 2017 spannende Möglichkeiten für maschinelles Lernen. Über dieses Thema sprach Jan Mulkens (Microsoft BI Consultant, Ordina) in seiner Session. Mit R Services und einer Python-Integration hat SQL Server einige Optionen für das maschinelle Lernen an Board, die Entwickler nach Belieben mit anderen Libraries ergänzen können. Machine Learning ist inzwischen also beinahe überall angekommen, sogar auf der Windows-Server-Welt!

Take-away #3: Die Tücken des maschinellen Lernens: Probleme bewältigen gehört dazu

Pavel Shkadzko (Gini GmbH) und Katya Stalpouskaya (Gini GmbH) beschrieben in ihrem Talk, wie die Gini GmbH auf maschinelles Lernen setzt, um Dokumente zu klassifizieren. Die Idee ist einfach: Der Kunde fotografiert ein Dokument, der Onlinedienst extrahiert alle Daten, die er benötigt, um eine Zahlung vorzunehmen oder andere Prozesse durchzuführen. Das klappte auch schon ohne ML ganz gut, wie die Speaker beschrieben. Trotzdem sollte ein selbstlernendes System her, das beispielsweise auch dann noch zuverlässig funktioniert, wenn der Input nicht in optimaler Form eingegeben wird.

Auf dem Weg zum selbstlernenden System mussten allerdings einige Hürden genommen werden. So wollte der Schritt zu TensorFlow erst einmal so gar nicht funktionieren. Während andere Systeme den Dateninput problemlos verarbeiten konnten, kam TensorFlow damit nicht zurecht. Am Ende lag es an einer Kleinigkeit, die sich niemand so wirklich erklären konnte. Und dann klappte es doch. Beim Machine Learning führt also nicht immer der gerade Weg zum Ziel, und man muss manchmal mehr Zeit investieren als geplant, auch das hat der erste Tag der ML Conference gezeigt. Der Weg lohnt sich aber, sonst hätten Shkadzko und Stalpouskaya ihr Projekt wohl kaum auf der Konferenz vorgestellt.

Gerade im Bereich der noch entstehenden Technologien des maschinellen Lernens sind aber auch Geschichten über die Hürden auf dem Weg zum funktionierenden System wichtig. Sie zeigen, dass man kein ML-Profi sein muss, um in die Arbeit mit dem Machine Learning einzusteigen, und dass es dazu gehört, auch mal mehr Zeit dafür zu investieren, bis die neue Technologie für das eigene Projekt funktioniert.

Take-away #4: Machine Learning sucks!

Dr. Pieter Buteneers (CoScale) eröffnet seinen Talk mit dem Satz „Machine Learning sucks!“. Was meint er damit?

Maschinelles Lernen und klassische Software-Algorithmen lassen sich nicht miteinander vergleichen. Die ML-Systeme lernen von Beispielen. Wie ein Kind „schauen“ sie sich um, beobachten ihre Umwelt, ziehen Schlüsse daraus und wenden sie an. Wer Facebook benutzt, dem wird es nicht fremd sein, dass die Plattform bei Fotos, auf denen Personen zu sehen sind, danach fragt, um wen es sich handelt. „Tag your friend“ lautet das Motto. Natürlich sammelt Facebook damit eine Unmenge an Daten. Im Ergebnis liegt die Trefferquote der Gesichtserkennung bei rund 97%. Der ML-Algorithmus ist genauso gut darin, Menschen zu erkennen, wie Menschen selbst.

Dr. Pieter Buteneers sagt: „Keep it simple“ | © Software & Support Media

Immer wieder während seiner Session stellt Pieter die Frage: Warum ML? Er schaut auf Licht und Schatten im Zusammenhang mit Maschinellem Lernen. Im Kontext von selbstfahrenden Autos macht er beispielsweise darauf aufmerksam, wo die Risiken und Gefahren liegen. Was passiert, wenn das System ein Stoppschild nicht als solches identifiziert? Lernende Systeme müssen „richtig erzogen“ werden. Pieter trifft den Ton. Er sagt ganz klar, „Machine Learning sucks!“, aber es ist gleichzeitig ein spannendes und begeisterndes Feld. Wie auch der Sprecher lässt sich mit einem Zitat von Berthold Brecht abschließen: „Erst kommt das Fressen, dann die Moral.“

Take-away # 5: Man lernt nie aus, das gilt auch für Maschinen!

In seiner Session hat Xander Steenbrugge (ML6) den Teilnehmern einen vergleichsweise jungen Zweig im ML-Universum vorgestellt: Reinforcement Learning. Was das bedeutet, illustriert er mithilfe eines Videos. Ein Ping-Pong-Roboter spielt gegen einen Menschen Tischtennis. Das Neuronale Netzwerk hinter dem Roboter ist darauf trainiert, vorherzusagen und entsprechend zu spielen. Es lernt aufgrund von „Erfahrungen“. Analog lässt sich dieses Prinzip auf Pong übertragen. Das Videospiel der ersten Generation funktioniert ähnlich. Das Neurone Netz im Hintergrund arbeitet ebenfalls mit mehreren Generationen simulierter Modelle. Die Modelle lösen einander ab, werden immer besser und präziser.

Mensch gegen Maschine – Xander Steenbrugge auf der ML Conference 2018 | © Software & Support Media

Das klingt alles sehr beeindruckend, allerdings gibt es natürlich auch Grenzen. Immer wieder betont Xander, welche Fragen noch nicht geklärt sind. Wie sieht es beispielsweise mit intuitivem Wissen aus? Nach der Antwort sucht die Forschung aktuell noch. Eine anderes ungelöstes Problem: Exploration vs. Exploitation. Neuronale Netze haben keinerlei Gemeinschaftssinn. Sie interessieren sich nur für das gewünschte Ergebnis. Die Antwort könnte in Reward Shaping liegen. Entsprechend seiner Speakerkollegen betont auch Xander immer wieder: Wir sind noch lange nicht am Ende: Man lernt nie aus, das gilt auch für Maschinen!

Unsere Redaktion empfiehlt:

Relevante Beiträge

Hinterlasse einen Kommentar

Hinterlasse den ersten Kommentar!

avatar
400
  Subscribe  
Benachrichtige mich zu:
X
- Gib Deinen Standort ein -
- or -