Interview mit Xander Steenbrugge

Blackbox Neuronales Netz: Wir müssen wieder lernen, die Maschine zu verstehen
Keine Kommentare

Neuronale Netze lernen. Doch oftmals ist es für Menschen nicht ersichtlich, wie ein Neuronales Netz zu seinen Entscheidungen gekommen ist. Dieses „Blackbox“-Problem thematisiert Xander Steenbrugge, Machine-Learning-Experte bei ML6, auf der Machine Learning Conference 2018. Wir haben ihn zum Interview gebeten und fragen nach, welche Möglichkeiten es derzeit gibt, die Entscheidungen Neuronaler Netze dennoch nachzuvollziehen.

Entwickler: In deiner Keynote auf der ML Conference 2018 geht es um die „Blackbox“ Neuronales Netz. Kannst du uns zunächst ein sehr konkretes Beispiel für ein neuronales Netzwerk nennen?

Xander Steenbrugge: Ein neuronales Netzwerk ist eine Kette von trainierbaren, numerischen Transformationen, die auf eine Reihe von Eingabedaten angewendet werden und gewisse Ausgabedaten ergeben. Mit diesem sehr allgemeinen Paradigma können wir jetzt alles Mögliche bauen: Software zur Bildklassifizierung, Sprach-zu-Text-Engines und Programmen, die die besten Menschen bei Schach oder Go schlagen.

Entwickler: Was steckt hinter dem Blackbox-Problem?

Das Blackbox-Problem macht es kompliziert, Machine-Learning-Modelle in Bereichen einzusetzen, in denen Sicherheit von großer Bedeutung sind.

Xander Steenbrugge: Eines der Hauptprobleme aktueller Deep-Learning-Techniken ist, dass trainierte Modelle nur schwer interpretierbar sind. Sie bestehen aus Millionen verschiedener Parameter, die alle auf sehr komplizierte Weise interagieren, um die Aufgabe zu erfüllen, für die sie trainiert wurden. Man kann das Modell nicht einfach anschauen und sagen: „Aha, das ist also, was da passiert….“.

Dieses Blackbox-Problem macht es kompliziert, Machine-Learning-Modelle in Bereichen einzusetzen, in denen Sicherheit und Vorhersagbarkeit von großer Bedeutung sind. In vielen Anwendungsbereichen haben wir die Wahl, ob wir ein Modell mit einer Genauigkeit von 90 Prozent verwenden wollen, das wir verstehen, oder ein Modell mit einer Genauigkeit von 99 Prozent, das wir eigentlich nicht verstehen. Wenn nun aber ein Modell zum Beispiel dafür verantwortlich sein soll, Patienten zu untersuchen und eine medizinische Behandlung vorzuschlagen, welches würdest du wählen?

Entwickler: Es gibt verschiedene Möglichkeiten, neuronale Netze zu täuschen. Welche Bedeutung haben feindliche Angriffe für ML-Anwendungen und wie wird sich dieser Aspekt entwickeln?

Xander Steenbrugge: Feindliche Angriffe sind bedeutsam, weil sie ein großes Sicherheitsrisiko für bestehende ML-Anwendungen darstellen. Das größte Problem ist, dass die meisten solcher Angriffe von Menschen nicht erkannt werden können. Sie laufen also quasi unter dem Radar, was sie besonders tückisch macht. Stelle dir doch mal ein selbstfahrendes Auto vor, das ein Stoppschild nicht erkennt, weil jemand einen Aufkleber darauf geklebt hat, der das Gegenteil bedeutet. Man sieht sofort, warum dies ein sehr ernstes Problem ist.

Solche Beispiele haben eine neue Schwäche in der aktuellen Generation von neuronalen Netzmodellen aufgedeckt, die in unseren biologischen Gehirnen nicht vorhanden ist. Viele Forschergruppen arbeiten jetzt daran, solche Probleme zu beheben. Damit ebnen sie sehr wahrscheinlich den Weg für aufregende neue Entdeckungen und mögliche Durchbrüche im Bereich der künstlichen Intelligenz.

Entwickler: Welche Ansätze verfolgt die Forschung, um das Blackbox-Problem zu beheben?

Xander Steenbrugge: Neuronale Netze sind schwer interpretierbar, weil es zu viele Parameter gibt, zu viele bewegliche Teile, die ein Mensch nicht überblicken kann. Die Forschungsgemeinschaft arbeitet derzeit aktiv an der Schaffung neuer Instrumente, um diese Lücke zu schließen. Die ersten erfolgreichen Techniken versuchen, Bilder davon zu erzeugen, was die einzelnen Neuronen im Netzwerk tun. Damit erhält man einen Eindruck von den aktiven Komponenten im Netzwerk. Neuere Arbeiten versuchen auch, trainierbare Schnittstellen zu schaffen, die einen Entscheidungsprozess im Netzwerk auf eine Darstellung abbilden, die der Mensch interpretieren kann – zum Beispiel durch verschiedene Aufmerksamkeitstechniken oder sogar über natürliche Sprache.

Entwickler: Vielen Dank für dieses Interview!

Xander Steenbrugge is a machine learning engineer with a keen interest in Artificial Intelligence. He has a Masters of Science in electrical engineering and an additional Masters in business economics. Currently Xander is the head of Applied Research at ML6, a public speaker, and can be found on his YouTube channel Arxiv Insights vlogging about Machine Learning.

 

Unsere Redaktion empfiehlt:

Relevante Beiträge

Hinterlasse einen Kommentar

Hinterlasse den ersten Kommentar!

avatar
400
  Subscribe  
Benachrichtige mich zu:
X
- Gib Deinen Standort ein -
- or -