Neues Paper widmet sich konkreten Problemen der KI-Sicherheit

KI-Sicherheit: Google und OpenAI legen Studie vor
Kommentare

Vor gut einem Jahr wurde ein junger Mann in einem Volkswagenwerk bei einem Arbeitsunfall getötet. Ein Roboter hatte den Arbeiter, der gerade dabei war, die Maschine einzurichten, erfasst und gegen eine Wand gedrückt. Die schweren Quetschungen im Brustbereich führten kurze Zeit später zum Tod des Mannes im Krankenhaus. Wenn in absehbarer Zeit künstliche Intelligenzen im Alltag verstärkt Einsatz finden werden, stellt sich die Sicherheitsfrage in einer ganz neuen Dimension. Google hat jetzt zusammen mit der Stiftung OpenAI und zwei US-Universitäten eine Studie vorgelegt, die mögliche Sicherheitskonzepte erkundet.

Die KI-Sicherheit drängt in das Bewusstsein der Allgemeinheit: So wie sich die Nutzung von Robotern und Künstlicher Intelligenz auch außerhalb der Industrie durchsetzt, so wirft sie neue, drängende Fragen nach dem Zusammenspiel von Mensch und Maschine auf.  Nicht nur was Privatsphäre, sondern auch was (Arbeits-)Sicherheit angeht.

Man muss sich nicht mit der seichten Apokalyptik einverstanden erklären, wie sie derzeit von Elon Musk, Stephen Hawking und Bill Gates angedeutet wird, um sich des Problems bewusst zu sein – zumal bspw. Elon Musk selbst nur schwerlich als KI-Skeptiker bezeichnet werden kann. Schon in ganz profanen, alltäglichen Situationen können autonome Systeme eine Gefahr darstellen.

Nach dem ersten tödlichen Unfall eines computergesteuerten Wagens steht Musk mit seinem Unternehmen Tesla derzeit selbst in der Kritik. Auch wenn der Autopilot des „Model S“ keine künstliche Intelligenz im engeren Sinne darstellt, lässt sich jedoch die Integration von Autopilot und Deep Learning-Software leicht vorstellen. Schon die Unfallursache – der Autopilot hatte bei ungünstigen Lichtverhältnissen einen weißen LKW für ein Straßenschild gehalten – verweist auf diese Option. Umgekehrt könnte man dann fragen, wie sich verhindern lässt, dass die KI ständig Ausweichmanöver veranlasst, weil sie zum falschen Schluss gekommen ist, ein Straßenschild sei stets ein LKW.

KI-Sicherheit

Mit seiner gemeinnützigen Organisation OpenAI möchte Musk Standards festlegen, die die seiner Ansicht nach „vermutlich größte Gefahr für unsere Existenz“ bannen können. Es soll sichergestellt werden, dass künstliche Intelligenz zum Vorteil der gesamten Menschheit fortentwickelt wird.

Jetzt hat OpenAI zusammen mit Google-Forschern sowie den US-Universitäten Berkeley und Stanford eine Studie vorgelegt, die in naher Zukunft vielleicht nicht Skynet, aber zumindest Unfälle wie die oben geschilderten verhindern soll. Das Papier fokussiert sich auf Fragen, wie maschinelles Lernen sicher und zuverlässig funktionieren kann. Dazu hat das Forscherteam die folgenden fünf Problemfelder identifiziert:

  • Negative Nebeneffekte vermeiden: Fehlverhalten gibt es unendlich viele, sie lassen sich nur negativ bestimmen. Wie können Regeln formuliert werden, die weder zu abstrakt, noch zu restriktiv sind, damit die KI bei der Erledigung ihrer Aufgaben der Umwelt und den Mensch darin nicht schadet?
  • Reward-Hacking verhindern: Aus der behavioristischen Psychologie stammt das Konzept des bestärkenden Lernens. Eine KI bekommt hier eine Belohnung, wenn sie eine Aufgabe erledigt. Doch wie kann verhindert werden, dass die KI dabei mogelt?
  • Skalierbare Supervision: Nicht alle Aspekte einer komplizierten Zielsetzung können gleichermaßen trainiert werden. Wie kann sichergestellt werden, dass die KI eigenständig Ziele erfüllt, die nicht regelmäßig evaluiert werden?
  • Sicheres Erkunden: Eine KI soll selbständig in der Lage sein, Lösungsstrategien zu erarbeiten. Wie kann vermieden werden, dass diese für sie selbst, Mensch und Umwelt nicht gefährlich werden?
  • Reaktion auf Umgebungswechsel: KIs werden häufig in Umgebungen trainiert, die sich von ihren späteren Einsatzgebieten unterscheiden. Wie können Maßnahmen ergriffen werden, damit eine KI Veränderungen seiner Umwelt wahrnimmt und entsprechend reagiert?

Man sieht: Die Probleme, die hier verhandelt werden, spielen sich weder in den Dimensionen der Matrix- und Terminator-Franchises ab, noch erreichen sie die dunkle Schlichtheit der asimov’schen Robotergesetze. Die hier verhandelten Fragen können aber durchaus eine Wirkung auf die ganz reale Welt und alltägliche Situationen haben. Wobei es den Forschern nicht darum gegangen ist, konkrete Lösungsvorschläge zu machen, sondern einen Aufriss der Problemlage zu präsentieren.

Beispiel Reward-Hacking

Das Paper bemüht dazu das Beispiel eines Putzroboters. Der könnte bspw. seine Belohnungsfunktion hacken, indem er feststellt, dass der Verbrauch von Putzmitteln das Maß ist, nachdem die Belohnung ausgeschüttet wird. Statt zu putzen, könnte er dann auf die Idee kommen, das Putzmittel wegzuschütten: hoher Verbrauch = hohe Belohnung. Nicht auszuschließen sei es den Forschern zufolge sogar, dass die KI die entsprechende Hardware der Belohnungsfunktion angreift. Dann könnte sie sich eigenmächtig eine hohe Belohnung zuweisen.

Neben einigen allgemeinen Methoden, wie dem Einsatz von Simulationen und begrenzten, speziell gesicherten Einsatzbereichen, schlägt das Paper zu jedem Aspekt spezielle Lösungsansätze vor. In Falle des Reward-Hackings könnte die Belohnungsfunktion bspw. diversifiziert werden, so dass mehrere Stufen zu hacken wären. Alternativ könnte die Reward-Funktion selbst als intelligenter, lernender Akteur auftreten, der seine Umgebung erkundet und auf Betrugsversuche der KI schwerer hereinfällt. Oder aber, die Programmierer legen der KI Stolperfallen: dabei präsentiert man ihr bewusst einige Sicherheitslücken und überwacht, ob diese von der KI angegriffen werden.

Nur der Anfang

Dass die Studie zu jedem der oben genannten Punkte ein mögliches Experiment aufführt, unterstreicht nochmals ihren Forschungscharakter. Da alltägliche Einsatzmöglichkeiten für künstliche Intelligenzen erst gerade denkbar werden, lassen sich mögliche Sicherheitsrisiken nur schlecht ermessen. Umso wichtiger, dass Google, OpenAI und ihre Partner sich dem Thema angenommen haben und erste Ergebnisse zum Thema KI-Sicherheit vorstellen können.

Unsere Redaktion empfiehlt:

Relevante Beiträge

Meinungen zu diesem Beitrag

X
- Gib Deinen Standort ein -
- or -