Microsofts CEO Satya Nadella veröffentlicht Richtlinien zur Erstellung von KIs

KIs: Nützliche Helfer oder Bedrohung?
Kommentare

KIs, sprich künstliche Intelligenzen, sind der neueste Trend in der IT-Welt. Rund um das Thema ranken sich aktuell kontroverse Diskussionen. Schließlich gibt es neben „harmlosen“ KIs wie Microsofts Cortana und Apples Siri auch Systeme, die aufgrund ihrer Fähigkeiten zu einer echten Bedrohung für die Menschheit werden könnten, sollten sie außer Kontrolle geraten. Welche Warnsignale es zu beachten gilt, und an welche Richtlinien man sich halten sollte, erläutern wir in diesem Beitrag.

KIs haften viele Versprechungen an, den potenziellen Möglichkeiten sind vermeintlich keine Grenzen gesetzt. Digitale Assistenten wie Apples Siri, Microsofts Cortana und Google Now sind als nützliche Begleiter schon jetzt nicht mehr aus dem Alltag vieler Nutzer wegzudenken. Sie übernehmen einfache Aufgaben wie das Erinnern an Termine, versorgen den Nutzer mit personalisierten Informationen zum Wetter, den Nachrichten und mehr. Ferner werten sie Hintergrundwissen aus, um Anwender auch proaktiv zu unterstützen. Daneben machen in letzter Zeit immer wieder Schlagzeilen von KI-Systemen die Runde, die fähig sind, reale Menschen in Spielen wie Jeopardy oder Go die Stirn zu bieten – siehe Googles AlphaGo.

Neuester Schrei sind außerdem die sogenannten Chatbots, die laut Microsofts CEO Satya Nadella Apps ablösen sollen, wie wir sie heute kennen. In der Regel setzen solche Chatbots auf Conversational User Interfaces – also auf Interaktion mittels Sprache. Man braucht nicht fünf Buttons, zwei Comboboxen und drei Textfelder, sondern nur einen Bot, der unsere Sprache spricht und überall dort ist, wo wir sind: auf Skype, Facebook, Slack, etc. Wie sich Chatbots von Apps unterscheiden, wo die Einsatzszenarien liegen und welche Rolle Cognitive Services bei der Erstellung von Chatbots spielen, erläutert Roman Schacherl im Interview mit entwickler.de.

Trotz der Fortschritte, die KI im vergangenen Jahrzehnt auf vielen Gebieten erreicht hat, ist das Feld der KI-Systeme grundsätzlich jedoch noch weitestgehend unerforscht. Unternehmen wie Facebook und Microsoft haben daher ganze Abteilungen damit betraut, entsprechende Projekte zu entwickeln und die Forschungen in diese Richtung voranzutreiben – insbesondere was die Bereiche maschinelles Lernen, Spracherkennung und visuelle Erkennung anbetrifft. Im Portfolio des Microsoft-Research-Teams findet sich beispielsweise Project Oxford, ein KI-Cloud-Dienst, der unter anderem in der Lage ist das Alter und die Gefühlslage von Menschen auf Bildern zu erkennen.

KI: Nützlicher Helfer oder doch eine Bedrohung?

So vielversprechend diese Technologien auch klingen mögen, bringen sie auch einen bitteren Beigeschmack mit. In der Debatte zum Thema Künstliche Intelligenzen scheiden sich die Geister in der Regel: Auf der einen Seite gibt es diejenigen, die KIs als nützliche Helfer im Alltag betrachten und begeistert sind von den (potenziellen) Möglichkeiten. Auf der anderen Seite stehen diejenigen, die sich regelrecht vor intelligenten Systemen fürchten und darin eine Bedrohung für die Menschheit sehen.

Schließlich sind auch echte Horrorszenarien denkbar, in denen intelligente Systeme erschaffen werden, die vollkommen außer Kontrolle geraten. Vor diesen Gefahren warnen Forscher, die bei all der Freude über die Fortschritte auch mit der Sorge um die Sicherheit der Menschheit erfüllt sind. Ein Problemszenario ist beispielsweise das Thema autonomes Fahren – auch ein Bereich der KI. Wie soll ein autonomes Auto, das auf einen Unfall zusteuert, etwa Materialschäden gegen Personenschäden abwägen? Von autonomen Waffen ganz zu schweigen. Und das sind nur zwei Beispiele von vielen.

Federico Pistono und Roman Yampolskiy, zwei Forscher der University of Louisville in Kentucky, haben nun außerdem eine Forschungsarbeit veröffentlicht, in der sie erklären, dass sich auch unter vermeintlich richtigen Rahmenbedingungen bösartige KIs entwickeln können. In ihrer Arbeit legen sie auch dar, auf welche Warnsignale man achten muss, um genau dies zu verhindern. Unter anderem kommen sie zu dem Schluss, dass KI-Systeme, die unter Verschluss entwickelt werden, ein höheres Risiko bergen, als Open-Source-Projekte:

It is well known among cryptography and computer security experts that closed-source software and algorithms are less secure than their free and open-source counterpart. The very existence of non-free software and hardware puts humanity at a greater risk.

Natürlich gibt es auch Unternehmen, die in voller Absicht KIs entwickeln, die eine Bedrohung für den Menschen darstellen. In einem Bericht führen Pistono und Yampolskiy auf, zu welchen Strategien Organisationen greifen könnten, um Projekte auch gegen Bedenken der Öffentlichkeit durchzusetzen. Ein Mittel wäre es etwa, irreführende Informationen über das Projekt zu verbreiten, sodass die Öffentlichkeit von den potenziellen Gefahren abgelenkt ist beziehungsweise diese ignoriert. Eine solche Einstellung hätte zur Folge, dass die Angst vor potenziellen Gefahren keine gesellschaftliche Legitimität erlangt. Entsprechend könnten keine Kontrollgremien gerechtfertigt oder finanziert werden, die KI-Projekte auf ihre Sicherheit überprüfen.

Die Studie zeigt damit eine wichtige Erkenntnis auf: In welche Richtung sich eine KI entwickelt, hängt in erster Linie auch von den Intentionen der dahinterstehenden Unternehmen und Forschern ab.

Schnell und überall: Datenzugriff mit Entity Framework Core 2.0

Dr. Holger Schwichtenberg (www.IT-Visions.de/5Minds IT-Solutions)

C# 7.0 – Neues im Detail

Christian Nagel (CN innovation)

Satya Nadella veröffentlicht Gebote zur Erstellung von KIs

Diese Einstellung vertritt auch Microsofts CEO Satya Nadella, der ebendiesen Punkt in einem Editorial bei den Kollegen von Slate zum Thema KIs in den Fokus stellt. Darin befasst er sich mit der Frage, wie es Forschern und Entwicklern zukünftig gelingen kann, künstliche Intelligenzen zu erschaffen, die Menschen unterstützen, anstatt ihnen in irgendeiner Form – sei es direkt oder indirekt – zu schaden. In seiner Vision der Zukunft arbeiten Menschen und  KIs zusammen, um die größten gesellschaftlichen Herausforderungen zu bewältigen; dabei denkt er etwa an Krankheiten und Armut.

Um dieses Ziel zu erreichen, ist es nach Meinung von Nadella allerdings notwendig, die Frage, ob KIs nun gut oder schlecht sind, hinten anzustellen. Viel wichtiger sei es, nach vorne zu schauen und die Frage nach Werten in den Fokus zu stellen – sowohl bei Menschen als auch bei Institutionen, die solche intelligenten Systeme kreieren.

Jeder Wissenschaftler sollte bei der Erstellung und Nutzung von KI-Systemen seine eigene Rolle hinterfragen. Ziel sollte es sein, KI-Projekte ins Leben zu rufen, die menschliche Fähigkeiten erweitern können, ohne dass es dabei um den Kampf Mensch vs. Maschine geht. Dementsprechend müssten bei der Entwicklung solcher Technologien Sicherheitsaspekte wie Transparenz und Schutz der Privatsphäre beachtet werden. Hierzu Nadella:

We have to build trust directly into our technology. We must infuse technology with protections for privacy, transparency, and security. A.I. devices must be designed to detect new threats and devise appropriate protections as they evolve. And third, all of the technology we build must be inclusive and respectful to everyone.

In seinem Editorial stellt Nadella auch eine Reihe von Prinzipen und Zielen auf, die Forschern und Entwicklern bei der Erstellung von intelligenten Systeme als Orientierungshilfe dienen können. Hier ein Ausschnitt:

  • KIs müssen der Menschheit dienlich sei
  • KI-Systeme müssen transparent sein
  • KIs müssen Effizienzgewinne bringen, ohne die menschliche Würde anzugreifen
  • KI-Systeme müssen so angelegt sein, dass der Schutz der Privatsphäre gewahrt bleibt
  • Die Algorithmen von KIs müssen nachvollziehbar sein, sodass unbeabsichtigte Schäden rückgängig gemacht werden können

Weiter betont Nadella, dass es unabdingbar sei, die gesellschaftlichen Auswirkungen von KI-Systemen durch wissenschaftliche Studien zu untersuchen und strenge Rahmenbedingungen für die Erstellung von Künstlichen Intelligenzen zu schaffen:

The most critical next step in our pursuit of AI is to agree on an ethical and empathic framework for its design.

Einige wichtige Denkanstöße und Lösungsansätze sind Nadella damit sicherlich gelungen, die es in Zukunft auf Seiten der Gesellschaft und der IT-Industrie zu diskutieren und umzusetzen gilt.

Was wollen wir eigentlich von intelligenten Systemen?

Soweit also die Meinung der Wissenschaftler und Forscher, doch was wollen wir eigentlich von intelligenten Systemen? Und wollen wir sie überhaupt? Denkt man an Horrorszenarien á la Terminator und die Tatsache, dass zum maschinellen Lernen von KI-Systemen auch gehört, fleißig Informationen über unser Nutzungsverhalten sowie private Daten zu sammeln, mag so manch einer diese Frage verneinen.

Und sicherlich ist es im ersten Moment auch etwas gruselig, wenn Siri mir plötzlich ungefragt eine App öffnet, weil sie aus der Erfahrung weiß, dass ich morgens um zehn am Bahnhof gerne eine Runde Solitär spiele. Doch diese Bedenken lässt man schnell hinter sich, ist der Komfort doch zu groß. Und schließlich ist und bleibt der Mensch ein Gewohnheitstier. Darum hat man sich auch schnell daran gewöhnt, dass digitale Assistenten proaktiv Informationen liefern und kleinere Aufgaben erledigen. Was das anbelangt, hapert es zugegebenermaßen allerdings noch ein bisschen.

Packt einen etwa die Sportlust und fragt man Siri danach, ob man am nächsten Morgen mit dem Rad zur Arbeit fahren kann, ist das System (noch) nicht in der Lage, den Nutzerkontext zu erschließen und mit der nötigen Antwort herauszurücken – nämlich dem morgigen Wetterbericht. Auch Google Now ist oftmals eher semi-hilfreich. Beispielsweise dann, wenn man sich innerorts im Supermarkt befindet und die Information darüber erhält, dass man es dank der ausgezeichneten Verkehrslage in drei Minuten nachhause schafft. Danke Google, aber das schaffe ich dann doch noch zu Fuß.

An einigen Punkten muss also sicherlich noch gefeilt werden. Für mich steht jedoch fest, dass die positiven Seiten von KIs durchaus überzeugen. Was meint ihr?

Aufmacherbild: Handshake of robot and man von Shutterstock / Urheberrecht: studiostoks

Unsere Redaktion empfiehlt:

Relevante Beiträge

Meinungen zu diesem Beitrag

X
- Gib Deinen Standort ein -
- or -