Die Partnership on AI als offenes Forum zur Diskussion über künstliche Intelligenz

Künstliche Intelligenz – Microsoft, Facebook, Google & Co. klären auf
Kommentare

Facebook, DeepMind/Google, Amazon, Microsoft und IBM haben vor kurzem die Non-Profit-Organisation „Partnership on AI“ gegründet. Die Allianz hat sich zum Ziel gesetzt, eine offene Plattform für Entwickler, Wissenschaft und Öffentlichkeit zu sein, um die angeblich unbegründete Angst vor künstlichen Intelligenzen zu bekämpfen. Was steckt noch dahinter?

Beteiligt an der am 28. September in New York beschlossenen Kooperation sind Facebook, DeepMind/Google, Amazon, Microsoft und IBM. Die „Partnership on Ai“ hat sich das hehre Ziel gesetzt, mit ihren Studien „best practices on AI technologies“ herauszuarbeiten. Diese sollen das öffentliche Verständnis fördern und eine offene Plattform für Diskussionen um die Verantwortung und die Einflüsse künstlicher Intelligenz auf Mensch und Gesellschaft bieten.

Dafür will die Non-Profit-Organisation Akademiker (insbesondere Sozial-, Geistes- und Politikwissenschaftler) integrieren, um interdisziplinär ein vollständigeres Bild zu kreieren. Mit Aufklärungsarbeit und offener Diskussion soll die weit verbreitete Angst vor künstlicher Intelligenz in der Bevölkerung reduziert werden.

Machtübernahme künstlicher Intelligenzen?

Die Angst vor der Machtübernahme der Maschinen, vor totaler Kontrolle künstlicher Intelligenz über das menschliche Denken in einer von Robotern und Schaltkreisen beherrschten Zukunft wird seit vielen Jahren immer wieder medial thematisiert.

Ob Terminators Skynet, Stanislaw Lems Supercomputer Golem oder der Computer HAL 9000 aus Stanley Kubricks 2001 Odyssee im Weltraum – nahezu jeder kennt diese Beispiele für künstliche Intelligenzen in der Populärkultur und hat seine eigenen Zukunftsprognosen. Aber wie begründet sind diese eigentlich? Zumindest das Staunen über KIs scheint nicht unbegründet, wenn der weltbeste Go-Spieler nicht mehr gegen den Google Algorithmus Alpha-Go ankommt. Auch der große Stephen Hawking warnte gegenüber BBC Ende 2014:

„The development of full artificial intelligence could spell the end of the human race“

Zuckerberg: „Alles Hysterie!“

Mark Zuckerberg dagegen ist Optimist. Für ihn ist die Angst vor der künstlichen Intelligenz nicht mehr als Hysterie. Von Menschen entwickelte Maschinen dienten dem Menschen, nicht andersherum, beteuert der Facebook-Gründer. Für ihn steht fest:

„Wir erwarten große Fortschritte, die die Gesellschaft verändern werden: weniger Autounfälle durch selbstfahrende Autos, bessere Diagnosen von Krankheiten, bessere, zielgerichtete Behandlung von Krankheiten und in der Folge mehr Sicherheit im Gesundheitswesen. Und noch vieles mehr.“

Ähnlich betrachtet es Chris Bishop, Direktor von Microsoft Research, der in der Sci-Fi-basierten Angst vor Roboteraufständen eine Gefahr für den technologischen Fortschritt sieht. Die Entwicklung der den Menschen förderlichen künstlichen Intelligenz würde auf diese Weise ausgebremst und viel Potenzial nicht ausgeschöpft. Hawkings Prognose hält Bishop für überzogen.

„The danger I see is if we spend too much of our attention focusing on Terminators and Skynet and the end of humanity – or generally just painting a too negative, emotive and one-sided view of artificial intelligence – we may end up throwing the baby out with the bathwater“

Momentan beherrschen wir die Technologie und nicht die Technologie uns, führt er aus. Bevor Horrorszenarien, wie die Hawkings oder anderer Schwarzseher eintreten könnten, müssten noch Jahrzehnte vergehen. Aktuell gelte es, sich auf die Nützlichkeit und die Vorteile künstlicher Intelligenz zu konzentrieren. Beim Support genau solcher KI-Ausprägungen setzt die Partnership on AI an.

Partnership on AI als offenes Forum

Die Partnership on AI ist als offenes Konsortium für jedermann gedacht. Das unterscheidet die Gruppe maßgeblich von anderen Projekten wie Elon Musks (SpaceX und Tesla Motors) OpenAI. OpenAI ist eine Non-Profit-Organisation, die sich der Vermarktung und Erforschung der künstlichen Intelligenz auf Open-Source-Basis verschrieben hat, die aber auch aus der technologischen Entwicklung folgende Sicherheitsrisiken kritisch unter die Lupe nehmen will.

Laut Yann Lecun von Facebook, einem der Köpfe von Partnership on AI, möchte die Gruppe einerseits Kommunikation mit den Entwicklern der AI-Technologie herstellen. Andererseits sollen im Rahmen eines Diskurses über die Ergebnisse universitärer Forschung und der öffentlichen Wahrnehmung, die tatsächlichen Auswirkungen von KI auf die Gesellschaft herausgearbeitet werden.

Wie es Klint Finley in seinem Artikel richtig erkennt, könnte die Gruppe im Idealfall dazu beitragen, neue Standards unseres Denkens über AI und Big Data zu etablieren, die uns vor einer technologischen Dystopie bewahren können – wie unwahrscheinlich diese auch erscheinen mag.

Aber Finley räumt auch ein: „But that’s a mammoth task“. Und in der Tat ist es eine Mammutaufgabe, sogar wenn die Kooperation der Tech-Giganten einvernehmlich verlaufen sollte. Dieses Einvernehmen ist keinesfalls garantiert. Sollte einer der Partner bzw. beteiligten Organisationen aus der Reihe tanzen und sich rein wirtschaftlichen oder offenkundig unethischen Interessen verpflichtet fühlen, gibt es praktisch keine Möglichkeit, dem Einhalt zu gebieten.

Die Köpfe hinter der Partnership on AI

Die verantwortlichen Teammembers des Projekts wollen wir kurz vorstellen:

  • Ralf Herberich von Amazon. Der Managing Director des Amazon Development Centers in Berlin ist für den Bereich Machine Learning Science zuständig. „Die Technologie ist dazu da, uns das Leben und Arbeiten leichter zu machen“, so der Informatiker in einem Interview zum Thema der Zusammenarbeit von Mensch und Maschine.
  • Mustafa Suleyman von DeepMind. Suleyman ist der Mitbegründer und Kopf der „Applied AI“ bei DeepMind. Er ist verantwortlich die Einwirkung der DeepMind-Technologie auf die weltlichen Probleme zu untersuchen und passt damit ins Profil der von der Partnership on AI festgesetzten Ziele. „The reason we all work on AI is because we passionately believe its ability to transform our world“, äußerte Suleyman gegenüber den Medien am Tag der Bekanntgabe. Auch seine Sprache könnte positiver kaum sein. Die Entwicklungen im Bereich AI würden nicht nur die Algorithmen verbessern, sondern auch die Lebensqualität der Menschen im Allgemeinen zum Positiven hin verändern.
  • Greg S. Corrado von Google. Der Mitbegründer des Google Brain Teams ist Senior Scientist für Google Research. Seine Arbeit verbindet die AI mit den Computational Neuroscience und dem Scalable Machine Learning.
  • Yann Lecun von Facebook. Lecun ist seit 2013 Director of AI Research bei Facebook. Die Fachgebiete des promovierten Informatikers sind neben Machine Learning und den Computational Neuroscience auch Mobile Robotics und Computer Vision.
  • Professor Francesca Ross von IBM. Neben ihrer Informatikprofessur an der Universität von Padova in Italien arbeitet Francesca Rossi als Research Scientist bei IBM. Ihre Forschungsinteressen fokussieren sich auf rechnerische Entscheidungsprozesse und die soziale Einbindung künstlicher Intelligenz.
  • Eric Horvitz von Microsoft. Der Technical Fellow und Managing Director in Microsofts Washington Research Lab untersucht explizit die Beziehung von Sicherheit und AI sowie die Möglichkeiten einer gesellschaftlichen Förderung durch die AI. Die Wahl des amerikanischen Informatikers überrascht daher nicht. Horvitz‘ Aussagen über die Initiierung der Gruppe ist sehr aufschlussreich. Es ginge de facto darum, populäre Ängste und verbreitete Ressentiments gegenüber der AI auszutreiben. Mögliche Regulierungen der Regierungen würden mit einem offenen Dialog und einer transparenten Darstellung der eigenen Projekte möglicherweise verhindert werden können.

Nur die Zukunft wird es zeigen

Über eine zukünftige Zusammenarbeit der Partnership on AI mit namhaften wissenschaftlichen Organisationen wie der Association for the Advancement of Artificial Intelligence (AAAI) oder Non-Profit-Forschungsgruppen wie dem Allen Institute for Artificial Intelligence (AI2) wird aktuell diskutiert. In den nächsten Monaten kann es dann soweit sein.

Oren Etzioni von AI2 hatte nämlich geäußert:

„This extraordinary non-profit partnership underscores the tremendous potential of utilizing AI for the common good. We are looking forward to joining it.“

Und auch Subbarao Kambhampati, der Präsident von AAAI, äußerte sich dementsprechend:

„These are truly exciting times for AI. The rapid research advances are expanding the scientific scope and day-to-day impact of the field, and are spawning enormous public interest. The time is ripe for a concerted job, of the kind this partnership promises, towards fostering the public’s understanding of how AI will augment and benefit our lives, and facilitating thoughtful dialogue about the responsible uses of this technology. As the scientific society dedicated to the advancement of AI, AAAI is thus delighted at the formation of the Partnership on AI by the industry leaders, and looks forward to working closely with it.“

Während Kambhampati zwar auf die große Verantwortung hinweist, die der Mensch mit der Benutzung der Technologie auf sich nehme, ist seine Sicht milde gesprochen doch eine sehr optimistische – wenn nicht gar utopische, statt realistische.

Künstliche Intelligenz gehört bald zum Alltag

Dank AI-Integrationen wie in den Google Driverless Cars, in Chatbots oder in Diagnosesystemen im Gesundheitssektor sowie in intelligenten Heimassistenten ist künstliche Intelligenz für die Allgemeinheit greifbar(er) geworden. Machine Learning wird sich laut Expertenmeinungen in spätestens zwei bis fünf Jahren in unserem Alltag etabliert haben.

Die Sprache der AI-Big-Player in der Partnership on AI ist durchweg positiv. Sie erinnert gewissermaßen an eine dialektische Moralisierung. Die Partnership on AI, so wird es suggeriert, kann hier in vermeintlicher Kooperation mit Wissenschaft und Öffentlichkeit gleichermaßen unvoreingenommen eine klare Einteilung festlegen und daraus Handlungsweisungen zum Vorteil der Gesellschaft erschließen. Ein Ziel, das kritisch hinterfragt werden muss, denn nicht zuletzt könnte es vor allem dem Aktienwert der beteiligten Konzerne zu Gute kommen.

Wer reguliert künstliche Intelligenz? Und wie?

Aus diesen Überlegungen ergibt sich ein spannender Aspekt: Wie und von wem sollte KI-Technologie reguliert werden? Auch die Frage, wie das Spannungsverhältnis zwischen dem Schutz von Grundrechten und AI-gesteuerter Überwachungstechnologien aufgelöst werden kann, blieb bislang unbeantwortet. Es ist jedoch zweifelhaft, ob hier ohne staatliche bzw. geheimdienstliche Einwirkungen eine Lösung gefunden werden kann. Generell lässt sich aus den bisherigen offiziellen Äußerungen von Partnership on AI wenig zu deren Position zum Thema Überwachung per KI entnehmen. Fest steht: Je intelligenter eine Technologie wird, desto mächtiger werden die Unternehmen, die diese Technologie kontrollieren.

Selbst regulierend auftreten will die Gruppe offenbar aber nicht – mit ihrem offenen Diskurs das öffentliche Denken aber möglicherweise in eine Richtung lenken, hinter der greifbare wirtschaftliche Interessen stehen können. Fraglich bleibt ebenfalls, ob nicht Elon Musks Ansatz mit OpenAI glaubwürdiger ist. Die Probleme rund um Sicherheit von künstlichen Intelligenzen im Arbeitsumfeld und der Privatsphäre sind nicht wegzudiskutieren, auch wenn man Musks absolute Sichtweise von der AI als „vermutlich größte Gefahr für unsere Existenz“ nicht unterschreibt.
Doch die Prognosen in egal welche Richtung bleiben letztlich eine Glaubensfrage und bloße Meinung. Die Zukunft wird es zeigen.

Unsere Redaktion empfiehlt:

Relevante Beiträge

Meinungen zu diesem Beitrag

X
- Gib Deinen Standort ein -
- or -