Zukunftsmusik

Cognitive Computing: Wie Maschinen lernen
Kommentare

Maschinen, die von selbst lernen und immer schlauer werden, schlauer sogar als der Mensch – was wie Science Fiction klingt ist schon längst Realität. Denn durch die tägliche Interaktion zwischen Mensch und Maschine werden Technologien mit immer mehr Daten und Wissen gefüttert.

Cognitive Computing – lernen durch Mensch-Maschine-Interaktion

Cognitive Computing beschreibt selbstlernende IT-Systeme, die in Echtzeit mit Menschen und anderen Computersystemen kommunizieren, sich an frühere Interaktionen erinnern und eigenständig Schlüsse ziehen können. Dabei berücksichtigen sie ihr Umfeld und verarbeiten in hoher Geschwindigkeit große Datenmengen. Diese Big Data stammt aus den unterschiedlichsten Quellen, vor allem aber aus der direkten Interaktion zwischen Mensch und Maschine.

Wo Computer früher mit Mauszeiger und einem digitalen Interface gesteuert wurden, sind beim Cognitive Computing Sprachassistenten á la Siri und Cortana die vorherrschenden Steuermechanismen. Auch jetzt schon können diese nicht nur die menschliche Sprache verstehen, sondern lernen darüber hinaus, Befehle immer genauer zu interpretieren und uns Ergebnisse zu liefern, die immer besser zu unseren persönlichen Bedürfnissen und Ansprüchen passen. All das basierend auf Datenmengen, die unsere bisherigen Interaktionen mit dem Computer analysieren und auswerten.

Fassen wir zusammen: Beim Cognitive Computing werden also das Verständnis für natürliche Sprache mit der Fähigkeit, Hypothesen und Schlüsse aus bestimmten Interaktionen zu ziehen, und einen darauf basierenden Maschinenlern-Algorithmus zusammengeführt.

Automatisierungen erleichtern unser Leben

All das steht natürlich unter der Legitimierung, Menschen das Leben zu erleichtern und Prozesse einfacher, effizienter und vor allem personalisierter zu machen. So erklärt Dr. Mathias Weber, BITKOM-Bereichsleiter IT-Services: „Cognitive Computing bringt die Technik einen weiteren Schritt näher an den Menschen, weil sie ihn bei seinen Entscheidungen in zahlreichen Lebens- und Arbeitsbereichen unterstützt.“

Dies kann tatsächlich viele Prozesse in unserem Alltag automatisieren. Kennen Technologien unsere Tagesabläufe, Vorlieben und Gewohnheiten, müssen wir uns um viele Dinge nicht mehr selbst kümmern. Wir werden in der Woche automatisch früher von unserem smarten Wecker geweckt, unser Auto fährt uns automatisch zu einem asiatischen Restaurant, weil es weiß, dass wir gerne Dim Sum essen. Und wenn wir in der Shopping-Suchmaschine nach neuen Schuhen suchen, schlägt sie uns bequeme Sneaker vor, weil wir die am liebsten tragen und auch in der Vergangenheit häufig gekauft haben.

Intelligente Maschinen in Jobs und Wissenschaft

All diese Informationen müssen wir nicht mehr manuell eingeben und einspeichern – Computer und Anwendungen speichern dies automatisch ab und lernen selbst. Diese Maschinenlern-Algorithmen lassen sich natürlich nicht nur auf solch alltägliche Banalitäten anwenden, denn die Maschinen „verstehen“ auch auf wissenschaftlicher Ebene und was produktive Prozesse und Service-Tätigkeiten angeht immer mehr. So können auch hier menschliche Aufgaben übernommen werden.

Dadurch fallen natürlich eine ganze Menge Jobs weg, da die Maschinen vieles einfach besser und schneller erledigen können als wir Menschen und so ist es in vielen Branchen bereits geschehen; bestes Beispiel sind die Fertigungsroboter in der Autoindustrie. Auf der anderen Seite werden aber auch neue Jobs geschaffen, indem der Mensch, die immer komplexer werdenden Maschinen steuert und verwaltet. Spinnen wir die Entwicklung noch weiter, werden aber auch diese Positionen wegfallen, wenn die Maschinen selbstständig agieren können, weil die durch die Cognitive Computing Prozesse das nötige „Know-How“ erlernt haben.

Watson, der Supercomputer

Einer breiten Öffentlichkeit wurden die Möglichkeiten des Cognitive Computing – jenseits von Science Fiction – erstmals durch die Leistungen des IBM Computersystems „Watson“ im Jahr 2011 bekannt. Der Maschine war es gelungen, bei der Quizsendung Jeopardy! im US-Fernsehen gegen zwei Top-Spieler zu gewinnen. Das schwierige hier: Die Teilnehmer müssen bei dem Ratespiel innerhalb weniger Sekunden eine Aufgabe lösen, die recht komplex ist und verschiedene sprachliche Aspekte, wie zum Beispiel Mehrdeutigkeit, Wortwitz oder Metaphorik beinhaltet. Hierzu müssen verschiedene Informationen miteinander verknüpft werden.

„Den Herausforderungen des Quizspiels wurde das Cognitive-Computing-System gerecht, indem es auf massiv paralleler Hardware Hypothesen entwickeln und bewerten konnte. Dabei kamen zahlreiche Technologien der künstlichen Intelligenz zum Einsatz“, sagt Weber. Watson gibt also eine Lösung ab, die auf Wahrscheinlichkeiten beruht. So „las“ der Supercomputer im Vorfeld des Spiels Millionen von Websites und konnte durch die schiere Quantität die höchstwahrscheinlich richtige Lösung für die Aufgabe finden. Hier ist der Computer den Menschen also überlegen, weil wir niemals in der Lage wären, so schnell und so umfassend zu recherchieren, die Informationen genau zu berechnen und so viel Wissen abzuspeichern.

IBMs Watson steht mittlerweile auch der Entwickler-Community zur Verfügung. Über APIs können verschiedene Anwendungen über die Cloud auf den Supercomputer zugreifen. So können zum einen die Watson-Fähigkeiten in der Wirklichkeit getestet werden und der Comuter lernt natürlich im Zuge dessen noch weiter dazu, und dass in den unterschiedlichsten Bereichen.

Cognitive Computing in der Praxis

„Nach diesem Erfolg wurden immer mehr kognitive Anwendungen für die Praxis entwickelt.“ So gibt es mit Apples Siri, Samsung S Voice und Google Now zum Beispiel Sprachassistenten für Smartphones. Kognitive Systeme können aber auch in der medizinischen Diagnostik, in Call- und Service-Centern, bei Investitionsentscheidungen oder in der Politik bei der Gesetzesfolgenabschätzung eingesetzt werden.

Die kognitiven Assistenten können zum Beispiel in der Forschung, bei der Klärung von Rechtsfragen oder in der hochautomatisierten Produktion helfen. Schon jetzt übernehmen Computer für uns Menschen Rechenleistungen, die wir selbst nicht mehr durchführen können. Wenn sich die Maschinen weiter selbst verbessern lernen und somit der technische Fortschritt nicht mehr durch die begrenzten Kapazitäten und Fähigkeiten der Menschen begrenzt ist.

Mit immer zahlreicher werdenden Anwendungen und Hardware entwickelt sich Cognitive Computing zu einem eigenständigen Marktsegment mit steigenden Wachstumsraten. Nach Prognosen des Digitalverbands BITKOM wird der weltweite Umsatz mit Hardware, Software und Services rund um Cognitive Computing im Jahr 2015 rund 980 Millionen Euro betragen. Bis zum Jahr 2020 soll dieser Markt auf ein Volumen von 13 Milliarden Euro anwachsen.

Prognose: Technische Singularität

Geht die Entwicklung so weiter, werden wir irgendwann eine künstliche Intelligenz geschaffen haben, die der menschlichen überlegen ist, so besagen es die Theorien. Der Statistiker I. J. Good hatte schon in 1965 das Zeitalter der Technischen Singularität prognostiziert, das mit dieser übermenschlichen Maschinenintelligenz einhergeht. Momentan benötigt es noch die intellektuellen Fähigkeiten des Menschen, um eine solch intelligente Maschine zu bauen. Ab dem Zeitpunkt, an dem eine hyperintelligente Maschine selbst eine noch bessere bauen kann, würde sich die Intelligenz explosionsartig entwickeln. Unser eigener Intellekt hätte dem nichts mehr entgegen zu setzen und wir wären vom technischen Fortschritt quasi abgehängt. Die erste ultraintelligente Maschine gilt somit als die letzte Erfindung von Menschenhand. Alles, was darauf folgt, stammt dann von den Maschinen selbst.

Dies als kleiner Exkurs zur Prognose für unser zukünftiges „Zusammenleben“ mit Computern und Maschinen. Die Frage, ob die Technologien dann noch unseren Zwecken dienen und wir sie nach wie vor noch kontrollieren können, führt erst mal zu Matrix-ähnlichen Szenarien, ist aber durchaus berechtigt.

 

 

 

Unsere Redaktion empfiehlt:

Relevante Beiträge

Meinungen zu diesem Beitrag

X
- Gib Deinen Standort ein -
- or -