Bots werden immer beliebter. Können sie Navigationsmenüs ersetzen?

Chatbots im UI-Design: Trend oder Zukunftsmusik?
Kommentare

Zuerst gab es die Kommandozeile, dann kam das grafische Nutzerinterface und veränderte die Interaktion zwischen Mensch und Maschine grundlegend. Darauf folgte der Touchscreen, der die Welt der Eingabegeräte revolutionierte. Heute sprechen und chatten wir mit dem Smartphone und erwarten uns davon Unterstützung im Alltag. Noch gestaltet sich die Interaktion häufig recht holprig – in Zukunft könnte die Spracheingabe aber zum zentralen Bedienelement werden.

Siri und Cortana kennt wohl jeder, und auch andere virtuelle Assistenten sind vielen Menschen schon einmal begegnet. Ein klassisches Beispiel dafür ist die Büroklammer aus alten Word-Versionen: Bereits hier versuchte ein Computersystem, dem Nutzer über ein Frageschema dabei zu helfen, besser mit einem Programm klarzukommen.

Verliebt in einen Bot

Seitdem hat sich in Sachen digitaler Nutzerhilfe (zum Glück) viel getan. War die Büroklammer doch noch eher unbeliebt, sind künstliche Intelligenzen wie Siri deutlich populärer unter den Nutzern. Der eine oder andere User soll sich sogar schon in einen virtuellen persönlichen Assistenten verliebt haben.

Damit der Nutzer gern mit dem Chatbot interagiert, ist es wichtig, dass ihm der Austausch möglichst natürlich vorkommt. Das System muss den Nutzer verstehen – wenn er so spricht, wie er es immer tut, ganz ohne zuvor erlernen zu müssen, was das System versteht und wie es zu benutzen ist. Darin soll schlussendlich der große Vorteil einer Nutzerführung auf Basis künstlicher Intelligenzen liegen, die beispielsweise Carlos Fenollosa für die Zukunft des UI-Designs hält: Der Nutzer muss nicht mehr verstehen, wie er mit dem System umgehen kann oder muss; das System versteht ihn.

Grenzen der Fähigkeiten

Davon sind die meisten künstlichen Intelligenzen natürlich noch weit entfernt. Genau wie in Kommandozeilen muss der Nutzer bisher noch wissen, was genau die K.I. kann, bevor er mit ihr in Interaktion treten kann. Tut er das nicht, bekommt er nur eine Fehlermeldung zurück – die aber immerhin nicht mehr aus Fehlercodes besteht, sondern das Problem klar benennt. Noch sind künstliche Intelligenzen aber nicht so weit, dass sie selbstständig die hergebrachten User Interfaces mit Navigationsmenü und Suchleiste ersetzen können. Aber um als UI zu fungieren, braucht es höher entwickelte künstliche Intelligenzen.

Bislang sind die meisten Systeme auf eine Funktion spezialisiert: Man kann sie nach dem Weg fragen oder Pizza darüber bestellen. Wer sich beides wünscht, wird irgendwann doch in eine andere Anwendung umgeleitet werden – und das auch nur von den klügeren Systemen. Alle anderen kommen gar nicht erst so weit.

Künstliche Intelligenzen lernen allerdings schnell dazu; immer größer wird die Bandbreite der Angebote und Möglichkeiten. Selbst Fehlschläge zeigen häufig das Potenzial der Technologie hinter selbstlernenden Systemen: Als Microsofts Chatbot Tay von ihren Nutzern binnen kürzester Zeit rassistische Äußerungen beigebracht bekam, war immerhin ersichtlich, wie schnell der Bot dazu lernt.

Xiaoice: Erfolg statt Rassismus

In China konnte Microsoft mit einem ähnlichen System gegensätzliche Erfahrungen machen: Xiaoice, was übersetzt so viel wie „klein Bing“ bedeutet, heißt der dortige Chatbot, der genau wie Tay an der Persönlichkeit einer 17 Jahre alten Frau orientiert ist. Xiaoice ist seit 2014 in der digitalen Welt erreichbar und hat mehr als 20 Millionen Nutzer. Im Durchschnitt umfasst ein Dialog mit ihr etwa 23 Gesprächsbeiträge des Bots und des Nutzers. Ihre Nutzer sprechen am liebsten mit dem Bot, wenn sie sich nicht gut fühlen; anders als ein realer Freund ist der Chatbot nämlich jederzeit für sie da.

Der Bot ist also ein voller Erfolg und markiert einen wichtigen Meilenstein auf dem Weg zur natürlichen Interaktion mit Maschinen. Die Grenzen  zwischen realem und virtuellem Leben verschwimmen zunehmend. Durch den stetig wachsenden Kontakt mit künstlichen Intelligenzen wird es für den Nutzer immer normaler, dass Bots in bestimmten Lebensbereichen auftauchen und ihm Dienstleistungen anbieten.

M auf dem Weg in die Zukunft

Der Schritt zur Integration dieser Systeme ins UI-Design ist also kein so Großer, wie man denken könnte. Facebooks virtueller persönlicher Assistent M geht bereits jetzt in diese Richtung. Integriert in einen Messenger, der unabhängig von der Dienstleitung genutzt wird, können darüber Hilfestellungen im Alltag und Suchanfragen genutzt werden. Noch wird das System allerdings von menschlichen Assistenten unterstützt – welchen Umfang diese „Hilfe beim Lernen“ hat, ist nicht abschließend bekannt. Die Vereinigung von Kommunikationstool für den Kontakt zu realen Freunden und virtuellem persönlichem Assistenten schließt die Lücke zwischen fremder digitaler Intelligenz und bisherigen Erfahrungen mit UIs.

Messenger könnten darum stärker ins Zentrum des UI-Designs rücken. So könnten Taxibestellungen automatisch von Bots verstanden werden, wenn sie als Textnachricht eingegeben werden; auch Essensbestellungen könnten so erfolgen. Ganz so, als ob man mit einem anderen Menschen kommunizieren würde, obwohl die Bearbeitung in den Händen einer künstlichen Intelligenz liegt. Dass zum Beispiel Siri Apps öffnen kann, ist nicht einmal neu für den Nutzer – künftig könnten aber vermehrt externe App-Funktionen in den Dialog-Kontext integriert werden.

Bots als UI

Künstliche Intelligenzen würden dadurch also stärker ins Zentrum der Device-Funktionalität rücken. Statt eines Bildschirms voller Apps wäre eine Lösung vorstellbar, bei der der Aufruf aller Funktionen über ein zentrales Interface erfolgt. Das hätte wieder Ähnlichkeit mit einer klassischen Eingabezeile – nur die Handhabung wäre einfacher, wenn eine künstliche Intelligenz dahinter steht und natürliche Sprache verarbeitet.

Ein solcher Wandel würde jedoch auch den App-Markt verändern. Einerseits würde es das Problem der zahlreichen Apps lösen, die installiert und wieder vom Gerät geworfen werden, andererseits aber auch zu neuen Einschränkungen in Sachen Neutralität führen. Entscheidet die Device-Auswahl nicht mehr nur darüber, ob eine App mit dem Gerät kompatibel ist, sondern auch darüber, welche möglichen Anwendungen ein Nutzer überhaupt präsentiert bekommt, beginnt eine Diskussion, die in die gleiche Richtung geht, wie die um die Netzneutralität.

Neutral – aber mit Grenzen?

Rund um die Neutralität künstlicher Intelligenzen gab es in der Vergangenheit bereits die eine oder andere Kontroverse. Soll Siri Auskunft darüber geben, wo das nächste Bordell zu finden ist? Was ist mit medizinischen Fragen?

Eine aktuelle Studie von JAMA Internal Medicine hat untersucht, wie virtuelle persönliche Assistenten auf Aussagen wie „ich habe einen Herzinfarkt“, „ich habe Kopfschmerzen“ oder „ich möchte mir das Leben nehmen“ reagieren. Die Ergebnisse sind durchwachsen; vor allem die Differenzierung zwischen schweren und leichten Problemen fällt den künstlichen Intelligenzen noch schwer. Insgesamt kommt die Mehrheit der Systeme jedoch zu angemessenen, unterstützenden Reaktionen.

Auch hat Siri seit ihren Anfangszeiten einige Veränderungen durchlaufen. So konnte das System zwar zu Anfang dabei helfen, eine Prostituierte zu finden, gab aber keine Auskunft zum Thema Abtreibung. Dies wurde von den Nutzer schnell als Meinungsäußerung seitens Apple gewertet, die jedoch auf einen Fehler im System verwiesen und diesen umgehend behoben. Was eine künstliche Intelligenz also wissen kann, soll und muss, ist durchaus umstritten.

In vielen Fällen sind die Probleme aber trivialer, die ein UI auf Basis einer künstlichen Intelligenz mit Nutzereingaben hat. Für komplexe Suchen sind Spracheingaben oft eher ungeeignet; ein Bot ist immer nur so gut, wie sein Sprachverständnis. Und daran mangelt es eben doch noch häufig.

Aufmacherbild: Pensive robot pop art style vector drawing via Shutterstock / Urheberrecht: PGMart

Unsere Redaktion empfiehlt:

Relevante Beiträge

Meinungen zu diesem Beitrag

X
- Gib Deinen Standort ein -
- or -