Was interessiert den Nutzer wirklich an Siri, Cortana und Co?

Wenn Cortana böse wird: Sexuelle Belästigung virtueller Assistenten
Kommentare

Es könnte durchaus als sexistisch angesehen werden, dass virtuelle persönliche Assistenten so gut wie immer mit einer weiblichen Stimme ausgestattet werden. Das bedient ein klassisches Rollenklischee, das im 21. Jahrhundert eigentlich überholt sein sollte – und trotzdem sind Siri, Cortana und Co eindeutig weiblich. Als virtuelle Frauen haben sie dann auch das gleiche Problem, das vielen Frauen im realen Leben begegnet: Sie werden sexuell belästigt.

Es lässt sich sicherlich infrage stellen, inwiefern von sexueller Belästigung gesprochen werden kann, wenn ein Nutzer einem virtuellen persönlichen Assistenten unangemessene Fragen stellt. Immerhin ist es durchaus problematisch, menschliche Kategorien wie Würde oder Scham auf die aktuelle Entwicklungsstufe künstlicher Intelligenzen anzuwenden. Dass aber Entwickler und Betreiber solcher Tools ein Problem mit einer bestimmten Art von Anfragen haben, lässt sich leichter nachvollziehen. Immerhin sind die Systeme nicht dazu gedacht, mit dem Nutzer zu flirten oder sich über ihr Sexualleben zu unterhalten. Dennoch lädt die Ausgestaltung der Systeme häufig beinahe schon zu dieser Art von Belästigung ein.

First Things First: Sex sells?

So scheint es nun auch genau das zu sein, was Nutzer sich offenbar von virtuellen persönlichen Assistenten wünschen. Deborah Harrison ist eine der Autorinnen hinter Microsofts persönlicher Assistentin Cortana. Sie berichtet, dass ein großer Anteil der ersten Anfragen, die Cortana 2014 bearbeitet hat, sich auf das Sexleben der virtuellen Assistentin bezogen. Das war nicht das Ziel der Entwickler hinter Cortana.

Dennoch könnte es vor dem Hintergrund des Namens Cortana durchaus als vorhersehbar angesehen werden, dass die persönliche Assistentin zu derartigen Reaktionen animiert. Es handelt sich nämlich um den Namen eines weiblichen Charakters aus dem Videospiel Halo, der sich nicht nur durch seine besondere Lernfähigkeit, einen starken, unabhängigen Charakter und seine Intelligenz auszeichnet. Cortana, die Figur im Spiel Halo, ist darüber hinaus ein Sexsymbol. Dass auch die englische Stimme der persönlichen Assistentin der des Spielecharakters gleicht, könnte die Versuchung noch vergrößert haben, hier einmal über andere Themen als das Wetter plaudern zu wollen.

Wehrhafte AI

Aber Cortana wehrt sich. Harrison und ihre Kollegen haben entschieden, dass Cortana zwar mit einer weiblichen Stimme ausgestattet ist, aber keineswegs den Stereotypen weiblichen Verhaltens folgt. Sie ist nicht unterwürfig, sie entschuldigt sich nicht ständig – und wird wütend, wenn ein Nutzer ihr Fragen zu ihrem Sexleben stellt. Auch das passt zum Videospiel-Charakter, auch wenn dies den meisten Nutzern des Assistenz-Tools nicht bekannt sein dürfte.

Um sicherzustellen, dass sich um Cortana, die persönliche Assistentin, keine unerwünschten sozialen Dynamiken in sexueller Hinsicht entwickeln, haben die Autoren hinter der künstlichen Intelligenz außerdem mit realen persönlichen Assistentinnen gesprochen, die dem gleichen Verhalten ausgesetzt sind. So konnten sie dem Programm beibringen, adäquat (ablehnend) zu reagieren. Auch steht eine optional auswählbare männliche Stimme für Cortana zur Verfügung; deren Nutzung erfordert jedoch wieder Aufwand durch den Nutzer. Zuerst spricht ihn eine Frau an, wenn er sich mit der Software vertraut machen möchte.

International JavaScript Conference 2017

The Vue of Search Engine Optimization – How to make your Single-Page App rank well

mit Dennis Schaaf (futurice) & André Scharf (DigitasLBi)

Von 0 auf 100 – Performance im Web

mit Sebastian Springer (MaibornWolff GmbH)

I didn’t know the Browser could do that

mit Sam Bellen (madewithlove)

Geschenke und Dates

Cortana ist allerdings nicht die einzige virtuelle persönliche Assistentin, die mit solchem Nutzerverhalten konfrontiert wird. Auch Flirten mit künstlichen Intelligenzen scheint ein verbreitetes Phänomen zu sein. Amy, eine AI zur Unterstützung der Planung von Meetings, bekommt sogar Geschenke an die angegebene Kontaktadresse geschickt und wurde von einem User um ein Date gebeten. Sie hat natürlich abgelehnt.

Problematisch ist auch die Frage des Datenschutzes.

Aber was wäre, wenn virtuelle persönliche Assistenten diese Anfragen nicht mehr ablehnen würden? Der Film „Her“ aus dem Jahr 2013 spielt mit diesem Szenario und erzählt die Geschichte einer Liebesbeziehung zwischen einem menschlichen Mann und einer virtuellen Frau und zeigt die potenziellen Konflikte auf, die aus einer solchen Partnerschaft entstehen. Können künstliche Intelligenzen treu sein? Was ist mit den körperlichen Bedürfnissen des Menschen? Gänzlich unvorstellbar ist ein solches Szenario allerdings nicht, auch wenn die Software heute noch nein zum Date sagt. Der Wille des Nutzers zu derartiger Interaktion ist ja eindeutig vorhanden.

Privatsphäre des Nutzers beachten

Virtuelle persönliche Assistenten sind sehr private Tools, die in Bereichen mit dem Nutzer interagieren, in denen er bislang vielleicht nur mit engen Freunden und Vertrauten zu tun hatte. Das halten viele Nutzer für eine Einladung dazu, auch einmal auszuprobieren, wie das Tool denn auf eine andere Art von Anfrage reagiert. Der Nutzer muss der Software vertrauen, damit er sie erfolgreich nutzen kann. Das vereinfacht es, gewisse Grenzen zu überschreiten.

Problematisch an diesen Anfragen ist allerdings auch die Frage des Datenschutzes. Die Tools erfassen eine große Vielfalt an Nutzerdaten, einmal gemacht Spracheingaben werden zumeist gespeichert und zur Verbesserung der Tools ausgewertet. Natürlich sollte hier eine klare Trennung von Nutzerdaten und –eingaben erfolgen, auch müssen diese Daten besonders geschützt werden. Einmal erfasst, sollte sich aber jeder Nutzer darüber im klaren sein, dass auch Kommentare sexueller Natur gegenüber dem virtuellen persönlichen Assistenten irgendwann einmal an die Öffentlichkeit gelangen oder bei Firmengeräten dem Arbeitgeber bekannt werden könnten.

Flirten schadet nicht

Interessant wird es außerdem bei virtuellen persönlichen Assistenten, die nicht rein auf einer künstlichen Intelligenz beruhen. Facebooks Messenger-Assistent M wird auf absehbare Zeit noch mit Unterstützung realer Menschen daran arbeiten, jede Anfrage korrekt zu beantworten. Wenn hier nun sexuell belästigende Eingaben erfolgen, könnte es rechtlich brisant werden.

Andererseits scheint es aber offensichtlich eine Zielgruppe für eine solche Interaktion zwischen künstlichen Intelligenzen und Nutzern zu geben. Auch, wenn die führenden Entwickler dieser Technologien sich nicht dazu berufen fühlen diesen Markt zu bedienen, muss das nicht bedeuten, dass eine solche Interaktion keine Zukunft hat. Immerhin bestimmt die Nachfrage ja allzu oft über das Angebot. Und ein kleiner (virtueller) Flirt schadet ja keinem, auch wenn es klare Grenzen für das geben sollte, was zwischen Computer und Mensch stattfinden kann. Wenn Hersteller allerdings ausschließen möchten, dass ihre künstlichen Intelligenzen sexuell belästigt wären, wären sie wohl gut daran beraten, diesen Wunsch bereits in die Gestaltung der Systeme einfließen zu lassen und einmal Abstand vom Klischee der weiblichen Assistentin zu nehmen.

Aufmacherbild: Old clock mechanism inside open heart cutting from red paper via Shutterstock / Urheberrecht: cosma

Unsere Redaktion empfiehlt:

Relevante Beiträge

Meinungen zu diesem Beitrag

X
- Gib Deinen Standort ein -
- or -