ML Con und Voice Con in Berlin eröffnet

ML Con & Voice Con eröffnet: Der AI eine Persönlichkeit geben
Keine Kommentare

Am heutigen Mittwoch wurden die ML Conference und Voice Conference 2018 in Berlin eröffnet. Die Schwester-Events wurden eingeläutet mit einer Keynote von Wally Brill (Google), der betonte, dass es keine Sprachassistenten ohne Persönlichkeit gibt. Wie erstellt man aber eine gute Persona?

Zwei Konferenzen, vier Tracks, eine Location: Die Schwester-Events ML Conference und Voice Conference wurden heute morgen in Berlin eröffnet. Die Teilnehmer, die sich um 9 Uhr im Keynote-Saal des Steigenbergers am Kanzleramt einfanden, sind aus aller Welt angereist und bringen vielfältige technische Hintergründe mit. Konferenz-Advisor Dr. Pieter Buteneers (Robovision) fragte im Rahmen der Eröffnung der englischsprachigen Konferenzen unter anderem danach, wer kein Deutsch spreche – das traf auf etwa 40 Prozent der Teilnehmer zu. Hinsichtlich der vertretenen Tech-Stacks sind erwartungsgemäß Python und Java die am weitesten verbreiteten Sprachen vor Ort, auch C++, C, Go und Rust werden aber von etwa 10 Prozent der Teilnehmer verwendet. Circa die Hälfte der Teilnehmer arbeitet mit ML auf der Stufe eines „Starting to mess around“, wie Buteneers es bezeichnete. Etwa 15 Prozent arbeiten täglich damit – hier sind die anwesenden Speaker der Konferenzen jedoch mitgezählt.

Voice Assistenten: Auf die Persönlichkeit kommt es an

Auf Buteneers folgend eröffnete Wally Brill (Google) die Konferenzen mit seiner Keynote zu den Persönlichkeiten von Voice-Assistenten: „Look Who’s talking: The Case for Branded Personas in Connected Devices“. Zwar fokussierte sich der Speaker auf den Voice-Bereich. Wenn wir an Siri, Cortana und Co. denken, ist jedoch offensichtlich, dass das Thema eine hohe Relevanz auch für den ML-Bereich besitzt. Das wichtigste Learning, das die Besucher der Eröffnungskeynote mitnehmen konnten, lautet nämlich, dass es nicht möglich ist, einem Voice-Interface keine Persönlichkeit zu geben. Wer also, ungeachtet der technischen Basis, ein Voice-Interface erstellt, muss darüber nachdenken, wie es auf den Nutzer wirken soll.

ML Conference 2018

Making Enterprises Intelligent with Machine Learning

with Dr. Sebastian Wieczorek (SAP)

Machine Learning 101++ using Python

with Dr. Pieter Buteneers (Robovision)

Menschen schreiben einer Stimme eine Persönlichkeit zu, sobald sie diese hören. Assoziieren die Nutzer eine Stimme mit einer unangenehmen Erfahrung, mit einer unfreundlichen Person, wird das System nur schwer überzeugen können. Hier müssen sich Unternehmen also zuerst Gedanken darum machen, wie sie wirken möchten. Dann kann die Arbeit am Voice-Interface beginnen.

Wie man Personas designed

Brill erläuterte, wie eine solche Persona entsteht: Schritt 1 auf dem Weg zur guten Persona für Voice Interfaces besteht darin, die Marke zu verstehen, für die ein Interface designed werden soll. Locker oder formal im Auftreten, ausgerichtet auf Business oder Freizeit? Wofür steht die Marke? Ist dies bekannt, geht es weiter zu Schritt 2: Den Nutzer verstehen. Wer nutzt das Produkt, wie wird es genutzt, wie häufig? In Schritt 3 muss dann die Aufgabe, das Ziel definiert werden – was soll erschaffen werden? Hier geht es nicht um den Code und den technischen Teil, sondern um die softe Seite: Die Persönlichkeit des Voice Assistant wird entwickelt.

In Schritt 4 wird die Persönlichkeit dann entworfen – im Detail! Wo lebt die Persönlichkeit des Voice-Assistenten, was macht sie beruflich und wer waren ihre Eltern? Was macht die Person in ihrer Freizeit und worauf legt sie wert? Ein Beispiel, das Brill dafür anführte, waren Voice-Assistenten für verschiedene Airlines:

Do you require information regarding your flight?
Do you want info on your flight?

Diese Sätze passen zu verschiedenen Menschen, verschiedenen Kunden und würden von unterschiedlichen Personen ausgesprochen werden. In Schritt 4 geht es dabei auch um den Sprecher, der dem Interface seine Stimme verleihen muss: Dieser muss verstehen, wen er darstellt, um den gewünschten Effekt erzielen zu können.

Der Schritt vom Papier zur Stimme

Wichtig ist dann jedoch auch, diesen Effekt zu testen. Was auf dem Papier gut klingt, muss nicht in der Realität funktionieren! Darum sollten die Texte sowie die Persönlichkeit des Voice-Interface immer auch der Zielgruppe präsentiert werden, bevor sie feststehen.

Brills Keynote fokussierte sich auf die Voice Con, die heute begonnen hat und bis Freitag in Berlin stattfinden wird. Relevant ist das Thema aber natürlich weit darüber hinaus: Ob der Voice Assistent intelligent ist oder nicht, ist nicht relevant. Spricht der Assistent mit dem Nutzer, ordnet dieser ihm eine Persönlichkeit zu. Das ist wohl das wichtigste Take-Away der Eröffnungskeynote der ML Con und Voice Con in Berlin.

Unsere Redaktion empfiehlt:

Relevante Beiträge

Hinterlasse einen Kommentar

Hinterlasse den ersten Kommentar!

avatar
400
  Subscribe  
Benachrichtige mich zu:
X
- Gib Deinen Standort ein -
- or -