Die Grundlagen von Spracherkennungssystemen

Grundlagen der Spracherkennung – so funktionieren Alexa, Cortana, Siri & Co
Kommentare

Seit vielen Jahren schien die maschinelle Spracherkennung gerade vor dem Durchbruch zu stehen, doch meist zeigten sich schnell die Grenzen der jeweils aktuellen Technologien. Stehen wir dank Siri, Alexa, Cortana und Co. vor einem Paradigmenwechsel?

Seit einiger Zeit stehen nun endlich genügend Sprachdaten, Rechenleistung und die passenden Algorithmen bereit, um den Einsatz solcher Spracherkennungssysteme, Bots oder Personal Assistants nicht nur praktikabel, sondern sogar erfreulich zu gestalten. Inzwischen buhlen Amazons Alexa, Googles Assistant, Microsofts Cortana und natürlich Apples Siri in der „Battle of the Bots“ um die Gunst der Nutzer.

Spracherkennungssysteme – die Grundlagen

Durch Spracherkennungstechnologien werden Diktate automatisiert, Videos und Audiofiles textdurchsuchbar, Navigationsgeräte, Smartphones und die Websuche leicht steuerbar. In der Session „Smartphones getting smarter: Automatische Spracherkennung auf dem Weg in die Praxis“ stellte Prof. Dr.-Ing. Dorothea Kolossa (Ruhr-Universität Bochum) auf der MobileTech Conference 2016 stellt die Grundlagen von Spracherkennungssystemen vor.

Dabei blickt sie auf die aktuellen Methoden der Deep Neural Networks, diskutiert die Anbindung von Spracherkennungs-Apps, Software Development Kits und Hardwarelösungen, beleuchtet die Grenzen der Technologie in Bezug auf Privacy-Fragen und zeigt den aktuellen Stand der Forschung zur robusten Sprachsteuerung auch unter schwierigsten akustischen Bedingungen.

Einen Einstieg in die Entwicklung von Alexa Skills finden Sie übrigens in unserem How-to: So entwickelt man einen Skill für Amazons Alexa.

Spracherkennung, Bots und neuronale Netzwerke auf der MobileTech Conference

Auch auf der MobileTech Conference / Internet of Things Conference 2017 in München erwarten die Teilnehmer Sessions zu den Themenbereichen Spracherkennung, Bots und Deep Neural Networks. So demonstriert Dominik Helleberg (inovex GmbH) in seiner Session „Sprachsteuerung mit dem Google Assistant – Add a new User Interface to your product“ anhand von Google Home/Assistant die prinzipielle Funktionsweise einer Sprachsteuerung und ihre Vergleichbarkeit mit Chatbots.

Dean Bryen, Technology Evangelist für Amazon Alexa, stellt in der Session „Enabling Voice-driven Smart Home Experiences with Amazon Alexa“ Amazons Sprachassistentin und ihre neuesten Features vor und wirft einen Blick auf das Smart Home Skills API.

Und in der Session „Tiefes Lernen und die breiten Möglichkeiten intelligenter mobiler Anwendungen“ nimmt Sie Prof. Dr. Björn Schuller (Universität Passau) mit auf einen Kurztrip durch das Universum tiefer neuronaler Verfahren, bei dem er mit den Teilnehmern entsprechende Methoden und Möglichkeiten erkundet. Wie tief werden mobile Endgeräte bald denken?

Unsere Redaktion empfiehlt:

Relevante Beiträge

Meinungen zu diesem Beitrag

X
- Gib Deinen Standort ein -
- or -