Contextual Computing – Wenn mein Smartphone (vor mir) weiß, was ich will
Kommentare

Vergangene Woche hat Motorola mit dem Moto X das erste Smartphone vorgestellt, dass die Firma seit der Übernahme durch Google produziert hat. Mal abgesehen davon, dass das Gerät nach derzeitigem Stand nicht in Deutschland erhältlich sein wird, waren die Reaktion nicht unbedingt überschwänglich: „solides Gerät für das Mittelklasse-Segment“ lautete bei den meisten Beobachtern das Urteil.

Das trifft auch unsere Meinung ganz gut, denn mit der verbauten Hardware und seinen Features kann das Moto X im Vergleich mit der Riege der High-End-Smartphones keinen Blumentopf gewinnen. Egal ob iPhone 5, Samsung Galaxy S4 oder HTC One – alle sind dem Moto X überlegen.

Doch es gibt eine sehr interessante Ausnahme – ein Zusammenspiel von Hardware und Software – die aufhorchen lässt und uns einen Blick in die Zukunft von Mobile gewährt.

Im Moto X sind zwei weitere Prozessoren verbaut. Eine der beiden ARM-v7-CPUs dient laut Angaben ausschließlich der Spracherkennung, die andere dem „Contextual Computing“.

Ein Prozessor für die Spracherkennung macht Sinn, denn das Moto X verspricht Käufern dank seines Always-on-Features auf Befehle und Fragen zu reagieren, und zwar ohne dass man es erst per Tastendruck oder Sprachkommandos aus dem Ruhemodus holen müsste (vielen Datenschützern stellen sich angesichts eines solch konstanten Lauschangriffs die Haare zu Berge).

Doch ein dezidierter Prozessor nur für das Contextual Computing? Das gab es bisher im Mobile-Bereich nicht. 

Moto X
Das Motorola Moto X (© Motorola).

Contextual Computing – dem Kontext gehört die Zukunft

Was genau mit dem Begriff gemeint ist, lässt sich in etwa so erklären: Unter Contextual Computing, zuweilen auch als Context-Aware Computing bezeichnet, versteht man die Fähigkeit einer elektronischen Rechenmaschine, den Kontext seines Benutzers, also die objektiven und subjektiven Faktoren einer konkreten Situation oder Umgebung, in der man sich befindet, korrekt zu erkennen. Doch damit nicht genug: Zum Contextual Computing gehört auch, auf Basis des Erkannten, die Informationsbearbeitung sowie Informationsbereitstellung möglichst intelligent und in Echtzeit auf diesen Kontext anzupassen. Zwei Faktoren sind für das Contextual Computing also wichtig: Die gelieferte Information muss passen, d.h. sie muss die richtige für eben diesen Moment sein. Womit auch schon der zweite Faktor genannt wurde: Es geht darum, dass die Information jetzt bereitgestellt wird und nicht erst in einer Stunde oder am nächsten Tag. 

Folgende Informationsquellen können für Contextual Computing herangezogen werden:

  • der Nutzer selbst, sprich seine Identität
  • Räumliche Informationen: Ort, Geschwindigkeit, Beschleunigung, Bewegungsrichtung
  • Aus räumlichen Infos abgeleitet: stationär oder langsam/schnell in Bewegung
  • Umgebungsinformationen: Temperatur, Luftdruck, etc.
  • Technische Infos: Akkulaufzeit, Netzwerkverfügbarkeit (WLAN, Funkzelle)
  • Uhrzeit, Kalender, Jahreszeit
  • Soziale Informationen: ist man alleine oder mit anderen unterwegs, sind eventuelle bekannte in der Nähe?
  • Termine: Welche festgelegten Aktivitäten oder Verpflichtungen stehen an?
  • Sonstige Sensoren-Daten: Puls, Blutdruck, Atmung, Stimmlage

Google Now ist das vielleicht bekannteste Praxisbeispiel für Contextual Computing. Basierend auf erhobenen Daten zu Ort wie Zeit und unter Berücksichtigung von Kontextdaten des Nutzers spuckt dieser Service kontextrelevante Informationen aus. Das können beispielsweise Straßenkarten mit Verkehrsinformationen sein, die man als Android-Nutzer von Google Now angezeigt bekommt, und zwar eine Viertelstunde bevor man sich üblicherweise auf den Heimweg von der Arbeit macht.

Google NowGoogle Now gibt es auch auf dem iPhone. Am unteren Bildrand die oben angesprochene Karte mit den Verkehrsinformationen zum Heimweg (Screenshot Google Now für iOS).

 

Es gibt eine Reihe andere Services und Apps, die ähnlich arbeiten und den Bereich des Contextual Computing zumindest streifen. So steckt in den Kaufempfehlungen, die man in Online-Shops erhält, ebenfalls eine Portion Contextual Computing, den die Tipps basieren auf dem persönlichen Kontext des Nutzers – nämlich den Produkten, die man sich in der Vergangenheit angesehen oder gekauft hat.

Doch zur vollen Entfaltung konnte und kann Contextual Computing erst durch Mobile kommen. Auch wenn die „Mobile Revolution“ inzwischen ein abgedroschener Begriff ist – für das Contextual Computing ist das Aufkommen von Mobile tatsächlich revolutionär. Durch mobile Geräte wie Smartphones hat sich die Funktion eines Dienstes vom Ort entkoppelt. Beim Contextual Computing richtet sich die Funktion hingegen meistens, aber nicht zwangsläufig, nach dem Ort, der Location.

Eins steht jedoch fest: Der Sinn oder die Serviceleistung einer App oder eines Dienstes, der mit Contextual Computing arbeitet, steckt nicht in der Technologie an sich, sondern entsteht erst mit dem Kontext.

Sensoren, Sensoren, Sensoren!

Neben der durch Mobile heraufbeschworenen Ortsunabhängigkeit, ist die technische Evolution mobiler Geräte eine weitere wichtige Voraussetzung für Contextual Computing. Heutzutage tragen wir in unseren Smartphones eingebaute Computer in der Hosentasche mit uns herum, die locker die Rechenpower eines Desktop-Rechners von vor fünf Jahren besitzen. Darin befinden sich jede Menge Sensoren, die permanent weitere Daten über meinen Kontext liefern. Von GPS über Beschleunigungsmesser bis hin zum Barometer. Und mit Google Glass steht eine Technologie vor der Markeinführung, die dank des visuellen Faktors das Contextual Computing mit einem Schlag um eine Informationsdichte und damit um Datenmengen erweitert, die wir uns derzeit nur schwer vorstellen können. 

Location-based Apps waren der erste Schritt. Inzwischen haben wir Google Now und viele weitere kontextbasierte Dienste werden folgen und das „Age of Context“ einläuten, wie Tech-Blogger Robert Scoble es nennt. 

In Zukunft soll Contextual Computing allerdings noch viel weiter gehen. Anwendungsbereiche und Möglichkeiten sind nach derzeitigem Stand noch nicht einmal im Ansatz umfassend identifiziert.

Irgendwann soll der Rechner, egal ob im Desktop PC, Tablet oder Smartphone, den Nutzer möglichst vollumfänglich verstehen: seine Verhaltensweisen, seine Vorlieben, aber auch seinen Social Graph. Auf dieser Basis antizipiert der Computer das Nutzerverhalten und sogar die damit verbundenen Emotionen. Er zieht also Schlüsse aus unseren Aktionen, nutzt diese um unsere Absichten so zu interpretieren, dass es sich vorhersehen kann. Das häre Ziel: Das Leben einfacher machen. 

Contextual Computing kann auch auch zur Vorsorge beziehungsweise Prävention angewendet werden. SRI International, das im Silicon Valley angesiedelte Forschungsinstitut, das die Entwicklungsarbeit für Apples Siri geleistet hat, arbeitet beispielsweise an einem System, das anhand der Analyse von Sprache erkennen soll, wenn Kriegsveteranen suizidale Absichten entwickeln

Paradigmenwechsel

Angesichts all der Informationsquellen, die bereits jetzt in Contextual Computing hineinfließen, sowie der Dienste, die schon heute mit Contextual Computing realisiert werden, lässt sich erahnen, welch unglaubliches Potenzial darin steckt. Immer mehr Menschen besitzen ein Smartphone und vor allem: Immer mehr Menschen benutzen ein Smartphone regelmäßig. Contextual Computing richtig und innovativ eingesetzt, kann nicht nur unser komplettes Verhalten als Konsumenten verändern. Denn es arbeitet anders als bisherige technische Hilfsmittel im Mobile-Bereich: Es ist personalisiert, funktioniert im Idealfall wie eine Erweiterung unser selbst und verschmilzt mit unserem Alltag.

So könnte sich auch die Art und Weise ändern wie wir Technologie betrachten. Durch Contextual Computing kann sie einerseits menschlicher werden, andererseits mag sie angesichts ihrer allwissend anmutenden Fähigkeiten bedrohlich wirken.

Der letzte Schritt im Contextual Computing wäre dann ein aus heutiger Sicht radikaler: Apps verschwinden ganz, denn die Dienste, die sie bereitstellen, gehören irgendwann zur Intelligenz des Geräts selbst.

Hört sich nach Science-Fiction an? Ist es heutzutage auch größtenteils noch. Doch mit zunehmender Verbreitung von Contextual Computing wird sich nicht nur unsere Technologie-Landschaft und –Infrastruktur einschneidend verändern, es werden auch neue Anforderungen an die Nutzer gestellt. Wir werden neue Skillsets entwickeln müssen, um Contextual Computing richtig einzusetzen und optimal mit unseren Devices interagieren zu können. Und wir werden unter Umständen nicht anders können, als uns vom bisher gängigen Begriff der Privatsphäre zu verabschieden. Denn der, so scheint es, wird sich mit der Flut von persönlichen Daten, die im Rahmen von Contextual Computing erhoben werden, nicht in Einklang bringen lassen. Zu viel weiß das Gerät und der dahinter steckende Dienst über uns, egal wie anonymisiert die Daten sind, die von Sensoren oder unserem Social Graph bereitgestellt werden.

Erst am Anfang

Zurück zum Moto X von Motorola. Hier beschränken sich die kontextsensitiven Fähigkeiten auf Funktionen wie den Car Modus. Hier erkennt das Smartphone automatisch, dass man Auto fährt und passt das Gerät darauf an. Ebenfalls möglich: Ist man laut Kalendereintrag auf einem Termin, leitet das Gerät alle in dieser Zeit ankommenden Anrufe auf die Mailbox um.

Abgesehen davon sorgt der dezidierte Chip fürs Contextual Computing dafür, dass die Daten der zahlreichen Smartphone-Sensoren permanent und energiesparend abgerufen werden. Damit ist sich kein anderes Smartphone seiner Umgebung permanent so ‚bewusst’ wie das Moto X. Ein weiterer Schritt ins Kontext-Zeitalter!

 

Aufmacherbild: phones and globe on white background Foto von Shutterstock / Urheberrecht: Ilin Sergey

 

Unsere Redaktion empfiehlt:

Relevante Beiträge

Meinungen zu diesem Beitrag

X
- Gib Deinen Standort ein -
- or -