Natural User Interfaces – Die Kunst, Nutzung intuitiv zu gestalten
Kommentare

Mit dem Einzug von Smartphones und Tablets rückt die intuitive Benutzung von Produkten immer stärker in den Fokus der Nutzer. Ab sofort wird erwartet, dass jegliche Produkte einfach zu bedienen sind und ohne Betriebsanleitung und Handbuch auskommen. Nur so werden sie von uns Menschen akzeptiert und sich erfolgreich am Markt behaupten können. Die neuen Produkte sollen sich quasi wie von alleine dem Nutzer oder der Nutzerin erschließen, auch wenn deren Funktionen immer komplexer und vernetzter werden. Intuitives Design, also der Anspruch, die Dinge so einfach wie möglich nutzbar zu gestalten, wird zu einer wichtigen Wettbewerbsdifferenzierung. Spätestens seit Apple damit zur wertvollsten Marke der Welt geworden ist. 

Die intuitive Nutzung von komplexen Produkten rückt immer stärker in den Mittelpunkt guter Gestaltung. Eigentlich ist das Phänomen, Objekte des Alltags für deren Nutzer gut handhabbar zu machen, nichts Neues. So lernen Produktgestalter von Haus aus, Mensch-Objekt-Beziehungen zu kreieren, die nutzerorientiert, also intuitiv, nachhaltig, intensiv, emotional, distinktiv usw. sind. Auch Themen wie Usability [2], Interfacedesign oder Wahrnehmungspsychologie sind seit Jahrzehnten Bestandteile solcher Studiengänge. Was ist nun aber das Neue und welches sind die Veränderungen, die es bei der Gestaltung zukünftiger Interfaces zu berücksichtigen gilt? Also was ist der Punkt, der den Unterschied ausmacht? 

[2] Die Usability oder Gebrauchstauglichkeit beschreibt den Aufwand, den ein bestimmter Benutzer, in einem bestimmten Nutzungskontext benötigt, um ein Ziel möglichst effektiv, effizient und zufriedenstellend zu erreichen. Anders ausgedrückt: Wie kommt ein Nutzer möglichst schnell ans Ziel oder wie viele Schritte benötigt er, um sein Ziel zu erreichen.

Schrumpftechnologie oder der Einzug der Software

Betrachten wir hierzu zunächst noch einmal kurz die Entwicklung im Bereich der Mensch-Maschine-Kommunikation. In den frühen 50er Jahren des letzten Jahrhunderts arbeitete der Mensch zunächst noch im Computor (damals hießen die Computer noch Computoren). Er war hauptsächlich damit beschäftigt, Röhren, die durch krabbelnde Käfer (Bugs) überhitzten, auszutauschen (Bug-Beseitigung). Sehr schnell veränderte sich seine Rolle jedoch vom Röhrentauscher zum Operator. Die Computer schrumpften aufgrund technologischen Fortschritts – von der Röhre zum Transistor und vom Transistor zum Mikroprozessor. Die fortschreitende Schrumpftechnologie veränderte aber auch die Bedienschnittstelle, das Interface. Aus Hardware wurde Software, und Programme, die aus Kartenstapeln bestanden, wurden sukzessive durch elektronische Applikationen ersetzt. Das Phänomen, dass Computer immer kleiner, leistungsfähiger, günstiger und schneller werden, hält unverändert an und wird uns auch in der Zukunft weiter begleiten. Wenn wir uns dieses Phänomens bewusst werden, erkennen wir sehr schnell, wohin sich die Zukunft des Computers sowohl hardwareseitig als auch softwarespezifisch entwickeln wird: von der interaktiven Maschine hin zum kooperativen Assistenzsystem. Computer werden also immer kleiner, und schon in wenigen Jahren werden wir sie nicht mehr nur wie heutzutage in der Hand (Tablets) oder Hosentasche (Smartphones) mit uns herumtragen, sondern sie werden in Form vom smarten Brillen auf unserer Nase sitzen. Ganz abzusehen von der Medizintechnik, wo der Computer heutzutage schon in unsere Körper wandert.

Betrachten wir neben der Entwicklung der Hardware einmal die Evolution der Software, so sehen wir, dass sie sich, egal ob Betriebssysteme oder Programme, in den letzten 50 Jahren ebenfalls kontinuierlich verändert hat. Wurden die ersten Personal Computer noch mittels kryptisch anmutender und nur von Spezialisten zu bedienenden Command Line Interfaces (CLI) wie MS DOS oder ProDOS begleitet, so brachte bereits die nächste Evolutionsstufe, die der grafischen Benutzungsoberflächen (Graphical User Interfaces), eine Minderung des Expertentums mit sich (Abb. 1). Mittels Desktopmetapher und Mausnutzung wurde aus der Expertenmaschine ein wesentlich benutzungsfreundlicheres Konsumentengerät, das heutzutage von vielen und nicht mehr nur von wenigen benutzt wird. Doch kann die Benutzung des Computers vor der voranschreitenden Miniaturisierung nicht noch intuitiver und natürlicher gestaltet werden? Zurzeit erleben wir den nächsten Paradigmenwechsel im User Interface, einerseits in der Hardware, besonders aber im Softwarebereich.

Unterschiede von CLI, GUI und NUI
Abb. 1: Unterschiede von CLI, GUI und NUI

 

Bedingt durch neue technologische Möglichkeiten wie Multitouch-Displays und multiple Sensoren in den Geräten, beginnen Finger, Touch, Geste, Stift und Sprache sukzessive die klassischen Interaktionswerkzeuge wie Maus, Cursor und Tastatur abzulösen. Dabei digitalisieren sich einige von ihnen nur, beispielsweise die Tastatur, während andere wie der Cursor ganz verschwinden werden. Das bedeutet keinesfalls, dass Maus und Tastatur als Hardware-Devices nicht mehr benutzt werden können, sie werden nur einfach immer seltener benutzt. So ähnlich wie Kutschen oder Schallplatten, die heutzutage auch noch benutzt werden können, doch nutzt die Mehrheit der Menschen Autos und MP3-Player.

Mittlerweile gehen mehr Menschen über mobile Endgeräte wie Smartphones oder Tablets ins Internet als über stationäre PCs. Und auch das technische Gerät „Browser“ bekommt immer mehr Konkurrenz von so genannten Apps. Kleinen Applikationen, die unmittelbaren und schnelleren Zugang zu Webinhalten ermöglichen und damit dem Browser immer härteren Wettbewerb machen. Ganz zu Schweigen von zukünftigen Phänomenen wie virtuellen Assistenten oder kooperativen Interaktionssystemen, wie wir sie heutzutage bereits in vielen Smartphones oder Fahrzeugen vorfinden.

Alle diese Entwicklungen führen dazu, dass sich der Umgang mit dem Computer rapide verändert. Nicht nur unsere Vorstellungen haben sich in den letzten Jahren diesen neuen Möglichkeiten genähert, auch haben sich unsere Erwartungshaltungen in rasanter Weise angepasst. Heutzutage möchten wir dank Cloud Computing, mobile Web und Multitouch-Oberflächen auf alles, an jedem Ort, zu jeder Zeit und natürlich möglichst intuitiv und personalisiert zugreifen können.

Smartphones, Tablets und Apps ermöglichen zudem neue Optionen, die vormals eher James Bond vorbehalten waren. So sind Augmented Reality, Sprach- und Gesichtserkennung mittlerweile keine Utopien mehr, sondern spiegeln zusammen mit lokalen Diensten längst unseren Alltag wider.

Simplexity – die Kunst, Komplexität zu meistern

In dieser immer anspruchsvolleren und komplexer werdenden Welt spielen das Design, vor allem aber das Denken in den neuen Dimensionen des Designs, das so genannte Design Thinking, eine immer wichtigere Rolle. Dabei übernimmt Design mittlerweile nicht mehr nur die Aufgabe, technische Produkte dem Menschen nutzbar zu machen, sondern hat neben markenprägenden Aufgaben mittlerweile auch geschäftsstrategische Auswirkungen, Apple sei Dank.

So wird Design Thinking immer häufiger herangezogen, wenn neben ästhetischen und produktsprachlichen Aspekten auch die Marke, Metapher, Konsum- und Absatzpsychologie oder Kognitionsergonomie in kunden- und nutzerorientierte Lösungs- und Geschäftsmodelle konvertiert werden sollen. Design soll helfen, Komplexität zu meistern und in Simplexität zu verwandeln. Vorne, am Interface, wird es für den Nutzer immer einfacher, im Hintergrund immer komplexer. Diese neue Vielschichtigkeit und vernetzte Multidimensionalität ist es denn auch, die das Denken in Natural User Interfaces ausmacht. Die nächste Generation an Human-Computer-Interfaces reflektiert somit die allgemeine wirtschaftliche Veränderung hin von Produkten zu Diensten und vom Besitztum hin zum Nutztum.

Ein kleiner Exkurs soll dies verdeutlichen. Zu Beginn des Personal Computings kaufte man Software in Hardwareboxen auf Diskette oder CD-ROM. Die Software wurde anschließend auf dem Rechner installiert, und das nächste Software-Update kam erneut per Hardware. Mit Einzug des Internets verschwanden Diskette und CD-ROM, und die Aktualisierung von Softwareprogrammen geschieht heutzutage in der Regel mittels Online-Updates. Updates werden aus dem Web geladen und installiert. Aber es handelt sich immer noch um Programme. Mit Einzug des Cloud Computings und der Omnipräsenz des mobilen Internets werden aus Softwareprogrammen, so wie wir sie bisher kennen, nunmehr kontextsensitive Softwaredienste. Das bedeutet, der Nutzer installiert kein Programm mehr auf seinem Rechner, sondern die Medien selbst beinhalten die Funktionen beziehungsweise Dienste. Will ein Nutzer also beispielsweise ein Bild bearbeiten, steckt die Funktion der Bildbearbeitung in dem Bild selbst. Das Bild muss also nicht mehr zum Programm „geschleppt“ werden, sondern der Dienst „Bildbearbeitung“ ist in dem Bild enthalten. Solche als Inner Service bezeichneten Funktionen sehen wir bereits heute in sehr rudimentärer Form bei Apples Betriebssystem iOS. Möchte ein Nutzer dort ein Bild versenden, berührt er das Bild mit seinem Finger und hält es einen Moment lang gedrückt (Touch and Hold-Funktion) und schon erscheinen die möglichen Optionen: beispielsweise Speichern, Versenden, Teilen, etc. Ein weiterer Touch sowie die Angabe des Empfängers, und schon ist das Bild aus dem Nutzungskontext heraus versendet.

App- und Link-Tipps

Apps

Folgende iOS Apps verdeutlichen das OSIT-Prinzip recht gut:

  • Porsche Cinema Pad (iPad)
  • Stocktouch (iPhone und iPad)

Links

Folgende Websites verdeutlichen das OSIT-Prinzip recht gut:

Von visueller Gestaltung zur Gestaltung von Verhalten

Dieser erste Einblick verdeutlicht sehr gut, wohin sich, neben den Geschäftsmodellen, das Design verändern wird. Nicht mehr die Gestaltung des Aussehens –Look – ist von entscheidender Bedeutung, sondern die Gestaltung des Verhaltens –Feel – rückt in den Mittelpunkt designerischen Denkens. Spielte also bei den grafischen Benutzungsoberflächen die Grafik, das Visuelle, eine zentrale Rolle bei der Gestaltung, so verlagert sich dies bei Natural User Interfaces in Richtung Verhalten. Das bedeutet nicht, dass es in Zukunft keine visuellen Interaktionselemente mehr geben wird, nur ist eben deren Verhalten für den effektiven und effizienten Umgang mit der Software wichtiger als ihr Aussehen. Ein gutes Beispiel hierfür ist die Evolution der Steuerleiste (Controls) bei Mediaplayern. Wurden sie in den Anfängen permanent gezeigt, so erscheinen sie heutzutage nur noch dann, wenn sie benötigt werden. Nach kurzer Zeit ziehen sie sich kontextsensitiv zurück und erscheinen erst wieder, wenn der Nutzer sie benötigt. Gleiches sehen wir übrigens immer häufiger auch bei anderen Interaktionselementen wie beispielsweise den Scrollbalken (Abb. 2).

Scrollbar-Evolution bei Windows: Bei NUIs erscheinen diese nur noch wenn benötigt, ziehen sich also komplett zurück
Abb. 2: Scrollbar-Evolution bei Windows: Bei NUIs erscheinen diese nur noch wenn benötigt, ziehen sich also komplett zurück

 

Diese kontextsensitive Unterstützung durch Interaktionselemente oder Webdienste führt dazu, dass wir durch die Nutzung von natürlichen Benutzungsoberflächen (Natural User Interfaces) unser Ziel im Durchschnitt dreimal schneller erreichen als mit konventionellen, rein grafisch ausgerichteten Interaktionssystemen. Die Usability ist also um den Faktor 3 verbessert. Hier kommt natürlich auch das Phänomen zum Tragen, dass ein Nutzer im beschriebenen Beispiel den Finger nutzen kann und nicht mehr die Maus und den Cursor nutzen muss. Diese unmittelbare Form der Interaktion, also mit den Dingen, die einen Nutzer interessieren, direkt interagieren zu können, ist in den meisten Fällen wesentlich effizienter als die bis heute genutzte Methode, eine Computermaus auf einem Tisch zu bewegen, die ihrerseits einen Cursor bewegt, der dann wiederum eine Aktion bei Klick ausführen darf. Auch wenn viele von uns diesen umständlichen Weg mit dem Computer beziehungsweise seinen Anwendungen zu interagieren gelernt und jahrelang praktiziert haben, ist diese Art der Interaktion wenig natürlich und keineswegs intuitiv. Das sieht man unter anderem auch daran, dass ältere Menschen, die sich beim Umgang mit Maus und Cursor extrem schwer tun, mit Touchscreen-basierten Lösungen, zum Beispiel Apps auf dem iPad, wesentlich besser zurechtkommen und sie auch ohne Handbuch und Training bedienen können.

Was aber macht besonders die Produkte mit dem Apfel so begehrenswert und einfach zu nutzen? Oder sind sie noch gar nicht so einfach zu nutzen, wie sie es potenziell sein könnten?

Betrachten wir daher zunächst die wichtigste Komponente bei der Gestaltung von benutzungsfreundlichen Interaktionssystemen – den Menschen. Unter „Interaktionssystemen“ werden im Rahmen dieses Beitrags Produkte jeglicher Art (physische als auch immaterielle, analoge sowie digitale) betrachtet, mit denen wir Menschen auf unterschiedlichste Art und Weise interagieren.

Die physio-psychologische Einheit Mensch setzt sich aus diversen Sinnesorganen (Augen, Ohren, Nase usw.) zusammen, mit denen die Umwelt wahrgenommen wird. Mittels eines kognitiven Systems (Zentrales Nervensystem und Gehirn) wird diese als mentale Repräsentation mehr oder weniger unscharf abgebildet und kann mittels so genannter Aktoren (Hände, Beine, Geruch, Sprache usw.) beeinflusst werden (Anmerkung: Die Kollegen, die sich wissenschaftlich mit diesen Themen beschäftigen, mögen meine sehr oberflächliche und populistische Art der Betrachtung entschuldigen.). Dieser „Grundaufbau“ ist bei fast allen Menschen weltweit gleich und hilft uns, unsere Umwelt zu erschließen, zu verarbeiten und zu nutzen (Abb. 3).

OSIT: natürliches Handlungsschema aller Menschen
Abb. 3: OSIT: natürliches Handlungsschema aller Menschen (Erklärung des Modells weiter unten).

 

Sicherlich werden Sie sich nun die Frage stellen. was dies alles mit der Gestaltung intuitiv zu benutzender Produkte zu tun hat. Die Antwort: Sehr, sehr viel. Denn nur, wenn der Gestalter versteht, wie wir Menschen die Dinge wahrnehmen, kognitiv verarbeiten und wie wir agieren, ist er in der Lage, natürliche und intuitiv zu benutzende Produkte zu gestalten. Der Begriff „intuitiv“ ist immer an den Menschen und dessen Wissen, Fähigkeiten und Ausprägungen gekoppelt. Ein zentraler Aspekt dieser nächsten Generation an Human-Computer-Interface besteht also in seiner Natürlichkeit und intuitiven Nutzbarkeit.

Auf Seite 2 geht es unter anderem weiter mit den Aspekten „Von der Metapher zur Natürlichkeit“ und dem OSIT-Modell.


Quelle Aufmacherfoto: iStockphoto.com/DanCardiff

[ header = Teil 2: Von der Metapher zur Natürlichkeit und das OSIT-Modell ]

Von der Metapher zur Natürlichkeit

Schon die Väter der grafischen Benutzungsoberfläche (GUI) hatten erkannt, dass eine Metapher wie die des Desktops den Computer in seiner Bedienbarkeit benutzungsfreundlicher machen kann und folglich zu höherer Akzeptanz führt. Sie übertrugen also ein mentales Denk- und Handlungsmodell (Desktopmetapher) auf ein technisches Gerät, den Personal Computer, um diesen verständlicher zu machen.

Eine Metapher ist ein kognitives Modell, bei der ein Objekt (oder eine Handlung) nicht in seiner eigentlichen Form, sondern lediglich in seiner Bedeutung genutzt wird und „zwar so, dass zwischen der wörtlich bezeichneten Sache und der übertragen gemeinten eine Beziehung der Ähnlichkeit besteht“. Beispielsweise handelt es sich bei einem Button auf dem Display ja nicht um den Button selbst, sondern nur um ein Abbild eines physischen Buttons. Eine Metapher unterliegt damit aber auch immer einer Limitierung, nämlich, dass sie auf etwas verweist, anstatt es selbst zu sein. Sie ist also auch eine gedankliche Krücke, die uns zwar hilft, aber uns auch begrenzt.

Das bedeutet, wenn wir den Computer noch benutzungsfreundlicher und natürlicher benutzbar machen möchten, müssen wir die Hürde der Metapher überwinden und uns damit beschäftigen, was wirklich intuitiv für uns ist. Das führt uns zu der Frage: Wann ist etwas für uns Menschen intuitiv? Aus kognitionsergonomischer Sicht lässt sich hier sehr schnell eine Antwort geben: Etwas ist für uns intuitiv, wenn wir möglichst wenig kognitive Energie aufwenden müssen, sprich möglichst wenig darüber nachdenken müssen, wie etwas funktioniert. Das wiederum bedeutet, sich zu fragen, wann wir möglichst wenig über etwas nachdenken müssen. Die Antwort: Immer dann, wenn wir auf natürlich gelernte Handlungsschemata zurückgreifen können. Für Designer und Entwickler bedeutet das, herauszufinden, welches die natürlichsten und intuitivsten Handlungsschemata von uns Menschen sind und wie sie zum Beispiel dazu genutzt werden können, Objekte des Alltags benutzungsfreundlicher zu gestalten.

Zehn Wesensmerkmale von Natural User Interfaces

Die folgenden Richtlinien können Ihnen bei der Entwicklung von Natural User Interfaces hilfreich sein:

  1. Gute NUIs sind intuitiv bedienbar
  2. Gute NUIs sind dynamisch-adaptiv, passen sich also dem Nutzer und seinen Interessen an
  3. Gute NUIs unterstützen Multimedialität und Multimodalität
  4. Gute NUIs agieren nutzerzentriert
  5. Gute NUIs sind kooperativ und nicht nur interaktiv
  6. Gute NUIs geben ihren Nutzern unmittelbares und direktes Feedback
  7. Gute NUIs verhalten sich situativ-relevant und sind kontextsensitiv
  8. Gute NUIs erlauben unmittelbare direkte Interaktionen
  9. Gute NUIs sind intermedial, verknüpfen die reale mit der virtuellen Welt
  10. Gute NUIs unterstützen Multi-User-Verhalten

Das OSIT-Modell

Eines der intuitivsten, wenn nicht sogar das intuitivste Handlungsmodell von uns Menschen ist das so genannte OSIT-Modell (Abb. 4). OSIT ist ein Akronym und setzt sich aus den Anfangsbuchstaben von Orientieren, Selektieren, Informieren und Transagieren zusammen.

OSIT – natürliches Handlungsschema
Abb. 4: OSIT – natürliches Handlungsschema

 

OSIT leitet sich aus der Physiologie des Menschen ab. Das bedeutet, es existiert weltweit und gilt für jedes menschliche Individuum auf diesem Planeten, egal ob jung oder alt und unabhängig vom jeglichen Bildungs- und Entwicklungsstand. Jeder von uns nutzt dieses archaische mentale Modell tausende Male am Tag, ohne dass die meisten von uns je darüber nachgedacht haben, dass sie es nutzen, geschweige denn, dass die Mehrheit der Menschheit dieses Modell kennt – es ist eben intuitiv. Wie aber funktioniert OSIT, und wie kann es ein Gestalter oder Entwickler für seine Arbeit nutzen?

Hierzu betrachten wir zunächst einmal die einzelnen Handlungsschritte des Menschen bei der „Nutzung von OSIT“. Der erste Schritt, das Orientieren, dient uns Menschen bereits seit Tausenden von Jahren zum Überleben. Es geschieht in der Regel im Millisekundenbereich, ist multisensorisch (nutzt also alle Sinnesorgane) und dient dazu, uns schnell einen guten Überblick darüber zu verschaffen, was um uns herum passiert. Das „O“ hat also die Funktion, sich die Übersicht und damit Kontrolle über die Situation zu verschaffen. Haben wir uns diese Übersicht verschafft und besteht also „keine Gefahr für Leib und Leben“, beginnen wir mit der Sondierung unseres Umfelds, das heißt, wir wählen etwas aus, selektieren etwas. Das kann sowohl visuell durch reine Fixation des Sehpunkts als auch taktil durch die physische Auswahl geschehen. Selektion bedeutet also, etwas aus dem Vorhandenen auszuwählen. Der nächste natürliche Handlungsschritt besteht darin, sich das Ausgewählte näher zu betrachten. Hierzu „zoomen“ wir uns an die Selektion heran beziehungsweise führen die Selektion in den näheren Betrachtungsausschnitt. Wir nehmen beispielweise etwas und halten es näher vor unsere Augen oder wir gehen näher an etwas heran, um es zu beriechen. Nachdem wir uns über das Objekt informiert haben, führen wir in der Regel eine Handlung mit dem Objekt durch. Beispielsweise legen wir ein Paket Toastbrot, nachdem wir dieses aus dem Regal genommen haben (Selektion) und das Haltbarkeitsdatum sowie den Preis betrachtet haben (Information), in den Warenkorb (Transaktion).

Natürlich sind die kognitiven Vorgänge innerhalb des OSIT-Modells wesentlich komplexer als hier dargestellt, dennoch reicht uns im Rahmen des Natural User Interface Designs diese abstrakte Darstellung erst einmal aus, um zu verstehen, wann etwas für uns Menschen intuitiv ist – nämlich dann, wenn wir auf das beschriebene mentale Modelle OSIT zurückgreifen können.

Möchte man also ein Interaktionssystem möglichst natürlich und intuitiv handhabbar gestalten, kommt man um das OSIT-Modell nicht herum. So wundert es denn auch nicht, dass Apple, Google oder Microsoft auf das entsprechende Modell bei der Entwicklung ihrer neuen Betriebssysteme zurückgreifen, wollen sie doch alle wesentlich benutzungsfreundlicher, natürlicher und intuitiver sein als die vorangegangenen Systeme sein.

OSIT-Modell Softwareschema
Abb. 5: OSIT-Modell Softwareschema

 

Auch wenn das Beschriebene zunächst für viele Gestalter und Entwickler, die sich mit Natural User Interfaces und deren Design beschäftigen, fremdartig klingen mag, so ist es doch genau das, was Steve Jobs mit seiner Aussage „Think different – it’s all about people and changing their minds“ zum Ausdruck bringen wollte. Der Paradigmenwechsel von GUI zu NUI bedarf einer anderen Art des Denkens, sonst wird die neue Dimension der Usability und User Experience nicht erreicht und die Probleme des Alltags werden nicht beseitigt, sondern nur gemanaged.

Das OSIT-Modell in der Anwendung

Bewegen wir uns nun von dieser etwas abstrakten Beschreibung hin zur konkreten Anwendbarkeit. Wie bereits beschrieben, ist der Mensch in der Lage, mentale Handlungsmodelle zu übertragen (siehe das Beispiel der Metapher weiter oben). So kann das OSIT-Modell dazu genutzt werden, Software wesentlich benutzungsfreundlicher zu gestalten, indem seine Prinzipien auf diese übertragen werden (Abb. 5). Im Folgenden wird kurz skizziert, wie das möglich ist.

ORIENTIEREN

In diesem Bereich geht es darum, einem Nutzer einen möglichst guten Überblick über das vorhandene Angebot zu geben. Hierbei geht es nicht um Details, sondern um den Überblick. Der Nutzer sollte jederzeit die Möglichkeit besitzen, die Einstiegstiefe selbst zu bestimmen. Beispielsweise bei kartografischen Einstiegen à la Google-Maps kann der Nutzer entscheiden, ob er als Einstieg (Übersicht) die Welt, das Land oder die Stadt haben möchte, oder ob sich sogar die Welt gemäß seinen Wünschen, beispielsweise „zeige mir die Welt nach CO2-Emissionsgröße an“, anpassen soll. Auf der O-Ebene geht es also darum, einem Nutzer einen guten Überblick über das Vorhandene sowie Filter- und Sortiermöglichkeiten für das dargestellte Angebot zu geben (Abb. 6).

Beispiel des OSIT-Modells in einer Anwendung: Übersicht über das Angebot, inkl. möglicher Filteroptionen auf das Angebot
Abb. 6: Beispiel des OSIT-Modells in einer Anwendung: Übersicht über das Angebot, inkl. möglicher Filteroptionen auf das Angebot (Quelle: www.hd-plus.de/#/alles-ueber-hd-plus/produktfinder)

SELEKTIEREN

Die Auswahl eines vorhandenen Objekts sollte durch möglichst natürliche, also direkte, unmittelbare Interaktion, möglich sein: beispielsweise per Touch auf das, was ausgewählt werden soll oder zum Beispiel per Sprachauswahl. Sämtliche zwischen diese Beziehung gelegten „Hürden“ wie eine Maus und ein Cursor machen die Interaktion unnatürlicher. Beim Verhalten der Auswahl ist zudem darauf zu achten, dass sich das ausgewählte Objekt mittig zentriert auf den Nutzer zu bewegt, also quasi an ihn heranzoomt (Abb. 7). Jegliche Abweichung wird wiederum als unnatürlicher und folglich unangenehmer im Nutzungserlebnis (User Experience) gewertet.

Auswahl eines Produkts: Das Produkt bzw. dessen visueller Repräsentant bewegen sich auf den Nutzer zu
Abb. 7: Auswahl eines Produkts: Das Produkt bzw. dessen visueller Repräsentant bewegen sich auf den Nutzer zu (Quelle: www.hd-plus.de/#/alles-ueber-hd-plus/produktfinder)

INFORMIEREN

Beim Informieren sollte der dargestellte Inhalt die zentrale Mitte der Wahrnehmung einnehmen, sich also möglichst mittig und prägnant darstellen beziehungsweise abspielen, und die anderen Objekte sollen sich zurückziehen, also in den Hintergrund treten. So sollte visueller Content mittig zentriert auf einem Bildschirm auftauchen (Abb. 8). Ein Prinzip, das übrigens Lightboxen oder mittig aufzoomende Fenster verfolgen.

Informieren: Das Produkt hat sich displayzentriert auf den Nutzer zu bewegt
Abb. 8: Informieren: Das Produkt hat sich displayzentriert auf den Nutzer zu bewegt (Quelle: www.hd-plus.de/#/alles-ueber-hd-plus/produktfinder)

TRANSAGIEREN

Da der Schritt des Transagierens eine durch Aktoren (zum Beispiel unsere Hände) anstatt durch Sensoren ausgeführte Handlung ist, sollten die Transaktionsoptionen natürlicherweise auch wieder in dem Transaktionsobjekt selbst zu finden sein (Abb. 9). Dieses Phänomen wurde bereits weiter oben als Inner Service beschrieben.

Transagieren: Die Handlungsoptionen erscheinen aus dem Objekt heraus
Abb. 9: Transagieren: Die Handlungsoptionen erscheinen aus dem Objekt heraus (Quelle: www.hd-plus.de/#/alles-ueber-hd-plus/produktfinder)

 

An dieser Stelle wird die bereits oben beschriebene Komplexität von OSIT im Detail spürbar, da zum Beispiel schon das Transagieren an sich durchaus auch wieder eine Selektionshandlung darstellen kann. An dieser Stelle soll dieses Thema jedoch nicht weiter vertieft werden, da es für die Nutzung des OSIT-Modells im Rahmen des Natural User Interface Designs nur von sekundärer Bedeutung ist.

Orientieren/Überblick am Beispiel Windows 8
Abb. 10: OSIT-Modell: Orientieren/Überblick am Beispiel Windows 8

 

Fazit

Grundsätzlich kann festgehalten werden, dass, wenn etwas möglichst natürlich und intuitiv nutzbar gestaltet werden soll, es zunächst darum geht, die Dinge von ihrer Natur, ihrem Wesen her zu verstehen und erst dann entsprechende Gestaltungsansätze hieraus abzuleiten. Auch wenn das alles zunächst ein wenig abstrakt anmutet, so wird nur durch die Erkenntnis des Dargestellten und durch das sich daraus ableitende neuartige Denken der anstehende Wandel von GUI zu NUI verstanden werden können. Einmal verstanden, bedeutet das aber gleichzeitig auch, die nachhaltige UI-Basis für die nach Smartphone und Tablet kommenden Interaktionssysteme kreiert zu haben, denn die entwickelten Prinzipien lassen sich auf PC-Brillen (Goggles) und Augmented Reality 1:1 übertragen, da sie sich am Menschen und nicht an der Technologie orientieren.

Essenzielle Prinzipien zur Entwicklung von Natural User Interfaces
  1. Um möglichst intuitiv zu sein, sollte der strukturelle Aufbau eines Interaktionssystems dem OSIT-Modell folgen. Stellen Sie den Nutzer und seine Interessen, Erfahrungen und Bedürfnisse in den Mittelpunkt der Gestaltung und offerieren Sie die angebotenen Inhalte nutzerorientiert (User Centered Design Process). Die Grundsystematik des Interaktionssystems, wenn nicht natürlich, muss schnell zu erlernen und nachhaltig erinnerbar sein. Zudem sollte das NUI-Verhalten der natürlichen Sprachen- und Gestenwelt der Nutzer entsprechen. Beobachten Sie also, was für einen jeweiligen Nutzer natürlich ist.
  2. Gute NUIs unterstützen Multimodalität, ermöglichen also mehrere Wege der Interaktion. Beachten Sie, dass circa 95 Prozent der heutigeren Bildschirmgesten reine Single-Touch und nicht Multitouch-Gesten sind. Das bedeutet: Ein gutes Natural User Interface unterstützt beide Gestenformen, sowohl Single- als auch Multitouch. Da Menschen natürlicherweise mehrere Aktoren, also z. B. Hände und Sprache, zur Interaktion gleichzeitig einsetzen, sollten diese multimodalen Eingabemöglichkeiten auch immer parallel nutzbar sein.
  3. Bei guten NUIs sollte alles ein Verhalten besitzen. Denken Sie also in Bewegung und nicht nur in Aussehen. Nicht mehr die Gestaltung des Aussehens, sondern die Gestaltung des Verhaltens rückt in den Mittelpunkt des designerischen Denkens. Objekte am Bildschirm sollten zoomfähig sein, sich bei Bedarf also auf einen Nutzer zu bewegen können, ähnlich dem Prinzip der Lightbox. Bildschirmobjekte sollen sich zum Nutzer hin ausrichten, also nutzerzentriert erscheinen. Natural User Interfaces sollen sich kontextsensitiv und adaptiv verhalten, also den Interessen, Bedürfnissen und Erwartungen eines Nutzers anpassen. NUI-Objekte sollen sich immer dynamisch öffnen, vergrößern oder zurückziehen, damit der Nutzungskontext für einen Nutzer erhalten bleibt. NUI-Systeme müssen immer direktes, unmittelbares Feedback (auditiv, taktil oder visuell) geben. Latenzzeiten hierfür sollten unter zwei Sekunden (idealerweise bei einer 25stel Sekunde) liegen.
  4. Die besten NUIs offerieren Ihrem Nutzer kontextsensitive Dienste. Denken Sie daher immer darüber nach, welcher Dienst ‒ und nicht, welche Funktion ‒ für einen Nutzer die höchste Annehmlichkeit (Convenience) und beste Usability bietet. Die Gestaltung von Diensten (Servicedesign) nimmt eine zunehmend wichtigere Rolle ein.
  5. Gute NUIs sind phänomenologisch aufgebaut. Das bedeutet, dass das jeweils für einen Nutzer Notwendige immer in dem Objekt selbst steckt (Inner Service) und nicht an anderer Stelle platziert wurde.
  6. Think situative relevant: Funktionen erscheinen kontextsensitiv, und der visuelle Rahmen passt sich den spezifischen Umfeldbedingungen an (Responsive Design).
  7. Überprüfen Sie mittels der wesensspezifischen Merkmale, ob Ihr gestaltetes Natural User Interface alle Kriterien berücksichtigt.

 

Unsere Redaktion empfiehlt:

Relevante Beiträge

Meinungen zu diesem Beitrag

X
- Gib Deinen Standort ein -
- or -