UX

Das Ende des Touchscreens?

Wie sich Touch auf die UX auswirkt
3 Kommentare

Heutzutage gehört es zum Standardrepertoire eines jeden Designers, das User Interface auf Touch-Eingaben zu optimieren. Nur selten wird allerdings gefragt, wie sich die Berührungsfunktion konkret auf die User Experience auswirkt. Zwei Beispiele belegen, dass Touchscreens womöglich schon bald der Vergangenheit angehören können.

Etwas zu berühren ist schon immer essentiell für die Wahrnehmung der Menschen und mit starken Emotionen besetzt. Durch die mobile Revolution und die massenhafte Verbreitung von Smartphones weitet sich die Berührungsfunktion auch auf unseren Umgang mit digitalen Geräten und Produkten aus.

Touchscreens werden heutzutage nahezu in jedes Device eingebaut. Die zugehörige Gestaltung des User Interface als Benutzerschnittstelle zwischen der Interaktion von Mensch und Maschine ruft in der Regel keine Gefühlsausbrüche hervor. In den letzten Jahren war vielmehr eine Entwicklung im Bereich des digitalen Designs zu beobachten, die sich als Standardisierung von Webpatterns und Frameworks bezeichnen lässt.

UI-Designs zeichnen sich heute kaum noch durch ausgefallene oder innovative Entwürfe aus, sondern orientieren sich an technischen und funktionalen Vorgaben.

Zwischen Emotion und Funktion

Die Vereinheitlichung der visuellen UI-Elemente kann charakterisiert werden als Trennung zwischen Emotion und Funktion. Das führt jedoch oft zu dem Irrglauben, dass die einwandfreie technische und funktionale Anpassung des User Interfaces an Touch-Oberflächen automatisch eine gute User Experience nach sich zieht.

Besonders bei der Steuerung von Bedienoberflächen kann man beobachten, wie sich UX-Bausteine immer weiter von UI-Elementen emanzipieren. Die User Experience besitzt eine eigene Qualität, bei der emotionale Fragen durchaus eine Rolle spielen – schließlich geht es um die Zufriedenheit der Nutzer.

Der Einfluss von Touch-Bedienoberflächen auf die User Experience eines Projekts ist mittlerweile größer als gedacht. Die Analyse und Auswertung der User-Interaktionen sind nicht mehr länger nur helfendes Beiwerk, um das User Interface zu verbessern. Sie stellen bei digitalen Produkten mittlerweile einen eigenen und ernstzunehmenden Forschungsbereich dar.

Intelligente Textilien

Project Jacquard ist Googles Versuch, intelligente Textilien zu produzieren. Die Forschungsabteilung des Unternehmens hat ein Verfahren entwickelt, durch das dünne Metallfäden in handelsübliche Stoffe verwoben werden können. Ihre Produktion ist besonders kosteneffizient, da die Weiterverarbeitung durch herkömmliche industrielle Webstühle erfolgen kann.

“It’s probably bad news for people who like to wipe their hands dry on their pants.”

Durch die Technik von Google ist es möglich, nahezu jedes Kleidungs- und Möbelstück in eine interaktive Oberfläche zu transformieren. Angetrieben werden die intelligenten Textilien durch kleine Steckverbindungen und winzige Schaltkreise, die nicht größer sind als die Knöpfe einer Jacke.

Die Übertragung der Bewegungen erfolgt per WiFi an Smartphones oder Tablets. Mobile Apps und Services können so unabhängig von Touchscreen und User Interface per Berührungsgesten gesteuert werden.

Radartechnik und Handbewegungen

Projekt Soli treibt die Entwicklung noch einen Schritt weiter. Im Gegensatz zu Jacquard wird auf Bedienoberflächen gänzlich verzichtet – alles was man zur Steuerung benötigt, sind die eigenen Hände. Möglich macht das ein Sensor, der die Finger- und Handbewegungen mittels Radartechnik erkennt und auswertet.

“We want to break the tension between the ever-shrinking screen sizes used in wearables, as well as other digital devices, and our ability to interact with them.”

Gegenüber Kameras ist die Technik deutlich präziser und kann Bewegungen im Millimeter-Bereich schnell und akkurat wahrnehmen. Die Methode soll vor allem bei kleinen Bildschirmen für mehr Eingabekomfort sorgen.

Die Smartwatch könnte in Zukunft nicht mehr allein durch Sprachsteuerung, sondern hauptsächlich durch Gestensteuerung bedient werden – ein großer Pluspunkt für viele Nutzer in der Öffentlichkeit. Um beispielsweise die Lautstärke zu erhöhen, muss man nicht mehr länger einen verbalen Befehl an sein Handgelenk richten, sondern nur Daumen und Zeigefinger aneinander reiben.

Fazit

Touchscreens werden in Zukunft nicht vollständig aus unserem Leben verschwinden – sie verlieren aber ihren exklusiven Status als Eingabegerät. Ob nun intelligente Textilien oder Radartechnik: Die Möglichkeiten zur Steuerung von mobilen Geräten durch Touch-Eingaben wird immer vielfältiger.

Die Entwicklung lässt sich weniger mit Blick auf die UI, sondern eher mit Fokus auf die UX nachvollziehen. Ein Trend kann auch erkannt werden: Die Bedeutung von User Interfaces wird mit der Abnahme von Touchscreens weiter zurückgehen. Schreitet die Entwicklung im gleichen Tempo voran, mag der Titel des Buchs von Golden Krishna „The best interface is no interface“ schon bald zum neuen Buzzword innerhalb der Branche werden.

ML Conference 2019

Workshop: Machine Learning 101++ using Python

mit Dr. Pieter Buteneers (Chatlayer.ai)

Honey Bee Conservation using Deep Learning

mit Thiago da Silva Alves, Jean Metz (JArchitects)

Python Summit 2019

Daten analysieren und transformieren mit Python

mit Doniyor Jurabayev (Freelancer)

Advanced Flow Control

mit Oz Tiram (noris network AG)

Aufmacherbild: Hand touching blank screen via Shutterstock / Urheberrecht: Olga Lebedeva

Unsere Redaktion empfiehlt:

Relevante Beiträge

Hinterlasse einen Kommentar

3 Kommentare auf "Wie sich Touch auf die UX auswirkt"

avatar
400
  Subscribe  
Benachrichtige mich zu:
trackback

[…] Wie sich Touch auf die UX auswirktTextualität – Responsive-Design-Fehlerbehebung, Design-Webinar, iOS 9 GUIs und ElidoWas UX-Designer von Architekten lernen könnenA/B-Tests – Conversion und User Experience verbessern [Infografik] […]

trackback

[…] Experience Dossier – Teil 1: UI versus UXWie sich Touch auf die UX auswirktTextualität – Responsive-Design-Fehlerbehebung, Design-Webinar, iOS 9 GUIs und ElidoWas […]

trackback

[…] auf die User Experience auswirkt. Und was kommt eigentlich nach dem Touchscreen? Der Beitrag „Wie sich Touch auf die UX auswirkt“ erklärt, wie es um die Touchscreens steht und stellt zwei Ansätze vor, die das UX-Design der […]

X
- Gib Deinen Standort ein -
- or -