User Interfaces der Zukunft:
Wie nutzen wir übermorgen unsere Computer?

In den vergangenen Jahrzehnten hat sich die Art und Weise, wie wir mit Computern interagieren, radikal verändert. Die größten Umbrüche aber stehen uns noch bevor. Dieses Special nimmt euch mit auf eine Reise von der Vergangenheit über die Gegenwart bis hin in die spannende und spekulative Zukunft der User Interfaces.

Iron Man

Hollywood hat die Ideen, an denen man dann 700 km weiter nördlich im Silicon Valley forscht – und umgekehrt. Aber wie können wir uns die Zukunft wirklich vorstellen?

Hier auf neuerdings.com beschäftigen wir uns nicht nur mit dem, was es jetzt gibt oder was bald kommt. Wir wollen auch immer wieder einen Blick in die fernere Zukunft werfen, damit wir wissen, worauf wir uns vorbereiten und freuen oder aber auch worüber wir uns Sorgen machen müssen. Natürlich geht es dabei immer um Technologie, um Erfindungen, um neue Geräte, aber auch um Ideen, um Pläne, um Visionen.

Heute also die Frage: Wie gehen wir künftig mit Computern um? Wobei sich dabei schon die Frage stellt: Was ist zukünftig eigentlich ein “Computer”? Dieses Thema wäre schon allein einen eigenen Artikel wert. Kurz gesagt: Computer werden zunehmend unsichtbar. Das fassbare Gerät, das man als Computer erkennt und wahrnimmt wird nur noch einen kleinen Teil ausmachen. Das Stichwort hier: ubiquitous computing – allgegenwärtige Computer und Rechenkraft. Chips werden sich in immer mehr Alltagsgegenständen finden, Internetzugang ist so selbstverständlich und universell verfügbar wie fließend Wasser oder Strom, Geräte müssen nur noch einen Teil ihrer Rechenkraft wirklich selbst besitzen, den Rest bekommen sie aus dem Netz.

Und allein, wenn man das im Hinterkopf hat, wird schon deutlich, dass wir mit dem heutigen Modell Maus-Tastatur-Bildschirm nicht mehr sehr weit kommen.

Wir sind weit gekommen…

Zuse Z22

Zuse Z22 im Technikmuseum Berlin. (Bild: JuergenG, Wikimedia Commons. Lizenz: CC BY-SA 3.0)

Aber werfen wir doch zuerst einen Blick zurück. Wie hat sich die Interaktion zwischen Mensch und Maschine bereits verändert? Wenn man so will, gibt es hier eine klare Stoßrichtung: Die Bedienung des Computers immer natürlicher zu machen.

Anfangs waren Input und Output höchst abstrakt und nur von geschulten Fachleuten zu verstehen. Ob es darum ging, Schalter auf eine bestimmte Weise umzulegen oder den Rechner mit Lochkarten zu steuern: Es war nichts, was sich jemand hätte ohne Anleitung erschließen können.

Eine Verbesserung stellt da schon die Befehlszeile dar. Auch sie erklärt sich nicht von allein, aber mit Befehlen, die sich zumindest an Sprache anlehnen, ist sie schon ein Stück dichter am Menschen dran. Was man machen kann und womit, muss man allerdings zunächst einmal wissen.

Windows 95

Windows 95 könnte man als Durchbruch der grafischen Benutzeroberfläche im Massenmarkt ansehen. (Bild: hanul, flickr.com. Lizenz: CC BY 2.0)

Grafische Benutzeroberflächen wiederum lassen sich durchaus ausprobieren – den Zusammenhang zwischen Maus und Pfeil auf dem Bildschirm sowie die Funktion der Maustasten muss man allerdings noch immer erst einmal verstehen. Auch was ein “Fenster” ist, was ein Programm, ein Ordner oder eine Datei, ist schon dichter dran an unseren alltäglichen Erfahrungen aber nicht für jeden sofort verständlich. Dennoch hat die grafische Benutzeroberfläche sicherlich sehr dabei geholfen, den Computer massenhaft in die Haushalte zu bringen. Interessanterweise hat sich die Funktionsweise einer solchen grafischen Benutzeroberfläche kaum verändert. Natürlich sieht Windows 8 heute anders aus als beispielsweise Windows 95, oder OS X anders aus als das Betriebssystem des ersten Macintosh 1984. Aber jeder heutige Computernutzer würde sich auf den alten Geräten prinzipiell zurechtfinden.

Einen neuerlichen Fortschritt brachte das Thema Touch und hier insbesondere der Ansatz, ganz und gar auf Fingerbedienung zu setzen. Funktionen sind jetzt nicht mehr (zwingend) in Menüs oder per Tastenkombinationen aufzurufen, sondern durch Fingergesten. Will man ein Bild drehen, fasst man es an und dreht es. Will man etwas vergrößern, macht man die inzwischen weitläufig bekannte Fingergeste. Um weiterzublättern, schiebt man den Inhalt zur Seite, anstatt mit dem Mauszeiger auf ein Pfeilelement zu zeigen und zu klicken.

Multitouch

Eine Touchbedienung ist erst einmal leicht zu verstehen. Die Tücke liegt manchmal noch im Detail.

Alles in allem kann Touch die Interaktion zwischen Mensch und Maschine weiter vereinfachen. Richtig erfolgreich ist es dann, wenn man als Nutzer ganz vergisst, dass man es in Wirklichkeit mit einem Tablet zu tun hat. Das Gerät verschwindet hinter der wechselnden Funktion, die es erfüllt.

Man sollte bei aller Begeisterung aber dennoch nicht verheimlichen, dass auch die Touch-Bedienung noch ein gutes Stück von der perfekten Vorstellung entfernt ist. Längst nicht alle Funktionen erschließen sich allein durch Ausprobieren und für manche Anwendungsfälle ist sie auch weniger geeignet, als andere, klassische Eingabegeräte.

Und damit sind wir in der Gegenwart angekommen, in der wir bereits einige Vorzeichen auf die Zukunft entdecken.

Sprachsteuerung

Es wird schon eine ganze Weile daran geforscht, dass sich Menschen mit Computern unterhalten können. Vorboten dazu waren und sind die unsäglichen automatischen Callcenter. Sprachbefehle bei Handys waren schon eine Verbesserung, aber man musste noch immer damit umzugehen lernen. Nur einige Funktionen waren erreichbar und die auch nur über bestimmte, vorgegebene Befehle. Siri kann da schon mehr und versucht zumindest, eine Art Gesprächssituation zu simulieren – versteht aber auch längst nicht alles und ist zum jetzigen Stand der Dinge funktional stark begrenzt.

Und selbst wenn die Sprachsteurung in Zukunft perfekt funktioniert, heißt das noch lange nicht, dass Computer dann tun, was wir wollen:

Sprachsteuerung ist an verschiedenen Stellen sinnvoll:

1. Wenn Hände und Augen gerade mit etwas anderem beschäftigt sind. Typisches Beispiel: Man fährt Auto. Abgesehen von der Tatsache, dass auch eine Sprachsteuerung dann noch immer eine gefährliche Ablenkung sein kann, bleibt man mit den Händen am Lenkrad und die Augen schauen auf die Fahrbahn.

2. Wenn es um komplexe Abfragen geht. Was man sonst nur mit mehreren Klicks oder Taps ausführen könnte, lässt sich leichter in einen Satz kleiden, anstatt aus Menüs auszuwählen und es einzutippen. Wichtig hier natürlich wie schon erwähnt: Das System muss Alltagssprache sicher erkennen und interpretieren.

Sitz man aber sowieso am Computer oder hat das entsprechende Gerät in der Hand, ist eine App beispielsweise auf die althergebrachte Weise oft schneller geöffnet. Schließlich funktioniert Sprachsteuerung nach heutigem Stand erst nach Aktivierung. Bis sie bereit steht, man seinen Befehl gesagt hat, er verstanden und ausgeführt wurde hat man ihn auch selbst ausgeführt.

Dennoch: Die Spracherkennung muss schneller werden, zuverlässiger und vor allem universell einsetzbar. Es ist wahrscheinlich, das genau dies in den nächsten Jahren passiert und wir beispielsweise 2023 mit großer Selbstverständlichkeit mit Computern im Dialog stehen.

Gesten und Mimik

Die inzwischen berühmte “Minority-Report-Gestensteuerung” hat vielfach die Fantasie angeregt. Und tatsächlich sieht es zumindest im Film ungeheuer elegant aus, alles nur mit dem Wischen der Hände zu steuern. Ansätze, so etwas Wirklichkeit werden zu lassen, gibt es inzwischen eine Menge. Microsoft Kinect, Oblong g-speak , Leap Motion, Myo… um nur einige zu nennen.

Leap Motion

Gestenkontrolle wie hier mit dem Leap Motion steckt noch in den Kinderschuhen.

An sich ist die Bedienung hier recht ähnlich wie bei Touch. Es geht darum, dass wir als Nutzer die Objekte direkt manipulieren, anstatt indirekt über Menüs und Klicks. Wie man in Beispielvideos aber immer wieder sieht, kommt man auch hier nicht ohne spezielle Gesten aus. Es gibt nun einmal in unserem alltäglichen Gesten-Sprachschatz keine Entsprechung für “Datei schließen”. Man kann als Entwickler hier nur versuchen, die entsprechende Geste an etwas zu orientieren, was wir bereits kennen. Hier lauert die Falle dann in kulturellen Unterschieden weltweit.

Und wie ich bei meinem Test des Gesten-Controllers Leap Motion frustvoll erfahren musste: Die Erkennung muss wirklich perfekt funktionieren.

Neben dem Erkennen von Gesten gibt es Projekte, die sich der Mimik widmen. Kann der Computer den Gesichtsausdruck seines Benutzers interpretieren, könnte ihm das wiederum helfen, den Kontext und die aktuelle Situation besser zu verstehen.

Automatisierung und KI 

Eine besonders spannende Richtung, die Interaktion zwischen Mensch und Maschine zu verbessern, setzt wiederum an einer ganz anderen Stelle an: Sie will die  Rollenverteilung verändern.

Bislang ist es so, dass der Mensch der Maschine einen Auftrag erteilt und dann das Ergebnis zurückbekommt – Input und Output. Erst wenn der Mensch aktiv wird, wird der Computer aktiv. Wäre es nicht viel besser, wenn der Computer wie ein allwissender Assistent und Freund jederzeit wüsste, welche Informationen wir gerade brauchen?

Google Now

Google Now will vorausahnen, welche Informationen man braucht – mit manchmal seltsamen Ergebnissen.

Die ersten Ansätze sieht man dazu schon heute. Beispiel: Google Now. Es ist seit Android 4.1 “Jelly Bean” Teil von Googles Mobile OS Android und wird von Wikipedia den “Intelligent Personal Assistants” zugeordnet. Die Nutzer finden hier die Sprachsuche für Google. Viel wichtiger aber: Google Now versucht aus zahlreichen Informationen zu ergründen, was für den Anwender in diesem Moment gerade wichtig zu wissen ist und will diese selbstständig anzeigen. Wenn es funktioniert, ist ein so faszinierendes wie manchmal auch unheimliches Erlebnis.

Google Now kann dabei alle Informationen heranziehen, die man als eingeloggter Google-Nutzer hergibt. Dazu gehören Websuchen, aber auch Adresssuchen in Google Maps oder gar Inhalte von E-Mails sowie Kalendereinträge. Außerdem nutzt Google Now den aktuellen Ort.

Als Nutzer bekommt man in der aktuellen Version nach dem Aufrufen von Google Now verschiedene Informationskärtchen untereinander angezeigt. Standardmäßig erfährt man hier das aktuelle Wetter. Weitere Möglichkeiten sind interessante Nachrichten zu eigenen Interessen, Erinnerungen an Geburtstage und Termine oder im Urlaub auch Hinweise auf Fotogelegenheiten, den aktuellen Umrechnungskurs und einiges mehr. Wenn man Google Now die eigenen Wohn- und Arbeitsadresse mitteilt, reagiert es darauf und teilt einem beispielsweise mit, wie lange man für den Weg brauchen wird. Das funktioniert auch mit Terminen im Kalender, sofern ein Ort genannt ist: Google Now sagt rechtzeitig Bescheid, wann man los müsste, um rechtzeitig anzukommen.

Die ersten Mal wundert man sich, wenn man am Rechner sitzend eine Adresse in Google Maps gesucht hat und das eigene Smartphone einem dann selbstständig sagt, wie man dorthin kommt und wie lange man vom aktuellen Standort aus bräuchte. Aber hat man sich einmal daran gewöhnt, möchte man noch viel mehr solche Informationen bekommen – so ging es jedenfalls mir.

Kontextbasierte Systeme, die außerdem laufend dazulernen, werden den Umgang mit Computern künftig stark verändern. Sie sind dabei nicht so spektakulär anzuschauen, wie das Herumwedeln von Tom Cruise in “Minority Report”, dabei aber deutlich nützlicher.

Gedankensteuerung

Neurowear Mico

Der Neurowear Mico ist noch keine ausgewachsene Gedankensteuerung, soll aber auf Gemütszustände reagieren.

Perfekt wäre darüber hinaus eine direkte Verbindung zwischen Gehirn und Computer. Man denke sich die Interaktion mit einem Rechner so wie mit der eigenen Hand oder den eigenen Beinen. Hat man seine Körperkoordination einmal in jüngsten Jahren gemeistert, denkt man nicht mehr darüber nach. Es funktioniert einfach. Wir greifen etwas, ohne uns dessen noch bewusst zu sein.

Zwar wird auch an dem Punkt “Gedankensteuerung” intensiv geforscht, aber noch ist hier ein langer Weg zu gehen. Hautproblem: Die Hirnwellen sind schlichtweg zu individuell. Es gibt deshalb zwar durchaus schon Systeme, bei denen man einfache Befehle durch Gedanken ausführen kann. Aber diese benötigen auch für simple Tätigkeiten ein entsprechendes Training. Das gilt jedenfalls heute und kann morgen ganz anders aussehen, erst recht übermorgen.

Die Möglichkeiten einer solchen direkten Verbindung wären jedenfalls schier endlos. Man stelle sich die eigenen Wohnung, ein Auto oder ein anderes Hilfsmittel als direkte Verlängerung und Ergänzung des eigenen Körpers vor und das Gehirn als Teil des Internets.

Die eigentliche Revolution: alles kombiniert

Bei der Frage, was sich von diesen Möglichkeiten durchsetzt, gibt es nur eine Antwort: alles. Jedes eben auf seine Weise. Geschickt kombiniert können Sprachsteuerung, Gestenerkennung und intelligente Assistenten die Interaktion zwischen Mensch und Maschine auf eine ganz neue Ebene heben. Sollte einmal die Gedankensteuerung tatsächlich alltäglich einsetzbar sein, könnte sie das Zusammenspiel noch perfektionieren.

Eines scheint mir klar: Menschen und Computer, Hirnströme und Datenströme werden sich vereinen. Denn das hat viele Vorteile und eröffnet zahlreiche neue Möglichkeiten. Also wird man es machen.

 

Jan Tißler

Jan Tißler ist Leitender Redakteur von neuerdings.com und Autor auf netzwertig.com. Er ist fasziniert von Technik und ein leidenschaftlicher Internetintensivnutzer.

2 Kommentare

  1. Warum ist dieser Artikel in voller Länge gepostet,ich scrolle mir nen Wolf um an die interessanten (für mich) zu gelangen. Einen schönen Sonntag. Peter.

    • Stimmt ! Habe mich auch geärgert weswegen nicht speziell für meine Bedürfnisse geblogt wurde.

      Bei über 300’000 Unique Visitors pro Monat müsste es doch möglich sein, dass auf jeden separiert eingegangen wird.

      Ferner wird im Artikel explizit auf ,, Gedankensteuerung” eingangen, hier stellt sich die Frage weswegen dies überhaupt angesprochen werden muss ?!

      Und mit 8 Redakteuren sollte das überhaupt kein Problem sein und wenn nicht gibts ja noch ,,Edward Nygma” der fängt Gehirnströme auf ;-p

      LG
      Flo

Kommentar schreiben

Wir sind sehr an einer offenen Diskussion interessiert, behalten uns aber vor, beleidigende Kommentare sowie solche, die offensichtlich zwecks Suchmaschinenoptimierung abgegeben werden, zu editieren oder zu löschen. Mehr dazu in unseren Kommentarregeln.

* Pflichtfelder