Das neue Interface-Paradigma
Text: Felix Knoke aus De:Bug 172

Interface_01_72dpi

Mit den Touch-Interfaces endet eine Zeit, in der ein Mensch die Maschine berührte und ihr seinen Willen aufzwang. Das alte Pradigma der Mensch-Maschine-Schnittstelle wird durch ein komplexeres Interaktionsmodell ersetzt. Die Oberfläche des Menschen selbst wird die Schnittstelle, auf die Maschinen zugreifen.

Text: Felix Knoke

Der Touchscreen war kein technologischer Evolutionssprung in der Bedienung von Computern, sondern der letzte Atemzug eines überkommenen Interface-Paradigmas: Der Mensch zeigt dem Computer, was er zu tun hat. Neue Ansätze werden den Bildschirm in seiner Rolle als wichtigster Kommunikationskanal herabstufen und durch ein viel komplexeres Interaktionsmodell ersetzen, in dem Mensch und Maschine gemeinsam Ziel und Zielerreichung aushandeln. Und nichts verdeutlicht diesen subtilen Wandel besser, als das seltsame Revival der Armbanduhr.
Apple macht eine, Samsung macht eine, Google soll eine machen, Microsoft wird eine machen – ach, alle machen bald eine Smartwatch: Rechner am Handgelenk, Fernsteuerung, Lebens-Sensor, und die Uhrzeit anzeigen können sie auch. Doch die neuen Smartwatch-Konzepte unterscheiden sich radikal von älteren Versuchen, einen Computer am Handgelenk zu installieren. Ihre zentrale Aufgabe ist die eines Sensors, der unser Leben trackt und uns ans Internet der Dinge anschließt. Sie sind mehr teilnehmende Beobachter des Alltags als Wecker mit E-Mail- Funktion. Aber ihre wahre Macht werden sie preisgeben, sobald sie uns die Kontrolle bisheriger “smarter” Geräte abnehmen und uns von unserer technischen Umwelt entkoppeln werden. Die Uhr am Handgelenk ist die ständige Vertretung der Datenwelt in unserem Leben. Die Smartwatch macht uns nicht smarter, sondern digitalisiert unseren Alltag, speist ihn in die Big-Data-Sammelstellen ein und macht ihn so anschlussfähig.

SmartWatch_72dpi

Der Blick der Uhr auf uns
Hinter dieser Entwicklung steht die Idee eines perfekten Werkzeuges, wie es technisch erst jetzt möglich wird: “Die tiefgreifendste Technik ist die, die unsichtbar wird. Sie fügt sich in den Alltag ein, bis sie nicht mehr von ihm zu unterscheiden ist”, schrieb 1991 Mark Weiser von Xerox Parc in seinem Manifest “Der Computer für das 21. Jahrhundert”, einem wichtigen Text zur neuen Computerwelt. Anstatt den Alltag um den Computer oder das Smartphone herum zu gestalten, sollen Computer – oder besser: das, was Computer können – Teil dieses Alltags werden. Computerarbeit, sah Weiser voraus, wird im 21. Jahrhundert in den Hintergrund gedrängt. Wie die alte Armbanduhr uns ständig synchron zur “Zeit” hält, halten Smartwatches uns synchron zur Wolke, der Sammlung unserer, beziehungsweise der uns betreffenden Daten. Der Blick auf die Uhr wird ersetzt durch einen Blick der Uhr auf uns. Die Armbanduhr ist ein Beispiel für unsichtbare Technik, deren strukturierende Kraft in Alltäglichkeit aufgegangen ist. Uhren synchronisieren Menschen und ihr Leben, heute würde man sagen: sie vernetzen sie. Dass Apple, Samsung und Co nun die Armbanduhr als Vorbild nehmen, ist also weder Zufall noch Zwangsläufigkeit. Sie versuchen an die stille Macht des Zeitgebers anzuschließen, zumindest symbolisch. Rechenkraft soll so alltäglich werden, wie die Uhrzeit. Der Kontakt zur Cloud so nebensächlich, wie der Zeitabgleich einer Funkuhr.

Kern des neuen Interface-Paradigmas ist nicht nur das Verschwinden der Computer, sondern deren gleichzeitige Allgegenwärtigkeit. Sie sollen unser Leben regeln – und müssen es dazu überwachen. Das Mensch-Maschine-Interface verschwindet, die Oberfläche des Menschen selbst wird die Schnittstelle, auf die Maschinen zugreifen. Sensoren überwachen unsere Bewegungen, unsere Körperfunktionen, unser Sozial-, Konsum- und Spaßverhalten und greifen in unsere Umwelt ein. “Smart Homes” passen sich den Gewohnheiten ihrer Bewohner an, “smarte” Autos beobachten den Verkehr, Suchmaschinen analysieren unsere Web-Wege, soziale Netzwerke unser Sozialverhalten (dank Smartphones und Ortsdaten nicht nur im Netz), Warenlager und Fertigungshallen tracken Waren, Maschinen und Menschen, um alle Bewegungen miteinander zu koordinieren und schon experimentiert das MIT mit einem Geldbeutel, der sich nur öffnen lässt, wenn auch der Kontostand stimmt.

Nach Touch kommt Stimme
Dass Gestensteuerung, Sprach- und Gesichtserkennung fast zeitgleich in der Unterhaltungselektronik angekommen sind, ist ein Zeichen für diesen Paradigmenwechsel. Der Mensch muss sich nicht mehr umständlich dem Computer verständlich machen, sondern wird von ihm interpretiert. Solche Konzepte, das zeigen zum Beispiel Weisers Texte zu Ubiquituos und Pervasive Computing, sind Jahrzehnte alt. Neu ist, dass sie jetzt umsetzbar sind – und auch umgesetzt werden müssen. Denn in dem Maße, in dem unsere technische Umwelt und unser Leben komplexer werden, müssen Bedienkonzepte her, die genau so vielfältig und flexibel sind, wie die Dinge, die sie steuern sollen – nur nicht so kompliziert. Erst die jüngsten Fortschritte im Interface- Design, der Informatik, der KI-Forschung und natürlich der Miniaturisierung von Sensoren- und Rechen-Hardware werden diesem neuen Paradigma zum Durchbruch verhelfen.

Wenn Touch die letzte Regung des alten Paradigmas ist, dann ist Sprachsteuerung die Brücke in diese neue Computerwelt. Sprachsteuerung nach altem Vorbild ist nichts anderes als eine Kommandozeile, bei der man festgelegte Befehle nach einer speziellen Grammatik aneinanderreiht. Neue Sprachsteuerungen greifen nicht mehr auf ein Wörterbuch mit Befehls-Synonymen zurück, sondern versuchen den Menschen zu verstehen und zu interpretieren – also auch dessen Fehler auszubügeln. Dahinter steht ein gewaltiger technologischer Aufwand: Spracherkennung, die ohne Anlernen und im Geräuschchaos funktioniert, Datenhalden, die Kontextwissen repräsentieren, Programme, die (ganz neu) so angelegt sind, dass sie flexible Lösungswege, widersprüchliche Eingaben und nicht-kontrollierbare – also zwangsläufig: vertrauenswürdige – Outputs hinbekommen.
Obwohl eine ausreichend intelligente Sprachsteuerung sehr komplex ist, scheint sie doch vor allem die noch am leichtesten zu verstehende und deswegen immerzu von Designern und Designerinnen vorgebrachte Idee zu sein, wie wir in Zukunft mit Computern umgehen werden. Wahrlich unsichtbare Technik aber wird unsere Sprache nur als einen von unzählig vielen Eingabe-Modi benutzen. Neue Konzepte werden Sprache eher als Korrektur- oder Verfeinerungsmöglichkeit nutzen. Denn die Maschinen werden mit uns Bedeutungen und Handlungsoptionen ausdiskutieren: Negotiated Understanding statt Befehl und Kommando.

nike-fuel-band_72dpi

Google Now und der Hund
Wem das alles bekannt vorkommt: Google Now ist einer der ersten Versuche, so ein neuartiges Interface in der Masse umzusetzen – und erst Masse, also Vergleichbarkeit, macht das ja interessant. Now zerlegt das Leben in Kategorien, für die Google etwas anzubieten hat, zum Beispiel Navigation, To-Dos, Kontakte. Dafür muss Now aber erst lernen, wie wir ticken, oder besser: was unsere Ticks sind. Now ist eine Mustererkennung, die körperliche und soziale Bewegungen auf Regelmäßigkeiten hin abklopft und in abstrakte Modi überführt: “Organisation”, “Urlaub”, “Freizeit”. Now warnt vor nahenden Terminen (und rechnet Anfahrtsweg und -dauer aus), weist auf Geburtstage, Spielstände und beliebte Fotomotive aus der Umgebung hin. Die Idee ist: Die App erledigt nebenher Routineaufgaben und stellt die Nutzer vor die Wahl – ganz wie ein Navigationsgerät, das flexibel auf Umwege oder Falschfahrten reagieren kann: “Ach, dann halt nicht.” Weil Now aber nicht nur von einer Person benutzt wird, können weitere interpersonelle Regeln zu komplexen Verhaltensmustern abstrahiert, also vereinfacht werden: “Personen mit Ortskenntnis nehmen diesen Umweg.” Als zentrale Sammelstelle kann Google zudem Nutzerdaten aggregieren und mit wachsender Wahrscheinlichkeit richtige Angebote unterbreiten. Die Kehrseite: Das System belohnt vorhersehbares Verhalten.

Die technischen Hintergründe dieser Analysen sind gutes altes Big-Data-Business, maschinelles Lernen und Künstliche Intelligenz. Interessant ist vor allem, was so ein System für den Umgang mit Technik bedeutet: das ist eine klare Machtverschiebung. Nicht wir legen fest, was das Ziel ist und wie man es erreicht, sondern eine Maschine. Natürlich ist das keine neue Qualität von Technik, dass in ihr Ziel und Zielerreichung eingeschrieben sind. Eine Tür hat eine kleine Handvoll Aufgaben, die mit ihr bewältigt werden können – Raum auf, Raum zu, halbauf, abgeschlossen, Kleiderbügelhaken – und circa zwei Nutzungsmodi: Hand auf Klinke, Fuß auf Türblatt. Neu ist, dass Technik in Verhandlung geht und flexibel auf eine Reaktion – und nicht auf eine herkömmliche “Eingabe” – reagieren kann. Sie verhält und positioniert sich damit als aktiver Teilnehmer, der auch Wünsche ablehnen kann, anstatt einfach nicht oder nur abschlägig zu reagieren. Der Vergleich zu Assistenzhunden liegt nahe, denen als Schutzfunktion ein “intelligenter Ungehorsam” antrainiert wurde: Zum Schutz des Halters überquert so ein Hund keine befahrene Straße, auch wenn der Halter das ausdrücklich wünscht. Die Entscheidungsgrundlage braucht den Halter nicht zu interessieren. Er weiß ja, dass der Hund nur das Beste will.

Mensch-Mensch-Interface
Dieses Vertrauen in das Wohlwollen der Algorithmen – oder nur deren Vermögen, das Gute überhaupt zu erreichen – wird zwangsläufig wanken. Dass Facebook und Google zu viel Macht über unser Leben und Erleben haben könnten, ist ein alter Aluhut. Aber sollte sich die technisierte Welt in einem gigantischen Projekt der Kybernetik vereinfachen – also: Handlungsoptionen löschen, Freiheit beschränken? – wird das neue Interface-Paradigma ganz neue ethische Fragen aufwerfen: Wie viel Technokratie ist gut, zumal, wenn sie unsichtbar bleibt? Welche Paradigmen liegen dem neuen Interface zugrunde: Effizienz und Sicherheit oder doch Vorhersagbarkeit, Vermarktbarkeit, Kontrolle? Die Machtverschiebung hin zu Maschinen, wird vor allem eine materialistische Kritik nach sich ziehen. In einer Welt der verborgenen Computer stellt Technik gesellschaftliche Zustände her. Die Bemessungsgrundlagen dieser technischen Umstände aber wiederum werden von Menschen festgelegt, oder zumindest korrigiert. Materialistisch kritisiert, ist das neue Interface-Paradigma damit in Wirklichkeit kein neues Mensch-Maschine-Interface, sondern ein neues Mensch-Mensch-Interface. Zwischen Cloud-Speicher und Big-Data-Datenhalde, aus dem Netzwerkwissen der sozialen Dienste, dem Gespinst der Sensoren und Warenidentitäten erwächst eine Art Unterbewusstsein der Welt. Was technisch greifbar ist, wird in Daten überführt, die einer ständigen Wissensmaschine zugeführt und in realweltliche Gelegenheiten übersetzt werden. Die technische Welt ist dann der Ausdruck, und die Interaktion der Technik mit dem Menschen das Bewusstsein dieser Netze, die bedingt flexibel, reflexhaft aber angemessen, direkt und indirekt unsere Geschicke steuern.

Man muss gar nicht mal selbst einer paranoiden Lesart anhängen, um von ihr betroffen zu sein. Weil die vermeintlichen Manipulationschancen mit den illegitimen Zielen von Kriminellen, Aktivisten, Unternehmern und Politikern resonieren, werden diese Gruppen versuchen, die Infrastrukturen für ihre Zwecke zu missbrauchen. Eine Google-Bomb oder eine Pump’n’Dump-Spamkampagne werden dann nicht mehr nur zu fehlgeleiteten Links, sondern zu fehlleitenden Navi-Routen, falsch-positiven Bekannten-in-deiner-Umgebung-Alarmen und Kaufkraft-angepassten Sonderkonditionen, zu in Bildungslücken passenden Heilsversprechungen und Sprachfehler-ausnutzenden Zweifelssaaten führen. Dissidenten werden die Maschine mit Datenmüll füttern und versuchen, abseits von ihr ein neues, von Maschinen befreites Leben führen zu können. Zurück zum Beton und Daten-Camouflage, die neue Unsichtbarkeit.
Ganz praktisch aber werden zunächst all jene von dieser Interface-Welt weniger haben, die sich über Spezialinteressen und randständige Vorlieben definieren. Big Data ist inkompatibel mit Individualität. Solange die Algorithmen aggregieren und sortieren, statt uns wirklich zu verstehen (also: uns überraschen können), solange sie uns nur als Abweichung von einer Masse und nicht als Individuen erkennen können, werden sie nicht mehr als Blindenhunde oder Freunde mit schlechtem Geschmack sein. Also so, wie all die “Empfehlungsdienste”, die nur Gemeinsamkeiten und nicht Unterschiede erkennen – und in Sachen Distinktionsgewinnchancen meist einfach schrecklich wenig zu bieten haben. Die zunehmend technisierte Kommunikation – jetzt auch mit Maschinen – wird deshalb in eine dreifache Vertrauenskrise gestürzt: Nicht nur über die erhofften guten Intentionen der Maschinen und deren Integrität, sondern auch über deren Kompetenz.

Es wird noch lange dauern, bis Computer das tiefe Tal des Unbehagens durchschritten haben werden und wir ihnen ohne Grusel begegnen können. Und vielleicht ist das auch gut so: Solange wir erkennen können, ob gerade eine Maschine oder ein Mensch zu uns spricht, oder hinter uns herräumt, oder uns ermahnt und das Leben regeln will, kann man wunderbar auf Abwesenheit schalten. Mit Technik kann man nicht kommunizieren, mit Menschen nicht.

About The Author

Elektronische Lebensaspekte.