Interaktionsstil statt Interfaces
Text: Felix Knoke aus De:Bug 172

DonNorman01_72dpi

Es wird alles noch viel schlechter, bevor es besser wird. Design- und Usability-Guru Don Norman übt sich in pragmatischem Optimismus, als wir ihn um seine Einschätzungen zum neuen Interface-Paradigma bitten: Was kommt nach Touch, werden unsere Computer bald aufmüpfig?
Norman hat leicht reden, als Design- und Usability-Experte berät er große und kleine Firmen dabei, wie man beschränkte Menschen mit noch beschränkteren Maschinen zusammenbringt. Für ihn ist fehlerhaftes Design das Problem und das Verständnis um die Fehler der Menschen der Lösungsweg. In seinen Vorträgen, Essays und Büchern bemüht er sich, mit einfachen Worten eine ganz andere Grenze zwischen Mensch und Maschine einzureißen: dass die Schönheit einer Interaktion ihrer Funktionalität entspringt.

Text: Felix Knoke

Derzeit dreht sich alles um Interfaces: Touch, Sprache, Bewegungssteuerung. Wieso werden Computer plötzlich über die Art ihrer Bedienung verkauft?

Die technischen Infrastrukturen unterliegen massiven Veränderungen – und mit ihnen eben auch die Interaktionsgewohnheiten. Das wirft eine Menge neuer Fragen auf, weswegen derzeit so viel mit den angesprochenen Modi experimentiert wird. Heute kann es sich bereits um eine Interaktion handeln, wenn man einen Raum betritt: Alle möglichen Sachen gehen an oder aus.

Das muss eine tolle Zeit für Interaktionsdesigner wie dich sein. Heute kann jeder einen Computer bedienen.

Die ganzen neuen Ansätze haben ein Problem gemeinsam. Bei physischen Interfaces können wir Designer erkenntlich machen, was ein Benutzer berühren oder wie er etwas bewegen soll. Wir können sogar Hinweise ins Design integrieren, durch die er das selbständig herausfinden kann. Und auch bei den ersten grafischen Benutzeroberflächen der Computer konnte man noch erkennen, welche Möglichkeiten man hatte, ganz einfach, indem man sich durch Menüs klickte. Das Schlagwort ist Entdeckbarkeit, Discoverability. Mit der Gestensteuerung auf iPhone und Android verschwand diese Entdeckbarkeit. Und ich glaube, das wird in dem Moment noch viel schlimmer, in dem uns Kameras beobachten und Sensoren erkennen sollen, wie wir mit der Welt interagieren. Ein Smartphone zeigt ja wenigstens auf dem Bildschirm noch ein paar Informationen an. Aber die neuen Interaktionsformen haben nicht einmal einen Bildschirm. Man erkennt bei ihnen nicht, wie man interagieren sollte.
Auf der einen Seite ist das natürlich sehr spannend: man wird viele völlig neue Möglichkeiten der Interaktion entdecken. Auf der anderen Seite wird das eine ungemütliche Zeit, da alles sehr verwirrend und schwierig zu begreifen sein wird.

Alle setzen auf Touch, Microsoft setzt auf Touch-Keyboard-Kombis und auf Bewegungssteuerung mit Kinect. Sind das Zeichen für ein neues Interface-Paradigma oder ist das doch nur Marketing-Not?

Es geht nicht um Interfaces, sondern um einen ganz Interaktionsstil. Touch kam sehr gut an, Smartphones sind überall. Für Microsoft ist das aber kein neues Paradigma, die folgen anderen rules of interaction. Das Problem von Touch ist, dass es sich toll für Unterhaltungszwecke, aber nicht für die Arbeit eignet. Microsoft verkauft Windows aber vor allem als ein Arbeitsmittel. Darum stellen sie beim Surface die Tastatur so heraus: Sie ist ein grundlegender Bestandteil des Microsoft-Konzepts, während Apple und Android sie als Eingabemedium verworfen haben.

Mehr und mehr Interfaces versuchen, ihren User zu analysieren. Sie tracken den User und seine Handlungen im Alltag. Ist unser Leben das neue Interface?

Es gibt tatsächliche Versuche, mit einer künstlichen Intelligenz herauszufinden, was eine Person machen will, um so ihre Handlungen vorwegzunehmen oder diese Aufgaben für sie zu erledigen. Ein anderer Ansatz ist die Spracherkennung, über die wir unsere Ziele konkretisieren können: “Verschiebe dieses Meeting um eine Stunde.” Ich finde aber beide Ansätze gefährlich. Jemandes Gedanken zu lesen, jemandes Absichten feststellen zu wollen, ist ein sehr, sehr schwieriges Unterfangen. Und ich glaube nicht, dass wir das jemals gut hinbekommen. Dabei ist die Technik nicht einmal das größte Problem, sondern viel eher das Zusammenspiel Technik und Mensch.

Zeigt Google Now, ein Lebenstracker mit Butler-Funktion, nicht, dass es doch geht?

Die machen das mit einer künstlichen Intelligenz, aber haben auch viele weitere angeschlossene Systeme, die ihnen dabei helfen. Ich selbst arbeite mit der Firma ReQall an so etwas: Du wachst morgens auf und dein Handy führt deine Termine auf, gibt Informationen zu den Personen, die beim Meeting dabei sind, macht eine Verkehrsprognose für den Arbeitsweg und wenn du im Meeting bist, schaltet es dein Handy auf stumm. Im Grunde erinnert dich ReQall einfach an Sachen. Mit Ness arbeite ich außerdem an einem Restaurant-Ratgeber für das iPhone, der auch auf einer künstlichen Intelligenz aufbaut. Anhand solcher Ansätze die Bedürfnisse von Menschen vorherzusagen, wird es immer öfter geben. Aber das ist alles viel schwieriger, als man es sich vorstellt.

DonNorman02_72dpi

Kann man bei solchen Systemen überhaupt noch von “Interfaces” reden?

Was ist ein Interface? Ein Interface ist das, was zwischen dem System und der Person steht. Ich denke also schon, dass es sich dabei um Interfaces handelt. Aber warum ver- gisst du nicht einfach das Wort Interface? Sag doch einfach, dass es neue Interaktionsmodi gibt.

Meiner Ansicht nach ist das ein radikal neues Interface-Paradigma: die Maschinen beobachten und interpretieren uns und gehen auf uns zu, nicht andersherum. Was glaubst du?

Da bin ich deiner Meinung. Aber das ist kein neuer Gedanke. Ich erinnere an den Apple Knowledge Navigator, den Apple-CEO John Sculley Ende der Achtziger konzipierte – einen Werbefilm dazu gibt es im Netz. Ich weise gerne darauf hin, dass es zwanzig bis dreißig Jahre dauert, bis es Produkte aus den Forschungslabors in den Alltag schaffen. Und diese neuen Interaktionsansätze stecken noch in den Kinderschuhen; sie sind einfach noch nicht sehr gut. Siri ist ein gutes Beispiel. Zunächst waren alle begeistert, aber heute nutzen es immer weniger Leute. Es funktioniert einfach nicht so richtig – auch wenn sehr gute Leute daran arbeiten. Dasselbe könnte mit Google Now passieren: klingt toll, aber nach einer Weile macht sich Enttäuschung breit. Trotzdem glaube ich an die Idee eines digitalen Assistenten, an einen künstlichen Butler, der einen im Alltag unterstützt.

Je “klüger” die Systeme werden, desto mehr wollen wir sie kontrollieren. Das zeigt doch auch, wie problematisch das Interface-Konzept überhaupt ist. Eine Tür mit Lichtschranke geht ja auch mit einer klaren Entscheidungslogik in eine fest-verdrahtete Interaktion, sie verhandelt mit einer Person, die ihr zu nahe kommt – und hat halt nur eine einzige Wahlmöglichkeit.

Ja, aber so eine automatische Tür ist auch ein hervorragendes Beispiel für die Probleme der heutigen Interaktionsansätze. Sie öffnet sich, wann immer jemand an ihr vorbeigeht – weil sie nicht weiß, was wir wirklich wollen. Viele der von dir angesprochenen Systeme leiden unter dem Problem, dass sie nur messen können, was sie messen können. Jahr für Jahr gibt es bessere Sensoren, die bessere Informationen liefern. Aber kein Sensor kann Gedanken lesen. Wenn mir ein Empfehlungsdienst die ganze Zeit schlechte Vorschläge macht, aber “für den Durchschnitt” immer richtig liegt, bringt mir das ja nichts. Ich will, dass es mir und nicht “dem Durchschnitt” hilft. Jeder hasst Microsoft Word, wenn es beim Fettmachen einer Zeile entscheidet: “Oh, ich fette die ganze Seite für dich!” Solche Systeme machen viel mehr Annahmen, als eigentlich vernünftig wäre.

Sie sind dumm, nicht naiv, oder? Aber ein Teil des neuen Interface-Paradigmas bezeichnet auch eine Machtverschiebung. Ist es Zeit für eine ethische Debatte darüber, wie viel Macht man den Maschinen überlassen soll?

Ich selbst bin in mehreren Komitees der National Academies, wo dieses Problem diskutiert wird, zum Beispiel im Bereich komplexer Entscheidungsfindung. Letztlich geben wir Autonomie nur dann an Automaten ab, wenn wir ihnen wirklich vertrauen. Und wir haben schon sehr viel Autonomie abgegeben. Aber in Zukunft wird es immer schwieriger, bei komplexen Verhaltensweisen eine Balance zwischen Autonomie und Komfort zu finden. Ein Beispiel: Ein modernes Auto nimmt dem Fahrer viele Aufgaben ab. Finde ich das nun gut oder schlecht? Es wird auf jeden Fall sicherer sein. Trotzdem dürfte es noch sehr lange dauern, bis man sich einem selbstfahrenden Auto anvertrauen würde.

Neu wird dann ja auch sein, dass man sich mit dem Auto darüber streiten muss, ob man jetzt tatsächlich überholen will, oder nicht.

Nein, im Auto ist diese “verhandelte Übereinkunft”, das negotiated understanding, kein Problem. Im Flugzeug kann der Pilot ganz in Ruhe mit den Geräten verhandeln; der ist gut ausgebildet und hat viel Zeit. Wenn ein Autofahrer in eine gefährliche Situation gerät, muss er innerhalb einer halben Sekunde reagieren. Da ist keine Zeit für Verhandlungen.

DonNorman03_72dpi

Trotzdem: Keine Fehler machen zu dürfen, ist auch ein Freiheitsgrad weniger. Bei Lebensgefahr ist mir das ja egal. Doch wenn solche Systeme immer die richtigen Vorschläge machen, aber nicht immer die besten …?

Das ist ein Problem komplexer Systeme. Deren Optimierung muss nicht deine sein. Das passiert mir ständig mit meinem Navigationsgerät, mit dem ich darum kämpfen muss, auf der Fahrt von mir Zuhause nach San Francisco einen Umweg zu nehmen, der einfach viel schöner ist. Das ist wirklich problematisch. Mein Navigationsgerät will mich ständig zum Highway 101 umleiten und ich muss mich dagegen wehren. Ich kenne Navigationssysteme, die auf mich hören würden. Wenn du denen sagst, wo du hinwillst, geben sie dir drei, vier Alternativen. Google macht so etwas mit Google Maps – wo man sogar die Route noch von Hand umlegen kann. Ich glaube, so eine elegante Interaktion wird es in Zukunft häufiger geben. Aber das verlangt eben auch weitaus mehr Rechenkraft und zumindest etwas intelligentere Computersysteme. Sie müssen nicht nur eine Wahlmöglichkeit, sondern mehrere anbieten und sogar gegen ihre eigenen Entscheidungsregeln verstoßen können, um deinen Wünschen zu entsprechen. Es darf keine Rolle spielen, dass sie Entscheidungen treffen müssen, die aus Systemsicht ineffizient sind. Wenn ich sage: “Das will ich aber”, dann sollte sie meinem Wunsch entsprechen. Das versteh ich unter “verhandelbarem Einverständnis” – und in manchen Fällen wird das schon gut gemacht.

Für mich sind solche abstrakteren Designentscheidungen das größte Problem des neuen Interaktions-Paradigmas. Wie glaubst du, wird sich das Thema Interfaces und Interaktionen in naher Zukunft entwickeln?

Dass gerade viele Leute damit experimentieren, ist eine gute Sache. So lernen wir unsere Möglichkeiten kennen und lernen etwas daraus. Meine Vorhersage für das nächste halbe Jahr ist aber trotzdem sehr einfach. Zwei Worte: Große Verwirrung. Jede Firma wird mit einem eigenen Ansatz aufwarten – ganz einfach, weil das Patentsystem bedingt, dass sie es alle unterschiedlich machen. Wenn man sich also an eine Sache gewöhnt hat und sie verstanden hat und zu einer anderen Firma wechseln muss – egal, ob Betriebssystem oder Hardware – dann funktioniert alles ganz anders. Android funktioniert völlig anders als Windows 8, Windows 8 völlig anders als das iPhone. Meiner Ansicht nach werden wir erst in zehn Jahren ein System haben, das wir alle verstehen, das wirklich komfortabel ist, das Spaß macht und mit dem wir trotzdem arbeiten können. Und ich glaube, dass es erst noch viel schlechter wird, bevor es besser wird.

About The Author

Elektronische Lebensaspekte.