Touchscreen über alles. Das war die Devise der Handyhersteller nach dem iPhone-Schock. Aber dadurch ist nicht nur viel an Innovationen vernachlässigt worden, sondern kaum jemand scheint sich mehr darum zu kümmern, was Mobile eigentlich wirklich heißt und um welche Bereiche es in der Zukunft gehen wird.
Text: Sascha Kösch aus De:Bug 125


Nach dem großen Touchdown
Touchscreens blockieren Innovation

Wir befinden uns im Jahr eins nach dem iPhone. Was immer man von der großmäuligen Ankündigung von Steve Jobs damals gehalten haben mag, er hat den Mobilfunkmarkt völlig umgekrempelt. Wie oft ich im letzten Jahr das (oft mit einer gewissen Ehrfurcht ausgesprochene) Zauberwort “Touchscreen” gehört habe, ist kaum noch auszuhalten. Der Touchscreen, Multitouch, heiliger Gral, man könnte glauben, in der Handy-Industrie herrscht jetzt Rollkragenpullipflicht. Über Jahre hinweg geplante Handy-Serien wurden einfach umgeschmissen, Entwickler auf die fummelige Streckbank geschickt, um schnell auch so ein Ding auf den Markt zu werfen wie das iPhone. Ein besseres, den iPhone-Killer. Auf Firmware-Updates für Flaggschiffe selbst des größten Herstellers durfte man schon mal ein Dreivierteljahr warten. Es kommt einem schon interessanter vor, wie Steve Jobs als Verblendungsmaschine, als Irritationsfaktor die Industrie aufgerollt hat, als wirklich ein iPhone zu haben. Aber die eigentliche, viel zu oft beschworene Revolution des iPhones war weder der Touchscreen, sondern die falsche Fährte, auf die Steve Jobs einen kompletten Industriezweig gehetzt hat.

Falsch wieso? Erinnern wir uns an einen anderen Hype aus dem vorletzten Jahr. Nokia wollte seine Handys nur noch Multimedia-Computer nennen. Zugegeben, kein Mensch macht sich mehr Gedanken darüber, ob ein Handy jetzt auch ein MP3-Player oder eine Kamera ist, das ist einfach so. Zwei Jahre nach dieser Ankündigung hätte man erwarten können, endlich mal ein Gerät in der Hand zu halten, bei dem man wirklich denkt, ja, das ist ein kompletter kleiner Computer. Die meisten können aber immer noch nur halbwegs brauchbare Filme machen, für sinnvolle Audioaufnahmen greift man lieber zu einem Fieldrecorder und wenn man etwa ernsthaft schreiben oder gar irgendetwas bearbeiten möchte, greift man immer zum Rechner. Netbooks wie der Eee PC preschen in genau die Lücke, die das Handy als Computer einfach nicht erfüllen will. Es mag zwar jetzt seit zwei Jahren offen auf dem Tisch liegen, dass ein Handy ein Computer sein soll, und noch viel länger ist es das Konvergenzwunder schlechthin, aber all die, die daran glauben, haben neben dem Telefon auch noch einen MP3-Player, eine Kamera, einen Camcorder, ein Netbook und ein Laptop, gelegentlich auch mehr. An irgendeiner Ecke scheitert das Konzept des Handys als tragbarer Kleinstcomputer immer. Ist die Kamera gut, vermasselt man es sich mit proprietären Audioausgängen, Audioeingänge sucht man sowieso meist vergebens, und so schnell die Peripherie wächst, so qualvoll langsam entwickelt sich die Multitasking-Fähigkeit. Und all das, weil jetzt die Touchscreen-Modelle Priorität haben. Das jahrelang stiefmütterlich behandelte GUI steht plötzlich im Zentrum. Dagegen kann man nichts haben, denn Navigation auf dem Handy war immer schon recht qualvoll, was man sehr gut daran merken konnte, dass Umsteiger von einer Marke auf eine andere tagelang fluchend mit ihrem Handy im Café saßen und enthüllende SMS an verblüffte falsche Adressaten schickten.

Fettige Finger auf dem GUI
Sieht man sich manche neuere Touchscreen-Telefone an, dann wünscht man sich nicht nur oft genug eine Tastatur zurück, sondern erkennt auch schnell, warum ein Touchscreen (egal wie multi) allein eigentlich alles andere als Innovation heißt. Ganz abgesehen von dem endlosen Rumgeschmiere auf einem ständig fettigen (und nach wie vor verhältnismäßig kleinen) Screen ist das Interface, das ein iPhone liefert, nämlich immer weit mehr gewesen. Der kompletten Oberfläche liegen sehr strikte Designparameter zugrunde, Schnittstellen, und – seit ein paar Monaten endlich auch – offene (wenn man es wirklich so bezeichnen will) Entwicklertools, die zusammen letztendlich erst die haptische Integrität, die Einfachheit der Bedienung und den Effekt ausmachen, den fast jeder hatte, der zum ersten Mal ein iPhone in der Hand hat: warum nicht schon immer so. Was die Mängel weit in den Hintergrund treten ließ. Navigation, Menüführung und -verschachtelung, durchgezogen mit einer sehr starken Konsistenz im graphischen User-Interface, machen den Touchscreen überhaupt erst nutzbar. Aber ein komplettes GUI für einen kleinen Screen schreibt man auch nicht eben mal so.

Ja, man muss einen Kleinstrechner auch bedienen können, zumindest halbwegs so komfortabel wie ein Laptop, das eigentliche Konzept eines Mobiles scheint aber nach wie vor nur in Ansätzen begriffen und erst langsam entwickelt sich ein Fokus auch auf die Sensorik von Handys. Konzeptuell wäre das so einfach gewesen: Mobil heißt: im Raum bewegbar. Räume sind dreidimensional (das fasst ein Beschleunigungssensor wie im iPhone, Touch Diamond, N95 oder der Wii Remote gut auf), aber nur viel zu selten wird es auch wirklich genutzt. Das iPhone, das sich über den Accelerometer endlich auch als Gamekonsole gibt, ist da Vorreiter. Ein Raum ist ortbar (dafür gibt es GPS). Aber bis Google mal mit einem Kompass rausgerückt ist für Android, durfte man (und das hier ist eine Vergangenheit, die erst noch in der Zukunft liegt) seine Maps immer nach Gefühl drehen, um rauszufinden, wo man wirklich ist. Dabei steckten schon Kompasse in Steinzeit-Nokia-Modellen. Und nein, Schütteln oder Klapsgeben eines Handys, nur um den nächsten Track zu hören, ist keine Sensation. Von Außentemperatur, Luftfeuchtigkeit, Lichtintensität, Lautstärkeintensität eines Raumes wollen wir gar nicht erst anfangen. Dass man all diese Sensoren über das Netz selbst mit geringstem Traffic miteinander verbinden kann und all die Möglichkeiten an Funktionalität, die dadurch entstehen können, werfen wir lieber mal nur so in den leeren mobilen 2.0-Raum, statt uns darüber zu ärgern, dass niemand sich ernsthaft drum kümmert.

Handy am Bio-Puls
Der zweite Teil des Mobile-Konzepts lautet: Ein Mobile ist immer in der Nähe eines Körpers (des eigenen, des Körpers eines anderen Rechners, etc.). Bis auf ein paar müde Versuche ist hier noch nichts auch nur in Ansätzen durchdacht. Was man an einigen Stellen als Lauftraining implementiert (Nike+, etc.), ist wirklich nur der Anfang, Biosensorik als Gesundheitsüberwachung entwickelt sich auch jenseits der Mobilfunkindustrie. Dabei könnte es für Liebende durchaus interessant sein, wann das andere Herz aufhört zu schlagen. Wir geben zu, dass Techniken der Subvocalization (Abnehmen der Worte von Kehlkopfbewegungen, die nicht laut gesprochen werden, aber Muskelbewegungen verursachen, die messbar sind) noch eine Weile auf ihre Marktreife warten dürfen, aber Muskelbewegungen von Händen abzugreifen, um auf einer nicht vorhandenen Tastatur trotzdem reale Worte zu tippen, sollte eigentlich längst ein Hauptfokus der Interface-Arbeiter der Mobilfunkindustrie sein, damit wir endlich unter dem Tisch auf den Beinen eine SMS tippen können, wenn wir uns beim Gespräch mal wieder langweilen. Selbst die Entwicklung von Lasertastaturen scheint seit zwei Jahren stillzustehen und statt eindimensionalen Handy-Schutztäschchen mal eins rauszubringen, das aufgefaltet eine Tastatur ist, scheint auch niemand so wirklich einzufallen (ganz zu schweigen davon, dass proprietäre Revolutionen wie das iPhone einfach den entsprechenden Bluetooth-Port verrammeln). Und was ist mit den Kunstkopf-Earbuds? Mit der Datenübertragung über die Haut waren doch 10Mbps drin, NTT Docomo? Die Zukunft lässt mal wieder viel zu lange auf sich warten. Wenigstens drahtlose Festplatten als Ergänzung für den immer viel zu kleinen Speicher sollten doch drin sein. Wenigstens nicht tragbare, die den Handy-Inhalt beim Heimkommen als Backup sichern, notfalls auf das Laptop. Näherungsschalter meinethalben als RFID-Sender und -Empfänger. Proximity-Sensoren sollten eigentlich zur Grundausstattung eines Mobiles gehören. Da würde ich gerne, statt Sprache über Mobilfunk zu schicken, nur noch VoIP haben, wenn mein Telefon dafür wüsste, in der Nähe von was es sonst so ist.

Nicht mal mehr von Augmented Reality ist im letzten Jahr im Umfeld von Mobiles viel geredet worden. Und so sehr wir alle Cyborg-Visionen und Brillen hassen, Eye-Tracking (Blickbewegungsregistrierung, Okulographie) könnte mit einer Kopplung von Google-Earth 3D die sichtbare Oberfläche einer Stadt zu einem Informationsstrom machen (diese zweite Kamera für Bildtelefonie braucht doch eh kein Mensch, die könnte doch …), dessen Applikationen so unendlich sind, dass wir lieber wieder einen Schritt zurücktreten und uns fragen, warum z.B. Maklerwebseiten wie Immobilienscout keine Applikation haben, die einem, wenn man in den Straßen herumschlendert, sagt, da, die Wohnung ist frei, die da vorne auch. Ach ja, stimmt ja, kein Kompass, GPS nur auf Anfrage, kein Location-Push. Der seltsame Glaube (ist daran eigentlich Google schuld?), dass man immer erst suchen muss, um etwas zu finden, gehört auf mobilen Geräten, die eigentlich immer schon so viel über die Umgebung wissen könnten, zumindest konzeptuell eigentlich verboten. Gegen die multiple Sensorik und den Informationsreichtum, den ein Ding, das sich durch die Welt bewegt, eigentlich ständig sammelt, verarbeitet, produktiv machen könnte, erscheint uns jedenfalls so etwas wie mit dem Finger über ein Stück Glas zu wischen, um die Menus zu scrollen, nicht gerade als Innovation. Aber warten wir mal ab.

About The Author

Elektronische Lebensaspekte.