Interview mit dem Body-Hacking-Guru aus dem fernen Osten
Text: Robert Stadler aus De:Bug 150

Foto: Jonathan Gröger

Mit unterhaltsamen Interface-Experimenten ist Daito Manabe zum Star des Body-Hacking avanciert. Wir haben ihn auf der Transmediale getroffen und über Körper-Controller, seine Vergangenheit als HipHop-DJ und die Grenzen der Mimiksteuerung gesprochen.

Daito Manabe, Mathematiker, Musiker und Interface-Tüftler, wurde 2008 mit einem YouTube-Filmchen schlagartig bekannt: Die Kamera ist ganz nah an Manabes Gesicht, auf dem eine Reihe Elektroden kleben, wie man sie etwa von EKGs kennt. Einzelne Synthie-Bleep-Sounds ertönen, woraufhin verschiedene Gesichtsteile heftig kontrahieren, was ziemlich schmerzhaft wirkt. Man könnte meinen, dass die Gesichtsbewegungen die Musik kontrollieren, obwohl es sich natürlich genau entgegengesetzt verhält. Manabe demonstriert im Video nämlich ein Interface-Spielzeug namens “Face Visualizer”, das ein Sound-Signal in Impulse zur Gesichtsdisko umwandelt. Und so schmerzhaft das zunächst wirkt, so harmlos nehmen sich die Stromschläge mit weniger als zehn Milliampere in der Realität aus, schlimmstenfalls empfindet man sie als kurze, heiße Piekser. “Der Schmerz ist nicht so schlimm, aber beim Abspielen bestimmter Tracks können Sehstörungen auftreten. Man sieht zum Beispiel weißes Licht und grüne Streifen,” erklärte Manabe 2008 seine Kreation: “Und manchmal bekommt man auch Atemprobleme.”

Manabe hat das Konzept des “Face Visualizer” bis heute konstant weiterentwickelt, wobei teils sehr drollige Variationen entstanden, etwa die Synchron-Version auf vier Gesichtern oder zuletzt die Erweiterung des Controllers mit einer zweiten Person unter dem leicht sperrigen Titel “Electric Stimulus to Body”. Andere Projekte Manabes erreichen zwar nicht das Geniestreich-Kaliber des “Face Visualizer”, entspringen aber durchaus bemerkenswerten, meist liebevoll umgesetzten Ideen. Sogar wenn es dabei um Werbung ging, wie im Fall des Nike-Laufschuhs, dessen Schrittzähler-Sensor zum Sound-Interface wurde, oder bei der LED-Lichtorgel im Mund.

Beim diesjährigen Transmediale-Festival, das sich unter dem Motto ”Response:Ability“ auch dem virulenten Thema “Body Hacking” widmete und DIY zum Organisationsprinzip erhob, durfte Daito Wanabe natürlich nicht fehlen. Nach einem langen Workshop-Nachmittag, an dem er einem Dutzend Interessierter erklärte, wie sie sich selbst zur Gesichtsdisko hacken können, schnappen wir uns Wanabe für ein Gespräch, beginnend mit der Frage, wie er denn nun zum “Face Visualizer” kam. Dabei stellt sich heraus, dass er neben seiner akademischen Vergangenheit als Mathematiker und Programmierer auch auf eine Musikerbiografie zurückblicken kann: Wanabe war lange als HipHop-DJ unterwegs, unter anderem ist er mit Jeru the Damaja durch Japan und Europa getourt.

Foto: Jonathan Gröger

Debug: Wie kamst du vom HipHop-DJ zur Gesichtsdisko?

Daito Manabe: Zur Frage, mit welchen Mechanismen Sound Körper steuern kann, kam ich als Musikproduzent für eine Tanztruppe. Ich war der Meinung, dass es sehr viel einfacher wäre, wenn sich die Choreographie an der Musik orientieren würde und nicht umgekehrt, wie es die Tänzer verlangten. Die Erwartungshaltungen klafften immer weiter auseinander, es war wirklich frustrierend. Dann habe ich begonnen mit Sensoren zu experimentieren, um mit Bewegungen einzelne Sound-Parameter zu steuern, auch mit der Mimik und den entsprechenden Gesichtsmuskeln. Und dabei wurde schnell klar, dass man den Prozess natürlich auch umdrehen kann und mit Sound-Signalen die Gesichtsmuskeln bewegen kann.

Manabes erstes Projekt mit der neu entdeckten Möglichkeit der Gesichtsmuskelkontrolle, sollte dann allerdings eine Art Mimik-Kopierstation werden, sein eigener Gesichtsausdruck sollte den anderer Menschen steuern und damit vervielfältigen.

Debug: Hat dabei auch eine Rolle gespielt, dass die Mimik-gesteuerte Person die Verantwortung für seinen Gesichtsausdruck sozusagen outsourced?

Daito Manabe: Mit der Mimik-Kopiermaschine habe ich nur einen Tag experimentiert, dann hatte ich kapiert, dass es Gesichtsausdrücke gibt, die man nicht einfach abrufen kann, weder durch Schauspielerei noch durch Elektroden.

Womit Manabe das Duchenne-Lächeln noch einmal entdeckt hatte, 150 Jahre nach den Experimenten des französischen Mediziners Guillaume Benjamin Amand Duchenne de Boulogne, der die Wirkung gezielter Stromschläge auf die Gesichtsmuskulatur als erster systematisch untersuchte. Dabei arbeitete er bereits mit Elektroden, wie sie auch heute noch üblich sind. Dass es Emotionen gibt, die sich nicht vortäuschen lassen, beschrieb Duchenne dann 1862 in seiner “elektrophysiologischen Analyse des Gefühlsausdrucks”. Ungestelltes, von Gefühlen ausgelöstes Lachen heißt seitdem in der Fachsprache Duchenne-Lächeln.

Debug: Neben Duchenne hast du öfters den Performance-Künstler Stelarc als Einfluss erwähnt – Künstler und Wissenschaftler, wo ordnest du dich ein?

Daito Manabe: Ich verstehe mich als Programmierer und Entwickler, der Lösungen und Interfaces baut. Mit denen können dann Wissenschaftler arbeiten, wenn sie es sinnvoll finden, aber eigene Forschungsprojekte durchzuführen wäre anmaßend.

Debug: Welche Rollenverteilung dominiert bei der Entwicklung von Interfaces? Die Maschinerie aus Sensoren, Rechner und Software oder ist der Mensch tonangebend?

Daito Manabe: Ehrlich gesagt will ich, was Mensch-Maschinen betrifft, keine Erkenntnisse produzieren. Ich will keine Antworten geben. Ich stelle nur einen Versuchsaufbau zur Verfügung, mit dem Menschen spielen oder experimentieren können, um selbst Antworten zu finden.

Foto: Jonathan Gröger

Debug: In einigen deiner Projekte werden auch andere Körperteile einbezogen, aber du scheinst immer wieder zum Gesicht zurückzukehren?

Daito Manabe: Man kann natürlich auch alle möglichen anderen Körperteile durch elektrische Impulse bewegen bzw. beeinflussen. Aber im Gesicht ist es so lustig. Wenn sich beispielsweise die linke Gesichtshälfte anders als die rechte bewegt, ist das wirklich unschlagbar komisch!

Debug: Wird der “Face Visualizer” in Japan anders verstanden als in Europa oder den USA?

Daito Manabe: Gut möglich, die Kulturen unterscheiden sich ja generell stark. In Japan könnte man die asymmetrischen Gesichtsausdrücke mit den Masken des traditionellen Kabuki-Theaters assoziieren, die auf der einen Seite lachen und auf der anderen weinen können.

Debug: Mit der Drummachine “Electric Stimulus to Body”, die mit zehn Fingern auf einer Person gespielt werden kann, potenzieren sich die Möglichkeiten des Controllers ja enorm. Ist es vorstellbar, auch richtig komplexe Stücke mit dieser Technik aufzuführen? Beethoven mit Gesichts-Controller?

Daito Manabe: Theoretisch ginge so etwas. Aber man sollte mit neuartigen Controllern auch neue, adäquate Musik spielen und nicht etwas altes simulieren. Momentan arbeite ich an einem Musik-Controller, der seinen Input aus elektrischen Körperimpulsen holt. Dafür werden Mess-Elektroden am Unterarm befestigt. Es ist also nicht der Finger, sondern das elektrische Nervensignal, das dem Finger sagen soll, was es zu tun hat, wird mit dem Instrument gekoppelt. Das führt dazu, dass bei den bisherigen Tests die Töne viel schneller gespielt wurden als eigentlich gewollt. Bei Musikinterfaces geht es doch immer um das Problem der Latenz. Bei diesen Körperinterfaces wird interessant, dass die Definition von Latenz ganz anders gefasst werden kann. Wenn ich Musik machen kann, die noch vor dem eigentlichen körperlichen Ausdruck zu Klang wird … was für eine Form der Musik entsteht dann?

http://www.daito.ws
http://www.transmediale.de

About The Author

Elektronische Lebensaspekte.

4 Responses

  1. D

    真鍋大度さん、なんちゅー顔をw http://t.co/ZCDFRZSH

    Reply

Leave a Reply