Es war live und wir waren dabei: Die TEI-Konferenz im Cambridge

tei
Von Christian Zoellner

Jeder weiß, dass mit MIDI-Interfaces weit mehr aus dem Computer heraus zu holen ist, als nur über Tastatur und Maus. Potis drehen, Wii oder Kaoss-Pad steuern … Was bei Musik mit dieser Form von Devices schon seit längerem gut funktioniert, wurde in den letzten Jahren auch immer interessanter für andere Bereiche wie VJing, Graphicdesign und objektorientiertes Programmieren. Solche “Tangible Interfaces” also berühr- und begreifbare Schnittstellen zwischen Mensch und Computer gehen weit über die Möglichkeiten herkömmlicher USB-Controller hinaus. Sie erlauben ganzkörperliche Interaktion, freiere Bedienräume ohne auf Button-, Regler-, und Menülayouts Rücksicht zunehmen. Die Entwicklungen der diversen iPhone Apps gehen in diese Richtung, aber auch Jazzmutants Lemur und die Audiocubes von Percussa.
Seit drei Jahren findet anlässlich dieser Entwicklungen die “conference on tangible and embedded interaction” (www.tei-conf.org) kurz TEI statt. Nach Baton Rouge und Bonn war nun dieses Jahr Cambridge in England als Veranstaltungsort festgelegt und Designer, Programmierer, Künstler, Forscher und Geeks aus aller Welt trafen sich und tauschten sich drei Tage lang in Form von Vorträgen und Demos über ihre aktuellen Entwicklungen aus. Es ist tatsächlich selten, so einen bunten Mix für drei Tage an einem Ort zu haben.

tei2
Bild von Lars K. Jensen

Vorgestellt wurde dieses Jahr unteranderem der MIXITUI (www.mixitui.com). Der Tangible Sequencer basiert auf der Reactivision-Software, mit der auch der reacTable Sequencer gebaut und programmiert wurde, den Björk während ihrer “Volta”Tour mit auf der Bühne hatte. Auf einer hinterleuchteten Tischfläche können mit Sounds belegte Objekte (Tokens), die für Loops, Effekte oder Controller stehen, zueinander verschoben und somit moduliert werden. Gegenüber dem freien Erzeugen von Sounds mit reacTable, können mit MIXITUI im Vornherein gefertigte Presets, Loops und Tracks live arrangiert werden, beispielsweise durch Drehen und Verschieben der Objekte auf dem Tisch können Geschwindigkeit, Dauer und Klang moduliert werden. Formalästhetisch orientiert sich die graphische Oberfläche an der Kanalmatrix, die man vom analogen Mischpult kennt, wobei die Linefader die mit Sounds gemappten Tokens sind.
Effekte, wie Delay, Phaser, Pan und Echo zu diesen Sounds werden einfach auf den Kanal gesetzt und reagieren in Echtzeit. MIXITUI macht einfach Freude. Es ist nicht mehr nötig, sich in die Bedienung von einem Sequencer einzudenken, sondern es funktioniert tatsächlich sehr intuitiv und ermöglicht ein forschendes, experimentierenderes Musizieren.

Am besten das Video ansehen.

Auch klasse: der Vplay Table. Funktioniert ähnlich, wobei auf die physischen Tokens verzichtet wurde und die Interaktion über Multitouch passiert, wie wir es von iPhone und Lemur schon kennen. Vplay ist eine VJ-Anwendung, die am Microsoft Research Institute in Cambridge entwickelt wurde und, wen wunderts, auf der Basis eines Microsoft Surface Tables funktioniert.
Bereits zurechtgeschnittene Videoschnipsel können in die Applikation geladen und via Menü und Drag and Drop in die Arbeitsfläche gezogen werden, so dass sie sich als kronkorkengroße Icons abbilden. Effekte, Mixer, Transformationen und Vorschaufenster werden genauso einfach hinzugefügt. Das ganze ist zwar hinten aufwendig in C und C++ programmiert, vorn jedoch absolut simpel. Schiebt man dann auf dem Touchdisplay ein Videoschnipsel in die Nähe des Vorschaufensters, wird es abgespielt, ziehe ich wieder weg, stoppt die Wiedergabe. Durch Drehen des Icons an seinem Rand, lässt sich das Video sogar schneller pitchen. Da alle Funktionen als verschiebbare Icons auf der Oberfläche abgebildet und durch unterschiedliche Formen und Farben denotiert sind, ist es möglich das Video in Windeseile komplett zu verändern. Schiebe ich zwischen Filmschnipsel und Vorschaufenster einen Rotations-Icon, kann ich durch dessen Drehung das Video im Vorschaufenster rotieren. Ein Pixeleffekt noch dazwischen und der Film rotiert und kann entsprechend meinem Schieben und Drehen am Pixel Icon mehr oder weniger aufgepixelt werden.
Am überzuegensten ist jedoch das Überblenden zwischen zwei Videos gelöst. Einfach zwei Videos in die Nähe des Vorschaufensters ziehen, ein Mixer Icon dazwischen und schon bilden sich beide Videos ineinandergemixt ab. Schiebe ich den Mixer mehr in Richtung des einen Videos, wird dieses auch intensiver eingeblendet. Der Mixer Icon funktioniert wie ein Crossfader.

VPlay 1

VPlay 2
l

Generell finde ich jedoch, dass der haptische Reiz fehlt. Der MIXITUI bot noch die Möglichkeit etwas in die Hände zu nehmen, mit greifbaren Objekten den digitalen Content zu steuern, der über die graphische Oberfläche dargestellt wird. Nur über Touchdisplay ist dann doch zu wenig, das Greifen von Objekten ermöglicht eine viel genauere und sichere Interaktion, was ja auch eigentliches Thema das Konferenz war. Da die Icons sowieso vielzu klein sind, hätte über leicht zu trackende konvex geformte Tokens nachgedacht werden können, die sich anfassen und verschieben lassen – und gleichzeitig die darunterliegende Abbildung optisch vergrößern.

TEI Konferenz

One Response

Leave a Reply