Daniel Rikker

 

 

 

MOVE THE MUSIC

Was passiert wenn Körperbewegungen direkten Einfluss auf hörbare Audiosignale haben? Wenn wir mit unseren Bewegungen die Klänge steuern ohne dabei ein Interface berühren zu müssen.

MOVE THE MUSIC ist eine Performance die das oben beschriebene umsetzt. Mit Hilfe von Skeleton Tracking werden die Körperbewegungen verfolgt und in Steuerbefehle umgewandelt die musikalische Parameter und Audioeffekte kontrollieren.

Im Idealfall kommt es zu einem Kreislauf bei dem man sich zu den Klängen bewegt die man selbst durch die vorhergehenden Bewegungen erzeugt hat. 


Das Konzept:

Hinter MoveTheMusic steckt die Idee und Vorstellung dass TänzerInnen durch ihre Bewegungen Klänge steuern können. Sie entscheiden wann und wie wir etwas hören.

Im Gegensatz zur Bedienung von Instrumenten sind sie an kein physisches Interface gebunden.

Es soll ein modulares, jederzeit erweiterbares System sein das mit wenig Hardware auskommt und schnell zu installieren ist.

Meine Hardware Lösung ist der Kinect Sensor von Microsoft. Mithilfe des IR Emitter und des IR Depth Sensor wird ein 3D Bild erstellt über das man die genaue Position eines Gegenstandes im Raum ermitteln kann.

Über die Open NI Library und Processing kann man auf das Skeleton Tracking zugreifen. Es ermöglicht 15 Punkte am Körper zu beobachten, wobei jeder Punkt x-, y- und z-Koordinaten liefert.

Die daraus gewonnenen 45 Zahlen werden über OpenSoundControl in die Max4Live Umgebung geschickt. Hier findet die ganze Bearbeitung der Zahlen statt, so dass man die in MIDI umgewandelten Zahlen als Steuerbefehle in Ableton Live benutzen kann. In Ableton Live erwachen dann schlussendliche die Zahlen und werden zu hörbaren Klänge die dann über 4 Kanal im Raum verteilt werden.


Das auf dieser Seite hinterlegte KLANGBEISPIEL ist mit MoveTheMusic generiert worden.


 

 

info(at)danielrikker.com