Konzept & Umsetzung

Ziel ist es in Echtzeit Musik in grafische Elemente zu wandeln, welche wiederum auf physische Objekte projiziert werden. Das Hauptelement ist eine Art Regen aus Tönen, der sich aus Tropfen zusammensetzt, die jeweils eine Tonhöhe repräsentieren. Das Farbspektrum der einzelnen Tropfen resultiert aus dem Frequenzspektrum des Audiosignals, die Größe und Deckraft aus der Lautstärke. Besonders tiefe töne werden von einer weißen Kontur dargestellt, die sich je nach Lautstärke ausdehnt.

Funktionsweise

Zunächst wird mit der Minim-Library das Eingangssignal analysiert und anhand der erhaltenen Werte die Formen gezeichnet. Zusätzlich werden diese mithilfe der Syphon-Library an ein Video Mapping Software übergeben, mit dieser können die verschiedenen Elemente perspektivisch genau auf die Flächen des physischen Objektes projiziert werden.

doku.jpg