Prozess-Sensoren

Ausgangspunkt des Projekts war der Plan, die Synchronisation zweier Herzschläge zu messen. Mit diesem Ansatz stieß ich jedoch auf technische Schwierigkeiten. Zunächst legte ich den Vergleich der Herzschläge in TouchDesigner an, was in einer sehr komplexen Verkettung von Prozessen resultierte, die letztlich nicht funktionierte. Parallel dazu erwies sich auch die Stabilisierung der Sensoren (Puls- bzw. Herzschlagsensoren für Arduino) als problematisch, da sie nicht fixiert waren. Erst spät im Prozess wurde mir bewusst, dass bereits geringste Lichteinflüsse die Messwerte verfälschen können. An diesem Punkt entschied ich mich, mit Max-Sensoren zu arbeiten. Da diese jedoch über SDA und SCL angeschlossen werden müssen, war der Einsatz eines Multiplexers erforderlich. Das damit verbundene Coden erwies sich als zu komplex, und es gelang mir nicht, stabile Werte auszulesen. In dieser Phase kehrte ich erneut zur Recherche über den Einfluss von Musik auf den Herzschlag zurück und stieß auf empirische Studien, die zwar von gleichzeitigen Entwicklungen der Herzfrequenz sprechen, jedoch nicht von einer tatsächlichen Synchronisation. Diese Erkenntnis vereinfachte den Ansatz, da ich wieder zum vergleichenden Arbeiten mit Herzschlägen in TouchDesigner zurückkehren konnte. Zugleich lernte ich, dass die Pulssensoren zwingend abgeklebt werden müssen, um verlässliche Messwerte zu erhalten.

mitwelt2.gif

Prozess-Toe

Ziel war es, die Szene: zwei Menschen sitzen nebeneinander auf der Couch im InterfaceLab und blicken auf eine Visualisierung, in TouchDesigner nachzubauen und zu spiegeln. Beim Auftreten des Mitseins, also in dem Moment, in dem zwei Herzschläge ähnliche Entwicklungen zeigen, sollte sich die Visualisierung durch ein Auflösen in Noise verändern. Diese Transformation verweist auf die Entstehung eines transzendenten Raumes der Mitwelt.

Auf diese Weise werden sowohl die Entrainment-Theorie als auch die Reaktion der Teilnehmenden auf die Visualisierung selbst untersucht: Einerseits geht es um die Annäherung der Herzrhythmen unter dem Einfluss von Musik, andererseits um die Frage, wie das visuelle Feedback das Erleben von Mitsein und Verbundenheit beeinflusst. 

Zunächst wollte ich die Szene realistisch nachstellen und einscannen. Um dies zu testen, scannte ich bei mir zu Hause verschiedene Räume. Mit dem Ergebnis war ich jedoch unzufrieden: Die Visualität in TouchDesigner wirkte zu grob, und es war kaum erkennbar, was tatsächlich dargestellt wurde.

Daraufhin entschied ich mich, die Szene in Blender nachzubauen und stärker zu abstrahieren, um sie anschließend als .ply zu exportieren. Dabei hatte ich Schwierigkeiten mit der Übertragung der Farbwerte der Materialien, da diese zunächst auf die Vertex-Daten übertragen werden mussten.

Um die Aufmerksamkeit gezielt auf die Mitte der Szene zu lenken, verwendete ich zwei pinkfarbene Hasenmasken. Mit dieser Darstellung bin ich nicht vollständig zufrieden. Sie ist als eine Zwischenlösung, zu betrachten.

Aufbau