Incom ist die Kommunikations-Plattform der Fachhochschule Potsdam

In seiner Funktionalität auf die Lehre in gestalterischen Studiengängen zugeschnitten... Schnittstelle für die moderne Lehre

Incom ist die Kommunikations-Plattform der Fachhochschule Potsdam mehr erfahren

Rhythmusgerät – Prototyping Musical Interfaces

Rhythmusgerät – Prototyping Musical Interfaces

Diese Arbeit bildet den gesamten Gestaltungsprozess des musikalischen Interfaces „Rhythmusgerät“, von der Idee bis zur Fertigung, ab.

Einleitung

Zitat 1.pngZitat 1.png

Die Musikproduktion hat sich in den letzten Jahrzehnten stärker weiterentwickeln und verändert als jemals zuvor. Der technologische Fortschritt ermöglicht Musikschaffenden noch nie da gewesene Möglichkeiten in musikalischer Interaktion und Klanggestaltung. Der Computer stellt mittlerweile wohl das flexibelste Instrument der Welt dar und dieser Entwicklung entspringen regelmäßig neue Konzepte von Hard- und Softwareprodukten. Durch die hohe Verfügbarkeit nutzen immer mehr Menschen die Möglichkeiten dieser Technologien und erforschen das Feld des elektronischen Klangs.

Diese Arbeit bildet den gesamten Gestaltungsprozess eines musikalischen Interfaces, von der Idee bis zur Fertigung, ab. In vielen Iterationen und mit einigem Theorieeinfluss entsteht letztendlich Stück für Stück das Endprodukt. Design- und Konstruktionsentscheidungen werden erläutert und darüber hinaus wird auch der Ideationsprozess des Interfaces beleuchtet. Die Dokumentation bildet neben der Konzeptentwicklung und Ausführung auch die Fehlschläge, verworfene Ideen oder Probleme ab, um den Lesenden einen gesamtheitlichen Überblick über den Prozess zu ermöglichen.

Dementsprechend illustriert der Aufbau dieser Arbeit eine chronologische Abfolge des Entwicklungsprozesses. Nach einer Kontexterläuterung bildet eine Recherche den theoretischen Hintergrund. Im Anschluss werden bestehende Lösungen untersucht, um letztendlich zur Konzepterstellung eines neuen Prototypen zu gelangen. Dieses Interface vereint die untersuchten Themengebiete zu einem Produkt, welches im Zuge dieser Arbeit geplant und umgesetzt wird.

Technologie in der Musikkreation

Musik ist eine der emotional anregendsten Dinge, welche wir Menschen mit unseren Sinnen erfahren können. Die ersten Musikinstrumente, zum Beispiel Knochenflöten, sind rund 35.000 Jahre alt (vgl. Wikipedia, 2018). Seither musizieren und experimentieren Menschen in allen nur erdenklichen Formen und Facetten mit Klang, Rhythmus und Harmonie. War Musik einst etwas Temporäres und an den Ort und dessen Gegebenheiten gebunden, sollte sich diese Eigenschaft Anfang des 20. Jahrhunderts durch die Erfindung von Aufnahmegeräten schlagartig verändern. Das Konservieren von Musik, und die Möglichkeit sie unabhängig von Zeit und Raum wiederzugeben, ebnete den Weg für eine ganze Industrie, so wie wir sie heute kennen. Doch rasch folgte der nächste Fortschritt: die elektronische Klangsynthese. Musik war nicht mehr an das akustische Instrument gebunden, sondern Töne konnten durch elektronische Schaltkreise erzeugt und manipuliert werden. Eine neue Art von Klang wurde entdeckt.

Seither hat Technologie die Landschaft der Musikproduktion grundlegend verändert und ist mittlerweile untrennbar mit dem Kreationsprozess verbunden. Die stetige Entwicklung von Audio Hard- und Software gibt Musikschaffenden neue Werkzeuge zur Hand, welche den Musik-Produktionsprozess in all seinen Facetten unterstützen können. Computerprogramme können Melodien automatisch komponieren, künstliche Intelligenzen entwickeln algorithmisch neue Klangwelten und Datenbanken voll mit kuratierten Soundpaketen bieten umfangreiche Inspirationsquellen. Hinzu kommen unzählige neue elektronische Instrumente und musikalische Interfaces, welche die komplexen und diversen Arbeitsvorgänge innerhalb der Musikproduktion unterstützen und maßgeblich mitgestalten.

Daniel A. Walzer schreibt in einem Artikel über die sich durch diese Entwicklung resultierende Verschiebung innerhalb der Musikindustrie (Walzer, 2017). Zwar kontrollieren sogenannte „Major Labels“, also die größten Musikunternehmen, fast 70% des Marktes (vgl. Music Industry Blog, 2017), doch die technologischen Innovationen, sowohl in Soft- und Hardware, als auch neue, zugängliche Distributionswege ermächtigen Musikschaffende zu künstlerisch unabhängigen Produktionen. Diese vielschichtige kulturelle, technische aber auch ideologische Veränderung der Musikwelt, führt Walzer unter anderem auf eine signifikante Evolution der DIY (Do It Yourself) Kultur zurück (vgl. Walzer, 2017).

Zitat 2.pngZitat 2.png

Tinker und Maker

Waren industrielle Fertigungsmethoden und technologische Innovationen in der Vergangenheit eher großen Unternehmen vorbehalten, sind sie heute zugänglicher denn je. Eine Vielzahl an Onlineshops vertreiben Mikrochips, Sensoren oder spezifische elektronische Bauteile. Platinen, Sonderanfertigungen und umfangreiche Prototypen können heute privat entwickelt und in Einzelanfertigungen oder Kleinserien produziert werden. Und auch der Wissensaustausch hat sich durch die globale Vernetzung beschleunigt und schlägt sich in Form von einer aktiven Open Source Community nieder. Entwickler*innen auf der ganzen Welt treffen in digitalen Foren zusammen, um sich in spezifischen Fragen zu helfen oder sich auszutauschen. Plattformen wie „GitHub“ unterstützen dieses digital-kollaborative Arbeiten und stellen die Ergebnisse gut dokumentiert und öffentlich zur Verfügung. Sogenannte „Development Boards“ wie „Arduino“ oder „Raspberry Pi“ sind Open-Source Hardware-Plattformen, welche einen niederschwelligen Einstieg in die Welt der Elektronik, Sensorik und die Programmierung von Maschinen ermöglichen. Wir finden uns in einem sogenannten „Maker Zeitalter“ wieder (vgl. techopedia, 2018), indem wir die Entwicklung von Produkten von der Idee bis zur Distribution selbst gestalten können. Diese Umstände sind für die Welt der Musikproduktion eine große Chance: Es entstehen elektronische Instrumente und Werkzeuge, welche in ihrem Sound und ihren Interaktionsmöglichkeiten neuartig sind und Musizierenden neue Wege der Klangexploration erlauben. Zusätzlich entwickeln viele Künstler*innen maßgeschneiderte Lösungen, um ihre individuellen, kreativen Prozesse zu fördern oder bestehende Systeme werden gehackt und mit Funktionen erweitert.

Persönliche Motivation

Ich werde als Grafik-, Kommunikations- und Interfacedesigner regelmäßig in meinem kreativen Potential gefordert. Doch auch in meiner Leidenschaft zur Musik, sowohl als Instrumentalist als auch in der Musikproduktion, finde ich mich immer wieder mit ähnlichen Kreativprozessen konfrontiert. Ich verstehe Kreativität als erfinderisch, problemlösend und als jenen Teil des Menschseins, welcher uns motiviert, von unseren üblichen Denkmustern loszulassen, um Neues wahrzunehmen. Meine Affinität für Musik, Technologie und Interfacedesign hat sich schließlich in der Gestaltung von Audio Hardware vereint. Die Entwicklung eigener Prototypen während der letzten Jahre haben mir ein Verständnis und ein Interesse für diesen Nischenbereich von „Physical Interfaces“ ermöglicht. Es bereitet mir Freude, Musikschaffende – nicht zuletzt mich selbst – in ihren kreativen Prozessen zu analysieren, um eine Optimierung des Workflows zu erreichen. Hierfür faszinieren mich die Möglichkeiten neuer Technologien, doch sehe ich auch eine Verantwortung des Interfacedesigns, diese Innovationen kritisch zu hinterfragen und auf ihre Sinnhaftigkeit zu prüfen.

Designziel

Diese Arbeit widmet sich physischen musikalischen Interfaces und untersucht deren Gestaltbarkeit im Bezug auf kreative Prozesse im Kontext der Musikproduktion. Ein spezieller Fokus dabei liegt auf der Klangexploration, also dem spielerischen Entdecken und Manipulieren von Sound. Welche Interaktion oder welchen Klang gibt ein Interface mit seinem Charakter und seiner Funktionalität vor und inwiefern hat es eine Relevanz für das entstandene musikalische Produkt?

Diese Erkenntnisse bilden die Grundlage für die Entwicklung eines eigenen physischen Prototypen mit dem Ziel, einerseits musikalische Interfaces besser zu begreifen und andererseits die Anwendenden – nicht zuletzt mich selbst – in ihrer Musikproduktion zu unterstützen und neue kreative Wege aufzuzeigen.

Musikalische Interfaces

Zitat 3.pngZitat 3.png

Es gibt keine gültige Definition für den Terminus „Musikalische Interfaces“. Vielmehr handelt es sich um einen Sammelbegriff, welcher jegliche physische Schnittstellen zwischen Mensch und Maschine im Kontext der elektronischen Musikproduktion zusammenfasst. Ich möchte im Folgenden ein Grundverständnis für diese Produktgruppe vermitteln und relevante Begrifflichkeiten erläutern. Dies ist hilfreich, um das Gestaltungspotential zu begreifen und einen Einblick in die Funktionsweise solcher Maschinen zu bekommen.

Digital Musical Instrument Model

Akustische Instrumente, beispielsweise eine Gitarre, nehmen durch ihre Beschaffenheit, ihren Resonanzraum und ihre Materialität maßgeblichen Einfluss auf ihren Klang. Vor allem aber bestimmen Musizierende mit ihrer individuellen Spielweise die Artikulation des Instrumentes und folglich den Klang. Es besteht ein untrennbarer physischer Zusammenhang zwischen der Bedienung und der Klangerzeugung des Instruments. In dem Buch „New Digital Musical Instruments: Control and Interaction Beyond the Keyboard“ beschreiben die Autoren Eduardo Reck Miranda und Marcelo M. Wanderley den fundamentalen Unterschied von musikalischen Interfaces zu traditionellen Musikinstrumenten (vgl. Miranda & Wanderley, 2006): Dieser liegt in der grundsätzlichen Trennung zwischen der Bedienungsoberfläche und der Klangerzeugung. Die Interaktion hat demnach keinen unmittelbaren, physischen Einfluss auf die Generierung von Sound.

Musical Interface Model.pngMusical Interface Model.png

Gestural Controller

Das Eingabemodul, auch der Controller, ist die physische Schnittstelle zwischen Mensch und Maschine. Dieses Modul erfasst, interpretiert und bearbeitet die Interaktionen der Anwendenden und gibt diese an ein Klangerzeugungsmodul weiter. Der Controller steht in einem Dialog mit den Anwendenden und macht seine Arbeitsprozesse in Form eines „primären Feedbacks“ sichtbar.

Sound Production

Dieses Modul widmet sich der Klangerzeugung. Hierfür gibt es zwei grundlegende Konzepte: Entweder beinhaltet das Modul Algorithmen und Kontrollmechanismen für eine digitale oder analoge Klangsynthese, oder aber es arbeitet mit bestehenden Sounds (Samples) und besitzt Funktionalitäten zur Manipulation dieser. Auch eine Vermischung beider Konzepte ist heutzutage gängig. Der Output dieses Moduls stellt das „sekundäre Feedback“ dar und ist in der Regel ein Audiosignal. Die Steuerung des Systems ist für den Menschen nicht manipulier- oder erfahrbar. Vielmehr benötigt es gezielte, elektronische Befehle um Operationen auszuführen. Das Modul ist ausschlaggebend für den klanglichen Charakter des Geräts. Dieser definiert sich entweder durch die Wahl der elektronischen Bauteile und durch das Wissen um die komplexe interne Verschaltung oder aber durch Algorithmen, die diesen Vorgang digital simulieren. Hersteller von Hardware in diesem Bereich sind berühmt für den charakteristischen Sound ihrer Produkte.

Mapping

Die Schnittstelle zwischen Controller und Klangerzeugung nennen Miranda und Wanderley „Mapping“. Das Mapping definiert, wie die Befehle des Controllers Einfluss auf das Klangerzeugungsmodul nehmen. Das bedeutet, ein oder mehrere Controller-Parameter steuern einen oder mehrere Klangsynthese-Parameter. Zum Beispiel: Ein Drehregler des Controllers steuert explizit die Lautstärke oder die Filterfrequenz der Klangerzeugung.

Generische und spezifische Controller

Ein musikalisches Interface muss nicht zwangsläufig alle Elemente des Modells enthalten. Es gibt auch reine Controller oder Klangerzeuger: Ein Modul eines modularen Synthesizers ist zum Beispiel ohne einen Sequenzer (siehe 2.2.4 im vollständigen PDF), eine Klaviatur oder einen anderen Controller nicht in der Lage, ein sekundäres, akustisches Feedback zu generieren. Auf der anderen Seite existieren reine Controller, deren Aufgabe es ist, Hard- oder Software-Klangerzeuger zu steuern. Sie können alleinstehend keinen Klang erzeugen.

Innerhalb der Produktgruppe von Controllern möchte ich zwei unterschiedliche Funktionskonzepte erwähnen: Generische Controller sind typischerweise als Ergänzung zu Softwareprodukten gedacht. Schalter, Drehregler und sonstige Eingabesensoren können manuell mittels Standardprotokollen (siehe 2.2.3 im vollständigen PDF) auf die Funktionalitäten des Programms „gemappt“ (siehe 2.2.1 im vollständigen PDF) werden. Die Funktionalität des Controllers kann dementsprechend variieren und den Bedürfnissen der Benutzenden angepasst werden. Diese Geräte werden umgangssprachlich oft als MIDI-Controller bezeichnet. Spezifische Controller wiederum sind Eingabegeräte, deren „Mapping“ nicht dynamisch ist. Sie werden für eine bestimmte Soft- oder Hardware oder eine bestimmte Funktionalität entwickelt. Der „MPC Touch“ ist zum Beispiel zur Bedienung der „MPC Software“ optimiert. Seine Interaktionsgestaltung ist für die charakteristischen Funktionen des Programms maßgeschneidert und für andere Programme nur bedingt brauchbar.

Klangexploration

Zitat 4.pngZitat 4.png

Die kreativen Prozesse von Musikschaffenden im Bereich der elektronischen Musik wurden 2009 im Rahmen einer Studie (Gelineck & Serafin, 2009) der „Aalborg Universität Kopenhagen“ untersucht. Die Autoren Steven Gelineck und Stefania Serafin befragten 18 Musiker*innen zu ihren Arbeitsprozessen innerhalb der Musikproduktion. Ihre ausgehende Frage war: Wie bekommen Musiker*innen ihre Ideen für ein neues Musikstück?

Die Autoren gliedern den kompositorischen Prozess basierend auf den Ergebnissen in drei grundlegende Phasen (Abbildung 2.13): den explorativen Modus, den editierenden Modus und den pragmatischen Modus. Die meisten Befragten behaupten, in der ersten Phase am liebsten mit technischen Werkzeugen – also musikalischen Interfaces – „herumzuspielen“, bis ihnen eine Idee kommt oder sie einfach genug klangliches Material gesammelt haben, um daraus ein Stück zu kreieren. Ist eine Idee herangereift oder genug Klangmaterial gesammelt worden, folgt der „editierende Modus“: Die Ergebnisse der explorativen Phase werden zusammengesetzt, manipuliert und arrangiert und münden in der letzten Phase, dem „pragmatischen Modus“. Hier wird ausformuliert und umgesetzt. Am Ende dieser Phase steht das fertige musikalische Produkt. Dieses Phasenmodell der „Compositional Lifetime“ beschreibt einen nicht-linearen Prozess, welcher zu jedem Zeit­punkt zugunsten neuer Ideen und Experimente unterbrochen und neu ausgerichtet werden kann. Die konkrete Vorstellung des fertigen Musikstücks formt sich somit erst sehr spät im Kreationsprozess.

Compositional Lifetime.pngCompositional Lifetime.png

Zufall, Exploration und Kontrollverlust

Die Studie zeigt, dass Zufall und Exploration fester Bestandteil eines Kompositionsprozesses sind. Diese experimentellen Phasen der Klangfindung wurden von den Befragten unter anderem als „herumspielen“, „im Flow sein“, „Versuch Kontrolle zu verlieren“, „Trial and Error“ oder „arbeiten ohne nachzudenken“ beschrieben. Interessanterweise sind die Ideen meistens technischer Natur und stark von der Art der Interaktion mit den Werkzeugen abhängig. Einige der Befragten gaben an, dass ihre musikalischen Interfaces ein „Mitspracherecht“ am Endprodukt hätten. Zudem wird ein „Eigenleben“ von musikalischen Controllern geschätzt. Es werden Werkzeuge bevorzugt, welche nicht gänzlich verstanden werden, in ihren Funktionsweisen unvorhersehbar sind oder welche eine andere Arbeitsweise als vorgegeben zulassen. Der kreative Prozess wird durch zu viel Kontrolle gehemmt und es ist lediglich ein schmaler Grat zwischen Freiheit und Limitierung. Die meisten Befragten gaben diesbezüglich an, sich selbst Grenzen, Richtlinien und Herausforderungen zu schaffen, um den Prozess der kreativen Entscheidungsfindung zu unterstützen. Oft stellen die verwendeten Werkzeuge selbst diese Limitierung dar. Begrenzte Funktionalitäten geben Musiker*innen den Vorteil, sich nicht in zu vielen Möglichkeiten zu verlieren. Vielmehr explorieren sie verschiedene Gestaltungsräume intensiv und nacheinander.

Die Interaktion zwischen Mensch und Maschine ist ein grundlegender, spielerischer und iterativer Prozess und gestaltet das Endprodukt demnach aktiv mit. Es ist das Zusammenspiel zwischen Ideen, einem limitierten (oder spezialisierten) Funktionsumfang und dem nicht gänzlich vorhersehbaren Feedback eines Controllers, welches Musikschaffende in ihren kreativen Prozessen vorantreibt. Intuitive musikalische Interfaces, deren klar definierte Funktionalität ein hohes Maß an Kontrolle erlauben, werden trotzdem benötigt. Je näher das Ende des kompositorischen Prozesses kommt, desto präziser müssen die Controller steuerbar sein. Die Autoren fassen die Erkenntnisse der Studie in fünf „Design Vorschläge“ zusammen, welche im folgenden Kapitel vorgestellt werden.

Gestaltungspotential

Bezüglich der Gestaltung eines musikalischen Interfaces finden sich in der wissenschaftlichen Literatur einige Vorschläge für Designprinzipien. Es sind Richtlinien, welche Designer*innen eine Übersicht der zu gestaltenden Schnittstellen im Kontext der Interfacegestaltung vermitteln. Diese Ansätze sollen in erster Linie nicht bewertet werden. Vielmehr dienen sie als Ausgangsbasis für die Entwicklung meines Prototyps. Im Folgenden werden zwei Modelle vorstellt, welche unterschiedliche Herangehensweisen beschreiben.

Designvorschläge von Gelineck und Serafin

Die folgenden Designvorschläge (Gelineck & Serafin, 2009) zielen auf die Förderung von explorativer Interaktion ab. Sie sind nicht als strikte Anweisungen zu verstehen, vielmehr stellen sie die Reflexionen der Autoren dar und sollen als Inspirationsquelle für Designprozesse und weiterführende Untersuchungen dienen.

Design for unintended use.

Volle Kontrolle über alle Elemente des Prozesses wird von Musikschaffenden abgelehnt. Ein Interface soll so frei gestaltet werden, dass es unterschiedliche Wege zum Ziel zulässt. Interfaces eröffnen damit einen Rahmen, indem sich Kreative ihre eigenen Methoden entwickeln, um ihre individuellen Prozesse zu bewältigen.

Design for a balance between an intuitive tool and an unpredictable tool […]

Musikschaffende beschreiben unterschiedliche Arbeitsmodi abhängig vom Fortschritt des Musikstücks. Deshalb ist es wichtig, den Zeitpunkt des Prozesses zu bestimmen, an welchem das Werkzeug Verwendung findet. Möglicherweise kann sich das Interface sogar je nach Phase an die Anforderungen adaptieren.

Restrict the possibilities of the musical tool.

Der Versuch, ein Werkzeug für Alles zu schaffen, birgt das Risiko, dass die Funktionalitäten eines Interfaces zu allgemein gehalten und deswegen uninteressant werden. Die Spezialisierung auf Funktionen grenzt den Spielraum ein und kann dadurch die kreative Exploration dieser wenigen Möglichkeiten fördern.

Make the tool compatible with everything else.

Eine Kompatibilität mit anderen Soft- und Hardware Produkten kann zu interessanten Symbiosen führen. Computer, Hardware-Interfaces bis hin zu Tablets und Smartphones können heutzutage als Klangerzeuger dienen. Die unterschiedlichen Eigenheiten und Interaktionsarten dieser Geräte können in Verbindung miteinander ein anderes Potential aufweisen als sie es alleinstehend tun.

Give the tool a possibility of passing sound through it.

Musikschaffende beschreiben jene Werkzeuge als interessant, welche die Fähigkeit haben, Audiosignale direkt zu verarbeiten. Dieser Umstand gibt dem Interface neben einem interaktiven auch einen klanglichen Charakter, welchen Benutzende kennenlernen können.

Gestaltungsüberlegungen von Miranda und Wanderley

In dem Buch „New Digital Musical Instruments: Control and Interaction Beyond the Keyboard“ weisen die Autoren auf fünf typische Überlegungen innerhalb eines Gestaltungsprozesses hin. Diese Vorschläge (Miranda & Wanderley, 2006) nehmen Bezug auf ihr Modell eines musikalischen Interfaces (siehe 2.2.1 im vollständigen PDF).

Decide on the gestures that will be used to control the system

Bei traditionellen Musikinstrumenten steht die Klangcharakteristik im Vordergrund und die erforderliche Interaktion, zum Beispiel das Führen eines Violinenbogens, orientiert sich daran. Dies setzt eine Konvention für das Spielen des Instrumentes fest und bedarf im Regelfall Übung, um sie ausführen zu können. Die Gestaltung der Interaktion, also eines motorischen Bewegungsmusters, kann demnach eine wichtige Rolle für den Charakter und die Wirkung eines musikalischen Interfaces spielen. Zum Beispiel: Ist es intuitiv, oder bedarf es Übung? Hat es einen performativen Aspekt? Steht die Bedienung in Beziehung zum Sound?

Die Bearbeitung und Erzeugung von Klang ist typischerweise von vielen Parametern und Einstellungsmöglichkeiten geprägt. Daher ist es in musikalischen Interfaces gängig, Steuerungselemente zu verbauen, welche eine präzise Kontrolle ermöglichen. Um einen Beat im Takt spielen zu können, scheint ein Knopf mit klarem Druckpunkt sinnvoller als eine Armbewegung. Die Exploration von Klang kann wiederum intuitiv mit Bewegungen stattfinden, anstatt mit Drehreglern Parameter zu manipulieren. Die Verbindung zwischen Funktionalität und Interaktion stellt einen wichtigen, gestaltbaren Teil der User Experience dar.

Define gesture capture strategies that will be best to translate movement into electrical signals […]

Damit die Interaktionen der Anwendenden registriert werden können, ist die Wahl der technologischen Bauteile ausschlaggebend. Sensoren sind die „Sinnesorgane“ einer Maschine und konvertieren physikalische in elektrische Energie. Sie existieren in unterschiedlichen Formen, Funktionalitäten und Qualitäten. Typischerweise finden folgende Messungen Verwendung: Hand-, Arm-, Kopf-, Lippen- oder andere Bewegungen, die Beschleunigung und Geschwindigkeit von Bewegung, Druck, Sound, Licht, Abstand, etc.

Define sound synthesis algorithms that will create the sound to be played; or, define the music software to be used for control of prerecorded musical processes.

Die Entwicklung neuer Klangsynthese-Algorithmen ist um ein Vielfaches anspruchsvoller als die Entwicklung eines Controllers. Oft benutzen Gestalter*innen deshalb bestehende Systeme der Klangerzeugung und entwickeln darauf aufbauend einen Controller. Eine Spezialisierung auf die Funktionalität und den Charakter des Systems ist dafür Voraussetzung.

In der aktuellen Produktlandschaft kann beobachtet werden, dass Hersteller diese Anweisung offensichtlich verinnerlicht haben: Es existieren immer mehr Produkte, welche auf konkrete Funktionalität spezialisiert oder für einzelne Softwareprogramme optimiert sind. Der „Ableton Push“ ist beispielsweise ein Controller welcher für das Softwareprogramm „Live“ derselben Firma entwickelt wurde. Die Zielsetzung dieses Interfaces ist es, ein komplexes Computerprogramm ohne einen Bildschirm bedienen zu können, es also intuitiv und haptisch erfahrbar zu machen.

Map the sensor outputs to the synthesis and music control inputs. This mapping can be arbitrary, so any unusual combination would be as feasible to instantiate as any coupling of gesture to sound known in acoustic instruments.

Der Mapping Prozess ist ein wichtiger Gestaltungsknotenpunkt. Die Art wie Sensordaten miteinander verknüpft und interpretiert werden, um den Klangerzeuger zu steuern, prägt die Funktionalität des Interfaces. Ein experimentelles musikalisches Interface eines YouTube Künstlers verknüpft beispielsweise Bewegungsgeschwindigkeit mit einem Farbwert und mappt diese Kombination auf einen Softwaresynthesizer. Im Falle des „Seaboard“ wurde eine Klaviertastatur neu erfunden: Es handelt sich nicht mehr um harte Tasten, sondern um Gel Pads, welche eine erweiterte Artikulation durch pressen, ziehen und sliden zulässt. Mit solchen kreativen Mapping Strategien können interessante Interaktions- und Klangkonzepte entstehen.

Decide on the feedback modalities available (apart from the sound generated by the system): visual, tactile and/or kinesthetic

Musikproduktion ist eine sinnliche Erfahrung. Ein Trommelschlag wird nicht nur gehört, wir können ihn auch spüren. Dieser Umstand erzeugt einen Dialog aus Instrument und Spieler*in. Diese Resonanzen von traditionellen Instrumenten entfallen bei musikalischen Interfaces. Die Überlegung, wie der Controller mit den Anwendenden kommuniziert – das primäre Feedback – ist eine grundlegende Überlegung im Gestaltungsprozess. So haben Displays, Vibrationselemente oder LEDs jeweils Vor- und Nachteile in ihrer Verwendung und ihren Anforderungen. Komplexe Interfaces mit vielen steuerbaren Parametern verlangen in der Regel auch eine umfangreichere Feedback Gestaltung. Zusätzlich gibt diese vor, inwiefern Kontrolle über das System ausgeübt werden kann und prägt dadurch den Charakter des Interfaces.

Rhythmusgerät Prototyping

Rhythmusgerät1.jpgRhythmusgerät1.jpg

„Rhythmusgerät“ ist ein musikalisches Interface, welches die Exploration und Kreation von Polyrhythmen und Polymetren ermöglicht. Es handelt sich um einen Controller (siehe 2.2.2 im vollständigen PDF), welcher MIDI-Noten in variablen Rhythmusmustern an Klangerzeuger weitersendet. So können interessante und komplexe Strukturen erschaffen werden, welche mit konventionellen Soft- und Hardwarelösungen nur bedingt oder schwierig nachzubilden wären.

Vielen gängigen Hardware-Sequenzern unterliegt ein rhythmisches Raster, welches in vordefinierte Zeiteinheiten eingeteilt ist. Das führt dazu, dass elektronische Musik oft ähnliche Rhythmusstrukturen zu verzeichnen hat. „Rhythmusgerät“ wirkt diesem Umstand entgegen, indem es möglich ist, verschiedene Rhythmuscharaktere miteinander zu kombinieren. Hierfür verfügt das Gerät über zwei grundlegende Rhythmusmodi: Polyrhythmik und Polymetrik. Die Kombination dieser Konzepte erlaubt es, Muster auch außerhalb des Rasters zu erzeugen um letztendlich ungewöhnliche Rhythmus- oder Betonungsvariationen zu erzeugen.

Konzepterläuterung

Rhythmusgerät2.jpgRhythmusgerät2.jpg

Im Folgenden wird das Konzept von „Rhythmusgerät“ in mehreren Teilen vorgestellt. Viele Entscheidungen basieren auf Überlegungen von Gelineck, Serafin, Miranda und Wanderley (siehe 2.4 im vollständigen PDF), welche jeweils vorangestellt sind.

Design for a balance between an intuitive tool and an unpredictable tool […]

Der explorative Charakter des Interfaces manifestiert sich in der Gestaltung des User-Interfaces. Anwender*innen können die einzelnen Rhythmusspuren mit einigen Werkzeugen manipulieren, jedoch lässt sich schwer voraussagen, wie das Endprodukt klingen wird. Diese Einschränkung zwingt Musikschaffende letztlich dazu, mit dem Gerät zu spielen, um zu einem Ergebnis zu kommen.

Restrict the possibilities of the musical tool.

„Rhythmusgerät“ ist damit innerhalb eines Musikproduktions-Prozesses eher in der ersten, explorativen Phase zu verbuchen. Es stellt weder das Herzstück des Workflows dar, noch wird es von Anfang bis Ende benötigt. Vielmehr ist es ein Ideengeber und Experimentiergerät und kann dadurch den klanglichen und vor allem den rhythmischen Charakter von Musikstücken prägen.

Eine weitere Anwendungsmöglichkeit bieten Live-Situationen. Zeitintensive Programmierungen von Rhythmen während eines Auftritts sind nur schwer umsetzbar. Hierfür bietet „Rhythmusgerät“ mit seinem intuitiven User-Interface eine Alternative: Durch die Kontrolle von wenigen Parametern können komplexe Rhythmusstrukturen in Echtzeit erstellt und verändert werden.

Make the tool compatible with everything else.

„Rhythmusgerät“ ist im Grunde ein MIDI-Noten Rhythmus-Generator. Dieser Umstand macht es zu einem flexiblen Teil eines musikalischen Setups. Welchen Klangerzeuger das Interface ansteuert, bleibt den Musikschaffenden überlassen. Es ist auch möglich, mehrere Klangerzeuger oder Effektgeräte gleichzeitig anzusteuern, um spannende Effekte zu kreieren. Das MIDI-Mapping von „Rhythmusgerät“ ist zudem dynamisch und kann je nach Bedarf angepasst werden. So kann zum Beispiel mit derselben Rhythmusspur zwischen zwei Klangerzeugern (mit jeweils unterschiedlichen MIDI-Kanälen) hin- und hergeschaltet werden.

Design for unintended use.

Komplexe User-Interfaces von Musikprodukten bedürfen oft wochenlanger Lernphasen, bevor sich ein persönlicher Flow mit dem Gerät einstellt. Benutzer*innen kommen gar nicht an den Punkt, Funktionen anders als vorgesehen zu benutzen, bevor nicht die Gesamtheit des Produktes begriffen wurde. Die Funktionen von „Rhythmusgerät“ sind wiederum reduziert und übersichtlich gehalten. Dies ermöglicht eine intuitive Gestaltung des User-Interfaces und Musikschaffende können das Gerät schnell verstehen und damit arbeiten. Diese Limitierung und der einfache Zugang lassen Anwender*innen schnell in einen Flow mit dem Gerät kommen. Rasch entwickeln Musiker*innen individuelle Anwendungsmöglichkeiten und nutzen die vorhandenen Werkzeuge oft anders, als sie angedacht waren.

Rhythmus, Polyrhythmus und Polymetrum

Puls-Takt-Taktart-Metrum.pngPuls-Takt-Taktart-Metrum.png

Rhythmus: ist die zeitliche Gestaltung und Ordnung von Noten. Er dient als Gestaltungsmittel, um den Aufbau von Spannung und Entspannung eines Musikstücks zu konstruieren. In diesem umfassenden Sinne definiert, enthält Rhythmus Elemente, die jeweils ein spezielles Zeitverhältnis repräsentieren (vgl. Lernhelfer, 2010). Um die Funktionsweise von „Rhythmusgerät“ zu verstehen, werden einige dieser Elemente im Folgenden erläutert:

Tempo: ist das die absolute Tondauer festlegende Zeitmaß, das Verhältnis „schnell – langsam“ (vgl. Lernhelfer, 2010). Angegeben wird das Tempo in BPM (Beats per Minute). Bei 60 BPM existiert demnach ein „Beat“ pro Sekunde. Bei gängigen Taktarten entspricht ein „Beat“ einer Viertelnote.

Puls: ist eine gleichmäßige Folge von Schlägen, dem Ticken einer Uhr vergleichbar. Er bildet das „Rückgrat“ für den rhythmischen Ablauf (vgl. Lernhelfer, 2010). Ein MIDI­-Clock-Signal (siehe 2.2.3 im vollständigen PDF) zur Tempo-Synchronisation von mehreren Geräten besteht zum Beispiel nur aus einem Puls. Es werden weder BPM, Taktart, oder sonstiges Parameter gesendet. Die Kalkulation des absoluten Tempos in BPM, muss demnach auf dem empfangenden Gerät selbst passieren.

Takt: gliedert die gleichmäßigen Pulsschläge durch regelmäßig wiederkehrende Betonungen (vgl. Lernhelfer, 2010). Takt ist demnach ein abstrakter Raster, welcher sich bis zum Ende des Stückes wiederholt.

Taktart: definiert sich danach, wie viele Notenwerte innerhalb eines Taktes vorkommen, also die relative Länge eines Taktes. Notenwerte werden typischerweise in Brüchen angegeben: 1/4 Noten, 1/16 Noten, etc. Eine Taktart wird durch eine Anzahl von Noten (dem Zähler des Bruches) und einem Notenwert (dem Nenner des Bruches) definiert. Ein 4/4 Takt besteht demnach aus vier Viertelnoten, während eine 6/8 Taktart aus sechs Achtelnoten besteht. Manche Musik Genres basieren auf für sie typischen Taktarten: Zum Beispiel der „Wiener Walzer“ auf einem 3/4 Takt oder „EDM“ auf der wohl meist benutzten Taktart 4/4.

Metrum: ist die Folge und Beziehungen der Betonungen, beziehungsweise, das Gewichte der einzelnen Taktzeiten, das Verhältnis „betont– unbetont“ (vgl. Lernhelfer, 2010). Metren sind mehrfach wiederholte Muster aus betonten und unbetonten Tönen. Während ein Takt regelmäßige und gleichbleibende Betonungen hat, besitzt ein Metrum komplexere, auch über einen Takt hinausgehende Betonungsmuster.

Mehrere Rhythmen – gleiche Zeit

Polyrhythmus-Polymetrik.pngPolyrhythmus-Polymetrik.png

Ein Polyrhythmus ist das gleichzeitige Auftreten verschiedener Rhythmen. Sie gelten als Kennzeichen traditioneller, afrikanischer Musik, sind mittlerweile aber auch ein wichtiger Bestandteil von westlicher Musik. Polyrhythmen werden oft in mathematischen Brüchen dargestellt, welche die Anzahl der Noten innerhalb einer bestimmten Zeit festlegen. Zum Beispiel der 4/5 Rhythmus: Während innerhalb einer Zeiteinheit genau vier Noten abgespielt werden, werden synchron dazu fünf Noten gespielt, welche naturgemäß ein wenig schneller erfolgen müssen um zu der gleichen Zeit zu enden. Die ersten beiden Noten der Sequenzen werden demnach stets zur selben Zeit gespielt. Dabei kommt es zu Verschiebungen der Noten aus dem Takt-Raster. Diese Rhythmusform erzeugt eine Spannung bei den Zuhörenden, indem die Erwartungen enttäuscht werden: Es passiert nicht immer das, was vom Gefühl her erwartet wird. Mathematisch ist zwar jeder Polyrhythmus darstellbar, jedoch sind wir Menschen ab einer gewissen Länge und Komplexität nicht mehr in der Lage, dass Muster wahrzunehmen.

Gleicher Rhythmus – mehrere Metren

Polymetren sind im Grunde mehrere Rhythmen, welche dieselbe Zeiteinheit und Notenanzahl aufweisen. Die Betonungsordnung, also wiederkehrende Betonungsmuster, unterscheiden sich allerdings jeweils. Wenn ein 3/4 Metrum über ein 4/4 Metrum gelegt wird, verschieben sich die Akzente, also die betonten Noten, pro Takt um jeweils eine Stelle. In diesem Fall würden sich die Akzente nach 12 Schlägen wieder „treffen“ und die Betonungsordnung wiederholt sich. Ähnlich dem Polyrhythmus erzeugen Polymetren Spannung in der rhythmischen Struktur von Musikstücken. Die Betonungen von Noten wiederholen sich nicht Takt für Takt, sondern „bewegen“ sich dynamisch im Verlauf des Songs. Auch Polymetren sind typisch für moderne Musik.

Funktionen und Bedienelemente

Die Bedienelemente von „Rhythmusgerät“ setzen sich aus sechs inkrementellen Drehgebern, einer großen „Shift“- Taste und acht kleinen Druckknöpfen zusammen. Das grafische User-Interface wird auf einem TFT Display angezeigt. Sämtliche Bedienelemente sind mit zwei Funktionen belegt, welche verfügbar werden, während die „Shift“-Taste gedrückt wird. Im Folgenden werden die einzelnen Funktionen und Modi beschrieben.

Hauptanzeige

Die Hauptanzeige besteht aus vier mathematischen Brüchen, welche jeweils einen Rhythmus repräsentieren und nicht mit der Darstellung von Taktarten zu verwechseln ist. Das kleine „M“ oder „P“ in der Mitte des Trennstriches indizieren den Rhythmuscharakter des gesamten Bruchs und stehen für Polymetrik oder Polyrhythmik. Zwar sind für die Berechnung des Rhythmusmusters Zähler und Nenner des Bruches relevant, trotzdem können beide Positionen als getrennte Spuren betrachtet werden, welche separat manipuliert werden können. Es gibt demnach acht alleinstehende Rhythmusspuren.

Elemente Hauptanzeige.pngElemente Hauptanzeige.png

Wechsel des Rhythmusmodus

Die Knöpfe über dem Display können dazu benutzt werden, um die gewünschte Spur auszuwählen. Ist eine Position bereits aktiv, kann durch erneutes Betätigen des Knopfes zwischen Polyrhythmik und Polymetrik gewechselt werden.

Mute

Wird die „Shift“-Taste gedrückt gehalten, dienen die Knöpfe zur Stummschaltung einzelner Spuren. Stummgeschaltete Spuren werden ausgegraut angezeigt. Die Funktion steht auch während der Manipulation von anderen Parametern zur Verfügung.

Drehgeber

Die Bedienung der Drehgeber wirkt sich ebenfalls auf die ausgewählte Spur aus. Hierbei wechselt die grafische Anzeige automatisch in den jeweiligen Modus, sobald ein Drehgeber bewegt wird.

Funktionen

IndicatorM.pngIndicatorM.png
IndicatorP.pngIndicatorP.png

Indicator

Der „Indicator“-Parameter verändert die Zahl des Bruches und verhält sich je nach Rhythmusmodus anders. Die Zahlen repräsentieren jeweils 32/1 Noten.

Polymetrik bestimmt, der wievielte Ton abgespielt wird. Bei der Zahl „5“ wird demnach jede fünfte 32/1 Note gespielt.

Polyrhythmik bestimmt, wie viele Töne innerhalb einer Bar (entspricht 4 Takten) abgespielt werden. Bei der Zahl „7“ werden demnach sieben Töne innerhalb von 4 Takten gespielt.

Skip.pngSkip.png

Skip

Hier können bestimmte Töne eines Rhythmus ausgelassen werden. Dabei steht die Zahl für die Position der ausgelassenen Note. Zum Beispiel: Bei einer „2“ wird jede zweite Note, bei einer „6“ jede sechste Note ausgelassen.

Velocity

Dieser Parameter bestimmt die generelle Lautstärke der abgespielten Noten. Diese wird in Schritten von 1 bis 16 eingestellt.

Accent.pngAccent.png

Accent

„Accent“ verhält sich ähnlich wie „Skip“, nur dass die Noten nicht ausgelassen, sondern akzentuiert werden. Ein Akzent bedeutet, dass die Note lauter gespielt wird. Zum Beispiel: Bei einer „3“ wird jede dritte Note akzentuiert. Akzente sind traditionelle Methoden, um einen Rhythmus interessant und organisch zu Gestalten.

Length.pngLength.png

Length

Die „Length“ definiert die Notenlänge. Standardmäßig ist diese auf 16/1 Noten eingestellt. Während dieser Parameter für perkussive Sounds eher unwichtig ist (sie bestehen eher aus einem Impuls anstatt einer langen Tonfläche), kann es für andere Klänge, wie zum Beispiel Bass Sounds, sehr wichtig sein, wie lange sie „anhalten“.

Offset.pngOffset.png

Offset

Dieser Parameter kann Rhythmen um 32/1 Zählzeiten verschieben. Das erweitert die Möglichkeit, Rhythmen fernab von konventionellen Zeit-Rastern zu gestalten.

Note

Der „Note“ Parameter sagt aus, welche Tonhöhe abgespielt wird. MIDI-Noten werden traditionell in numerischen Werten von 0 bis 127 angegeben. Dies ist für Musiker*innen nicht besonders intuitiv, vor allem im Hinblick auf die Kompatibilität mit anderen Musikschaffenden. Deswegen wird dieser Parameter mit den Notennamen (C, D, Fis, etc.) angegeben und die zugehörige, kleine Zahl repräsentiert die aktuelle Oktave.

Channel

Dieser Parameter bestimmt den MIDI-Kanal der Spur. Das ist vor allem für den technischen Aufbau des musikalischen Setups wichtig. Werden viele Geräte miteinander kombiniert, müssen diese auf unterschiedliche MIDI-Kanäle gelegt werden, um Interferenzen zu vermeiden. Aber auch eine kreative Anwendung dieses Parameters ist denkbar, um die Rhythmusspur zum Beispiel in Echtzeit an unterschiedliche Klangerzeuger zu senden.

Range

Dieser Parameter definiert die „Note-Range“, also einen Bereich von Noten, welche abgespielt werden. Ist die „Note-Range“ auf „0“, wird bei jeder Note ausschließlich der eingestellte „Note“-Wert abgespielt. Ist sie auf „4“ kann das Programm aus dem Grundton und den drei nächstliegenden Noten auswählen. Zum Beispiel: „Note“ C und „Range“ 3 ergeben folgenden Notenbereich: C, Cis und D.

Mode

Der „Modus“ Parameter bezieht sich auf die „Range“ und wird in Buchstaben angezeigt: „R“ steht für „Random“, es werden also zufällige Noten aus der „Note-Range“ abgespielt. „R“ steht für „Rise“, die Noten werden also ansteigend, der Reihe nach abgespielt. „F“ steht für „Fall“, die Noten werden absteigend abgespielt. Eine Erweiterungsmöglichkeit wären noch weitere Modi, wie zum Beispiel: „Rise and Fall“ oder „Double and Rise“, etc.

Settings und Parameter

Der letzte Drehgeber öffnet die Grundeinstellungen der Interfaces. Unter „Accent“ wird das Lautstärkenverhältnis von akzentuierten und nicht akzentuierten Noten in 1/10 Schritten angegeben. „Scale“ limitiert die Auswahl von „Tone“ und „Range“ auf gewisse Töne einer Tonskala. Berühmte Skalen sind zum Beispiel: Dur, Moll, Blues, Lydisch, etc. „MIDI“ besagt, ob die MIDI-Clock über USB oder die 5 poligen DIN Stecker bezogen wird. Und zu guter Letzt ist es möglich, unter „save“ und „load“ den kompletten Zustand der Rhythmusspuren des Geräts zu speichern oder zu laden.

Screens_TFT.jpgScreens_TFT.jpg

Konstruktion

Das Produktdesign von „Rhythmusgerät“ folgt ganz dem Leitsatz „form follows function“ und ist auf das Wesentliche reduziert. Das Gehäuse besteht aus 12 mm starken Multiplex-Platten, welche aufgrund ihrer häufigen Anwendung im Modellbaubereich den DIY-Charakter des Produkts hervorheben und trotzdem einen hochwertigen Eindruck machen. Das Plattenmaterial ist zudem einfach zu verarbeiten, zu veredeln und ist außerdem kostengünstig. Die Frontplatte wird aus 2 mm starken Aluminium gefräst und anschließend in schwarz eloxiert. Das Material wirkt hochwertig, kühl und klar und stellt mit seiner seidig-matten Oberfläche den Kontrast zum organischen und warmen Charakter des Holzes dar. Die Kombination aus Metall und Holz ist zudem gängig im Bereich von hochwertigen musikalischen Interfaces.

Rhythmusgerät3.jpgRhythmusgerät3.jpg

Bauteile

Die Bedienelemente wurden vor allem im Hinblick auf Design und Haptik ausgewählt. Die kleinen Tasten haben einen deutlichen Druckpunkt und die Drehgeber weisen einen leichten Widerstand bei einer Bewegung auf, was eine präzise Kontrolle ermöglicht. Der große „Shift“-Taster wird typischerweise in Arcade-Spielautomaten verbaut und ist deswegen sehr robust und weißt einen klaren Druckpunkt auf. Da es sich um das meist benutzte Bedienelement handelt, ist dieser Taster auch in seiner Position hervorgehoben.

Das Display ist ein TFT-LCD Farbdisplay mit 320x240 Pixeln. Hier gibt es bereits wesentlich hochauflösendere und effizientere Displays, jedoch ist das Verwendete für diesen Anwendungsfall, vor allem im Hinblick auf den Preis, völlig ausreichend.

Das Herzstück von „Rhythmusgerät“ ist ein „Teensy 3.6“ Mikrocontroller. Dieser stellt aufgrund seiner Leistung und seiner umfangreichen Hardwareperipherie einen soliden und verlässlichen Grundbaustein dar. Aufgrund seiner nativen MIDI-Unterstützung ist er zudem für MIDI-Anwendungen prädestiniert.

Technische Umsetzung

Um die Elektronik kompakt zu gestalten, wird der komplette Schaltplan nach vorangegangenen Breadboard Tests auf eine PCB (Printed Circuit Board) oder auch Leiterplatine geätzt. Dies beugt zum Beispiel Lötfehlern, „Kabelsalaten“, Kabelbrüchen oder auch Beschädigungen durch mechanische Beanspruchungen des Prototypen vor. Das Coding von „Rhythmusgerät“ wurde in der Programmiersprache „C“ umgesetzt.

Konstruktion

Ein wichtiger Aspekt bei der Planung eines musikalischen Interfaces ist auch die Innenraumgestaltung des Gehäuses. Bauteile haben verschieden Größen und der sichtbare Teil stellt meistens nur „die Spitze des Eisbergs“ dar. Damit sich die Bauteile nicht gegenseitig im Weg sind, die Fräsungen und Bohrungen mit den Leiterplatinen übereinstimmen und das Gerät trotzdem klein und handlich bleibt, muss der Innenraum sehr genau geplant werden. Die Bauteile müssen exakt vermessen werden und oft auf Zehntel Millimeter genau ausgerichtet werden. Um in solchen dreidimensionalen Objekten den Überblick zu behalten, wurde auch dieser Schritt in einer 3D Software realisiert. Auch der Gehäusebau kann so gut geplant und angepasst werden.

Gallerie

Rhythmusgerät - 1.6.jpgRhythmusgerät - 1.6.jpg
Rhythmusgerät - 1.10.jpgRhythmusgerät - 1.10.jpg
Rhythmusgerät - 1.8.jpgRhythmusgerät - 1.8.jpg
Rhythmusgerät - 1.22.jpgRhythmusgerät - 1.22.jpg
Rhythmusgerät - 1.7.jpgRhythmusgerät - 1.7.jpg
Rhythmusgerät - 1.20.jpgRhythmusgerät - 1.20.jpg

Ausblick

Der nächste Schritt des Projekts „Rhythmusgerät“ ist es, das Potential auf lange Sicht zu testen: Wie verwenden andere Musikschaffende das Gerät und bewährt es sich als Zusatzgerät für bestehende Setups? Ist es eher für Menschen eines bestimmten Genres interessant? Ist es nach kurzer Zeit langweilig? Solche spezifischen Fragen können durch Beobachtung, Interviews, etc. beantwortet werden und das Interface kann sich so Stück für Stück weiterentwickeln.

Eine Möglichkeit wäre es, die Weiterentwicklung von „Rhythmusgerät“ mittels einer Crowdfunding Plattform zu finanzieren. Da das Interface in Handarbeit gefertigt ist, bedarf es einer Optimierung der Konstruktion und Elektronik, um den Prototypen in höheren Stückzahlen produzieren zu können. Ein Vergleich mit anderen musikalisch-elektronischen „Kickstarter“-Projekten deutet auf ein Interesse der Community an solchen Produkten hin.

Ein weiterer Ansatz wäre es, die Pläne und Codes von „Rhythmusgerät“ als Open-Source Projekt zu veröffentlichen: Durch einige Anpassungen könnte der Code in sogenannte „Libraries“ umgeschrieben werden, und so für andere Entwickler*innen gut dokumentiert veröffentlicht werden. Auch Leiterplatinen, Baupläne oder Bauteillisten könnten es anderen Designer*innen ermöglichen, „Rhythmusgerät“ selbstständig zu fertigen, oder Teile davon als Inspiration für eigene Projekte zu verwenden.

Fazit

Ich wollte als Kind immer Erfinder werden. Die Kombination aus kreativen Ideen, lösungsorientiertem Denken, moderner Technologie, gestalten, konstruieren und dem Verständnis an meiner Umwelt faszinieren mich. Viele Jahre später studiere ich Interfacedesign in Potsdam. Ich denke, diese Abschlussarbeit spiegelt diese Interessen und meinen daraus resultierenden Studienverlauf wider. In Kombination mit meinem Interesse für Musik kann ich das letzte Projekt meines Bachelors ganz klar ein Herzensprojekt nennen. Es fühlt sich so an, als hätte ich nachhaltig eine Nische im Interfacedesign gefunden, mit der ich mich identifiziere und die mich motiviert und erfüllt.

Es waren vier Monate mit sehr viel Arbeit und Fleiß um meine Vision zu realisieren. Verworfene Prototypen und Ideen zehrten an meiner Motivation und die für mich ungewohnte Auseinandersetzung mit wissenschaftlicher Literatur war an vielen Stellen anstrengend und zäh. Vor allem hat mir auch Austausch über meine Arbeit gefehlt, da sich wenige Menschen in meinem Umfeld mit diesem sehr speziellen Spannungsfeld zwischen Musikproduktion und Interfacedesign auseinandersetzen. So schwamm ich oft buchstäblich in der „eigenen Suppe“ und fand mich oft selbst in der Rolle des Kritikers, Zuhörers oder Motivators wieder. Zusätzlich fehlte mir auch Zeit. Ich wollte am Ende ein fertiges, funktionales Produkt in den Händen halten. Dieser Anspruch erforderte die Disziplin, die wochenlange Isolation in unserem „Office“ auszuhalten, sich auf die Arbeit zu konzentrieren und vor allem das bunte Treiben meiner WG auszublenden. Doch es hat sich gelohnt: Ich habe mich besonders fachlich, aber auch persönlich spürbar weiterentwickelt. Es fühlt sich so an, als wäre es der richtige Zeitpunkt und das richtige Projekt, um mein Studium abzuschließen. Ich freue mich auf die Zeit danach. Danke FHP für diese aufregende Zeit.

Anhang und Quellen

Literaturverzeichnis

Daniel A. Walzer (2017). Independent music production: how individuality, technology and creative entrepreneurship influence contemporary music industry practices, Creative Industries Journal, 10:1, 21-39

Dubé L., Le Bel J. (2003). The content and structure of laypeople‘s concept of pleasure.

Gelineck, S., & Serafin, S. (2009). From Idea to Realization - Understanding the Compositional Processes of Electronic Musicians. In Proceedings of the 2009 Audio Mostly Conference

Lernhelfer (2010). Rhythmus [https://www.lernhelfer.de/schuelerlexikon/musik/artikel/rhythmus] abgerufen am 12.12.18

Miranda, E. R., & Wanderley, M. M. (2006). New Digital Musical Instruments: Control and Interaction beyond the Keyboard. Middleton, Wisc: A-R Editions.

Music Industry Blog (2017). Global Recorded Market Music Market Shares 2016 [https://musicindustryblog.wordpress.com/2017/02/26/global-recorded-market-music-market-shares-2016/] abgerufen am 12.12.18

Roads, C. (2004). Microsound. Cambridge, Mass: MIT Press.

Techopedia (2018). Maker Movement [https://www.techopedia.com/definition/28408/maker-movement]

Wikipedia „Musical Instrument Digital Interface“ (2018). https://de.wikipedia.org/wiki/Musical_Instrument_Digital_Interface abgerufen am 12.12.18.

Wikipedia „Musik“ (2018). https://de.wikipedia.org/wiki/Musik abgerufen am 12.12.18.

Ein Projekt von

Fachgruppe

Interfacedesign

Art des Projekts

Bachelorarbeit

Betreuung

foto: Prof. Myriel Milicevic foto: Lina Wassong

Entstehungszeitraum

Wintersemester 2018 / 2019

Keywords

zusätzliches Material