In seiner Funktionalität auf die Lehre in gestalterischen Studiengängen zugeschnitten... Schnittstelle für die moderne Lehre
In seiner Funktionalität auf die Lehre in gestalterischen Studiengängen zugeschnitten... Schnittstelle für die moderne Lehre
Wir haben mithilfe von Unity und der Occulus Quest ein XR-Erlebnis geschaffen, um das Interfacelabor in ein düsteres Arbeitszimmer umzugestalten. Das Projekt habe ich zusammen mit Anton Schmolze umgesetzt.
Als erstes haben wir uns in einer Brainstorming-Runde Gedanken darüber gemacht, welche Stimmung der Raum haben sollte, den wir entwerfen. Wir waren uns ziemlich schnell einig, dass die Atmosphäre eher unangenehm und gruselig sein sollte, so wie in Bioshock. Unser Plan war, eine Unterwasserwelt zu bauen, in der die Spieler*innen in eine kleine Stresssituation geraten, zum Beispiel ein Leck in einem U-Boot flicken müssen. Wir wollten eine richtige Story um den Raum herum aufziehen und haben uns überlegt, welche Requisiten dabei interaktiv gemacht werden könnten. Auch eine Pillenschachtel, Handschellen, zerknüllte Notizen waren anfängliche Ideen, die wir hatten.
Wir haben schnell festgestellt, dass wir unsere Aufgabenbereiche klar trennen müssen. Anton kümmert sich um das Ambiente, die Lichter und besorgt die Models. Ich kümmere mich um die Interaktionen, den Sound und die Übertragung auf die Occulus.
Als erstes habe ich einen Wecker umgesetzt. Dafür habe ich mich mit Poke-Interaktionen aus der Occulus SDK auseinandergesetzt. Vor dem Projekt hatte ich noch keine Erfahrung mit Unity oder Blender. Für mich war das Arbeiten mit 3D-Objekten komplettes Neuland. Nachdem ich mich mit Unity angefreundet hatte und erste Interaktionen ausprobiert hatte, habe ich den Wecker umgesetzt. Die Poke-Interaktion besteht aus einem Objekt, das angeklickt werden soll, einer Fläche, auf der die Grenze für das Objekt bestimmt wird, und dem Abstand zwischen diesen beiden Teilen. Ich habe ziemlich lange gebraucht, um die richtige Größe und den Abstand zu finden, der zum Schalter des Weckers passte. Das klingt vielleicht trivial, aber ich habe viel zu lange daran gearbeitet, ohne mir die Gizmos anzeigen zu lassen, also die Gitter der Objekte. Deshalb habe ich mich lange im Dunkeln getappt, das war ein Anfängerfehler. Mithilfe der Gizmos war es einfach, die richtige Größe für den Schalter und die Tiefe des Drucks einzustellen.
Zusätzlich habe ich für die Uhr einen Timer implementiert, der bei fünf Minuten startet. Nach Ablauf der Zeit fängt er an zu klingeln und regt Spieler*innen so an, ihn auszuschalten. Wird der Wecker dann betätigt, endet das Spiel.
Nachdem ich mich etwas mehr mit Unity auseinandergesetzt habe, habe ich einen Flaschenautomaten interaktiv gemacht. Dafür habe ich die gleiche Poke-Logik wie für den Wecker verwendet. Ein leuchtender Schalter am Automaten soll dazu einladen, ihn zu drücken. Passiert das, hört man ein Piepen und Rumpeln und eine Flasche fällt aus dem Automaten, wenn dieser nicht leer ist oder die Flaschen buggen.
Zum Raum gehört auch ein Schreibtisch mit einem Computer auf dem eine Zigarettenschachtel und leere Flaschen stehen. Diese habe ich noch grabable gemacht.
Der Sound ist ein wichtiger Aspekt, um die Nutzer:innen vollständig in die Anwendung einzutauchen. Ich habe mir auf freesound.org Samples rausgesucht, zum Beispiel das Klingeln des Weckers, das Rumpeln des Flaschenautomaten, das Flackern der Neonröhren und ein Maschinenrauschen für die Umgebung im Raum.
In Unity kann man diese Sounds den Objekten hinzufügen und bei bestimmten Interaktionen auslösen, z. B. wenn eine Flasche auf den Boden geworfen wird, dann klirrt sie. Außerdem kann man einen Radius einstellen, der dafür sorgt, dass die Sounds je nachdem, wie nah man sich am Objekt befindet, lauter werden. Diese Einstellung ist sehr wichtig und trägt viel zur Immersion bei.
Das Projekt haben wir dann auf der Werkschau erfolgreich ausgestellt. Wir hatten das Interfacelabor ja vorher schon gemapped und im XR Raum alles so aufgebaut, wie er auch in der Realität steht. Deshalb konnten sich die Spieler*innen frei im Raum bewegen, ohne Controller. Alle Interaktionen waren darauf ausgelegt, ohne Controller bedient zu werden. Ich habe an beiden Tagen während der Werkschau das Interfacelabor betreut, mit Interessierten Besucher*innen gesprochen und unser Projekt vorgestellt.
Ich fand das Mapping am spannendsten. Wenn das gut funktioniert, macht das einen großen Unterschied dabei, wie immersiv die erweiterte Realität wahrgenommen wird. Wenn das Mapping gut ist und man sich frei im Raum bewegen kann, hat man das Gefühl, an einem anderen Ort zu sein. Das Mapping hat bei uns gut geklappt, war aber nicht ganz perfekt.
Mit Unity zu arbeiten war anfangs ziemlich herausfordernd. Auch wenn ich mich mit Programmieren auskenne, war es mühsam, sich in die Funktionalitäten einzuarbeiten, weil man sich mit vielen Komponenten auskennen muss. Der Schalter für den Wecker besteht zum Beispiel aus zwei Objekten: einem Model und einem Visual Objekt. In sich tragen sie auch noch ein Surface und ein weiteres Visual Objekt. Diese sind dann mit mehreren Komponenten ausgestattet, die auch Einstellungen erfordern. Es wird also ziemlich schnell ziemlich komplex.
Nachdem ich mich reingefuchst hatte und auch ein bisschen sicherer im Umgang mit den Komponenten war, hat es Spaß gemacht, Objekte interaktiv, drückbar und greifbar zu machen. Die Arbeitsteilung mit Anton hat echt gut geklappt. Am Anfang hatten wir uns zu viel vorgenommen. Wir wollten ja eigentlich eine richtige Story um den Raum herum spinnen, waren dann aber doch eher damit beschäftigt, alles zum Laufen zu kriegen. Mit dem Endergebnis sind wir beide sehr zufrieden.