In seiner Funktionalität auf die Lehre in gestalterischen Studiengängen zugeschnitten... Schnittstelle für die moderne Lehre
In seiner Funktionalität auf die Lehre in gestalterischen Studiengängen zugeschnitten... Schnittstelle für die moderne Lehre
In diesem Kurs haben wir eine große Breite von verschiedenen Software, Tools und dessen Möglichkeiten in AR kennengelernt.
Es wurden erste Grundlagen vermittelt und durch mehrere kleine Aufgaben umgesetzt. Durch unser freies Projekt am Ende konnten wir gelerntes direkt anwenden und uns auf unsere Lieblings AR Experience konzentrieren.
Unsere erste Aufgabe war es, sich mit Artivive zu beschäftigen, indem wir ein eigenes Kunstwerk/Zeichnung oder Foto nehmen sollten und als Marker für unsere erste AR Anwendung nutzen sollten und mit einem kleinem Video wie einer Animation erweitern.
Artivive sind Bildmarker basierte AR Experiences, die ohne QR Codes funktionieren, so konnte das Kunstwerk und die Animation einfach über Artivive hochgeladen werden und war direkt abrufbar.
Ich nutzte hier ein Acrylgemälde von mir und animierte es so, dass das Bild auf und ab schwenkt, als würde die Frau im Pool schwimmen und das Wasser sich bewegen.
Bei unserem zweiten Treffen ging es um Plakate und 3D Objekte, die wir als Aufgabe hatten in Illustrator mit der 3D Funktion zu erstellen und anschließend als gltf und jpg zu exportieren und in Adobe Aero zu importieren. Für das Plakat sollte diesmal anders als bei Artivive, ein QR Code generiert werden, um die Experiences nutzen zu können bzw zu verknüpfen.
Bei unserem nächsten Treffen hatten wir die Aufgabe bekommen, eine eigene Szene in dem Apples Reality Composer zu bauen, welcher nur mit dem I Pad oder I Phone funktionierte und einen Worldanker nutzte.
Dazu sollten wir bereits verfügbare Assets aus dem Reality Composer als auch ein USDZ aus einer freien Datenbank wie z.B Sketchfab nutzen.
Am Ende sollten wir noch einen Sound unserer Wahl hinzufügen, um ein besseres AR Erlebnis zu bekommen. Ich entschied mich für eine kleine Unterwasserwelt mit Luftblasen, Fischen und einem Unterwassersound. Die Luftblasen Assets sind von dem Reality Composer und die Fische aus Sketchfab.
Bei der Aufgabe habe ich mein I Phone genutzt, aber schnell bemerkt, wie schwierig sich dies gestaltete und bin dann später wieder auf das I Pad umgestiegen.
Bei unserem vierten Treffen, haben wir uns mit verschiedenen Materialien und Adobe Dimension beschäftigt.
Dazu haben wir gemeinsam ein Modell aus Sketchfab, hier die Vasen in Adobe Dimension importiert und mit bereits vorhandenen Materialien aus der Library von Adobe Dimension, bearbeitet und deren verschiedenen Funktionen kennengelernt. Auch lernten wir Funktionen wie die Skalierungen von Roughness und Metallic kennen und probierten uns durch diese spielerisch. Anschließend exportierten wir diese als GLBS und wandelten mit dem Reality Converter diese in USDZ um. Im Reality Converter konnte man dann auch nochmal eine schicke Ansicht erhalten und hatte verschiedene Fotokulissen, mit verschiedenen Lichtverhältnissen zur Verfügung, an denen wir uns auch ausprobieren konnten.
Als Hausaufgabe sollten wir mit dem Thema FHP Studiengang ein Asset aus Sketchfab nutzen und die Texturen in Adobe Dimension ändern. Dazu nutzten wir wieder ein PBR Material aus ambientcg und exportierten es am Ende als GLB in den Reality Converter und wandelten es in ein USDZ um.
Ich entschied mich für einen Schreibtisch mit Computer in den FHP Farben da ich meinen Studiengang Interfacedesign mit dem digitalem Arbeiten am Schreibtisch verbinde.
Als nächstes lernten wir Scenery kennen, welche geobasiert arbeitet.
Hierfür haben wir die Aufgabe gehabt, die Koordinaten der FHP zu nehmen, sodass das Modell und die Experience mit der Animation, dann immer nur vor der FHP anzusehen bzw zu erleben ist. Dazu sollten wir eine geo basierte Experience vor der FHP bauen und auch wieder Bezug zum Studiengang nehmen und unser Asset am Ende noch animieren.
Ich habe hierfür mein vorheriges Asset den Schreibtisch genutzt und animiert.
Bei unserem nächsten Treffen haben wir Spark kennengelernt, welche Software mit Gesichtstracking arbeitet und für Instagram Face Mark Filter nutzt.
Unsere Aufgabe war es, den Face Mark Filter auszuprobieren, indem wir ein schon vorgegebenes Template , hier einer blauen Tiger Gesichtsmaske erhielten und diese bearbeiten sollten, indem wir sie neu bemalen oder unsere eigene erstellen.
Ich habe hierfür mit Photoshop eine Bambimaske gemalt und die alte Maske herausgelöst und durch meine eigene ersetzt.
Für mein eigenes Projekt, wollte ich eine begehbare Szene in dem Reality Composer bauen, indem es 4 verschiedene Stationen zur Stressbewältigung im Alltag gibt.
die Szene sollte eine Art geschlossener Raum hergeben, der es trotzdem zulässt, nach Außen zu schauen und gleichzeitig Ruhe und Schutz bietet um zu entspannen.
Ich habe mit KI Stimmen von Elevenlabs gearbeitet und mich für eine sanfte und beruhigende Stimme entschieden, die ich nochmals etwas verlangsamte. Diese sollte Nutzer*innen in meiner Szene Willkommen heißen und sie auch durch jede einzelne Station führen um gemeinsam alle Aufgaben zu erleben.
Mir war wichtig, die Stationen mit verschiedenen Assets zu gestalten, die dem Raum ebenfalls eine gewisse Ruhe geben und natürlich zu meinem Thema passen sollten. Hierbei habe ich mich mit Ruhe, Natur und Meditation beschäftigt. Die Assets habe ich aus Sketchfab geladen und in Adobe Dimension bearbeitet und mit einer freien PBR Datenbank an Materialien hinzugefügt.
Ich Habe Assets wie Bäume, einen Brunnen, Eine Froschstature, Kopfhörer, Yogamatten usw. verwendet.
Die Experiences geht über 6 Minuten, da es mir wichtig war, dass die Menschen die sie nutzen, sich die Zeit nehmen können, alle Stationen in Ruhe zu erleben und wirklich eine Stressreduzierung erfahren können. Für die Stationen gibt es Aufgaben wie eine Atem, Meditation, Muskelentspannung & Dankbarkeitsübung, die alle gegen Stress im Alltag helfen sollen.
Zusätzlich habe ich noch Natursounds, wie Wald und Vogelgetzwitscher im Hintergrund eingebaut, als auch White Noises, um eine entspannte Atmosphäre zu schaffen.
An jeder Station gibt es Interaktionen, die durch Tippen erfolgen.
Für die Personen, die sich nicht von alleine zurecht finden, gibt es am Anfang der Szene Infotafel mit allen wichtigen Tipps zur Szenenbenutzung und Navigation innerhalb der Szene.
Während meines Projektes sind auch Probleme aufgetaucht, wie zum Beispiel die Kopplung von so vielen verschiedenen Interaktionen und Sounds im Hintergrund gleichzeitig und dem abspielen der KI Stimmen. Das konnte dann aber durch richtiges Verknüpfen und Layern, als auch das Abspielen als Ambience gut gelöst werden. Ebenso verschwanden einige Assets von mir oft unter dem Boden beim abspielen der Szene, welche aber durch herausnehmen der Physik schnell behoben werden konnte.
Am Ende hatte ich noch kleine Skallierungsprobleme von der Szene, welche ich dann aber auch anpassen konnte.
Am Ende des Videos gibt es den QR Code, der abgescannt werden kann, um direkt in die Szene in Reality Composer zu gelangen und die Anti Stress Experiences auszuprobieren.
Generell hat mir mein Projekt, als auch der gesamte Kurs, super viel Freude bereitet und ich mochte total diese ganze Vielfalt an Input, Software kennenlernen und ausprobieren. Es war super, so viel kreativen Freiraum zu haben und generell so viel über AR zu lernen.