Dette skulle jeg gjort for snart et år siden. Det er ikke så lett å vise folk en lydinstallasjonen. Når jeg skal fortelle folk om "Tilhører" blir det derfor gjerne til at jeg ender opp med å be dem ta en tur og høre selv. "Tilhører" er en lydinstallasjon som styres av en app (utarbeidet sammen med Johannes Ringheim, som også har programmert det hele). Appen kontrollerer et lydbilde med utgangspunkt i brukerens posisjon og orientering. Ideen er at posisjoneringen skal være mer presis enn hav en oppnår med GPS, samt kunne fungere både innendørs og utendørs. For å oppnå dette har vi brukt Bluetooth beacons, noe som rent teknisk har vært mindre vellykket. Dvs dette fungerer fint, men vi har vært nødt til å tilpasse hele applikasjonen ut i fra det faktum at Bluetooth LE faktisk ikke er særlig godt egnet til det vi ønsker å oppnå. I alt står det seks sendere i hagen. Brukerens posisjon i forhold til senderne påvirker avspilling av seks ulike fortellinger og en del effektlyder. I tillegg er det et underliggende lydspor med miljølyd.
Når jeg først fikk rotet meg til å gjøre noe med hensyn til dokumentasjon, så tok det sånn ca fem minutter.
Oppsettet er enkelt. I stedet for å koble headset til enheten som styrer avspillingen, så koblet jeg denne direkte i kamera:
Vi hører her forskjellige stemmer, i form av bruddstykker fra fiktive mobilsamtaler. Hver stemme er knyttet til en sender. Når appen detekteren en sender som den som er "nærmest", så spiller den av en og en dialoglinje. Når jeg beveger meg videre kommer andre stemmer nærmest, og avspillingen av disse overtar i lydbildet. Når jeg kommer tilbake til en sender som jeg har vært nær tidligere, holder appen orden på hvilke lydfiler (dialoglinjer) jeg allerede har hørt og spiller av der jeg slapp.
Når jeg først fikk rotet meg til å gjøre noe med hensyn til dokumentasjon, så tok det sånn ca fem minutter.
Oppsettet er enkelt. I stedet for å koble headset til enheten som styrer avspillingen, så koblet jeg denne direkte i kamera:
Forskning på egen empiri.Selv den som har satt premissene for hvordan teksten skapes blir innimellom overrasket av kombinasjonene som oppstår. |
Videoen nedenfor er dermed et salgs subjektivt kamera, som viser mine bevegelser samtidig som lydsiden gjenspeiler det jeg ville hørt i headsetet. Senderne er plassert langs sidene, og i videoen nedenfor beveger jeg meg noenlunde langs denne banen:
Orientering er et poeng her, lydbildet panoreres i noenlunde sammenfall med at jeg snur meg. Det betyr at opplevelsen blir best ved å høre dette opptaket med headset:
Vi hører her forskjellige stemmer, i form av bruddstykker fra fiktive mobilsamtaler. Hver stemme er knyttet til en sender. Når appen detekteren en sender som den som er "nærmest", så spiller den av en og en dialoglinje. Når jeg beveger meg videre kommer andre stemmer nærmest, og avspillingen av disse overtar i lydbildet. Når jeg kommer tilbake til en sender som jeg har vært nær tidligere, holder appen orden på hvilke lydfiler (dialoglinjer) jeg allerede har hørt og spiller av der jeg slapp.