JON HOEM

Førsteamanuensis ved Institutt for kunstfag, Høgskulen på Vestlandet – Bergen.

Underviser i kunst og håndverk, og forsker på og med nye kunst- og medieformer. Leder forskergruppen MaTecSus.

Jeg er interessert i forholdet mellom medier og fysiske materialer: i 2021 kom boken Digitale medier og materialitet med en grundig diskusjon av denne tematikken. Jeg er særlig interessert i det haptiske (berøring og bevegelse) knyttes til lyd.

Fremover jobber jeg særlig med den telematiske operaen Zosimos (2023-26) og (støy)instrumentet Sonic Greenhouse.

Nylig avsluttede prosjekter er Sonus (2023), Sampling av lyd og bærekraft (2022-), "Auditomosjon" (2021-23) og "Aquafoni" (2022).

Videre sfæriske medier, ulike former for roboter, mm.

Min Dr.-avhandling om personlig publisering (2009).

Siterte artikler og publikasjoner i Cristin.

23. april 2018

«Loving Vincent» møter deepart

«Loving Vincent» byr på overveldende animasjonskunst, ifølge Aftenposten. 125 kunstmalere fra hele verden har laget over 65.000 malerier som til slutt forteller historien om kunstner Vincent van Goghs liv.



Jeg har nylig skrevet en artikkel på bakgrunn av et prosjekt der studenter benytter en fitreringstjenste for å skape visualiseringer. Dette har vært en utforsking av teknikker og metoder som lar unge uttrykke seg visuelt med enkle digitale teknikker. Det å skape og oppmuntre til å skape har vært det sentrale. Samtidig har det vært et mål å teste noen måter å anvende lett tilgjengelige, digitale verktøy for å utvikle kunnskaper og arbeidsmåter og tilhørende undervisningsopplegg som kan brukes av lærere i skolen.

Artikkelen "Utforsking av visuell kultur gjennom remiksing av eventyr" kommer i antologien Redesign og multimodalitet i norskfaget, på Fagbokforlaget. Redaktører er Magne Rogne og Lars Rune Waage.

Jeg begynte med dette med dette med utgangspunkt i utviklingen av algoritmer for filtrering, beskrevet av Gatys et al (2015) i artikkelen "A Neural Algorithm of Artistic Style". teknikker som senere er adoptert av Snapchat m fl, og nettsteder som Lunapic.com (det studentene benyttet).

Så hvordan funger noenlunde samme metode sammenlienet med «Loving Vincent» ....

Slik foregikk animasjonsprosessen for «Loving Vincent»: Bildet til venstre er van Goghs maleri, i midten et foto av skuespiller Jerome Flynn som Dr. Paul Gauchet, mens bildet til høyre er fra filmen.



Dermed er spørsmålet: Hva skjer når tjenesten deepart.io får prøve seg med originalbildet og fotografiet ovenfor som utgangspunkt? Da ender det opp slik:



Studentene jobber mer sammensatt med dette, dvs de satte sammen bilder fra ulike kilder før filtrering. Filtrene gjør imidlertid at manipulasjonen ikke blir så krevende, samtidig som det visuelle resultatet blir ganske overbevisende. Forhåpentligvis med mestring og påfølgende fortellerglede som et resultat.

21. april 2018

The Master Algorithm

The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World:

Mye spennende her, men det mest interessante kommer i spørsmålsrunden, etter ca 45 minutter.



Dette henger sammen med det grunnleggende premisset for foredraget om Bærekraftig utdanning vha. programvare: Algoritmer styrer i økende grad våre liv. De finner bøker, filmer, jobber og partnere for oss, administrerer våre investeringer og oppdager nye stoffer. I verdens fremste forskningslaboratorier og universiteter er de på jakt etter den ultimate læringsalgoritmen: en algoritme som er i stand til å oppdage kunnskap fra data og gjøre alt vi vil, før vi selv spør om det.

"If we were so simple that we could understand the brain, we would be so stupid that we couldn't." – kompeksiteten i den menneskelige hjerne er så stor at vi må ha The master algorithm for å forstå den.

19. april 2018

AIsoy deklamerer Kubla Khan, av Samuel Coleridge

Før den beveger seg inn i høykulturen må Aisimovs lover for roboter være på stell:



OK, AIsoy-roboten har litt å gå på som diktoppleser, men jeg synes nå likevel den gjøre en hederlig jobb - det er ikke den enkleste engelsken dette:



Det hele kodet i Scratch, dvs at elever kan kode direkte i nettleseren og teste mot roboten umiddelbart:



Her kan du lese mer om hvordan roboten kan programmeres. Eksemplet ovenfor er jo veldig rett frem, men en kan f eks utnytte robotens sensorer til å skape betingelser og dermed gi brukeren ulike valg som i sin tur leder til ulike sekvenser.

9. april 2018

Operasjon Bruno – Fjell festning

I anledning dagen 9. april kan det passe å vise til Operasjon Bruno, en medieopplevelse som presenteres for brukeren mens vedkommende beveger seg rundt i bunkeren på Fjell festning. Jeg var med på å denne produksjonen i 2016, der jeg jobbet med ide, manus og lydsiden.

Installasjonen setter brukeren inn i en setting, som er knyttet til en historisk hendelse: for snart 75 år siden, den 12. juli 1943 var “Bruno”, et av de største kanontårnene fra det tyske slagskipet Gneisenau, nettopp ferdig montert og skulle avfyres for første gang.



Brukerens oppgave er å assistere kapteinløytnant Haase (en fiktiv person) under hans gjennomgang av noen av rutinene forut for testskytingen. Haase er hele tiden med deg og gir deg klare instruksjoner. Du har ansvar for en kontrollenhet og du skal iverksette hans kommandoer, mens dere er innom alle de nødvendige sjekkpunktene forut for avfyringen.

Brukeren får noe informasjon via skjermen på nettbrettet, men det viktigste skjer på lydsiden. Skjermbildene nedenfor fungerer slik sett dårlig som en dokumentasjon: en stemme snakker til snakker til brukeren og forklarer veien, mens den totale opplevelsen blir til i samspill med de fysiske omgivelsene i bunkeren.

Nede i bunkeren er det plassert en rekke små, batteridrevne Bluetooth-senderne – såkalte ibeacons. Disse senderne har to funksjoner: de detekterer når en bruker kommer inn i et rom og når brukeren plasserer nettbrettet på de fysiske sjekkpunktene. På denne måten spores hele tiden brukeren gjennom bunkeren, og lydbildet i hodetelefonene tilpasses til de stedene vedkommende befinner seg. Dette er samme teknologi som ble benyttet for å lage Tilhører, men der Tilhører er laget som en form for eksperimentell lydkunst har Operasjon Bruno en mer tradisjonell narrativ form.

For å ta del i dette har brukeren hentet ut et nettbrett med headset i resepsjonen, og vedkommende har fått instruksjon om å starte en egen applikasjon på nettbrettet. ibeacons-senderne befinner seg inne i boksene, som fungerer som sjekkpunkter. Her er vi inne i maskinrommet, der generatorer leverte strøm til anlegget:



På vei ned trappene i tårnet. har var det opprinnelig flere etasjer med tekniske installasjoner, blant annet ammunisjonsheisen. Bunkeren er ganske kompleks. Derfor får brukeren forklaring på hvor veien går:

3. april 2018

Hvorfor lære koding i skolen

Mitch Resnick, en av de som står bak programmeringsspråket Scratch, forklarer i et intervju i Edutopia hvorfor han mener at koding bør undervises i alle skoler. Han peker på noen svært vesentlige forhold knyttet til at koding handler om langt mer enn det realfaglige. Kjekt å se samme poeng som jeg selv pleier å trekke frem, nemlig at koding først og fremst er en måte å formidle på og at elever bør lære koding med hovedfokus på kommunikasjon og formidling:

The first question I would ask is: “Why should we learn coding at all?” Many people embrace coding in schools as a pathway to jobs as computer programmers and computer scientists, and of course they’re right that those opportunities are expanding rapidly. But that’s not a great reason for everyone to learn how to code.

Very few people grow up to be professional writers, but we teach everyone to write because it’s a way of communicating with others—of organizing your thoughts and expressing your ideas. I think the reasons for learning to code are the same as the reasons for learning to write. When we learn to write, we are learning how to organize, express, and share ideas. And when we learn to code, we are learning how to organize, express, and share ideas in new ways, in a new medium.

Dette er mye av grunnen til at jeg har begynt å importere og selge roboter med andre egenskaper enn det meste som per i dag er tilgjengelig på det norske markedet. Jeg er selvsagt spent på hvordan det vil utvikle seg, men først og fremst opptatt av kommunikasjonsperspektivet og dermed at roboter skal kunne programmeres til å uttrykke seg. Aisoy-robotene kan programmeres til å endre uttrykk og snakke og forstå tale:


Jeg liker dette bildet: roboten som både fungerer som en assistent og "lesevenn", men som også kan programmeres ved hjelp av nevnte Scratch. Ikke la deg lure av at Aisoy-roboten ser ut som en leke – det er en ganske avansert sak, bygget for at barn skal lære å styre og interagere med den.

Det er ikke noe i veien med å programmere spill på skjerm, få en liten elektrisk bil til å bevege seg som en robotstøvsuger, automatisere en enkel mekanisk prosess etc. Det kan være både givende og lærerikt. Mitt poeng er imidlertid at denne inngangen til programmering neppe appellerer til alle, samt at nettopp talegrensesnitt er noe som er i ferd med å få stor betydning.

 
◄ Free Blogger Templates by The Blog Templates | Design by Pocket