26. januar 2019

Kan vi ha (simulerte) samtaler med maskiner?

Guiden introduserer Paivi Laaksos arbeider på HVL-Kronstad.  
Under nettverkskonferansen på Notodden hadde jeg flere innlegg: om remiksing av eventyr, om bruk av Micro:bits for å styre kinetiske skulpturer (har var jeg en av flere) og det innlegget denne posten gjelder: Robotassistert kunstguide. Litt vel ambisiøst kanskje, men sånn blir det når en har mye forskjellig på hjertet.

Innlegget om roboter som guider i forhold til kunst er knyttet til bruk av programmerbare roboter i skolen, og mer spesifikt: en søken etter å finne tangeringspunkter mellom tema som er aktuelle for kunst og håndverk og roboter som kan programmeres på ulike måter. Talegrensesnitt – forstått som løsninger som gir oss mulighet til å styre ulike artefakter med stemmen – omgir oss i stadig økende grad. Med stadig synkende priser og størrelse når det gjelder hardware og forbedringer av TTS (Tale Til Skrift) vil stadig flere objekter rundt oss komme til å reagere på tale. For eksempel kan en lett se for seg at drillen som kan styres med talekommandoer vil kunne bli rimeligere å produsere sammenlignet med den som krever en rekke brytere. Det betyr selvsagt ikke at alle maskiner vil bli stemmestyrte, men denne typen teknologi vil omgi oss på stadig flere områder, ikke minst knyttet til fjernstyring.

Overgangen til talegrensesnitt har nok i første omgang større implikasjoner for språkfagene enn for Kunst og håndverk, men det er ingen grunn til at ikke alle fag vil måtte forholde seg til dette. Ikke minst fordi det vil føre med seg nye koblinger mellom det auditive og det taktile, et området som i dag er en blind flekk innen faget. Noen vil kanskje mene at dette er noe som fullt og helt håndteres av faget musikk – jeg er ikke blant dem.

Dette er i korte trekk noe av bakgrunnen for at jeg ønsker at koding av og for lyd også skal få en plass innen Kunst og håndverk. Så spørs det om eksemplet mitt er det beste: Tanker er at elever skal kunne arbeide med formidling av kunst, der de selv må finne ut hva som skal formidles og hvilke alternativer som til enhver tid skal tilbys brukerne. Kodingen av Aisoy-robotene kan gjøres svært enkelt, slik som vist i skjermdumpet til høyre, eller en kan lage mer kompleks kode der en programmerer inn mer tilfeldige valg, valg som er knyttet til betingelser (f eks input fra sensorer, f eks kamera som leser QR-koder, eller sensoren for NFC-tagger) og selvsagt ulike former for brukerinteraksjon. Prototypen jeg viste på Notodden er basert på et enkelt dialogtre der hver talte sekvens avsluttes med at brukeren velger mellom to veier videre. Dette er en løsning som minner litt om den som er benyttet i noen andre eksempler: der roboten stiller spørsmål og der den stiller spørsmål på bakgrunn av lister.

Gjennom prosjektet Robotassistert undervisning, ved HVL, ønsker vi å fortsette med å eksperimentere med ulike løsninger. Dette skjer både i form av utviklingsprosjekter ved HVL, men ikke minst håper vi at studenter tar med seg robotene og gjør forsøk i praksis. Fordi robotene er relativt rimelige (prisen er sammenlignbar med et nettbrett), noe som gjør at en kan tillate elever å eksperimentere med dem. Sammenligningen med Pepper (28 kilo til drøye 20 tusen euro + moms) er kanskje ikke helt rettferdig, men poenget er at elever kan gjøre like mye med de rimelige robotene som den dyre. Og tilgjengeligheten i skolen er selvfølgelig en helt annen.

Det er potensielle forbindelser i mange retninger her. Aisoy-robotene gir mulighet til å jobbe i grenselandet mellom det skriftlige og det muntlige, gjennom å kode for tale. De har imidlertid begrensede muligheter når det gjelder å koble til ulike former for periferiutstyr. Her må en imidlertid tenke at det ikke behøver å være slik at alle elever koder for samme plattform: noen kan kode for Lego Mindstorms, andre kan jobbe med roboter som de fra Aisoy, men atter andre kan kode for f eks MIcro:bits. Innenfor denne tankegangen synes jeg også det er spennende å tenke på prosjekter der en kan utvikle roboter for ulike formål, noe jeg syslet litt med i jula, som f eks Auditolocomotiv –mitt begrep for lydkilder som beveger seg autonomt og som dermed danner stadig nye konstellasjoner i forhold til hverandre, og hvor stadig nye fysiske sammenstillinger igjen påvirker lydene.



Men jeg glemmer nesten helt postens innledende spørsmål: Kan vi samtale med maskiner? Jeg fikk til dels betydelig og velfundert motbør på Notodden, nettopp knyttet til min påstand om at vi må venne oss til å "samtale" med maskiner. En presis definisjon på hva en samtale er for noe er ikke så lett å finne, men SNL.no har en artikkel om samtaleanalyse, der samtaler defineres som "kommunikasjon og sosial interaksjon mellom mennesker i både språklig og ikke-verbal samhandling i naturlige situasjoner". Samtale med maskiner bryter selvsagt sammen dersom vi legger "sosial interaksjon mellom mennesker" til grunn. Jeg tror imidlertid det er mange som vil argumentere for at de kan ha en samtale med hunden sin. NRK serien Superhundene vil jeg si støtter et slikt argument. Så kanskje kan vi da ha samtaler med maskiner også?

Vel, uansett er det kanskje ryddigere å snakke om simulerte samtaler med maskiner. Ikke minst i de sammenhengene jeg har snakket om dette. Det er tross alt snakk om ganske begrensede dialogtrær og selv om kompleksiteten økes vil det uansett være snakk om klare rammer for interaksjonen.

Ingen kommentarer:

Legg inn en kommentar

Kommentarer er svært velkommen. På grunn av problemer med spam må jeg imidlertid godkjenne kommentarer før de publiseres. Vanligvis skjer dette i løpet av noen timer.