Amy Webb innledet NODA17-konferansen under tittelen ”Tools of the futurist” og en bok med samme tittel. Webb er også forfatter av boken How to make j-school matter, men foredraget vi fikk høre var det snakk om å gi folk et krasjkurs i hvordan en kan se litt inn i fremtiden. Trender er i seg selv “trendy”, dvs det større bildet inneholder mer flyktige elementer. En bør derfor ikke se etter egenskaper ved artefakter og tjenester, men i stedet forsøke å finne frem til hva som ligger bak disse. Dette handler mer om endringer i organisatoriske endringer, politikk og selvsagt teknologiutviklingen, sett i større bilde.
Tidligere foredrag for et lignende publikum:
Trender drives av et underliggende behov
Webb eksemplifiserte dette ved å trekke frem et selskap som Ûber som en trussel, også mot media. Poenget er da at det ikke er selskapet eller tjenesten i seg selv som er trusselen, men det fenomenet som Ûber representerer. Dette knyttet hun videre til Ûbers kjøp av Carnegie Mellons robotics department, neo som er en del av en utvikling der selskapet dreies i retning av å kunne bli en generell logistikk-plattform. Blir ulike former for selvkjørende kjøretøy en realitet vil ikke de fleste lenger være begrenset til å høre radio i bilen, men blir frie til å gjøre helt andre ting. Noe som dermed påvirker mediene.
Webb trakk videre frem en problemstilling knyttet til at nyhetsorganisasjoner er tunet inn mot å lage saker på kort varsel, og de er i liten grad innrettet mot å se fremover. Samtidig kan ingen spå eksakt hva som kommer. Webb trekker likevel opp noen mulige scenarier for 2017 til 2027. En av trendene som er verd å å merke seg er mønstergjenkjenning, som er i rask utvikling. Hun koblet videre dette til at så godt som alle vil ha tilgang til en smarttelefon med kamera, noe som brukes til å ta enorme mengder fotografier. For å holde orden på dette vil programvare være løsningen for å gjøre ulike former for sortering. Samtidig representerer dette enorme mengder data, som hele tiden gir et oppdatert bilde av hva som skjer i verden, der en vil få maskiner til å gjøre jobben med å finne innhold og kontekst til et foto. Webb viser her til en eksisterende tjeneste findface.ru. Videre blir maskiner i stand til å gjenkjenne bevegelsesmønstre, samt utnytte ulike former for prediksjon til å tolke hvilke handlinger som sannsynligvis ligger forut og i etterkant av det øyeblikket bildet er tatt. Hun viser her til csail.mit.edu/ridesharing_and_traffic som et eksempel på hvordan en han foutse hva som trolig kommer til å skje.
Setter en sammen mønstergjenkjenning og stadig bedre systemer for prediksjon peker dette f eks frem mot automatisk generert video. Her ble det vist til www.wochit.com som en liten forsmak på dette. Webb mener det vil komme en rekke eksempler på automatisk produksjon av video de neste 24 månedene. Etter to år vil en trolig kunne se ulike versjoner av en video for forskjellige plattformer. Fem år frem i tid snakker vi trolig om videoer som er tilpasset hver enkelt person. Samtidig får mulighetene til å generere video på denne måten potensielt enorme konsekvenser i forhold til “fake news”.
Neste fenomen Webb trakk frem var “Smart dust”, utviklet ved University of Stuttgart, sensorer på størrelse med et saltkorn. Hun viste også til eksisterende systemer som Next Generation Interstate Photo System og i den sammenhengen ProPublicas sak om “Machine Bias”.
Mange i forskernettverket “IKT og medier” deler en interesse for det som kan kalles Mixed Reality, enten dette realiseres med vekt på det visuelle, med vekt på lydsiden, eller begge deler. De teknologiene som kommer endrer hva vi forventer av en fortelling. Spørsmålet er om vi kan benytte Mixed Reality for å fortelle komplekse fortellinger på måter som skaper større innlevelse. Dette er løsninger som vi gjør konkrete ting på i UH-nett Vest, og som ble presentert på konferansen.
Ana Laws og Torbjørn Utne, fra Høgskolen i Volda, snakket om "Learning web documentary and data journalism through lab-based collaborative situations", om hvordan de ved Høgskolen i Volda jobber med å få til samarbeid mellom eksperter og nybegynnere innen journalistikkfaget. Hensikten er å la studentene bli involvert i situasjoner som er så realistiske som mulig. De fleste studentene setter pris på den interdisiplinære tilnærmingen, samtidig som noen finner dette utfordrende. Det er imidlertid svært motiverende at bransjen er direkte involvert. Laws hadde også en egen stand der hun viste eksempel på VR, dels laget på grunnlag av studentarbeider.
Ivar-John Erdal, også fra HiVolda, tok deretter for seg "Situated technology - mediation, experience and journalism", et prosjekt som er del av NFR-prosjektet - OMEN. Studentene, valgt ut av Sunnmørsposten, for å fullføre et pågående prosjekt i samarbeid med avisen. Erdal snakket blant annet om utfordringer knyttet til at avisen bruker mye tid på prosjektene, og ønsker studenter som er mest mulig selvdrevne.
Sunnmørsposten er samtidig et spesielt case, med sin egen lab: http://interaktiv.smp.no/
I diskusjonen etter disse to innleggene ble det snakket om hvordan en kan komme opp med noe genuint nytt. Mediene kopierer i stor grad hverandres innovasjoner, uten egentlig å finne på så mye nytt. Høyere grad av kreativitet f eks innen spillbransjen.
Webb påpeker at rene VR-systemer (som overtar hele synsfeltet) krever at brukeren aksepterer “to view in”, noe som krever at vedkommende må oppholde seg i et miljø som er sikkert, gitt at hele oppmerksomheten vies til mediet. VR er absolutt ikke noe en vil benytte på vei til jobben på trikken, men kan være en teknologi for passasjerer i selvkjørende biler. Det er mye interessant knyttet til denne formen for visualisering, f eks det en kan kalle Virtual Reality Exposure Therapy, som kan å avhjelpe posttraumatisk stress syndrom. Omsluttenede, sterke medieopplevelser får nevrologiske konsekvenser, påvirker hva den enkelte husker og påvirker hjernen. Potensialet er i høy grad til stede, både innen utdanning, teknologifag og helsevesen. Skal en jobbe med løsninger som i sterk grad påvirker folk mentalt må en ta inn mennesker, også i nyhetssammenheng, som eksplisitt jobber med å ivareta de etiske sidene.
Noe som virkelig har fått fart på seg det siste året er talegjenkjenning og talegenerering, og dermed det som betegnes som “Conversational Computing”. Amazon Alexa er den plattformen som alle lager applikasjoner for for tiden, men som ennå ikke har kommet til Europa. Google, Microsoft og Apple er selvfølgelig alle på ballen, med sine egne løsninger. Journalister bør begynne å tenke på hva som skjer når vi begynner å ha samtaler om nyhetene med en maskin. Stadig flere enheter vil ha interface som er basert på tale, og maskinen kan bli den fortelleren som journalisten er i dag. Alle grensesnitt mot tjenester som kan gjøres av roboter vil enkelt kunne gjøres talestyrte. En chatbot som snakker om hva som har skjedd nylig er en slik applikasjon. Webb viser her til chatfuel.com og anbefaler journalsiter å lage en chatbot for neste lokale valg. Å jobbe med denne typen funksjonalitet innen utdanning synes også som et åpenbart område.
Webb har tre store bekymringer for fremtidens journalistikk. Gitt “Voice is the future” og at vi kommer til å snakke til maskinene våre: nyhetsmediene er ikke i posisjon til å påvirke denne fremtiden. Spørsmålet er hvem som vil “eie” fremtidens samtaler om nyheter - Amazon, Google og Apple er kanskje de som er i best posisjon.
Her kan jeg henge på mitt eget innlegg under konferansen: "Designing a locative radio medium addressing headphone listeners". Dette tok utgangspunkt i utvikling og forskning knyttet til Tilhører, en applikasjon som setter sammen et komplekst lydbilde på bakgrunn av lokasjon, uten noen form for skjermbasert grensesnitt.
En annen bekymring er falske nyheter. Webb viste her til Fake Donald Trump Tweets are the new fad in China. Fenomenet kan dels møtes i form av initiativer som Washington Post sin “Fact checker” knyttet til Donald Trump. Svært vanskelig å håndtere fake news ved hjelp av automatiske metoder
Viser til chatbotten Tay. Denne fungerte så godt at den lurte 8 av 10. Fungerte så bra at brukerne ikke brydde seg om at de kommuniserte med en bot. Men algoritmen kunne manipuleres og ga ganske snart horrible responser. Webbs poeng er her at vi lett kan komme til å lære systemene ting vi ikke ønsker de skal formidle. Webb viste til slutt til en svært omfattende informasjonspakke, satt sammen i anledning foredraget: bit.ly/NODAFuture2017
Heldigvis ble det tid til noe mindre faglige høydepunkt også:
Tidligere foredrag for et lignende publikum:
Trender drives av et underliggende behov
- Trender er i tiden, men de er ikke stabile over tid
- En trend utvikler og er emergent
- En trend materialiseres som en rekke enkeltfenomener, som ikke nødvendigvis henger sammen
Webb eksemplifiserte dette ved å trekke frem et selskap som Ûber som en trussel, også mot media. Poenget er da at det ikke er selskapet eller tjenesten i seg selv som er trusselen, men det fenomenet som Ûber representerer. Dette knyttet hun videre til Ûbers kjøp av Carnegie Mellons robotics department, neo som er en del av en utvikling der selskapet dreies i retning av å kunne bli en generell logistikk-plattform. Blir ulike former for selvkjørende kjøretøy en realitet vil ikke de fleste lenger være begrenset til å høre radio i bilen, men blir frie til å gjøre helt andre ting. Noe som dermed påvirker mediene.
Webb trakk videre frem en problemstilling knyttet til at nyhetsorganisasjoner er tunet inn mot å lage saker på kort varsel, og de er i liten grad innrettet mot å se fremover. Samtidig kan ingen spå eksakt hva som kommer. Webb trekker likevel opp noen mulige scenarier for 2017 til 2027. En av trendene som er verd å å merke seg er mønstergjenkjenning, som er i rask utvikling. Hun koblet videre dette til at så godt som alle vil ha tilgang til en smarttelefon med kamera, noe som brukes til å ta enorme mengder fotografier. For å holde orden på dette vil programvare være løsningen for å gjøre ulike former for sortering. Samtidig representerer dette enorme mengder data, som hele tiden gir et oppdatert bilde av hva som skjer i verden, der en vil få maskiner til å gjøre jobben med å finne innhold og kontekst til et foto. Webb viser her til en eksisterende tjeneste findface.ru. Videre blir maskiner i stand til å gjenkjenne bevegelsesmønstre, samt utnytte ulike former for prediksjon til å tolke hvilke handlinger som sannsynligvis ligger forut og i etterkant av det øyeblikket bildet er tatt. Hun viser her til csail.mit.edu/ridesharing_and_traffic som et eksempel på hvordan en han foutse hva som trolig kommer til å skje.
Setter en sammen mønstergjenkjenning og stadig bedre systemer for prediksjon peker dette f eks frem mot automatisk generert video. Her ble det vist til www.wochit.com som en liten forsmak på dette. Webb mener det vil komme en rekke eksempler på automatisk produksjon av video de neste 24 månedene. Etter to år vil en trolig kunne se ulike versjoner av en video for forskjellige plattformer. Fem år frem i tid snakker vi trolig om videoer som er tilpasset hver enkelt person. Samtidig får mulighetene til å generere video på denne måten potensielt enorme konsekvenser i forhold til “fake news”.
Neste fenomen Webb trakk frem var “Smart dust”, utviklet ved University of Stuttgart, sensorer på størrelse med et saltkorn. Hun viste også til eksisterende systemer som Next Generation Interstate Photo System og i den sammenhengen ProPublicas sak om “Machine Bias”.
Mange i forskernettverket “IKT og medier” deler en interesse for det som kan kalles Mixed Reality, enten dette realiseres med vekt på det visuelle, med vekt på lydsiden, eller begge deler. De teknologiene som kommer endrer hva vi forventer av en fortelling. Spørsmålet er om vi kan benytte Mixed Reality for å fortelle komplekse fortellinger på måter som skaper større innlevelse. Dette er løsninger som vi gjør konkrete ting på i UH-nett Vest, og som ble presentert på konferansen.
Ana Laws og Torbjørn Utne, fra Høgskolen i Volda, snakket om "Learning web documentary and data journalism through lab-based collaborative situations", om hvordan de ved Høgskolen i Volda jobber med å få til samarbeid mellom eksperter og nybegynnere innen journalistikkfaget. Hensikten er å la studentene bli involvert i situasjoner som er så realistiske som mulig. De fleste studentene setter pris på den interdisiplinære tilnærmingen, samtidig som noen finner dette utfordrende. Det er imidlertid svært motiverende at bransjen er direkte involvert. Laws hadde også en egen stand der hun viste eksempel på VR, dels laget på grunnlag av studentarbeider.
Ivar-John Erdal, også fra HiVolda, tok deretter for seg "Situated technology - mediation, experience and journalism", et prosjekt som er del av NFR-prosjektet - OMEN. Studentene, valgt ut av Sunnmørsposten, for å fullføre et pågående prosjekt i samarbeid med avisen. Erdal snakket blant annet om utfordringer knyttet til at avisen bruker mye tid på prosjektene, og ønsker studenter som er mest mulig selvdrevne.
Sunnmørsposten er samtidig et spesielt case, med sin egen lab: http://interaktiv.smp.no/
I diskusjonen etter disse to innleggene ble det snakket om hvordan en kan komme opp med noe genuint nytt. Mediene kopierer i stor grad hverandres innovasjoner, uten egentlig å finne på så mye nytt. Høyere grad av kreativitet f eks innen spillbransjen.
Webb påpeker at rene VR-systemer (som overtar hele synsfeltet) krever at brukeren aksepterer “to view in”, noe som krever at vedkommende må oppholde seg i et miljø som er sikkert, gitt at hele oppmerksomheten vies til mediet. VR er absolutt ikke noe en vil benytte på vei til jobben på trikken, men kan være en teknologi for passasjerer i selvkjørende biler. Det er mye interessant knyttet til denne formen for visualisering, f eks det en kan kalle Virtual Reality Exposure Therapy, som kan å avhjelpe posttraumatisk stress syndrom. Omsluttenede, sterke medieopplevelser får nevrologiske konsekvenser, påvirker hva den enkelte husker og påvirker hjernen. Potensialet er i høy grad til stede, både innen utdanning, teknologifag og helsevesen. Skal en jobbe med løsninger som i sterk grad påvirker folk mentalt må en ta inn mennesker, også i nyhetssammenheng, som eksplisitt jobber med å ivareta de etiske sidene.
Noe som virkelig har fått fart på seg det siste året er talegjenkjenning og talegenerering, og dermed det som betegnes som “Conversational Computing”. Amazon Alexa er den plattformen som alle lager applikasjoner for for tiden, men som ennå ikke har kommet til Europa. Google, Microsoft og Apple er selvfølgelig alle på ballen, med sine egne løsninger. Journalister bør begynne å tenke på hva som skjer når vi begynner å ha samtaler om nyhetene med en maskin. Stadig flere enheter vil ha interface som er basert på tale, og maskinen kan bli den fortelleren som journalisten er i dag. Alle grensesnitt mot tjenester som kan gjøres av roboter vil enkelt kunne gjøres talestyrte. En chatbot som snakker om hva som har skjedd nylig er en slik applikasjon. Webb viser her til chatfuel.com og anbefaler journalsiter å lage en chatbot for neste lokale valg. Å jobbe med denne typen funksjonalitet innen utdanning synes også som et åpenbart område.
Webb har tre store bekymringer for fremtidens journalistikk. Gitt “Voice is the future” og at vi kommer til å snakke til maskinene våre: nyhetsmediene er ikke i posisjon til å påvirke denne fremtiden. Spørsmålet er hvem som vil “eie” fremtidens samtaler om nyheter - Amazon, Google og Apple er kanskje de som er i best posisjon.
Her kan jeg henge på mitt eget innlegg under konferansen: "Designing a locative radio medium addressing headphone listeners". Dette tok utgangspunkt i utvikling og forskning knyttet til Tilhører, en applikasjon som setter sammen et komplekst lydbilde på bakgrunn av lokasjon, uten noen form for skjermbasert grensesnitt.
En annen bekymring er falske nyheter. Webb viste her til Fake Donald Trump Tweets are the new fad in China. Fenomenet kan dels møtes i form av initiativer som Washington Post sin “Fact checker” knyttet til Donald Trump. Svært vanskelig å håndtere fake news ved hjelp av automatiske metoder
Viser til chatbotten Tay. Denne fungerte så godt at den lurte 8 av 10. Fungerte så bra at brukerne ikke brydde seg om at de kommuniserte med en bot. Men algoritmen kunne manipuleres og ga ganske snart horrible responser. Webbs poeng er her at vi lett kan komme til å lære systemene ting vi ikke ønsker de skal formidle. Webb viste til slutt til en svært omfattende informasjonspakke, satt sammen i anledning foredraget: bit.ly/NODAFuture2017
Heldigvis ble det tid til noe mindre faglige høydepunkt også:
Ingen kommentarer:
Legg inn en kommentar
Kommentarer er svært velkommen. På grunn av problemer med spam må jeg imidlertid godkjenne kommentarer før de publiseres. Vanligvis skjer dette i løpet av noen timer.