26. februar 2012

Korrumperende tellekanter?

Her om dagen oppdaget jeg Google Scholars forfattersider, der jeg fikk en oversikt over hvor mange ganger mine egne artikler er sitert. Tallene er vel ikke all verden, men de gir i alle fall grunn til noen løse refleksjon omkring språk og publiseringsform. Det meste jeg skriver en nemlig på norsk, og rimelig fraværende i Google Scholar. Min "impact", om noen, er dermed sansynligvis liten utenfor landets grenser.

Jeg har mer enn én gang spurt meg som om hvorfor jeg skriver en artikkel: fordi jeg mener den er viktig, eller fordi jeg kan hake av noen publiseringspoeng. Flere ganger har det nok slått meg at om jeg mente noe var viktig, i den forstand at andre bør få vite om det, så er tidsskrifter med begrenset plass, begrensninger mht formater og begrenset lesekrets, neppe det riktige stedet. Men jegvelger likevel å spille spillet, i den forstand at jeg publiserer og skjeler til hvilke kanaler som gir HiB uttelling. At jeg knapt får noe igjen for de er en annen sak.

For mye publiseres
I en lederartikkel i Tidsskrift for den norske legeforening spør Erling Hem om det er for mange tidsskrifter – for lite god forskning. Han skriver at svært mye av den medisinske litteraturen trygt kan overses. Mye publiseres, men antall gode studier og antall gode manus ikke har økt i samme takt. Dermed blir det publisert mye forskning som ikke er spesielt god eller viktig. Medisinerne er nok dessverre ikke alene, selv om de kanskje har vært ekstra flinke til å få opp publiseringsraten. Andre fagfelt kommer så absolutt etter.

Det sendes i dag inn så mange artikler til tidsskriftene at referee-systemet bryter sammen. Utgiverne har ikke kapasitet til å vurdere all artikler skikkelig. Derfor har det blitt ganske vanlig å legge inn som premiss at de som vil publisere en artikkel i et tidsskrift eller til en konferanse må vurdere de andre bidragyterne. I seg selv er ikke dette diskrediterende, men det rommer noe potensielt korrumperende. Slik blir det gjerne når en legger til rette for koblinger mellom økonomi og vurderinger. Det er dessverre i ferd med å bli regelen sektoren, ikke bare når det gjelder forskning, men også knyttet til at man faktisk får negativ uttelling for å stryke undermålere blant studentene. De fleste vil selvsagt ikke slippe gjennom noe de klart mener er for dårlig, men systemet "oppfordrer" oss til å slippe gjennom alle tvilstilfellene.

Tilbake til forskningen.Skal vi lete etter hvem som har "skylden for elendigheten" må vi begynne med rapporten ”Vekt på forskning. Nytt system for dokumentasjon av vitenskapelig publisering”, som kom i 2004. Her bestemte en hvordan ulike typer publikasjoner skal vektes, et system som systematisk favoriserer vitenskapelige artikler, fortrinnsvis på engelsk. Et system som faktisk motarbeider ander typer fagformidling, og som lett fører til at det blir skrevet færre gode fagbøker på norsk. For ikke å snakke om lærebøker, en aktivitet som systemet klart forteller oss at vi må holde oss lengst mulig unna.

Innflytelse
Et alternativ er å se på antall siteringer en artikkel oppnår. Ulempen her er att et slikt system favoriserer generelt de mest generelle engelskspråklige tidsskriftene, mens det gir et lite dekkende bilde innen andre fagområder og små fag. Det interessante ved et slik system er imidlertid at det også vil favorisere Open Access.

Nullsumspillet
Publiseringspoeng, med forhåndsgodkjente publiseringskanaler, ble del av finansieringssystemet fra 2006. Ideen om å telle på denne måten ble, kanskje ikke så overraskende, først innført av medisinerne. Listene over publiseringskanaler er imidlertid dynamiske. Skifter ikke bare fra år til år, men også innenfor samme år. Til alt overmål blir listene lagt ut på etterskudd. Det er også mye feil i listene.

I 2004 ga ett publikasjonspoeng 45.600 kroner. I 2012 er tallet trolig på rasende fart ned mot 30.000 - "motsatt korrigert" for prisstigning. Systemet devaluerer verdien av artikler, med fare for nedadgåendespiral med stadig flere artikler med synkende kvalitet.

Mindre fagformidling
Formidling er noe universiteter og høgskoler skal drive med, og vi få egne kommunikasjonsavdelinger som blant annet skal arbeide med dette. Det spør om det hjelper, når alle incentiver trekker i en annen retning. En undersøkelse fra i fjor viser at kun 40 prosent av de norske forskerne hadde publisert minst én populærvitenskapselig artikkel i løpet av en treårs periode. Seks av ti norske forskere ikke hadde med andre ord ikke skrevet noe populærvitenskapelig i den samme perioden.

Noen mener løsningen vil være å innføre et belønningsystem for formidling. Nå har riktignok UHR kommet med et forslag til indikatorer for formidling, men her gjenstår det fremdeles å bli enige. Til syvende og sist er dette trolig et økonomisk spørsmål, og det skal antagelig mye til at departementet åpner pengesekken. Alternativt blir å ta av midlene som i dag brukes til å belønne vitenskapelig publisering, noe som heller ikke blir lett å selge inn.

Dessuten bør en kanskje først spørre seg om tellekantsystemet for vitenskapelig publisering faktisk fungerer. Dvs det fungerer åpenbart i den forstand at det publiseres mer, men det viktigste kontrollspørsmålet bør være: har det kommet mer god forskning som et resultat av systemet? Herom strides det. I mange sammenhenger er systemet direkte kontraproduktivt, f eks ved  at det ikke lønner seg å samskrive med en internasjonal fagfelle

Skal du ha full uttelling er det best å holde seg hjemme, og publisere ute! 

En annen "lærdom" er at funn bør spres på flere artikler, for på den måten å tyne ut flest mulig publiseringspoeng ut av de samme materialet. Det blir ikke mer forskning av det, men det ser slik ut. Dette poenget understrekes av De nasjonale forskningsetiske komiteer i forbindelse med høringsuttalelsen til Fagerberg-utvalgets utredning om et åpnere forskningsystem

Fagerberg-utvalget skulle foreslå tiltak som kunne bedre forholdet mellom innsats og samfunnsmessig nytte i forskningen. Å telle akademiske publikasjoner og antall siteringer er neppe egnet i så måte: ”Det er lite trolig at disse indikatorene alene fanger opp forskningens samfunnsmessige gjennomslag, siden de per definisjon angår interne faktorer i forskermiljøene og ikke kontaktflaten mellom forskning og samfunnet for øvrig”. Utvalget har rett og slett ikke klart, eller vært for lite interessert i, å si noe om forskningens betydning for samfunnet.

Ingen kommentarer:

Legg inn en kommentar

Kommentarer er svært velkommen. På grunn av problemer med spam må jeg imidlertid godkjenne kommentarer før de publiseres. Vanligvis skjer dette i løpet av noen timer.