Forskningsetisk forum 2024
Årets forskningsetiske forum handlet om institusjonenes erfaringer med forskningsetikkloven, samt hvordan utviklingen innen kunstig intelligens fordrer nytenkning om forskningsetiske prinsipper som åpenhet og ansvar.
Forskningsetisk forum 2024 fant sted mandag 16. september på Litteraturhuset i Oslo. Direktør i De nasjonale forskningsetiske komiteene (FEK), Helene Ingierd, ønsket velkommen til nesten 200 deltakere.
Se opptak fra forumet på vår YouTube-side.
Forskningsetikkoven, som har virket siden 2017, setter rammer for alt arbeidet med forskningsetikk i Norge. Ingierd fremhevet at loven har virket i en periode der det samtidig har blitt større bevissthet om forskningsetikk. Institusjonene har fått gode systemer på plass for forskningsetisk arbeid, og at det er god grunn til å tro at loven har hatt en bevisstgjørende effekt. Samtidig melder enkelte forskningsinstitusjoner at det er krevende å skille mellom behandling av (ulike) uredelighetssaker og andre forskningsetiske spørsmål og saker, som ikke nødvendigvis handler om brudd. Dette var noe av bakgrunnen for veilederen FEK lanserte i fjor. Det er viktig for FEK å lage en arena hvor disse erfaringene deles slik at vi kan lære av hverandre, og for at FEK skal kunne bistå forskningsinstitusjonene i deres arbeid.
Helene Ingierd, direktør i De nasjonale forskningsetiske komiteene.
Kunstig intelligens (KI) er et område som er under enorm utvikling, og som påvirker forskningen, oss og samfunnet på svært mange måter. Både nasjonalt og internasjonalt later det til å være stor enighet om at KI ikke nødvendigvis endrer de grunnleggende etiske prinsippene i forskningen. Men utviklingen krever en ny gjennomtenkning av hva de betyr, samt at flere av prinsippene får en fornyet aktualitet. Mye av den etiske diskusjonen rundt KI er knyttet til vurderinger av risiko og nytte av teknologien, og konsekvenser for individer og samfunn. I dagens forum skal vi ha mer fokus på hvordan KI påvirker den delen av forskningsetikken som handler om integritet i forskningen, fremhevet Ingierd. Da handler det blant annet om hvordan KI påvirker prinsipper om pålitelighet og ærlighet, og grunnleggende normer knyttet til forfatterskap og henvisningsskikk.
I det europeiske rammeverket for forskningsetikk og forskningsintegritet, The European Code of Code of Conduct for Research Integrity, utviklet av ALLEA og revidert i fjor, heter det blant annet at forskere må være åpne om bruk av KI, og at slik bruk må være forenlig med gjeldende normer. Retningslinjer for ansvarlig bruk av generativ KI, utviklet av European Research Area Forum i år, bygger på prinsippene i CoC, og utdyper hva dette innebærer i praksis. Her heter det blant annet at forskere ikke bør bruke generativ KI-verktøy i nøkkelaktiviteter som fagfellevurderinger eller evalueringer. Videre slår disse retningslinjene ettertrykkelig fast at det er forskere som er ansvarlig for innholdet som genereres av KI, ikke maskiner.
Rettsliggjøring av uredelighetsbegrepet har konsekvenser
Forumets første programpost behandlet sentrale begreper i forskningsetikkloven som «vitenskapelig uredelighet» og «plagiat». Ole-Andreas Rognstad, Universitetet i Oslo, tok utgangspunkt i lovens § 6. Rognstad viste hvordan vitenskapelig uredelighet er rettsliggjort, og med loven er blitt et juridisk begrep. Rognstad viste med eksempler hvordan dette kan skape problemer og forvirring i praksis. Hans konklusjon er at begrepet «uredelighet» utelukkende bør være forskningsetisk, og at juridiske aspekter bør løses på andre måter enn ved rettsliggjøring av forskningsetiske begreper.
Anne Kamilla Lund, Nord universitet, og Lars Klemsdal, Universitetet i Oslo, fortalte om deres erfaring med Kjerkhol-saken og vurderingene de gjorde. De tok til orde for en bedre definisjon av plagiat for lettere å kunne skjelne mellom tekstlikhet og plagiat. I arbeidet oppdaget de også at det var vidt forskjellig regelverk hos ulike universiteter.
Leder av Granskingsutvalget (GRU), Irene Vanja Dahl, fortalte om økt tilfang av saker i det nasjonale utvalget. Advokat Christian Hambro representerte Forskningsetisk utvalg ved Forskningsinstituttenes fellesarena (FFA). Han la vekt på at innsikt skaffet i en sammenheng, skal kunne brukes i en annen sammenheng. Annette Birkeland, leder for Felles redelighetsutvalg ved Universitetet i Sørøst-Norge og Høgskolen i Innlandet, stilte spørsmål ved om redelighetsutvalget skal være et sensurorgan. Utfordringene for utvalget er blant annet at det er vanskelig å skille mellom faglig uenighet og brudd på normer. Geir S. Braut, fungerende leder for redelighetsutvalget Helse Vest, mente at det har blitt litt tørke i de etiske debattene. Nå kan det oppfattes slik at hvis REK har godkjent noe, så trenger det ikke å diskuteres.
Presentasjoner:
Lund og Klemsdal.pdf
Christian Hambro.pdf
Systemfeil og institusjonens ansvar under lupen
Den andre bolken om forskningsetikkloven omhandlet systemfeil og institusjonens ansvar. Hva er egentlig «systemfeil» og hva er «institusjonens ansvar», slik det fremgår av forskningsetikkloven? Bakteppet var at Granskingsutvalget i en uttalelse har konkludert med at det foreligger systemfeil ved Universitetet i Bergen i en sak der det ble fastslått kritikkverdige forhold, men ikke vitenskapelig uredelighet. «Er Granskingsutvalget på ville veier?», spør Kirsti Strøm Bull og Ole M. Sejersted i Magasinet Forskningsetikk (2024, nr. 1), og mener at uttalelsen er dårlig begrunnet og at den ikke bør være retningsgivende for de institusjonelle redelighetsutvalgene. «Institusjonenes ansvar handler om tilrettelegging», svarer Geir Sverre Braut og John Arne Skolbekken, som begge er medlemmer av Granskingsutvalget.
Presentasjoner:
Ole M Sejersted.pdf
Skolbekken og Braut.pdf
Ole M. Sejersted presenterte en oversikt over aktørene i systemet og deres roller. Hans påstand var at kontrollen er fragmentert mellom mange aktører og at dette fører til ansvarsfraskrivelse. Åpner dette for normbrudd og blir lovens bruk av systemfeil for snever? Systemet har også en del krav og normer. Hva betyr alt dette for kvaliteten på forskningen og hvilke utfordringer er det i systemet? Geir S. Braut og John-Arne Skolbekken fremhevet muligheten for å lage et bedre system i forskerverdenen fremfor å skylde på den enkelte forskeren. Forskningsetikken har vært preget av individuelle tilnærminger, det er viktig at vi øker systemforståelsen.
Delt i synet på loven
Påfølgende diskusjon tok utgangspunkt i fem påstander knyttet til loven, og direktør Ingierd inviterte til tilbakemeldinger i plenum. Salen var delt i synet på om det er uklarheter i loven, og hvor godt den fungerer i det daglige arbeidet med forskningsetikk på institusjonene.
Kunstig intelligens endrer ikke forskningsetiske prinsipper, men hva de betyr i praksis
Dagens andre store tema var kunstig intelligens og god vitenskapelig praksis. Bakteppet er at utviklingen av kunstig intelligens (KI) går raskt, og regjeringen satser stort på forskning på KI og digital teknologi. KI kan utvilsomt gi nyttige verktøy for forskningen og effektivisere forskningsprosessen, samtidig som det oppstår mange nye spørsmål om forskningens integritet og ansvar.
«Artificial intelligence: Opportunities and challenges for research integrity» var tittelen på foredraget av Mohammad Hosseini. Hosseini påpekte at det er behov for ny spesifisering av etikk, blant annet når det gjelder grunnleggende prinsipper om åpenhet og ansvar. Vi må finne ut hvordan KI når frem til konklusjoner, og unngå å generere feil. KI er ingen moralsk aktør og kan ikke holdes ansvarlig. Ansvaret ligger hos oss som forskere, understreket Hosseini, ellers mister vi troverdighet. Utfordringen er at utviklingen går så fort, og at vi ikke vet hva som er mulig i fremtiden og hva ansvaret vårt blir.
I diskusjonen som fulgte påpekte Hosseini at sikkerhet også er et spørsmål om forskningsetikk, og sikkerhet må avveies mot åpenhet. Selv om sikkerheten blir utfordret, så bør mest mulig åpenhet fortsatt være en målsetning. Hosseini kom også inn på bærekraft, i og med at KI er meget energikrevende. Her må man gjøre gode avveiinger mellom nytte og risiko, og utrede hva som er alternativene til bruk av KI.
Ellen-Marie Forsberg, direktør ved NORSUS (Norsk institutt for bærekraftsforskning) fortalte hvordan FOKUS-instituttene arbeider med felles retningslinjer for bruk av generativ KI i forskning. Arbeidsgruppen har jobbet med kontrollspørsmål ved bruk av KI og utviklet en vær varsom-plakat for KI for forskere, samt laget forslag til handlingsplan som hvert institutt kan bruke til å vurdere fremgangsmåte og kompetanse. Redaktør Ragnhild Ørstavik har vært med å utarbeide retningslinjer for bruk av KI i Tidsskrift for Den Norske Legeforening. Retningslinjene omhandler bl.a. bruk av språkmodeller, forfatterstatus, varsomhet med å laste opp tekster etc.
Ingierd avsluttet dagen ved å minne om at FEK kan kontaktes for rådgiving innen et bredt spektrum av forskningsetiske spørsmål. I løpet av høsten skal NENT arrangere et webinar om KI, og på våre nettsider planlegges flere nye opplæringsressurser, blant annet er det nylig publisert en artikkel om kunstig intelligens, ved leder i NENT, Hallvard Fossheim.