KI: – Forskerne må være med å forme praksis

Mer enn 200 mennesker deltok da NENT arrangerte webinar om hva som er greit og ikke når det gjelder bruk av kunstig intelligens (KI) i forskning. Vi er ikke bare prisgitt tech-gigantene, påpekte innlederne.

– Kunstig intelligens et av de prioriterte faglige temaene i De nasjonale forskningsetiske komiteene i år. Og kunstig intelligens reiser jo mange forskningsetisk relevante spørsmål, både knyttet til hvordan utvikling og bruk av KI påvirker samfunn og natur, men også hvordan KI påvirker forskningen, innledet Thomas Østerhaug, sekretariatsleder i Den nasjonale forskningsetiske komité for naturvitenskap og teknologi (NENT).

(Se webinaret i opptak)

Andrea Alessandro Gasparini og Leonora O. Bergsjø var invitert for å belyse tematikken. Gasparini er førstelektor ved IFI og førstebibliotekar ved Universitetsbiblioteket ved Universitetet i Oslo. Han jobber også for NORA (Norwegian Artificial Intelligence Research Consortium). Bergsjø er førsteamanuensis ved Østfold AI Hub/Høgskolen i Østfold og Senter for e-helse/Universitetet i Agder. 

Gasparini tok innledningsvis opp noen hovedproblemstillinger knyttet til etikk og kunstig intelligens:

  • Skjevhet  - for eksempel kjønnsskjevhet
  • Transparens og forklarbarhet for valg – i forskningsprosessen skal man for eksempel vite hvor data kommer fra og hvordan de har blitt analysert, ellers risikerer vi plagiat og det blir vanskelig å plassere ansvar
  • Personvern – data kan komme på avveie, de kan misbrukes og det er fare for overvåkning
  • Sikkerhet – hva vi lar KI bestemme. Et godt eksempel er the trolley problem fra selvkjørende biler. Hvis bilen må velge mellom å kjøre på noen eller kjøre inn i en vegg, hva skal den velge?
  • Data – kvalitet og opphavsrett

Gasparini anbefalte NENTs Forskningsetisk betenkning om kunstig intelligens.

– Den kom før generativ KI, men diskuterer noen viktige problemstillinger knyttet til blant annet plassering av ansvar og rettferdig tilgang til data.

LLM-kannibalisme er et problem

Gasparini påpekte at KI påvirker hele forskningsprosessen, deretter gikk han nærmere inn på det som angår data.

– Den nye chat GTP4o tillater deg å snakke med KI. Den kan da analysere dine emosjoner, ut fra tonefallet og lage en profil av deg. Denne kan så brukes, for eksempel til å øke salg.

En utfordring for Norge, er at vi, som Europa, nå har et regelverk på trappene som trer i kraft i 2026, EU AI Act. Forskningen vår skal da konkurrere med forskning i USA og Kina som har frie tøyler. Da kan vi fort havne i en bakevje, ifølge Gasparini.

Et annet problem han trakk frem, er det som kalles LLM-kannibalisme – de store språkmodellene (LLM) vil etter hvert trenes på innhold som er generert av KI.

– Det kan på sikt gi en fordummende effekt. Derfor er det veldig viktig at vi er kritiske til hvordan vi skal bruke disse verktøyene, sa Gasparini.

Det er også fort gjort å bli blendet av KI-verktøy og tilegne dem høyere verdi eller mer intelligens enn de i virkeligheten har, mener han.

Bilde av Europol-rapport som anslår at 90 prosent av innhold på nett vil være AI-generert innen 2026.

Gasparini trakk frem flere poenger: Store selskaper med store datamengder kan påvirke hele bransjer, også forskning. Små språk inkluderes ikke i de store språkmodellene. Skjevhet i data gjør at asiater og afrikanere er dårligere representert, det samme gjelder kvinner. Spørsmålet om tillit, som er så viktig for forskere, blir også aktualisert – kan vi ha tillit til KI?

Siste punkt han trakk frem, var bærekraft.

– KI har også en pris. Det krever store mengder kjølevann og energi for å drive KI-verktøyene. Natur ødelegges for å bygge store datasentre. Skal vi tillate dette, for eksempel for at TikTok skal kunne utvikle seg videre? spurte Gasparini.

Drømmen om KI

Bergsjø tegnet først opp drømmen om KI.

– Tech-gigantene lover oss nå KI-agenter som kan gjøre alt mulig for oss, gjøre litteratursøk, skrive tekst, analysere – det er ingen grense for hva som loves. Mange kommer til å bruke det, og vi må finne måter å bruke det etisk forsvarlig på.

Hun viste til at vi kan tenke etikk inn i design, i prosesser og i menneskene som bruker teknologien – altså må menneskene oppdatere seg på etikk.

Bergsjø trakk frem EUs retningslinjer for ansvarlig bruk av generativ KI i forskning (Living guidelines on the responsible use of generative AI in research). Som et eksempel trakk hun frem dette med ansvarlighet.

– Man må alltid sjekke at output er noe man kan stå for som forsker. KI kan aldri være medforfatter.

Hun brukte også som eksempel en kollega som hadde delt en tekst for fagfellevurdering, som mottageren deretter hadde lastet opp i et KI-verktøy.  

– Det som bekymret min kollega mest var at samtalen etterpå ikke kunne basere seg på retningslinjer. Disse har vi ikke. Det ble i stedet en diskusjon om «vi kan jo slette det». Når det gjelder upubliserte tekster, bør vi ikke dele dem med KI. Det er lett å glemme i begeistringen for hva disse verktøyene kan gjøre for oss.

Kan ta grep for fremtiden

Både Bergsjø og Gasparini var enige om at vi vet lite om hva som skjer i fremtiden. Likevel betyr ikke det at vi ikke kan gjøre noe.

– Det er andre som definerer hva som skjer med teknologien, men vi kan være med og forme praksis, sa Bergsjø.

På spørsmål fra publikum om tidsskriftene har regler for bruk av KI, svarte Gasparini at det er ulikt.

– Forskjellige forlag har forskjellige regler for hvordan du kan bruke det. Noen ganger er det også vanskelig å vurdere hva som er ok. En språkvask med et lokalt KI-verktøy er kanskje ikke verre enn en språkvask du setter ut til et annet menneske.

Bergsjø påpekte at det er greit å tenke på om det du bruker KI-verktøy til kan gjøre substansielle endringer. Og skal man teste verktøyene, er det viktig å huske bærekraftperspektivet.

– Dette er ikke en ny selskapslek. Vi bør være litt tilbakeholdne og tenke på hva det koster av ressurser å benytte KI.

Se hele webinaret i opptak