Kunstig intelligens
KI har ikke skapt en situasjon der vi ser behov for nye prinsipper. De etablerte prinsippene er fortsatt de mest vesentlige. Men vi må gjøre nye vurderinger for å finne gode løsninger i et landskap som er i rask forandring.
Om Forskningsetisk bibliotek (FBIB). Denne tema-artikkelen inngår i Forskningsetisk bibliotek (FBIB), en ressurs som tilbyr spesialforfattede artikler om forskningsetiske emner, skrevet av en lang rekke forskjellige eksperter. Til sammen skal artiklene tjene som introduksjon til de viktigste forskningsetiske temaene. Hver artikkel gir også tilgang til ytterligere ressurser, blant annet diskusjonseksempler/case.
Formålet er å bidra til refleksjon og debatt. De vinklinger og oppfatninger som presenteres i FBIB-artiklene uttrykker ikke nødvendigvis De nasjonale forskningsetiske komiteenes standpunkt; den enkelte forfatter står for sine perspektiver.
Om forfatteren: Hallvard Fossheim er professor i filosofi ved UiB.
Artikkelen ble først publisert i University World News (engelsk).
Ny KI-teknologi og teknologi under utvikling skaper både bekymring og usikkerhet. Store språkmodeller (LLMs) får mest oppmerksomhet for tiden, ettersom de er bredt tilgjengelige og evner å gjøre arbeid som tradisjonelt er ansett som intellektuelt.
Dette reiser viktige spørsmål om ansvar, opplæring og oppmerksomhet rundt temaet hos dem som utvikler og bruker teknologien, enten det er forskere, forskningsinstitusjoner, forskningsfinansiører, nasjonale eller multinasjonale fora eller private individer. I denne situasjonen er det et åpenbart behov for fornyet forskningsetisk refleksjon.
I bred forstand handler forskningsetikk om å sikre den etiske kvaliteten på forskningsprosesser og produkter gjennom konstruktiv refleksjon og god forskningspraksis. Det er ikke bare det som foregår mellom forskere i et gitt prosjekt, eller mellom forskere og forskningsdeltagere, som er etisk relevant. Også mulige eller sannsynlige samfunnsmessige eller miljømessige konsekvenser må inkluderes.
Nye spørsmål, etablerte prinsipper
Forstått på denne måten, er forskningsetikk prinsippbasert. Det vil si at forskningsetikken ikke handler om å benytte en eller annen esoterisk normativ teori, ei heller er den begrenset til rent juridiske spørsmål; den skal spørre om verdiene vi anser som sentrale, og forhåpentlig finne kloke og anvendbare svar.
Kjerneverdiene i forholdet mellom forskere og resten av verden kan beskrives med tre grunnleggende prinsipper: respekt for personer, gode konsekvenser og rettferdighet. («Resten av verden» inkluderer her alt fra forskningsdeltagere til økosystemer, avhengig av det enkelte tilfellet.) I relasjonen mellom forskere, er integritet et tilsvarende grunnleggende prinsipp.
KI har ikke skapt en situasjon der vi ser behov for nye prinsipper. De etablerte prinsippene er fortsatt de mest vesentlige. Men det er nødvendig at vi tenker gjennom ting på nytt for å finne gode løsninger i et landskap som er i rask forandring.
I det følgende vil jeg ta opp de fire grunnleggende forskningsetiske prinsippene som er nevnt tidligere og kort forklare en eller to måter de kan bidra til å identifisere forskningsetiske utfordringer knyttet til KI, slik det fremstår for oss i dag. Ikke overraskende møter vi flere spørsmål og utfordringer enn svar.
Respekt for personer
Å behandle noen med respekt, innebærer å behandle dem som personer, hvilket betyr at de skal kunne innvirke på ting som angår dem. Fritt informert samtykke er en hovedregel for å sikre respekt for personer.
Måten KI fungerer på per nå, innebærer en reell utfordring for muligheten til å bli informert. Dype nevrale nettverk kan ofte komme til bedre slutninger enn mennesker, men med tanke på forklarbarhet, er det vanligvis umulig å finne ut og forstå hva som ligger bak en slik slutning.
Ettersom teknologien arbeider på så ekstremt komplekse og uforståelige måter, er informert samtykke vanskelig å innfri når det man trenger samtykke til er basert på KI-genererte konklusjoner.
Gode konsekvenser
For å sikre gode konsekvenser og unngå dårlige, må man i mange tilfeller tenke forbi det pågående forskningsprosjektet og vurdere prosjektets bredere nedslag.
I diskursen rundt konsekvenser av KI har 'The Alignment Problem' vært sentralt (et begrep utviklet i stor grad av Brian Christian og Stuart Russell). Dette problemet angår mangler både hos mennesker og KI, ettersom ingen av oss er særlig flinke til å forstå hva mennesker egentlig ønsker eller faktisk burde ønske (for videre lesning, se Christian 2021 og Russel 2020).
Det å realisere eller sikre våre verdier i en KI-kontekst krever tolkning og kommunikasjon mellom KI og mennesker (dette er den omtalte justeringen eller ’alignment’). Noen har spekulert i om kommunikasjonssvikt kan ende i en global katastrofe, men selv uten slike sci-fi-lignende scenarier, er det åpenbart utallige muligheter for at mangel på slik justering kan føre til dårlige konsekvenser og fjerne oss ytterligere fra håpet om gode konsekvenser.
Rettferdighet
Rettferdighet er først og fremst viktig for grupper og sammenligninger mellom grupper. Hvis forskningen din har én gruppe (identifiserbar ved for eksempel økonomisk situasjon, nasjonalitet, etnisitet eller kjønn) som bærer hovedtyngden av potensielle ulemper i forskningen din, mens det er en annen gruppe som høster fordelene, kan det hende du har et rettferdighetsproblem.
Som nevnt gjelder forskningsetikk i bred forstand også direkte og indirekte produkter av forskningen. KI-teknologi som øker forskjellene mellom grupper, eller forskjellsbehandler dem på en etisk problematisk måte, blir dermed et forskningsetisk tema. Noen tilfeller av såkalt «predictive policing», bruk av KI for å avgjøre i hvilke områder man skal prioritere tilstedeværelse av politi, har blitt påvist som rasistiske.
Nyere analyser antyder at det ikke alltid er et etisk åpenbart svar på slike spørsmål (Hung 2023). Det betyr likevel ikke at noen implementerte praksiser ikke har vært mye verre enn andre. Dersom et helt felt for beslutningstaking er beheftet med reell etisk usikkerhet, blir det i tillegg desto mer avgjørende at ansvaret ikke pulveriseres gjennom delegering.
Lignende utfordringer knyttet til rettferdighet gjør seg gjeldende i en rekke ulike saker. Selv om det finnes metoder for å justere resultatet i en KI-læringsprosess, er det mye sant i utsagnet «søppel inn, søppel ut» i denne sammenhengen.
Offentligheten er blitt konfrontert med hvordan et bildegjenkjenningsprogram kan fremstå som en fornuftig og objektiv dommer, inntil programmet plutselig klassifiserer et bilde av et menneske som en annen art, på et vis som fremstår ekstremt rasistisk. Hvilke data en KI trenes med, og hva slags hjelp den får i prosessen, kan være relevant for spørsmål om rettferdighet så vel som objektivitet i en kanskje mer naiv forstand.
Integritet
Mange forskningsinstitusjoner lager for tiden retningslinjer for hvordan man bør bruke KI. De fokuserer på studenter og opplæring på den ene siden, og forskere og forskningsaktivitet på den andre.
Det er imidlertid viktig å huske at det ikke er et klart skille her. Noen av dagens studenter er morgendagens forskere og de praksiser og tilnærminger de lærer nå, vil legge grunnlaget for fremtidens forskning.
Plagiat er et alvorlig brudd på forskningsintegritet (og studentintegritet). Tradisjonelt kunne plagiat avsløres ved å sammenligne nye tekster med en tilgjengelig tekstbase. I skrivende stund er teknologien på et sted der dette ikke lenger er mulig. For mens store språkmodeller genererer nye tekster ved statistiske kombinasjoner, er tilsvarende teknologi for å identifisere slike maskingenererte tekster ikke pålitelig nok.
Det er et umiddelbart behov for å utvikle retningslinjer for bruk av KI-teknologi i student- og forskerarbeid. Ettersom teknologier og praksiser skifter raskt, fremstår levende retningslinjer som et konstruktivt alternativ.
At de er levende, betyr at retningslinjene oppdateres løpende. De optimale retningslinjene må være tett nok på teknologien til at å være nyttige, samtidig som de har avstand nok til å vare lenger enn et par uker.
KI-medforfatterskap?
En skulle kanskje tro at en løsning når det gjelder bruk av KI i forskning er å kreditere KI som medforfatter. Åpenhet om bruk av KI i forskningsarbeid er et grunnprinsipp for integritet. Det blir imidlertid ikke riktig å gjøre KI til medforfatter. En årsak til at mange tror det kan være en løsning, er nok at man tenker forfatterskap først og fremst i form av kreditering eller anerkjennelse.
Anerkjennelse er en viktig årsak til at forskere publiserer – det å bli anerkjent for hardt arbeid eller genialitet, med økte utsikter til ansettelse, forfremmelse, lønnsøkning eller forskningsfinansiering. Kreditering i denne forstand er imidlertid ikke den eneste etisk relevante funksjonen til forfatterskap.
Et annet definerende trekk ved forfatterskap er ansvar, da det å ha navnet sitt på en publikasjon er å ta ansvar for innholdet. Dette er videre sentralt for forskningens troverdighet, enten det er overfor andre forskere, beslutningstakere eller den bredere offentligheten.
KI tar ikke ansvar. For alt vi vet kan dette endre seg på et tidspunkt i fremtiden, men per idag er vi langt fra en verden hvor vi på en fornuftig måte kan tilskrive KI-teknologi et etisk ansvar.
Dels av de samme grunnene som det er feil å tilskrive ansvar for forfatterskap til KI, er det feil å tilskrive ansvar til KI når det gjelder beslutningstaking som påvirker mennesker eller miljø på andre felt. På godt og vondt hviler ansvaret fortsatt på oss.
Etikk og endring
Det kan godt hende refleksjonene her raskt vil fremstå utdaterte, som følge av nye utviklinger. Årsaken vil imidlertid ikke være at de forskningsetiske prinsippene er utdaterte, men at den omtalte teknologien eller forståelsen av den er det.
Det at ting går raskt, slik KI-relatert teknologisk utvikling for tiden gjør, er ikke en unnskyldning for å utsette refleksjon. Rask endring skaper tvert imot et ekstra behov for refleksjon. Vi kan til og med si at pågående og kommende utvikling innen KI på en måte er en hjelp til etisk tenkning, i den forstand at dette tvinger oss til å tenke gjennom på nytt de prinsippene og verdiene som vi setter høyt og er avhengig av.
Referanser
Christian, Brian (2021). The Alignment Problem: How can Artificial Intelligence Learn Human Values? Atlantic Books, London.
Hung, TW., Yen, CP. (2023). Predictive policing and algorithmic fairness. Synthese pp. 201-206. Springer.
Russell, Stuart (2020). Human Compatible: AI and the Problem of Control. Penguin, London.