Skriver artikler på samlebånd med ChatGPT
Språkmodeller basert på kunstig intelligens (KI) skaper både stor bekymring og begeistring. Forsker Som Biswas befinner seg helt klart i den siste gruppa.
Hvis ChatGPT kan brukes til å skrive fortellinger og vitser, hvorfor ikke bruke den til forskning eller publisering av seriøse artikler? Det var radiolog Som Biswas’ umiddelbare tanke da chatboten fra OpenAI slo ned som en bombe i november 2022, ifølge nettavisen The Daily Beast.
Forskeren ved University of Tennessee Health Science Center i USA og tekstroboten inngikk et uvanlig samarbeid: Han matet ChatGPT med stadig nye spørsmål og fikk utfyllende svar. Etter få måneder kom det første resultatet på trykk i tidsskriftet Radiology: kommentarartikkelen «ChatGPT and the Future of Medical Writing».
Biswas legger ikke skjul på tilblivelsen: «Som den menneskelige forfatter av denne artikkelen vil jeg erklære at størsteparten av denne artikkelen er skrevet av GPT», heter det innledningsvis.
Fest setebeltet!
Med chatbotens hjelp har Biswas skrevet med lynets hastighet, og i mai var han allerede oppe i 20 artikler så langt i år.
Stefan Duma, redaktør for Annals of Biomedical Engineering, har merket en dramatisk økning i tilstrømmingen av artikler etter chatbotens inntog. Mange har blitt avvist på grunn av dårlig kvalitet. Flere kommentarartikler (Letters to the Editor), deriblant to fra Biswas, har imidlertid sluppet gjennom, ifølge The Daily Beast.
Duma er overbevist om at verktøy som ChatGPT vil bli stadig viktigere i livet vårt: Folk må feste setebeltet og gjøre seg klare, sier han.
Ikke til å stole på
Utviklingen av avansert kunstig intelligens er så rask at den utgjør en «grunnleggende fare for samfunnet og menneskeheten», het det i et opprop i mars. KI-modeller raskere enn GPT4 må settes på vent i minst seks måneder, krevde teknologiledere og forskere på feltet. OpenAI responderte med en midlertidig stans i utviklingen av GPT5.
I forskningens og formidlingens verden handler skremmescenarioet om tekster fulle av plagiat, faktafeil eller usanne påstander. Og deretter en oppsmuldring av tilliten til både forskning og akademisk publisering.
KI-Forsker Inga Strümke ved NTNU har nylig gitt ut boka Maskiner som tenker. Til Magasinet Forskningsetikk understreker hun at språkmodeller har en rekke begrensninger, blant annet når det kommer til sannhet.
– De hadde sikkert passert Turing-testen og kunne overbevist et menneske om at det snakket med et intelligent vesen. Men kan vi bruke dem som kilde til informasjon? Da er svaret et rungende nei. De er lagd for å være samtalepartnere, sier hun.
I en lederartikkel i Tidsskrift for Den norske legeforening advarer redaktør Are Brean om at chatbotens imponerende evner lett kan «forføre leseren til å stole mer på teksten enn det er grunnlag for». Bruken av teknologien må fortsatt både utvikles, diskuteres og reguleres, understreker han.
Annals of Biomedical Engineering og redaktør Duma har allerede tatt grep: Nylig innførte tidsskriftet retningslinjer som forbyr språkmodeller å være oppført som medforfattere. Slike artikler får heller ikke publiseres som vitenskapelige artikler.