Annonce Banner Banner Banner

Kunstig intelligens på godt og ondt

Kunstig intelligens På grund af AI er der mere og mere snyd med videnskabelige artikler, vurderer professor Jens Lykkesfeldt. Det er troværdigheden af videnskaben som disciplin, der står på spil. Vi skal være meget kritiske overfor AI, mener filosof Anders Fogh Jensen. Men også mere præcise omkring: Hvad er det egentlig, vi frygter?

Kunstig Intelligens Web © Colourbox
Interview

I det internationale online tidsskrift »Frontiers in Veterinary Science« udtrykte en række forskere i oktober 2023 bekymring over perspektiverne for kunstig intelligens i det hele taget og ChatGPT i særdeleshed. Potentielt vil AI øge produktionen af pseudovidenskabelige publikationer, lyder det. Og der er ikke nogen plan for at bremse AI-baseret plagiering, som fx kan bestå af uetisk udnyttelse af originalt menneskeskabt arbejde eller AI-genereret indhold, som ikke anerkender og refererer korrekt til originalerne.

»Is the genie out of the bottle«, spørger forskerne. Det er også det spørgsmål, som professor på Institut for Veterinær- og Husdyrvidenskab på Københavns Universitet Jens Lykkesfeldt diskuterer flittigt med sine kolleger for tiden.

Er ånden sluppet ud af flasken? Er det overhovedet muligt at bremse de negative aspekter af AI samtidig med, at man drager nytte af de åbenlyst positive aspekter? Som fx at dygtige forskere med begrænsede kompetencer i engelsk nu pludselig har bedre mulighed for at videndele med resten af verden.

Der er også elementer i datascience, hvor AI kan hjælpe os til at blive meget bedre til at finde bittesmå nuancer i kæmpe datasæt, fortæller Jens Lykkesfeldt.

- Vi kan programmere de her maskiner til at finde en systematik, som det almindelige menneskelige øje enten ikke har tid eller evner til at finde. Det er en kæmpe fordel, at vi langt mere effektivt kan analysere den viden, vi allerede har indsamlet, for det kan være hypotesegenererende for fremtidige studier. Der er hele tiden risiko for, at der kommer enten falsk positive eller negative observationer, men det er noget, vi er vant til at forholde os til. Vi er kun ved at snuse til det her, så der er sikkert mange flere positive perspektiver, der ligger og venter forude, som jeg ikke kan overskue på nuværende tidspunkt, siger Jens Lykkesfeldt, der er redaktør på det videnskabelige tidsskrift Basic and Clinical Pharmacology and Toxicology og sidder i Akademisk Råd og i Praksisudvalget – universitets »domstol« for god videnskabelig praksis.

Regulært fusk

Men han kan også blive særdeles bekymret over de negative aspekter.

- På grund af kunstig intelligens bliver der i dag i stigende grad publiceret ting, som ikke hører hjemme i den videnskabelige litteratur. Det er mit indtryk, at der er mere og mere snyd. Jeg har ikke enormt meget dokumentation for at sige det, men hvor det før var en gang om året, at jeg opdagede snyd med videnskabelige artikler, så er det nu en gang om måneden. Enten er der fiflet med statistikken eller med billeder og slides. Enten er det pure opspind eller regulært fusk. AI gør det meget nemmere at snyde på vægtskålen, vurderer Jens Lykkesfeldt.

AI gør det meget nemmere at snyde på vægtskålen.

Jens Lykkesfeldt

- Hvis jeg fx skulle lave en artikel om inflammation i bughulen, kan jeg skrive til ChatGPT: »Kan du ikke lige skrive mig en introduktion på 800 ord«. På få sekunder generer den en introduktion med referencer til litteratur. Der kunne man så sige »nej, hvor smart - nu har vi sparet en masse tid«. Men problemet er, at det er her, hvor forskerens intellektuelle ansvar og rettigheder ligger. Jeg bliver virkelig alarmeret, hvis mine studerende eller mine fagfæller benytter metoden. Det skal jo være en forsker af kød og blod, som har vurderet, hvilken litteratur, der skal lægges vægt på.  

- Før ChatGPT er det forfatterens ansvar, hvad der bliver valgt ud. Efter ChatGPT bliver det en mængde af litteratur, som vi ikke har nogen som helst viden om, hvorfor er udvalgt eller hvordan. Den er ikke underkastet den faglige bedømmelse, som vi forventer, at vores kolleger foretager.

En enorm pris at betale

Hvis man bruger ChatGPT som hjælp til en oversættelse eller tilretning af en tekst, er det fint med Jens Lykkesfeldt.

- Der, hvor kæden hopper af, er, hvis der er autogenereret tekst, som indeholder vurderinger af videnskab, som man ikke selv står på mål for. Man viderebringer blot det, algoritmer har spyttet ud, som ingen har en chance for at tjekke. Ikke med mindre folk er rene amatører, som intet gør for at skjule, at det er ChatGPT, der har produceret en tekst. Jeg har lige fået tilsendt en artikel, der har været trykt i et videnskabeligt tidsskrift. Den indledes sådan her: »Certainly, here is a possible introduction for your topic«. Artiklen er altså gået hele vejen igennem direkte fra ChatGPT og er blevet trykt. Hvis der i fremtiden bliver publiceret en masse artikler, som er lavet af ChatGPT, bliver vi ikke klogere, mener Jens Lykkesfeldt. 

- Vi får blot fortyndet den viden, vi allerede har. Det ender med at blive ligegyldigt, fordi AI bare har omskrevet og omstruktureret lidt på viden, der findes i forvejen. Antallet af videnskabelige publikationer eksploderer i disse år, og det er godt nok svært at argumentere for, at det samme sker med selve videnskaben. En stigende del af de nye artikler er reelt set fake. Det er utroligt skræmmende og totalt underminerende for videnskaben.

Troværdigheden af videnskaben som disciplin står på spil, og det kan ende med, at man heller ikke længere tror på forskerne. Det er en enorm pris at betale, siger Jens Lykkesfeldt.    

To dagsordener

Når man kritiserer den rolle, kunstig intelligens spiller i forskning, er det vigtigt at skille tingene ad, mener forfatter og filosof Anders Fogh Jensen, som holder foredrag om AI. 

- Hvis perspektivet er, om vi med kunstig intelligens kan få en bedre verden med færre sygdomme, så vil majoriteten af befolkningen jo nok hælde til, at det er ligegyldigt, hvem pokker der er kommet op med løsningerne. Man vil være tilbøjelig til at byde den kunstige intelligens velkommen, hvis den kan bidrage med noget konstruktivt. Men det karambolerer så med en helt anden dagsorden, som er: Hvem er egentlig den dygtige forsker her? Hvem skal krediteres for det her? Det er mere en social dagsorden, der handler om forskernes interne hierarkisering, som de legitimt nok interesserer sig meget for. Men det kan nemt blive lidt forplumret, hvis man roder disse to forskellige dagsordner sammen. Selvfølgelig skal man være meget kritisk overfor kvaliteten af de løsningsforslag, AI genererer, understreger Anders Fogh Jensen. 

Det er jo ikke AI, som snyder.

Anders Fogh Jensen

Han understreger, at det har vi jo også vænnet os til, at vi skal, når vi søger på Google. Man finder et eller andet, der ser lovende ud, men så konstaterer man, at det er en 3. års opgave på gymnasiet. Og så må man hellere tjekke efter en ekstra gang. Udfordringen med AI er, at det er svært at gennemskue, hvordan algoritmerne er nået frem til løsninger. Hvad er mellemregningerne?

- Der skal man være meget opmærksom på, at hvis man beder kunstig intelligens om at finde sammenhænge, som man selv har svært ved at få øje på, så kan den finde på at koble antallet af swimmingpools i USA med, hvor mange film Nicolas Cage har medvirket i. Simpelthen bare fordi, der er nogle kurver, som følger hinanden. AI er rigtig god til at se mønstre, men den er ikke særlig god til at spørge, om de mønstre har noget med hinanden at gøre, siger Anders Fogh Jensen. 

Der skal et menneske til

AI er allerede nu blevet langt bedre end en dommer til at forudsige risikabel adfærd hos en varetægtsfængslet. Det er et dilemma, for som varetægtsfængslet har du ret til at få at vide, hvilke mellemregninger der ligger til grund for, at du bliver holdt fængslet. Men hvis det er AI, som har vurderet, at du udgør en sikkerhedsrisiko, kan dommeren ikke redegøre nærmere for mellemregningerne.

I forskning kan man heller ikke blive helt klog på »hvorfor«, for den kunstige intelligens har sit eget liv, understreger Anders Fogh Jensen.

- Man kommer nemt ud i ikke at kunne begrunde beslutninger, som den kunstige intelligens er nået frem til. Men hvad nu, hvis resultatet er fremragende? Så kan det være, vi bliver nødt til at leve med ikke at kende mellemregningerne. Derfor må vi være præcise, når vi definerer, hvad det er, vi skal frygte. AI er fantastisk til at komme med forslag. Hvad med at kigge på den og den sammenhæng. Prøv at lade være med at teste på det der, men prøv at teste på det her i stedet. Det er der vel ikke noget i vejen med. Og det er vel også lige meget, hvor genial eller ikke genial den forsker er, som følger rådet. Så det må være godt nok, at vi ikke har et »hvorfor«, hvis vi til gengæld har fået en god idé. 

Der er nok ikke nogen tvivl om, at AI har gjort det nemmere at snyde, vurderer Anders Fogh Jensen. 

- Men det er jo ikke AI, som snyder, for det er ikke den, der udgiver en forskningsartikel. Det er mennesket, der foretager det valg. Så det er mere mennesker med tvivlsomme intentioner, vi skal frygte. Det er ligesom børn, der sidder for meget foran en skærm. Det er ikke skærmen selv, der er problemet. Det er børnene og deres forældre, der ikke kan styre det. Får den kunstige intelligens en bevidsthed? Bliver den klogere end os? Kan den vende sig mod os? Den type spørgsmål får Anders Fogh Jensen mange af, når han holder foredrag. 

»Svaret er nej, der skal et menneske til. Hvis vi skal frygte AI, så er det fordi, vi må frygte menneskers inkompetence, naivitet eller dårlige vilje. Derfor er det også en velbegrundet frygt. For man kan jo sagtens forestille sig ambitiøse, men naive forskere, som lader sig forføre af AI. Der er ingen dårlige intentioner, man er blot ukritisk. Man tester ikke ordentligt efter, for det ser godt ud. Og AI bremser ikke sig selv. Derfor er der al mulig grund til at være kritisk overfor AI. Vi skal blot være præcise omkring, hvad det er, vi frygter, siger Anders Fogh Jensen.