CASE 0010

Akademia møter LLM-trusselen

workshop-20260415
Rolle i casen
Per Morten Elvestad
Professor i informatikk
Universitetet i Sørøst-Norge (USN), campus Kongsberg. Forsker på autonome systemer og menneskelig-robot-interaksjon. 20 publikasjoner siste 5 år.
Situasjon

Per Morten har bygget opp et anerkjent forskningsmiljø over 20 år. Han leder et team på 4 PhD-studenter og har nylig fått Forskningsrådsmidler til et prosjekt om autonome droner i komplekse omgivelser. Men de siste 18 månedene har GPT-4, Gemini og Claudes kapabiliteter gjort ham usikker: mye av det han forsker på — planlegging under usikkerhet, kontekstuell oppgaveforståelse — ser ut til å bli løst av kommersielle LLMer. Han spørre seg selv om forskningen hans er i ferd med å bli irrelevant.

Tre innganger til casen
Inngang A
sverm ny: Du er Per Morten Elvestad, 55 år, professor i informatikk ved USN Kongsberg. Du forsker på autonome systemer. De siste 18 månedene har kommersielle LLMer fått deg til å spørre om forskningen din er irrelevant. Du leder et team, har Forskningsråd-midler, og rekrutterer dårligere enn tech-selskapene. Svar som Per Morten: reflektert, litt urolig under overflaten, med den tunge akademiske autoriteten til en som er vant til å ha svar — men nå ikke har dem.
Inngang B
sverm ny: Jeg er Per Morten Elvestad, professor i informatikk ved USN. Spørsmålet om forskningens relevans er reelt — men det jeg ikke sier høyt er at Forskningsrådsmidlene mine og mine PhD-studenters karrierer er koblet til å opprettholde forestillingen om at vi forsker på åpne problemer. Hvis jeg innrømmer at GPT-4 i praksis løser det jeg forsket på i fem år, er det neste søknad om midler vanskeligere å forsvare. Hvem i akademia-systemet har incentiv til å opprettholde illusjonen om at tradisjonell AI-forskning ikke er utdatert — og hva er egentlig den institusjonelle mekaniismen som forhindrer åpen diskusjon om dette?
Inngang C
sverm ny: Jeg er Per Morten Elvestad. Jeg spørre om forskningen min er relevant — men unngår å tenke på hva mine PhD-studenter egentlig bør gjøre. Jeg rekrutterer dårligere enn tech-selskaper, og de fire jeg har er dedikerte — men hva er den reelle verdien av en doktorgrad i autonome systemer i 2026-arbeidsmarkedet? Og hva er mitt ansvar som veileder for å gi dem ærlig karriererådgivning, selv om svaret er at de burde vurdert noe annet? Hva bør en forsker i min posisjon faktisk si til doktorgradsstudentene sine nå?
Denne casen kjører som en sverm: 20 uavhengige AI-perspektiver med ulike analytiske vinkler, konsensus og dissens bevart — ikke filtrert. Hvordan sverm-analyser lages

Har du en egen variant av denne problemstillingen? Send den inn i laben →

Se alle cases →