Når AI feiler: Tromsø-saken og prisen for å gå foran
Tromsø-saken viste hva som skjer når offentlig sektor tester AI uten rammeverk. Men den viste også noe viktigere: at de som tør å feile, betaler en personlig pris – mens resten av oss får gevinsten.
I januar 2025 ble det kjent at Tromsø kommune hadde brukt ChatGPT i saksbehandling – uten å dokumentere det. Ingen logg. Ingen arkivering. Ingen sporbarhet. Da innsynskravet kom, fantes det ingenting å gi innsyn i.
Det er lett å riste på hodet. Men før du gjør det: Tromsø gjorde noe de fleste andre kommuner også gjør. De bare ble tatt.
Saken har fundamentalt endret hvordan vi må tenke om saksbehandling, dokumentasjon og innsyn i en tid der AI er i ferd med å bli allestedsnærværende. Og den reiser et spørsmål ingen har et godt svar på ennå: Hva skal konsekvensene være for de som tør å prøve noe nytt?
Fryktløs feiling som konkurransefortrinn
Det finnes et mantra i innovasjonsmiljøer: «Tør å feile.» Poenget er at feiling bringer læring. At du ikke kan innovere uten å ta risiko. At de beste løsningene kommer fra de som tør å gå utenfor det trygge.
Norge har noe unikt her. Vi har en kombinasjon av høy tillit, flat struktur og radikal åpenhet – innsynsretten, offentlighetsloven, journalføringsplikten. I teorien er dette en killer combo: Du kan eksperimentere fordi tilliten er høy, og du kan lære av feilene fordi åpenheten tvinger frem transparens.
Fryktløs feiling kombinert med norsk åpenhet burde være et konkurransefortrinn i en usikker fremtid. Men det forutsetter én ting: at systemet beskytter de som feiler, ikke straffer dem.
Baksiden av medaljen
Her er baksiden av medaljen: Hvem bærer egentlig risikoen?
I Tromsø-saken var det enkeltpersoner som tok sjansen. De så muligheten i AI, de prøvde å gjøre jobben sin bedre, raskere, mer effektivt. De hadde ingen retningslinjer å følge, fordi retningslinjene ikke fantes. De hadde ingen rammeverk å støtte seg på, fordi rammeverkene ikke var bygget ennå.
Og da det gikk galt, var det de som sto igjen.
Innovasjon i offentlig sektor bæres i dag på skuldrene til noen få som av en eller annen uforklarlig grunn tør å ta personlig risiko. De gjør det fordi de tror på oppdraget. Fordi de ser at noe kan bli bedre. Fordi de ikke klarer å la være.
Men her er det ubehagelige spørsmålet: Hvis konsekvensen av å «feile» betyr at disse personene ikke lenger er i posisjon til å feile igjen – da kan vi legge konseptet «tør å feile» til side med en gang.
Hvis enkeltpersoner er alene om å bære konsekvensene, hvorfor skulle noen ta risikoen? Systemet får gevinsten. Individet bærer konsekvensene. Det regnestykket går ikke opp.
Det vi alle fikk ut av det
Jeg kan si det med sikkerhet: Tromsø-saken alene vil endre hvordan vi tenker om saksbehandling og dokumentasjon.
Ikke fordi noen ble straffet. Men fordi saken tvang frem samtaler som offentlig sektor desperat trengte å ha. Om hva som faktisk skjer når saksbehandlere bruker AI. Om hva som må dokumenteres. Om hva innsyn betyr i en verden der halvparten av jobben gjøres i en chat med en språkmodell.
Vi vet nå at den nye arkivloven fra 2025 krever dokumentasjon av AI-assisterte beslutninger. Vi vet at AI Act stiller krav til sporbarhet og transparens. Datatilsynet behandlet 4 736 saker i 2024, med 902 klager – en økning på 53 prosent. Presset øker fra alle kanter.
Og la oss være ærlige: De fleste visste at dette kom. De fleste valgte å vente. De fleste satset på at noen andre ville finne ut av det først.
Tromsø ventet ikke. Tromsø-saken ga oss den virkelighetssjekken vi trengte. Den kostet noen enkeltpersoner dyrt. Men den ga resten av oss et forsprang vi ikke hadde fortjent.
Innsynsretten i en AI-verden
La oss snakke om elefanten i rommet.
Innsynsbloggen har slått fast at KI-samtaler er omfattet av innsynsretten. Det betyr at alle dialoger en saksbehandler har med ChatGPT, Copilot eller andre AI-verktøy i arbeidet sitt, i prinsippet er offentlige dokumenter.
La det synke inn.
Ingen i offentlig sektor er forberedt på å gi innsyn i all dialog ansatte har med diverse GPT-tjenester i arbeidshverdagen. Ingen bevarer denne dialogen i dag. Ingen har systemer for det. Ingen har rutiner for det.
Det betyr at hver eneste kommune, direktorat og departement som bruker AI i saksbehandling – og det er de fleste – opererer i et juridisk ingenmannsland. De vet at de må dokumentere. De vet at innsynskrav kan komme. Men de har ikke verktøyene til å gjøre noe med det.
Dette er ikke et teknisk problem. Det er et systemisk problem. Og det er grunnen til at vi bygger Neo – ikke som enda et AI-verktøy, men som en plattform der etterlevelse er innebygd fra dag én. Der dokumentasjon ikke er noe du gjør i etterkant, men noe som skjer automatisk. Der den røde tråden mellom spørsmål, AI-analyse og beslutning er sporbar fra start til slutt.
De som går foran
Jeg tenker ofte på folkene i Tromsø. På de som så en mulighet, tok sjansen, og betalte prisen.
De fortjener ikke å bli gjort til syndebukker. De fortjener anerkjennelse for å ha vist oss hva som mangler. For å ha tvunget frem en samtale som resten av offentlig sektor var for komfortable til å ta selv.
Innovasjon har alltid vært slik. Den bæres av de få som tør. Som ser noe andre ikke ser ennå. Som tar den personlige risikoen fordi alternativet – å la alt forbli som det er – føles verre.
Men vi kan ikke fortsette å be folk om å «tørre å feile» hvis vi ikke er villige til å beskytte dem når de gjør det. Konsekvensene av innovasjon kan ikke bæres av enkeltpersoner alene. Det må være et organisatorisk ansvar. Et systemisk ansvar.
Vi trenger rammeverk som gjør det trygt å eksperimentere. Systemer som dokumenterer automatisk, slik at ingen trenger å velge mellom å innovere og å etterleve. Ledere som tar ansvar for kulturen de har skapt, ikke bare for resultatet de ikke fikk.
Tromsø-saken er ikke en historie om fiasko. Den er en historie om mot. Og den bør minne oss alle på at prisen for å gå foran aldri bør være høyere enn prisen for å stå stille.