Tilbake til blogg
Teknologi··10 min lesing

Tillitsfull AI i saksbehandling

Frykt råder i offentlig saksbehandling. Frykten for å gjøre feil. Frykten for hallusinasjoner. Veien fremover er ikke å unngå frykten – men å temme den.

Espen Nergaard
Grunnlegger og CEO

For ti år siden sa en kommunaldirektør noe som festet seg hos meg: «Utgangspunktet for all saksbehandling er nei

Avslå søknaden. Unngå risikoen. Send den videre til noen andre.

Det var ikke ment som kritikk. Det var en nøktern beskrivelse av virkeligheten. Og ti år senere er den like sann.

Frykt som grunnmodus

Offentlig sektor styres av frykt. Frykt for å gjøre feil. Frykt for å fatte vedtak på feil grunnlag. Frykt for at Statsforvalteren omgjør. Frykt for medieoppslag.

Frykten er ikke irrasjonell. Innsatsen er høy. Det handler om borgernes rettigheter – om plikter med store økonomiske konsekvenser for virksomheter, om endrede rammevilkår som kan snu hverdagen for folk. Hvert vedtak kan bli klaget inn. Hvert vedtak kan bli overprøvd. Hvert vedtak kan havne i avisen.

I Sarpsborg sitter fem saksbehandlere med rundt 250 saker i året. Behandlingstiden er fire til seks uker. «Da drukner du, det bare vokser over hodet på deg,» fortalte en saksbehander oss. Og kvaliteten må holde – alltid. «Vi skriver for Statsforvalteren,» som en saksbehandler sa det. Hvert vedtak må tåle overprøving.

Resultatet er et system som optimaliserer for å unngå feil, ikke for å skape verdi. Saksbehandlere bruker mesteparten av tiden sin på rutinearbeid – dobbeltarbeid, mengdeoppgaver, dokumentasjon – i stedet for de faglige vurderingene og beslutningene de er utdannet for. «Dette er en oppgave som skaper denne enorme mengden arbeid som ingen synes er spesielt gøy,» som Sandefjord beskrev det.

Frykten bremser. Frykten kveler. Og så kommer AI.

AI forsterker frykten

Hallusinasjoner. Ordet har blitt et skremmebilde. Men det beskriver noe helt grunnleggende ved språkmodeller: alt de gjør er å finne på ord og setninger. De genererer tekst som ser troverdig ut, som føles riktig, men som noen ganger er feil. Ikke forankret i fakta. Ikke forankret i lov. Ikke forankret i noe som helst.

Tromsø-saken ble det norske skrekkeksempelet. En saksbehandler brukte AI til å utforme et vedtak. Resultatet inneholdt referanser til lovbestemmelser som ikke eksisterte. Paragrafer som aldri har vært skrevet. Juridisk fiksjon, pakket inn i overbevisende språk. Saken ble slått opp i media. Tilliten fikk en bulk som fortsatt merkes.

Det er fristende å konkludere med at AI ikke hører hjemme i saksbehandling. At risikoen er for stor. At vi bør vente til teknologien er «moden nok» – hva nå det betyr.

Men ventetiden har en kostnad. Den betaler saksbehandlerne som drukner i mengdeoppgaver. Den betaler innbyggerne som venter uker og måneder på svar. Den betaler samfunnet i form av en offentlig sektor som sakker akterut mens resten av verden beveger seg videre.

Og innbyggerne venter ikke. «Vi mottar AI-søknader. Vi har virkelig sett det,» fortalte saksbehandleren i Sarpsborg oss. Foreldre bruker allerede ChatGPT til å skrive søknader til kommunen. Verden beveger seg – med eller uten oss.

Spørsmålet er ikke om AI kommer inn i saksbehandling. Spørsmålet er hvordan.

Automation bias – den usynlige fellen

Det finnes en felle de fleste ikke ser. Den er farligere enn hallusinasjoner, fordi den er usynlig.

Den heter automation bias – tendensen mennesker har til å stole for mye på automatiserte systemer. Når en maskin gir deg et svar, er det fristende å akseptere det uten å sjekke. Spesielt når maskinen har hatt rett de siste hundre gangene. De siste tusen gangene. Du slutter å se etter feil, fordi feilene aldri kommer.

Helt til de gjør det.

Forskningen er tydelig: dersom AI håndterer 99,9 prosent av beslutningene korrekt, mister mennesker gradvis evnen til å gripe inn i den kritiske 0,1 prosenten. Jo bedre AI-en blir, desto høyere er risikoen for at mennesker mister evnen til å fange sakene som krever skjønn og vurdering.

Paradokset er brutalt: en AI som fungerer nesten perfekt er farligere enn en AI som gjør åpenbare feil. Den åpenbare feilen holder deg skjerpet. Den nesten perfekte AI-en gjør deg sløv. Den bygger ned ferdighetene dine, sakte og umerkelig, helt til du trenger dem – og oppdager at de er borte.

Luftfarten lærte dette på hardest mulig måte. Den 1. juni 2009 styrtet Air France flight 447 i Atlanterhavet. Flyets autopilot koblet ut da issensorer frøs igjen. Pilotene – erfarne, kompetente – hadde i årevis lent seg på automatikken. Da de plutselig måtte fly manuelt, i mørke, i turbulens, klarte de det ikke. De hadde mistet ferdighetene. 228 mennesker omkom.

Saksbehandling er ikke luftfart. Feil dreper ikke. Men prinsippet er det samme: automatisering som fjerner mennesket fra prosessen, gjør mennesket dårligere rustet til å gripe inn når det virkelig gjelder. Og i saksbehandling gjelder det oftere enn vi liker å tro.

EU har forstått dette. AI Act artikkel 14 krever at høyrisikosystemer skal være designet for «effektivt tilsyn» av mennesker – ikke som en formalitet eller en avkrysningsboks, men som en reell, fungerende sikkerhetsmekanisme. Spørsmålet er hva det faktisk betyr i praksis.

Temme frykten

Svaret er ikke å unngå AI. Svaret er ikke å omfavne AI ukritisk. Svaret er å temme den.

Å temme frykten betyr å bygge AI-systemer som svarer på de legitime bekymringene – punkt for punkt, lag for lag. Det er ikke nok å si «vi bruker AI ansvarlig». Det er ikke nok å ha en etisk komité. Det må bygges inn i arkitekturen.

Tillitsfull AI i saksbehandling hviler på tre prinsipper:

Kilder må være etterprøvbare. Når AI-en henviser til en lovbestemmelse, må saksbehandleren kunne klikke seg rett til kilden. Ikke en oppsummering. Ikke en parafrase. Selve lovteksten, med paragraf og ledd. Når AI-en viser til et faktum i søknaden, må saksbehandleren kunne se nøyaktig hvor det står. Etterprøvbarhet er ikke en bonus – det er grunnmuren.

Resonnementet må være sporbart. Saksbehandleren må kunne se hvordan AI-en kom frem til konklusjonen. Hvilke fakta den la til grunn. Hvilke regler den anvendte. Hvor den var sikker, og hvor den var usikker. Den røde tråden fra inndata til konklusjon må være synlig – hele veien. Transparens er ikke en fin ting å ha. Det er en forutsetning for tillit.

Mennesket må alltid ha siste ord. AI-en foreslår. Saksbehandleren beslutter. Det høres enkelt ut, men det krever at systemet er designet for det. At det er friksjon i prosessen. At saksbehandleren aktivt må ta stilling – ikke bare klikke «godkjenn» og gå videre.

Denne friksjonen er ikke en bug. Den er en feature. Den holder saksbehandleren skjerpet. Den motvirker automation bias. Den sikrer at mennesket forblir i stand til å gripe inn – ikke bare i teorien, men i praksis. Dag etter dag, sak etter sak.

Mennesket i løkka

Men saksbehandlerens rolle handler om mer enn å fange feil.

Tenk på sikkerhetsvakten i barnehagen. Når en treåring kommer inn porten om morgenen, bøyer vakten seg ned. Smiler. Sier god morgen. Treåringen stråler.

Vakten er ikke der bare for å sjekke legitimasjon. Vakten er der for å gi en menneskelig opplevelse. For å gjøre møtet med institusjonen verdig.

Saksbehandleren har den samme rollen. Bak hver søknad er det et menneske med en historie. En forelder som kjemper for barnets rettigheter. En bedriftseier som trenger avklaring for å planlegge fremover. En innbygger som møter byråkratiet og trenger å bli sett.

AI kan analysere dokumenter. AI kan sjekke mot regelverk. AI kan foreslå vedtak. Men AI kan ikke gi verdighet. AI kan ikke møte et menneske med empati. AI kan ikke utøve det skjønnet som handler om å forstå helheten i en situasjon – ikke bare det juridiske, men det menneskelige.

Det er derfor vi snakker om «mennesket i løkka» – ikke som et sikkerhetsnett, men som en essensiell del av prosessen. Saksbehandleren er ikke der for å overvåke AI-en. Saksbehandleren er der fordi noen oppgaver krever et menneske. Fordi noen beslutninger fortjener menneskelig vurdering. Fordi det å bli behandlet av et menneske – ikke bare en algoritme – har en verdi i seg selv.

De siste årene har debatten om AI i offentlig sektor pendlet mellom to ytterpunkter: full automatisering eller full avvisning. Teknologioptimistene vil erstatte saksbehandlerne. Skeptikerne vil forby AI fra forvaltningen. Begge tar feil.

Svaret ligger i samspillet. AI som tar unna mengdeoppgavene – rutinesjekker, dokumentsammenstilling, regelverksanalyse. Mennesker som tar de vanskelige vurderingene – skjønnssaker, grensetilfeller, situasjoner der empati og kontekst veier tyngre enn paragrafer. Og et system som gjør det krystallklart hvem som gjør hva, når, og hvorfor.

Fra måneder til minutter – med bedre kvalitet enn før. Ikke fordi AI-en er perfekt. Men fordi saksbehandleren endelig får tid til å gjøre det saksbehandleren er best på.

Tillitsfull AI er ikke AI du stoler blindt på.

Det er AI som gjør deg trygg på at du kan stole på deg selv.

Del

La oss vise dere.

Vi kjører en demo med deres sakstyper — ikke en generisk presentasjon. Saksbunkene venter ikke.