Tilbake til blogg
Teknologi··4 min lesing

Copilot er ikke en AI-strategi

Mange organisasjoner tror de har implementert AI fordi de har rullet ut Copilot. De har implementert et skriveverktøy. Det er ikke det samme.

Espen Nergaard
Grunnlegger og CEO

«Vi har Copilot.» Det er setningen vi hører oftest når vi snakker med offentlige virksomheter om AI. Underforstått: vi er i mål. Vi har krysset av boksen. AI-strategien er implementert.

Men Copilot er et skriveverktøy. Et svært godt skriveverktøy — det oppsummerer dokumenter, genererer utkast, og svarer på spørsmål basert på det du allerede har tilgang til. Problemet er at saksbehandling ikke er skriving.

Hva saksbehandling faktisk krever

En saksbehandler som behandler en byggesøknad gjør ikke primært tekstarbeid. Hun gjør vurderingsarbeid. Hun sjekker søknaden mot plan- og bygningsloven. Henter reguleringsplaner fra kommunens karttjeneste. Slår opp eiendomsinformasjon i matrikkelen. Vurderer om tiltaket berører rødlistede arter, kulturminner eller flomsonekart. Dokumenterer lovhjemmel for hvert steg. Og arkiverer alt i henhold til Noark-standarden.

Ingen av disse stegene er tekstgenerering. De er strukturerte, etterprøvbare handlinger mot autoritative kilder.

Tre gap

Verifisering. Copilot genererer tekst som kan referere til lover og regler. Men den henter ikke fra lovverket — den formulerer noe som høres riktig ut. I juridisk kontekst er «høres riktig ut» ikke godt nok. Enten stemmer lovhenvisningen, eller så gjør den det ikke. Et system som faktisk skal brukes i saksbehandling trenger å hente faktiske paragrafer fra indekserte, autoritative kilder — med kildelenke, ikke med god samvittighet.

Orkestrering. En sak er ikke ett spørsmål med ett svar. Den er en sekvens av avhengige steg: identifiser eiendommen, hent reguleringsplan, sjekk bestemmelser, vurder dispensasjonsbehov. Hvert steg krever et annet register, en annen kilde, en annen type vurdering. Et skriveverktøy kan hjelpe med hvert steg isolert. Det kan ikke orkestrere dem — holde oversikt over avhengigheter, rekkefølge, og hva som mangler.

Etterlevelse. I offentlig forvaltning er ikke «AI sa det» et gyldig grunnlag for et vedtak. Forvaltningsloven krever at vedtak begrunnes med lovhjemmel. Arkivloven krever dokumentasjon. KI-forordningen krever sporbarhet. Et AI-system som brukes i saksbehandling trenger ikke bare å gjøre ting — det trenger å logge hva det gjorde, hvorfor, og med hvilken hjemmel. Det er forskjellen mellom en chatlogg og en hendelsesarkitektur.

Kalkulatorfellen

Å rulle ut Copilot og anse AI-strategien som ferdig er som å kjøpe en kalkulator og tro at regnskapet er automatisert. Kalkulatoren er nyttig. Den gjør beregninger raskere. Men den forstår ikke kontoplan, den håndterer ikke bilag, og den rapporterer ikke til Altinn.

Copilot gjør tekstarbeid raskere. Det er verdifullt i seg selv. Men det er steg én av mange. For saksbehandling er tekstarbeid en overraskende liten del av jobben.

Hva kreves egentlig?

Et AI-system for saksbehandling krever domenekunnskap som er innebygd, ikke promptet. Verifiserte kilder, ikke generert tekst. Orkestrering av steg i riktig rekkefølge med avhengigheter mellom dem. Dokumentasjon av hjemmel for hver handling. Og et bevisst skille mellom det som krever en modells resonneringsevne og det som er deterministisk — og derfor bør kjøre som automatisert arbeidsflyt, uten å involvere en språkmodell i det hele tatt.

Det er ikke et skriveverktøy. Det er en plattform. Og forskjellen er arkitektur.

Spørsmålet er ikke om dere bruker AI. Det er om dere bruker AI som forstår forskjellen mellom å skrive en tekst og å fatte et vedtak.

Del

La oss vise dere.

Vi kjører en demo med deres sakstyper — ikke en generisk presentasjon. Saksbunkene venter ikke.