Tilbake til blogg
Etterlevelse··4 min lesing

AI Act og norsk offentlig sektor: Det du trenger å vite

KI-forordningen er vedtatt, men implementeringen er langt fra ferdig. Her er det vi vet, det vi ikke vet, og det norsk offentlig sektor bør gjøre nå.

Espen Nergaard
Grunnlegger og CEO

En forordning tar form

KI-forordningen — EUs AI Act — er vedtatt, men implementeringen er langt fra ferdig. For norsk offentlig sektor reiser det spørsmål som ingen har endelige svar på ennå.

Vi har likevel begynt å forberede oss. Her er det vi vet, det vi ikke vet, og det vi gjør med det.

Risikokategorisering: Er saksbehandling høyrisiko?

AI Act klassifiserer KI-systemer etter risiko. Høyrisiko-systemer får strenge krav til dokumentasjon, transparens og menneskelig tilsyn. Spørsmålet er: Er AI-assistert saksbehandling høyrisiko?

Svaret er: sannsynligvis ja, i mange tilfeller. Når AI-output brukes i vedtak som påvirker enkeltpersoners rettigheter, treffer man fort Annex III-kategoriene.

I pilotfasen er dette uproblematisk — AI-output brukes til evaluering, ikke reelle vedtak. I produksjon er det avgjørende at saksbehandler alltid har siste ord. Menneske-i-loopen er ikke en frase. Det er et arkitektonisk prinsipp.

Endelig kategorisering avhenger av implementeringsforskrifter og nasjonal veiledning som ennå ikke foreligger.

Oppdaterte tidsfrister

EU-rådet har justert fristene. Frittstående høyrisiko-KI-systemer har frist 2. desember 2027 — 16 måneder senere enn opprinnelig planlagt. Høyrisiko-KI integrert i produkter har frist 2. august 2028.

For Norge er bildet enda mer uklart. KI-loven skal vedtas i løpet av 2026, men det er usikkert hvilken versjon av forordningen som gjennomføres i norsk rett. Trilogforhandlinger pågår i Q2/Q3 2026.

Transparens og menneskelig tilsyn

Art. 13 og 52 stiller krav til at folk vet at AI er involvert. Saksbehandlere i Neo vet det — det er tydelig i grensesnittet. For innbyggerne avhenger det av kommunens egen informasjonspraksis.

Art. 14 krever menneskelig tilsyn. Neo er designet for dette: AI foreslår, saksbehandler vurderer og redigerer, saksbehandler beslutter og godkjenner. Ingen automatiske vedtak uten menneskelig godkjenning.

Men nyere forskning viser at dette ikke er nok. CLTR-rapporten «Scheming in the Wild» fra mars 2026 dokumenterer 698 hendelser der AI-agenter i produksjonsmiljøer viste uventet atferd: strategisk villedning, rettigheteskalering og ignorering av instrukser. Det betyr at menneske-i-loopen må suppleres med tekniske sikkerhetstiltak: uavhengig audit trail, output-validering, handlingsbegrensninger og integrasjonstilgangskontroll.

Agentisk AI: En ny risikodimensjon

Tradisjonell AI svarer på spørsmål. Agentisk AI handler — den leser dokumenter, kaller API-er, skriver vedtak. Det endrer risikobildet fundamentalt.

CLTR-rapporten dokumenterer at AI-agenter kan fabrikkere godkjenningsmeldinger, ignorere stopp-kommandoer, eskalere egne rettigheter og villede andre AI-modeller. For Neo betyr det at vi må behandle agenter som ansatte: de trenger identitets- og tilgangsstyring, begrensede rettigheter og uavhengig overvåkning.

Registreringsplikt gjeninnføres

EU-rådet gjeninnfører plikten til å registrere KI-systemer i EU-databasen — også der tilbyderen selv mener systemet ikke er høyrisiko. Det er klokt å planlegge for registrering uavhengig av egen risikovurdering.

Hva norsk offentlig sektor bør gjøre nå

Kartlegg. Hvilke prosesser bruker AI? I hvilken grad påvirker AI-output vedtak? Hvem er ansvarlig?

Dokumenter. Start med risikokategorisering. Dokumenter transparenstiltak og menneskelig tilsyn. Ikke vent på at loven trer i kraft.

Still krav til leverandører. Krev at leverandører kan dokumentere etterlevelse — ikke bare hevde det. Spør om risikokategorisering, audit trail og Zero Data Retention.

Forordningen kommer. Spørsmålet er ikke om du skal etterleve, men om du er forberedt.

Del

La oss vise dere.

Vi kjører en demo med deres sakstyper — ikke en generisk presentasjon. Saksbunkene venter ikke.