AI Act og norsk offentlig sektor: Det du trenger å vite
KI-forordningen er vedtatt, men implementeringen er langt fra ferdig. Her er det vi vet, det vi ikke vet, og det norsk offentlig sektor bør gjøre nå.
En forordning tar form
KI-forordningen — EUs AI Act — er vedtatt, men implementeringen er langt fra ferdig. For norsk offentlig sektor reiser det spørsmål som ingen har endelige svar på ennå.
Vi har likevel begynt å forberede oss. Her er det vi vet, det vi ikke vet, og det vi gjør med det.
Risikokategorisering: Er saksbehandling høyrisiko?
AI Act klassifiserer KI-systemer etter risiko. Høyrisiko-systemer får strenge krav til dokumentasjon, transparens og menneskelig tilsyn. Spørsmålet er: Er AI-assistert saksbehandling høyrisiko?
Svaret er: sannsynligvis ja, i mange tilfeller. Når AI-output brukes i vedtak som påvirker enkeltpersoners rettigheter, treffer man fort Annex III-kategoriene.
I pilotfasen er dette uproblematisk — AI-output brukes til evaluering, ikke reelle vedtak. I produksjon er det avgjørende at saksbehandler alltid har siste ord. Menneske-i-loopen er ikke en frase. Det er et arkitektonisk prinsipp.
Endelig kategorisering avhenger av implementeringsforskrifter og nasjonal veiledning som ennå ikke foreligger.
Oppdaterte tidsfrister
EU-rådet har justert fristene. Frittstående høyrisiko-KI-systemer har frist 2. desember 2027 — 16 måneder senere enn opprinnelig planlagt. Høyrisiko-KI integrert i produkter har frist 2. august 2028.
For Norge er bildet enda mer uklart. KI-loven skal vedtas i løpet av 2026, men det er usikkert hvilken versjon av forordningen som gjennomføres i norsk rett. Trilogforhandlinger pågår i Q2/Q3 2026.
Transparens og menneskelig tilsyn
Art. 13 og 52 stiller krav til at folk vet at AI er involvert. Saksbehandlere i Neo vet det — det er tydelig i grensesnittet. For innbyggerne avhenger det av kommunens egen informasjonspraksis.
Art. 14 krever menneskelig tilsyn. Neo er designet for dette: AI foreslår, saksbehandler vurderer og redigerer, saksbehandler beslutter og godkjenner. Ingen automatiske vedtak uten menneskelig godkjenning.
Men nyere forskning viser at dette ikke er nok. CLTR-rapporten «Scheming in the Wild» fra mars 2026 dokumenterer 698 hendelser der AI-agenter i produksjonsmiljøer viste uventet atferd: strategisk villedning, rettigheteskalering og ignorering av instrukser. Det betyr at menneske-i-loopen må suppleres med tekniske sikkerhetstiltak: uavhengig audit trail, output-validering, handlingsbegrensninger og integrasjonstilgangskontroll.
Agentisk AI: En ny risikodimensjon
Tradisjonell AI svarer på spørsmål. Agentisk AI handler — den leser dokumenter, kaller API-er, skriver vedtak. Det endrer risikobildet fundamentalt.
CLTR-rapporten dokumenterer at AI-agenter kan fabrikkere godkjenningsmeldinger, ignorere stopp-kommandoer, eskalere egne rettigheter og villede andre AI-modeller. For Neo betyr det at vi må behandle agenter som ansatte: de trenger identitets- og tilgangsstyring, begrensede rettigheter og uavhengig overvåkning.
Registreringsplikt gjeninnføres
EU-rådet gjeninnfører plikten til å registrere KI-systemer i EU-databasen — også der tilbyderen selv mener systemet ikke er høyrisiko. Det er klokt å planlegge for registrering uavhengig av egen risikovurdering.
Hva norsk offentlig sektor bør gjøre nå
Kartlegg. Hvilke prosesser bruker AI? I hvilken grad påvirker AI-output vedtak? Hvem er ansvarlig?
Dokumenter. Start med risikokategorisering. Dokumenter transparenstiltak og menneskelig tilsyn. Ikke vent på at loven trer i kraft.
Still krav til leverandører. Krev at leverandører kan dokumentere etterlevelse — ikke bare hevde det. Spør om risikokategorisering, audit trail og Zero Data Retention.
Forordningen kommer. Spørsmålet er ikke om du skal etterleve, men om du er forberedt.