När offentlig sektor i allt högre grad använder AI i handläggning, beslutsstöd och automatiserade tjänster ökar kraven på dokumentation, transparens och ansvar. Med EU:s AI-förordning formaliseras kraven på riskhantering och styrning.
AI-förordningen skärper kraven – ny modell ska rusta offentlig sektor
OFFENTLIG SEKTOR
AI-förordningen skärper kraven på myndigheters användning av AI. Nu lanseras en nordisk modell som ska ge stöd och på sikt kan bana väg för registrering av offentliga AI-tjänster.
– Det här kan vara ett första steg mot en sådan verifiering, säger Mats Snäll, senior rådgivare på Digg.

Någonting är fel
Läs vidare – starta din prenumeration
Mot den bakgrunden lanserar Digg, tillsammans med digitaliseringsmyndigheterna i Norge och Finland, en betaversion av den nordiska AI-förtroendemodellen.
Modellen är ett stöd för offentliga organisationer som utvecklar eller använder AI-tjänster.
– När man automatiserar, särskilt med stöd av AI, finns en risk att människor tappar förtroendet om något går fel och det inte går att förklara varför. Tanken med modellen är att stärka transparens, ansvar och kompetens, säger Mats Snäll, senior rådgivare på Digg till Techtidningen.
Bygger på tre delar
Den nordiska modellen består av tre delar:
- Kompetens – organisationens styrning, ledarskap och interna förmåga att arbeta ansvarsfullt med AI.
- Självskattning – ett strukturerat frågebatteri som ska hjälpa organisationer att bedöma hur väl de lever upp till regelverk och riktlinjer, inklusive AI-förordningen.
- Transparens och ansvar – tydlighet kring hur AI-system fungerar, hur beslut fattas och vem som bär ansvar vid fel.
Självskattningen kan genomföras med stöd av AI och är tänkt som ett verktyg för analys och förbättring.
– Vi har tagit hänsyn till AI-förordningen i frågorna och värderat dem utifrån gällande regelverk. Tanken är att det ska vara ett verktyg som hjälper organisationer att möta kraven, säger Mats Snäll.
Frivillig – men kan utvecklas
Modellen är frivillig. Digg och motsvarande myndigheter i Norge och Finland saknar föreskriftsrätt på området.
– Just nu är det ett sätt att vägleda på frivillig väg, säger Mats Snäll.
Samtidigt öppnar han för att modellen kan utvecklas.
AI-förordningen innehåller krav på registrering av vissa högrisksystem. Enligt Mats Snäll kan den nordiska modellen bli ett första steg mot något liknande för offentliga AI-tjänster.
– Det här kan vara ett första steg mot en sådan verifiering, säger han.
En möjlig utveckling är att offentliga organisationer registrerar att de använder modellen och visar att deras AI-tjänster följer etablerade principer för ansvar och transparens.
Hur en eventuell verifiering eller registrering ska utformas är ännu inte beslutat.
Begränsad testning
Den version som nu publiceras är en betaversion. Enligt Digg har modellen testats inom projektet, bland annat av norska aktörer som utvecklar AI-tjänster. Nu efterfrågas bredare återkoppling från offentlig sektor.
– Det är därför vi lägger ut den som beta. Vi vill att den ska prövas och utvecklas vidare, säger Mats Snäll.
