AI-förordningen skärper kraven – ny modell ska rusta offentlig sektor

OFFENTLIG SEKTOR AI-förordningen skärper kraven på myndigheters användning av AI. Nu lanseras en nordisk modell som ska ge stöd och på sikt kan bana väg för registrering av offentliga AI-tjänster.
– Det här kan vara ett första steg mot en sådan verifiering, säger Mats Snäll, senior rådgivare på Digg.

AI-förordningen skärper kraven – ny modell ska rusta offentlig sektor
Mats Snäll, senior rådgivare på Digg. Foto: Pressbild.

När offentlig sektor i allt högre grad använder AI i handläggning, beslutsstöd och automatiserade tjänster ökar kraven på dokumentation, transparens och ansvar. Med EU:s AI-förordning formaliseras kraven på riskhantering och styrning.

Någonting är fel

Du är inloggad som prenumerant hos förlaget Pauser Media, men nånting är fel. På din profilsida ser du vilka av våra produkter som du har tillgång till. Skulle uppgifterna inte stämma på din profilsida – vänligen kontakta vår kundtjänst.

Mot den bakgrunden lanserar Digg, tillsammans med digitaliseringsmyndigheterna i Norge och Finland, en betaversion av den nordiska AI-förtroendemodellen.

Modellen är ett stöd för offentliga organisationer som utvecklar eller använder AI-tjänster.

– När man automatiserar, särskilt med stöd av AI, finns en risk att människor tappar förtroendet om något går fel och det inte går att förklara varför. Tanken med modellen är att stärka transparens, ansvar och kompetens, säger Mats Snäll, senior rådgivare på Digg till Techtidningen.

Bygger på tre delar

Den nordiska modellen består av tre delar:

  • Kompetens – organisationens styrning, ledarskap och interna förmåga att arbeta ansvarsfullt med AI.
  • Självskattning – ett strukturerat frågebatteri som ska hjälpa organisationer att bedöma hur väl de lever upp till regelverk och riktlinjer, inklusive AI-förordningen.
  • Transparens och ansvar – tydlighet kring hur AI-system fungerar, hur beslut fattas och vem som bär ansvar vid fel.

Självskattningen kan genomföras med stöd av AI och är tänkt som ett verktyg för analys och förbättring.

– Vi har tagit hänsyn till AI-förordningen i frågorna och värderat dem utifrån gällande regelverk. Tanken är att det ska vara ett verktyg som hjälper organisationer att möta kraven, säger Mats Snäll.

Frivillig – men kan utvecklas

Modellen är frivillig. Digg och motsvarande myndigheter i Norge och Finland saknar föreskriftsrätt på området.

– Just nu är det ett sätt att vägleda på frivillig väg, säger Mats Snäll.

Samtidigt öppnar han för att modellen kan utvecklas.

AI-förordningen innehåller krav på registrering av vissa högrisksystem. Enligt Mats Snäll kan den nordiska modellen bli ett första steg mot något liknande för offentliga AI-tjänster.

– Det här kan vara ett första steg mot en sådan verifiering, säger han.

En möjlig utveckling är att offentliga organisationer registrerar att de använder modellen och visar att deras AI-tjänster följer etablerade principer för ansvar och transparens.

Hur en eventuell verifiering eller registrering ska utformas är ännu inte beslutat.

Begränsad testning

Den version som nu publiceras är en betaversion. Enligt Digg har modellen testats inom projektet, bland annat av norska aktörer som utvecklar AI-tjänster. Nu efterfrågas bredare återkoppling från offentlig sektor.

– Det är därför vi lägger ut den som beta. Vi vill att den ska prövas och utvecklas vidare, säger Mats Snäll.

Senaste artiklarna

Hämtar fler artiklar
Till startsidan
Techtidningen

Techtidningen Premium

Nyhetstjänsten för dig som jobbar med professionell kommunikation. Få nischade nyhetsbrev för ditt intresseområde och utbildnings-tv.