I slutet av december blev det känt att både Arbetsförmedlingen och Försäkringskassan uppges ha testat den kinesiska språkmodellen Qwen 3 i interna miljöer. Arbetsförmedlingen valde att pausa användningen efter att säkerhetsfrågor väckts, medan Försäkringskassan uppger att modellen enbart använts i testsyfte och aldrig i skarp drift.
Efter AI-stoppet: Så bedömer du riskerna med kinesiska språkmodeller
CYBERSÄKERHET När Arbetsförmedlingen pausade användningen av en kinesisk språkmodell väcktes frågor om nationell säkerhet. Men enligt Pontus Johnson, professor i cybersäkerhet vid KTH, riskerar diskussionen att bli förenklad.

Någonting är fel
Läs vidare – starta din prenumeration
Diskussionen har snabbt kommit att handla om nationell säkerhet och risken för dataläckage. Men enligt Pontus Johnson, professor vid KTH och expert på it-säkerhet, är det inte nödvändigtvis där den största risken finns.
– Det finns en missuppfattning i debatten. Den största säkerhetsfrågan är inte var modellen är utvecklad, utan var AI-beräkningarna sker och vart data skickas, säger han till Techtidningen.
Många av de mest använda AI-tjänsterna i dag, som kommersiella GPT-verktyg, bygger på molnmodeller där användarens frågor skickas till servrar i USA för bearbetning. Det innebär i praktiken att känslig information lämnar organisationen.
– Om en språkmodell körs lokalt, utan uppkoppling mot externa moln, skickas ingen data till Kina – eller någon annanstans. Det är en avgörande skillnad ur säkerhetssynpunkt, säger Pontus Johnson.
Det är också här förklaringen finns till varför vissa myndigheter och organisationer över huvud taget tittar på kinesiska modeller.
Open weights – en teknisk fördel
Vissa kinesiska språkmodeller är så kallade open weights-modeller. Det innebär att parametrarna i det neurala nätverket är tillgängliga, vilket gör det möjligt att köra modellen helt lokalt, inom den egna infrastrukturen.
– Det gör det möjligt att använda AI utan att skicka data till externa aktörer. Ur ett strikt informationssäkerhetsperspektiv kan det vara en fördel jämfört med många västerländska molntjänster, säger han.
Men det betyder inte att riskerna är borta.
Den verkliga risken: hur modellen är tränad
Enligt Pontus Johnson handlar den huvudsakliga risken med kinesiska språkmodeller inte om spionage eller dataläckage – utan om styrning och bias.
– Modellerna är tränade av kinesiska bolag, under kinesiska förutsättningar. Vi har begränsad insyn i hur träningen har gått till, och det påverkar hur modellen resonerar och svarar, säger han.
Det kan till exempel handla om censur eller systematiska utelämnanden i vissa frågor.
– Ställer man frågor om politiskt känsliga ämnen kan svaren bli ofullständiga eller vinklade. Det innebär en risk för bias, särskilt om modellen används brett i en organisation.
När fungerar det – och när blir det farligt?
Användningsområdet är avgörande och enligt Pontus Johnson kan kinesiska språkmodeller fungera väl i snävt definierade sammanhang.
– Om man är medveten om begränsningarna, testar modellen noggrant och använder den inom en tydligt avgränsad domän, då kan man använda även kinesiska språkmodeller på ett relativt säkert sätt. Problemet uppstår däremot till exempel när man ersätter ett allmänt GPT-verktyg, som används av många anställda, rakt av utan styrning.
Ju bredare och mer generell användningen är, desto större blir risken att organisationen får svar som inte är sakliga, kompletta eller förenliga med svenska värderingar och regelverk.
Europa saknar alternativ
Bakom hela frågan finns också ett strukturellt problem: Europas svaga position inom avancerade språkmodeller.
– Varken Sverige eller Europa har några egna konkurrenskraftiga språkmodeller, och Europa har i praktiken bara en. I dagsläget har vi därför inget annat val än att förlita oss på amerikanska eller kinesiska modeller – och då måste vi försöka hantera de risker som ett sådant beroende för med sig.
Rådet till it-chefer: testa, men med kontroll
Trots riskerna menar Pontus Johnson att det vore fel att bromsa AI-utvecklingen helt, även i offentlig sektor.
– Det är positivt att myndigheter testar AI. Vi kommer att gå i den här riktningen, och det kommer att gå fort. Men problemet uppstår när man inte förstår tekniken eller riskerna fullt ut.
Hans råd till it-chefer och systemägare inför 2026 är tydligt: experimentera, men var försiktig med verksamhetskritiska processer.
– AI är fortfarande en black box i många avseenden. Garantier för hur systemen agerar finns inte. Därför måste införandet ske stegvis, kontrollerat och med tydlig mänsklig styrning.
