Förtroendet för generativ AI är starkt men nordiska företag har halkat efter när det gäller styrning, ansvar och ledarskap. Det visar en undersökning som genomförts av SAS Institute i flera olika länder.
Varningen: Norden halkar efter inom ansvarsfull AI-användning
AI Gör AI-användningen konkret och lyft blicken från själva tekniken. Det rådet ger Josefin Rosén på SAS Institute till svenska CIO:er som vill lyckas med sin AI-satsning.

Någonting är fel
Läs vidare – starta din prenumeration
En tredjedel av organisationerna i Norden hamnar i något som SAS Institute kallar ”trust danger zone”, där man litar på AI-tekniken men samtidigt saknar nödvändiga processer för att göra den transparent, rättvis och etiskt hållbar. De största hindren uppges vara bristfällig datainfrastruktur, svag styrning och avsaknad av AI-kompetens.
Techtidningen har ställt några frågor till Josefin Rosén, som är expert på etisk och tillförlitlig AI på SAS Institute.
Vad kännetecknar enligt dig ansvarsfull AI-användning?
– Ansvarsfull AI handlar om att utveckla och använda AI-system som är transparenta, rättvisa och pålitliga. För att lyckas med det behöver organisationer tydliga ramverk för AI-styrning, som skapar struktur, ansvar och transparens. Det handlar inte bara om teknik, utan också om attbygga en kultur där AI literacy, dvs en grundläggande kunskap om AI, är central. AI literacy är absolut avgörande för att kunna kritiskt granska information (och skydda mot desinformation), fatta informerade beslut och undvika risker för oss själva och organisationen, och inte minst för att bygga tillit till tekniken.
– Var och en av oss har ett ansvar, oavsett teknisk bakgrund, att utveckla förmågan att ställa kritiska frågor om de AI-system vi möter, till exempel: Vilka data har systemet tränats på? Vem gynnas av att det används? Vilken typ av tillsyn finns? Vad händer om det blir fel?
Enligt er undersökning är förtroendet för generativ AI större än för traditionella AI-tillämpningar, vad tror du att det beror på?
– Studien visar att användare rapporterar 200 procent högre förtroende för generativ AI jämfört med traditionell AI, trots att förklarbarheten ofta är sämre. Jag tror att det i första hand beror på användarupplevelsen, där generativ AI upplevs som mer ”mänsklig” och interaktiv, vilket gör att vi intuitivt överskattar tillförlitligheten. Samtidigt visar studien också att många oroar sig för dataintegritet, transparens och etik, vilket visar att förtroendet är komplext och ibland motsägelsefullt.
Varför tror du att många företag säger sig ha stort förtroende för AI, samtidigt som de inte verkar investera tillräckligt i den struktur som krävs för att tekniken ska vara tillförlitlig?
– Det finns ett tydligt ”trust dilemma”, som vi kallar det i studien. Många företag har högt förtroende för AI men saknar AI governance, det vill säga de styrningsmekanismer som krävs för att AI ska vara pålitlig i praktiken. Det finns en viss hype kring teknologin, och många organisationer har snabbt tagit den till sig utan att fullt ut förstå riskerna Ofta är det enklare att fokusera på snabba vinster och kostnadsbesparingar än att bygga långsiktiga strukturer. Det leder till att potentialen i AI inte utnyttjas fullt ut. Man behöver komplettera förtroendet med robust styrning och kontinuerlig utvärdering.
Rapporten pekar ut tre stora hinder: data, styrning och kompetens. Vilket av dessa är det största problem bland svenska bolag och varför verkar vi skilja oss åt från övriga världen?
– I Norden, inklusive Sverige, är bristen på tydlig data governance särskilt utmanande. Utan en tydlig struktur för hur data ska hanteras säkert och ansvarsfullt är det svårt att bygga tillförlitliga AI-lösningar. Det är grunden för allt. Studien pekar på en brist på strategisk styrning och ledningsstöd för att skala AI ansvarsfullt som möjlig anledning.
Vilka konkreta åtgärder tycker du att svenska företag bör vidta för att gå från höga ambitioner till faktisk implementering av ansvarsfull AI?
– För att svenska företag ska ta steget från höga ambitioner till faktisk implementering av ansvarsfull AI behöver man se till helheten, dvs hela AI-livscykeln och hur tekniken påverkar människor och samhälle. Nyckeln är, som jag nämnde tidigare, att ha ett tydligt ramverk för AI Governance.
– På SAS jobbar vi med en modell som bygger på fyra dimensioner – eller pelare om man vill:
- Översyn: att ha koll på vilka AI-lösningar man utvecklar, köper in eller använder, och att det finns ett tydligt ansvar på ledningsnivå.
- Efterlevnad: att se till att man följer lagar, regler och interna riktlinjer.
- Operationellt ansvar: att faktiskt omsätta sina värderingar i teknik och processer.
- Kultur: kanske den mest underskattade delen, men helt avgörande. Det handlar om beteenden, kompetens och utbildning som bygger AI-förståelse i hela organisationen.
– Det man konkret kan göra är att ta fram en AI-strategi som inkluderar styrning, etik och transparens och se till att den är förankrad i verksamheten. Satsa på AI-kunskap och utbildning på alla nivåer, det är inte bara tech-teamet som behöver förstå AI. Tydliggör ansvar och följ upp AI-systemens prestanda och risker kontinuerligt och använd gärna vår AI Governance Map för att få koll på var ni står idag och få rekommendationer för nästa steg – utifrån just de här fyra dimensionerna.
Vilket är ditt bästa tips till en svensk CIO som vill få ledningsgruppen att inse möjligheterna med AI-tekniken?
– Mitt bästa tips är att kommunicera alla framsteg. Att göra AI konkret och relevant. Lyft blicken från tekniken och prata om hur AI kan lösa era faktiska affärsutmaningar, till exempel förbättrar kundupplevelsen, effektiviserar processer eller frigör tid för innovation. Sedan tycker jag såklart att man ska dela vår rapport som ju faktiskt visar att organisationer som prioriterar AI governance får störst utdelning från sina AI-investeringar. Att de till och med har 160 procent, alltså 1,6 gånger större chans, att dubbla sin ROI.
