När företag går från AI-piloter till mer verksamhetsnära användning blir datagrunden snabbt en avgörande fråga. Det handlar inte bara om vilken AI-modell organisationen väljer, utan om vilken data modellen får tillgång till, hur aktuell den är och vilka regler som styr åtkomsten.
Datagrunden blottlägger gamla problem: ”Du måste veta vad du har”
STYRNING Företag vill korta ledtiderna och ge fler tillgång till verksamhetsdata. Men gamla dataflöden, splittrade källor och svag åtkomstkontroll gör utvecklingen trög. ”Affärssidan frågar inte längre. De vet vad svaret blir”, säger Jan Hygstedt, Nordenchef på Denodo.

Någonting är fel
Läs vidare – starta din prenumeration
Enligt Jan Hygstedt, Nordenchef på datahanteringsbolaget Denodo, är det där många organisationer fastnar.
– AI går inte att frikoppla från datan. Om man ska använda AI för att automatisera processer, eller till och med låta AI ta beslut, då blir det ännu viktigare att ha grunderna på plats, säger han.
Han beskriver ett läge där många företag har investerat i analysmiljöer, rapportering och molnplattformar, men där dataflödena fortfarande ofta bygger på kopior, batchkörningar och manuella beställningar.
– Det fanns en anledning till att man började kopiera data. För 30 år sedan handlade det mycket om prestanda. Man ville inte belasta affärssystemen, så man kopierade över natten. Men mycket av det tänket lever kvar, säger han.
”Då blir AI bara ett nytt gränssnitt mot gamla problem”
Samtidigt har förväntningarna på AI förändrats. Från chattbotar, sammanfattningar och stödverktyg går utvecklingen mot AI-agenter som inte bara svarar på frågor, utan också kan utföra uppgifter i verksamhetens system.
Det höjer kraven på datan. I rapporten The AI Trust Gap Report, genomförd av Arlington Research på uppdrag av Denodo, uppger 66 procent av organisationerna att data behöver vara i realtid eller högst en minut gammal för att AI ska vara tillförlitlig.
Samtidigt säger 63 procent att det är svårt att identifiera, förbereda eller integrera relevant och betrodd data för AI-initiativ. Undersökningen bygger på svar från 850 chefer och beslutsfattare i organisationer med fler än 1 000 anställda.
Jan Hygstedt menar att många AI-satsningar därför blottlägger problem som funnits länge.
– Om man inte känner till sin data, om man inte vet var den finns eller hur den ska tolkas, då blir AI bara ett nytt gränssnitt mot gamla problem, säger han.
Fler vill komma åt data själva
En central drivkraft är att fler delar av verksamheten vill kunna arbeta direkt med data. Det kan handla om analytiker, affärsutvecklare, kundservice, ekonomi, HR eller produktorganisationer.
Begrepp som selfservice, datademokratisering och data marketplace har därför blivit vanligare. Målet är att minska ledtiderna från behov till användbar dataprodukt.
Men i praktiken är vägen ofta lång.
– I vissa organisationer kan det ta veckor eller månader att få tillgång till data. Då påverkar det affärssidan. Behöver de något om en vecka frågar de inte ens it, för de vet att svaret blir att det tar tre månader, säger Jan Hygstedt.
Han menar att detta är en underskattad kostnad. Den syns inte alltid som en direkt it-kostnad, men påverkar tempot i verksamheten.
– Med moderna arbetssätt kan man komma ner från månader till betydligt kortare ledtider. Men då måste data vara integrerad, styrd och begriplig.
Metadata blir en ledningsfråga
Enligt Jan Hygstedt är metadata en av de mest förbisedda delarna i många data- och AI-projekt. Det räcker inte att koppla ihop system. Organisationen måste också veta vad datan betyder.
I äldre system kan fält, tabeller och begrepp vara tekniska eller kryptiska. I andra system kan samma ord betyda olika saker. ”Kund”, ”aktiv”, ”risk”, ”intäkt” eller ”ärende” kan ha olika definition beroende på system och avdelning.
– Dataintegration låter ibland som att man bara ska trycka in en sladd och pumpa ut data. Men när datan väl kommer upp måste man förstå den och översätta den till något verksamheten kan använda, säger han.
Rapporten pekar på samma problem. Den lyfter semantisk konsekvens som en nyckelfråga för agentisk AI: om AI-agenten inte vet vilken datakälla som är auktoritativ, eller hur affärsbegrepp ska tolkas, ökar risken för felaktiga rekommendationer eller beslut.
Åtkomstkontroll blir svårare med AI
En annan flaskhals är behörighet. I traditionella miljöer har organisationer ofta satt åtkomstregler i varje system eller analysmiljö. Men när AI-lösningar börjar hämta information över flera källor blir det svårare att säkerställa att rätt regler följer med.
Enligt rapporten uppger 67 procent av de svarande att de har svårt med säkerhet och åtkomstkontroll för AI-data. 31 procent beskriver det som en allvarlig utmaning.
Jan Hygstedt ser detta som en av de viktigaste frågorna för it-chefer.
– Om jag hämtar data via en BI-rapport, ett API, Python eller en AI-agent ska samma behörigheter gälla. Det ska inte spela någon roll vilken kanal jag använder, säger han.
Det blir särskilt känsligt i organisationer med persondata, finansiell information eller reglerade processer. En HR-medarbetare kan till exempel ha rätt att se vissa löneuppgifter, medan andra delar av organisationen absolut inte ska kunna göra det.
– Ska man demokratisera data måste det ske under ordnade former. Ingen ska gå direkt ner i systemen och hämta vad som helst. Governance måste hänga ihop med åtkomsten, säger han.
