”AI-projekten kraschar i serverrummet – se upp med datahunger och dolda sårbarheter”

krönika Trots AI:s löften om effektivisering och innovation brottas många företag med växande komplexitet och skenande kostnader. Framgången avgörs inte av AI-modellerna själva utan av hur robust, snabb och transparent infrastrukturen bakom dem är, skriver Mats Ericson på Nutanix i en krönika.

”AI-projekten kraschar i serverrummet – se upp med datahunger och dolda sårbarheter”

Tekniken skulle göra allting enklare. Snabbare beslut, smartare system och effektivare verksamhet. Men för många företagsledare ser verkligheten annorlunda ut: stigande kostnader, ökande cyberhot och en snårskog av gamla system och molnlösningar som blir allt svårare att hantera. AI:s löfte är att lösa allt detta – men tekniken har själv en rejäl utmaning framför sig.

Även de mest påkostade projekten påverkas av problemen. Analysföretaget Gartner förutspår att över 40 procent av alla projekt med AI-agenter kommer att läggas ned före utgången av 2027, på grund av skenande kostnader, bristande avkastning eller otillräcklig riskkontroll. Problemet är inte att AI saknar värde, utan att den underliggande infrastrukturen inte är byggd för framtidens behov.

Mycket av frustrationen kring AI handlar egentligen inte om AI alls. Det handlar om de underliggande systemen och förmågan att faktiskt se vad som händer i dem. Trots all uppståndelse kring AI-agenter och autonoma arbetsflöden hänger framgången fortfarande på något betydligt mindre glamoröst: prestanda, insyn och uthålligheten i plattformarna där modellerna körs. När infrastrukturen inte hänger med ökar kostnaderna, prestandan försämras och komplexiteten växer. Det är där sprickorna börjar synas.

Tre återkommande problem sticker ut:

AI-system suktar ständigt efter data

Moderna modeller slukar data. Träningsprocesser och RAG-system (Retrieval-Augmented Generation) kräver snabb åtkomst till filer och data utspridda över olika it-miljöer men traditionella lagringssystem klarar inte det tempot. Flaskhalsar bromsar prestandan, GPU:er står stilla i väntan på data och varje förlorad sekund blir till förlorad beräkningskraft. För många företag har datalagring blivit en broms för AI-utvecklingen.

Överblick måste omfatta mer än infrastrukturdata

De flesta organisationer kan övervaka CPU-belastning, diskkapacitet och nätverksfördröjning, men det är bara halva bilden. Verklig överblick innebär att koppla samman dessa signaler från infrastrukturen med modellernas beteende – avvikelser, genomströmning av data, felfrekvens och kostnad per körning. När data, beräkningar och modeller är utspridda över olika moln eller datacenter tappar man lätt denna helhetsbild.

Dolda sårbarheter är ett stort hot

AI-system är känsliga. Ett enda nodfel, en strömstörning eller ett lokalt driftsstopp kan störa produktionsflöden och urholka förtroendet för en AI-applikation. Många företag förlitar sig fortfarande på manuella backuprutiner eller otestade katastrofplaner. Verklig resiliens innebär redundans mellan olika regioner, automatiserad återställning och kontinuerlig validering, eftersom upptid är lika med förtroende inom AI.

Dessa tre problem driver på de misslyckanden som Gartner varnar för. Det är därför prestanda och motståndskraft, de minst glamorösa delarna av att hantera en it-miljö, plötsligt blivit väldigt strategiska.

Vad kännetecknar då en bra lösning? Det börjar med insikten att prestanda handlar mer om bra arkitektur än om ny hårdvara. De bästa AI-systemen stöds av lagring som kan hålla jämna steg med utvecklingen. Det betyder snabb, skalbar och intelligent hantering av data som balanserar kostnad mot hastighet. När träning av AI-modeller eller RAG-processer skjuter i höjden måste data kunna följa med. AI-optimerad och nivåindelad lagringsarkitektur stödjer precis detta.

Men prestanda räcker inte. Utan god insyn är även de bäst konstruerade systemen blinda. Överblick måste gå längre än instrumentpaneler och varningar. Det måste koppla samman den underliggande infrastrukturens status med AI-modellernas beteende. När man kan se helheten – data, beräkningar och modellprestanda – kan man justera, åtgärda och i slutändan lita på den tekniska infrastrukturen. För att lyckas med AI-satsningar behöver man helt enkelt se infrastrukturen som en del av intelligensen.

För de företag som behandlar infrastruktur som ett levande system, kontinuerligt finjusterat och testat, kommer att vara de som förvandlar AI till en motor för bättre affärer.

Mats Ericson, regionchef Sverige, Danmark och Island på Nutanix.

Senaste artiklarna

Hämtar fler artiklar
Till startsidan
Techtidningen

Techtidningen Premium

Nyhetstjänsten för dig som jobbar med professionell kommunikation. Få nischade nyhetsbrev för ditt intresseområde och utbildnings-tv.