Säkerhetsbolaget sätter stopp för dataläckage från AI-modeller

AI Två nya säkerhetstjänster från F5 ska minska riskerna när allt fler företag börjar använda sig av AI-teknik i olika delar av verksamheten.

Säkerhetsbolaget sätter stopp för dataläckage från AI-modeller
Sebastian Hedlund på F5.

I takt med att allt fler organisationer rullar ut egna chattbottar och AI-applikationer baserade på stora språkmodeller förändras riskbilden snabbt. Man behöver inte längre endast hantera externa angripare, utan också skydda sina språkmodeller mot fientlig manipulation, dataläckage och oförutsägbara användarinteraktioner.

Någonting är fel

Du är inloggad som prenumerant hos förlaget Pauser Media, men nånting är fel. På din profilsida ser du vilka av våra produkter som du har tillgång till. Skulle uppgifterna inte stämma på din profilsida – vänligen kontakta vår kundtjänst.

Säkerhetsföretaget F5 stärker nu sin plattform med två nya lösningar som ska göra det enklare för företag att driftsätta och säkra användningen av olika AI-applikationer. Med F5 AI Guardrails och F5 AI Red Team vill bolaget positionera sig som den enda leverantören som kan erbjuda en helhetslösning för realtidsskydd av affärskritiska AI-applikationer.

AI Guardrails introducerar ett nytt säkerhetslager som begränsar vilka prompter en AI-modell kan ta emot och svara på. Tillsammans med F5 AI Red Team, som fortlöpande testar språkmodeller, skapas ett heltäckande skydd som snabbt kan identifiera olika slags sårbarheter.

– Det är en utmaning för företag att hålla jämna steg med hastigheten inom AI-utvecklingen. När säkerhetspolicyn släpar efter uppstår dataläckor och oförutsägbart beteende hos modellerna. Företagen behöver därför säkerhetslösningar som är lika dynamiska som modellerna själva, säger Sebastian Hedlund, kundansvarig för offentlig sektor på F5 i Sverige.

Han beskriver hur de två lösningarna kompletterar varandra i praktiken. Guardrails arbetar i realtid med att säkra trafiken, medan Red Team arbetar proaktivt med att hitta nya svagheter innan de hinner nå den skarpa verksamheten.

Förhindrar att känslig information läcker

En central del i erbjudandet är de kontinuerliga uppdateringarna. F5 utlovar att släppa 10 000 nya attacktekniker i månaden, som används för att testa och uppdatera säkerhetspolicyn i Guardrails. Syftet är att skydda språkmodeller från manipulation och förhindra att känslig information läcker.

– Jag brukar likna tjänsten vid bowling när du sätter upp skyddet på sidorna av banan. F5 Guardrails sätter gränser för vad språkmodellen får och inte får kommunicera. Ofta släpper bolag någon form av skydd för språkmodellen, men det finns inte en plan för att kontinuerligt penetrationstesta och uppdatera säkerhetspolicys, säger Sebastian Hedlund.

För IT-chefer och beslutsfattare innebär satsningen att AI-applikationer kan driftsättas utan att man behöver förlita sig på ett flertal olika lösningar. Genom att integrera F5 AI Guardrails och F5 AI Red Team med bolagets infrastrukturskydd kan organisationer bygga ett sammanhållet skydd kring sina AI-tillämpningar.

Resultatet är en plattform där driftsättning och säkerhet hanteras i ett sammanhängande flöde, snarare än som separata initiativ. I en tid när AI-utvecklingen går snabbt och användningsområdena breddas blir förmågan att kontinuerligt testa, uppdatera och säkra språkmodeller en avgörande faktor för att kunna leverera AI-tjänster med bibehållen kontroll över känslig data enligt F5.

Senaste artiklarna

Hämtar fler artiklar
Till startsidan
Techtidningen

Techtidningen Premium

Nyhetstjänsten för dig som jobbar med professionell kommunikation. Få nischade nyhetsbrev för ditt intresseområde och utbildnings-tv.