De säkrar stora språkmodeller: ”Företag dåliga på att skydda sina api:er”

säkerhet AI Gateway från säkerhetsföretaget F5 ska säkerställa att känsliga data inte läcker.

De säkrar stora språkmodeller: ”Företag dåliga på att skydda sina api:er”

Samtidigt som många experimenterar med nya AI-tillämpningar talas det allt mer om säkerhetsaspekterna av AI-användningen.

Någonting är fel

Du är inloggad som prenumerant hos förlaget Pauser Media, men nånting är fel. På din profilsida ser du vilka av våra produkter som du har tillgång till. Skulle uppgifterna inte stämma på din profilsida – vänligen kontakta vår kundtjänst.

Nu lanserar säkerhetsföretaget F5 en ny lösning som ska sätta stopp för läckage av känsliga data, inte minst persondata, från chattbotar och andra AI-applikationer som är baserade på stora språkmodeller.

AI Gateway uppges vara utformad för att tillhandahålla en säker och skalbar infrastruktur som stödjer AI-baserade applikationer och arbetsflöden av olika slag. Tjänsten kan dessutom säkra dataflöden mellan api:er, applikationer och språkmodellerna.

– Ett stort problem är att användare potentiellt kan manipulera en språkmodell genom att lägga till instruktioner för att få oönskade eller skadliga svar, som att kringgå säkerhetsfilter eller skapa desinformation. Detta och mycket mer är precis vad AI Gateway hjälper organisationer med. Att skydda språkmodellen från dålig input, men också att från att läcka konfidentiell data, säger Sebastian Hedlund, kundansvarig på F5.

Vilka stora säkerhetsutmaningar är vanligast förekommande när ett företag börjar använda sig av AI-lösningar?

– För att kunna skydda AI måste vi först förstå att det inte finns någon AI utan api:er, maskin-till-maskin-kommunikation. Det är något som många företag idag förbiser i sitt säkerhetsarbete. Det är det enskilt största problemet i min mening. Sekundärt kan vi diskutera problematiken att många AI-modeller potentiellt kan läcka känslig data, alternativt att skydda dessa modeller mot dålig input. Men grundproblemet kvarstår, företag är för dåliga på att skydda sina api:er.

Det kommer hela tiden nya säkerhetshot, hur säkerställer ni att AI Gateway är framtidssäkrad?

– AI Gateway använder något vi kallar processorer. Varje processor tillhandahåller specifika skydd, trafik eller klassificeringsmöjligheter till AI Gateway. Till exempel kan en processor upptäcka snabba injektionsattacker och blockera en inkommande begäran. AI Gateway innehåller som standard flertalet processorer mot nuvarande hot och det kontinuerligt adderas nya för att uppdatera säkerhetslösningens kapabilitet. F5 tillåter dessutom organisationer att konfigurera egna processorer för att kunna anpassas till en specifik kontext, till exempel regelverk eller användandet av proprietär information. Detta säkerställer ett dynamiskt skydd som hela tiden kan utvecklas, säger Sebastian Hedlund.

Skiljer sig er lösning på något sätt jämfört med liknande alternativ på marknaden?

– AI fungerar väldigt annorlunda mot det som F5:s andra säkerhetslösningar skyddat. Utvecklingen av AI-modeller går väldigt fort och hela tiden kommer nya AI-lösningar. I takt med att användandet av AI ökar ändras även attackvektorerna snabbt och ofta. Vad som är viktigt är att F5 har insett att vi endast kan skydda AI genom att själva använda AI.

På vilka sätt kan AI Gateway underlätta hanteringen av de olika AI-tjänster som företaget använder sig av?

– AI Gateway erbjuder en centraliserad plattform som kan effektivisera och förbättra hur företag hanterar flera AI-tjänster. Det tillhandahåller ett enhetligt system för att komma åt, integrera, övervaka och skala olika AI-modeller och API:er, vilket minskar komplexiteten, förbättrar effektiviteten och ökar säkerheten.

Senaste artiklarna

Hämtar fler artiklar
Till startsidan
Techtidningen

Techtidningen Premium

Nyhetstjänsten för dig som jobbar med professionell kommunikation. Få nischade nyhetsbrev för ditt intresseområde och utbildnings-tv.