Larmet: ”Ny typ av attack där AI-modellen i sig blir måltavlan”

Säkerhet Forskare på it-säkerhetsföretaget Check Point Software har identifierat den första dokumenterade skadliga koden som försöker kringgå AI-baserade säkerhetsverktyg genom så kallad prompt injection.

Larmet: ”Ny typ av attack där AI-modellen i sig blir måltavlan”

Det är en taktik där angriparen försöker prata direkt till AI-modellen i syfte att få den att klassificera skadlig kod som ofarlig. I samband med att AI och språkmodeller blir en allt viktigare del av moderna säkerhetslösningar, utvecklas också nya sätt att lura dessa system. Det aktuella exemplet upptäcktes i juni 2025 och tillämpade flera kända metoder för att undvika upptäckas. Den stack dock enligt bolaget ut genom en bit kod som var formulerad som en direkt instruktion till AI-systemet, i hopp om att få det att ignorera skadligt innehåll.

Det lyckades dock inte. Modellen identifierade attackförsöket och flaggade filen korrekt som skadlig. Misslyckade attacker visar dock tydligt vart hotlandskapet är på väg och varför det är avgörande att bygga försvar som kan stå emot manipulation av AI-system.

– Det här är ett tydligt exempel på hur hotbilden förändras. Vi ser början på en ny typ av attack där AI-modellen i sig blir måltavlan. Det här är en väckarklocka för organisationer att rusta upp sina säkerhetssystem. säger, Fredrik Sandström, säkerhetsexpert på Check Point Software.

Check Point kallar detta framväxande hot för AI Evasion, en ny kategori av angrepp som väntas bli allt vanligare i takt med att generativ AI integreras i säkerhetsarbetet.

Senaste artiklarna

Hämtar fler artiklar
Till startsidan
Techtidningen

Techtidningen Premium

Nyhetstjänsten för dig som jobbar med professionell kommunikation. Få nischade nyhetsbrev för ditt intresseområde och utbildnings-tv.