Den nya rapporten från Check Point Software innehåller inte bara analyser om hur de cyberkriminella utnyttjar AI. Det finns även insikter om hur verksamheter bäst står emot dessa hot.
Varningen: Så använder cyberkriminella AI
cybersäkerhet It-säkerhetsföretaget Check Point Software har lanserat den första utgåvan av AI Security Report. I rapporten finns en djupgående analys av hur cyberkriminella använder AI för att utföra cyberattacker.

Någonting är fel
Läs vidare – starta din prenumeration
AI blir en allt mer central del av företagens vardag och gränsen mellan vad som är sant och falskt blir allt mer suddigt. Enligt rapporten använder över hälften av företagen (51 procent) AI i sin dagliga verksamhet.
Samtidigt så utnyttjar de cyberkriminella generativ AI och stora språkmodeller för att underminera tilliten till digitala identiteter. Enligt Check Point Software så kan det vi ser, hör eller läser inte längre automatiskt betraktas som äkta.
AI-baserade imitationer kan lura även avancerade och sofistikerade verifieringssystem. Vilket gör alla till potentiella mål för cyberattacker.
– Cyberkriminella har lärt sig snabbt hur man använder AI och det håller redan på att förändra hotbilden. Idag måste säkerhetsteam anta samma takt som cyberkriminella, genom att integrera AI i deras säkerhetssystem. Denna rapport belyser inte bara risker, men även bästa praxis för att säkra AI-miljöer, säger Mats Ekdahl som är säkerhetsexpert på Check Point Software.
Traditionella metoder behöver kompletteras
Här är några av de viktiga insikterna från Check Point Softwares rapport:
- AI-förstärkta attacker: Cyberkriminella använder AI för att skapa trovärdiga digitala identiteter, nätfiske-mejl och manipulationer som gör det svårt att avgöra vad som är äkta.
- Skadlig kod med AI: AI används för att utveckla och förbättra skadlig programvara, automatisera DDoS-attacker och hantera stulna inloggningsuppgifter.
- Risk för dataläckor: Enligt Check Points GenAI Protect löper 1 av 80 AI-promptar hög risk att läcka känslig information. Totalt innehåller cirka 7,5 % av alla promptar någon form av känsliga data.
- AI mot AI-hot: AI-teknik behövs också i försvaret – exempelvis för att upptäcka AI-genererade hot som deepfakes och nätfiske.
- Avancerad identitetsverifiering: Traditionella metoder behöver kompletteras med flernivåkontroller som tar hänsyn till AI-drivna imitationer av text, röst och video.
Vill du läsa rapporten i sin helhet kan du göra det här.