AJ Shipley är ansvarig för Ciscos säkerhetsprodukter för hotdetektion och respons. Det är ungefär en tredjedel av företagets portfölj, och den har som syfte att identifiera när någon har kommit in i din miljö och sedan försöka få ut dem så snabbt som möjligt.
”Generativ ai kommer bara vara så bra som den data som finns tillgänglig”
Säkerhet Generativ ai som Chat GPT förändrar många branscher nu. En bransch som får betydligt större utmaningar är it-säkerhetsbranschen. Telekom idag borrar ned sig i riskerna med Cisco-höjdaren AJ Shipley.

Någonting är fel
Läs vidare – starta din prenumeration
Vilken är din största utmaning idag?
– Jag vet inte om utmaning är det rätta ordet, men det som är top of mind för mig och som vi inte ännu vet konsekvenserna av är hur den här ai-chatten, Chat GPT, kommer att påverka världen. Alltså hur tillämpningen av generativ ai kommer att bli inom cyberkrigföring eller cyberbrottslighet, säger AJ Shipley.
Vad ser du för risker?
– E-postnätfiskeattacker har det varit mycket av de två senaste åren. De kommer fortfarande att vara ett stort problem i år. Men när du tittar på vad Chat GPT potentiellt kan göra för att verkligen skapa ett riktigt välskrivet e-postmeddelande, kommer det att bli ännu svårare och svårare för slutanvändaren att kunna avgöra att det inte är en legitim e-post. Och hur ska vi då kunna upptäcka mönster och förhindra att det ens kommer fram för en användare så att de inte gör något som de har gjort på länge, klickar på en länk eller öppnar en bilaga.
Vilka motmedel ska branschen skapa?
– Vi behöver ta fram modeller för att upptäcka vad som är skrivet av ai. Jag läste nyligen om en student vid Princeton University som skapade en app som kunde avgöra om en text var skriven av ai. Det behöver ju inte bara vara säkerhetsleverantörerna som man förlitar sig på för att upptäcka vad som är ai-genererat och inte, säger AJ Shipley och fortsätter:
– Alla tittar nu på implikationerna av generativ ai, som i Chat GPT, och hur det används i gott syfte och hur vi skyddar människor när syftet inte är gott. De här verktygen utvecklas väldigt snabbt just nu och för att fortsätta med e-postexemplet, så behöver vi även i nästa steg kunna avgöra om den ai-genererade texten är skadlig eller inte. Och det är ju ungefär på det sättet som vi jobbar med våra beprövade tillvägagångssätt idag.
Jag hörde om en e-postattack här i Sverige där e-posten var väldigt likt hur deras vd brukar skriva. Är det nästa steg att ai kan imitera exakt hur en person skriver e-mail?
– Det skulle det absolut kunna vara, men generativ ai kommer bara vara så bra som den data som finns tillgänglig att träna på. Så finns det en stor mängd data där ute av e-post skriven av vd:n så kommer man kunna mata in den och sedan få meddelanden som ser ut exakt som den personens. Men förmodligen finns det inte en massa data där ute av den typen och det begränsar ju möjligheterna. Allt som finns tillgängligt kommer maskinerna bli bra på.
AJ Shipley funderar lite och fortsätter sen:
– Taktiken och tekniken för cyberkriminalitet har inte förändrats, det är fortfarande mycket phishing, malware med mera. Det som förändras nu är mer kvaliteten på det som har förbättrats och gör det svårare att upptäcka. Våra detektioner kommer att bli bättre och vi kommer också att använda samma tekniker på vår sida.
Ge ett exempel på hur ni skulle använda samma teknik!
– Ett bra exempel är att du skulle ställa frågor till vårt system som ”hur uppdaterar jag brandväggsregeluppsättningen för min Cisco-brandvägg?” eller ”jag vill blockera åtkomst till denna plats på internet i min systembrandvägg” och sedan får du svar hur du gör i sju steg.
Denna artikel var tidigare publicerad på tidningen telekomidag.se