Ai-tekniken kan användas till många olika bra saker, men i händerna på fel personer kan den tyvärr också användas för att genomföra bedrägerier och andra typer av brottslighet. Den så kallade deep fake-tekniken är främst förknippad med förfalskade bilder och filmer, där en känd person för fram ett falskt budskap, men tekniken kan också användas för att klona endast röster på ett mycket realistiskt sätt.
Så blir klonade röster en säkerhetsrisk i kontaktcentret
säkerhet Bedragare har börjat använda sig av deep fake-teknik för att imitera röster enligt analytikerna på Pindrop. Här är de fyra vanligaste angreppsmetoderna.
Någonting är fel
Läs vidare – starta din prenumeration
Utvecklingen är oroande eftersom ai-tekniken utvecklas snabbt, vilket har gjort det enklare att skapa en klonad röst som är i princip omöjlig att upptäcka utan att man använder sig av särskilda säkerhetslösningar. Idag är några sekunders inspelning av din röst allt som behövs för att skapa en klonad kopia som kan användas av bedragare.
Analytikerna på säkerhetsföretaget Pindrop, som är specialiserat på just rösttjänster, har kommit fram till att bedragare använder sig av klonade röster på fyra olika sätt när de siktar in sig på kontaktcenter. Det har man gjort genom att analysera ett antal inkommande samtal där klonade röster har använts.
Deep fake-röster används inte enbart för att försöka lura autentiserings-funktionen
Trots att ai-tekniken gör det möjligt för bedragarna att genomföra ett helt samtal med en klonad röst var de flesta bedrägeriförsök mindre avancerade än så. De fokuserade på att använda den klonade rösten för att undersöka hur man navigerar i ett ivr-system och för att stjäla grundläggande personuppgifter. Med hjälp av denna information kan sedan bedragarna genomföra samtalen med sin egen röst och använda sig av mer traditionella metoder för social ingenjörskonst.
Deep fake-rösten används för att kringgå ivt-autentisering
I det första exemplet använde bedragarna klonade röster för att undersöka ivr-systemets konstruktion, men tekniken används även för att helt kringgå autentiseringen, vilket innebär att bedragaren direkt får tillgång till känslig information, exempelvis saldon på bankkonton. På så sätt kan bedragaren identifiera vilka kunder som kan vara extra intressanta att sikta in sig på.
Deep fake-röst används för att ändra kontaktuppgifter
Den tredje metoden som angriparna använder sig av är att ändra kontouppgifterna för en användare, exempelvis e-postadress och fysisk adress. På så sätt kan de beställa nya kreditkort eller få tillgång till engångslösenord för att gå vidare med sitt bedrägeri.
Deep fake-rösten används för att efterlikna ivr-system
Ytterligare en strategi för att genomföra bedrägerier är när gärningsmännen använder sig av klonade röster för att efterlikna ett ivr-system. Pindrop upptäckte att automatiserade samtal in till kontaktcentret använde samma, klonade röst. Man tolkar det som ett första steg i ett framtida upplägg för bedrägerier, där man försöker lura kunder att lämna ifrån sig känslig information till ett falskt kontaktcenter.
Pindrop rekommenderar alla kontaktcenterchefer att säkerställa att man har en säkerhetslösning som hjälper dem att sätta stopp för deep fake-attacker.
Denna artikel var tidigare publicerad på tidningen telekomidag.se