Varningen: ai-klonade röster används av allt fler bedragare

säkerhet Klonade röster som används i robotsamtal förutspås leda till förluster på 76 miljarder dollar nästa år.

Varningen: ai-klonade röster används av allt fler bedragare

Utvecklingen på ai-området går snabbt och idag är det enkelt gjort att klona den mänskliga rösten, något som många illasinnade bedragare upptäckt.

Någonting är fel

Du är inloggad som prenumerant hos förlaget Pauser Media, men nånting är fel. På din profilsida ser du vilka av våra produkter som du har tillgång till. Skulle uppgifterna inte stämma på din profilsida – vänligen kontakta vår kundtjänst.

Enligt analysföretaget Juniper Research väntas robotsamtal som bedragare utför med hjälp av klonade röster leda till förluster på 76 miljarder dollar globalt sett under nästa år. Det innebär en ökning med 12 miljarder dollar jämfört med 2023.

Däremot tror Juniper att vi kan vänta oss en vändning 2026, eftersom ny teknik och standarden STIR/SHAKEN kan hjälpa operatörerna att minska mängden robotsamtal och spoofing-försök, detta eftersom samtalen måste autentiseras med hjälp av en digital signatur.

Enligt Juniper är den största utmaningen att hantera hotet från ai-baserade röstkloner, eftersom tekniken kan användas för att imitera en person som offret känner på ett mycket realistiskt sätt. Här gäller det att sätta stopp för bedragarnas robotsamtal innan de kopplas vidare till abonnenterna.

Denna artikel var tidigare publicerad på tidningen telekomidag.se

Senaste artiklarna

Hämtar fler artiklar
Till startsidan
Techtidningen

Techtidningen Premium

Nyhetstjänsten för dig som jobbar med professionell kommunikation. Nu med nya nischade nyhetsbrev för ditt intresseområde och utbildnings-tv.