Utvecklingen på ai-området går snabbt och idag är det enkelt gjort att klona den mänskliga rösten, något som många illasinnade bedragare upptäckt.
Varningen: ai-klonade röster används av allt fler bedragare
säkerhet Klonade röster som används i robotsamtal förutspås leda till förluster på 76 miljarder dollar nästa år.
Någonting är fel
Läs vidare – starta din prenumeration
Enligt analysföretaget Juniper Research väntas robotsamtal som bedragare utför med hjälp av klonade röster leda till förluster på 76 miljarder dollar globalt sett under nästa år. Det innebär en ökning med 12 miljarder dollar jämfört med 2023.
Däremot tror Juniper att vi kan vänta oss en vändning 2026, eftersom ny teknik och standarden STIR/SHAKEN kan hjälpa operatörerna att minska mängden robotsamtal och spoofing-försök, detta eftersom samtalen måste autentiseras med hjälp av en digital signatur.
Enligt Juniper är den största utmaningen att hantera hotet från ai-baserade röstkloner, eftersom tekniken kan användas för att imitera en person som offret känner på ett mycket realistiskt sätt. Här gäller det att sätta stopp för bedragarnas robotsamtal innan de kopplas vidare till abonnenterna.
Denna artikel var tidigare publicerad på tidningen telekomidag.se