Det dyker upp allt fler röstkloningstjänster på nätet, där du snabbt och enkelt kan skapa en klon av din röst som kan användas vid exempelvis video- eller podcastproduktion.
Varningen: Bristfälligt skydd gör att bedragare kan klona din röst
AI Det är alldeles för enkelt att skapa en klon av en röst med hjälp av de verktyg som olika företag tillhandahåller. Nu varnar Consumer Reports för att detta kan utnyttjas av bedragare.

Någonting är fel
Läs vidare – starta din prenumeration
Men tekniken kommer också med stora risker. En bedragare som skapar en röstklon kan använda den för att komma över stora summor pengar eller för att orsaka skada på annat sätt.
Nu varnar den amerikanska organisationen Consumer Reports för att många verktyg som används för röstkloning inte har tillräckligt effektiva säkerhetsmekanismer. Följden kan bli att någon olovligen klonar en annan persons röst för att använda den i bedrägligt syfte.
Organisationen har tittat närmare på sex olika verktyg och fyra av dessa bedöms inte ha tillräckligt skydd för att sätta stopp för oönskade röstkloner. De fyra som pekas ut är Elevenlabs, Speechify, Play HT och Lovo.
Två andra tjänster, Descript och Resemble AI, har bättre skyddsmekanismer och låter inte användaren ladda upp förinspelade ljudfiler i samma utsträckning. Resemble AI har till och med ett krav på att man ska spela in sin röst i realtid i tjänsten.
Consumer Reports rekommenderar att leverantörerna vidtar åtgärder för att öka säkerheten, men konstaterar också att AI-klonade röster har många värdefulla användningsområden.