deepfake röstbedrägerier 7 18
 Att klona någons röst är lättare än någonsin. D-Keine/iStock via Getty Images

Du har precis kommit hem efter en lång dag på jobbet och ska snart sätta dig ner för middag när telefonen plötsligt börjar surra. I andra änden finns en älskad, kanske en förälder, ett barn eller en barndomsvän, som ber dig att skicka dem pengar omedelbart.

Du ställer frågor till dem och försöker förstå. Det är något fel med deras svar, som antingen är vaga eller ur karaktär, och ibland finns det en märklig fördröjning, nästan som om de tänkte lite för långsamt. Ändå är du säker på att det definitivt är din älskade som talar: Det är deras röst du hör, och nummerpresentationen visar deras nummer. Genom att krita upp det konstiga i deras panik, skickar du plikttroget pengarna till bankkontot de ger dig.

Nästa dag ringer du tillbaka dem för att se till att allt är okej. Din älskade har ingen aning om vad du pratar om. Det beror på att de aldrig ringde dig – du har blivit lurad av teknik: en röst djupfalsk. Det var tusentals människor lurade på detta sätt 2022.

Möjligheten att klona en persons röst är alltmer inom räckhåll för alla som har en dator.


innerself prenumerera grafik


 

As datorsäkerhet forskare, ser vi att pågående framsteg inom algoritmer för djupinlärning, ljudredigering och ingenjörskonst och syntetisk röstgenerering har inneburit att det är alltmer möjligt att på ett övertygande sätt simulera en persons röst.

Ännu värre, chatbots som ChatGPT börjar generera realistiska skript med adaptiva realtidssvar. Förbi kombinera dessa teknologier med röstgenerering, går en deepfake från att vara en statisk inspelning till en levande, verklighetstrogen avatar som på ett övertygande sätt kan föra ett telefonsamtal.

Kloning av en röst

Att skapa en övertygande högkvalitativ deepfake, oavsett om det är video eller ljud, är inte det lättaste att göra. Det kräver en mängd konstnärliga och tekniska färdigheter, kraftfull hårdvara och ett ganska rejält prov på målrösten.

Det finns ett växande antal tjänster som erbjuds producera röstkloner av måttlig till hög kvalitet mot en avgift, och vissa röstdeepfake-verktyg behöver ett prov på bara en minut lång, eller ens bara några sekunder, för att producera en röstklon som kan vara tillräckligt övertygande för att lura någon. Men för att övertyga en älskad – till exempel att använda i en falsk identitet – skulle det troligen ta ett betydligt större urval.

Forskare har kunnat klona röster med så lite som fem sekunders inspelning.

 

Skyddar mot bedrägerier och desinformation

Med allt detta sagt, vi på DeFake Project vid Rochester Institute of Technology, University of Mississippi och Michigan State University, och andra forskare arbetar hårt för att kunna upptäcka video- och ljuddeepfakes och begränsa skadan de orsakar. Det finns också enkla och vardagliga åtgärder som du kan vidta för att skydda dig själv.

Till att börja, röstnätfiske, eller "vishing", bedrägerier som den som beskrivs ovan är de mest troliga röstdeepfakes du kan stöta på i vardagen, både på jobbet och hemma. År 2019, an energiföretaget lurades på 243,000 XNUMX USD när brottslingar simulerade rösten från dess moderbolags chef för att beordra en anställd att överföra pengar till en leverantör. 2022 var människor lurade ut uppskattningsvis 11 miljoner dollar genom simulerade röster, inklusive nära, personliga kopplingar.

Vad kan du göra?

Var uppmärksam på oväntade samtal, även från personer du känner väl. Det betyder inte att du behöver schemalägga varje samtal, men det hjälper att åtminstone skicka e-post eller sms i förväg. Lita inte heller på nummerpresentation, eftersom det kan också fejkas. Om du till exempel får ett samtal från någon som påstår sig representera din bank, lägg på och ring banken direkt för att bekräfta samtalets legitimitet. Se till att använda det nummer du har skrivit ner, sparat i din kontaktlista eller som du hittar på Google.

Var dessutom försiktig med din personliga identifieringsinformation, som ditt personnummer, hemadress, födelsedatum, telefonnummer, mellannamn och till och med namnen på dina barn och husdjur. Bedragare kan använda denna information för att imitera dig för banker, fastighetsmäklare och andra, berika sig själva samtidigt som de gör dig i konkurs eller förstör din kredit.

Här är ett annat råd: känn dig själv. Specifikt känna till dina intellektuella och känslomässiga fördomar och sårbarheter. Detta är ett bra livsråd i allmänhet, men det är nyckeln till att skydda dig från att bli manipulerad. Bedragare försöker vanligtvis att tjafsa ut och sedan förgripa sig på din ekonomiska oro, dina politiska fasthållanden eller andra böjelser, oavsett vad de kan vara.

Denna vakenhet är också ett anständigt försvar mot desinformation genom att använda röstdeepfakes. Deepfakes kan användas för att dra fördel av din konfirmeringsbias, eller vad du är benägen att tro om någon.

Om du hör en viktig person, vare sig det kommer från ditt samhälle eller från regeringen, säga något som antingen verkar väldigt okaraktäristiskt för dem eller bekräftar dina värsta misstankar om dem, skulle du göra klokt i att vara försiktig.Avlyssningen

Om Författarna

Matthew Wright, professor i datorsäkerhet, Rochester Institute of Technology och Christopher Schwartz, forskarassistent i datorsäkerhet, Rochester Institute of Technology

Denna artikel publiceras från Avlyssningen under en Creative Commons licens. Läs ursprungliga artikeln.