Furt cu ajutorul unei voci clonate electronic: cât de periculoasă e tehnologia deepfake

Furt cu ajutorul unei voci clonate electronic: cât de periculoasă e tehnologia deepfake

Tehnologia deepfake devine din ce în ce mai periculoasă. O bancă din Dubai a fost jefuită prin clonarea unei voci electronice.

Hackerii au furat 35 de milioane de dolari de la o bancă din Dubai cu ajutorul unei voci clonate electronic. Hoții s-au dat drept managerul unei firme care avea un cont la acea bancă, scrie Profit.ro.

Jaful este de proporții. Până acum, este al doilea caz cunoscut în care se folosește un „deepfake” audio. Hoții au sunat la bancă, iar directorul instituției financiare a auzit la telefon o voce cunoscută, care îi cerea să transfere 35 de milioane de dolari. Pe e-mail avea și toate datele tranzacției, primite de la un avocat, așa că totul părea în regulă.

Tehnologia deepfake e periculoasă

Astfel, banca a autorizat transferul importantei sume de bani, care a ajuns în diverse conturi de pe glob ale hackerilor.

Autoritățile din Dubai au avertizat că asemenea înșelăciuni, deocamdată ieșite din comun, pot deveni tot mai frecvente. Tehnologia „deepfake” devine din ce în ce mai bună și mai accesibilă.

Acest jaf recent din Dubai este doar al doilea caz cunoscut în care se folosește un deepfake audio. În 2019, printr-o metodă asemănătoare, directorul unei companii energetice din Marea Britanie, care a crezut că vorbește la telefon cu șeful lui, a trimis peste 240.000 de dolari într-un cont secret din Ungaria.

Tehnologia pentru manipularea înregistrărilor video devine din ce în ce mai sofisticată și totodată tot mai accesibilă publicului larg, astfel încât distincția dintre adevărat și fals ar putea fi foarte greu de făcut. Niciun stat nu pare să fie ferit de acest fenomen, iar România, graniță a UE și NATO, nu face excepție, spun specialiștii în tehnologia informației.

Deepfake”-urile sunt montaje în care o persoană dintr-o imagine sau un videoclip existent este înlocuită cu imaginea unei alte persoane. Această falsificare a conținutului, care dă o senzație de perfectă autenticitate, a fost pusă la punct cu ajutorul inteligenței artificiale și a tehnologiei de învățare automată.

Uneori sunt amuzante, intrând în categoria farselor. Dar deepfake-urile devin periculoase când sunt folosite în scop de manipulare, pentru a credibiliza știri false, pentru a șantaja sau a comite fraude financiare.

Deepfake-urile au apărut inițial în domeniul vizual, dar încep să fie și audio, întrucât programele de sintetizare a vocii pot copia ritmul și intonația din vocea unei persoane și pot fi utilizate pentru a crea discursuri foarte convingătoare.

Citește și: