14 iun. 2019 | 13:21

Ce e deepfake: tehnologia care te poate face să crezi orice

ACTUALITATE
Ce e deepfake: tehnologia care te poate face să crezi orice

Inteligența artificială a ajuns suficient de departe pentru a te putea păcăli extrem de ușor. Tehnologia deepfake duce totul la următorul nivel.

Un videoclip cu Mark Zuckerberg, CEO-ul Facebook a apărut pe Instagram. Aici, acesta ar recunoaște că are control asupra tuturor datelor, secretelor și chiar asupra vieții și viitorului a miliarde de oameni . Utilizatorii și-au dat imediat seama că videoclipul este unul fals și că este vorba, de fapt, despre un deepfake. Totuși, imaginile par suficient de reale pentru ca unii să cadă în plasă. Din acest motiv, cred că e bine să știm puțin mai multe despre această tehnologie.

Tehnologia deepfake există deja de ceva timp, iar numele se referă atât la metoda prin care acestea sunt realizate, dar și la imaginile rezultate în proces. Este o alăturare a doi termeni, deep learning (tehnica folosită în inteligența artificială care ajută computerele să învețe prin exemple) și fake, care îți dai seama și singur la ce se referă.

Astfel, inteligența artificială permite oricui să creeze o simulare foarte convingătoare a unui subiect uman. Totul este posibil prin deep learning, tehnologie prin care computerului îi sunt arătate suficiente imagini cu persoana respectivă pe care le folosește apoi pentru crearea acestor videoclipuri false.

Partea cea mai proastă e că imaginile par atât de reale încât poți cădea ușor în plasă.

De ce a fost creat deepfake cu Zuckerberg

Videoclipul în care Mark Zuckerberg susține un discurs fals prin care-și arată supremația a fost postat pe Instagram.

Acest videoclip, cât și alte deepfake-uri cu Donald Trump sau Kim Kardashian, au fost realizate pentru o expoziție de artă. Scopul acesteia a fost să atragă atenția asupra felului în care oamenii pot fi mințiți, manipulați sau chiar monitorizați de către oameni politici, celebrități sau oameni influenți.

În cazul deepfake-ului cu Mark Zuckerberg, agenția de publicitate care l-a creat a anunțat că a folosit un videoclip original cu CEO-ul Facebook. A antrenat astfel un algoritm AI cu acele imaginile originale și înregistrarea audio a unui actor, cel care se aude pe fundal. Astfel, a reconstruit cadrele pentru ca mișcările faciale ale lui Zuckerberg să se potrivească cu ritmul vocii actorului. De altfel, acesta a fost și motivul pentru care majoritatea s-au prins că e vorba de un fake: vocea nu se potrivea cu cea a șefului Facebook.

Agenția de publicitate spune că a creat aceste deepfake-uri peentru a educa publicul, care ar trebui să înțeleagă mai bine cum poate fi folosită inteligența artificială.

De ce videoclipul nu va fi șters de pe Instagram

Aceste videoclipuri vin ca un fel de test al politicii Facebook în legătură cu imaginile false de pe platformele sale.

Faptul că însuși CEO-ul Facebook a fost implicat în această situație a ridicat următoarea întrebare în rândul oamenilor: Va fi videoclipul șters de pe rețeaua socială? Răspunsul pare să fie că nu. Compania a anunțat că va trata videoclipul la fel cum ar face-o în cazul oricărei alte forme de dezinformare de pe Instagram. În mod obișnuit, dezinformările nu sunt șterse de pe rețelele sociale, ci doar nu sunt recomandate utilizatorilor.

E posibil ca gigantul tech să fi reacționat complet altfel dacă ceva similar nu s-ar fi întâmplat mai devreme anul acesta. Facebook a refuzat să îl șteargă un videoclip fals cu Nancy Pelosi, un politician american. Acesta fusese modificat pentru ca Pelosi să pară băută. La momentul respecitv, compania a trebuit să-și definească poziția în ceea ce privește imaginile alterate. A hotărât atunci vă videoclipul va rămâne pe platformă.

Asta complică orice încercare a companiei de a șterge videoclipul cu fondatorul Facebook. Ar da dovadă de ipocrizie în proces. Dacă ar fi prezis situația, poate ar fi procedat altfel în cazul politicianului american.

Cât de ușor e să faci așa ceva

Partea interesantă e că aceste deepfake-uri nu sunt tocmai dificil de realizat. Cercetătorii au demonstrat recent cum un software poate fi folosit pentru a face un subiect să spună ce vrei tu.

Astfel, poți edita transcrierea unui videoclip pentru a adăuga, șterge sau modifica cuvintele care ies din gura unui personaj. Rezultatele au fost destul de mulțumitoare. Dintr-un grup de 138 de voluntari, aproximativ au considerat videoclipurile deepfake ca fiind unele reale.

Poți vedea cât de ușor funcționează totul aici:

Ce probleme ridică tehnologia pentru internet

Deși inteligența artificială este o tehnologie incredibilă care ne face viața mai ușoară în extrem de multe privințe, vine și ea cu părți negative. Odată cu aceste deepfake-uri, ar putea crește și problema fenomenului fake news. Va fi tot mai ușor pentru cei rău-intenționați să promoveze conținut fals ca fiind veridic.

Curând nu vei mai știi ce e adevărat și ce e fals, ceea ce face și mai necesară utilizarea cu grijă a internetului și o abordare sceptică în ceea ce privește toate informațiile care circulă pe web.

O bună explicație a pericolului pe care fenomenul deepfake îl reprezintă a fost oferită, ei bine, chiar printr-un deepfake. Actorul Jordan Peele a folosit inteligența artificială pentru a livra un fel de anunț de serviciu public în legătură cu pericolul pe care tehnologia deepfake îl reprezintă. A făcut asta cu ajutorul imaginii lui Barack Obama, fostul președinte al Statelor Unite.

În cazul unor asemenea videoclipuri în care subiecții spun sau fac ceva ieșit din comun, e indicat să nu iei totul de bun din prima. Verifică sursa și privește atent imaginile pentru a observa vreun semn că ar fi false (de obicei aceste videoclipuri modificate conțin deformări și blurări ale imaginii).

Poate frazele pronunțate de CEO-ul Facebook nu sunt tocmai departe de adevăr, numai că, mai mult ca sigur, Mark Zuckerberg n-ar fi spus vreodată asta, în mod public.

Experții lucrează acum la instrumente prin care fake-urile pot fi identificate, numai că până acestea vor deveni disponibile, cea mai bună protecție o reprezintă o selecție mai bună a informațiilor pe care le întâlnim, sub orice formă ni s-ar prezenta acestea.