VIDEO Poți începe să nu mai crezi ce vezi la TV: toate detectoarele de deepfake, mințite

de: Alexandru Puiu
13 02. 2021

Ideea de deepfake face referire la clipuri video care au fost modificate pentru ca o vedetă să pară că spune ceva, deși cuvintele nu-i aparțin. În spate este o tehnologie foarte periculoasă care s-ar putea să-ți reducă la zero încrederea în interviuri de la TV sau online.

Partea bună legată de deepfake este că, până de curând, algoritmi avansați de inteligență artificială puteau depista când un clip video a fost sau nu modificat printr-o serie de algoritmi. În acest fel, aveam siguranța că, în afară de clipuri amuzante etichetate ca atare, deepfake nu prea putea să facă rău nimănui.

Între timp, mai mulți oameni de știință au confirmat că detectoarele de deepfake pot fi păcălite. Este suficient să te uiți la clipul de mai sus ca să înțelegi că, dincolo de faptul că nu te uiți la Barrack Obama, acel personaj este identificat ca fiind 100% adevărat. În contextul în care au trecut câțiva ani de când Microsoft, Facebook și mai multe universități de tech au încercat să depisteze eficient un deepfake, rezultatul celui mai recent experiment în a păcăli acele tehnologii nu este deloc îmbucurător pentru viitorul știrilor.

Pentru a demonstra că nu avem de ce să stăm liniștiți când vine vorba de deepfake, un grup de cercetători de la UC San Diego a arătat practic modul în care toate mecanismele de detecție ale clipurilor false pot fi păcălite. În acest scop, în fiecare cadru al clipului au fost introduse așa numite ”adversarial examples”, care derutează algoritmii de depistare unui video contrafăcut.

Întreaga demonstrație pe marginea acestui subiect a fost prezentată în cadrul conferinței WACV 2021 care a avut loc în luna ianuarie a acestui an online. Revenind însă la acele ”adversarial examples”, cadrele respective intercalate aproape insesizabil în video sunt suficiente pentru a păcăli un algoritm care încearcă să găsească momente în care un personaj clipește, de exemplu.