Un cercetător de la Stanford susține că AI-ul său poate dezvălui lucruri tulburătoare despre tine doar analizându-ți fața
Un psiholog de la Universitatea Stanford, Michal Kosinski, afirmă că inteligența artificială (AI) pe care a dezvoltat-o poate detecta cu o mare precizie inteligența, preferințele sexuale și orientările politice ale unei persoane doar prin scanarea feței acesteia, relatează Business Insider.
Ce poate spune AI-ul despre tine
Această descoperire a ridicat numeroase întrebări etice. Cercetările lui Kosinski sunt văzute de unii ca o formă de „frenologie” modernă — o pseudoștiință din secolele XVIII-XIX care încerca să lege trăsăturile faciale de trăsăturile mentale. Cu toate acestea, Kosinski respinge aceste comparații, susținând că munca sa în domeniul recunoașterii faciale trebuie privită ca un avertisment pentru factorii de decizie politică cu privire la pericolele potențiale ale acestei tehnologii.
De exemplu, într-un studiu publicat în 2021, Kosinski a creat un model de recunoaștere facială care putea prezice corect orientările politice ale unei persoane cu o precizie de 72%, doar prin scanarea unei fotografii, comparativ cu o rată de precizie de 55% obținută de oameni.
„Având în vedere utilizarea pe scară largă a recunoașterii faciale, descoperirile noastre au implicații critice pentru protecția vieții private și a libertăților civile”, a scris Kosinski în studiul său.
Cu toate că cercetările sale sunt menite să servească drept un avertisment, lucrarea lui Kosinski seamănă mai degrabă cu deschiderea unei Cutii a Pandorei. Multe dintre posibilele utilizări ale cercetărilor sale par periculoase, iar simpla publicare a acestora ar putea inspira noi instrumente de discriminare.
Ce spun experții
Există și problema că modelele de recunoaștere facială nu sunt 100% precise, ceea ce ar putea duce la vizarea greșită a unor persoane. De exemplu, când Kosinski a co-publicat în 2017 un studiu despre un model de recunoaștere facială care putea prezice orientarea sexuală cu o acuratețe de 91%, organizațiile Human Rights Campaign și GLAAD au catalogat cercetarea drept „periculoasă și defectuoasă” deoarece ar putea fi folosită pentru discriminarea împotriva persoanelor queer.
Adăugând această tehnologie într-un context social tensionat — cum ar fi disputele legate de gen în sporturile olimpice — ar putea rezulta într-o adevărată rețetă pentru dezastru.
Exemplele din viața reală ale recunoașterii faciale care afectează negativ drepturile și viețile oamenilor sunt deja numeroase, precum cazul Rite Aid care a vizat în mod nedrept minoritățile ca hoți sau cel al magazinului Macy’s care a acuzat pe nedrept un bărbat de un jaf violent pe care nu l-a comis.
Astfel, chiar dacă cercetările lui Kosinski sunt menite să fie un avertisment, ele par totodată să ofere instrucțiuni detaliate pentru cei care ar putea dori să abuzeze de aceste tehnol