Tehnologia de detectare a emoțiilor va fi un coșmar într-o situație importantă

Tehnologia de detectare a emoțiilor va fi un coșmar într-o situație importantă
Sursa foto: Tangermann/Futurism
16:24 09.03.2019

Mașinăriile și roboții nu au emoții, dar asta nu înseamnă că nu pot să le recunoască pe ale tale – sau măcar să încerce.

Mai multe companii de tehnologie (printre care și Amazon și Microsoft) oferă produse care promit să analizeze emoțiile umane. Aceste produse funcționează prin analizarea feței unei persoane cu scopul de a descoperi cum se simte aceasta. Singura problemă? Aceste sisteme ar putea să facă mai mult rău decât bine, mai ales când vine vorba de interviurile de angajare.

Aceste sisteme de detectare a emoțiilor reprezintă o combinație a două tehnologii. Prima tehnologie este cea a viziunii de computer – adică ce vede un dispozitiv când se uită la fața unei persoane. A doua este o inteligență artificială capabilă să analizeze informații pentru a determina cum se simte o persoană. Spre exemplu, dacă vede pe cineva cu sprâncenele încruntate, va crede că este nervos, dar dacă zâmbește, va crede că e fericit.

Sistemele de detectare a emoțiilor sunt deja folosite de mai multe companii, cum ar fi IMB și Unilever, pentru a analiza candidații la un post nou. De asemenea, Disney folosește această tehnologie pentru a detecta cum se simt oamenii cu privire la un film anume. Mai apoi, există și inițiativa de a folosi sistemele de detectare a emoțiilor în școli, pentru a observa dacă elevii sunt plictisiți sau supărați în timpul cursurilor, după cum a subliniat co-directoarea institului de cercetare AI Now, Meredith Whittaker, pentru The Guardian.

Doar că sistemele de detectare a emoțiilor sunt supuse greșelilor. Cercetătorii de la Wake Forest University au descoperit, în urma unui studiu, că mai multe astfel de sisteme sunt predispuse să atribuie persoanelor de culoare sentimente negative, chiar și când zâmbesc larg – ceea ce confirmă faptul că inteligența artificială poate fi și ea rasistă. „Aceste informații ar putea fi folosite în moduri care îi împiedică pe oameni din a obține locuri de muncă sau să modifice felul în care ei sunt tratați și evaluați la școală, iar dacă analizele nu sunt extrem de exacte, asta reprezintă un pericol material concret”, a zis Whittaker.

Sursa: Futurism
loading...