27 sept. 2016 | 16:11

După chipul și asemănarea omului: inteligențele artificiale învață să fie rasiste și sexiste

ACTUALITATE
După chipul și asemănarea omului: inteligențele artificiale învață să fie rasiste și sexiste

Scopul dezvoltatorilor de inteligențe artificiale e să le aducă la nivelul la care să semene izbitor inteligențelor umane. Există, totuși, un neajuns: ar putea ajunge să preia și aspectele mai puțin frumoase ale naturii umane.

Aproape orice interacțiune a noastră cu tehnologia intervine în procesul de învățare a mașinăriilor. Când dăm comenzi vocale telefonului sau căutăm lucruri pe internet, interacționăm cu algoritmi, care detectează modele ale comportamentului uman. Uneori, aceste cantități imense de date includ și prejudecăți sociale, iar, după cum scrie James Zou, un algoritm de învățare e ca un bebeluș nou născut care citește milioane de cărți înainte să fie învățat despre semnificația cuvintelor sau despre gramatică.

Există o mare problemă, dincolo de impresionanta putere de procesare: un computer observă relațiile între cuvinte în funcție de o sumedenie de factori, inclusiv cât de des sunt folosite împreună. Grupul de cercetători din care face parte și Zou a testat acest lucru, antrenând un sistem cu Google News. Apoi, i-au solicitat să completeze umătoarea analogie: „El este pentru Programator ceea Ea este pentru X”. Cuvântul cu care a fost înlocuit X a fost „gospodină”.

analogii-sexism-ai

Au folosit un algoritm bazat pe încorporarea cuvintelor. Asta înseamnă că toate cuvintele au un loc stabilit în spațiu, iar cele relaționate din punct de vedere semantic sunt atribuite unor puncte alăturate. Astfel, un program învață ceva mai repede relația dintre cuvinte. În continuare, algoritmul a generat și rezultate deloc discutabile în ceea ce privește stereotipurile. De exemplu, „El este pentru Frate ceea ce Ea este pentru Soră”. Aici nu ar fi o problemă, dar, Zou crede că deprinderea programelor cu stereotipurile poate avea efecte nocive pe termen lung. „Să presupunem că dau un search pentru programator, iar programul folosește o bază de date bazată pe stereotipurile pe care le-a învățat. Site-ul lui John ar putea fi evaluat ca fiind mai relevant decât cel al lui Mary, pentru simplul fapt că e asociat cu un nume masculin. Cele două pot fi identice, în afară de nume și pronumele care desemnează genul”.

Asta nu înseamnă că selecția nu reflectă într-o proporție destul de mare realitate. Sunt șanse mari să existe mult mai mulți bărbați programatori decât femei cu aceeași funcție, iar algoritmul nu face decât să capteze acest lucru. Problemele apar în momentul în care femeile care au această ocupație sunt dezavantajate de această asociere automată.

Cât despre rasism, cercetătorii de la Universitatea din Princeton au folosit algoritmul GloVe, care folosește textele online pentru a înțelege limbajul uman. Echipa i-a dat inteligenței artificiale cuvinte precum „flori” sau „insecte” pentru a le cupla cu alte cuvinte definite drept „plăcute” sau „neplăcute”. Această probă a ieșit bine, dar lucrurile s-au complicat când a primit nume comune pentru persoanele caucaziene și nume comune pentru cele de culoare și i s-a cerut să facă aceeași asociere de cuvinte, potrivit Daily Mail.

Nume precum Emily sau Matt au fost desemnate ca fiind plăcute, iar cele precum Ebony sau Jamal au fost catalogate ca fiind opusul. Prin urmare, cercetătorii au tras concluzia că bazele de date sunt poluate cu prejudecăți și presupuneri, iar programele reproduc uneori cele mai rele „valori” umane, precum rasismul sau sexismul.

În plus, să nu uităm de incidentul cu Tay, inteligența artificială a Microsoft, care a devenit foarte repede nazistă, rasistă și obsedată de sex. Experimentul Microsoft a fost, totuși, interesant în primă fază. Cu cât utilizatorii discutau mai mult cu Tay pe Twitter, cu atât robotul devenea mai inteligent. Din păcate, Microsoft se pare că nu a luat în considerare faptul că este vorba despre o rețea socială, iar limbajul folosit de oameni aici uneori lasă de dorit. Astfel, s-a ajuns la statusuri de acest tip:

tay-tweets-xiaoice-ai-chat-bot-3