Cum a ajuns și inteligența artificială să fie rasistă (cam ca oamenii)

de: Bianca Prangate
04 02. 2019

Rasismul încă este o problemă în anul 2019, fie că ne place sau nu. De regulă, rasismul vine de la oameni și este îndreptat către alți oameni. Cu toate astea, ar putea veni și de la inteligența artificială, dacă e să ne luăm după o politiciană din Statele Unite ale Americii.

Politiciana Alexandria Ocasio-Cortez a spus că tehnologiile de recunoaștere facială și algoritmii „au mereu aceste nedreptăți rasiale care ajung să fie traduse, pentru că algoritmii sunt totuși realizați de oameni, iar acei algoritmi sunt totuși supuși presupunerilor umane”. Ea a subliniat că presupunerile sunt automate, „iar presupunerile automate – dacă nu rezolvi subiectivitatea, atunci doar automatizezi subiectivitatea”.

Așadar, algoritmii – care se bazează de altfel pe adevăruri obiective – ar putea fi rasiști. Dar cum am putea evita acest lucru? E oarecum dificil, din moment ce inteligența artificială funcționează cu ajutorul datelor și informațiilor pe care le primește, iar aceste date vin de la oameni – oameni care mereu au o doză mai mică sau mai mare de subiectivism.

În 2015, Google a primit nenumărate critici după ce Google Photos a etichetat oamenii de culoare drept gorile – cel mai probabil din cauză că gorilele fuseseră singurele ființe cu pielea închisă la culoare care fuseseră introduse în algoritm. Tocmai de aceea, este nevoie de măsuri pentru a evita greșeli care pot ofensa vreo categorie de oameni.

Cercetătoarea Sophie Searcy de la Metis a sugerat ca inginerii și oamenii de știință să pună la punct baze de date mai diverse și să le schimbe în mai bine pe cele subiective care există deja. Doar că eliminarea subiectivității poate fi ceva dificil pentru inteligența artificială. Până și Google, care se află în top când vine vorba de inteligența artificială comercială, nu a găsit o cale prea bună să elimine problema cu gorilele. În loc să găsească o soluție pentru algoritmi care să îi ajute să distingă mai bine între persoanele de culoare și gorile, Google a ales să blocheze pur și simplu algoritmii din a mai recunoaște gorile.

Exemplul de la Google arată perfect dificultatea antrenării inteligențelor artificiale, dar servește și drept inspirație pentru a îmbunătăți sistemele inteligente existente și cele care vor fi dezvoltate de acum încolo.