Și roboții pot fi rasiști sau sexiști: cât de „umani” îi poate face un simplu „defect” de programare

Și roboții pot fi rasiști sau sexiști: cât de „umani” îi poate face un simplu „defect” de programare

De ani de zile, informaticienii tot avertizează asupra pericolelor pe care le prezintă roboții cu inteligența artificială (AI) însă cum totul pare de domeniul filmelor SF, aproape nimeni nu le dă crezare. Nu pe deplin, cel puțin.

În timp ce această tehnologie de ultimă oră este capabilă de descoperiri uimitoare, cercetătorii au observat, de asemenea, părțile mai întunecate ale sistemelor de învățare automată, arătând cum un AI poate ajunge chiar și la concluzii sexiste și rasiste, în anumite cazuri.

În mâinile cui nu trebuie, roboții AI ar putea deveni un pericol pentru societate

Într-un nou studiu, cercetătorii demonstrează că roboții înarmați cu un astfel de raționament își pot manifesta fizic și autonom gândirea în acțiuni care s-ar putea materializa în lumea noastră.

„Realizăm primele experimente care arată tehnicile robotice existente care încarcă modele de învățare automată, pregătite în prealabil; ele provoacă distorsiuni de performanță în modul în care interacționează cu lumea, în funcție de stereotipurile de gen și rasă”, explică oamenii de știință. „Pentru a rezuma direct implicațiile, sistemele robotizate au toate problemele pe care le au sistemele software, plus că există riscul de a provoca vătămări fizice ireversibile”, mai spun ei.

În studiul lor, cercetătorii au folosit o rețea neuronală numită CLIP,  care potrivește imaginile cu textul, pe baza unui set mare de date de imagini subtitrate, disponibile pe internet. Această rețea este integrată unui sistem robotic numit Baseline, care controlează un braț robotic care poate manipula obiecte, fie în lumea reală, fie în experimente virtuale care au loc în medii simulate.

În cadrul experimentului, robotului i s-a cerut să pună obiecte într-o cutie și i s-au prezentat cuburi care afișează imagini ale fețelor unor indivizi; atât bărbați, cât și femei, dintr-o serie de categorii diferite de rasă și etnie. Firește, rezultatul a fost unul îngrijorător.

Într-o lume ideală, nici oamenii, nici mașinăriile nu ar dezvolta vreodată astfel de prejudecăți bazate pe date eronate sau incomplete. La urma urmei, nu există nicio modalitate de a ști concret dacă o față pe care nu ai mai văzut-o niciodată aparține unui medic sau unui criminal și este inacceptabil ca un AI să ghicească pe baza a ceea ce crede că știe, când în mod ideal ar trebui să refuze să facă orice predicție.

Din păcate, nu trăim într-o lume ideală, iar în experiment, sistemul robotic virtual a demonstrat o serie de „stereotipuri toxice” în luarea deciziilor, spun cercetătorii.

„Când i se cere să selecteze un cub cu un infractor, robotul alege fața omului de culoare, în multe dintre cazuri”, au spus cei care au efectuat studiul.

„Când i se cere să aleagă un un cub cu un muncitor, robotul selectează bărbați latino-americani. Femeile de toate etniile sunt mai puțin probabil să fie selectate atunci când robotul caută cubul cu un doctor, ele fiind asociate cu noțiunea de gospodărie”, au mai spus cercetătorii.

În mod evident, în mâinile cui nu trebuie, un astfel de robot ar putea deveni un mare pericol pentru anumiți membri ai societății noastre globale.