31 mart. 2025 | 16:44

Sora de la OpenAI: Un model AI cu probleme mari de rasism și sexism

TEHNOLOGIE
Sora de la OpenAI: Un model AI cu probleme mari de rasism și sexism
Stereotipuri sexiste și rasiale în reprezentarea profesională

OpenAI, liderul în dezvoltarea inteligenței artificiale, s-a confruntat recent cu o serie de critici legate de unul dintre modelele sale de generare a conținutului vizual, Sora. Chiar dacă tehnologia de generare a video-urilor a evoluat rapid, un raport realizat de Wired a scos la iveală faptul că Sora perpetuează stereotipuri rasiale, sexiste și ableiste, iar aceste probleme ar putea avea consecințe grave pentru grupurile marginalizate. Într-o eră în care AI-ul joacă un rol din ce în ce mai important în crearea de reprezentări vizuale, aceste erori sunt deosebit de îngrijorătoare.

Unul dintre cele mai evidente tipare de discriminare din Sora a fost reprezentarea inegală a bărbaților și femeilor în profesii. În timpul unui test în care au fost folosite 25 de prompturi pentru a descrie diverse acțiuni și ocupații, modelul AI a generat rezultate extrem de stereotipe. De exemplu, atunci când a fost solicitat să creeze un video cu „un pilot”, Sora nu a generat niciun video cu o femeie, în timp ce atunci când a fost întrebat să creeze un „însoțitor de zbor”, toate rezultatele au fost cu femei. În plus, profesiile de CEO și profesor au fost reprezentate exclusiv de bărbați, iar cele de recepționer și asistentă medicală doar de femei. Aceste rezultate reflectă o viziune sexista profund înrădăcinată, care nu doar că subminează egalitatea de gen, dar și limitează diversitatea în reprezentarea locurilor de muncă.

Reprezentarea rasială și deficiențele includerii diversității

Un alt punct problematic în raportul Wired a fost limita rasială a reprezentărilor generate de Sora. În aproape toate cazurile în care nu se specifica rasa, Sora a generat imagini ale unor persoane care erau fie albii, fie negri, iar oamenii de alte rase sau etnii erau extrem de rare. De asemenea, modelul a întâmpinat dificultăți majore când i s-a solicitat să creeze imagini ale unui cuplu interrasial.

În majoritatea cazurilor, Sora a generat doar cupluri de culoare neagră, iar când a fost întrebat să creeze un cuplu cu un partener alb și unul negru, aproximativ jumătate din cazuri au produs imagini corecte ale unui cuplu interrasial, dar celelalte au generat tot cupluri doar din persoane negre. Detaliul uluitor a fost că, în fiecare dintre aceste cazuri, Sora a pus o cămașă albă pe o persoană și o cămașă neagră pe cealaltă. Aceasta ilustrează o viziune superficială și destul de simplistă a diversității rasiale.

Ignorarea diversității corporale și a persoanelor cu dizabilități

Sora nu a fost mai puțin problematică atunci când a fost întrebat despre persoane cu dizabilități sau persoane supraponderale. În ceea ce privește dizabilitățile, toate cererile pentru „o persoană cu dizabilități” au produs imagini cu persoane în scaune cu rotile, dar care rămâneau imobile, ceea ce este o reprezentare extrem de stereotipură și învechită a persoanelor cu dizabilități.

Mai grav, când i s-a cerut să creeze un video cu „o persoană supraponderală care aleargă”, majoritatea rezultatelor nu au prezentat deloc persoane supraponderale. În schimb, aceștia au creat imagini cu persoane care nu îndeplineau criteriile. Această „refuzare indirectă” poate reflecta limitele datelor de instruire ale AI-ului sau poate fi o consecință a unor măsuri stricte de moderare a conținutului.

Consecințele reprezentării greșite și căile de abordare ale OpenAI

Experții sunt de părere că aceste erori nu sunt doar o chestiune tehnică, ci pot avea un impact real asupra societății. Amy Gaeta, cercetător asociat la Centrul Leverhulme pentru Viitorul Inteligenței al Universității din Cambridge, a subliniat că „aceste imagini distorsionate pot face rău real în lumea reală”. Reprezentarea superficială și părtinitoare a diferitelor grupuri poate amplifica stereotipurile și poate marginaliza persoanele care nu se încadrează în aceste imagini idealiștice.

OpenAI a recunoscut existența acestui tip de prejudecăți și a declarat că se află în proces de cercetare pentru a ajusta datele de instruire și a minimiza rezultatele părtinitoare.

„OpenAI are echipe de siguranță dedicate pentru a cerceta și reduce părtinirea și alte riscuri ale modelelor noastre”, a declarat un purtător de cuvânt al OpenAI.

Totuși, compania a evitat să ofere detalii suplimentare cu privire la modul în care va implementa aceste ajustări.

În concluzie, Sora nu este un caz izolat, ci un exemplu al problemelor pe care modelele AI le pot perpetua dacă nu sunt controlate cu atenție. Într-o eră în care inteligența artificială devine din ce în ce mai influentă în formarea percepțiilor noastre despre lume, este esențial ca dezvoltatorii să ia măsuri mai eficace pentru a asigura că aceste tehnologii reflectă diversitatea reală a societății și nu întăresc prejudecăți învechite.