29 ian. 2023 | 08:25

Inteligența artificială este înconjurată de controverse: ce nu vor dezvoltatorii să știi despre programele lor

ACTUALITATE
Inteligența artificială este înconjurată de controverse: ce nu vor dezvoltatorii să știi despre programele lor

Au fost angajați oameni care să eticheteze fragmente de text jignitoare pentru OpenAI și ChatGPT, potrivit unui raport Time.

ChatGPT a impresionat milioane de oameni cu capacitatea sa de a înșira propoziții coerente, uneori chiar precise, informații, scripturi și multe altele. Pentru a scrie ca un om, botul AI a fost antrenat cu algoritmi de învățare automată pe un catalog masiv de materiale scoase de pe web.

Dar dezvoltarea ChatGPT nu a fost complet automatizată: a fost necesară munca umană pentru a împiedica ChatGPT să cadă în aceeași capcană ca și predecesorul său GPT-3, care a fost capabil să scrie comentarii inadecvate, uneori chiar rasiste.

Potrivit unei investigații recente a Time, creatorul ChatGPT OpenAI a externalizat această sarcină neplăcută de procesare a datelor lucrătorilor din Kenya, dintre care mulți câștigă mai puțin de 2 USD pe oră.

ChatGPT este instruit pe seturi de date de o dimensiune atât de imensă încât nu pot fi controlate manual, la fel ca instrumentele de generare a imaginilor, cum ar fi DALL-E, Stable Diffusion și Midjourney. Fără instruire, ChatGPT nu ar funcționa deloc, dar nu tot textul pe care îl poți găsi pe internet duce la tipul de comentarii pe care dorești să le facă botul tău.

Lucrarea externalizată a implicat etichetarea unor exemple de tip de text ofensator care ar putea apărea în materialul de instruire. O colecție a acestor mostre de text etichetate a fost apoi introdusă într-un alt AI, antrenându-l să observe și să elimine textul ofensator similar din răspunsurile ChatGPT către utilizatori.

O investigație serioasă

Antrenarea AI pentru a evita limbajul și temele neadecvate menține ChatGPT mai curat și îl face mai greu de utilizat pentru a produce conținut deranjant. Însă, în acest efort de a îmbunătăți botul, OpenAI a expus lucrătorii prost plătiți din Kenya la unele dintre cele mai proaste materiale de pe web.

„Pentru a obține acele etichete, OpenAI a trimis zeci de mii de fragmente de text unei firme de externalizare din Kenya, începând din noiembrie 2021”, relatează Time. „O mare parte din textul respectiv părea să fi fost extras din cele mai întunecate colțuri ale internetului. Unele dintre ele descriau situații în detaliu grafic, cum ar fi abuzul sexual asupra copiilor, bestialitate, crimă, sinucidere, tortură, autovătămare și incest”.

Raportul Time spune că un lucrător a suferit de viziuni recurente ca urmare a conținutului pe care l-a întâlnit la locul de muncă. Toți cei patru lucrători cu care a vorbit Time au spus că au fost „afectați mental de muncă”.

Se pare că erau în jur de 36 de lucrători angajați pentru a îndeplini sarcina în numele OpenAI, fiecare fiind de așteptat să „citească și să eticheteze între 150 și 250 de pasaje de text pe o tură de nouă ore”.

Compania responsabilă pentru munca de externalizare se numește Sama, o firmă cu sediul în San Francisco, cu lucrători în Kenya, Uganda și India. Time raportează că OpenAI a semnat trei contracte pentru lucrările de etichetare la sfârșitul anului 2021, în valoare totală de aproximativ 200.000 USD.

Sama spune că angajații săi au avut acces la sesiuni individuale și de grup cu terapeuți profesioniști în sănătate mintală, accesibile în orice moment. Cu toate acestea, lucrătorii cu care vorbește Time spun că doar sesiunile de grup erau disponibile pentru ei.

„Misiunea noastră este să ne asigurăm că inteligența artificială aduce beneficii întregii umanități și muncim din greu pentru a construi sisteme AI sigure și utile care să limiteze părtinirea și conținutul dăunător”, a declarat un purtător de cuvânt al OpenAI pentru Time cu privire la activitatea de prelucrare a datelor externalizată. „Clasificarea și filtrarea [textului și imaginilor] dăunătoare este un pas necesar în reducerea la minimum a cantității de conținut violent și sexual inclus în datele de instruire și crearea de instrumente care pot detecta conținutul dăunător”.

Potrivit Time, natura muncii lui Sama pentru OpenAI a luat o întorsătură diferită în februarie 2022, când a început să colecteze „imagini sexuale și violente”, unele dintre ele fiind considerate ilegale în SUA. OpenAI a spus că etichetarea imaginilor dăunătoare a fost „un pas necesar” pentru a face instrumentele sale sigure de utilizat, dar că nu a intenționat niciodată ca cea mai extremă categorie de imagini să fie colectată de Sama și că aceasta a fost o comunicare greșită.

În cele din urmă, Sama și-a reziliat contractul cu OpenAI

Raportul sugerează că echipa Sama și-a exprimat îngrijorarea cu privire la conținutul imaginilor, ceea ce a dus în cele din urmă la prăbușirea înțelegerii celor două companii. Ulterior, unii dintre lucrătorii Sama au fost mutați la contracte cu plăți mai mici sau funcțiile lor au fost reziliate complet. Raportul complet Time intră în detalii mult mai mari despre relația OpenAI cu Sama.

OpenAI este evaluat în prezent în miliarde de dolari. Se pare că Microsoft caută să investească mai mulți bani în firma de inteligență artificială, în ciuda propriilor concedieri în masă recente și a anunțat planuri de a integra tehnologiile OpenAI în serviciile sale.

Munca de moderare a implicat mult timp un anumit grad de suferință umană: un raport din 2019 privind bunăstarea mentală a angajaților echipelor de moderare utilizate de Facebook a descris simptome de traumă de lungă durată ca urmare a muncii.

Nevoile de etichetare ale OpenAI sunt, de asemenea, o fațetă a unei crize etice mai mari care crește în centrul cercetării AI: problema ce să folosească ca material de instruire. Mașinile nu pot învăța să se comporte ca oamenii inteligenți fără utilizarea materialelor create de om, dar nu toată lumea își dorește ca munca lor să fie alimentată de un algoritm, iar anul trecut artiștii au început să-și eticheteze munca „fără IA” în încercarea de a evita companiile care colectează date de instruire pentru generatorii de imagini

Din nou, sarcina de a crea roboți AI respectuoși revine oamenilor, în acest caz lucrători plătiți pentru a citi cel mai deranjant conținut de pe web.