16 feb. 2019 | 19:05

„Robotul” care scrie știri este prea periculos pentru a fi lansat public

ACTUALITATE
„Robotul” care scrie știri este prea periculos pentru a fi lansat public

Un nou sistem construit de cercetătorii OpenAI înțelege mai bine ca niciodată cuvintele și poate să execute task-uri, printre care și redactarea de știri, fără supraveghere umană.

Noul algoritm OpenAI, numit GPT-2, poate să facă o multitudine de lucruri: generează paragrafe coerente, traduce texte dintr-o limbă în alta, răspunde la întrebări și chiar poate face rezumate, totul fără un training pe o sarcină anume.

Tehnologia se bazează pe o tehnică cunoscută sub numele de self-attention prin care  este alimentat cu o cantitate uriașă de articole, postări de pe bloguri și site-uri de pe internet. Mulțumită acestora, algoritmul începe să învețe relația dintre cuvinte și creează, în timp, pattern-uri pentru gramatică și sintaxă.

„Ceea ce noua descoperire OpenAI arată este că, da, categoric poți construi ceva care pare să înțeleagă multe despre lume doar dându-i să citească”, a declarat Jeremy Howard, un cercetător care a dezvoltat un algoritm similar.

Programe care prelucrează textul într-un mod similar sunt destul de comune, precum AutoComplete sau Predictive Text, dezvoltate de Google, respectitv iOS, dar sunt mai simpliste decât algoritmul GPT-2. Diferența dintre cele două abordări o reprezintă nivelul de înțelegere al cuvintelor. Metodele mai vechi înțeleg numai sensul cel mai evident al cuvintelor, în timp ce noua tehnologie procesează aceeași informație într-un mod mult mai complex. De exemplu, sistemele AutoComplete și Predictive Text știu că „senin” este un cuvânt folosit pentru a descrie vremea, dar GPT-2 știe că adjectivul poate fi atribuit și caracterului uman.

De ce algoritmul AI este atât de periculos

La fel cum este cazul majorității progreselor tehnologice, această descoperire ar putea face și rău, pentru că algoritmul poate da și greș. Jack Clarck, policy director al OpenAI, a declarat pentru The Verge că sistemul ar putea fi folosit pentru a genera articole de presă false sau care creează confuzie sau chiar să se dea drept altcineva în mediul online. Din acest motiv, organizația nu va dezvălui cum exact funcționează GPT-2. Echipa OpenAI crede că tehnologia poate fi folosită în scopuri rău-voitoare, pentru spam sau chiar phishing.

Este destul de ușor să îți dai seama că textele pe care GPT-2 le produce nu sunt scrise de oameni. Deși gramatica și ortografia sunt în general corecte, mașinăria tinde să fie de multe ori pe lângă subiect. De exemplu, atunci când Greg Brockman, CTO și co-fondator al companiei a oferit sistemului titlul „Reciclarea este bună pentru lumea înconjurătoare”, GPT-2 a scris un articol în care argumentează de ce nu ar trebui să reciclăm și cum face asta rău economiei.