Profeția fostului șef Google: „Inteligența artificială va amenința omenirea în cinci ani”. Hiroshima și Nagasaki, „mici copii”

de: Ozana Mazilu
23 12. 2023

În cea mai recentă prognoză sumbră privind inteligența artificială, fostul CEO Google Eric Schmidt spune că nu există suficiente metode pentru a împiedica tehnologia să facă un rău catastrofal.

Inteligența artificială, mai periculoasă decât Hiroshima și Nagasaki

Vorbind la un summit găzduit de Axios recent, Schmidt, care este acum președintele Comisiei Naționale de Securitate pentru Inteligență Artificială, a comparat AI cu bombele atomice lansate de Statele Unite asupra Japoniei în 1945.

„După Nagasaki și Hiroshima, a fost nevoie de 18 ani pentru a ajunge la un tratat privind interzicerea testelor și lucrurilor de genul acesta”, i-a spus el cofondatorului Axios, Mike Allen.

Deși cei care construiesc tehnologia, de la OpenAI până la Google însuși și mult mai departe, au stabilit „bare de protecție” sau măsuri de siguranță pentru a controla tehnologia, Schmidt a spus că siguranțele actuale „nu sunt suficiente” – o idee pe care au mai zis-o mulți cercetători de învățare automată.

În doar cinci până la zece ani, a spus fostul șef Google, AI ar putea deveni suficient de puternică pentru a dăuna umanității. Scenariul cel mai rău, a continuat Schmidt, ar fi „punctul în care computerul poate începe să ia propriile decizii pentru a face lucruri”, iar dacă este capabil să acceseze sistemele de arme sau să ajungă la alte capacități terifiante, mașinile ar putea, avertizează el, să ne mintă pe noi oamenii despre asta.

Vezi și: Profeția lui Bill Gates despre inteligența artificială și săptămâna de lucru. Cum vom ajunge să lucrăm doar trei zile, în loc de cinci

Experții se contrazic

Pentru a evita acest tip de rezultat îngrozitor, Schmidt a spus că ar trebui înființată o organizație neguvernamentală asemănătoare Grupului Interguvernamental pentru Schimbări Climatice (IPCC) al Națiunilor Unite pentru a „furniza informații corecte factorilor de decizie” și a-i ajuta să ia decizii cu privire la ce să facă și dacă AI devine prea puternică.

În timp ce fostul șef Google și-a făcut publice în mod regulat preocupările cu privire la AI, șeful AI al lui Meta, Yann LeCun, a luat din ce în ce mai mult o poziție opusă.

Luna trecută, el a spus pentru Financial Times că tehnologia nu este nici pe departe suficient de inteligentă pentru a amenința umanitatea, iar în weekendul de Ziua Recunoștinței, s-a certat cu colegul pionier al inteligenței artificiale Geoffrey Hinton – care a părăsit Google la începutul acestui – asupra conceptului că modelele mari de limbaj (LLM) sunt suficient de sofisticate pentru a „înțelege” ceea ce le spun oamenii.

Vezi și: Care este amenințarea inteligenței artificiale în piața muncii, de fapt. Ce se întâmplă cu salariile oamenilor, cu joburile