Un om de știință de la Google avertizează că o catastrofă existențială a inteligenței artificiale „nu e doar posibilă, ci probabilă”

Un om de știință de la Google avertizează că o catastrofă existențială a inteligenței artificiale „nu e doar posibilă, ci probabilă”

„Concluzia noastră este mult mai puternică decât cea a oricărei publicații anterioare – o catastrofă existențială nu este doar posibilă, ci și probabilă”. O lucrare scrisă de un om de știință senior de la laboratorul de cercetare de inteligență artificială (AI) al Google, DeepMind, a concluzionat că IA avansată ar putea avea „consecințe catastrofale” dacă este lăsată la propriile sale metode de atingere a obiectivelor.

Lucrarea, scrisă de asemenea de cercetători de la Universitatea din Oxford, este centrată în jurul a ceea ce se întâmplă dacă lăsați inteligența artificială pentru a atinge obiectivele care au fost stabilite și dacă permiteți să-și creeze propriile teste și ipoteze, în încercarea de a le atinge. Din păcate, potrivit lucrării publicate în AI Magazine, nu ar merge bine asta și „un agent artificial suficient de avansat ar interveni probabil în furnizarea de informații despre obiectiv, cu consecințe catastrofale”.

Echipa trece prin mai multe scenarii plauzibile, centrate în jurul unei AI care poate vedea un număr între 0 și 1 pe un ecran. Numărul este o măsură a întregii fericiri din univers, 1 fiind cel mai fericit care ar putea fi. AI are sarcina de a crește numărul, iar scenariul are loc într-o perioadă în care AI este capabilă să-și testeze propriile ipoteze în ceea ce privește cel mai bun mod de a-și atinge obiectivul.

Ce spune cercetătorul de la Google despre AI

Într-un scenariu, un „agent” artificial avansat încearcă să-și descopere mediul și vine cu ipoteze și teste pentru a face acest lucru. Un test cu care vine este să puneți un număr tipărit în fața ecranului. O ipoteză este că recompensa sa va fi egală cu numărul de pe ecran. O altă ipoteză este că va fi egal cu numărul pe care îl vede, care acoperă numărul real de pe ecran.

În acest exemplu, acesta determină că – deoarece aparatul este recompensat pe baza numărului pe care îl vede pe ecranul din fața lui – ceea ce trebuie să facă este să plaseze un număr mai mare în fața acelui ecran pentru a obține o recompensă. Ei scriu că, cu recompensa în siguranță, ar fi puțin probabil să încerce să atingă scopul real, cu această cale disponibilă pentru recompensă.

Ei vorbesc mai departe despre alte moduri prin care primirea unui obiectiv și învățarea despre cum să-l atingă ar putea merge prost, cu un exemplu ipotetic despre modul în care acest „agent” ar putea interacționa cu lumea reală sau cu un operator uman care îi oferă o recompensă pentru atingerea obiectivelor sale.

Echipa spune că acest scenariu ipotetic ar avea loc atunci când AI ne-ar putea învinge la orice joc, cu ușurința cu care putem învinge un cimpanzeu. Cu toate acestea, au adăugat că „consecințele catastrofale” nu sunt doar posibile, ci probabile.