Cercetătorii spun că va fi imposibil să controlezi o AI super-inteligentă: ce se va întâmpla cu inteligența artificială
Ideea că inteligența artificială să răstoarne omenirea cu susul în jos s-a dezbătut de zeci de ani, iar în 2021, oamenii de știință și-au dat verdictul dacă vom fi capabili să controlăm o super-inteligență computerizată de nivel înalt. Răspunsul? Aproape sigur că nu.
Problema este că controlul unei super-inteligențe mult dincolo de înțelegerea umană ar necesita o simulare a acelei super-inteligențe pe care o putem analiza (și controla). Dar dacă nu reușim s-o înțelegem, este imposibil să creăm o astfel de simulare. Reguli precum „să nu faci rău oamenilor” nu pot fi stabilite dacă nu înțelegem tipul de scenarii cu care va veni o IA, sugerează autorii noii lucrări. Odată ce un sistem computerizat funcționează la un nivel peste nivelul de aplicare al programatorilor noștri, nu mai putem stabili limite.
Inteligența artificială poate fi periculoasă
„O super-inteligență pune o problemă fundamental diferită de cele studiate în mod obișnuit sub steagul „eticii robotului”, au scris cercetătorii în lucrare.
„Acest lucru se datorează faptului că o super-inteligență are mai multe fațete și, prin urmare, este capabilă să mobilizeze o diversitate de resurse pentru a atinge obiective care sunt potențial de neînțeles pentru oameni, cu atât mai puțin controlabile”.
O parte din raționamentul echipei a venit din problema opririi, prezentată de Alan Turing în 1936. Problema se concentrează pe a ști dacă un program de calculator va ajunge sau nu la o concluzie și va răspunde (deci se oprește).
După cum a demonstrat Turing prin matematică, deși putem ști că pentru anumite programe specifice, este logic imposibil să găsim o modalitate care să ne permită să știm asta pentru fiecare program potențial care ar putea fi scris vreodată, acest lucru ne readuce la AI, care, într-o stare super-inteligentă, ar putea reține în memorie fiecare program de calculator posibil simultan.
Orice program scris pentru a opri AI să dăuneze oamenilor și să distrugă lumea, de exemplu, poate ajunge la o concluzie (și se oprește) sau nu – este imposibil din punct de vedere matematic să fim absolut siguri în orice caz, ceea ce înseamnă că nu poate fi controlat.
„De fapt, acest lucru face algoritmul de izolare inutilizabil”, a declarat informaticianul Iyad Rahwan de la Institutul Max-Planck pentru Dezvoltare Umană din Germania, în 2021.
Alternativa pentru a-i preda AI ceva etică și a-i spune să nu distrugă lumea – lucru pe care niciun algoritm nu poate fi absolut sigur că îl va face, au spus cercetătorii – este să limiteze capacitățile super-inteligenței. Ar putea fi deconectat de la anumite părți ale internetului sau de la anumite rețele, de exemplu.