Cât de mari sunt șansele să fie creați „roboți ucigași” inteligenți
Inteligența artificială (AI) are potențialul de a salva vieți, prin prezicerea dezastrelor naturale, oprirea traficului de persoane și diagnosticarea boilor mortale.
În același timp, aceasta are și potențialul de a lua vieți. Eforturile de a crea arme autonome letale – care utilizează inteligența artificială pentru a decide dacă trebuie sau nu să omoare o persoană – sunt cât de poate de reale și se află în curs de dezvoltare.
Din aceste motive Future of Life Institute – o organizație care se concentrează pe utilizarea tehnologiei în folosul umanității – a lansat un angajament care descurajează dezvoltarea armelor autonome letale și îndeamnă guvernele să o prevină.
Președintele institutului, Max Tegmark, a declarat că AI are un potențial imens de a ajuta lumea – dacă stigmatizăm și prevenim abuzurile.
„Armele cu AI care decid singure să omoare oameni sunt la fel de dezgustătoare și destabilizatoare ca armele biologice și ar trebui tratate în același mod”, a mai precizat Max Tegmark.
Angajamentul de a nu participa și susține dezvoltarea, fabricarea comerțul și utilizarea armelor autonome letale a fost semnat de 170 de organizații și de 2.464 de persoane. Printre semnatari se numără Elon Musk, fondatorul Skype Jaan Tallinn și Stuart Russell.
De asemenea, cei trei cofondatori ai Google DeepMind, Demis Hassabis, Shane Legg și Mustafa Suleyman au semnat documentul – DeepMind este echipa de cercetare AI a Google.
Aceasta nu este prima dată când experții AI s-au unit pentru a semna un angajament împotriva dezvoltării armelor autonome letale, însă este cel care a strâns cei ai mulți semnatari.
Cu toate acestea, chiar dacă toate națiunile lumii ar fi de acord să interzică armele autonome letale, asta nu i-ar împiedica pe indivizi sau chiar pe guverne să continue să dezvolte armele în secret.
Pe măsură ce intrăm în această eră nouă a AI, nu prea avem de ales decât să sperăm că vor fi mai mulți „băieți buni” decât răi.