Dacă mașinile autonome ne vor ucide, noi suntem de vină
Cercetătorii care studiază inteligența artificială vor să învețe mașinile să ia decizii morale bazate pe milioanele de răspunsuri primite de la oameni prin chestionare.
Acum un an, cei de la MIT au lansat site-ul Moral Machine, care îi întreabă pe vizitatori ce ar trebui să facă un vehicul autonom în situația în care frânele nu mai funcționează și se îndreaptă către pietonii care traversează pe o trecere. Scenariile te îndeamnă să te gândești pe cine sau ce ai călca mai degrabă – persoanele care traversează pe roșu sau cele care traversează pe verde, trei alergători sau doi copi, o barieră de beton sau un pieton bătrân?
Proiectul ce stârnește dileme morale a reușit să strângă 18 milioane de voturi de la 1,3 milioane de oameni, potrivit The Outline. Ariel Procaccia, profesor asistent la departamentul de științe a computerelor de la Carnegie Mellon University și Iyad Rahawan, unul din cercetătorii MIT care au creat site-ul Moral Machine, alături de alți cercetători de la ambele universități, au inventat o formă de inteligență artificială care va evalua situațiile când o mașină autonomă poate omorî un om, în funcție de voturile de pe site.
Cu toate astea, există un număr infinit de combinații de pietoni, la care inteligența artificială ar trebui să intuiască ce ar răspunde un om. Capacitatea intuitivă a mașinilor devine însă din ce în ce mai bună, motiv pentru care Procaccia nu își face griji cu privire la algoritmul dezvoltat de el și echipa sa. Întregul proiect reflectă interesul cercetătorilor de a crea algoritmi capabili să ia decizii etice în conformitate cu judecățile morale ale oamenilor obișnuiți.
Problema cu o formă de inteligență artificială antrenată să știe pe cine să omoare în situații limită vine de la limitările sale. Mai exact, codurile etice diferă de la un grup la altul. Chestionarul Moral Machine desfășurat în mediul online ia în considerare doar opiniile oamenilor care au acces la internet și care prezintă un interes asupra subiectului, nu și a altora. Mai mult, aceleași date pot fi interpretate diferit de la un algoritm la altul. Tehnica de crowdsourcing “nu face inteligența artificială etică”, conform lui James Grimmelmann, un profesor de la Cornell Law School. “Face inteligența artificială etică sau imorală în același mod în care foarte mulți oameni sunt etici sau imorali”, a spus el.
Dacă mașinile autonome ar putea fi un agent moral bun rămâne discutabil. Dacă uneori, acestea vor lua decizii la obiect – între a omorî un om sau doi, va alege prima variantă, în alte situații va oglindi prejudecățile societății – dintre un doctor și un om fără adăpost, cel din urmă nu va supraviețui.