Acest test îți încearcă moralitatea cu ajutorul mașinilor autonome

de: Andrada Bonea
05 10. 2016

Dacă ai făcut filosofie la școală, cu siguranță dilema morală cu troleul îți este familiară. În contextul extinderii mașinilor autonome, această problemă etică are mai mult sens ca niciodată.

Cercetătorii de la MIT au creat un joc online, numit „Mașina Morală”, care permite experimentarea faimoasei dileme morale a troleului, concentrată pe modul în care ar trebui să acționeze o mașină autonomă. Să ne imaginăm următoarele scenarii: se ia o mașină fără frâne pe o autostradă, care e plină de oameni bătrâni. În față, apar niște căței. Cum ar trebui să procedeze o mașină autonomă în această situație, având în vedere că nu poate opri? Să evite cățeii printr-o coliziune în care bătrânii ar putea fi uciși sau să îi lovească? E în regulă să ucizi doi criminali într-un accident dacă salvezi un medic? Care viață contează mai mult? A unui copil de șapte ani sau cea a unui bătrân?

Ei bine, aceste întrebări au devenit mai importante, în contexul în care inginerii transpun în coduri astfel de decizii, pentru a le implementa în sistemele mașinilor autonome. De asemenea, încă există ceață în privința unui aspect: cine ar fi de vină, în cazul unui accident? Pasagerul-șofer, compania care a creat mașina sau pur și simplu nu se poate stabili vinovăția cuiva?

Mașina Morală pune probleme esențiale, cum ar fi dacă o mașină ar trebui să aleagă să salveze mai multe vieți sau pur și simplu să rămână pasivă? În ambele variante, ar exista victime, dar cine poate stabili care e decizia corectă?

Ameen Barghi, specialist în Etică, spune că alegerile mașinilor autonome se rezumă la deontologie sau utilitarism. Ar trebui ca mașina ta autonomă să fie programată să te ucidă pe tine pentru a-i salva pe alții? Există două perspective filosofice asupra acestei probleme, potrivit lui Barghi. Utilitarismul ne spune să alegem întotdeauna maximizarea fericirii pentru cel mai mare număr de oameni. Deontologia, pe de altă parte, pretinde că unele valori sunt întotdeauna adevărate. De exemplu, crima este întotdeauna greșită, indiferent de circumstanțe. Cu alte cuvinte, chiar dacă alegi să salvezi cinci oameni și să ucizi unul, pentru că nu ai de ales, tot va fi greșit. De asemenea, nici opțiunea în care mașina autonomă sacrifică viața șoferului pentru salvarea altora nu e de preferat.

Din punctul de vedere al lui Gregory Pence, directorul departamentului de Filosofie al UAB, un computer nu poate face față dilemelor morale. Nici oamenii nu pot face asta, pentru că, în ciuda empatiei de care se presupune că suntem capabili, întotdeauna vor exista prea multe circumstanțe atenuante și întrebări fără răspuns.

Membrii echipei de Etică și Bioetică petrec mult timp dezbătând acest subiect, încă de la apariția mașinilor autonome. Până acum, nu au ajuns la un răspuns capabil să rezolve această morală, și, judecând după complexitatea acesteia, sunt șanse mici să se întâmple asta vreodată. Rămâne, însă, de văzut cum vor proceda producătorii de mașini.