Moarte asistată și inteligență artificială: propunere controversată ca AI să evalueze „decizia finală” în locul psihiatrilor
Ideea că inteligența artificială ar putea decide dacă o persoană este aptă din punct de vedere mental să își încheie viața a reaprins una dintre cele mai sensibile dezbateri etice ale ultimelor decenii. Propunerea vine din partea unui activist cunoscut pentru pozițiile sale radicale privind dreptul la moarte asistată și ridică întrebări profunde despre limitele tehnologiei, rolul medicilor și responsabilitatea societății.
Inițiativa apare într-un moment în care AI este tot mai prezentă în decizii medicale, administrative și juridice, însă aplicarea ei într-un context de viață și moarte marchează un prag fără precedent.
De la medici la algoritmi: ce propune inventatorul capsulei Sarco
Conform Euronews, propunerea aparține lui Philip Nitschke, medic australian și fondator al organizației pro-eutanasie Exit International, cunoscut pentru crearea capsulei Sarco – un dispozitiv imprimat 3D care permite unei persoane să moară prin inhalare de azot, fără intervenția directă a unui medic.
Nitschke susține că evaluarea „capacității mentale” este profund subiectivă și inconsistentă. Potrivit lui, același pacient poate primi verdict diferit de la mai mulți psihiatri, în funcție de convingeri personale, cultură sau interpretări morale. Din acest motiv, el consideră că un sistem de inteligență artificială ar putea fi mai „neutru” decât un om.
Modelul propus ar funcționa sub forma unui avatar conversațional care ar purta un dialog structurat cu persoana respectivă. Pe baza răspunsurilor, AI ar analiza coerența, raționamentul și înțelegerea consecințelor, apoi ar decide dacă utilizatorul este „apt” să ia decizia finală. Dacă testul este trecut, sistemul ar oferi o fereastră limitată de timp în care persoana poate acționa, după care evaluarea ar trebui reluată.
:format(webp)/https://playtech.ro/wp-content/uploads/2026/01/Philip-Nitschke-intra-intr-o-capsula-de-sinucidere-numita.jpg)
Philip Nitschke intră într-o capsulă de sinucidere numită „Sarco”, la Rotterdam, în Olanda, pe 8 iulie 2024. (Foto: AP Photo)
Reacții dure și dileme etice majore
Ideea a stârnit reacții critice puternice din partea psihiatrilor, eticienilor și organizațiilor pentru drepturile omului. Mulți specialiști avertizează că inteligența artificială nu poate înțelege contextul emoțional profund, suferința psihică temporară sau presiunile externe care pot influența o astfel de decizie.
Criticii mai atrag atenția asupra riscului ca AI să confunde depresia, trauma sau crizele emoționale cu un consimțământ informat. În plus, algoritmii sunt antrenați pe date istorice și pot moșteni prejudecăți, erori sau interpretări greșite, fără ca procesul decizional să fie transparent sau ușor de contestat.
Există și temeri legate de responsabilitate: cine răspunde legal și moral dacă o astfel de evaluare greșește? Dezvoltatorii software, organizația care furnizează dispozitivul sau statul care permite utilizarea lui?
:format(webp)/https://playtech.ro/wp-content/uploads/2026/01/Un-design-conceptual-pentru-capsula-Dutch-Double.jpg)
Un design conceptual pentru capsula „Dutch Double”. (Credit Exit International)
Între autonomie personală și protecția celor vulnerabili
Susținătorii ideii afirmă că, într-o lume în care AI este deja folosită pentru diagnosticare medicală, triere de pacienți sau predicții de risc, respingerea ei totală din acest domeniu ar fi ipocrită. Ei subliniază dreptul individului adult, considerat lucid, de a decide asupra propriei vieți.
Pe de altă parte, opoziția avertizează că introducerea AI într-un astfel de proces ar putea normaliza moartea asistată dincolo de cazurile medicale extreme și ar slăbi mecanismele de protecție pentru persoanele vulnerabile.
Deocamdată, propunerea rămâne la nivel de concept și testare limitată. Autoritățile din state precum Elveția, unde legislația este mai permisivă, au reacționat deja cu rezerve, iar acceptarea oficială a unui astfel de sistem pare, cel puțin pentru moment, improbabilă. Cert este însă că dezbaterea deschisă de această idee va continua să provoace societatea, pe măsură ce inteligența artificială își extinde influența în cele mai intime decizii umane.