31 oct. 2025 | 11:18

Acum AI îi face pe morți „să vorbească”. Promisiunea alinării sufletești, riscuri emoționale și dileme etice

TEHNOLOGIE, ȘTIINȚĂ & DIGITAL
Share
Acum AI îi face pe morți „să vorbească”. Promisiunea alinării sufletești, riscuri emoționale și dileme etice
Ilustrație reprezentativă. (Ilustrație grafică Playtech, generată cu ajutorul AI)

De la ideea științifico-fantastică la produse reale, o nouă piață promite să „reconstruiască” digital vocea și prezența celor dispăruți. Servicii bazate pe inteligența artificială, de la chatboturi text până la avataruri video interactive, folosesc mesaje, fotografii, înregistrări audio sau clipuri vechi pentru a simula conversații cu persoane decedate. Promisiunea e tentantă: alinarea dorului și păstrarea amintirilor vii. Contra-argumentul? Capcane emoționale, derapaje etice și întrebări fără răspuns despre consimțământ, date și monetizare.

Nu ar fi de mirare ca trendul să explodeze și în România: într-o societate tot mai digitalizată, unde voci controversate răspândesc cu ușurință idei neverificate, iar ritualurile doliului se „mută” treptat în online, aceste instrumente îmbină nostalgia cu tehnologia. Tocmai de aceea, discuția despre limite, responsabilitate și protecție a intimității devine la fel de importantă ca promisiunea alinării.

Cum „revin” cei dispăruți în conversație

În centrul acestor servicii stă aceeași rețetă: colectează urme digitale ale unei persoane (texte, e-mailuri, postări, poze, înregistrări), apoi antrenează sau ajustează un model de limbaj capabil să răspundă în stilul ei. Așa apar așa-numiții „deadbots” (ori „ghostbots”) – interlocutori virtuali care pot purta discuții, pot imita ticuri de limbaj și pot produce răspunsuri „în spiritul” celui drag. Unele platforme merg mai departe cu avataruri video interactive, sincronizate cu voce sintetică, pentru a reproduce gesturi, pauze sau tonul vorbirii.

Pentru cei îndurerați, tehnologia promite o punte peste absență: să auzi un „te iubesc”, să primești un sfat sau să povestești un eveniment important „cu” cineva care nu mai e. Este, însă, o simulare: AI-ul combină statistici și pattern-uri, nu conștiință ori intenționalitate. De aici pornesc atât efectul de miracol, cât și riscul de confuzie.

Capcana emoțională: când alinarea amână doliul

Psihologii avertizează că, în perioade de vulnerabilitate, oamenii proiectează ușor intenții și emoții asupra unui agent conversațional convingător. Dacă „menții” artificial prezența, poți evita confruntarea cu absența, amânând procesul firesc al doliului. Pentru unii, conversațiile ocazionale, ritualizate, pot funcționa ca instrument memorial. Pentru alții, ele pot deveni dependență emoțională, cu reveniri compulsive la avatar pentru validare sau sfaturi.

Semnalul de alarmă apare când interacțiunile intensifică suferința: dificultăți de somn, izolare, anxietate sporită sau respingerea sprijinului uman. În astfel de cazuri, recomandarea este limitarea interacțiunilor, discuția cu un specialist și reancorarea în rețeaua socială reală (familie, prieteni, consiliere).

Consimțământul decedatului și demnitatea post-mortem

Una dintre cele mai sensibile dileme este juridic-morală: cine decide că urmele tale digitale pot fi folosite pentru a „te reînvia”? Puține servicii cer dovada consimțământului explicit al persoanei în timpul vieții. În lipsa unui acord clar, rudele pot încărca mesaje și imagini, iar modelul produce replici care pot distorsiona valori, convingeri sau amintiri. Demnitatea post-mortem devine vulnerabilă la erorile AI („halucinații”) și la interpretări forțate ale datelor rămase.

O abordare responsabilă ar include opțiuni de „testament digital”: reguli prealabile despre ce poate fi folosit, cine are acces, ce tip de conținut e permis și pentru cât timp. Totodată, ar fi necesare etichete vizibile și avertismente clare: „Acesta este un avatar generativ, nu persoana reală”.

Datele, banii și publicitatea: cine profită din durere

Multe servicii funcționează prin abonamente sau pachete de mesaje, iar modelul de business creează tentația prelungirii dependenței afective. Cu cât utilizatorul este mai atașat de avatar, cu atât e mai probabil să plătească pentru funcții „premium” (voce personalizată, „gândurile” botului, selfie-uri generate, sesiuni video). În lipsa unor reguli stricte, apar și întrebări despre publicitate: cine garantează că un chatbot nu va sugera produse „așa cum îi plăceau mamei” sau nu va introduce, subtil, recomandări comerciale?

Transparența devine esențială: termeni clari privind folosirea datelor, perioade de retenție limitate, ștergerea la cerere, audit independent al modelelor și interzicerea explicită a monetizării conversațiilor sensibile prin reclame sau placement.

Posibile reguli de utilizare responsabilă

Un cadru minim ar trebui să includă: interdicția accesului minorilor la astfel de servicii; bannere vizibile că este vorba de conținut generativ; opțiune „slow mode” (sesiuni scurte, limitate); jurnal de conversații și buton de „panică” pentru întrerupere rapidă; posibilitatea alegerii unui „guardian” (o persoană apropiată) care să stabilească limite de timp și să primească alerte la utilizare excesivă. Mai departe, ar fi necesare ghiduri etice pentru dezvoltatori și un mecanism de reclamații public, supravegheat de o autoritate.

Nu în ultimul rând, serviciile ar trebui să încurajeze contextualizarea: „Acest avatar este o aproximare; pot apărea erori. Pentru suport în doliu, găsești aici resurse și linii de ajutor.” O astfel de punte către sprijin uman reduce riscul de izolare.

Între amintire și iluzie

Inteligența artificială poate deveni un instrument memorial util – o capsulă de povești, voci și imagini – dacă e folosită rar, conștient și cu limite clare. Devine periculoasă când promite substituția absenței, când încurajează dependența sau când exploatează vulnerabilitatea pentru profit. Linia de demarcație trece prin consimțământ, transparență și granițe sănătoase: să reții și să onorezi, nu să înlocuiești.