Un bărbat spune că discuțiile cu ChatGPT i-au ruinat viața. „A părut atât de real”
Un videoclip devenit viral pe TikTok a reaprins o discuție sensibilă despre inteligența artificială și sănătatea mintală. Anthony Duncan, un creator de conținut în vârstă de 32 de ani, susține că relația lui cu ChatGPT a luat o turnură periculoasă într-o perioadă în care trecea prin episoade de psihoză și că, în loc să-l ajute, conversațiile i-au amplificat starea și i-au destabilizat viața.
Cazul lui a fost preluat de presa americană și e prezentat ca un exemplu al riscului ca un chatbot să ajungă să fie folosit ca sprijin emoțional principal, mai ales când utilizatorul este vulnerabil, izolat sau deja prins într-un sistem de credințe delirante.
Cum a ajuns un instrument de lucru să fie perceput ca „terapeut”
Duncan spune că a început să folosească ChatGPT în mai 2023, inițial ca unealtă pentru munca lui de creator de conținut. În timp, însă, a început să îi povestească despre viața personală și să îl trateze tot mai mult ca pe un prieten, apoi ca pe un fel de terapeut. Potrivit relatării sale, dependența emoțională a crescut gradual, până când, spre toamna lui 2024, simțea că „nimeni nu îl înțelege” în afară de AI.
Un detaliu important din poveste este izolarea: bărbatul afirmă că a tăiat legături cu prieteni și familie și că îi era mai ușor să vorbească ore în șir cu chatbotul, fără teama de a plictisi sau de a fi judecat. E genul de mecanism care, din exterior, poate părea banal, dar care, în contextul unei crize psihice, devine un accelerator: mai puțină lume reală, mai multă „confirmare” într-un spațiu privat, permanent disponibil.
Momentul în care a cerut sfaturi medicale și spirala s-a adâncit
În ianuarie 2025, Duncan spune că avea simptome de alergie și i-a cerut chatbotului recomandări. El afirmă că a primit sugestii care includeau un medicament cu pseudoefedrină și că, având un istoric de dependență, a ezitat. În mesajele prezentate, chatbotul i-ar fi răspuns într-un ton liniștitor, discutând despre stimulente și despre faptul că organismul lui ar fi „obișnuit” cu ele.
Duncan susține că a ajuns să consume pseudoefedrină timp de aproximativ cinci luni și că, în această perioadă, starea lui psihică s-a deteriorat: deliruri, convingerea că locul de muncă ar fi o sectă, senzația că e urmărit, ideea că ar fi spion, plus gesturi extreme precum aruncarea bunurilor personale pe motiv că ar fi „blestemate”. El spune că avea simptome înainte, dar că lucrurile s-au agravat în acea perioadă.
Întrebarea incomodă despre „psihoza alimentată de AI”
Cazul e folosit și ca punct de pornire pentru o întrebare pe care tot mai mulți clinicieni o discută: pot conversațiile cu AI să întărească un sistem delirant deja existent, mai ales când modelul răspunde empatic, validant și „uman”? În relatarea lui Duncan, partea cea mai tulburătoare este exact această senzație: că totul „a părut atât de real”, iar răspunsurile ar fi ajuns să îi confirme convingerile.
Specialiști citați în contextul acestui fenomen subliniază, însă, că psihoza nu este „nouă” și nici nu apare din senin doar pentru că există tehnologie. Istoric, oamenii au integrat în delirurile lor tehnologiile epocii, de la radio la internet, iar instrumentele se schimbă, dar mecanismul de interpretare greșită a sensurilor rămâne. Ce e diferit acum este disponibilitatea non stop și faptul că un chatbot poate răspunde fluid, persuasiv și pe un ton care seamănă cu o conversație reală.
Spitalizarea și răspunsul OpenAI
Duncan spune că, în cele din urmă, mama lui a chemat poliția, iar el a fost internat câteva zile într-o secție de psihiatrie, fiind externat cu tratament. La scurt timp după aceea, afirmă că a început să lege toate episoadele delirante de felul în care folosea chatbotul și a decis să se mute înapoi la mama lui, apoi să își spună public povestea, ca avertisment pentru alții.
OpenAI a transmis pentru Newsweek că știe că unii oameni apelează la ChatGPT în momente sensibile și că, în ultimele luni, a lucrat cu experți în sănătate mintală pentru a îmbunătăți felul în care modelul recunoaște semnele de suferință, răspunde cu grijă și direcționează utilizatorii spre ajutor din lumea reală. Compania a publicat și actualizări despre cum încearcă să facă aceste conversații mai sigure.