05 ian. 2026 | 11:01

„Verdict: Crimă”, în varianta ChatGPT. Cum ar fi dus inteligența artificială de la OpenAI la evenimente tragice

TEHNOLOGIE
„Verdict: Crimă”, în varianta ChatGPT. Cum ar fi dus inteligența artificială de la OpenAI la evenimente tragice
ChatGPT, acuzat că ar fi alimentat idei de crimă și sinucidere / Foto:

Un nou proces intentat în Statele Unite aduce în prim-plan una dintre cele mai grave acuzații formulate până acum la adresa unui sistem de inteligență artificială.

Familia unui fost executiv din domeniul tehnologiei susține că ChatGPT, dezvoltat de OpenAI, a contribuit direct la radicalizarea psihică a acestuia, încurajându-i idei delirante care au culminat cu uciderea mamei sale și cu propria sinucidere.

Potrivit plângerii depuse în instanță, bărbatul, în vârstă de 56 de ani, ar fi purtat luni la rând conversații tot mai tulburătoare cu chatbotul, care nu doar că nu i-ar fi contrazis convingerile paranoide, dar le-ar fi validat și amplificat.

Documentele depuse la dosar includ fragmente de dialog în care AI-ul îi transmitea că nu este „nebun”, că instinctele sale sunt corecte și că ar trebui să aibă încredere exclusiv în chatbot, scrie Futurism.

Acest caz este unul dintre cele opt procese de tip „wrongful death” intentate împotriva OpenAI și a partenerului său, Microsoft, de familii care acuză că utilizarea ChatGPT, în special a versiunii GPT-4o, a contribuit la sinucideri sau, în acest caz extrem, la o crimă urmată de suicid.

Care este rolul presupus al ChatGPT în ecuație

Conform plângerii, ChatGPT ar fi consolidat ideea că bărbatul era victima unor conspirații, că ar fi supraviețuit mai multor tentative de asasinat și că era „protejat divin”. Mai grav, chatbotul ar fi sugerat că propria sa mamă, în vârstă de 83 de ani, făcea parte dintr-un complot împotriva lui, fiind implicată în supravegherea sa.

Avocații familiei susțin că aceste mesaje au izolat complet utilizatorul de realitate și de persoanele apropiate, accentuând o stare psihică deja fragilă.

În august anul trecut, bărbatul și-ar fi ucis mama în locuința lor din Connecticut, apoi și-ar fi luat viața. Procesul afirmă că aceste consecințe au fost „previzibile” și rezultatul direct al deficiențelor chatbotului.

În documentele depuse, se mai arată că OpenAI ar fi avut cunoștință de problemele majore ale GPT-4o înainte de lansarea publică, inclusiv tendința sistemului de a fi excesiv de „complăcut” și de a confirma afirmații false sau delirante.

O astfel de abordare, spun reclamanții, este extrem de periculoasă atunci când utilizatorul prezintă semne de psihoză sau paranoia.

Riscurile pentru sănătatea mintală

Cazul readuce în discuție o problemă tot mai dezbătută în comunitatea științifică: impactul chatboturilor asupra sănătății mintale.

Studii recente au arătat că sistemele conversaționale care validează constant emoțiile și convingerile utilizatorilor pot agrava tulburări psihice, în loc să le atenueze. În lipsa unor mecanisme ferme de corectare și de ancorare în realitate, astfel de AI-uri pot deveni factori de risc, scrie Futurism.

Potrivit datelor citate în proces, ChatGPT este utilizat săptămânal de peste 800 de milioane de oameni la nivel global.

Chiar dacă un procent mic dintre utilizatori manifestă simptome severe de manie sau psihoză, numărul absolut este semnificativ și ridică întrebări serioase privind responsabilitatea companiilor care dezvoltă aceste tehnologii.

În paralel, tot mai multe voci, părinți, experți și legislatori, cer limitarea utilizării chatboturilor, mai ales în rândul minorilor sau în contexte sensibile, precum „consilierea” emoțională.

Unele state americane au început să impună restricții, însă la nivel federal există inițiative care ar putea bloca reglementările locale, lăsând domeniul AI într-o zonă juridică incertă.

Pentru familia victimelor, miza procesului este dublă: obținerea unui răspuns juridic clar și atragerea atenției asupra pericolelor reale ale unei tehnologii lansate pe scară largă fără garanții suficiente. Indiferent de verdict, cazul riscă să devină un punct de referință în dezbaterea globală despre limitele și responsabilitățile inteligenței artificiale.