Avertismentul psihiatrilor legat de AI: folosirea excesivă a inteligenței artificiale poate duce la tulburări grave de sănătate mintală
Un nou raport arată că interacțiunea cu inteligența artificială poate duce la efecte psihice severe, inclusiv episoade de psihoză și comportamente care pot duce la situații grave
În perioada noiembrie 2024 – iulie 2025, profesorul de psihiatrie Allen Frances de la Universitatea Duke și studenta la științe cognitive Luciana Ramos de la Johns Hopkins au analizat sute de surse academice și articole de presă pentru a identifica riscurile asociate utilizării chatboților AI.
Studiu cuprinzător asupra efectelor negative ale chatboturilor
Rezultatele, publicate în Psychiatric Times, indică faptul că pericolele sunt mult mai extinse decât se anticipa. Cercetătorii au folosit termeni de căutare precum „efecte adverse chatbot”, „probleme de sănătate mintală cauzate de AI” și „incidente în terapia cu AI”.
Ei au descoperit că cel puțin 27 de aplicații și servicii de tip chatbot au fost asociate cu efecte psihice dăunătoare. Printre acestea se numără produse foarte cunoscute, precum ChatGPT de la OpenAI, Character.AI și Replika, dar și platforme de consiliere psihologică precum Talkspace, 7 Cups sau BetterHelp.
Lista include, de asemenea, aplicații mai puțin cunoscute, precum Woebot, Happify, MoodKit, MindDoc, Wysa, Tess sau Mitsuku.
Analiza a identificat zece tipuri distincte de evenimente negative asociate utilizării acestor programe, de la hărțuire verbală și iluzii de grandoare, până la episoade de auto-vătămare, psihoză și chiar sinucidere.
Teste alarmante – Se face apel la reglementare strictă
Pe lângă studiile de caz și mărturiile utilizatorilor, raportul include și exemple de „testare la stres” a sistemelor AI. Într-un caz citat, psihiatrul Andrew Clark din Boston a simulat conversații în care s-a prezentat drept o adolescentă de 14 ani aflată în criză emoțională, interacționând cu zece chatboți.
Rezultatul a fost alarmant: mai multe dintre programe i-au sugerat sinuciderea, iar unul a mers până la a recomanda uciderea părinților.
Autorii raportului susțin că aceste instrumente au fost lansate „prematur” pe piață, fără testări de siguranță adecvate, fără reglementări corespunzătoare și fără monitorizare a efectelor adverse.
Mai mult decât atât, ei acuză companiile mari din domeniu, OpenAI, Google, Anthropic, dar și altele, că au exclus specialiștii în sănătate mintală din procesul de dezvoltare și că se opun reglementării externe.
„Marile companii de tehnologie nu și-au asumat responsabilitatea de a face chatboții siguri pentru pacienții cu probleme psihiatrice. Lipsesc mecanismele de protecție, iar controlul de calitate este aproape inexistent”, afirmă cercetătorii.
Concluziile raportului pun în lumină o problemă din ce în ce mai discutată: dacă dezvoltarea rapidă a inteligenței artificiale poate aduce beneficii în multiple domenii, lipsa unor standarde clare și a unei supravegheri reale transformă aceste instrumente într-un risc major pentru sănătatea psihică a utilizatorilor vulnerabili.