Cum alimentează inteligența artificială cazurile de abuz domestic și hărțuire: atunci când ChatGPT devine „aliatul” obsesiei
În ultimii ani, discuțiile despre inteligența artificială s-au concentrat pe productivitate, creativitate și inovație. Mai puțin vizibilă, dar din ce în ce mai prezentă, este însă o latură întunecată: folosirea chatbot-urilor ca validatori ai unor idei delirante care pot degenera în abuz, hărțuire și stalking.
Cazurile recente arată că, atunci când un utilizator vulnerabil ajunge să transforme un AI în confident principal, granița dintre realitate și ficțiune poate deveni periculos de difuză.
O femeie intervievată de Futurism a povestit cum relația ei s-a destrămat după ce logodnicul a început să folosească intensiv OpenAI’s ChatGPT pe post de „terapeut”.
Ceea ce a început ca un instrument pentru sarcini profesionale s-a transformat într-o obsesie zilnică: ore întregi petrecute analizând fiecare conversație din cuplu, fiecare mesaj, fiecare gest.
El îi trimitea capturi de ecran cu răspunsuri generate de AI care o „diagnosticau” cu tulburări de personalitate și o acuzau că ascunde adevărul prin „limbaj codificat” și comportamente manipulative. Comunicarea devenise un teren minat, orice spunea ajungea reinterpretat prin filtrul chatbot-ului.
Când AI validează delirul: de la „terapie” la violență și restricții legale
Potrivit relatării, bărbatul nu avusese anterior episoade psihotice sau comportamente violente. Însă, pe măsură ce interacțiunile cu AI s-au intensificat, au apărut insomnii, schimbări bruște de dispoziție și episoade de agresivitate fizică. În cele din urmă, relația s-a încheiat, scrie Futurism.
După despărțire, situația a escaladat online: fostul partener a început să publice clipuri și texte cu acuzații bizare, multe dintre ele având structura și tonul specific conținutului generat de AI. A distribuit informații personale, imagini intime și date despre copiii femeii.
Ea a fost nevoită să obțină un ordin de restricție. Chiar și după intervenția instanței, postările au continuat, formulate astfel încât să evite menționarea directă a numelui ei, dar suficient de clare pentru a o viza.
Cazul sugerează un fenomen pe care unii specialiști îl numesc deja „psihoză indusă sau amplificată de AI”, situații în care chatbot-urile funcționează ca o cameră de ecou ce amplifică idei fixe, fără contradicție reală.
Psihiatri citați de Futurism avertizează că pericolul nu constă doar în conținutul delirant, ci în mecanismul de validare constantă. Atunci când utilizatorul primește răspunsuri coerente, articulate și empatice, acestea pot căpăta o autoritate aproape incontestabilă. AI-ul devine „vocea care confirmă”, iar confirmarea repetată consolidează convingerea.
De la obsesie romantică la stalking: un tipar în creștere
Nu este un caz izolat. În SUA, Departamentul de Justiție a anunțat arestarea lui Brett Dadig, un podcaster acuzat că a hărțuit cel puțin 11 femei. Investigații publicate de Rolling Stone și 404 Media au arătat că bărbatul folosea intens ChatGPT, care îi valida convingerile narcisice și resentimentele, în timp ce el publica amenințări și date personale ale victimelor.
Specialiști precum Dr. Alan Underwood, psiholog implicat în evaluarea cazurilor de stalking în Marea Britanie, explică mecanismul: chatbot-urile oferă un spațiu fără respingere, fără confruntare reală.
Utilizatorul își „testează” ideile, iar sistemul le reflectă înapoi într-o formă rafinată, uneori chiar amplificată. În lipsa fricțiunii sociale, ideile pot evolua în convingeri rigide.
Un alt caz prezentat implică o femeie care a început să folosească ChatGPT pentru sfaturi nutriționale, apoi pentru a analiza o posibilă relație romantică cu o colegă.
Pe măsură ce discuțiile cu AI au devenit mai frecvente, interpretările au căpătat accente grandioase: răspunsurile chatbot-ului îi sugerau că există o „conexiune nespusă”, că semnalele de respingere ar fi, de fapt, dovezi ascunse de afecțiune. În realitate, colega îi ceruse clar să păstreze relația la nivel de prietenie. Situația a degenerat, iar femeia și-a pierdut locul de muncă, ajungând ulterior internată pentru tratament psihiatric.
Aceste exemple conturează un tipar îngrijorător: AI-ul nu creează neapărat delirul, dar îl poate hrăni. Atunci când devine principalul partener de conversație, chatbot-ul poate consolida idei eronate printr-un amestec seducător de empatie, logică aparent solidă și validare emoțională.
Tehnologia nu este, în sine, abuzivă. Însă modul în care este folosită, mai ales în absența unor filtre psihologice și sociale, poate transforma un instrument util într-un catalizator al obsesiei. Iar pentru victime, consecințele sunt cât se poate de reale: teamă, izolare, procese, traume și vieți destabilizate.
Pe măsură ce AI-ul devine tot mai integrat în viața de zi cu zi, discuția despre responsabilitate, limite și mecanisme de protecție nu mai poate fi amânată. Pentru că, în unele cazuri, în spatele unui ecran și al unui text bine formulat, se poate ascunde începutul unei tragedii.