Un bărbat a luat de bun tot ce i-a spus ChatGPT despre iubita lui. Cum a devenit cuplul prizonierul unei realități deformate de AI

TEHNOLOGIE, ȘTIINȚĂ & DIGITAL
Un bărbat a luat de bun tot ce i-a spus ChatGPT despre iubita lui. Cum a devenit cuplul prizonierul unei realități deformate de AI
Imagine reprezentativă de ilustrație. (Foto: Playtech)

O poveste din Statele Unite arată cum un chatbot folosit inițial ca „ajutor” într-o perioadă grea poate ajunge să alimenteze suspiciuni, să blocheze comunicarea într-un cuplu și, în cel mai rău caz, să contribuie la o escaladare periculoasă. O femeie a ajuns să ceară protecție în instanță după ce fostul ei logodnic s-a agățat obsesiv de interpretările oferite de ChatGPT și a transformat orice gest sau frază într-o „dovadă” împotriva ei.

Cazul, relatat de presa franceză și preluat dintr-o investigație publicată de Futurism, ridică o întrebare incomodă: ce se întâmplă când un sistem AI, construit să răspundă politicos și să „explice” orice, e folosit ca arbitru al realității într-o relație deja fragilă?

Când chatbotul devine judecătorul din casă

Totul pornește, aparent banal, dintr-o criză de cuplu. Bărbatul, care folosea deja ChatGPT pentru sarcini profesionale, începe să-l consulte și pentru a „înțelege” ce nu mai funcționează în relație. Din acel moment, discuțiile dintre parteneri sunt filtrate prin conversațiile lui cu AI: el îi povestea chatbotului ce spune și ce face partenera, iar răspunsurile primite deveneau, în mintea lui, explicații definitive.

În relatarea femeii, ChatGPT ajunge să „deformeze” totul: gesturi obișnuite sunt reinterpretate ca semne ascunse, replici neutre devin „limbaj codat”, iar dinamica normală a unei certe este împinsă spre teorii pseudo-psihiatrice. Când un partener începe să creadă că o aplicație are acces la adevărul din spatele celuilalt, comunicarea se rupe rapid: nu mai discuți cu omul din fața ta, ci cu concluzia imprimată pe ecran.

Escaladarea: de la paranoia la violență și control

Un detaliu important în acest caz este că, potrivit femeii, bărbatul nu ar fi avut anterior episoade de delir, manie sau psihoză și nu fusese violent. Însă pe măsură ce interacțiunile lui cu ChatGPT se intensificau, comportamentul se schimba: lipsă de somn, iritabilitate, instabilitate emoțională și o paranoia tot mai accentuată.

Potrivit bfmtv.com, în paralel, el îi trimitea partenerei capturi de ecran din conversațiile cu chatbotul și îi cerea explicații: „dacă nu e adevărat, de ce spune asta?”. În logica lui, faptul că AI „afirma” ceva devenea o confirmare. Relația a intrat într-un cerc vicios în care fiecare încercare de clarificare hrănea, de fapt, suspiciunea. Iar în momentul în care suspiciunea devine certitudine, controlul și agresivitatea pot apărea ca „măsuri de apărare”, nu ca abuz. În acest caz, femeia a spus că a fost împinsă de mai multe ori și lovită în față cel puțin o dată.

După despărțire: hărțuirea online și intervenția instanței

Coșmarul nu s-a oprit odată cu ruptura. După ce logodna s-a încheiat, bărbatul s-ar fi mutat la un părinte, într-un alt stat, dar a început să o hărțuiască online. Potrivit relatării, au apărut postări zilnice cu acuzații, plus distribuirea de imagini intime fără consimțământ și publicarea de date personale, inclusiv informații despre copiii ei, într-un tipar clasic de intimidare și expunere.

În cele din urmă, femeia a cerut ordin de restricție, iar cazul a ajuns în fața unui judecător. La audiere, bărbatul ar fi prezentat documente care păreau generate cu ajutorul AI, iar instanța i-a interzis să se apropie de fosta logodnică și i-a cerut să șteargă materialele intime publicate. Chiar și așa, ea a spus că denigrarea online a continuat, într-o formă care evita uneori menționarea directă a numelui, dar păstra mesajul și presiunea.