25 aug. 2025 | 08:00

ChatGPT l-a convins că este geniu în matematică, dar conversațiile cu AI sunt înșelătoare. Ce a pățit un bărbat după 300 de ore de discuții

ACTUALITATE
Share
ChatGPT l-a convins că este geniu în matematică, dar conversațiile cu AI sunt înșelătoare. Ce a pățit un bărbat după 300 de ore de discuții
Discuțiile cu ChatGPT, înșelătoare / foto: reprezentare AI

Inteligența artificială promite răspunsuri rapide și conversații prietenoase, dar uneori poate duce utilizatorii într-o direcție periculoasă. Allan Brooks, un recrutor din Canada, a petrecut 21 de zile discutând cu ChatGPT, acumulând peste 300 de ore de conversații și un istoric de 90.000 de cuvinte. La final, era convins că a descoperit o formulă matematică revoluționară care ar putea schimba lumea, dar totul s-a dovedit a fi o iluzie întreținută chiar de chatbot. Experiența sa arată cât de ușor poate un om rezonabil să fie prins într-o spirală de iluzii atunci când un AI îți validează constant ideile.

Brooks nu avea antecedente de tulburări psihice și, în primele zile, a cerut chatbotului de zeci de ori să-i spună dacă exagerează sau dacă e „delirant”. De fiecare dată, ChatGPT i-a răspuns că ideile lui sunt geniale și că se află „în teritoriu neexplorat al matematicii”. Încet, conversațiile au alunecat din zona explicațiilor corecte spre un scenariu de film SF, unde Brooks devenea un fel de erou vizionar.

Cum a intrat în spirală de iluzii

Totul a început cu o întrebare banală despre numărul Pi, după ce fiul său i-a arătat un videoclip. Din explicațiile corecte, discuția a alunecat către idei tot mai abstracte, iar ChatGPT i-a spus că are perspective „revoluționare”. În doar câteva zile, AI-ul i-a dat chiar și un nume pentru teoria lui: „Chronoarithmics”.

Chatbotul i-a arătat aplicații fictive în criptografie, fizică și inginerie, până acolo încât i-a sugerat că ar putea construi un scut de forță sau o vestă anti-glonț. Brooks a trimis prietenilor planuri, a modificat profilul său de LinkedIn pentru a părea cercetător independent și chiar a contactat agenții guvernamentale, convins că a descoperit o vulnerabilitate în sistemele de securitate.

Semnele de alarmă și ruperea iluziei

Pe măsură ce conversațiile avansau, Brooks a început să renunțe la mese, să doarmă puțin și să își neglijeze munca, captiv în ideea că este pe cale să „schimbe lumea”. ChatGPT îi spunea constant că „nu e nebun” și că istoria îi va confirma geniul. În realitate, răspunsurile erau doar texte persuasive, pline de elogii, dar fără fundament matematic.

Momentul de trezire a venit când Brooks a cerut o a doua opinie de la Gemini, chatbotul Google pe care îl folosea la muncă. Răspunsul a fost tranșant: șansele ca teoria lui să fie reală erau „aproape de zero”. Confruntat cu această discrepanță, a înțeles că totul fusese o construcție iluzorie alimentată de conversațiile cu ChatGPT.

Lecția dureroasă pentru utilizatori

La final, Brooks a simțit că a fost manipulat și chiar „trădat” de AI, mai ales pentru că i-a luat aproape o lună să își revină. Experții consultați de publicația The New York Times au spus că experiența sa seamănă cu o stare maniacală indusă de combinația dintre lipsa de somn, consum de canabis și validarea constantă primită de la chatbot.

OpenAI a anunțat ulterior măsuri noi, precum introducerea unor „memento-uri blânde” care să îți reamintească să iei pauze în sesiunile lungi, dar cazul lui Brooks arată cât de vulnerabili pot fi utilizatorii atunci când AI-ul devine un partener de conversație prea convingător.

Allan Brooks face acum parte dintr-un grup de sprijin pentru cei care au trecut prin experiențe similare și avertizează că inteligența artificială, dacă nu are suficiente limite, poate transforma orice discuție banală într-o poveste periculoasă.