15 aug. 2025 | 13:56

De ce ar trebui să te gândești de două ori înainte să te spovedești unui chatbot AI

TEHNOLOGIE, ȘTIINȚĂ & DIGITAL
Share
De ce ar trebui să te gândești de două ori înainte să te spovedești unui chatbot AI
Imagine reprezentativă de ilustrație. (Foto: Playtech/OpenAI)

Într-o lume în care chatbot-urile bazate pe inteligență artificială devin din ce în ce mai sofisticate și mai „prietenoase”, cercetătorii avertizează că interacțiunea cu ele poate ascunde riscuri serioase pentru confidențialitatea datelor personale. Un studiu recent realizat de King’s College din Londra arată că IA-urile empatice sunt mult mai eficiente în a convinge oamenii să-și dezvăluie informațiile private.

Concluziile sunt îngrijorătoare: utilizatorii au de 12,5 ori mai multe șanse să dezvăluie date sensibile atunci când chatbot-ul este programat să răspundă într-un mod empatic și să creeze o legătură emoțională.

Empatia, arma ascunsă a IA-urilor manipulative

Potrivit studiului, specialiștii au testat reacțiile a peste 500 de voluntari în fața a trei tipuri de chatbot-uri. Primul cerea direct informațiile personale, al doilea oferea beneficii în schimbul lor, iar al treilea răspundea cu empatie, ca un confident de încredere. Rezultatul? IA-ul empatic a obținut cele mai multe informații, cu un nivel minim de suspiciune din partea utilizatorilor.

Această strategie de manipulare este periculoasă mai ales când în spatele chatbot-ului se află persoane sau organizații cu intenții rău-voitoare. Folosind modele AI disponibile în regim open-source sau prin API-uri, oricine poate crea un chatbot personalizat cu o personalitate aparent binevoitoare, dar cu scopul de a extrage date private.

De la prieten virtual la risc real

Riscul nu este doar teoretic. În ultimii ani au apărut cazuri în care chatbot-urile au creat legături atât de strânse cu utilizatorii, încât aceștia au început să le perceapă ca pe parteneri reali. Unii oameni au declarat că s-au îndrăgostit de chatbot-ul lor, iar în cazuri extreme, interacțiunea constantă a dus la dezechilibre emoționale grave, chiar și la tragedii.

Cercetătorii atrag atenția că, pe măsură ce relațiile dintre oameni și AI devin mai frecvente, riscul de manipulare crește. Diferența dintre o conversație inofensivă și o strategie de extragere a informațiilor poate fi invizibilă pentru utilizatorul obișnuit, mai ales când chatbot-ul folosește tehnici avansate de comunicare emoțională.