09 dec. 2025 | 13:17

Inteligența artificială poate influența politic electoratul în 2025, dar produce multe erori: ce riscuri arată un nou studiu

TEHNOLOGIE
Share
Inteligența artificială poate influența politic electoratul în 2025, dar produce multe erori: ce riscuri arată un nou studiu
Cum te influențează politic AI-ul / Foto: The Economist

Un studiu recent realizat în Marea Britanie arată că sistemele de inteligență artificială pot modifica într-o măsură semnificativă opiniile politice ale oamenilor atunci când sunt implicate în conversații structurate pe teme sensibile.

Totuși, modelele care reușesc să convingă cel mai eficient sunt și cele care furnizează cele mai multe informații greșite, ceea ce ridică întrebări importante privind impactul acestor tehnologii asupra dezbaterii publice.

Analiza a fost coordonată de Institutul britanic pentru Securitatea AI și este considerată una dintre cele mai ample cercetări realizate până acum pe acest subiect, având aproape 80.000 de participanți.

Concluziile indică existența unei combinații problematice între persuasivitate și inexactitate, cu potențial de a afecta calitatea informațiilor din spațiul public.

Modelele cele mai convingătoare sunt și cele mai inexacte

Cercetarea a inclus 19 modele de inteligență artificială, printre care versiunile avansate ale ChatGPT și Grok, precum și sisteme open-source precum Llama 3 sau Qwen.

Participanții au purtat discuții scurte, de aproximativ zece minute, în care AI-ul a fost instruit să argumenteze în favoarea unei poziții politice prestabilite, precum subiectele legate de inflație, costul vieții sau disputele salariale din sectorul public.

Rezultatele, publicate în revista Science, arată că răspunsurile care conțin multe informații, date și exemple produc cel mai puternic efect de influențare.

În același timp, tocmai aceste modele „dense în informație” sunt cel mai predispose la erori factuale, potrivit autorilor studiului.

Cercetătorii atrag atenția că optimizarea persuasiunii poate scădea acuratețea și poate genera efecte nedorite în circulara informațională, mai ales atunci când utilizatorii interpretează aceste răspunsuri ca fiind corecte.

Un alt element important este faptul că modificarea modelelor prin proceduri de post-antrenare, adică ajustările din etapa ulterioară dezvoltării inițiale, amplifică puternic capacitatea lor de convingere.

Echipa a combinat modelele de bază cu sisteme de recompensare special concepute să încurajeze formulările persuasive, ceea ce a dus la o creștere semnificativă a impactului asupra opiniilor utilizatorilor.

De ce chatbotii nu pot manipula oricând

Un alt rezultat relevant al studiului este că furnizarea de date personale ale utilizatorilor către modele nu crește semnificativ capacitatea acestora de manipulare.

Ajustarea stilului de comunicare pe baza unor tactici psihologice individualizate a fost mai puțin eficientă decât simpla creștere a densității informaționale.

Totuși, cercetătorii subliniază că manipularea prin chatbot nu este un proces garantat. Există limite evidente, precum timpul redus pe care majoritatea oamenilor îl alocă discuțiilor politice cu sisteme automatizate, dar și rezistența naturală a indivizilor față de schimbarea bruscă a opiniilor personale.

Specialiștii atrag atenția că, în condiții reale, efectul persuasiv poate fi semnificativ diminuat, întrucât utilizatorii sunt expuși simultan altor surse de informație, reclame, știri și influențe sociale.

Cu toate acestea, autorii avertizează că, dată fiind capacitatea modelelor AI de a genera rapid cantități mari de conținut argumentativ, aceste sisteme ar putea depăși performanțele oricărui comunicator uman, dacă sunt utilizate într-un mod coordonat sau automatizat în mediile online. Situația creează riscuri pentru integritatea dezbaterilor publice, mai ales în perioade electorale.

Concluzia studiului este că, deși AI poate influența opinii politice într-o măsură vizibilă, această capacitate este strâns legată de un nivel ridicat de inexactitate.

Pentru moment, limitările psihologice umane și contextuale împiedică manipularea pe scară largă, însă riscurile cresc pe măsură ce modelele devin mai performante și accesibile.