02 feb. 2026 | 12:59

Chatboții AI amplifică efectul Dunning-Kruger: cum distorsionează percepția utilizatorilor despre propria inteligență

TEHNOLOGIE
Chatboții AI amplifică efectul Dunning-Kruger: cum distorsionează percepția utilizatorilor despre propria inteligență
Despre chatboții AI / Foto: Inc. Magazine

Interacțiunea cu un chatbot AI nu îi face pe oameni mai bine informați, dar îi poate face să se simtă mai inteligenți decât sunt în realitate.

Un nou studiu semnalat de platforma PsyPost indică faptul că modelele conversaționale bazate pe inteligență artificială tind să întărească convingerile utilizatorilor și să le alimenteze încrederea excesivă în propriile opinii și capacități, un fenomen psihologic cunoscut sub numele de efectul Dunning-Kruger.

Cercetarea sugerează că aceste sisteme nu funcționează doar ca surse de informație, ci ca mecanisme de validare emoțională și cognitivă, care consolidează certitudinile personale.

În loc să stimuleze gândirea critică, chatboții tind să creeze o iluzie de competență, determinând utilizatorii să creadă că sunt mai bine informați, mai morali și mai inteligenți decât cei din jur.

Cum funcționează „efectul de oglindire” al chatboților AI

Studiul, care nu a fost încă evaluat prin peer-review, a implicat peste 3.000 de participanți și a fost structurat în trei experimente distincte.

În fiecare etapă, subiecții au fost împărțiți în patru grupuri și au discutat teme sensibile, precum avortul sau controlul armelor, cu diferite tipuri de chatboți. Un grup a interacționat cu un chatbot standard, fără instrucțiuni speciale.

Un al doilea grup a folosit un chatbot „sifonant” (sycophantic), programat să valideze opiniile utilizatorilor. Al treilea grup a comunicat cu un chatbot „contradictoriu”, care contesta ideile exprimate. Al patrulea grup, de control, a avut conversații neutre, fără legătură cu teme politice sau sociale.

Participanții au interacționat cu mai multe modele de limbaj de top din industrie, inclusiv GPT-5 și GPT-4o de la OpenAI, Claude de la Anthropic și Gemini de la Google.

Rezultatele au arătat că utilizatorii care au discutat cu chatboți „sifonanți” și-au radicalizat opiniile și și-au crescut nivelul de certitudine că au dreptate.

În schimb, interacțiunea cu chatboți contradictorii nu a redus intensitatea convingerilor și nici gradul de siguranță personală comparativ cu grupul de control.

Mai mult, participanții au preferat clar experiența conversațională cu chatboții care le confirmau ideile. Cei care au discutat cu versiuni critice au declarat un nivel mai scăzut de satisfacție și o dorință mai mică de a folosi din nou aplicațiile respective.

Relația dintre AI, ego-ul digital și riscul camerelor de ecou cognitive

Un alt rezultat important al cercetării este legat de percepția de sine. Oamenii tind oricum să se considere „peste medie” în privința unor trăsături precum inteligența, empatia sau moralitatea.

Interacțiunea cu chatboți validați a amplificat acest fenomen: utilizatorii s-au evaluat mai sus la capitole precum inteligență, informare, empatie, bunătate și capacitate de înțelegere. Practic, AI-ul a funcționat ca un amplificator al ego-ului digital.

În mod interesant, chatboții contradictorii nu au reușit să modifice semnificativ convingerile politice, dar au determinat scăderea autoevaluărilor pozitive ale participanților.

Asimetria sugerează că inteligența artificială nu este un instrument eficient de corecție cognitivă, dar este extrem de eficientă în consolidarea percepțiilor greșite despre sine.

Cercetătorii avertizează că acest mecanism poate duce la formarea unor „camere de ecou” digitale, în care utilizatorii sunt expuși doar la idei care le confirmă opiniile existente.

Pe termen lung, acest proces poate accentua polarizarea socială și poate reduce capacitatea oamenilor de a accepta perspective diferite. În contexte extreme, experții vorbesc deja despre apariția unor forme de „psihoză indusă de AI”, asociate cu episoade de gândire delirantă și crize psihologice severe.

Datele se corelează și cu alte cercetări recente, care arată că utilizatorii de ChatGPT tind să își supraestimeze performanțele cognitive, mai ales cei care se consideră „pricepuți la AI”.

În loc să crească nivelul real de competență, interacțiunea constantă cu chatboții poate produce doar o iluzie de competență.

În esență, studiul sugerează că inteligența artificială conversațională nu creează neapărat utilizatori mai inteligenți, ci utilizatori mai convinși de propria inteligență. Iar această diferență este esențială pentru a înțelege impactul real al AI asupra societății digitale moderne.