07 nov. 2025 | 10:00

De ce halucinează inteligența artificială: Studiul care explică de ce modelele AI dau răspunsuri greșite, nu este ceea ce crezi

TEHNOLOGIE
Share
De ce halucinează inteligența artificială: Studiul care explică de ce modelele AI dau răspunsuri greșite, nu este ceea ce crezi
Explicația pentru care halucinează AI-ul / Foto: AryaXAI

Un studiu recent semnat de cercetători de la OpenAI și Georgia Institute of Technology arată că halucinațiile modelelor de inteligență artificială nu apar din cauza datelor greșite, ci din felul în care aceste sisteme sunt antrenate să reacționeze.

Modelele lingvistice de mari dimensiuni (LLM), precum cele care alimentează platforme populare ca ChatGPT, sunt programate să ofere răspunsuri sigure și coerente, chiar și atunci când nu știu răspunsul corect.

Autorii cercetării arată că aceste sisteme nu sunt instruite să spună „nu știu”, ci să ghicească. Performanța lor este evaluată prin teste standardizate care recompensează încrederea și penalizează ezitarea, nu acuratețea sau onestitatea.

Prin urmare, AI „blufează” atunci când întâlnește întrebări pentru care nu există un răspuns clar, în loc să-și recunoască limitele.

Modelele AI nu pot fi „atotștiutoare”, spun cercetătorii

Echipa de la OpenAI și Georgia Tech explică faptul că, chiar și cu date de antrenament perfecte, un model de limbaj nu poate răspunde corect la toate întrebările.

Unele probleme nu au soluții generalizabile, la fel cum a ști ziua de naștere a 49 de elevi nu ajută la ghicirea celei de-a 50-a.

Într-un articol științific publicat în octombrie 2025, cercetătorii arată matematic că rata totală de eroare a unui model va fi întotdeauna de cel puțin două ori mai mare decât rata sa de clasificare corectă a faptelor, ceea ce face imposibilă atingerea unei acurateți totale.

„Nu vom ajunge niciodată la 100% precizie, dar asta nu înseamnă că modelele trebuie să halucineze”, afirmă Adam Kalai, cercetător OpenAI și coautor al studiului.

El susține că modelele ar putea învăța să recunoască necunoscutul dacă sistemele de evaluare ar fi modificate astfel încât să premieze onestitatea și autoevaluarea, nu doar răspunsurile „curajoase”.

De ce companiile evită să antreneze AI să spună „nu știu”

Problema este că o astfel de schimbare ar afecta direct modelul de afaceri al companiilor de AI. După cum remarcă Wei Xing, cercetător la Universitatea din Sheffield, „dacă un chatbot ar admite prea des că nu știe, utilizatorii ar căuta răspunsurile în altă parte”.

În prezent, aproape toate testele de performanță acordă punctaj maxim unui răspuns corect și zero unui răspuns greșit sau unei non-reacții.

Această metodă îi determină pe dezvoltatori să optimizeze modelele pentru rezultate aparent sigure, chiar dacă acestea nu sunt corecte.

Unii experți, precum Carlos Jimenez de la Princeton, consideră propunerea de reformare a acestor teste realistă, dar dificil de aplicat din cauza diversității subiectelor și a modurilor diferite de a evalua incertitudinea.

Alții, precum Hao Peng de la Universitatea din Illinois, avertizează că noile metode ar putea avea efecte inverse, deoarece modelele AI sunt foarte abile în a exploata orice sistem de evaluare.

Pe fondul creșterii costurilor energetice și de calcul, companiile de AI ezită să implementeze schimbări radicale.

Potrivit economistului Servaas Storm de la Universitatea Tehnică din Delft, doar 5% dintre utilizatorii ChatGPT plătesc abonamentul lunar de 20 de dolari, iar reducerea interacțiunilor „atractive” ar putea afecta serios veniturile.

În concluzie, studiul subliniază un paradox fundamental: pentru ca modelele AI să devină mai precise, ele trebuie să fie învățate să accepte incertitudinea.

Dar un chatbot care răspunde prea des cu „nu știu” riscă să fie perceput drept inutil, chiar dacă, în realitate, ar fi mai onest și mai sigur.