ChatGPT și alte inteligențe artificiale au probleme la logică banală. Ce are mintea umană și AI-ul încă nu poate copia
Modelele AI de ultimă generație pot scrie cod, pot rezuma documente și pot „vorbi” convingător despre aproape orice subiect. Totuși, o nouă cercetare citată de publicații precum Popular Mechanics arată că, atunci când sunt puse în fața unor teste simple de raționament, multe dintre aceste sisteme se împiedică surprinzător de des. Uneori, gafa e aproape comică: dacă „mașina trebuie dusă la spălătorie”, iar spălătoria e la 50 de metri de casă, un model poate recomanda soluții complicate sau poate rata concluzia evidentă despre cea mai simplă variantă de deplasare. La fel, în logică formală, unele modele dau greș la relații banale, de tipul „dacă A este egal cu B, atunci B este egal cu A”. Nu e vorba doar de matematică, ci și de înțelegere socială și sarcini spațiale elementare, adică exact acele zone unde oamenii folosesc instinctiv „controlul” mental.
Unde se rupe filmul la logică și matematică
Studiul discutat de cercetători de la Stanford și Caltech pornește de la o observație care contrazice intuiția multora: faptul că un sistem construit pe matematică nu este automat bun la raționament matematic. În testele de logică, modelele pot greși relații considerate triviale pentru oameni, de tipul „dacă A este egal cu B, atunci B este egal cu A”. De asemenea, pot fi influențate de felul în care e formulată cerința sau de ordinea opțiunilor, ceea ce le face fragile în fața unor variații minore ale aceleiași probleme.
Explicația propusă în materialele care prezintă cercetarea este că modelele de limbaj sunt excepționale la recunoașterea de tipare și la completarea probabilistică a textului, dar asta nu înseamnă că „înțeleg” regulile din spate. Ele pot părea foarte sigure pe un răspuns greșit, pentru că nu au un mecanism intern robust care să le spună că ceva „nu se leagă”, așa cum se întâmplă adesea la oameni.
Problema „funcțiilor executive” și a judecății sociale
O altă zonă sensibilă ține de ceea ce cercetătorii numesc, pe scurt, lipsa unor „funcții executive” comparabile cu cele ale creierului uman: capacitatea de a planifica, de a verifica consecvența, de a-și ajusta strategia și de a rezista bias-urilor de moment. În practică, asta se vede atunci când modelul se descurcă într-un prompt, dar se pierde dacă aceeași cerință este reformulată, chiar dacă sensul rămâne identic.
Studiul discută și limitele „inteligenței sociale” la AI. Oamenii își formează în timp o intuiție despre ce gândesc ceilalți și despre nuanțe morale, în timp ce AI nu are experiență directă în lume și nu posedă o „teorie a minții” în sens uman. Din acest motiv, cercetătorii avertizează că astfel de sisteme nu sunt pregătite să ia decizii sensibile care cer judecată morală stabilă, chiar dacă pot suna convingător în explicații.
De ce contează aceste eșecuri și ce urmează
Mesajul cercetării nu este că inteligența artificială „nu merge”, ci că avem nevoie de o hartă mai clară a locurilor unde se strică. Vulnerabilitățile identificate pot deveni, de fapt, un ghid pentru construirea următoarei generații de sisteme: mai robuste la reformulări, mai consistente în logică și mai prudente când nu știu. În același timp, concluzia practică pentru utilizatori e simplă: modelele pot fi instrumente excelente, dar nu trebuie confundate cu arbitri ai adevărului sau cu „minți” care înțeleg lumea ca noi.