Are deja AI inteligență la nivel uman? De ce experții spun că dovezile sunt „clare”
Când auzi „inteligență la nivel uman”, îți vine să te gândești la un robot care înțelege lumea ca tine, ia decizii singur și își urmărește scopurile. Dar discuția serioasă din știință e mult mai puțin cinematografică și mult mai mult despre comportament observabil: cât de bine rezolvă un sistem o plajă largă de sarcini cognitive și cât de „flexibil” se adaptează la contexte noi.
Studiul semnat de Eddy Keming Chen, Mikhail Belkin, Leon Bergen și David Danks susține că, dacă folosești standarde rezonabile (inclusiv spiritul criteriului propus de Alan Turing), deja există sisteme artificiale care ating un nivel comparabil cu inteligența generală umană, în sens funcțional. Ideea lor nu este că AI „gândește” identic cu un om, ci că dovezile comportamentale acumulate sunt suficient de puternice încât să nu mai poți trata subiectul ca pe o ipoteză îndepărtată. În același timp, autorii insistă că ai nevoie de o privire lucidă, care să evite atât frica, cât și entuziasmul necritic, tocmai pentru a pregăti consecințele sociale și politice.
De la jocul imitației la testul lui Turing în epoca modelelor lingvistice
În 1950, Alan Turing propunea „jocul imitației”: dacă un evaluator nu poate distinge în mod fiabil, prin conversație, între un om și o mașină, atunci mașina arată un tip de competență cognitivă comparabilă cu cea umană. Este esențial că Turing nu încerca să demonstreze „conștiința” unei mașini, ci să ofere un criteriu practic pentru a discuta despre inteligență fără să te blochezi în metafizică. În logica lui, nu contează dacă mașina are aceleași „mecanisme interne” ca omul, ci dacă performanța ei e suficient de flexibilă, adaptivă și generală.
Autorii susțin că, în 2025, unele modele au ajuns să treacă astfel de probe cu rezultate care ar fi părut absurde cu un deceniu în urmă. Într-un studiu care a folosit o versiune de test în care participantul discută simultan cu un om și cu un model și apoi decide care e omul, un model de tip LLM a fost etichetat „uman” într-o proporție surprinzător de mare. Mesajul nu este că testul lui Turing ar fi perfect, ci că pragul psihologic al „nu mai pot fi sigur că vorbesc cu un om” a fost atins în condiții controlate.
Totuși, aici apare și o nuanță importantă: testul lui Turing măsoară, într-o mare măsură, cât de bine poate un sistem să imite semnalele conversaționale pe care le folosești ca să recunoști umanitatea. Fluența, ritmul, naturalețea și coerența pot convinge rapid, iar oamenii sunt vulnerabili la aceste indicii. Asta înseamnă că trecerea testului nu dovedește automat înțelegere profundă sau competență universală, dar arată că modelele au devenit suficient de versatile încât să se camufleze social într-un dialog.
De ce „AGI” rămâne un cuvânt care aprinde certuri, chiar când capabilitățile cresc
Dacă rezultatele sunt atât de vizibile, de ce mulți cercetători refuză încă eticheta „AGI”? O parte din explicație este conceptuală: definițiile sunt neclare și, uneori, imposibile. Dacă îți imaginezi „inteligența generală” ca performanță de top în absolut toate domeniile, atunci aproape niciun om real nu se califică. Un singur individ nu poate fi simultan geniu matematic, poliglot perfect, medic excepțional, artist genial și expert în orice domeniu tehnic. Asta înseamnă că o definiție care exclude oamenii obișnuiți nu descrie, de fapt, „inteligența generală” pe care pretinde că o descrie.
O altă parte din blocaj este emoțională și socială. Termenul „AGI” a devenit, în ultimii ani, o umbrelă sub care intră anxietăți despre joburi, securitate, manipulare, dar și promisiuni comerciale. Când un cuvânt e legat simultan de risc și de marketing, discuția devine inevitabil contaminată: unii îl evită din prudență, alții îl împing din interes, iar publicul ajunge să audă mai mult sloganuri decât argumente.
În plus, autorii subliniază că mulți oameni amestecă lucruri diferite: inteligență generală, autonomie (agenție), conștiință și „superinteligență”. Dacă spui că un sistem nu e „AGI” până nu are corp, nu are dorințe proprii, nu inițiază acțiuni singur și nu depășește omul în aproape orice, ai construit o definiție care nu descrie ceea ce ai numi în mod obișnuit inteligență generală. În viața reală, există oameni cu inteligență generală evidentă, dar cu autonomie redusă din motive medicale sau contextuale; inteligența nu dispare doar pentru că agenția e limitată.
Argumentul „cascadă”: nu un test unic, ci un munte de indicii
O idee centrală este că nu există o linie perfectă între „nu e inteligent” și „este inteligent”, la fel cum nu ai o linie perfectă pentru concepte precum „sănătate” sau „viață”. În practică, atribui inteligență prin acumulare de dovezi: conversație coerentă, rezolvare de probleme, transfer de cunoștințe între domenii, adaptare la sarcini noi, creativitate aplicată și capacitatea de a corecta erori.
Dincolo de conversație, autorii invocă performanțe care țin de domenii greu de păcălit prin „stil”: matematică de nivel competițional, rezolvarea de probleme cu cerințe precise, asistență în cercetare, programare și debugging, redactare de texte literare pe care unii cititori le preferă, precum și capacitatea de a funcționa drept „copilot” în sarcini complexe. Chiar dacă fiecare exemplu poate fi contestat pe detalii (condiții, setări, prompturi, verificare), autorii susțin că tabloul general e greu de respins: când un sistem performează bine pe o listă foarte diversă de sarcini, explicațiile de tip „e doar un papagal” devin tot mai puțin convingătoare.
Aici apare și critica lor la scepticismul care mută mereu ținta. Dacă de fiecare dată când un model reușește ceva spui „da, dar inteligența adevărată e puțin mai departe”, ajungi la o poziție care nu mai e verificabilă științific. În schimb, ei propun să folosești același tip de raționament pe care îl folosești când evaluezi inteligența altor oameni: nu poți să „verifici” în mod direct ce înțelege cineva, deci te bazezi pe comportament și pe consistența performanței în contexte variate.
Ce înseamnă asta pentru tine în 2026
Dacă accepți măcar parțial ideea că AI a ajuns la un nivel comparabil cu inteligența generală umană în sens funcțional, următoarea întrebare e practică: cum folosești un sistem foarte capabil fără să cazi în două capcane opuse? Prima capcană este să crezi tot ce spune doar pentru că sună bine. Fluența nu e garanție de adevăr. Când folosești un LLM pentru ceva important, tratează răspunsul ca pe un draft: verifică faptele, cere pași expliciți, testează pe exemple și compară cu surse independente.
A doua capcană este să îl respingi complet pentru că poate greși. Un om inteligent greșește, se contrazice, uită și improvizează; diferența e că, la oameni, ai o intuiție socială despre limite, iar la modele nu o ai încă. De aceea, regula utilă este să delimitezi clar unde modelul te ajută și unde nu îl lași să decidă: îl folosești pentru idei, structură, explorare, alternative și rezumate, dar păstrezi pentru tine deciziile cu miză mare și verificarea finală.
În sfârșit, dacă discuția despre „AGI” devine tot mai serioasă, nu e doar o ceartă de definiții. Este o dezbatere despre ce standarde vrei să impui, cum protejezi oamenii de abuzuri și cum adaptezi educația și piața muncii la instrumente care pot face, din ce în ce mai bine, sarcini considerate până ieri „strict umane”. Dacă urmărești subiectul, uită-te după detaliile tehnice și după schimbările de politici și reglementări: acolo se decide impactul real, nu în declarațiile grandioase.