31 ian. 2026 | 08:26

Inteligența artificială nu pare să se priceapă prea bine la matematică: de ce nu poate AI-ul să funcționeze autonom la scară largă, conform unui studiu

TEHNOLOGIE
Inteligența artificială nu pare să se priceapă prea bine la matematică: de ce nu poate AI-ul să funcționeze autonom la scară largă, conform unui studiu
Studiul care arată limitele AI-ului / Foto: limite ai inteligenta artificiala matematica

Un studiu recent, trecut inițial aproape neobservat, readuce în discuție una dintre cele mai sensibile promisiuni ale industriei tehnologice: ideea că agenții AI vor putea lucra autonom, fără supraveghere umană.

Concluzia cercetării este tranșantă: modelele lingvistice mari au o limită matematică de complexitate pe care nu o pot depăși, iar această limită este mult mai joasă decât sugerează discursul public al marilor companii din domeniu.

Lucrarea, realizată de Vishal Sikka, fost director tehnologic al SAP, și de fiul său, Varin Sikka, susține că inteligența artificială bazată pe modele lingvistice nu este capabilă să execute în mod fiabil sarcini computaționale și operaționale complexe, scrie Futurism.

Deși studiul nu a fost încă evaluat academic, argumentele sale au atras atenția unor publicații de specialitate și au reaprins dezbaterea privind realismul promisiunilor legate de agenții AI.

De ce nu pot fi fiabile modelele lingvistice din punct de vedere matematic

Potrivit autorilor, problema nu ține de lipsa de date sau de puterea de calcul, ci de arhitectura fundamentală a modelelor lingvistice.

Sistemele sunt concepute pentru a prezice următoarea secvență de text pe baza probabilităților, nu pentru a înțelege în mod real contextul, consecințele sau corectitudinea logică a acțiunilor lor.

Vishal Sikka afirmă că, din această cauză, modelele AI nu pot atinge niciodată un nivel de fiabilitate care să le permită să funcționeze independent în domenii critice.

Ideea că astfel de agenți ar putea gestiona infrastructuri sensibile, precum centrale nucleare sau sisteme de transport, este, în opinia sa, complet nerealistă.

Această poziție este susținută indirect chiar de cercetători din interiorul industriei. În 2025, specialiști OpenAI au recunoscut public că halucinațiile AI, situațiile în care modelele inventează informații prezentate cu certitudine, rămân o problemă structurală și că acuratețea absolută nu va putea fi atinsă niciodată. Acest aspect lovește direct în conceptul de agent AI autonom, care ar trebui să ia decizii corecte fără intervenție umană.

Agenții AI, de la promisiuni comerciale la realitatea din teren

În ciuda acestor limite, industria a decis anul trecut că agenții AI reprezintă „următorul mare pas”. Numeroase companii au încercat să îi folosească pentru automatizarea muncii și reducerea costurilor cu personalul. Rezultatele au fost, însă, mult sub așteptări.

Multe organizații au constatat rapid că agenții AI nu reușesc să ducă la bun sfârșit sarcini aparent simple, comit erori frecvente și necesită corectare constantă.

Halucinațiile, lipsa de coerență și incapacitatea de a gestiona situații neprevăzute au făcut ca înlocuirea angajaților umani să fie, în practică, imposibilă.

Liderii din domeniul AI susțin că aceste probleme pot fi atenuate prin sisteme externe de control, reguli suplimentare și filtre de siguranță.

Chiar și autorul studiului admite că, prin combinarea modelelor lingvistice cu alte componente software, unele limitări pot fi parțial depășite. Cu toate acestea, el subliniază că un model lingvistic „pur” va rămâne întotdeauna constrâns de limitele sale matematice.

Concluzia este una incomodă pentru industria AI: agenții inteligenți complet autonomi, capabili să funcționeze fiabil în medii complexe, nu sunt doar greu de realizat, ci, conform acestui studiu, imposibili din punct de vedere teoretic.

În acest context, diferența dintre marketingul agresiv al companiilor tech și realitatea tehnologică devine tot mai evidentă, iar promisiunea unei automatizări totale pare, cel puțin pentru moment, mai degrabă un mit decât un obiectiv realizabil.