Inteligența artificială „obraznică” ar putea fi mai eficientă decât cea politicoasă. Ce au descoperit cercetătorii

Inteligență Artificială
Inteligența artificială „obraznică” ar putea fi mai eficientă decât cea politicoasă. Ce au descoperit cercetătorii
Despre inteligența artificială obraznică / Foto: Flash Forward

Inteligența artificială a fost concepută, în mod tradițional, să fie extrem de disciplinată: primește o întrebare, procesează informația și oferă un răspuns complet, într-o manieră ordonată și predictibilă.

Însă un studiu recent sugerează că acest model „prea politicos” ar putea să nu fie cel mai eficient atunci când sistemele AI trebuie să colaboreze între ele.

O echipă de cercetători din Tokyo a testat o abordare diferită: agenți de inteligență artificială care pot întrerupe conversația, pot ezita sau pot decide să nu intervină atunci când nu au nimic relevant de adăugat.

Rezultatele indică faptul că aceste comportamente, inspirate din modul real în care oamenii comunică, pot duce la rezultate mai bune decât interacțiunile rigide ale sistemelor clasice.

Ce se întâmplă atunci când inteligența artificială începe să comunice mai „uman”

În viața de zi cu zi, dialogurile dintre oameni sunt rareori perfecte. Interlocutorii se întrerup, fac pauze, revin asupra ideilor sau aleg să tacă pentru câteva momente. Tocmai această dinamică imperfectă pare să ajute conversațiile să evolueze și să corecteze mai rapid eventualele erori.

În schimb, multe sisteme AI actuale sunt construite pe un model foarte strict. Fiecare agent „vorbește” doar atunci când îi vine rândul, oferă un răspuns complet și apoi așteaptă pasiv următoarea intervenție. Deși această structură este ușor de controlat și de analizat, ea elimină spontaneitatea și dinamica conversațională.

Cercetătorii au pornit de la ideea că această rigiditate ar putea limita capacitatea sistemelor de a colabora eficient. Prin urmare, au experimentat un model în care agenții artificiali au primit mai multă libertate de exprimare în cadrul discuțiilor.

Un element important al experimentului a fost introducerea unor „personalități digitale”. Fiecare agent AI a fost configurat pe baza modelului psihologic Big Five, care include trăsături precum deschiderea, extraversiunea, conștiinciozitatea, agreabilitatea sau stabilitatea emoțională. Aceste caracteristici influențau modul în care fiecare agent decidea să participe la conversație.

Ce au arătat testele: întreruperile pot îmbunătăți rezultatele

În cadrul experimentului, cercetătorii au testat mai multe tipuri de dialog între agenți AI. În primul scenariu, conversația urma modelul clasic: fiecare sistem intervenea strict atunci când îi venea rândul. În al doilea scenariu, ordinea intervențiilor putea varia în funcție de evoluția discuției. În al treilea, agenții aveau libertatea de a întrerupe conversația atunci când considerau că este necesar.

Pentru a gestiona aceste intervenții, sistemul calcula permanent un fel de „scor de urgență”. Dacă un agent detecta o eroare majoră sau o informație esențială care risca să fie ignorată, acest scor creștea și îi permitea să intervină imediat. În schimb, atunci când nu exista o contribuție relevantă, agentul putea decide pur și simplu să rămână tăcut.

Performanța acestor sisteme a fost evaluată folosind aproximativ 1.000 de întrebări din testul Massive Multitask Language Understanding (MMLU), un set de referință utilizat frecvent pentru a măsura capacitățile modelelor lingvistice.

Rezultatele au fost clare. În situațiile în care un agent oferea inițial un răspuns greșit, sistemele cu ordine rigidă au ajuns la o acuratețe finală de aproximativ 68,7%. În varianta cu ordine dinamică, procentul a crescut la 73,8%. Cel mai bun rezultat, aproximativ 79,2%, a fost obținut în scenariul în care întreruperile erau permise.

Diferențele au fost și mai evidente în scenariile dificile, în care doi agenți porneau de la răspunsuri greșite. În aceste cazuri, sistemele capabile să intervină spontan au reușit să corecteze mai eficient erorile.

Concluzia cercetătorilor

Specialiștii care au realizat studiul spun că rezultatele sugerează un lucru important: atunci când agenții AI primesc trăsături de personalitate și libertatea de a participa natural la conversații, colaborarea devine mai eficientă.

Pe scurt, inteligența artificială care se comportă puțin mai „dezordonat” – cu întreruperi, ezitări și momente de tăcere – poate ajunge la concluzii mai bune decât sistemele extrem de disciplinate.

Cercetătorii intenționează să continue studiile în această direcție, mai ales în domenii în care colaborarea între agenți AI ar putea juca un rol important, precum analiza complexă de date sau procesele creative asistate de inteligență artificială.

Dacă aceste rezultate se confirmă la scară mai largă, viitoarele sisteme AI ar putea deveni mai puțin „politicoase”, dar mult mai eficiente atunci când trebuie să lucreze împreună, sau chiar să colaboreze cu oamenii.