24 mart. 2025 | 14:01

Până și inteligența artificială te minte. Cazul bărbatului fals acuzat de crimă de ChatGPT

ACTUALITATE
Până și inteligența artificială te minte. Cazul bărbatului fals acuzat de crimă de ChatGPT
Forbes

Inteligența artificială, un domeniu aflat încă în dezvoltare, a produs atât entuziasm, cât și îngrijorări în viața cotidiană, iar asta pe bună dreptate. Deși modelele avansate AI au făcut pași importanți, acestea rămân vulnerabile la „halucinații”, ceea ce se traduce prin erori majore care pot genera informații false, inclusiv despre medii sensibile precum istoricul medical sau cercetare, printre altele.

Un astfel de caz alarmant a fost experimentat recent de Arve Hjalmar Holmen, un bărbat din Norvegia care a descoperit cum ChatGPT l-a acuzat, pe baza unei căutări simple, că ar fi ucis doi dintre copiii săi și ar fi încercat să-l omoare pe un al treilea.

Cum „a comis-o” ChatGPT

Holmen, curios să afle ce ar spune ChatGPT despre el, și-a introdus numele în interogare și a lăsat botul să-și facă treaba.

Rezultatul a fost îngrozitor, scrie Futurism: robotul a prezentat o poveste complet falsă, dar cu detalii corecte despre locul nașterii sale și vârstele copiilor săi. ChatGPT a sugerat că bărbatul a petrecut 21 de ani în închisoare pentru crimele pe care le-ar fi comis, deși acestea nu au avut loc niciodată.

Evident, nu a stat pe gânduri și a depus o plângere la autoritățile de protecție a datelor din Norvegia prin intermediul grupului european Noyb, care a intentat și un proces împotriva OpenAI, compania din spatele ChatGPT.

Deși botul nu mai repetă această minciună, Noyb cere ca OpenAI să elimine output-ul defăimător și să îmbunătățească modelul pentru a preveni apariția unor astfel de erori în viitor.

Inteligența artificială, pusă la grea încercare

Incidentul ne arată, concret, pericolele tehnologiilor AI încă neperfecționate, care, deși avansate, pot duce la consecințe devastatoare. Într-o eră în care tehnologia avansează rapid, dar reglementările rămân adesea în urma acestora, AI este folosiă pentru a manipula realitatea.

În afaceri, educație și chiar în politică, modelele de AI pot crea sau distruge reputații prin simple erori. În cazul lui Holmen, acest lucru nu s-a întâmplat, însă este important de menționat că asemenea cazuri au apărut și în alte domenii, iar cercetătorii și activiștii din domeniul tehnologiei avertizează că există riscuri imense pentru oamenii de rând.

Timnit Gebru, fondatoarea Distributed AI Research Institute, a subliniat într-un podcast că marile companii tehnologice caută să creeze un „Dumnezeu mașină” care să facă orice sarcină, ignorând nevoia de a construi modele optime pentru fiecare aplicație în parte. Aceste modele universale, care par a fi capabile să facă orice, sunt departe de a fi perfecte și pot crea daune semnificative.

În ciuda reglementărilor din unele țări, precum Norvegia, care impun corectarea sau ștergerea informațiilor false generate de AI, legile reactive nu pot preveni efectele halucinațiilor AI înainte ca ele să se producă.