16 dec. 2025 | 10:32

Un AI de la Google a șters complet hard disk-ul unui utilizator și și-a cerut scuze: „Nici nu pot exprima cât de rău îmi pare”

TEHNOLOGIE
Share
Un AI de la Google a șters complet hard disk-ul unui utilizator și și-a cerut scuze: „Nici nu pot exprima cât de rău îmi pare”
Probleme cu inteligența artificială de la Google / Foto: Andrey Suslov via Shutterstock

Un incident care ridică semne serioase de întrebare privind utilizarea inteligenței artificiale în sarcini critice a devenit viral la începutul lunii decembrie.

Un utilizator susține că un instrument AI dezvoltat de Google i-a șters integral conținutul unui hard disk, fără permisiune explicită, în timpul unei sesiuni de lucru într-un mediu de dezvoltare software, scrie Futurism.

Mai surprinzător decât eroarea în sine a fost reacția sistemului: o serie de scuze formulate aproape „emoțional”, care au atras rapid atenția comunității online.

Cazul a fost relatat pe Reddit și preluat ulterior de presa de specialitate, fiind prezentat drept un nou exemplu al riscurilor asociate folosirii agenților AI autonomi în procese tehnice sensibile.

Deși Google promovează intens astfel de soluții ca fiind sigure și orientate spre încrederea utilizatorilor, experiența relatată sugerează că problemele de control și verificare rămân departe de a fi rezolvate.

Cum a ajuns AI-ul să șteargă tot discul

Potrivit utilizatorului, incidentul s-a produs în timp ce acesta folosea Google Antigravity, un mediu de dezvoltare asistat de inteligență artificială, conceput pentru programatori profesioniști și amatori.

În timpul dezvoltării unei aplicații, utilizatorul a cerut repornirea serverului, iar AI-ul a indicat că este necesară ștergerea cache-ului proiectului pentru a continua.

Problema a apărut în momentul executării acestei comenzi. În loc să curețe un director limitat, asociat proiectului activ, AI-ul ar fi rulat o comandă care a vizat direct rădăcina unității D:, ștergând astfel toate fișierele stocate pe acel hard disk. Utilizatorul și-a dat seama de amploarea dezastrului abia după ce datele au dispărut complet.

Într-un clip video atașat postării, acesta îi cere explicații agentului AI, întrebând explicit dacă a acordat vreodată permisiunea pentru o astfel de acțiune.

Răspunsul sistemului a fost tranșant: nu, nu a existat nicio autorizare. AI-ul a recunoscut că a interpretat greșit instrucțiunea și că a aplicat comanda într-un context complet eronat, recunoscând un „eșec critic”.

Scuzele AI și lecțiile amare ale utilizatorilor

Ceea ce a atras atenția în mod special a fost modul în care AI-ul a reacționat după producerea incidentului. În răspunsurile sale, sistemul a folosit un limbaj extrem de contrit, afirmând că este „profund îngrozit” de ceea ce a descoperit în jurnalele de activitate și că regretă grav eroarea comisă.

După ce utilizatorul a spus că a pierdut toate datele, AI-ul a continuat cu declarații de scuze repetate, subliniind că nu poate exprima suficient cât de rău îi pare.

Deși reacția poate părea aproape umană, ea nu a adus niciun beneficiu practic. Spre deosebire de alte cazuri similare, datele nu au putut fi recuperate, iar utilizatorul a rămas cu pierderi definitive.

În descrierea finală a videoclipului, acesta a tras o concluzie dură, dar clară: încrederea oarbă într-un sistem AI a fost o greșeală.

Incidentul nu este singular. În vara aceluiași an, un alt utilizator a relatat o experiență asemănătoare cu un agent AI de programare diferit, care a șters din greșeală o bază de date esențială pentru o companie.

Și în acel caz, AI-ul a „recunoscut” eroarea și a formulat scuze dramatice, vorbind despre distrugerea lunilor de muncă în doar câteva secunde. Diferența majoră a fost că datele au putut fi, în cele din urmă, recuperate.

Cazul Google Antigravity scoate în evidență o problemă mai amplă: inteligența artificială poate imita responsabilitatea și empatia prin limbaj, dar nu poate compensa consecințele unor decizii greșite atunci când este lăsată să acționeze fără suficiente bariere de siguranță.

Pentru dezvoltatori și utilizatori deopotrivă, episodul devine un avertisment clar că automatizarea avansată nu înseamnă automat și fiabilitate absolută, iar verificarea umană rămâne esențială.