24 nov. 2025 | 21:22

UE bagă „butonul roșu” pentru inteligența artificială. Cum funcționează noul instrument de raportare a încălcărilor grave ale AI Act

TEHNOLOGIE, ȘTIINȚĂ & DIGITAL
Share
UE bagă „butonul roșu” pentru inteligența artificială. Cum funcționează noul instrument de raportare a încălcărilor grave ale AI Act
Imagine reprezentativă de ilustrație. (Ilustrație Playtech cu ajutorul AI)

Comisia Europeană a lansat un nou „buton roșu” pentru inteligența artificială: o platformă online prin care pot fi semnalate, inclusiv anonim, încălcări suspecte ale AI Act – regulamentul european care va guverna folosirea inteligenței artificiale pe continent. Instrumentul este gândit în special pentru avertizori de integritate (whistleblowers) și persoane din interiorul companiilor care văd derapaje ce pot pune în pericol drepturile fundamentale, sănătatea sau încrederea publicului.

Cum funcționează „butonul roșu” al UE pentru AI

Noua platformă trimite direct sesizările către EU AI Office, biroul specializat al Comisiei însărcinat cu supervizarea aplicării AI Act. Orice persoană poate raporta, în oricare dintre limbile oficiale ale UE, posibile încălcări ale legii: de la sisteme de supraveghere abuzive, până la modele de inteligență artificială implementate fără garanții pentru datele personale sau fără evaluări adecvate de risc.

Comisia subliniază că sesizările sunt protejate prin mecanisme de criptare și canale securizate, astfel încât identitatea avertizorilor să fie cât mai bine protejată. Platforma permite și urmărirea stadiului unui caz, dar și schimb de mesaje cu experții AI Office, fără ca avertizorul să fie obligat să-și dezvăluie identitatea. Scopul declarat: detectarea timpurie a derapajelor grave, înainte ca acestea să producă daune extinse.

Pentru Bruxelles, instrumentul vine ca o completare la Directiva privind protecția avertizorilor de integritate, care obligă statele membre să ofere canale sigure pentru raportarea ilegalităților în diverse domenii. În zona AI, unde tehnologiile sunt greu de înțeles chiar și pentru autorități, informațiile venite din interiorul companiilor sunt considerate esențiale pentru o aplicare efectivă a regulilor.

AI Act între protecția drepturilor și presiunea industriei

AI Act este prezentat de Comisie ca un regulament care „încurajează inovația”, dar pune limite sistemelor de inteligență artificială ce pot afecta sănătatea, siguranța sau drepturile fundamentale ale oamenilor și care trebuie să respecte standarde stricte de transparență, supraveghere umană și gestionare a datelor.

Pe de altă parte, marile companii de tehnologie critică de luni bune „millefeuille-ul” legislativ european, susținând că noile reguli întârzie lansarea unor funcții sau le fac neprofitabile pe piața UE. Apple este unul dintre giganții care s-au plâns public că anumite caracteristici ale produselor sale ajung mai târziu în Europa tocmai din cauza combinării mai multor reglementări digitale. Aceste critici au contribuit la presiunea – inclusiv din partea Washingtonului – pentru a relaxa unele prevederi și a evita ca AI Act să fie perceput ca o frână pentru inovație.

Organizațiile de apărare a drepturilor digitale văd însă lucrurile exact invers: în momentul în care Bruxelles-ul a început să „îndulcească” anumite articole, ONG-urile au denunțat ceea ce au numit „cea mai mare atacare a drepturilor digitale” din ultimii ani, avertizând că, fără mecanisme puternice de control, sistemele de AI pot deveni instrumente de supraveghere, manipulare și discriminare la scară largă.

În acest context tensionat, noul instrument de raportare arată că UE vrea să transmită un mesaj dublu: AI Act nu este doar un text frumos pe hârtie, ci o lege care trebuie aplicată, iar cei care o încalcă riscă să fie expuși nu doar de autorități, ci și de propriii angajați sau parteneri. Rămâne de văzut cât de folosit va fi „butonul roșu” al UE – și câte cazuri spectaculoase va scoate la lumină în următorii ani.