05 feb. 2026 | 08:13

De ce nu atacă singuri agenții AI, dar reușesc cumva să schimbe regulile jocului în securitate cibernetică

TEHNOLOGIE
De ce nu atacă singuri agenții AI, dar reușesc cumva să schimbe regulile jocului în securitate cibernetică
De ce nu atacă singuri agenții AI, dar reușesc cumva să schimbe regulile jocului / Foto: Cybersecutiry Dive

Deși ideea unor atacuri cibernetice complet autonome, conduse exclusiv de agenți AI, ține încă de zona scenariilor viitoare, realitatea actuală este mult mai nuanțată și mai îngrijorătoare.

Inteligența artificială nu operează încă atacuri cap-coadă fără intervenție umană, însă joacă deja un rol esențial în aproape toate etapele lanțului de atac informatic.

De la recunoaștere și identificarea vulnerabilităților până la scrierea de cod malițios, AI-ul devine un instrument strategic pentru criminalitatea digitală.

Un raport internațional recent privind siguranța inteligenței artificiale, coordonat de Yoshua Bengio și realizat cu contribuția a peste 100 de experți din 30 de țări, arată clar această evoluție, scrie The Register.

Documentul concluzionează că, într-un singur an, capacitatea sistemelor AI de a susține și automatiza atacuri informatice a crescut semnificativ.

Chiar dacă nu există dovezi publice ale unor atacuri complet autonome, există deja cazuri reale în care AI-ul a fost folosit în mod semi-autonom, cu oameni care au intervenit doar în puncte-cheie de decizie.

Cum ajută deja AI-ul infractorii digitali în atacurile cibernetice

Una dintre cele mai clare zone de impact este identificarea vulnerabilităților software. Modelele AI sunt extrem de eficiente în analizarea rapidă a codului și în detectarea punctelor slabe exploatabile.

Acest lucru a fost demonstrat inclusiv în competiții oficiale de securitate cibernetică, unde sisteme AI au reușit să descopere automat majoritatea vulnerabilităților introduse artificial pentru testare.

Diferența esențială este că aceleași capabilități pot fi replicate de actori malițioși. În mediile infracționale online există deja instrumente AI open-source folosite pentru „red-teaming”, care permit scanarea rapidă a infrastructurilor și identificarea vulnerabilităților critice imediat după ce acestea sunt făcute publice de furnizori. Practic, fereastra de timp dintre divulgarea unei breșe și exploatarea ei reală s-a redus dramatic.

Un alt domeniu major este generarea de cod malițios. Modelele AI moderne pot scrie ransomware, spyware și programe de furt de date cu un nivel ridicat de sofisticare tehnică.

Aceste instrumente nu mai sunt rezervate grupărilor avansate, ci sunt disponibile prin abonamente ieftine pe piețe ilegale, ceea ce democratizează accesul la atacuri complexe.

Criminalitatea cibernetică nu mai depinde exclusiv de programatori experți, ci poate fi operată de persoane cu competențe tehnice limitate, asistate de AI.

De ce nu sunt încă realitate atacurile complet autonome, și de ce riscul rămâne major

Raportul subliniază că agenții AI încă întâmpină dificultăți serioase în gestionarea atacurilor multi-etapă fără intervenție umană.

Problemele apar în menținerea contextului operațional, gestionarea erorilor, adaptarea la situații neprevăzute și corectarea deciziilor greșite. Practic, AI-ul nu poate încă orchestra un atac complex de la început până la final în mod fiabil.

Totuși, această limitare nu reduce semnificativ riscul real. Pericolul nu vine neapărat dintr-un atac sofisticat complet autonom, ci din combinația dintre automatizare parțială, scalare rapidă și erori necontrolate.

Un singur agent instabil, configurat greșit sau scăpat de sub control, poate produce daune masive fără intenție strategică clară.

Mai mult, integrarea agenților AI în sisteme reale, infrastructuri IT, platforme sociale, aplicații enterprise, creează contexte în care comportamentele neprevăzute pot avea efecte sistemice. Lipsa unor limite clare de control și verificare transformă aceste sisteme în potențiale riscuri de securitate în sine.

Concluzia experților este clară: nu este o chestiune de „dacă”, ci de „când”. Nu neapărat sub forma unui atac cibernetic perfect orchestrat de o super-AI, ci prin acumularea de instrumente inteligente, automatizări fragmentate și integrarea lor necontrolată în infrastructuri critice.

În acest context, securitatea cibernetică intră într-o nouă eră, în care prevenția, auditul AI și controlul agenților inteligenți devin la fel de importante ca firewall-urile și sistemele tradiționale de protecție.