22 apr. 2025 | 10:01

Inteligența artificială, încotro? Cum păstrezi echilibrul dintre inovație și siguranța în mediul online, de fapt

TEHNOLOGIE
Inteligența artificială, încotro? Cum păstrezi echilibrul dintre inovație și siguranța în mediul online, de fapt
AI

Cursa globală pentru dezvoltarea inteligenței artificiale nu mai este o ipoteză, ci o realitate în plină desfășurare. Guverne, companii și organizații din întreaga lume se grăbesc să valorifice potențialul AI înaintea concurenței, într-o competiție cu miză uriașă, de la dominația economică la influența geopolitică.

Potrivit lui Chuck Herrin, expert în securitate cibernetică și CISO la F5, acest ritm accelerat de inovație este comparabil cu un joc de strategie global, unde a ajunge primul este văzut ca o chestiune existențială, scrie publicația Dark Reading.

Inteligența artificială, acest bulgăre de zăpadă care se tot mărește

Cei care reușesc să dezvolte și să implementeze modele avansate, inclusiv AI generală și superinteligență, pot deveni imposibil de ajuns din urmă.

Totuși, în această goană tehnologică, problemele de securitate și guvernanță sunt adesea neglijate. Discuțiile se concentrează pe alinierea valorilor AI sau pe consumul energetic necesar antrenării modelelor, dar riscurile asociate securității sunt la fel de presante.

Unul dintre riscurile majore este ritmul inedit al progresului, mai rapid chiar decât Legea lui Moore, ceea ce face ca orice avantaj competitiv să fie efemer.

Modelele AI lansate de companii pot fi replicate sau depășite de alternative open-source în doar câteva zile. În plus, lacunele de securitate favorizează ingineria inversă a modelelor costisitoare, care pot fi apoi redistribuite gratuit.

Un caz cât se poate de concret, eventuale soluții

Un exemplu elocvent îl reprezintă vulnerabilitățile identificate recent în serviciile DeepSeek. Incidentele semnalează cât de ușor pot fi compromise modelele AI dacă API-urile, datele și protocoalele de acces nu sunt bine protejate.

Pentru a contracara aceste riscuri, Herrin propune o serie de măsuri concrete pe care organizațiile le pot adopta imediat:

  • Testare riguroasă a securității înainte de lansare, folosind metode clasice de modelare a amenințărilor (precum STRIDE sau ATT&CK), dar și cadre adaptate AI, cum ar fi ATLAS;

  • Programe dedicate de identificare a vulnerabilităților, inclusiv recompense pentru găsirea de erori în sistemele AI/LLM;

  • Monitorizare automată și continuă a API-urilor — o componentă esențială pentru securizarea interfețelor prin care modelele AI sunt accesate;

  • Implementarea unor cadre transparente de guvernanță AI, luând ca model Actul European pentru AI, care ar putea influența reglementările globale;

  • Exerciții periodice de tip „red team”, care simulează atacuri reale asupra sistemelor AI, cu accent pe tehnici simple, de tip „prompt engineering”.

Așa cum subliniază Herrin, câștigătorii acestei curse nu vor fi doar cei care ajung primii, ci și cei care își păstrează integritatea sistemelor în proces.

Cursa AI nu poate fi evitată, dar poate fi gestionată strategic. Într-o lume în care inovația nu încetinește, securitatea trebuie integrată de la început, altfel, diferența dintre sisteme sigure și cele compromise ar putea deveni imposibil de recuperat.

Cheia succesului constă, fără dar și poate, în colaborarea strânsă dintre echipele de securitate, dezvoltatori și cercetători.

Numai o abordare coordonată, intenționată și proactivă poate garanta că progresul AI este însoțit de protecție adecvată. Iar momentul de acțiune este acum.