23 dec. 2025 | 17:00

Un șef al unei firme de securitate: Un atac uriaș cu ajutorul AI „se va întâmpla” și poate lovi pe nepregătite

TEHNOLOGIE
Un șef al unei firme de securitate: Un atac uriaș cu ajutorul AI „se va întâmpla” și poate lovi pe nepregătite
De la Unit 8200 la startup: cine este Sanaz Yashar și de ce avertismentul ei contează

Într-un interviu publicat pe 22 decembrie 2025, Sanaz Yashar, CEO-ul companiei de securitate cibernetică Zafran, a lansat un avertisment direct: un incident major, comparabil ca impact cu WannaCry, dar alimentat de inteligență artificială, „încă nu s-a întâmplat” – însă „se va întâmpla”.

Mesajul ei nu este despre un scenariu SF în care AI „înlocuiește” complet hackerii, ci despre o schimbare mai pragmatică și mai periculoasă: accelerația. AI-ul, spune Yashar, îi ajută pe atacatori să facă „mai mult și mai repede”, iar ritmul acesta începe să depășească reflexele clasice ale apărării, bazate pe patch-uri și reacție după incident.

Yashar își descrie cei 15 ani petrecuți în celebra Unit 8200 (grupul de cyber din cadrul armatei israeliene) nu ca „spionaj”, ci ca muncă de „arhitect de hacking”. În acea perioadă, dezvoltarea unui „zero-day” – o vulnerabilitate necunoscută publicului și producătorilor – putea dura, spune ea, aproape un an. Acum, realitatea din teren s-a schimbat brutal: fereastra dintre descoperire, armare și exploatare s-a comprimat până la ore.

Parcursul ei e atipic și tocmai de aceea relevant: familie mutată din Teheran în Israel, recrutare în serviciile militare de informații, apoi roluri în threat intelligence la Cybereason și în zona de incident response și threat intel la Google/Mandiant. În 2022, a cofondat Zafran, o platformă care folosește AI pentru a cartografia expunerea la amenințări și pentru a prioritiza vulnerabilitățile care chiar pot fi exploatate.

„Timp negativ” până la exploit: cum a ajuns industria să fie lovită înainte să apară patch-ul

Punctul cel mai neliniștitor din interviu este ideea de „negative time-to-exploit” (TTE). În termeni simpli, TTE măsoară, în medie, câte zile trec până când atacatorii exploatează o vulnerabilitate înainte sau după ce furnizorul publică un patch. Yashar invocă o analiză Mandiant potrivit căreia, în 2024, media a ajuns la -1: atacatorii ajung să exploateze un bug cu o zi înainte ca patch-ul să fie disponibil.

Ca reper, într-o analiză anterioară despre trendurile pe 2023, Mandiant descria scăderea accelerată a acestui indicator de la 63 de zile (2018–2019) la 32 de zile (2021–2022), apoi la doar 5 zile pentru vulnerabilitățile exploatate în 2023. Cu alte cuvinte, direcția era deja clară; „negativul” o transformă însă într-o cursă în care apărarea pornește în urmă.

În aceeași cheie, Yashar susține că a observat o proporție uriașă de vulnerabilități „weaponized” cu ajutorul LLM-urilor și al AI-ului. Chiar dacă formularea exactă și metodologia sunt parte din discuția ei, ideea centrală rămâne: AI-ul scade costul și timpul necesare pentru a transforma rapid o informație tehnică într-un atac repetabil, scalabil.

Suprafața de atac crește odată cu AI, iar „daunele colaterale” pot depăși orice plan clasic de răspuns

Yashar pune presiunea nu doar pe viteza atacatorilor, ci și pe felul în care companiile își extind singure suprafața de atac prin integrarea grăbită a AI-ului „în fiecare produs și proces”. Aici intră riscuri precum prompt injection – tehnici prin care un atacator poate „păcăli” un model sau un agent AI să ignore reguli și să execute acțiuni nedorite, inclusiv acces la date sau pași care duc către un lanț de exploatare.

A doua problemă este că sistemele AI au propriile lor vulnerabilități: framework-uri, conectori, pluginuri, permisiuni greșit definite, „guardrails” incomplete. Iar aici apare teama ei principală: „daune colaterale” produse nu neapărat de actorii statali „maturi”, ci de grupuri mai haotice sau mai puțin experimentate, care pot declanșa efecte în lanț fără să înțeleagă consecințele. De aceea alege comparația cu WannaCry, atacul ransomware din mai 2017 care a lovit masiv organizații din întreaga lume și a produs pierderi estimate la sute de milioane sau miliarde de dolari.

Soluția pe care o vede ea e, inevitabil, tot AI: trecerea de la „tool-uri care îți arată insight-uri” la sisteme care chiar fac triere, investigație și planuri de acțiune – agenți care pot propune măsuri în funcție de „apetitul de risc” al organizației, cu oameni rămași în buclă pentru validare. Nu promite un viitor complet autonom, ci unul în care automatizarea devine obligatorie tocmai pentru că adversarul a început deja să o folosească la scară.