Malware-ul care se rescrie singur: hackerii folosesc inteligența artificială pentru a evita detectarea
Cercetătorii Google au descoperit un nou tip de amenințare digitală care marchează începutul unei ere complet noi în securitatea cibernetică: programe malware capabile să-și modifice singure codul folosind inteligența artificială. Fenomenul, descris de experții din cadrul Google Threat Intelligence Group (GTIG), demonstrează cât de rapid evoluează metodele de atac odată cu dezvoltarea modelelor de limbaj avansate (LLM), aceleași tehnologii care stau la baza multor aplicații AI legitime.
Acest nou malware, botezat PROMPTFLUX, poate genera și rescrie fragmente din propriul cod în timp real, folosind modele AI pentru a evita detectarea de către sistemele de securitate. Descoperirea marchează un moment critic pentru comunitatea globală de securitate informatică, care se confruntă acum cu un adversar mult mai adaptabil și imprevizibil decât în trecut.
PROMPTFLUX a fost identificat de cercetătorii Google ca o familie de troieni experimentali care pot comunica direct cu un model AI prin intermediul unei interfețe de programare (API). Practic, malware-ul „îi cere” modelului de inteligență artificială să-l ajute să-și rescrie părți din cod, astfel încât să evite detecția antivirusurilor sau a sistemelor automatizate de analiză.
În loc să conțină din start funcțiile malițioase, cum se întâmplă în cazul malware-ului clasic, PROMPTFLUX le creează la cerere, în funcție de context. Acest mecanism „just-in-time” îi permite să devină mult mai flexibil și mai greu de oprit.
„Instrumente ca PROMPTFLUX generează dinamic scripturi malițioase, își obfuschează propriul cod și pot crea funcții dăunătoare la cerere, în loc să le includă direct în fișierul original”, explică specialiștii GTIG în raportul publicat recent.
Cu alte cuvinte, malware-ul poate „gândi” ca un programator uman: dacă detectează că este pe cale să fie descoperit, își schimbă forma pentru a păcăli mecanismele de protecție.
Cercetătorii notează că PROMPTFLUX interacționează în special cu modelul Gemini AI al Google, însă în prezent se află într-o fază incipientă de dezvoltare. Analiza mostrelor arată că o parte dintre funcțiile sale sunt incomplete, iar apelurile către API-ul Gemini sunt limitate – un semn că acest malware este, deocamdată, în testare.
O nouă eră a amenințărilor cibernetice
Deși PROMPTFLUX nu a fost încă observat infectând dispozitive reale, existența lui arată clar direcția spre care se îndreaptă criminalitatea cibernetică. GTIG avertizează că dezvoltatorii de malware testează deja metode prin care pot exploata inteligența artificială pentru a-și face programele mai greu de depistat și mai ușor de personalizat.
Mai îngrijorător este faptul că astfel de instrumente ar putea deveni rapid disponibile pe piața neagră, reducând bariera tehnică pentru atacatorii mai puțin experimentați. „Există deja o piață subterană matură pentru instrumente AI ilegale, ceea ce ar putea permite oricărui actor rău intenționat să dezvolte programe complexe fără cunoștințe avansate,” notează GTIG.
Google a confirmat că actorii statali din Coreea de Nord, Iran și Republica Populară Chineză experimentează deja cu modele AI pentru a-și îmbunătăți operațiunile cibernetice. Asta înseamnă că inteligența artificială nu mai este doar o unealtă de cercetare sau productivitate, ci și un instrument de război digital.
„Este o evoluție care schimbă regulile jocului,” avertizează un expert în securitate cibernetică. „Dacă până acum apărarea se baza pe recunoașterea semnăturilor de cod, acum ne confruntăm cu un inamic care poate învăța să se transforme și să se ascundă.”
Inteligența artificială, armă și scut în același timp
Ironia situației este că aceeași tehnologie care permite hackerilor să creeze malware mai inteligent poate fi folosită și pentru a-l combate. Google a anunțat lansarea unui agent AI numit Big Sleep, conceput să detecteze vulnerabilități software și să prevină atacurile înainte ca acestea să aibă loc.
În esență, asistăm la începutul unei „curse a înarmării digitale” între AI-uri: unele concepute pentru a ataca, altele pentru a apăra. În timp ce PROMPTFLUX învață să se ascundă, Big Sleep și alte sisteme similare sunt instruite să-l găsească și să-i blocheze acțiunile înainte de a se răspândi.
GTIG a propus deja un nou cadru conceptual pentru protejarea sistemelor bazate pe AI, avertizând că modelele de limbaj mari pot deveni un dublu tăiș: o resursă uriașă pentru inovație, dar și un risc existențial pentru securitatea digitală dacă sunt folosite greșit.
Deocamdată, PROMPTFLUX nu reprezintă o amenințare activă, însă simpla sa existență demonstrează că inteligența artificială nu mai este doar o unealtă de suport, ci o parte integrantă din evoluția amenințărilor informatice.
Așa cum sintetizează specialiștii Google, „ne aflăm într-un moment de tranziție — unul în care malware-ul nu mai este doar scris, ci învățat, adaptat și recreat în timp real.” Iar de acum înainte, războiul cibernetic va fi, inevitabil, o luptă între AI-uri: un joc de umbre în care algoritmii nu doar se apără, ci se învață reciproc să devină tot mai perfecți.