Cum folosesc hackerii inteligența artificială în toate etapele unui atac cibernetic
Inteligența artificială a intrat definitiv în infrastructura digitală globală, iar impactul nu mai este doar pozitiv. Dacă până recent discuțiile publice se concentrau pe productivitate, automatizare și inovație, astăzi devine tot mai clar că aceleași instrumente pot fi folosite și pentru operațiuni ostile, de la campanii de phishing până la dezvoltare de malware. Un raport recent arată că modelul Gemini este exploatat de actori statali și de grupări criminale pentru aproape întregul „lanț” al unui atac cibernetic.
Concluzia cea mai importantă nu este că AI a inventat un tip complet nou de amenințare, ci că a crescut viteza, scalabilitatea și accesibilitatea atacurilor deja cunoscute. Acolo unde un actor malițios avea nevoie de echipe tehnice, timp mult și o curbă de învățare abruptă, acum poate obține rapid asistență pentru cercetare, redactare de mesaje frauduloase, testare de cod și chiar integrarea unor funcții noi în instrumente existente. Cu alte cuvinte, AI nu înlocuiește atacatorul, dar îl face mai eficient.
De la recunoaștere la exfiltrare: cum este folosit AI în practică
Conform informațiilor prezentate, grupări asociate Chinei, Iranului, Coreei de Nord și Rusiei au utilizat Gemini în etape care acoperă aproape întregul ciclu operațional al unui atac: profilare de ținte, colectare de informații publice, creare de momeli de phishing, traduceri, generare și depanare de cod, testare de vulnerabilități și suport post-compromitere. Practic, AI devine un „copilot” tehnic pentru atacatori, inclusiv în scenarii în care aceștia urmăresc ținte specifice.
Un exemplu relevant este folosirea unor scenarii fabricate pentru a obține de la model recomandări privind analiză de vulnerabilități, inclusiv pe teme sensibile precum execuție de cod la distanță, tehnici de ocolire a unor mecanisme defensive sau interpretarea rezultatelor unor teste de securitate. Chiar și atunci când prompturile sunt ambalate ca exerciții „teoretice”, intenția operațională poate fi clară pentru un analist uman. În paralel, unii actori au folosit modelul pentru sarcini aparent banale, dar foarte utile: repararea rapidă a codului, clarificarea unor concepte tehnice și accelerarea cercetării înainte de intruziune.
În cazul actorului iranian APT42, accentul a fost pus pe social engineering și dezvoltare mai rapidă de unelte personalizate. Asta înseamnă mesaje frauduloase mai bine redactate, livrate mai convingător și adaptate mai fin la contextul victimei. Când astfel de capabilități se combină cu automatizare, campaniile devin mai greu de filtrat, mai ales în organizațiile în care disciplina de securitate este inegală între departamente.
Malware „augmentat” cu AI: ce arată cazurile HonestCue și CoinBait
Dincolo de partea de phishing și recunoaștere, raportul descrie și tendința de a integra AI în dezvoltarea efectivă a malware-ului. Aici apar două exemple importante: HonestCue și CoinBait. Nu vorbim neapărat despre familii de malware capabile, singure, să schimbe regulile jocului, dar ele arată direcția în care se mișcă ecosistemul infracțional: prototipuri și kituri care folosesc AI pentru a grăbi iterația.
HonestCue, observat ca proof-of-concept la final de 2025, este descris ca un framework care utilizează API-ul Gemini pentru a genera cod C# pentru componente secundare de malware, apoi compilează și rulează încărcătura în memorie. Este un model operațional important: atacatorul nu are nevoie să scrie manual fiecare componentă, ci orchestrează fluxul și validează rezultatul. Chiar dacă nivelul de sofisticare tehnică nu este încă maxim, metoda reduce timpul dintre idee și execuție.
CoinBait, pe de altă parte, este prezentat ca un kit de phishing ambalat sub forma unei aplicații web care imită o platformă crypto, cu scopul de a fura credențiale. Indicatorii tehnici sugerează că dezvoltarea lui a fost accelerată cu unelte de generare de cod. Un detaliu interesant pentru apărători este prezența unor mesaje de log specifice, care pot deveni artefacte utile în detecție și investigație. Chiar dacă aceste indicii nu opresc singure atacul, ele pot ajuta la corelarea incidentelor și la identificarea infrastructurii comune.
Pe scurt, nu trebuie să privești aceste exemple ca pe excepții exotice, ci ca pe prime semnale ale unei tranziții mai ample: actorii malițioși experimentează intens, iar ce astăzi pare „doar prototip” poate deveni rapid practică standard în campaniile de mâine.
ClickFix, reclame malițioase și noul strat de inginerie socială
Un alt element important este folosirea serviciilor generative în campanii de tip ClickFix, inclusiv în scenarii care distribuie malware pentru macOS. Mecanismul este simplu și eficient: victima caută soluții pentru o problemă tehnică, vede anunțuri sau rezultate care par legitime și este convinsă să ruleze comenzi aparent „de depanare”, dar care instalează componente malițioase.
Ce schimbă AI aici? În principal, calitatea înșelătoriei. Textele sunt mai fluide, traducerile mai bune, explicațiile tehnice par mai credibile, iar adaptarea la limba și contextul țintei devine mai ieftină. Într-o campanie clasică, multe mesaje de phishing erau trădate de formulări stângace. În campaniile asistate de AI, acel semnal de alarmă dispare frecvent, iar utilizatorul rămâne fără un indicator intuitiv de risc.
Pentru tine, asta înseamnă că igiena de securitate trebuie să devină mai strictă: nu executa comenzi copiate din rezultate sponsorizate fără verificare, nu instala profiluri sau utilitare „de urgență” din surse necunoscute și validează mereu domeniul, editorul aplicației și reputația sursei. Atacurile nu sunt neapărat mai „magice”, dar sunt mai bine ambalate psihologic.
Extracția de model și distilarea cunoașterii: miza invizibilă a războiului AI
Raportul atrage atenția și asupra unui risc diferit de abuzul operațional direct: încercările de extragere a comportamentului modelului, urmate de distilare într-un alt model. Practic, un actor cu acces la API poate interoga sistematic modelul-țintă cu volume foarte mari de prompturi, colectează ieșirile și antrenează o replică funcțională mai ieftină.
Acest tip de atac nu lovește imediat utilizatorul final în forma unui phishing email, dar are implicații economice și strategice serioase: furt de proprietate intelectuală, reducerea avantajului competitiv și erodarea modelului de business pentru serviciile AI comerciale. Dacă astfel de practici se scalează, furnizorii legitimi sunt forțați să aloce resurse tot mai mari pentru protecție, iar costurile pot ajunge indirect la clientul final.
Exemplul menționat, cu zeci de mii de prompturi orientate spre replicarea raționamentului modelului în mai multe sarcini și limbi, arată că amenințarea este deja practică, nu teorie. În consecință, furnizorii reacționează prin suspendarea conturilor abuzive, blocarea infrastructurilor asociate și întărirea clasificatorilor de siguranță pentru a limita tiparele suspecte de interogare.
Ce urmează pentru companii și utilizatori
În perioada următoare, cel mai probabil vei vedea două tendințe care merg în paralel. Prima: atacatorii vor continua să integreze AI în toolset-urile lor, în special pentru automatizare, variație de conținut și reducerea erorilor umane. A doua: furnizorii de modele vor întări controalele, monitorizarea și filtrele comportamentale, ceea ce va muta competiția către tactici mai subtile de evitare a detecției.
Pentru organizații, răspunsul eficient nu înseamnă panică, ci maturizare operațională: politici clare pentru utilizarea AI interne, audit pe fluxurile de prompting, segmentare de acces, monitorizare endpoint, detecție comportamentală și exerciții periodice de simulare phishing. Pentru utilizatorul obișnuit, regula rămâne surprinzător de simplă: verifici sursa înainte să acționezi, tratezi urgențele tehnice „prea perfecte” cu suspiciune și nu rulezi comenzi pe care nu le înțelegi.
Mesajul de fond este limpede: AI nu este, în sine, nici „bună”, nici „rea”. Este un accelerator. În mâini legitime, accelerează inovația. În mâini ostile, accelerează atacul. Diferența dintre cele două rezultate se joacă în guvernanță, securitate practică și în disciplina ta digitală de zi cu zi.