16 sept. 2025 | 12:04

Atacuri cibernetice și dezinformare cu AI: România, țintă predilectă în anul electoral 2024

ACTUALITATE
Share
Atacuri cibernetice și dezinformare cu AI: România, țintă predilectă în anul electoral 2024

România a fost vizată în 2024 de o campanie amplă de război hibrid, în care atacurile cibernetice s-au împletit cu dezinformarea asistată de inteligență artificială. Evaluarea aparține procurorului general Alex Florența, care spune că obiectivul a fost modelarea opiniei publice, slăbirea capacității de decizie a autorităților și afectarea coeziunii sociale. În acest tablou, tehnologiile AI au jucat un rol-cheie în multiplicarea mesajelor și personalizarea lor pentru grupuri-țintă.

Oficialul a indicat Rusia drept sursa principală a agresiunilor hibride, acuzând utilizarea combinată a intruziunilor cibernetice asupra unor instituții-cheie și a unei campanii online agresive, cu micro-țintire și tactici de inginerie socială. Mesajele au vizat audiențe deja receptive, iar tehnicile au eludat politicile platformelor privind promovarea actorilor politici, spune Parchetul General.

Cum s-au manifestat atacurile

Conform descrierilor procurorului general, partea tehnică a vizat infrastructuri și sisteme ale unor instituții publice, cu încercări de compromitere a conturilor, acces la date și întreruperi de servicii. Astfel de lovituri, chiar și atunci când nu produc pagube majore vizibile, consumă resurse, erodează încrederea și pot crea ferestre de oportunitate pentru operațiuni informaționale paralele. În perioade electorale, orice sincopă devine narațiune: „sistemul e vulnerabil”, „instituțiile nu fac față”, „procesul e viciat”.

În online, piesa de rezistență a fost dezinformarea cu sprijin AI: conturi coordonate, pagini „oglindă”, site-uri nou-create și rețele care amplifică mesaje emoționale, conspiraționiste sau polarizante. Algoritmii generativi au permis producerea rapidă de texte persuasive, imagini și clipuri „plauzibile”, reducând costul și timpul necesare unei campanii de amploare. Micro-țintirea – adaptarea mesajului la profilul și interesele unui grup – a sporit eficiența, mai ales când a fost combinată cu evenimente de moment, crize sau teme sensibile.

Ținte, metode și vulnerabilități

Țintele predilecte în astfel de operațiuni sunt, de regulă, verigile cu cea mai mare vizibilitate publică: administrația centrală, autorități electorale, primării, instituții cu rol de securitate și entități media. Un atac reușit ori un incident mediatizat poate alimenta rapid o narațiune de neîncredere, iar în spațiul informațional „faptul” circulă, de multe ori, mai repede decât clarificarea oficială. Aici, AI-ul face diferența: produce conținut convingător, greu de demontat în timp real.

Vulnerabilitățile nu țin doar de tehnologie, ci și de comportamentul utilizatorilor. Ingineria socială rămâne poarta de intrare: e-mailuri bine scrise, linkuri capcană, pagini clonă, solicitări „urgente” de actualizare a datelor sau de verificare a identității. În paralel, ecosistemul platformelor sociale este exploatat prin rețele de conturi care se sprijină reciproc, crescând artificial „credibilitatea” și acoperirea mesajelor. Când astfel de rețele folosesc instrumente AI pentru a genera conținut variat, detectarea manuală devine aproape imposibilă.

Procurorul general Alex Florența afirmă că România a fost ținta unor atacuri hibride care au vizat alegerile din 2024.

Procurorul general Alex Florența afirmă că România a fost ținta unor atacuri hibride care au vizat alegerile din 2024. (Foto: Inquam)

Ce urmează și cum răspunde statul

Procurorul general avertizează că agresiunile hibride continuă, cu tactici din ce în ce mai insidioase. Răspunsul necesită coordonare inter-instituțională: întărirea capabilităților de apărare cibernetică, schimb de informații rapid între instituții, proceduri clare de comunicare în criză și colaborare cu platformele pentru limitarea rețelelor coordonate. Un rol esențial îl are și justiția, prin anchete care documentează atât sursa, cât și lanțurile de distribuție ale campaniilor ostile.

La fel de importantă este reziliența publicului. Educația media, alfabetizarea digitală și reflexul de a verifica sursa devin „antivirusul” social. În campanie electorală și nu numai, transparența instituțiilor – comunicare promptă, date deschise, demontarea rapidă a falsurilor – reduce spațiul de manevră al dezinformării. Platformele pot completa acest efort prin etichetarea conținutului manipulator, limitarea distribuției pentru postările cu semnalizare de risc și colaborarea cu autoritățile în cazuri grave.

Lecția anului 2024

Anul electoral 2024 arată că frontul invizibil al democrațiilor europene trece prin servere, feed-uri și grupuri de chat. Nu există o „soluție magică”, ci un ansamblu de măsuri – tehnice, legale și educaționale – care, împreună, cresc costul și scad eficiența operațiunilor ostile. În lipsa lor, fiecare rundă electorală riscă să devină teren de test pentru tactici tot mai rafinate.

În final, miza nu este doar integritatea procesului electoral, ci și încrederea – capitalul esențial al unei societăți care funcționează. Iar încrederea se protejează nu doar cu firewall-uri și proceduri, ci și cu luciditate civică, reflex critic și responsabilitate în spațiul informațional.