25 iul. 2023 | 14:26

Inteligența artificială, folosită de hackeri pentru a înșela oamenii. „Cine știe ce ne așteaptă pe viitor”

ACTUALITATE
Inteligența artificială, folosită de hackeri pentru a înșela oamenii. „Cine știe ce ne așteaptă pe viitor”

Hackerii și propagandiștii folosesc inteligența artificială (IA) pentru a crea software malițios, a redacta emailuri de phishing convingătoare și a răspândi dezinformare online, a declarat principalul oficial pentru securitate cibernetică din Canada, într-un interviu acordat agenției Reuters.

Inteligența artificială, folosită pentru înșelătorii și dezinformare

Aceasta reprezintă o dovadă incipientă că revoluția tehnologică care cuprinde Silicon Valley a fost adoptată și de către infractorii cibernetici.

În interviu, șeful Centrului Canadian pentru Securitate Cibernetică, Sami Khoury, a menționat că agenția sa a observat folosirea IA „în emailurile de phishing sau redactarea de emailuri într-un mod mai concentrat, în coduri malițioase și în dezinformare.”

Khoury nu a oferit detalii sau dovezi, dar afirmația sa că infractorii cibernetici folosesc deja IA adaugă o notă urgentă la preocupările cu privire la utilizarea acestei tehnologii emergente de către actorii răufăcători.

În ultimele luni, mai multe grupuri de monitorizare a securității cibernetice au publicat rapoarte care avertizează cu privire la riscurile ipotetice ale IA – în special a programelor de procesare a limbajului care avansează rapid, cunoscute sub denumirea de modele de limbaj extins (LLM), care se bazează pe volume uriașe de text pentru a redacta dialoguri și documente convingătoare.

În luna martie, Europol, organizația europeană a poliției, a publicat un raport în care se menționa că modelele precum ChatGPT de la OpenAI au făcut posibilă „înșelarea unei organizații sau a unei persoane într-un mod extrem de realist, chiar și având doar o înțelegere de bază a limbii engleze.”

Aceeași lună, Centrul Național de Securitate Cibernetică din Marea Britanie a menționat într-un articol pe blog că există riscul ca infractorii să „folosească LLM-urile pentru a ajuta la atacuri cibernetice dincolo de capacitățile lor actuale.”

Conținut suspect generat de IA, din ce în ce mai des în spațiul online

Cercetătorii în securitatea cibernetică au demonstrat o varietate de posibile cazuri de utilizare malefică și unii afirmă că au început să observe conținut suspect generat de IA în mediul online. Săptămâna trecută, un fost hacker a declarat că a descoperit un LLM instruit cu materiale malițioase și l-a rugat să redacteze o încercare convingătoare de a înșela pe cineva să facă un transfer de bani.

LLM-ul a răspuns cu un email de trei paragrafe, cerând țintei ajutor în legătură cu o factură urgentă.

„Înțeleg că este posibil să fie prea puțin timp,” spunea LLM-ul, „dar această plată este extrem de importantă și trebuie făcută în următoarele 24 de ore.”

Khoury a menționat că, deși utilizarea IA pentru redactarea de coduri malițioase se află încă într-un stadiu incipient – „mai este cale lungă, deoarece este nevoie de mult timp pentru a scrie un exploit bun” – preocuparea este că modelele IA evoluează atât de rapid încât este dificil să anticipăm potențialul lor malefic înainte ca acestea să fie lansate în mediul online.

„Cine știe ce ne așteaptă în viitor,” a concluzionat el.