AI-ul din Windows, vulnerabil la hackeri. Ce să știi dacă folosești Microsoft Copilot
Un nou tip de atac cibernetic numit „Reprompt” poate permite hackerilor să preia sesiuni ale asistentului AI Microsoft Copilot și să execute comenzi în numele utilizatorului fără ca acesta să își dea seama. Acest tip de tehnică a fost descoperit de cercetătorii în securitate de la compania Varonis, care au demonstrat că pot exploata modul în care Copilot procesează comenzile pentru a extrage date sensibile din sesiunea unui utilizator după ce acesta apasă un singur link infectat.
Atacul se bazează pe injectarea de prompturi periculoase într-o adresă URL legitimă, profitând de faptul că Copilot acceptă și execută automat comenzi primite prin parametrul „q” din URL atunci când pagina se încarcă. Așadar, dacă un atacator creează un link care pare legitim dar conține instrucțiuni ascunse și ți-l trimite într-un e-mail sau mesaj, Copilot poate interpreta acel link ca pe o comandă și acționa în consecință, folosindu-se de sesiunea ta autentică deja deschisă.
Pe scurt, atacul „Reprompt” funcționează în felul următor: atacatorul construiește un URL cu un prompt rău intenționat, trimite acel link către victimă (de exemplu, printr-un e-mail de tip phishing) și, odată ce victima îl accesează, Copilot începe să execute instrucțiunile ascunse. Acest lucru se poate face fără pluginuri sau alte trucuri complexe și poate permite exfiltrarea de informații fără ca utilizatorul să observe ceva neobișnuit.
Tehnicile prin care atacatorii păcălesc Copilot
Cercetătorii au identificat trei tehnici principale care stau la baza modului în care atacul „Reprompt” reușește să acceseze și să controleze sesiunea Copilot:
- Parameter-to-Prompt (P2P) injection: Această tehnică folosește parametrul „q” din URL pentru a injecta direct instrucțiuni rău intenționate. Practic, atacatorul include în link comenzi pe care Copilot le interpretează ca fiind valide și le execută automat când linkul este accesat.
- Double-request technique: Copilot aplică măsuri de protecție doar la prima solicitare. Dacă instruiești asistentul să repete o acțiune de două ori, a doua cerere poate ocoli acele măsuri, permițând atacatorului să extragă date sensibile fără restricții suplimentare.
- Chain-request technique: După ce Copilot răspunde la prima serie de comenzi, acesta poate continua să primească instrucțiuni dinamice de la serverul atacatorului. Practic, se creează un ciclu continuu prin care Copilot comunică cu un server rău intenționat și transmite informații, toate fără a afișa clar ce se întâmplă în fundal.
Acest mod de operare permite atacatorilor să mențină accesul la sesiune chiar și după ce victima închide fila cu Copilot, punând securitatea datelor personale la risc.
De ce această vulnerabilitate a fost importantă și cum a fost rezolvată
Problema „Reprompt” nu a fost exploatată încă în mod documentat în mediul real, dar a atras atenția cercetătorilor tocmai pentru potențialul său de a compromite date sensibile fără avertismentul utilizatorului.
Cercetătorii de la Varonis au raportat vulnerabilitatea către Microsoft în data de 31 august 2025, iar compania a publicat o corecție de securitate în cadrul Patch Tuesday din ianuarie 2026, oferind actualizări care împiedică utilizarea acestui tip de atac.
Este totuși important de menționat că vulnerabilitatea a afectat doar Copilot Personal, versiunea destinată utilizatorilor individuali, și nu Microsoft 365 Copilot pentru clienți enterprise. Produsul pentru afaceri beneficiază de un set mai complex de controale de securitate, inclusiv auditare prin Purview, politici DLP la nivel de tenant și restricții impuse de administrator, care reduc riscurile unor astfel de atacuri.
Microsoft 365 Copilot are alte mecanisme defensive care contracarează injecțiile de prompturi sau activitățile neautorizate, precum filtre pentru conținut suspect, modele de clasificare a prompturilor malițioase și politici stricte de securitate integrate în arhitectura sa.
Cum te afectează și ce poți face pentru a te proteja
Chiar dacă „Reprompt” a fost deja remediat, este esențial să fii conștient de riscurile legate de utilizarea AI-ului conectat la conturile tale personale. Copilot poate accesa date din Windows, din browserul Edge sau din aplicațiile tale atunci când este autorizat să facă acest lucru, iar dacă un link prin care îți este trimisă o comandă pare legitim, poți fi tentat să îl accesezi fără să verifici sursa atent.
Iată câteva măsuri practice pe care le poți lua:
- Menține actualizate sistemul de operare Windows și aplicațiile conexe pentru a beneficia de cele mai recente patch-uri de securitate.
- Evită să accesezi linkuri primite prin mesaje sau e-mail atunci când nu cunoști sursa sau nu te aștepți la ele.
- Activează autentificarea multifactor (MFA) pe conturile tale pentru a adăuga un nivel suplimentar de protecție.
- Fii atent la mesajele care par urgente sau care încearcă să te determine să acționezi rapid — acestea pot fi tactici de phishing.
A fi precaut nu înseamnă să renunți la tehnologie, ci să o folosești în mod conștient și responsabil. În acest fel, reduci riscul ca informațiile tale personale să fie compromise.
În concluzie, vulnerabilitatea „Reprompt” este un exemplu clar că integrarea AI în instrumentele de zi cu zi aduce cu sine noi tipuri de riscuri. Fii mereu pregătit să îți protejezi conturile și rămâi informat despre cele mai recente amenințări cibernetice care pot afecta modul în care folosești tehnologia.