28 nov. 2025 | 09:50

Vulnerabilitate gravă în chatboturile AI: cum ar fi putut hackerii să afle ce scrii, chiar și în conversații criptate

TEHNOLOGIE
Share
Vulnerabilitate gravă în chatboturile AI: cum ar fi putut hackerii să afle ce scrii, chiar și în conversații criptate
Cum a devenit posibil ca mesaje criptate să fie „ghicite”

Într-o perioadă în care milioane de oameni folosesc zilnic chatboturi AI pentru muncă, documentare, programare sau chiar discuții personale, un nou raport ridică semne serioase de întrebare privind securitatea acestor platforme. Cercetători în securitate cibernetică de la Microsoft au descoperit o vulnerabilitate critică în arhitectura modelelor de limbaj moderne, o slăbiciune care ar fi putut permite atacatorilor să deducă conținutul conversațiilor — chiar dacă acestea erau criptate.

Problema nu a vizat textul în sine, ci metadatele — acele informații „invizibile” despre dimensiunea mesajelor, frecvență sau timpii de transmitere. Printr-un atac denumit sugestiv Whisper Leak, hackerii ar fi putut reconstitui subiectul conversațiilor apelând la analiza acestor date. Descoperirea ridică întrebări complicate pentru industria AI, mai ales că nu toți furnizorii de modele au adoptat soluțiile propuse.

În mod normal, conversațiile cu chatboturi sunt protejate prin TLS (Transport Layer Security), un protocol care împiedică interceptarea și citirea mesajelor. Doar că TLS nu ascunde metadatele, ci doar conținutul efectiv al textului. Aici intervine vulnerabilitatea descoperită de Microsoft.

Cercetătorii au observat că fiecare răspuns generat de un LLM lasă în urmă un tipar predictibil legat de lungimea pachetelor de date și de ritmul în care acestea sunt transmise. Analizând aceste tipare, atacatorii pot aproxima ce tip de informație conține un mesaj — inclusiv dacă discuția implică teme sensibile precum finanțe, infracțiuni cibernetice, sănătate sau poziții politice.

Este vorba despre un atac de tip „man-in-the-middle”, în care un actor rău intenționat interceptează datele în tranzit și le interpretează fără a le decripta. Practic, este o versiune mai sofisticată a ceea ce unele agenții guvernamentale fac deja: deducerea subiectului unui mesaj fără a-i citi efectiv textul.

Deși nu poate reconstrui cuvânt cu cuvânt o conversație, Whisper Leak poate identifica tema discuției cu o precizie alarmantă — suficient de mare încât să pună în pericol confidențialitatea utilizatorilor.

Cum au reacționat companiile mari și de ce unele nu vor să implementeze soluția

Microsoft și OpenAI s-au numărat printre primii furnizori care au evaluat riscurile și au instalat măsuri anti-leak în arhitectura modelelor lor. Totuși, nu toate companiile au procedat la fel. Cercetătorii spun că unele firme au refuzat să implementeze soluții, pretinzând că riscul este minor sau că arhitectura lor nu poate fi adaptată ușor.

Și mai îngrijorător este că o parte dintre furnizorii contactați nici măcar nu au răspuns. Cercetătorii nu au dezvăluit numele platformelor care ignoră vulnerabilitatea, tocmai pentru a evita exploatarea acesteia de către atacatori.

Printre metodele propuse pentru mitigare se numără:

  • padding aleatoriu, adică adăugarea de date inutile în pachetele transmise pentru a masca lungimea reală;
  • modificarea ritmului de transmitere a tokenilor text;
  • schimbări în protocolul de comunicare între server și client.

Toate sunt posibile, dar necesită resurse semnificative și modificări ample la nivel de infrastructură. Asta explică de ce unele companii ezită: pentru ele, costurile se pot dovedi mai mari decât riscul.

Ce înseamnă această breșă pentru tine și cum îți poți proteja datele

Descoperirea Whisper Leak vine într-un context în care AI este folosit tot mai des în medicină, banking, consultanță digitală, educație sau chiar psihoterapie. În mod inevitabil, chatboturile devin recipiente pentru date sensibile, iar o breșă precum aceasta poate compromite intimitatea utilizatorilor.

Cei care folosesc aceste servicii sunt sfătuiți să:

  • evite discuțiile sensibile pe rețele publice sau nesigure;
  • întrebe direct furnizorul dacă a implementat soluții anti-metadate leak;
  • folosească o VPN, care maschează o parte dintre metadatele transmise către servere;
  • fie conștienți că, deși mesajele sunt criptate, modelul poate fi vulnerabil la inferență.

Adevărul este că, până când toți furnizorii vor implementa soluții reale, vulnerabilitatea rămâne prezentă. Mesajele criptate protejează ceea ce scrii, dar nu pot ascunde modul în care serverul reacționează la mesajele tale — iar tocmai acest lucru poate oferi indicii valoroase pentru un atacator.

Descoperirile cercetătorilor nu reprezintă doar un avertisment, ci un semnal de alarmă pentru întreaga industrie AI. Într-un moment în care AI devine parte din infrastructura digitală a miliardelor de oameni, securitatea nu mai poate fi un detaliu opțional, ci o responsabilitate esențială.