Bug în Microsoft Copilot: AI-ul a rezumat emailuri „confidențiale”, deși trebuia să le ignore
Microsoft spune că un bug din Microsoft 365 Copilot a făcut ca asistentul AI să rezume emailuri confidențiale încă de la finalul lunii ianuarie, ocolind politicile de prevenire a pierderii datelor (DLP) pe care organizațiile se bazează pentru a proteja informații sensibile. Problema e cu atât mai delicată cu cât nu vorbim despre mesaje „obișnuite”, ci despre emailuri etichetate explicit cu marcaje de confidențialitate, tocmai ca să nu fie procesate automat de instrumente care nu au dreptul să le vadă.
Incidentul a fost semnalat printr-o alertă de serviciu, iar Microsoft a confirmat că afectează funcția de chat din fila „work tab” din Copilot. Concret, componenta respectivă ar fi citit și rezumat emailuri din folderele Sent Items și Drafts, inclusiv mesaje cu etichete de confidențialitate și cu DLP configurat. Compania a atribuit cauza unei erori de cod (fără să detalieze exact ce s-a întâmplat), a început distribuirea unui fix la început de februarie și spune că încă monitorizează implementarea, contactând un subset de utilizatori afectați pentru a valida că remedierea funcționează.
Dincolo de detaliile tehnice, cazul pune reflectorul pe o realitate incomodă: atunci când adaugi un strat AI peste o suită de productivitate folosită zilnic, orice scăpare de control al accesului nu mai e un bug „minor”, ci poate deveni o problemă de conformitate, de guvernanță a datelor și, în unele industrii, chiar de risc legal.
Ce s-a întâmplat, pe scurt, și de ce e ocolirea DLP atât de serioasă
Potrivit informațiilor comunicate, bugul (urmărit intern sub un identificator de incident) ar fi fost detectat pe 21 ianuarie și ar fi fost activ „de la finalul lunii ianuarie”. El ar fi afectat Copilot Chat din zona „work tab”, unde asistentul ar fi preluat și rezumat emailuri din Sent Items și Drafts. Asta contează fiindcă, în multe organizații, aceste foldere sunt pline de conținut sensibil: propuneri comerciale înainte să fie trimise, drafturi de contracte, discuții interne, răspunsuri parțiale care includ date personale sau informații despre clienți.
Partea cea mai gravă din descriere este că emailurile aveau etichete de confidențialitate și existau politici DLP configurate, însă rezumarea tot s-ar fi produs. În mod normal, etichetele de sensibilitate și DLP sunt folosite tocmai pentru a limita accesul, pentru a bloca exfiltrarea de date și pentru a împiedica procese automate să manipuleze conținutul în mod neautorizat. Dacă un asistent AI trece peste aceste garduri, nu mai vorbim doar despre „funcționalitate care nu merge”, ci despre un mecanism de protecție care nu își face treaba când ar trebui.
Microsoft a încadrat situația ca „advisory”, un tip de etichetare asociată, de regulă, cu impact considerat limitat sau cu un incident care nu afectează universal toți clienții. Totuși, compania nu a comunicat câți utilizatori sau câte organizații ar fi fost afectate și nici un termen final pentru remediere completă, menționând că amploarea poate varia pe măsură ce investigația continuă. Din perspectiva unei companii, tocmai această incertitudine e frustrantă: dacă nu știi exact aria de impact, trebuie să tratezi incidentul ca pe unul potențial serios până când ai confirmări ferme din propriile loguri și controale.
Ce înseamnă pentru organizații și ce verifici imediat dacă folosești Copilot
În primul rând, merită să separi două idei care se amestecă ușor: faptul că un asistent poate „rezuma” nu înseamnă automat că a „trimis” datele în exterior. Totuși, chiar și doar procesarea internă a conținutului sensibil într-un context în care etichetele ar fi trebuit să o interzică poate încălca politici interne, cerințe de audit și angajamente contractuale. Iar dacă rezumatul ajunge vizibil într-un chat, apare și întrebarea secundară: cine are acces la acel chat, cum se păstrează istoricul, cât timp rămâne disponibil și ce mecanisme de retenție sau eDiscovery se aplică acolo.
Dacă ești într-o organizație care folosește Microsoft 365 Copilot, primul reflex bun este să tratezi incidentul ca pe un exercițiu de guvernanță, nu ca pe o problemă „doar de IT”. Începe prin a identifica rapid dacă ai utilizatori cu Copilot Chat activ, în special pe zona „work tab”, și dacă există politici DLP care ar trebui să blocheze procesarea mesajelor cu etichete de confidențialitate. Apoi, uită-te la folderele vizate (Sent Items și Drafts) în contextul proceselor tale reale: cine lucrează cu contracte în draft, cine pregătește rapoarte financiare pe email, cine gestionează date personale sau medicale.
Practic, ce verifici imediat ține de trei lucruri:
- dacă au existat interacțiuni în Copilot Chat care au produs rezumate din emailuri etichetate „Confidential” (sau echivalentul intern),
- dacă rezumatele au fost vizibile doar pentru utilizatorul respectiv sau au ajuns și în contexte unde le pot vedea alții,
- dacă există dovezi clare în loguri că s-a întâmplat procesarea unor mesaje care ar fi trebuit excluse.
În paralel, dacă ai o politică internă strictă, poți lua măsuri de reducere a expunerii până când ești sigur că remedierea e completă. Nu înseamnă că trebuie să oprești tot AI-ul din companie, dar înseamnă că poți restrânge temporar funcționalitatea care a fost raportată ca problematică, acolo unde ai această opțiune, și să comunici intern riscul într-un mod calm, clar și acționabil. Important e să nu tratezi comunicarea ca pe o sperietoare: spune ce se știe, ce nu se știe, ce verifici și ce comportament de lucru vrei să urmeze oamenii până la confirmare.
Pe partea de igienă operațională, dacă lucrezi cu informații sensibile pe email, ai două obiceiuri care te ajută indiferent de vendor: nu lăsa în Drafts mai mult decât e necesar și nu folosi emailul ca depozit de documente care ar trebui să stea în sisteme cu control mai strict (de exemplu, în zone dedicate de management de documente). Dacă știi că un flux intern creează drafturi cu date sensibile și le ține acolo zile întregi, tocmai ai găsit un punct slab care merită reparat independent de acest incident.
În final, povestea bugului din Copilot e un reminder util: politicile precum DLP și etichetele de sensibilitate sunt doar la fel de bune ca implementarea lor în toate componentele care ating datele. Când intră AI-ul în ecuație, suprafața de atac crește, iar validarea „end-to-end” devine obligatorie. Dacă folosești Copilot, tratează momentul ca pe o ocazie să-ți întărești controalele, să-ți verifici fluxurile de lucru și să-ți educi echipa despre ce înseamnă, concret, confidențialitatea într-un ecosistem în care rezumarea automată a devenit o funcție la un click distanță.