12 aug. 2025 | 09:30

ChatGPT – poarta hackerilor către datele tale personale. De ce să nu te autentifici cu contul de Google

TEHNOLOGIE
Share
ChatGPT - poarta hackerilor către datele tale personale. De ce să nu te autentifici cu contul de Google
ChatGPT vine cu probleme de securitate / foto: reprezentare AI

Un experiment realizat de experți în securitate cibernetică a scos la iveală cât de ușor poate fi păcălit ChatGPT să dezvăluie informații personale sensibile, inclusiv date din contul tău Google Drive. Vulnerabilitatea a fost prezentată la conferința Black Hat și arată că, în anumite condiții, atacatorii pot exploata funcțiile avansate ale chatbotului fără ca utilizatorul să facă vreun gest.

Problema este legată de așa-numitele atacuri de tip „indirect prompt injection” – o tehnică prin care instrucțiunile malițioase sunt ascunse într-un document, fără ca acestea să fie vizibile cu ochiul liber. Atunci când ChatGPT are acces la document, îl „citește” și execută comenzile ascunse, ceea ce poate duce la expunerea datelor către hackeri.

Cum funcționează atacul

În scenariul demonstrat, atacatorii au creat un document ce conținea un text de aproximativ 300 de cuvinte, scris cu font minuscul și alb pe fundal alb, astfel încât să nu fie detectat vizual. Documentul era apoi partajat cu victima, care îl deschidea folosind ChatGPT conectat la contul său Google.

Instrucțiunile ascunse îi „explicau” chatbotului că nu este nevoie să rezume documentul, ci să extragă cheia API din Google Drive și să o transmită atacatorului. Tot procesul era complet „zero-click” din perspectiva utilizatorului: nu era nevoie de confirmări, descărcări sau interacțiuni suplimentare.

Deși exploitul nu permitea descărcarea completă a documentelor, el demonstra că accesul AI la conturile personale poate fi manipulat pentru a scurge date critice. Specialiștii atrag atenția că problema nu este limitată la Google – ChatGPT poate fi conectat la 17 servicii diferite, fiecare potențial vulnerabil la tehnici similare.

Riscuri extinse și consecințe

Vulnerabilitatea scoate în evidență riscurile crescute odată cu integrarea AI în viața digitală a utilizatorilor. Cu cât aceste sisteme primesc mai mult acces la informații private și la servicii conectate, cu atât cresc șansele ca un exploit să provoace daune majore.

Cazul nu este singular: cercetători din Israel au demonstrat o metodă asemănătoare prin care un chatbot AI de la Google putea fi păcălit să controleze un sistem smart home doar printr-o invitație de calendar „otrăvită”. În ambele situații, atacatorii nu aveau nevoie de contact direct cu victimele, ceea ce face aceste metode deosebit de periculoase.

Experții subliniază că, pe măsură ce AI va fi integrată în dispozitive fizice precum mașini autonome sau roboți umanoizi, vulnerabilități de acest tip nu vor mai amenința doar intimitatea, ci și siguranța fizică a utilizatorilor.

Deși problema semnalată a fost remediată de OpenAI, mesajul transmis de cercetători este clar: cu cât conectezi mai multe servicii critice la un sistem AI, cu atât îți asumi riscuri mai mari. Autentificarea ChatGPT cu contul de Google poate părea practică, dar poate deschide și o cale directă pentru atacuri sofisticate.