08 iul. 2024 | 18:00

Probleme majore de securitate pentru OpenAI: Ce trebuie să știi neapărat dacă folosești ChatGPT

ACTUALITATE
Probleme majore de securitate pentru OpenAI: Ce trebuie să știi neapărat dacă folosești ChatGPT

OpenAI a ajuns din nou în centrul atenției, de această dată din cauza a două probleme majore de securitate. Prima problemă este legată de aplicația ChatGPT pentru Mac, în timp ce a doua ridică îngrijorări mai ample privind gestionarea securității cibernetice de către companie.

Vulnerabilitatea aplicației ChatGPT pentru Mac

La începutul acestei săptămâni, inginerul și dezvoltatorul Swift, Pedro José Pereira Vieito, a descoperit că aplicația ChatGPT pentru Mac stoca local conversațiile utilizatorilor în text simplu, fără criptare. Aplicația este disponibilă doar pe site-ul OpenAI și, nefiind pe App Store, nu trebuie să respecte cerințele de sandboxing impuse de Apple. Lucrările lui Vieito au fost acoperite de The Verge, iar după ce exploatarea a atras atenția, OpenAI a lansat o actualizare care a adăugat criptare pentru conversațiile stocate local.

Pentru cei care nu sunt dezvoltatori, sandboxing-ul este o practică de securitate care împiedică răspândirea vulnerabilităților și eșecurilor de la o aplicație la alta pe un computer. Iar pentru cei care nu sunt experți în securitate, stocarea fișierelor locale în text simplu înseamnă că datele potențial sensibile pot fi vizualizate cu ușurință de alte aplicații sau programe malware.

Breșa de securitate din 2023 și consecințele sale

A doua problemă a avut loc în 2023, dar consecințele ei continuă să se resimtă și astăzi. Primăvara trecută, un hacker a reușit să obțină informații despre OpenAI după ce a accesat ilegal sistemele interne de mesagerie ale companiei. The New York Times a raportat că managerul de program tehnic al OpenAI, Leopold Aschenbrenner, a ridicat îngrijorări legate de securitate către consiliul de administrație al companiei, argumentând că hack-ul implica vulnerabilități interne de care adversarii străini ar putea profita.

Aschenbrenner susține acum că a fost concediat pentru că a dezvăluit informații despre OpenAI și pentru că a ridicat îngrijorări legate de securitatea companiei. Un reprezentant al OpenAI a declarat pentru The Times că „deși împărtășim angajamentul său pentru construirea unei AGI sigure, nu suntem de acord cu multe dintre afirmațiile pe care le-a făcut de atunci despre munca noastră” și a adăugat că plecarea sa nu a fost rezultatul dezvăluirilor.

Implicații și perspective

Vulnerabilitățile aplicațiilor sunt o problemă cu care se confruntă fiecare companie de tehnologie. Breșele de securitate sunt, de asemenea, din păcate, comune, la fel ca și relațiile tensionate dintre avertizori și foștii lor angajatori. Cu toate acestea, având în vedere cât de larg a fost adoptat ChatGPT în serviciile jucătorilor majori și cât de haotice au fost practicile și reputația publică a companiei, aceste probleme recente încep să contureze un tablou mai îngrijorător despre capacitatea OpenAI de a gestiona datele în mod adecvat.

Aceste evenimente subliniază necesitatea unor măsuri de securitate mai riguroase și a unei transparențe sporite pentru a proteja datele utilizatorilor și pentru a asigura încrederea publicului în serviciile oferite de OpenAI.