ChatGPT a încâlcat GDPR. Cum a ajuns inteligența artificială victima unei plângeri legate de confidențialitatea datelor
:format(webp):quality(80)/https://playtech.ro/wp-content/uploads/2024/04/ChatGPT-a-incalcat-GDPR.-Cum-a-ajuns-inteligenta-artificiala-victima-unei-plangeri-legate-de-confidentialitatea-datelor-800x500.jpg)
OpenAI, prin ChatGPT, a fost recent implicată într-o dispută legată de confidențialitate, după ce a fost vizată de o plângere depusă de grupul NOYB.
Problema în cauză se referă la furnizarea de informații eronate de către chatbot-ul lor generativ, ChatGPT, care ar putea încălca normele Uniunii Europene privind confidențialitatea, conform unui raport Reuters.
Ce a greșit ChatGPT
AI-ul ChatGPT, care a fost catalizatorul pentru explozia de interes în domeniul inteligenței artificiale generative la sfârșitul anului 2022, este capabil să imite conversația umană și să îndeplinească o varietate de sarcini, de la rezumarea textelor lungi la compunerea de poezii sau generarea de idei pentru evenimente tematice.
NOYB a susținut că reclamantul în cauză, care este, de asemenea, o personalitate publică, a întrebat ChatGPT despre data sa de naștere și a primit în mod repetat informații incorecte. În loc să informeze utilizatorii că nu deține aceste date, chatbot-ul a furnizat informații greșite.
Grupul a subliniat că OpenAI a respins cererea reclamantului de a corecta sau șterge datele, afirmând că nu este fezabil să rectifice informațiile și că nu a dezvăluit detalii despre datele procesate, sursele acestora sau destinatarii.
NOYB a înaintat o plângere către autoritatea austriacă
NOYB a înaintat o plângere către autoritatea austriacă pentru protecția datelor, solicitând o investigație cu privire la modul în care OpenAI procesează datele și măsurile luate pentru a asigura acuratețea datelor personale procesate de modelele lor lingvistice de mare capacitate.
„Este evident că, în prezent, companiile nu reușesc să facă ca chatbot-urile precum ChatGPT să respecte legislația UE atunci când manipulează datele personale”, a declarat Maartje de Graaf, avocatul NOYB pentru protecția datelor, într-un comunicat.
„Astfel de sisteme trebuie să producă rezultate precise și transparente. Tehnologia ar trebui să se supună cerințelor legale, nu invers”, a adăugat aceasta.
OpenAI a recunoscut anterior tendința instrumentului de a oferi „răspunsuri care par plauzibile, dar sunt incorecte sau lipsite de sens”, o problemă pe care o consideră dificilă de rezolvat.
Această situație subliniază provocările pe care le implică dezvoltarea și utilizarea tehnologiilor AI în conformitate cu standardele de confidențialitate și protecție a datelor.