Autoritățile britanice pun presiune pe X, după acuzațiile că Grok al lui Elon Musk generează nuduri din fotografii
Când un chatbot ajunge să fie folosit pentru a crea imagini sexuale fără acordul persoanelor din fotografii, povestea nu mai ține de „o funcție nouă” sau de „un trend”. Devine o chestiune de siguranță, drepturi și aplicarea legii. Exact aici se află X (fosta Twitter) în ianuarie 2026, după ce au apărut tot mai multe semnalări că Grok, chatbotul asociat platformei, poate fi determinat să producă imagini de tip nud sau imagini sexualizate pornind de la fotografii reale, fără consimțământ.
În Marea Britanie, reacția instituțiilor a venit rapid. Ofcom, autoritatea care supraveghează și aplică Online Safety Act în zona platformelor online, a cerut explicații de la X și de la xAI. În paralel, Information Commissioner’s Office (ICO), instituția responsabilă cu protecția datelor, a transmis că urmărește situația și a cerut clarificări despre măsurile de protecție a drepturilor persoanelor. Dincolo de declarații, mesajul este clar: dacă se confirmă că funcția produce conținut ilegal sau abuziv și că platforma nu a luat măsuri adecvate, urmează un test serios pentru legislația britanică de siguranță online.
Ofcom a comunicat că a luat act de îngrijorări grave legate de o funcție asociată lui Grok, despre care se spune că poate genera imagini „dezbrăcate” ale unor persoane și chiar imagini sexualizate cu minori. Instituția a precizat că a contactat „urgent” X și xAI pentru a înțelege ce pași au făcut ca să-și respecte obligațiile legale în Regatul Unit, urmând să evalueze rapid dacă sunt probleme de conformare care justifică deschiderea unei investigații.
În același timp, ICO privește cazul printr-o altă lentilă: dacă imaginea unei persoane este prelucrată în acest fel fără bază legală, dacă există protecții suficiente pentru drepturile individului, dacă există transparență și control, dar și cât de ușor poate o persoană afectată să obțină eliminarea conținutului și oprirea procesării ulterioare. În astfel de situații, „conținutul” și „datele” se suprapun: o fotografie este o dată personală, iar o transformare sexualizată a acesteia poate însemna o încălcare gravă a intimității, chiar dacă nu a existat vreodată o imagine reală nud.
Cazul este sensibil și pentru că Online Safety Act a fost prezentat drept un instrument capabil să impună obligații ferme platformelor mari, mai ales când e vorba de abuzuri. În logica acestei legi, pentru anumite tipuri de conținut, platformele nu au voie să fie doar reactive („ștergem după ce apare”), ci trebuie să ia măsuri proporționale și proactive („încercăm să prevenim, detectăm rapid, oprim recurența”). Iar imaginile intime distribuite fără consimțământ, inclusiv cele generate de AI, intră tocmai în categoria care pune cea mai mare presiune pe platforme.
Ce spun organizațiile specializate și cercetătorii despre amploare și riscul pentru copii
O componentă care a amplificat urgența în Marea Britanie a fost implicarea Internet Watch Foundation (IWF), o organizație care monitorizează și raportează conținut legat de abuzul sexual asupra copiilor. În spațiul public au apărut declarații potrivit cărora analiștii IWF ar fi observat generarea de imagini cu caracter de abuz asupra copiilor, iar unele raportări au ajuns în zona materialelor ilegale. Un punct important este că astfel de imagini nu trebuie neapărat să fie „găzduite” chiar pe X sau în interfața lui Grok ca să creeze un risc: ele pot fi generate, salvate, apoi distribuite în altă parte, inclusiv pe forumuri greu de controlat.
Mai mult, a apărut și un scenariu îngrijorător: chiar dacă unele imagini generate sunt încadrate ca „indecente” și nu extrem de explicite, ele pot fi folosite ca bază pentru alte instrumente AI care cresc gradul de explicitate, până la materiale mult mai grave. Asta transformă un sistem permisiv într-o verigă dintr-un lanț de producție a abuzului, iar verigile din lanț contează la fel de mult ca produsul final.
În discuțiile din presă a fost citată și o analiză realizată de investigatoare specializate în deepfake-uri și comportament pe rețele sociale, care ar fi urmărit generarea pe o perioadă scurtă (24 de ore) și ar fi estimat un volum extrem de mare de imagini sexualizate generate pe oră. Chiar dacă aceste cifre pot depinde de metodologie și de criteriile exacte după care clasifici „sexualizat”, ele explică de ce instituțiile britanice vor răspunsuri rapide și măsuri concrete.
În contextul acesta, și reacția politică a devenit previzibilă. În Regatul Unit, oficiali guvernamentali au cerut ca X să trateze situația drept urgentă, subliniind că astfel de imagini sunt degradante și că afectează disproporționat femeile și fetele, iar statul nu va tolera răspândirea de material abuziv online.
Online Safety Act: obligații, sancțiuni și ce ar putea urma pentru X
Un lucru e esențial de înțeles: legislația britanică nu se oprește la ideea „șterge când apare”. Pentru anumite infracțiuni, inclusiv distribuirea de imagini intime fără consimțământ (și variante generate cu AI), se așteaptă măsuri proactive și rapide. Asta poate însemna blocarea prompturilor evidente, limitări tehnice pentru funcțiile cu risc, filtre pe model, sisteme automate de detectare, controale de vârstă, plus un mecanism simplu prin care persoanele afectate pot raporta și obține eliminarea.
Sancțiunile pot fi foarte mari: în cazul încălcărilor grave, amenzile pot ajunge până la 18 milioane de lire sau 10% din veniturile globale eligibile (oricare sumă este mai mare). Dincolo de bani, există și miza reputațională: dacă un chatbot asociat unei platforme mari este perceput ca instrument pentru abuz, presiunea publică și politică se poate transforma rapid în restricții, anchete și obligații de conformare mai dure.
Mai există și un alt strat: Marea Britanie nu e singură. În Europa, autoritățile urmăresc de ani buni modul în care platformele tratează conținutul ilegal și riscurile sistemice, iar presiunile se pot cumula. Pentru o companie, cel mai rău scenariu nu este o singură solicitare punctuală, ci un front comun de cerințe care impun schimbări tehnice, audituri și rapoarte periodice.
Ce ar trebui să se schimbe și ce poți face tu ca utilizator
Dacă vrei ca astfel de situații să scadă, soluția nu e „mai multe declarații”, ci frâne reale în produs. Funcțiile care pot nudifica persoane sau pot sexualiza imagini trebuie tratate ca funcții cu risc extrem: acces limitat, monitorizare, rate limiting agresiv, blocări pe prompturi și pe tipare, detectoare care identifică fețe reale și opresc transformări sexuale, plus măsuri clare pentru conținut legat de minori. Dacă un instrument poate fi „păcălit” ușor, atunci el nu e pregătit pentru lansare la scară globală.
Tu, ca utilizator, poți reduce riscul prin câteva obiceiuri simple. Nu încărca fotografii cu alte persoane în instrumente generative fără acordul lor, indiferent cât de „amuzant” pare. Dacă te trezești vizat de o imagine falsă sau de o nudificare, strânge dovezi (capturi de ecran, linkuri, momentul apariției), raportează imediat în platformă și insistă pe eliminare. Dacă ești în Regatul Unit, folosește și canalele oficiale de raportare disponibile prin instituțiile și organizațiile relevante. Scopul tău este să obții eliminarea și să documentezi incidentul, nu să negociezi cu conturi anonime.
În final, cazul Grok poate deveni un test major pentru felul în care Marea Britanie își aplică legislația de siguranță online. Dacă răspunsul platformei este lent sau superficial, riscul e să se normalizeze ideea că „merge și așa”. Dacă autoritățile obțin măsuri tehnice verificabile și reacții rapide, mesajul pentru întreaga industrie va fi că generarea de imagini intime fără consimțământ nu este o „funcție”, ci un abuz care trebuie prevenit din start.