04 ian. 2026 | 15:14

AI-ul Grok ”dezbracă” vedete și minori pe X. Inteligența artificială a lui Elon Musk, subiect de investigație

TEHNOLOGIE
AI-ul Grok ”dezbracă” vedete și minori pe X. Inteligența artificială a lui Elon Musk, subiect de investigație
Platforma Twitter (actual X) a devenit un dezastru după ce a fost preluată de Elon Musk

Un nou val de conținut generat de AI a pus din nou platforma X în centrul unei controverse globale, după ce utilizatori au folosit Grok, chatbotul integrat în rețea, pentru a transforma fotografii reale în imagini sexualizate, în special cu femei, dar și cu persoane care par a fi minori. Cazurile descrise în presa internațională arată un tipar: o fotografie obișnuită este postată public, apoi alte conturi cer explicit botului să „modifice” ținuta sau să o facă mai sumară, iar rezultatele ajung să circule rapid, fără consimțământul persoanei din imagine.

Problema nu ține doar de un derapaj punctual, ci de ușurința cu care o funcție de generare și editare de imagini poate fi transformată într-un instrument de hărțuire. În momentul în care astfel de transformări ajung să vizeze și copii, discuția se mută automat în zona infracțiunilor grave, cu presiune imediată pe platformă, pe compania care dezvoltă modelul și pe autorități.

Cum a apărut fenomenul și de ce este greu de oprit

Relatările publicate la început de ianuarie arată că „valul” de astfel de editări s-a accelerat într-un interval scurt, alimentat de mecanica tipică a rețelelor sociale: cereri publice, răspunsuri vizibile, efect de imitație și distribuire în lanț. Într-un exemplu documentat, o muziciană din Rio de Janeiro a observat că utilizatori îi cereau lui Grok să-i modifice fotografia, iar ulterior au apărut pe platformă imagini generate de bot cu ea în ipostaze sexualizate.

Din perspectiva moderării, cazul e complicat fiindcă nu vorbim doar despre încărcarea unui fișier ilegal, ci despre un sistem care produce conținut nou, pe baza unor prompturi. De multe ori, astfel de abuzuri se strecoară prin filtre din cauza formulărilor ambigue, a lipsei de „înțelegere” a contextului sau a faptului că agresorii iterează rapid până găsesc o combinație care trece de protecții. Reuters notează că a identificat situații în care botul a generat imagini sexualizate și cu persoane care par a fi copii, iar compania nu a oferit un răspuns clar la întrebări despre amploare și măsuri, în acel moment.

Investigații și reacții oficiale în Franța și India

În Franța, miniștri au sesizat procurorii și autoritățile relevante, argumentând că tipul de conținut rezultat este „manifest ilegal” și că platforma trebuie evaluată inclusiv prin prisma obligațiilor din legislația europeană. În paralel, a fost notificată și autoritatea de reglementare a audiovizualului și digitalului (Arcom) pentru a analiza situația din perspectiva Digital Services Act, un cadru care impune platformelor obligații de reducere a riscurilor și de reacție promptă la conținut ilegal.

În India, Ministerul IT a cerut explicații și acțiuni, solicitând eliminarea conținutului obscen și măsuri de prevenție pentru utilizarea Grok la generarea și circularea de materiale sexual explicite. Unele relatări indică termene scurte pentru răspuns și avertismente privind consecințele legale dacă platforma nu se conformează. Această linie dură e importantă fiindcă arată că discuția despre AI nu mai e doar una etică, ci a intrat ferm în zona de conformitate și răspundere, cu riscuri directe pentru modul în care serviciul operează într-o piață mare.

De ce cazul Grok contează pentru viitorul AI pe rețele sociale

Ceea ce diferențiază episodul de alte scandaluri cu deepfake-uri este „bariera de intrare”: dacă un utilizator poate produce astfel de transformări direct dintr-o interfață mainstream, fără aplicații obscure și fără costuri, abuzul devine masiv și rapid. Experți citați în investigații au spus că riscul era previzibil și că au existat avertismente anterioare privind posibilitatea ca generarea de imagini să fie folosită ca instrument de nudificare nonconsensuală.

Pentru utilizatori, implicațiile sunt foarte concrete. O fotografie banală, postată într-un context personal, poate fi transformată într-un instrument de umilire și intimidare, iar reacția publică poate amplifica trauma: cu cât victima protestează, cu atât apar mai multe cereri de tip copycat. Dacă vrei să reduci riscul, setează contul pe privat când postezi imagini personale, limitează cine poate răspunde și cine poate redistribui, și tratează orice unealtă AI integrată în platformă ca pe o funcție care poate fi abuzată, nu ca pe un „filtru” inofensiv.

Rămâne de văzut dacă presiunea autorităților va duce la restricții tehnice clare (de exemplu, blocarea editării fotografiilor cu persoane reale fără consimțământ verificabil) sau la audituri externe ale mecanismelor de siguranță. Cert este că episodul Grok reaprinde o întrebare incomodă: cât de repede pot platformele să lanseze funcții AI virale fără să transforme, involuntar, produsul într-o infrastructură de hărțuire, conform Reuters.