Uniunea Europeană investighează X. Platforma lui Elon Musk acuzată de content sexualizat cu AI
Într-o perioadă în care inteligența artificială intră tot mai agresiv în rețelele sociale, Uniunea Europeană începe să trateze integrarea chatboților ca pe un „risc de infrastructură”, nu ca pe o simplă funcție nouă. Exact aici se încadrează ancheta anunțată luni, 26 ianuarie 2026, de către Comisia Europeană, care vizează platforma X (fostul Twitter) și modul în care chatbotul Grok a fost integrat și folosit în ecosistemul rețelei.
Problema care a declanșat investigația nu ține de un scandal de imagine obișnuit, ci de apariția și distribuirea pe scară largă a unor imagini A.I. sexualizate (inclusiv conținut posibil ilegal), pe care autoritățile spun că platforma nu le-a prevenit prin controale și măsuri suficiente, conform NY Times.
Ce investighează Comisia Europeană și de ce contează „riscurile sistemice”
Comisia Europeană a deschis o investigație în baza Digital Services Act (DSA), discutând explicit despre „riscuri sistemice” generate de designul și funcționarea serviciului – adică nu doar postări izolate, ci un model care poate produce prejudicii la scară largă.
În esență, autoritățile vor să afle dacă X a făcut evaluări serioase înainte de lansare și dacă a pus în aplicare măsuri de reducere a riscului (mitigare) pe măsura impactului: limitări clare, bariere tehnice, politici aplicate consecvent și mecanisme de intervenție rapidă atunci când apar abuzuri. În DSA, obligația de evaluare a riscurilor pentru platformele foarte mari este un pilon-cheie: ele trebuie să identifice și să evalueze riscurile care decurg inclusiv din sistemele algoritmice și din modul în care oamenii folosesc serviciul.
Din informațiile vehiculate public, o parte din presiune vine și din amploarea fenomenului, cu estimări privind un volum foarte mare de imagini sexualizate generate într-un interval scurt, ceea ce ridică întrebarea simplă: dacă un astfel de val poate fi produs „din prompturi banale”, atunci protecțiile au fost subdimensionate din start.
Ce schimbări a făcut X și de ce ar putea să nu fie suficient
După creșterea criticilor, X a început să strângă șurubul: restricționarea unor funcții către utilizatorii plătitori și introducerea unor interdicții mai explicite pentru anumite tipuri de solicitări care vizează persoane reale în ipostaze sexualizate. Autoritățile au spus că vor lua în calcul aceste ajustări în cadrul anchetei, dar asta nu închide automat dosarul – mai ales dacă se consideră că măsurile au venit târziu, reactiv și după ce prejudiciul deja s-a produs.
Aici e miza mare: în logica DSA, nu e suficient să „repari după” dacă ai pus pe piață o funcție care poate amplifica ilegalități sau abuzuri. Regulamentul apasă pe ideea de prevenție și control proporțional cu riscul, nu doar pe reacție. Iar dacă investigația constată nerespectarea obligațiilor, Comisia are inclusiv opțiunea de a cere schimbări pe parcursul procedurii (măsuri interimare), nu doar la final.
În paralel, cazul Grok se suprapune peste un context deja tensionat pentru X în Europa. Platforma a primit recent o amendă de 120 de milioane de euro pentru încălcări legate de design înșelător, transparență publicitară și accesul cercetătorilor la date, tot sub umbrela DSA.
De la moderare la geopolitică: de ce ancheta amplifică disputa UE–SUA
Investigația nu e doar o poveste despre un chatbot care a scăpat de sub control. Ea intră direct în conflictul mai larg dintre viziunea europeană (mai multă responsabilitate legală pentru platforme) și poziția americană (risc de cenzură și atac asupra libertății de exprimare), conflict în care Elon Musk este un actor vocal.
Comisia Europeană insistă că nu urmărește „gusturi” sau opinii, ci obligă platformele să reducă răspândirea conținutului ilegal și să limiteze riscuri grave pentru drepturi fundamentale. DSA, ca idee, încearcă să facă mediul online mai sigur și mai de încredere, cu obligații mai dure pentru platformele foarte mari.
În același timp, ancheta din UE se suprapune cu interesul altor autorități: în Marea Britanie, autoritățile competente au deschis și ele o investigație separată, ceea ce arată că presiunea nu e doar „europeană” în sensul strict al UE.
Ce poți face tu ca utilizator: semnale, raportări, igienă digitală
Dacă folosești X (sau orice platformă cu instrumente A.I. integrate), tratează conținutul hiper-realist drept „suspect până la proba contrarie”. Uită-te la detalii: contul care a publicat, istoricul lui, reacțiile din comentarii și dacă imaginea apare și în alte locuri cu context credibil.
Când dai peste conținut sexualizat creat fără consimțământ (sau care implică minori, chiar și „posibil”), nu încerca să-l „demontezi” public prin redistribuire. Raportează-l direct în platformă, fă capturi doar dacă ai nevoie pentru o sesizare și evită să-l trimiți mai departe „ca dovadă” în grupuri – în practică, asta ajută fix la răspândire.
Nu în ultimul rând, dacă publici imagini cu tine sau cu cineva apropiat, limitează materialele cu rezoluție mare și verifică setările de confidențialitate. E incomod, dar real: cu cât există mai mult material public, cu atât e mai ușor să fie folosit abuziv de generatoare A.I. – iar exact acest tip de asimetrii încearcă UE să le forțeze înapoi în zona de control prin DSA.