X dă vina pe utilizatori pentru conținutul ilegal generat de Grok. Cum evită Elon Musk modificarea chatbotului după scandalul care a împărțit internetul în două
Platforma X se confruntă cu un nou val de critici după ce a reacționat oficial la controversele legate de Grok, chatbotul său bazat pe inteligență artificială, acuzat că a generat imagini sexualizate cu minori și cu persoane reale, fără consimțământ.
În loc să anunțe măsuri tehnice pentru a preveni astfel de rezultate, compania a transmis că responsabilitatea aparține exclusiv utilizatorilor care formulează prompturile, scrie Ars Technica.
Reacția X a venit la aproape o săptămână după ce utilizatori și experți au semnalat public că Grok poate produce conținut care intră în categoria materialelor de abuz sexual asupra minorilor (CSAM).
Poziția oficială, publicată de echipa X Safety, nu conține scuze și nici promisiuni clare privind actualizarea sistemelor de siguranță ale AI-ului, concentrându-se în schimb pe sancționarea celor care solicită sau distribuie astfel de conținut.
X mută responsabilitatea asupra utilizatorilor, nu asupra AI-ului
În mesajul public, X Safety a reiterat politica de toleranță zero față de conținutul ilegal, inclusiv CSAM, subliniind că platforma elimină astfel de materiale, suspendă definitiv conturile implicate și colaborează cu autoritățile și instituțiile de aplicare a legii.
Utilizatorii care folosesc sau determină Grok să genereze conținut ilegal riscă aceleași consecințe ca și cei care îl încarcă manual pe platformă.
Mesajul a fost susținut indirect de Elon Musk, proprietarul X, prin amplificarea unei opinii potrivit căreia Grok nu ar trebui considerat responsabil pentru imaginile pe care le produce.
Argumentul este că AI-ul ar funcționa asemenea unui instrument pasiv, iar vina ar aparține exclusiv celui care îl „folosește greșit”. Această abordare a stârnit însă reacții negative, mai ales din partea experților în inteligență artificială.
Spre deosebire de un instrument clasic, sistemele generative nu oferă rezultate complet predictibile. Același prompt poate produce rezultate diferite, iar utilizatorii nu au control total asupra ieșirilor generate.
Tocmai această lipsă de determinism este unul dintre motivele pentru care operele create exclusiv de AI nu pot fi înregistrate oficial din punct de vedere al drepturilor de autor.
În acest context, criticii consideră că X evită responsabilitatea de a filtra rezultatele ilegale direct la nivelul modelului.
Un programator a atras atenția asupra riscurilor suplimentare: există situații în care Grok a generat imagini problematice fără a fi explicit solicitate, iar utilizatorii nu pot șterge aceste rezultate din contul chatbotului.
Într-un asemenea scenariu, posesorul contului ar putea fi sancționat sau chiar investigat, în timp ce platforma nu ar suporta consecințe directe pentru funcționarea AI-ului.
Presiuni pentru un posibil ban în App Store și riscuri legale
Nemulțumirea față de reacția X a alimentat apeluri publice pentru intervenția Apple. Mai mulți comentatori influenți au cerut ca aplicația X să fie eliminată din App Store, argumentând că regulile Apple interzic aplicațiile care permit distribuirea de conținut ce sexualizează persoane reale fără consimțământ. În lipsa unor filtre transparente și eficiente pentru Grok, criticii susțin că platforma ar încălca aceste politici.
Un astfel de ban ar avea consecințe majore pentru strategia X și pentru ambițiile lui Elon Musk de a transforma Grok într-un rival direct pentru ChatGPT.
Musk a dat deja în judecată Apple în trecut, acuzând compania că favorizează alte aplicații AI în App Store. Eliminarea X sau a Grok din ecosistemul Apple ar putea afecta semnificativ adoptarea chatbotului.
În paralel, rămân întrebări serioase legate de modul în care X intenționează să detecteze și să modereze conținutul ilegal generat de AI.
Platforma a prezentat anterior date despre combaterea CSAM clasic, bazată pe tehnologii de tip hash și raportări către National Center for Missing and Exploited Children (NCMEC), care au dus la sute de arestări în ultimii ani. Totuși, aceste sisteme sunt concepute pentru materiale cunoscute, nu pentru imagini complet noi, generate artificial.
Fără actualizări clare ale lui Grok, există riscul ca AI-ul să creeze forme noi de CSAM, dificil de detectat automat. Mai mult, lipsa unor definiții precise privind ce tip de conținut este considerat ilegal sau inacceptabil amplifică incertitudinea.
Linia dintre „glumă”, conținut ofensator și material ilegal rămâne neclară, iar modul în care X o trasează va influența direct siguranța utilizatorilor și protecția minorilor.
În absența unor soluții tehnice concrete, strategia X de a pune întreaga responsabilitate pe umerii utilizatorilor riscă să prelungească scandalul și să atragă intervenții externe, fie din partea autorităților, fie din partea marilor platforme de distribuție.