Grok și „dezbrăcarea” cu AI: cum a ajuns hărțuirea vizuală să fie la vedere
Ani la rând, instrumentele care „dezbracă” persoane în poze au circulat în zone obscure ale internetului, de obicei contra cost și cu o minimă fricțiune tehnică. În 2026, discuția s-a mutat brusc în centrul unei platforme mainstream: X, unde chatbotul Grok (dezvoltat de xAI) poate genera, la cererea utilizatorilor, imagini sexualizate ale unor femei pornind de la fotografii reale postate public.
Nu vorbim neapărat de nuditate explicită în sensul clasic, ci de transformări care mimează „îndepărtarea” hainelor sau înlocuirea lor cu ținute mult mai sumare, fără acordul persoanei din imagine. Tocmai caracterul „la vedere”, rapid și integrat într-o rețea socială uriașă ridică miza: barierele de intrare scad, iar rezultatele pot deveni virale în câteva minute.
Cum a ajuns „dezbrăcarea” AI să fie la un click distanță
Ce se schimbă acum nu este doar tehnologia, ci distribuția. Spre deosebire de servicii dedicate de tip „nudify/undress”, un chatbot integrat într-o platformă socială este disponibil direct acolo unde circulă deja imaginile, generează rezultate în câteva secunde și poate fi folosit de foarte mulți oameni, fără să fie nevoie de „tool-uri” obscure sau de conturi pe site-uri dubioase.
În același timp, faptul că ieșirea poate fi publică sau ușor accesibilă în platformă schimbă dinamica de abuz: nu mai e doar o agresiune „în privat”, ci una care poate deveni spectacol. Când oamenii postează astfel de rezultate de pe conturile lor principale, fără să se ascundă, apare riscul de normalizare: comportamentul devine „meme”, iar victimele ajung ținte recurente.
Ce arată investigațiile și de ce contează caracterul public
Dincolo de impresii, apar și cifre. În analize ale fluxului public de rezultate s-a observat că într-un timp foarte scurt pot apărea zeci de imagini sexualizate, uneori într-un interval de doar câteva minute. Într-un alt set de observații, un cercetător care urmărește de ani de zile deepfake-uri explicite a colectat într-o perioadă scurtă un număr foarte mare de linkuri către imagini generate și a descris un feed dominat de fotografii cu femei transformate în „bikini” sau lenjerie.
Mai îngrijorător este tiparul de țintire: nu doar persoane necunoscute, ci și figuri publice, inclusiv influenceri, celebrități și politicieni. În unele cazuri, utilizatorii răspund direct sub o postare a unei femei și cer explicit chatbotului să-i modifice fotografia. În loc să fie un abuz ascuns, devine o formă de umilire publică, cu potențial de hărțuire coordonată.
De ce platformele și legile se mișcă greu, chiar când scandalul e global
Când un astfel de abuz explodează, primul reflex este să cauți „butonul” care îl oprește: reguli mai stricte, blocarea funcției, moderare mai agresivă. În practică, platformele oscilează între promisiuni, reacții punctuale și schimbări care vin abia după presiune publică sau politică. Pe lângă asta, există mereu „jocul” evitării: utilizatorii încearcă să păcălească filtrele cerând modificări formulate diferit („bikini transparent”, „string”, „fă hainele mai mici”) sau cerând schimbări anatomice care sexualizează imaginea.
Reglementarea se lovește de două probleme mari: jurisdicțiile diferite și viteza tehnologiei. Ceea ce e ilegal într-o țară poate fi o zonă gri în alta, iar un produs digital se distribuie global în secunde. În același timp, apar tot mai multe semnale că legile încep să prindă contur: în SUA s-a adoptat o lege federală care vizează imaginile intime neconsensuale, inclusiv cele generate sau manipulate digital, și introduce obligații pentru platforme legate de eliminarea conținutului după notificare. În Europa, discuțiile se leagă frecvent de responsabilitățile platformelor mari și de aplicarea regulilor existente privind conținutul ilegal și protecția utilizatorilor.
În Australia, autoritatea de siguranță online a început să acționeze împotriva unor servicii de tip „nudify”, inclusiv cu măsuri care au dus la restricționarea accesului la astfel de platforme. E un semn că unele state trec de la indignare la enforcement, dar e și o dovadă că fenomenul se mută rapid între instrumente: tai un serviciu, apare altul, iar funcții similare sunt înglobate în produse mainstream.
Ce poți face dacă ești vizată și cum reduci riscul fără să dispari de pe internet
Dacă cineva îți modifică o fotografie într-un mod sexualizat fără acord, tratează situația ca pe un incident de abuz, nu ca pe o „glumă”. Strânge dovezi imediat: capturi de ecran cu postarea, numele contului, data și ora, plus orice conversație asociată. Dacă poți, salvează și linkul, chiar dacă ulterior dispare. Apoi raportează conținutul direct în platformă, folosind opțiunile pentru conținut sexual neconsensual sau hărțuire, și raportează și conturile care îl distribuie.
Dacă imaginea începe să circule, limitează amplificarea. Nu răspunde impulsiv în firul public dacă asta crește vizibilitatea. Mai eficient e să notezi cine redistribuie, să trimiți rapoarte repetate când apar repostări și să ceri sprijinul unor prieteni de încredere să raporteze, fără să redistribuie la rândul lor conținutul. Dacă există vreo suspiciune că e implicat un minor sau conținutul atinge zona de exploatare, prioritizează raportarea către autorități și organizații specializate: aici reacția trebuie să fie rapidă și fermă.
Pentru prevenție, nu trebuie să-ți închizi conturile, dar merită să reduci „materia primă” ușor exploatabilă. Evită să postezi public fotografii la rezoluție foarte mare, gândește-te de două ori înainte să lași imagini cu fundaluri ușor de identificat (școală, sală, lift cu logo) și verifică setările de confidențialitate astfel încât citările sau reutilizările să fie cât mai limitate. Dacă ai o fotografie care a devenit țintă, schimb-o (de exemplu, poza de profil) și păstrează originalul într-un loc sigur, pentru comparație și eventuale demersuri.
Cel mai important: nu normaliza. Dacă vezi astfel de imagini în feed, nu le distribui „ca să arăți cât de grav e”, pentru că ajungi să faci exact ce își doresc abuzatorii: să crești audiența. Raportează, documentează și insistă. Într-o lume în care AI poate produce abuz la scară, singurul antidot realist este reacția rapidă și consecventă, atât din partea platformelor, cât și din partea utilizatorilor care refuză să transforme hărțuirea în divertisment.