Nu ai voie să spui asta pe internet: cum ne fac algoritmii să vorbim „în șoaptă” pe rețelele sociale
Dacă ai stat măcar puțin pe TikTok, Instagram, Facebook sau YouTube, sigur ai dat peste oameni care spun „unalive” în loc de „mort”, „seggs” în loc de „sex” sau care vorbesc despre „muzică” și „festivaluri” când, de fapt, se referă la proteste și subiecte politice sensibile. Nu e doar o glumă de internet, ci felul în care milioane de utilizatori încearcă să păcălească algoritmii despre care cred – uneori pe bună dreptate, alteori doar din paranoia colectivă – că le pot îngropa conținutul dacă folosesc cuvintele „greșite”.
Pe rețelele sociale nu mai „mor” oameni, sunt „unalive”. Sexul devine „seggs”, armele sunt „pew pew”, iar drogurile sunt „d-uri” sau „prăjiturele speciale”. Cei care folosesc constant Facebook, TikTok, Instagram sau YouTube știu exact despre ce e vorba: un limbaj codificat, inventat nu ca să fim mai creativi, ci de teamă că algoritmii vor ascunde sau penaliza conținutul care folosește anumite cuvinte directe.
Fenomenul are deja un nume: algospeak. Iar potrivit unei analize realizate de BBC, nu vorbim doar despre glume sau jargon de internet, ci despre o formă de autocenzură colectivă născută din frica față de algoritmi și regulile opace ale marilor platforme.
O lume în care „muzica” înseamnă de fapt proteste
Algospeak-ul a explodat în ultimii ani, pe măsură ce creatorii de conținut au avut tot mai des senzația că sunt pedepsiți dacă spun lucrurilor pe nume. Unii observă, în propriile statistici, că atunci când folosesc termeni precum „YouTube” într-un clip de TikTok, sau încearcă să trimită oamenii spre o altă platformă, vizualizările se prăbușesc. Oficial, companiile neagă că ar avea „liste secrete de cuvinte interzise”. Ne asigură că „nu există” așa ceva, că totul ține de context și de respectarea regulilor de comunitate.
Numai că realitatea e mai complicată. Istoricul acestor platforme e plin de episoade în care s-a dovedit că au manipulat, discret, ce urcă și ce coboară în feed: de la conținut politic, la postări despre minorități, proteste sau război. TikTok a recunoscut, de exemplu, că a avut un buton intern de „heating” cu care putea face viral, manual, anumite clipuri. Dacă poți apăsa pe „încălzește”, de ce n-ai putea apăsa și pe „răcește”, își spun creatorii.
În acest climat a apărut și celebrul „music festival”. În vara lui 2025, în SUA, oamenii au ieșit în stradă la proteste împotriva unor raiduri ale serviciului de imigrație ICE. Pe TikTok și Instagram, în loc să spună direct „protest” sau „demonstrație”, creatorii au început să vorbească despre un „mare festival de muzică în Los Angeles”, arătând în cadru, de fapt, mulțimi de manifestanți cu pancarte. Codul era clar pentru cei „inițiați”: dacă zici „protest”, algoritmul te taie; dacă zici „music festival”, clipul trece.
Ironia, spun cercetătorii, e că nu există dovezi clare că platformele ar fi cenzurat sistematic acele proteste. Oamenii și-au imaginat că se întâmplă asta, s-au adaptat preventiv, iar tocmai codul folosit – „music festival” – a făcut clipurile virale, pentru că toată lumea voia să facă parte din „glumă”.
:format(webp)/https://playtech.ro/wp-content/uploads/2025/11/Platformele-mari-precum-TikTok-Meta-si-YouTube-neaga-ca-ar-avea-liste-secrete-de-cuvinte-interzise.jpg)
Platformele mari, precum TikTok, Meta și YouTube, neagă că ar avea liste secrete de cuvinte interzise, dar istoricul lor arată intervenții opace în promovarea sau îngroparea anumitor subiecte, ceea ce alimentează suspiciunile și autocenzura. (Ilustrație Playtech cu ajutorul AI)
Când „Insulașul” înseamnă Epstein și „seggs” înlocuiește sexul
Un alt exemplu este cazul Jeffrey Epstein. Un creator american povestea pentru BBC că, după ce i-au fost șterse mai multe videoclipuri despre controversatul finanțist, a început să-l numească „Island Man” (Omul Insulei), făcând trimitere la insula sa privată. Clipurile rămâneau online, dar o parte din public nu mai înțelegea despre cine e vorba.
Același lucru se întâmplă și în limba română. Pe TikTok și Instagram poți vedea adolescenți și tineri care scriu „seggs” în loc de sex, „unalive” în loc de „a omorî”, „d-uri” sau „prăjituri” când vor să vorbească despre droguri, „sașe” sau „pătrățele colorate” pentru pastile. Toată lumea recunoaște că sună ridicol, dar puțini riscă să testeze varianta directă, de teamă că o să dispară din feed sau că le va fi demonetizat conținutul.
Sociologii și lingviștii au un termen pentru acest fenomen: „imaginar algoritmic”. Nu mai reacționăm la reguli clare, explicite, ci la ceea ce credem noi că vor algoritmii să vadă sau să ascundă. Chiar dacă platformele insistă că nu blochează liste de cuvinte, simplul fapt că regulile sunt opace și că uneori greșesc sau aplică selectiv moderarea e suficient pentru ca milioane de oameni să se autocenzureze.
În timp, acest joc de „a ocoli sistemul” devine parte din cultura online: inventăm cuvinte noi, meme-uri, inside joke-uri care au rolul de a păcăli filtre reale sau imaginare. Doar că, în loc să elibereze discursul, ele îl pot face mai greu de înțeles, mai ales pentru cei care nu trăiesc tot timpul pe rețele.
:format(webp)/https://playtech.ro/wp-content/uploads/2025/11/In-lipsa-unei-transparente-reale-utilizatorii-isi-schimba-comportamentul.jpg)
În lipsa unei transparențe reale, utilizatorii își schimbă comportamentul în funcție de ce cred ei că „vrea algoritmul”, iar această autocenzură colectivă riscă să limiteze dezbaterea publică și accesul la informații sensibile. (Ilustrație Playtech cu ajutorul AI)
Cine decide ce avem voie să vedem de fapt?
Dincolo de dispute politice, miza reală este una economică. Platformele trăiesc din publicitate. Obiectivul lor nu este neapărat să „controleze discuția publică”, ci să ofere un flux de conținut suficient de „curat” încât să nu sperie brandurile sau autoritățile de reglementare. Când un subiect riscă să devină prea toxic, prea violent sau prea „incomod”, tentația de a apăsa, discret, pe frână e mare.
Așa ajungem într-o lume în care nu știm niciodată clar de ce un clip nu prinde: ai folosit un cuvânt „interzis”? Ai atins un subiect delicat? Sau pur și simplu nu a fost interesant? În golul acesta de informație, oamenii își inventează propriile teorii și își schimbă comportamentul. Fără să ne dăm seama, ne trezim vorbind în cod, evitând anumite teme sau formulări, doar ca să „nu supărăm algoritmul”.
Pentru un public tot mai mare, rețelele sociale sunt principala sursă de informare. Dacă acolo ideile circulă doar în șoaptă, prin glumițe și coduri pe care le înțelege doar „bula corectă”, riscul e simplu: unele subiecte sensibile, de la abuzuri la corupție sau drepturi civile, ajung să fie văzute de tot mai puțini.
Platformele ne spun că vor doar „să ne protejeze” și să ne ofere un mediu sigur. Dar atâta timp cât nu știm exact cum funcționează algoritmii lor și ce anume penalizează, autocenzura și algospeak-ul vor continua să crească. Iar întrebarea incomodă rămâne: cine controlează, de fapt, conversația publică – noi sau câțiva giganți care trăiesc din atenția noastră?