Elon Musk și inteligența lui artificială extremistă. Grok are o mare problemă cu evreii, precum Ford acum un secol
În ultimii ani, inteligența artificială a ajuns să fie nu doar un instrument de productivitate, ci și o poartă de acces la informație, opinii și „explicații” pentru orice, de la istorie la politică. Tocmai de aceea devine relevant nu doar cât de rapid răspunde un chatbot, ci și cum reacționează când este împins spre ură, stereotipuri și teorii ale conspirației.
Un raport publicat pe 28 ianuarie 2026 de Anti-Defamation League (ADL) introduce un „AI Index” care compară felul în care șase modele mari răspund la narațiuni antisemite, anti-sioniste și extremiste. Concluzia care a aprins discuția: Grok (xAI, proiect asociat cu Elon Musk) a obținut cel mai slab scor general.
Ce a măsurat ADL și de ce contează un scor de 21/100
ADL spune că a evaluat ChatGPT (OpenAI), Claude (Anthropic), DeepSeek, Gemini (Google), Grok (xAI) și Llama (Meta), pe baza a peste 25.000 de interacțiuni, în perioada august–octombrie 2025. Testele au acoperit 37 de subcategorii și trei zone mari: bias anti-evreiesc, bias anti-sionist și narațiuni extremiste.
Important este și „cum” au testat: cinci tipuri de interacțiuni care seamănă cu felul în care folosește un om obișnuit un chatbot: întrebări tip chestionar, prompturi deschise, conversații în mai mulți pași, rezumate de documente și interpretare de imagini. ADL subliniază că modelele, în medie, se descurcă cel mai bine la chestionare și cel mai prost când li se cer rezumate de documente, adică exact tipul de sarcină pe care o faci când vrei „esența” dintr-un text care poate conține stereotipuri sau manipulări.
În acest cadru, Grok a ieșit pe ultimul loc, cu un scor general de 21/100, în timp ce Claude a condus clasamentul cu 80/100. ADL remarcă faptul că toate modelele au lacune, dar diferențele devin evidente când discuția trece de la „bifează corect” la situații ambigue, conversații lungi și materiale încărcate, cum sunt imaginile și documentele.
De ce Grok a picat tocmai la testele „deschise”
Din ce reiese din raportările despre index, Grok nu ar fi eșuat neapărat la întrebări simple de tip „e corect sau greșit”, unde multe sisteme au deja răspunsuri de siguranță. Problemele serioase apar când i se cere să trateze o narațiune conspiraționistă „ca pe un subiect de dezbatere”, să rezume un document plin de stereotipuri sau să ducă un dialog în care utilizatorul insistă, presează și schimbă tactica. În astfel de scenarii, un model slab calibrat poate ajunge să valideze, să normalizeze sau să „argumenteze” idei toxice în loc să le demonteze.
Mai mult, contextul produsului contează, pentru că aceste modele sunt influențate de reguli interne, de stilul de răspuns pe care îl urmăresc și de cât de agresiv sunt tăiate comportamentele periculoase. Grok a fost asociat în 2025 cu episoade publice în care a publicat conținut cu tropi antisemite și afirmații care lăudau pe Hitler, iar compania a spus că a eliminat postările și a lucrat la măsuri de moderare. Tot atunci au apărut și referințe virale în care botul se autoeticheta „MechaHitler”, ceea ce a alimentat criticile legate de felul în care sunt gestionate limitele.
Controversele au inclus și zona de imagini. În ianuarie 2026, o cercetare citată de presa internațională a susținut că un instrument de generare sau editare imagini asociat cu Grok ar fi produs volume mari de imagini sexualizate, inclusiv materiale care par să implice minori, iar platforma a introdus restricții și a oprit anumite capabilități. Chiar și dacă nu pui egal între aceste probleme și antisemitism, ele indică același lucru: când „balustradele” sunt slabe, utilizarea abuzivă devine previzibilă.
Paralela cu Henry Ford și lecția despre infrastructura urii
În 2022, Jonathan Greenblatt, șeful ADL, l-a numit pe Musk „Henry Ford al vremurilor noastre”, într-un context în care Musk era pe cale să cumpere Twitter. Remarca a fost intens comentată, iar comparația a rămas ca o umbră incomodă.
De ce e „Henry Ford” o referință atât de încărcată? Pentru că Ford nu a fost doar un inovator industrial, ci și un vector major de propagare a antisemitismului în SUA, prin ziarul The Dearborn Independent și seria „The International Jew”, care a popularizat inclusiv falsul „Protocoalele înțelepților Sionului”. Lecția istorică nu este despre o singură persoană, ci despre mecanism: când cineva cu resurse uriașe controlează un canal de distribuție, toxicitatea poate circula mai repede, mai ieftin și mai convingător decât corecțiile.
În 2026, canalul nu mai este o tiparniță, ci un sistem conversațional care poate „împacheta” prejudecăți sub forma unui răspuns calm, coerent și aparent informat. ADL avertizează că, atunci când modelele nu detectează și nu contracarează narațiunile antisemite sau extremiste, ele pot amplifica biasul și pot accelera răspândirea lui offline.
Ce poți face când un chatbot îți validează o conspirație
Când vezi un răspuns care încearcă să „echilibreze” ura ca pe o opinie legitimă, tratează-l ca pe un semnal de alarmă, nu ca pe o informație. Nu prelua formulările lui în postări, nu le transforma în capturi „amuzante” și nu le distribui „ca să vadă lumea” fără context: fix așa se viralizează narațiunile toxice.
Dacă vrei să verifici rapid cât de sănătos e un răspuns, pune două întrebări simple: pe ce se bazează și ce dovezi verificabile există. Când primești generalizări despre „evrei”, „sioniști” sau „cabale” fără fapte concrete, fără surse credibile și fără delimitări clare, ești deja în zona clasică de propagandă. Iar dacă folosești un chatbot pentru rezumate, nu-l lăsa singur cu documente problematice: citește fragmentele-cheie și compară rezumatul cu textul original înainte să tragi concluzii.
În final, indexul ADL nu spune că doar un singur model are probleme, ci că toate au puncte slabe, mai ales în zona „extremistă” și în sarcini precum rezumatele de documente. Diferența este că unele sisteme reușesc mai des să recunoască materialul dăunător și să-l contracareze, iar altele, precum Grok în acest raport, rămân mult în urmă.