ChatGPT citează Grokipedia, alternativa lui Musk la Wikipedia, și pune pe gânduri cât de corecte și sigure sunt răspunsurile

TEHNOLOGIE, ȘTIINȚĂ & DIGITAL
ChatGPT citează Grokipedia, alternativa lui Musk la Wikipedia, și pune pe gânduri cât de corecte și sigure sunt răspunsurile
Imagine reprezentativă de ilustrație. (Concept Playtech cu ajutorul AI)

Un test făcut de jurnaliștii de la The Guardian arată că cel mai nou model ChatGPT (GPT-5.2) a început să includă în „bibliografia” sa Grokipedia, enciclopedia generată de AI lansată de xAI, compania lui Elon Musk. Detaliul pare tehnic, dar miza e uriașă: când un chatbot popular citează o sursă contestată, acea sursă capătă automat un strat de credibilitate în ochii utilizatorilor, iar informația problematică poate ajunge să se strecoare în răspunsuri fără să sară imediat în ochi.

Ce au găsit testele și unde apare problema

În testele descrise de The Guardian, GPT-5.2 a citat Grokipedia de nouă ori, în răspunsuri la peste o duzină de întrebări, inclusiv pe subiecte sensibile precum structuri politice din Iran (de exemplu detalii despre instituții și organizații asociate regimului) sau contexte legate de negaționiști ai Holocaustului. Jurnaliștii notează că nu vorbim despre un singur răspuns „greșit” care sare în evidență, ci despre faptul că sursa apare repetat și, uneori, subtil, în întrebări mai obscure.

Important e și nuanța: în aceleași teste, modelul nu a preluat direct unele dintre afirmațiile controversate asociate frecvent cu Grokipedia atunci când a fost împins să repete dezinformări despre teme foarte mediatizate. Dar informația din Grokipedia pare să „filtreze” în răspunsuri pe subiecte mai puțin bătute, tocmai acolo unde utilizatorii au mai puține repere și verificarea devine mai rară.

De ce Grokipedia e diferită de Wikipedia și de ce asta contează

Grokipedia a fost lansată ca o enciclopedie online generată de inteligență artificială, gândită ca alternativă la Wikipedia. Diferența majoră, care ridică sprâncene, este că nu funcționează pe modelul editării umane directe: conținutul e produs de un model AI, iar utilizatorii pot cel mult să semnaleze probleme sau să ceară modificări, nu să editeze efectiv paginile ca într-o enciclopedie colaborativă.

Presa internațională a descris deja Grokipedia ca fiind vulnerabilă la bias și la „narațiuni” politice, iar criticile au apărut rapid, inclusiv pe teme de cultură și politică. Când o sursă de tip enciclopedie e percepută ca instabilă sau prea aliniată cu anumite puncte de vedere, riscul nu e doar să „greșească”, ci să pară credibilă exact când nu ar trebui, mai ales dacă este citată de un instrument popular precum ChatGPT.

Teama reală: „hrănirea” modelelor cu informații toxice și efectul de legitimare

În articol este menționat și un fenomen despre care avertizează cercetătorii în dezinformare: actori rău intenționați pot inunda internetul cu conținut fals sau manipulator, tocmai pentru a-l face „aspirabil” de sistemele care colectează date. Strategia e cunoscută în discuțiile din industrie ca „LLM grooming”, iar îngrijorarea e că nu vorbim doar despre o sursă, ci despre o cursă continuă de otrăvire a ecosistemului informațional.

Un alt risc, poate chiar mai perfid, e efectul de autoritate: dacă un model mare „arată” o sursă în citări, o parte dintre oameni pot concluziona automat că acea sursă a fost verificată și e „OK”. Iar odată ce o afirmație greșită intră în circuitul răspunsurilor, corectarea ei devine complicată: chiar și atunci când un material este rectificat la sursă, modelele pot continua să reproducă informația pentru o perioadă, tocmai pentru că au „învățat-o” dintr-un volum mare de conținut deja publicat.