După ce a dus la proteste în SUA, Google se pregătește să recomande lipici pe pizza și mâncat de pietre și în Europa
:format(webp)/https://playtech.ro/wp-content/uploads/2025/03/Google-AI-Overviews-Suggestion-of-Adding-Glue-Says-a-Lot-About-Human-Flaws-.jpg)
Google se pregătește să implementeze în Europa funcția AI Overviews, un sistem de răspunsuri generate de inteligență artificială, care deja a stârnit controverse majore în Statele Unite. În loc să ofere o listă clasică de linkuri, AI-ul oferă direct un rezumat considerat „relevant”, dar care, în unele cazuri, a generat rezultate absurde, periculoase sau chiar ofensatoare. Printre cele mai virale exemple se numără recomandarea de a folosi lipici pentru ca brânza să se lipească mai bine de pizza sau sfatul de a consuma o piatră pe zi.
Deși pare o glumă, problema este una sistemică. „Halucinațiile” AI-ului — adică răspunsuri greșite, inventate sau complet deplasate — sunt considerate de specialiști o trăsătură naturală a modelelor lingvistice de tip LLM. Iar în contextul în care aceste modele devin principalul mod prin care miliarde de oameni accesează informația, riscurile se amplifică exponențial.
Funcția controversată ajunge în Europa, dar nu o poți dezactiva
După ce a fost testată în SUA și Regatul Unit, funcția AI Overviews este activată și în mai multe țări europene, printre care Germania, Italia, Polonia, Spania și Irlanda. Odată introdusă, utilizatorii nu mai au posibilitatea să o dezactiveze. AI Overviews apare automat deasupra rezultatelor clasice, chiar dacă răspunsurile pot fi trunchiate, scoase din context sau incorecte.
Google susține că tehnologia este folosită deja de peste un miliard de persoane și că sistemul va fi îmbunătățit în timp. Cu toate acestea, criticii atrag atenția că modul de funcționare al acestei funcții reprezintă un pericol pentru calitatea informației și afectează în mod direct ecosistemul media: site-urile pierd trafic, presa pierde venituri, iar creatorii de conținut nu sunt recompensați.
De la greșeli ridicole la scandaluri internaționale
Funcția AI Overviews nu este singura problemă de imagine pentru Google. În ultimele luni, compania a fost implicată în mai multe controverse din cauza produselor sale AI. Modelul Gemini, de exemplu, a fost acuzat că afișează imagini istorice inexacte, cum ar fi soldați naziști reprezentați ca persoane de culoare. Aceste erori nu sunt simple accidente, ci rezultatul unei supracorectări a datelor de antrenament, în încercarea de a promova diversitatea cu orice preț.
Inclusiv oficiali de rang înalt au reacționat. Ministrul indian al IT-ului a criticat dur Google după ce Gemini a generat un răspuns considerat părtinitor la adresa premierului Narendra Modi. Compania a fost forțată să își suspende temporar funcția de generare de imagini și să își restructureze echipele de AI responsabil.
Mai mult, Google a recunoscut intern că se confruntă cu dificultăți majore în controlul acestor modele și în prevenirea răspândirii dezinformării, ceea ce ridică întrebări serioase despre capacitatea gigantului tech de a gestiona puterea pe care o are.
Halucinațiile AI: creativitate sau pericol?
Sam Altman, CEO OpenAI, a susținut că halucinațiile AI pot fi văzute și ca o formă de creativitate, atâta timp cât sunt folosite în scopuri recreative. Dar când aceste răspunsuri devin sursa principală de informare pentru public, discuția se schimbă radical. AI-ul nu are discernământ și nici capacitatea de a înțelege contextul cultural sau sensibilitățile sociale.
Tot mai mulți specialiști propun soluții tehnice pentru a limita aceste derapaje. De exemplu, integrarea unor baze de date vectoriale sau folosirea unor sisteme hibride precum Prometheus de la Microsoft, care combină rezultatele căutării clasice cu modelele AI, pentru a oferi răspunsuri mai corecte și mai bine documentate.
Până atunci, însă, tranziția Google spre un internet dominat de AI rămâne una controversată, în care greșelile nu mai sunt doar amuzante, ci pot avea consecințe reale asupra modului în care percepem lumea.