Google caută „polițiști” pentru răspunsurile AI din Search, după valul de halucinații
Când Google a început să împingă răspunsurile generate de inteligență artificială direct în rezultatele căutării, promisiunea a fost simplă: găsești mai repede esențialul, fără să deschizi zece pagini. Problema e că „esențialul” devine inutil dacă e inventat, contradictoriu sau prezentat cu o siguranță care te face să nu mai verifici nimic. Iar aici apare una dintre cele mai delicate slăbiciuni ale modelelor AI: halucinațiile, adică momentele în care sistemul „umple” golurile cu informații care sună credibil, dar nu au bază reală.
Un indiciu clar că situația îi apasă pe cei din Search este apariția unui rol dedicat: ingineri pentru „AI Answers Quality”. Pe scurt, oameni care să ajute Google să verifice, să măsoare și să îmbunătățească răspunsurile AI, în special AI Overviews, adică acele rezumate care apar în pagina de rezultate. Simplul fapt că această nevoie este formulată într-un anunț de angajare spune multe: Google vrea să „reimagineze” căutarea, dar trebuie să o facă fără să piardă încrederea utilizatorilor.
Halucinațiile AI nu sunt o eroare banală de tip „am greșit un număr”. Sunt un tip de defect structural: modelul poate produce răspunsuri coerente, bine scrise, uneori chiar convingătoare, care însă conțin fapte inventate sau combinații greșite de informații. Mai grav, același sistem poate oferi răspunsuri diferite la aceeași întrebare, doar pentru că ai schimbat ușor formularea. Din perspectiva unui utilizator, asta arată ca o lipsă de stabilitate: dacă adevărul se schimbă când muți o virgulă, ai o problemă.
În Search, efectul devine mai periculos pentru că răspunsul AI apare „deasupra” sau „în față”, în zona cea mai vizibilă. Căutarea a antrenat, timp de două decenii, un reflex mental: „dacă e pe Google, probabil e adevărat”. Chiar dacă știi rațional că internetul e haotic, poziționarea unei informații în interfața Search îi dă o autoritate implicită. Asta înseamnă că o halucinație în chat e enervantă; o halucinație în Search poate deveni un obicei greșit, repetat de milioane de oameni.
Mai e și aspectul psihologic: AI Overviews sunt scrise „curat”, ca un rezumat final. Nu îți arată efortul, ezitarea sau incertitudinea. Dacă textul nu îți semnalează clar limitele, creierul îl ia drept concluzie. Aici se rupe filmul: când rezumatul e greșit, greșeala e livrată sub formă de certitudine.
De ce angajează Google ingineri pentru „AI Answers Quality” și ce spune asta despre problemă
Un rol numit explicit „AI Answers Quality” nu sună ca o „optimizare de rutină”, ci ca un răspuns la o tensiune reală: compania împinge AI Overviews tot mai mult în experiența de căutare, dar calitatea încă are „muchii aspre”. În descriere, Google vorbește despre „reimaginarea” căutării „oricum și oriunde”, despre provocări complexe de inginerie și despre menținerea unei experiențe „universal accesibile și utile”, pe care oamenii se bazează.
Tradus în termeni simpli: vrea să schimbe modul în care cauți, dar nu are voie să strice încrederea pe care s-a construit Search. Iar asta devine greu când produsul AI poate inventa informații sau poate genera contradicții. În acest context, echipa de „calitate” pare gândită ca un filtru tehnic și operațional: să reducă răspunsurile greșite, să crească consistența, să îmbunătățească modul în care AI Overviews tratează întrebările dificile și să stabilească proceduri de verificare.
Un detaliu important din anunț este accentul pe întrebări „grele și complicate”, atât în pagina de rezultate, cât și în AI Mode. Asta sugerează că Google nu urmărește doar să corecteze greșeli evidente, ci să construiască un mecanism care se descurcă în zone unde informația e ambiguu documentată, se schimbă rapid sau necesită context. Cu alte cuvinte, exact tipul de zone unde halucinațiile sunt cel mai probabile.
Mai există și un subtext: acesta este un mod „indirect” prin care Google recunoaște că AI Overviews au nevoie de îmbunătățiri. Nu e un comunicat cu scuze, ci un semnal intern, vizibil public: „da, trebuie să reparăm”.
Când AI Overviews devine obligatoriu: presiunea de produs și riscul pentru utilizatori
În paralel cu angajările, există o critică tot mai des auzită: Google împinge utilizatorii către AI Mode și către răspunsuri AI, inclusiv în zone unde oamenii se așteaptă la neutralitate și precizie. În unele actualizări recente, AI Overviews a apărut mai des, iar experiența pare setată să te ducă spre „răspunsul direct”, nu spre listă clasică de rezultate.
Mai sensibil este că AI Overviews nu se oprește la căutări „generale”. A ajuns și în Discover, inclusiv pentru știri, iar sistemul poate rescrie titluri ale publicațiilor folosind AI. Aici se deschide un alt front: dacă rescrii titluri și rezumi conținut, ai o responsabilitate editorială implicită. Dacă greșești nuanța, schimbi sensul. Dacă inventezi un detaliu, nu doar „informezi greșit”, ci afectezi și relația dintre public și presa originală.
Exemplele tipice de problemă sunt cele în care AI Overviews produce cifre care nu există în surse. Un caz descris clar este cel al evaluării unei companii: întrebi o dată și primești un număr mic, formulezi ușor diferit și primești un număr uriaș, de ordinul zecilor de milioane. Și când verifici „citațiile” sau trimiterea la surse, constați că valorile invocate nu apar, de fapt, în acele surse. Asta este aproape „cea mai rea combinație”: încredere mare, verificare aparentă (prin surse afișate) și conținut inventat.
În plus, există și zona cea mai riscantă: sănătatea. Dacă un rezumat AI oferă sfaturi medicale care sunt înșelătoare sau direct greșite, consecințele nu mai sunt doar confuzie, ci pot deveni periculoase. Iar pentru că Search este prima oprire pentru mulți oameni, greșelile aici au un potențial de multiplicare uriaș.
Cum te protejezi când Google îți servește un răspuns AI cu aer de „adevăr final”
Dacă vrei să nu cazi în capcana halucinațiilor, primul pas este să tratezi AI Overviews ca pe un rezumat orientativ, nu ca pe verdict. Uită-te dacă răspunsul conține cifre, superlative sau afirmații foarte precise. Acolo apar frecvent invențiile: un an, o sumă, un nume complet, un procent.
Apoi, fă un obicei simplu: compară rapid răspunsul cu cel puțin două surse independente din rezultate, mai ales când informația îți afectează decizii (bani, sănătate, acte). Dacă AI îți spune „X valorează Y”, caută confirmarea în articole sau comunicate. Dacă AI îți dă „sfat de sănătate”, verifică prin surse medicale credibile și, când e cazul, discută cu un profesionist, nu cu un rezumat.
În final, apariția echipei „AI Answers Quality” arată că Google știe că miza nu mai este doar să fie spectaculos, ci să fie corect. Search poate supraviețui cu un design nou, cu un AI Mode mai agresiv și cu rezumate peste tot. Dar nu poate supraviețui dacă oamenii ajung să creadă că răspunsurile sunt „frumoase, dar nesigure”. Iar în momentul în care încrederea se fisurează, nici cea mai bună interfață nu mai repară problema.