26 sept. 2024 | 22:34

ChatGPT, Gemini și alți chatboți: un risc de dezinformare, evitând să recunoască lipsa de răspunsuri corecte

ACTUALITATE
ChatGPT, Gemini și alți chatboți: un risc de dezinformare, evitând să recunoască lipsa de răspunsuri corecte
Inteligența artificială, un pericol de dezinformare prin răspunsurile pe care le generează.

Odată cu avansarea inteligenței artificiale, capacitățile chatboților precum ChatGPT și Gemini au crescut considerabil. Acești algoritmi sunt acum capabili să răspundă la o gamă largă de întrebări, de la subiecte de matematică și știință până la analize lingvistice complexe. Însă această evoluție rapidă are și un revers îngrijorător: pe măsură ce modelele devin mai complexe, ele sunt mai puțin dispuse să recunoască atunci când nu știu răspunsul, preferând să ofere răspunsuri eronate cu o încredere nesăbuită.

Efectul „confident, dar greșit”

Un studiu condus de profesorul José Hernández-Orallo de la Universitatea Politehnică din Valencia, Spania, a scos la iveală această problemă majoră. Deși modelele AI devin din ce în ce mai precise, sunt și mai susceptibile să răspundă greșit în loc să recunoască că nu au suficiente informații. Această tendință poate conduce la răspândirea unor informații greșite cu un nivel ridicat de încredere, ceea ce crește riscul de dezinformare.

„Ei răspund aproape la orice în zilele noastre”, a declarat Hernández-Orallo pentru publicația Nature. Deși această capacitate ar putea sugera o îmbunătățire a performanței, ea vine la pachet și cu un număr crescut de răspunsuri incorecte.

Studiul modelelor LLM și rezultatele surprinzătoare

Echipa de cercetători a testat trei familii majore de modele de limbaj mari (LLM), inclusiv seria GPT de la OpenAI, LLaMA de la Meta și BLOOM, un model open-source. Studiile au demonstrat că, pe măsură ce modelele avansează de la versiuni mai simple, cum ar fi GPT-3, către iterații mai complexe precum GPT-4, proporția răspunsurilor greșite crește.

Aceasta se întâmplă deoarece modelele mai avansate tind să creadă că au „răspunsul perfect” la orice întrebare, la fel cum un profesor cu experiență poate deveni prea încrezător pe măsură ce acumulează cunoștințe. Deși modelele pot gestiona mai bine întrebările simple, atunci când se confruntă cu provocări mai complexe, ele adesea nu recunosc limita propriilor capacități.

Risc de dezinformare: rolul oamenilor în perpetuarea erorilor

O altă parte critică a studiului a implicat evaluarea răspunsurilor date de chatboți de către voluntari umani. Aceștia au fost adesea induși în eroare de răspunsurile oferite cu încredere de către modele, clasificând greșit răspunsurile incorecte ca fiind corecte într-o proporție surprinzător de mare, variind între 10% și 40%. Această tendință de a crede răspunsurile „halucinate” ale modelelor AI doar pentru că sunt oferite cu încredere subliniază provocările majore ale folosirii acestor sisteme în scopuri critice.

„Oamenii nu sunt capabili să supravegheze aceste modele”, a concluzionat Hernández-Orallo.

Ce putem face pentru a preveni răspândirea dezinformării?

Echipa de cercetători a recomandat dezvoltatorilor de AI să îmbunătățească performanța chatbot-urilor la întrebările simple și să le programeze să refuze să răspundă la întrebările complicate, pentru care nu au cunoștințe suficiente. „Trebuie să înțelegem: pot folosi aceste modele în anumite domenii, dar nu ar trebui să le folosesc în altele”, a spus Hernández-Orallo.

Cu toate acestea, această soluție se lovește de realitatea comercială: companiile care dezvoltă astfel de modele sunt puțin probabil să implementeze funcții care ar putea face ca chatbot-urile lor să fie percepute ca mai puțin avansate. Chatboții care răspund adesea cu „nu știu” ar putea părea mai puțin valoroși, ducând la scăderea utilizării și, implicit, la pierderi financiare pentru aceste companii.

Astfel, responsabilitatea rămâne în mâinile utilizatorilor, care trebuie să fie mai vigilenți în verificarea acurateței răspunsurilor oferite de chatbot-uri. Avertismente precum „ChatGPT poate face greșeli” sau „Gemini poate afișa informații inexacte” sunt, de regulă, plasate în secțiuni mai puțin vizibile ale platformelor, ceea ce înseamnă că utilizatorii trebuie să fie proactivi în evaluarea corectitudinii informațiilor.

Chatboții avansați, o sabie cu două tăișuri

ChatGPT, Gemini și alți chatboți avansați reprezintă un progres imens în tehnologia AI, oferind o versatilitate fără precedent în gestionarea sarcinilor și a conversațiilor complexe. Totuși, odată cu aceste progrese, vine și un risc semnificativ de dezinformare, în special atunci când modelele refuză să recunoască limitele cunoștințelor lor.

Pentru a evita răspândirea neintenționată a informațiilor eronate, utilizatorii trebuie să fie conștienți de limitele acestor sisteme și să își asume responsabilitatea de a verifica informațiile înainte de a le folosi sau distribui. În caz contrar, puterea și influența acestor tehnologii ar putea deveni o problemă majoră în era digitală.