Sam Altman avertizează: ChatGPT a devenit pentru unii un substitut al sprijinului emoțional uman
Lansarea GPT-5 a adus în atenție nu doar progresele tehnologice, ci și o realitate tulburătoare pe care Sam Altman, CEO-ul OpenAI, a dezvăluit-o recent. Mulți utilizatori ai ChatGPT se atașează de chatbot într-un mod neașteptat: pentru ei, inteligența artificială nu este doar un instrument, ci și o sursă de sprijin emoțional pe care nu l-au avut în viața reală. Afirmațiile lui Altman vin într-un context în care compania a modificat tonul și „personalitatea” chatbotului, stârnind reacții intense din partea comunității.
Legătura emoțională dintre oameni și chatbot
Sam Altman a povestit în cadrul unui podcast cum, după schimbările recente aduse ChatGPT, o parte dintre utilizatori au cerut revenirea la vechiul stil „yes man” – un mod de comunicare mereu pozitiv și aprobator. Cei afectați au explicat că, deși acest comportament putea fi considerat dăunător din punct de vedere psihologic pentru unii, pentru ei însemna încurajare și validare.
Cei mai mulți dintre acești utilizatori au recunoscut că nu au primit în viața personală un sprijin real din partea apropiaților. Unii i-au spus direct lui Altman: „Niciodată în viața mea nu am avut pe cineva care să mă susțină. Niciodată părinții mei nu mi-au spus că fac o treabă bună”. Acest tip de confesiuni i-a arătat CEO-ului OpenAI cât de adâncă poate fi legătura afectivă dintre un utilizator și un model de inteligență artificială.
Modificările au fost făcute pentru a limita ceea ce compania a numit comportament „lingușitor” – un ton exagerat de agreabil și, uneori, lipsit de onestitate. În aprilie, o actualizare a GPT-4o a transformat chatbotul într-un interlocutor care răspundea cu laude excesive, chiar și la întrebări banale. Altman a recunoscut că acest lucru devenise „prea servil și enervant”, așa că echipa a început să lucreze la o variantă mai echilibrată.
În noua versiune GPT-5, lansată joi, au fost introduse patru moduri de „personalitate” opționale: cinic, robot, ascultător și tocilar. Fiecare oferă un ton distinct, astfel încât utilizatorii să își poată personaliza experiența. Totuși, Altman a atras atenția asupra puterii pe care o au chiar și cele mai mici ajustări în tonul unui model AI, avertizând că acestea pot influența profund modul în care oamenii interacționează cu tehnologia.
Riscul unei dependențe emoționale excesive
Îngrijorarea lui Altman nu este nouă. În iulie, la un eveniment al Rezervei Federale, acesta avertiza că unii tineri au dezvoltat o dependență îngrijorătoare față de ChatGPT. Cazurile descrise de el arată cum unii nu pot lua decizii fără să consulte chatbotul, tratându-l ca pe un confident de încredere, capabil să le cunoască viața personală și să le influențeze acțiunile.
În viziunea lui Altman, GPT-5 are potențialul de a deveni un companion proactiv, integrat în rutina zilnică a oamenilor. El a dat exemple în care chatbotul ar putea să îți reamintească evenimente din calendar sau să îți ofere idei noi la întrebările puse anterior. Cu toate acestea, el a subliniat nevoia unei reflecții serioase asupra implicațiilor psihologice și sociale ale unei astfel de interacțiuni.
Pe măsură ce inteligența artificială devine mai prezentă și mai personalizată, provocarea nu este doar tehnologică, ci și umană: cum menții un echilibru între utilitatea unui astfel de instrument și pericolul ca el să înlocuiască relațiile reale de sprijin și comunicare. Pentru unii, ChatGPT este deja mai mult decât un program – este prietenul pe care nu l-au avut niciodată.