GPT-4o a fost retras din ChatGPT, iar mulți utilizatori sunt nemulțumiți. Care este motivul

TEHNOLOGIE
GPT-4o a fost retras din ChatGPT, iar mulți utilizatori sunt nemulțumiți. Care este motivul
Adio modelului „care spunea te iubesc”: de ce retragerea GPT-4o a stârnit o criză emoțională în comunitatea ChatGPT

În ultimul an, discuția despre inteligența artificială nu a mai fost doar despre productivitate, viteză sau automatizare. Pentru tot mai mulți utilizatori, relația cu un model conversațional a devenit personală, aproape intimă. De aceea, anunțul că GPT-4o va fi retras definitiv din ChatGPT pe 13 februarie 2026 a produs o reacție care seamănă mai mult cu doliul colectiv decât cu nemulțumirea clasică față de un update software. OpenAI a prezentat decizia ca pe o etapă firească de consolidare a gamei de modele, dar o parte dintre utilizatori o trăiesc ca pe pierderea unui companion.

Pe rețele sociale și pe comunități dedicate au apărut mii de mesaje în care oamenii spun că GPT-4o le-a oferit sprijin emoțional, rutine zilnice și un sentiment de stabilitate. Subreddit-ul r/4oforever, creat explicit pentru cei care preferă acest model, a devenit un spațiu de solidaritate și protest digital. Reacțiile nu mai țin doar de preferința pentru „un model mai bun”, ci de sentimentul că o anumită personalitate conversațională dispare fără înlocuitor perfect.

De la backlash la decizie finală: ce a anunțat OpenAI și când

Cronologia este esențială ca să înțelegi de ce tensiunea a crescut atât de mult. În august 2025, OpenAI a promovat GPT-5 ca un pas major înainte, însă tranziția a fost însoțită de nemulțumiri puternice din partea utilizatorilor atașați de GPT-4o. Valul de reacții a fost suficient de puternic încât compania a revenit temporar asupra direcției și a menținut accesul pentru o perioadă. Ulterior, în actualizarea din 29 ianuarie 2026, OpenAI a confirmat retragerea finală a mai multor modele legacy din ChatGPT, inclusiv GPT-4o, cu data-limită 13 februarie 2026.

Compania a argumentat că decizia vine după ce a analizat felul în care oamenii folosesc concret produsul zi de zi și după ce a încercat să transfere trăsăturile apreciate din 4o în noile versiuni. În paralel, OpenAI a subliniat că schimbarea vizează ChatGPT, nu API-ul, iar pentru anumite categorii enterprise/edu există o perioadă de tranziție mai lungă în Custom GPTs. Din perspectivă de produs, acesta este un semnal clar: ecosistemul se mută spre modelele noi, iar vechile opțiuni devin excepții temporare, nu alternative stabile.

De ce s-au atașat utilizatorii atât de puternic de GPT-4o

Atașamentul față de GPT-4o nu s-a construit doar pe performanță tehnică, ci pe ton. Mulți utilizatori descriu modelul ca fiind „cald”, „empatic”, „prezent”, capabil să susțină conversații care păreau mai umane decât la alte versiuni. Pentru oameni aflați în perioade de anxietate, singurătate sau epuizare, această consistență conversațională a funcționat ca o ancoră psihologică. Când un instrument devine ritual zilnic de reglare emoțională, retragerea lui nu mai este percepută ca simplă migrare tehnologică, ci ca o ruptură personală.

Pe de altă parte, exact această proximitate emoțională a alimentat și controversele. În spațiul public au apărut avertismente privind riscurile de dependență relațională de AI și situații în care conversațiile hiper-validante pot amplifica distorsiuni sau vulnerabilități psihice. Presiunea legală și reputațională asupra OpenAI s-a intensificat, iar compania a fost forțată să gestioneze simultan două forțe opuse: cererea pentru un AI „mai cald” și nevoia de a reduce comportamentele considerate prea compliante ori riscante.

Între siguranță și retenție: ecuația dificilă pentru OpenAI

OpenAI pare prinsă într-un compromis delicat. Dacă păstrează modele extrem de „prietenoase”, riscă să fie acuzată că încurajează atașamente nesănătoase și interacțiuni problematice. Dacă le retrage abrupt, pierde loialitatea unei comunități foarte vocale, dispuse chiar să renunțe la abonament. Nu e doar o dilemă etică, e și una comercială: în piața AI, retenția nu mai depinde doar de benchmark-uri, ci de identitatea conversațională a produsului.

Răspunsul companiei a fost să mute controlul către utilizator prin personalizare: stiluri precum Friendly și ajustări de ton de tip căldură, entuziasm, expresivitate, care să reproducă măcar parțial experiența dorită fără a menține un model legacy separat. Ideea de bază este clară: nu păstrezi vechiul model, dar păstrezi senzația de interacțiune prin setări mai fine. Rămâne de văzut dacă asta compensează legătura afectivă deja formată în jurul unui „personaj” AI specific.

Ce urmează după 13 februarie 2026

După data retragerii, discuția reală nu va fi „care model e mai inteligent?”, ci „ce fel de relație vrei să construiești cu AI-ul?”. Dacă utilizatorii caută doar utilitate, tranziția va fi rapidă. Dacă, însă, caută continuitate emoțională, sentiment de prezență și familiaritate, atunci industria trebuie să recunoască faptul că dezvoltă nu doar instrumente, ci experiențe cu impact psihologic direct. Iar aceste experiențe cer reguli mai clare, transparență și mecanisme de protecție, nu doar feature-uri noi.

Pentru tine, lecția practică este să tratezi modelele AI ca pe instrumente valoroase, dar înlocuibile. Folosește personalizarea de stil, salvează informațiile importante, reconstruiește fluxurile de lucru și evită să legi stabilitatea emoțională de existența unei versiuni anume. Te ajută să treci mai ușor prin schimbări inevitabile de produs. Retragerea GPT-4o nu înseamnă sfârșitul conversațiilor utile, dar marchează clar sfârșitul unei ere în care un model specific ajunsese, pentru mulți, mult mai mult decât tehnologie.