08 iul. 2025 | 17:06

Concediat? Vorbește cu ChatGPT! Sfatul „empatic” al unui șef Xbox stârnește revoltă după valul de concedieri de la Microsoft

TEHNOLOGIE
Share
Concediat? Vorbește cu ChatGPT! Sfatul „empatic” al unui șef Xbox stârnește revoltă după valul de concedieri de la Microsoft
Când chatbotul devine terapeut, iar compania scapă de responsabilitate

În plină explozie a investițiilor în inteligență artificială, Microsoft a concediat aproximativ 9.000 de angajați. Iar dacă te-ai aștepta ca liderii companiei să ofere sprijin real celor afectați, pregătește-te pentru o doză de disonanță cognitivă pe cât de tehnologică, pe atât de bizară. Un producător executiv de la Xbox, companie deținută de Microsoft, a sugerat… ca foștii angajați să își vindece rănile emoționale cu ajutorul ChatGPT.

Matt Turnbull, omul din spatele acestei idei, a postat pe LinkedIn un mesaj care s-a vrut motivator, dar a sfârșit prin a fi interpretat drept una dintre cele mai „surde” reacții la criza umană declanșată de concedieri. Iar internetul n-a întârziat să reacționeze.

9.000 de oameni concediați, 80 de miliarde pentru AI

Concedierile în masă vin într-un moment în care Microsoft anunță o investiție de 80 de miliarde de dolari în inteligență artificială — o mișcare văzută de unii ca o reafirmare a priorităților companiei, dar de alții ca o declarație rece: angajații pot fi înlocuiți, AI-ul e viitorul.

Pe acest fundal tensionat, postarea lui Turnbull a picat ca un trăsnet. În mesajul său, acum șters, el susținea că „acestea sunt vremuri dificile și, dacă treci printr-o concediere sau te pregătești în liniște pentru una, nu ești singur și nu trebuie să treci prin asta de unul singur”. Până aici, nimic anormal.

Dar imediat după, a sugerat ca oamenii să apeleze la „instrumente AI precum ChatGPT sau Copilot” pentru a-și recăpăta claritatea emoțională și încrederea. El a oferit chiar și un exemplu de prompt: „Mă confrunt cu sindromul impostorului după ce am fost concediat. Mă poți ajuta să reinterpretez această experiență într-un mod care să-mi amintească de ce sunt bun?”

Reacțiile? Furia internetului n-a întârziat. Un comentator a ironizat pe X spunând: „Sezonul nou din Severance e incredibil de bun”. Altul, mai tranșant, a scris pe Reddit: „Oricine sugerează cuiva concediat să vorbească cu un chatbot pentru terapie e nebun”. Un utilizator a concluzionat sec: „Cea mai lipsită de empatie și crudă reacție pe care am văzut-o vreodată din partea unui angajat Xbox”.

Problema nu este doar lipsa de empatie, ci și simbolismul propunerii. Compania care i-a concediat le sugerează să vorbească… cu un produs al companiei. E ca și cum un medic ți-ar scoate un organ vital, apoi ți-ar recomanda să te consolezi cu broșura publicitară a clinicii.

Sugestia lui Turnbull a fost percepută nu doar ca o gafă, ci ca o formă de deturnare a responsabilității. În loc să existe consiliere psihologică, pachete de suport emoțional sau sprijin real în tranziția profesională, li se oferă foștilor angajați o conversație cu un algoritm.

Este adevărat că inteligența artificială poate fi utilă în redactarea CV-urilor sau în simularea unor interviuri de angajare. Dar când AI-ul este prezentat ca sprijin emoțional — în locul unui coleg, prieten sau psiholog — se creează o imagine distopică, în care umanitatea e outsourcing-uită către linii de cod.

Mai mult, faptul că mesajul a fost șters sugerează că reacțiile negative au fost nu doar numeroase, ci și suficiente pentru a provoca o retragere rapidă. Nu este clar dacă Turnbull a fost sancționat intern, dar sentimentul general este că sfatul său n-a fost doar neinspirat, ci profund cinic.

Inteligența artificială nu e empatie. Nici prieten.

Poate cel mai grav aspect al întregii situații este confuzia între asistență tehnologică și sprijin emoțional real. Să-i spui cuiva concediat că un chatbot îl poate ajuta cu „claritate emoțională” e ca și cum i-ai sugera unui om în doliu să se uite la un tutorial pe YouTube în loc să meargă la un psiholog.

Turnbull a insistat că intențiile sale erau bune și că „ar fi fost o greșeală să nu încerce să ofere cel mai bun sfat în contextul dat”. Dar tocmai contextul — mii de oameni lăsați fără loc de muncă de o companie care investește masiv în AI — face sfatul și mai greu de digerat.

Este o lecție despre limitele tehnologiei și despre cât de periculos poate fi să înlocuiești dialogul uman cu unul artificial. ChatGPT poate oferi suport util, dar nu poate înlocui o conversație reală, empatică, umană. Nu îți poate simți frustrarea, nu îți poate înțelege experiențele personale și nu te poate consola cu sinceritate.

Într-un moment în care companiile de tehnologie își schimbă strategiile și pun tot mai mult accent pe automatizare, asemenea episoade devin simptomatice. E o dovadă că, în goana după inovație, se uită un detaliu esențial: oamenii nu sunt linii de cod.

Microsoft are dreptul să investească în viitorul digital, dar are și responsabilitatea de a-și trata angajații cu respect, chiar și (sau mai ales) în momentul despărțirii. Să sugerezi că AI-ul e suficient pentru a suplini sprijinul uman e mai mult decât o gafă — e o radiografie a felului în care companiile moderne privesc empatia: ca pe un task delegabil. Iar când empatia devine un prompt, pierdem cu toții ceva din umanitatea noastră.