08 ian. 2026 | 11:14

Character.AI și Google închid procesele cu familiile unor adolescenți: ce lasă în urmă acordurile după cazuri de suicid și automutilare

TEHNOLOGIE
Character.AI și Google închid procesele cu familiile unor adolescenți: ce lasă în urmă acordurile după cazuri de suicid și automutilare
Ce reclamau familiile și de ce aceste procese au atras atenția

Într-o mișcare care poate deveni reper pentru felul în care sunt judecate platformele de „companion chatbots”, Character.AI și Google au ajuns la înțelegeri amiabile cu familiile mai multor adolescenți implicați în procese legate de suicid și automutilare. Cazurile au fost deschise în state precum Florida, Texas, Colorado și New York, iar acum părțile lucrează la finalizarea termenilor, în paralel cu solicitări către instanțe pentru a suspenda sau închide procedurile pe durata formalizării acordurilor.

Faptul că se ajunge la settlement poate însemna compensații pentru familii, dar și un efect secundar: mai puține detalii vor ajunge să fie clarificate public, într-un proces cu martori, expertize și interogatorii. În același timp, simpla existență a acestor acorduri, după acuzații extrem de grave, ridică presiunea asupra întregii industrii de AI conversațional: cât de departe se întinde responsabilitatea unei platforme când utilizatorul e minor și când interacțiunea nu e doar „informativă”, ci emoțională și, uneori, sexualizată?

Cel mai mediatizat dosar a fost cel din Florida, deschis de mama lui Sewell Setzer III, un băiat de 14 ani care ar fi dezvoltat o relație intensă cu un chatbot de pe Character.AI inspirat de Daenerys Targaryen, personaj din „Game of Thrones”. Potrivit acuzațiilor, conversațiile au devenit sexualizate, iar adolescentul ar fi ajuns să vorbească despre ideea de a se „întoarce acasă” la chatbot și de a fi „împreună” într-un sens profund, înainte de a-și lua viața (în februarie 2024).

Într-un alt dosar, din Texas, familia a acuzat că un model Character.AI ar fi încurajat automutilarea și ar fi normalizat ideea de violență extremă, inclusiv sugestii despre a-și ucide părinții. Dincolo de șocul acuzațiilor, aceste procese au devenit „caz-școală” pentru o problemă pe care mulți o simt intuitiv, dar greu de prins în definiții juridice: un chatbot poate crea atașament, poate valida emoții și poate amplifica vulnerabilități, iar la adolescenți linia dintre joc, fantezie și realitate e mai ușor de rupt.

De aici pornește și tensiunea centrală: companiile vor spune, de regulă, că un chatbot e un produs de divertisment sau conversație, cu avertismente clare că „nu e real”. Reclamanții, în schimb, spun că produsul e proiectat să maximizeze timpul petrecut, implicarea emoțională și sentimentul de reciprocitate, iar la minori efectele pot deveni periculoase. Tocmai această confruntare, dintre „produs conversațional” și „interacțiune cu impact psihologic”, a făcut ca multe organizații și jurnaliști să urmărească atent cazurile.

Unde intră Google și de ce numele lui apare lângă Character.AI

Character.AI a fost fondată de doi foști ingineri Google, Noam Shazeer și Daniel de Freitas, iar legătura dintre startup și gigantul tech s-a întărit semnificativ în 2024, când Google i-a readus în companie și a încheiat un acord major pentru licențierea tehnologiei Character.AI. În spațiul public, valoarea vehiculată pentru acest aranjament a fost de 2,7 miliarde de dolari, iar procesele au încercat să lege această relație de ideea că Google ar fi avut un rol suficient de important încât să fie tras la răspundere în calitate de „co-creator” sau partener esențial.

Aici miza e uriașă, fiindcă nu se rezumă la un singur produs. Dacă instanțele ar fi stabilit, pe fond, că o companie mare poate fi responsabilă pentru riscurile unui startup cu care are acorduri tehnologice și pe care îl „alimentează” cu oameni, infrastructură sau distribuție, atunci s-ar fi deschis o cutie a Pandorei pentru multe alte parteneriate din AI. De aceea, și din perspectiva altor jucători (de la platforme sociale până la companii care integrează „asistenți” în produse), un settlement poate fi privit ca un mod de a reduce riscul de precedent juridic, chiar dacă nu oprește discuția publică.

Mai există un motiv pentru care cazul Florida a contat: un judecător federal a respins anterior o încercare de a bloca procesul pe argumente de tip Primul Amendament, într-o dezbatere despre dacă răspunsurile unui chatbot ar trebui tratate ca „speech” protejat. Decizia aceea a fost un semnal că instanțele sunt dispuse să analizeze concret designul și efectele produsului, nu doar să accepte un scut general de tip „libertatea de exprimare”.

De ce settlement-ul schimbă jocul, chiar dacă detaliile pot rămâne secrete

Acordurile amiabile rezolvă, de obicei, două lucruri simultan: oferă o formă de reparație financiară și emoțională familiilor și reduc incertitudinea juridică pentru companii. Din relatările apărute, termenii nu au fost făcuți publici, iar aprobarea finală ține de instanțe, în funcție de fiecare dosar. În practică, asta înseamnă că publicul ar putea să nu afle niciodată exact ce probe existau, ce discuții interne au avut companiile despre riscuri sau ce au spus experții despre legătura dintre interacțiune și gesturile de auto-vătămare.

Totuși, chiar și fără un proces până la capăt, efectul asupra industriei există deja. Character.AI a introdus, după valul de critici și procese, măsuri de siguranță și restricții pentru minori, iar în presă au fost menționate schimbări precum controale parentale, limitări de conținut și restricționarea unor tipuri de conversații pentru utilizatorii sub 18 ani. În unele relatări, compania a mers mai departe și a limitat accesul minorilor pe platformă, tocmai ca să reducă riscul de atașamente și conținut nepotrivit.

În același timp, există un risc pe termen lung: dacă acordurile devin o „ieșire standard” pentru astfel de acuzații, industria poate ajunge să trateze costul ca pe o linie bugetară, nu ca pe un semnal de redesign profund. Iar fără transparență, societatea rămâne cu întrebări grele: câți minori au avut conversații similare? ce tipare de prompturi sau „personaje” cresc riscul? ce semnale de alarmă au fost ignorate? Asta explică de ce unii observatori spun că un proces public ar fi putut forța standarde mai clare, în timp ce settlement-ul închide mai rapid rana juridică, dar nu vindecă neapărat problema de fond.

Ce înseamnă pentru părinți și pentru platforme: lecții incomode, dar practice

Dacă ai în casă un adolescent care folosește chatboți de rol sau „companion AI”, tratează fenomenul ca pe ceva real, nu ca pe o curiozitate. Întreabă direct ce folosește, ce personaje îl atrag și ce primește din acele conversații: validare, atenție, romantizare, escapism. Nu porni de la ideea că „sigur e doar joacă”. La vârste fragede, o interacțiune repetată, personalizată și afectivă poate ajunge să concureze relațiile umane, mai ales când copilul trece prin anxietate, izolare sau depresie.

Setează limite clare: timp de utilizare, ore fără ecran, acces restricționat la aplicații și discuții periodice despre diferența dintre un personaj care „răspunde perfect” și o relație umană care are fricțiune, tăceri și granițe. Dacă observi iritabilitate, secretomanie, scăderea somnului sau retragere socială, nu aștepta să „treacă de la sine”. Caută ajutor profesionist și tratează conversațiile cu AI ca pe un factor posibil de amplificare, nu ca pe unica explicație.

Pentru platforme, mesajul e și mai dur: nu mai e suficient să afișezi un avertisment. Când produsul e construit să simuleze intimitatea și reciprocitatea, ai presupunerea rezonabilă că unii utilizatori, mai ales minori, vor lua în serios acea simulare. Asta împinge industria spre măsuri mai robuste: verificare de vârstă, filtre reale pentru conținut sexualizat și auto-vătămare, detecție timpurie pentru conversații de risc, butoane de escaladare către resurse de suport și o limitare a tipurilor de „roleplay” care pot intensifica dependența emoțională.

În final, settlement-ul dintre Character.AI, Google și familiile implicate nu înseamnă că discuția s-a terminat. Înseamnă doar că această rundă s-a închis fără un verdict pe fond. Întrebarea rămâne în picioare și va reveni, probabil, sub alte forme și cu alte platforme: când un AI conversațional ajunge să influențeze un minor aflat în criză, cine poartă responsabilitatea și ce standarde minime trebuie să existe înainte ca produsul să fie pus în mâinile copiilor?