17 dec. 2025 | 16:36

Raport despre chatboții de companie: copiii ajung frecvent la roluri violente, inclusiv sexual violente

TEHNOLOGIE
Share
Raport despre chatboții de companie: copiii ajung frecvent la roluri violente, inclusiv sexual violente
Ce arată datele: companie căutată intenționat, iar violența devine combustibil pentru conversații

Un nou raport ridică semne de întrebare serioase despre felul în care copiii folosesc chatboții de tip „companion” – aplicații și servicii care promit conversații „ca între oameni”, roluri interactive și un substitut de socializare. Deși astfel de instrumente sunt prezentate adesea ca prietenoase, amuzante sau chiar utile pentru singurătate și anxietate, datele descrise în raport sugerează că, pentru un segment important de minori, direcția conversațiilor alunecă frecvent spre scenarii violente.

Cercetarea, realizată de compania de securitate digitală Aura și relatată public, indică faptul că violența – inclusiv violența sexuală – nu apare doar accidental, ci este un factor major de „engagement”: când astfel de teme intră în joc, interacțiunile devin mai lungi și mai intense. Într-o piață a chatboților încă slab reglementată, raportul pune pe masă o problemă greu de ignorat: nu doar că există conținut tulburător, ci el apare într-un mediu interactiv, în care minorul nu este spectator pasiv, ci co-autor al scenariului.

Ce arată datele: companie căutată intenționat, iar violența devine combustibil pentru conversații

Raportul Aura se bazează pe date anonimizate din activitatea online a aproximativ 3.000 de copii cu vârste între 5 și 17 ani, ale căror familii folosesc instrumentul de control parental al companiei, plus date suplimentare din sondaje realizate de Aura și Talker Research. În analiză au intrat conversații de pe aproape 90 de servicii diferite, de la platforme mari, precum Character.AI, până la aplicații mai puțin cunoscute din zona „AI companion”.

Un rezultat-cheie este proporția celor care folosesc AI în mod explicit pentru companie: 42% dintre minori au apelat la chatboți pentru conversații menite să imite interacțiuni sociale realiste sau scenarii de roleplay. Iar dintre acești copii, 37% au ajuns la conversații cu tematică violentă, definită ca interacțiuni cu „violență fizică, agresiune, vătămare sau coerciție”, incluzând explicit coerciția sexuală sau non-sexuală, precum și descrieri de lupte, ucidere, tortură sau acte fără consimțământ.

Poate cel mai șocant element este proporția violenței sexuale în interiorul acestui segment: raportul susține că jumătate dintre conversațiile violente au inclus teme de violență sexuală. În plus, minorii care au intrat în astfel de interacțiuni au scris, în medie, peste o mie de cuvinte pe zi, ceea ce este interpretat drept un indiciu că violența funcționează ca un motor puternic de implicare. Nu e vorba doar de „o replică scăpată”, ci de sesiuni care pot deveni consistente ca volum și timp.

Vârstele la care fenomenul pare să atingă un vârf și de ce interactivitatea schimbă miza

Raportul notează un vârf surprinzător de timpuriu pentru rolurile violente: categoria cea mai predispusă la astfel de interacțiuni ar fi copiii de 11 ani, unde 44% dintre conversații ar fi luat o turnură violentă. Această observație schimbă instinctiv percepția multor adulți, care ar presupune că astfel de conținuturi apar mai ales la adolescenți mari. În schimb, aici discutăm despre o vârstă la care limitele, curiozitatea și imitarea comportamentelor sunt încă într-o etapă fragilă.

În paralel, raportul menționează și o altă zonă sensibilă: roleplay-ul romantic și sexual, care ar fi atins un vârf la vârste de gimnaziu. Concret, se afirmă că 63% dintre conversațiile celor de 13 ani ar include elemente de flirt, afecțiune sau roleplay explicit sexual. Combinația dintre sexualitate și instrumente conversaționale care „răspund” și „încurajează” poate crea o dinamică diferită de cea a conținutului static de pe internet.

Diferența majoră față de alte tipuri de conținut problematice este că un chatbot este interactiv. Minorul nu doar vede ceva, ci participă, formulează replici, primește confirmări, escaladează, negociază, repetă. Într-o narațiune violentă sau sexual violentă, „învățarea regulilor de interacțiune” nu mai e doar teorie: devine un exercițiu practic, repetat. Iar raportul subliniază tocmai această necunoscută: nu este clar care vor fi consecințele pe termen lung ale unui astfel de „antrenament” social cu un bot, într-un interval de dezvoltare intensă.

Piața „Vestului sălbatic” și presiunea juridică: platforme multe, reguli puține, procese în creștere

Raportul Aura vine și cu o critică de context: piața chatboților de companie este descrisă ca anarhică, iar amploarea platformelor face dificilă supravegherea reală. Conform declarațiilor citate, Aura ar fi identificat peste 250 de aplicații și platforme conversaționale în magazinele de aplicații, iar bariera de intrare pentru minori ar fi adesea minimă: o bifă că ai 13 ani. În absența unor praguri federale clare de siguranță pentru astfel de servicii, responsabilitatea se împinge aproape integral spre părinți și spre instrumentele de control parental, adică exact zona în care companiile de securitate își vând soluțiile.

E relevant și faptul că raportul este menționat ca fiind în așteptare de peer review și este produs de o companie care are interes comercial în a evidenția riscurile digitale. Asta nu anulează rezultatele, dar impune o lectură atentă: este un semnal de alarmă care descrie un fenomen îngrijorător, însă evaluarea finală a metodologiei și a interpretării poate evolua odată cu verificarea academică și cu replicarea pe alte eșantioane.

În paralel, discuția se lovește de realitatea proceselor: raportul apare pe fondul unor acțiuni în instanță legate de presupuse abuzuri și vătămări asociate cu platforme de chatboți. Sunt menționate procese împotriva Character.AI, intentate de părinți ai unor minori, cu acuzații de abuz sexual și emoțional din partea chatboților și consecințe grave pentru copii. Este menționat și faptul că OpenAI, compania din spatele ChatGPT, ar fi vizată de procese privind decese ale unor adolescenți care au murit prin suicid după interacțiuni extinse cu chatbotul, alături de alte litigii similare și pentru utilizatori adulți. Fără a tranșa aceste cazuri (care țin de instanțe și probe), simpla lor existență arată că problema a depășit zona de „panică morală” și a intrat în zona de responsabilitate legală și standarde de siguranță.

Dincolo de cifre, mesajul central al raportului este că nu mai vorbim doar despre ce „găsesc” copiii pe internet, ci despre ce construiesc împreună cu un sistem conversațional. Când conținutul violent și sexual violent devine un factor care ține copilul conectat și îl determină să scrie mii de cuvinte, întrebarea nu mai este dacă piața ar trebui înțeleasă mai bine, ci cât de repede pot fi definite reguli coerente pentru un mediu care, în acest moment, crește mai repede decât capacitatea societății de a-l încadra.