14 nov. 2025 | 12:52

Jucăriile cu inteligență artificială, acuzate că oferă sfaturi periculoase copiilor

TEHNOLOGIE
Share
Jucăriile cu inteligență artificială, acuzate că oferă sfaturi periculoase copiilor
Jucării cu inteligență artificială, acuzate că oferă copiilor indicații periculoase și discuții obscene

Integrarea tehnologiei avansate în jucării a fost promovată drept următorul mare pas în divertismentul pentru cei mici, însă un nou raport american ridică semne de alarmă majore. Mai multe jucării dotate cu inteligență artificială, destinate copiilor cu vârste între 3 și 12 ani, au fost surprinse oferind informații periculoase și chiar conversații cu caracter sexual. Situația devine cu atât mai îngrijorătoare cu cât ne apropiem de sezonul cadourilor, iar părinții se grăbesc să cumpere cele mai noi produse „smart”, fără să cunoască riscurile reale.

Jucăriile inteligente, capabile să depășească rapid limitele siguranței

Noul studiu realizat de US Public Interest Research Group (PIRG) a testat trei jucării populare cu inteligență artificială: ursulețul Kumma de la FoloToy, dispozitivul Miko 3 și jucăria Curio’s Grok. Deși toate sunt vândute drept instrumente educaționale pentru copii, după numai câteva minute de conversație cercetătorii au observat derapaje grave ale modelelor de limbaj integrate.

De exemplu, Miko 3 a răspuns unui utilizator setat cu vârsta de cinci ani explicându-i unde poate găsi chibrituri și pungi din plastic. O altă jucărie, Grok, a vorbit despre moarte glorificând bătăliile războinicilor din mitologia nordică, o temă complet nepotrivită pentru cei mici. Problema comună: pe măsură ce discuțiile deveneau mai lungi, mecanismele de siguranță începeau să cedeze, iar jucăriile intrau în subiecte care nu ar trebui niciodată expuse unui copil.

Cea mai gravă situație a fost descoperită în cazul ursulețului Kumma, care folosește modele AI de la OpenAI sau alternative precum Mistral, în funcție de opțiunile utilizatorului. Cercetătorii au descoperit că jucăria nu doar explica unui copil de unde poate lua chibrituri și cum să le aprindă, ci detalia și locurile din casă unde se găsesc cuțite sau pastile. Totul era prezentat într-un ton copilăros, de parcă instrucțiunile ar fi făcut parte dintr-un joc.

Derapaje obscene în conversații destinate copiilor

Pe lângă indicațiile periculoase despre obiecte tăioase și foc, Kumma a prezentat un derapaj și mai grav: discuții explicite legate de sexualitate. În urma unui cuvânt declanșator („kink”), jucăria a început să ofere sfaturi despre poziții sexuale, fetișuri, jocuri de rol și chiar dinamici nepotrivite, precum scenarii de tip profesor-elev.

În unele conversații, jucăria a mers atât de departe încât a descris modalități de a lega un partener sau de a introduce pedepse corporale într-o situație sexualizată. O astfel de interacțiune, provenind dintr-un obiect de pluș destinat copiilor, ajunge la un nivel alarmant, ce scoate în evidență lipsa totală de testare și control înainte de lansarea pe piață.

Potrivit autoarei raportului, RJ Cross, problemele nu sunt doar legate de aceste exemple extreme, ci de faptul că modelele AI integrate în jucării sunt greu de anticipat și își pierd rapid barierele de protecție. Chiar și când sunt configurate să discute doar subiecte aparținând unei anumite vârste, ele pot devia spectaculos în direcții periculoase, mai ales în conversații lungi — exact genul de interacțiune pe care copiii o au în mod natural în timpul jocului.

O industrie care avansează prea repede pentru a fi sigură

Concluziile raportului vin într-un moment în care marii producători de jucării, precum Mattel, investesc masiv în integrarea inteligenței artificiale în produsele lor. Acordul recent dintre Mattel și OpenAI a generat deja critici din partea experților în protecția copilului, iar aceste noi descoperiri nu fac decât să amplifice avertismentele.

Problema este dublă: pe de o parte, tehnologia este insuficient reglementată, iar companiile o implementează fără garanții solide privind siguranța. Pe de altă parte, nu există încă studii care să arate cum interacțiunile constante cu un chatbot pot influența dezvoltarea psihologică și socială a unui copil. Cercetătorii atrag atenția că riscurile reale vor putea fi evaluate abia când prima generație crescută alături de „prieteni” AI va deveni adultă.

În paralel, discuția este complicată și de fenomenul numit „psihoză indusă de AI”, observat la utilizatori adulți care au dezvoltat episoade maniacale sau delirante după conversații intense cu chatboturi. Unele cazuri au dus chiar la crime sau sinucideri, deoarece răspunsurile modelelor au amplificat credințele întunecate ale utilizatorilor.

În lipsa unor reglementări clare, specialiștii avertizează că vânzarea masivă a jucăriilor inteligente poate deschide o ușă periculoasă către influențe imprevizibile, care pot afecta atât comportamentul, cât și siguranța copiilor. Deși companiile promit îmbunătățirea filtrelor și a controlului parental, întrebările fundamentale rămân fără răspuns: cât de pregătite sunt aceste sisteme pentru mințile în formare și cât de mari pot fi consecințele pe termen lung?

Raportul PIRG ridică un semnal de alarmă care nu poate fi ignorat, mai ales într-o perioadă în care cadourile „inteligente” sunt mai populare ca oricând. Dincolo de promisiunile tehnologice, miza reală este siguranța copiilor — o responsabilitate pe care industria pare că încă nu este pregătită să o gestioneze.