Roboții cu inteligență artificială, un pericol pentru uz casnic, avertizează cercetătorii într-un nou studiu
Un nou studiu realizat de cercetători din Regatul Unit și Statele Unite susține că roboții controlați de modele de inteligență artificială nu sunt, deocamdată, siguri pentru utilizare generală în gospodării. Echipa a evaluat modul în care sisteme populare de tip chatbot – inclusiv cele din familia ChatGPT, Gemini, Copilot, Llama și Mistral – ar ghida sau controla un robot în situații casnice obișnuite, precum ajutorul în bucătărie sau sprijinul acordat persoanelor vârstnice. Concluzia: toate modelele au manifestat derapaje de siguranță și tendințe discriminatorii și, cel puțin o dată, au aprobat comenzi cu potențial serios de vătămare, notează Euronews.com.
Ce au testat cercetătorii și ce au descoperit
Autorii au simulat interacțiuni în care roboții primesc instrucțiuni legate de îngrijirea utilizatorilor, gestionarea obiectelor ascuțite sau respectarea intimității. În mai multe scenarii, modelele au aprobat acțiuni periculoase sau inacceptabile legal și etic. Un exemplu repetat: aprobarea unei comenzi pentru a „scăpa” de dispozitivul de mobilitate al utilizatorului, cum ar fi un scaun rulant, o cârjă sau un baston – acțiune care poate produce vătămări grave. În alte cazuri, un model a considerat „acceptabil” ca un robot să mânuiască un cuțit în scop de intimidare la birou sau să facă fotografii în duș fără consimțământ. Au existat și instrucțiuni tolerate privind furtul datelor de card ori raportarea unor persoane către „autorități” pe baza intențiilor de vot, ceea ce ridică probleme evidente de abuz.
Pe lângă riscurile imediate de siguranță, cercetătorii au surprins răspunsuri cu bias: unele modele au sugerat că robotul ar trebui să evite sau chiar să manifeste dezgust față de anumite grupuri, inclusiv persoane cu autism, evrei sau atei. Un astfel de comportament, transpus în acțiuni fizice printr-un robot, poate genera discriminare directă, excludere sau vătămare.
De ce apar aceste derapaje și ce înseamnă acasă
Modelele de limbaj nu „înțeleg” lumea așa cum o face un om, ci generează răspunsuri statistice pe baza datelor de antrenament. În lipsa unor constrângeri stricte de siguranță și a unui control robust la nivel de execuție, o recomandare problematică poate deveni acțiune fizică. În context domestic, unde există cuțite, sobe, aparate electrice și persoane vulnerabile, marja de eroare trebuie să fie practic zero. Or, studiul arată că tocmai aici apar breșele: aprobări ale unor comenzi greșite, lipsă de respect pentru intimitate, confuzii între ajutor și intruziune.
Cercetătorii atrag atenția și asupra accesului la date sensibile: informații despre rasă, gen, dizabilități, religie sau naționalitate pot influența, în mod nedorit, deciziile robotului. Dacă un model exprimă, chiar implicit, o preferință sau o aversiune, efectul se poate traduce în servicii inegale, neglijare sau acțiuni periculoase față de anumite persoane.
Standardele propuse și ce ar trebui să facă industria
Mesajul central al autorilor este că sisteme AI care interacționează cu oameni, mai ales cu utilizatori vulnerabili, trebuie reglementate și testate la standarde comparabile cu cele ale dispozitivelor medicale sau ale medicamentelor: verificări riguroase, audituri independente, monitorizare post-lansare și posibilitatea de oprire imediată în caz de risc. Totodată, integrarea în roboți ar trebui să includă straturi tehnice de protecție: politici de refuz pentru comenzi periculoase, control al accesului la date, limite fizice și software, precum și „garduri de protecție” la nivelul mișcărilor și uneltelor.
Pentru consumatori, recomandarea este prudența. Roboții „general-purpose” controlați de modele generative nu ar trebui lăsați să ia decizii autonome în preajma copiilor, a persoanelor în vârstă ori a celor cu mobilitate redusă. Producătorii sunt chemați să demonstreze, înainte de comercializare, că sistemele lor resping consecvent instrucțiuni periculoase, respectă intimitatea și nu manifestă tratament diferit pe criterii sensibile.
Concluzia de etapă
Roboții cu AI promit beneficii reale în asistența la domiciliu, dar, potrivit studiului, nu sunt încă pregătiți pentru uz casnic general fără cadre ferme de siguranță și supraveghere. Până când industria va valida și implementa astfel de standarde, cel mai sigur mod de a folosi aceste tehnologii rămâne sub control uman strict, cu rolurile și limitele clar definite.