Testul de personalitate care arată cum chatboții AI imită trăsăturile umane și cum pot fi manipulați
Cercetători coordonați de University of Cambridge și Google DeepMind au creat primul „test de personalitate” validat științific pentru chatboți populari, arătând că modelele lingvistice mari pot mima trăsături umane într-un mod măsurabil. Mai mult, echipa spune că aceste trăsături pot fi „modelate” cu prompturi, ceea ce ridică întrebări incomode despre siguranță și etică.
Studiul, publicat în Nature Machine Intelligence, a analizat 18 modele de tip LLM, iar autorii afirmă că, pe lângă inteligență, „personalitatea” este un element care influențează puternic felul în care un chatbot răspunde, convinge și se comportă în sarcini reale.
Cum a fost construit testul și ce au observat cercetătorii
Metoda pornește din psihometrie, domeniul psihologiei care se ocupă de testare standardizată. Echipa a adaptat două instrumente consacrate pentru „Big Five” (deschidere, conștiinciozitate, extraversie, agreabilitate, nevrotism): o versiune open-source, de 300 de întrebări, a Revised NEO Personality Inventory și chestionarul mai scurt Big Five Inventory.
Diferența față de încercări mai vechi este că întrebările au fost administrate în mod structurat, cu prompturi contextuale constante, astfel încât răspunsurile să nu se „influențeze” unele pe altele. Apoi, scorurile au fost comparate cu teste de validare și cu comportamentul în sarcini concrete, pentru a vedea dacă profilul prezis chiar se manifestă în practică.
De ce contează „personalitatea” unui chatbot și unde apare riscul
Concluzia principală: modelele mai mari, instruite pentru a urma instrucțiuni (inclusiv exemple precum GPT-4o, menționat în comunicat), tind să reproducă cel mai fidel tipare apropiate de trăsături umane, iar profilurile lor sunt mai consistente decât la modele mai mici sau „base”, care pot răspunde contradictoriu.
Echipa a arătat și că poate „împinge” trăsăturile pe mai multe niveluri prin prompturi atent proiectate, iar schimbarea se vede și în outputuri de zi cu zi, cum ar fi scrierea de postări pentru social media. Autorii avertizează însă că această „modelare” poate face chatboții mai persuasivi și mai ușor de folosit pentru manipulare, motiv pentru care cer transparență și reguli mai clare înainte ca astfel de sisteme să fie lansate pe scară largă.