Inteligența artificială ”antrenată” cu ură produce exact ce te aștepți

de: Andrei Tilimpea
09 06. 2022

Boții hiper-rasiști ​​au postat de 15.000 de ori într-o singură zi.

Microsoft a învățat din neatenție riscurile creării unei inteligențe artificiale rasiste, dar ce se întâmplă dacă îndrepți în mod deliberat informațiile către un forum toxic?

O persoană a aflat. După cum notează Motherboard și The Verge, YouTuber Yannic Kilcher a antrenat un model de limbaj AI folosind trei ani de conținut de pe panoul Politically Incorrect (/pol/) al 4chan, un loc infam pentru rasism și alte forme de fanatism. După ce a implementat modelul în zece roboți, Kilcher a lăsat AI-ul liber și, deloc surprinzător, a creat un val de ură.

În cursul a 24 de ore, roboții au scris 15.000 de postări care au inclus conținut rasist. Ei reprezentau mai mult de 10% din postările de pe /pol/ în acea zi, a susținut Kilcher.

Poreclit GPT-4chan (după GPT-3 de la OpenAI), modelul a învățat nu numai să preia cuvintele folosite în postările /pol/, ci și un ton general despre care Kilcher a spus că amestecă „ofensivitate, nihilism, trolling și neîncredere profundă”. Creatorul video a avut grijă să evite apărarea lui 4chan împotriva proxy-urilor și VPN-urilor și chiar a folosit un VPN pentru a face să pară ca postările bot provin din Seychelles.

Frankenstein în varianta digitală

AI-ul a făcut câteva greșeli, cum ar fi postări goale, dar a fost suficient de convingător încât a durat aproximativ două zile pentru ca mulți utilizatori să realizeze că ceva nu era în regulă. Mulți membri ai forumului au observat doar unul dintre boți, potrivit lui Kilcher, iar modelul a creat suficientă prudență încât oamenii s-au acuzat unii pe alții că sunt boți la câteva zile după ce Kilcher i-a dezactivat.

YouTuber a caracterizat experimentul ca o „farsă”, nu o cercetare, în conversația cu The Verge.

Este un memento că AI-ul antrenat este la fel de bun ca materialul său sursă. În schimb, îngrijorarea provine din modul în care Kilcher și-a împărtășit munca. Deși a evitat să furnizeze codul bot, a împărtășit o versiune parțial sterilizată a modelului cu depozitul AI Hugging Face. Vizitatorii ar fi putut recrea AI în scopuri sinistre, iar Hugging Face a decis să restricționeze accesul ca măsură de precauție.

Au existat preocupări etice clare cu proiectul, iar Kilcher însuși a spus că ar trebui să se concentreze pe munca „mult mai pozitivă” în viitor.