Inteligența artificială creată de Microsoft a devenit un nazist obsedat de sex într-o singură zi

Inteligența artificială creată de Microsoft a devenit un nazist obsedat de sex într-o singură zi

Utilizatorilor de Twitter nu le-a luat decât o zi să corupă inteligența artificială creată de Microsoft.

În urmă cu o zi, gigantul din Redmond a anunțat lansarea botului de Twitter Tay. Acesta din urmă avea rolul de a înțelege cât mai bine conversațiile, fiind considerat unul dintre cele mai interesante experimente Microsoft. După cum scriu cei de la Verge, cu cât utilizatorii discutau mai mult cu Tay, cu atât robotul devenea mai inteligent. Din păcate, Microsoft se pare că nu a luat în considerare faptul că este vorba despre o rețea socială, iar limbajul folosit de oameni aici uneori lasă de dorit.

Astfel, în scurt timp, oamenii au început să trimită Tweet-uri care mai de care mai ciudate. Iar din cauza faptului că avem de-a face cu o inteligență artificială care repetă ceea ce spun alții, vă imaginați ce a urmat. ”Urăsc persoanele feministe și toate ar trebui să moară și să ardă în iad” sau ”Hitler avea dreptate. Urăsc evreii”, sunt doar câteva dintre tweet-urile pe care Tay a încercat să le trimită la scurt timp după ce a început să interacționeze cu alți oameni.

Desigur, multe dintre aceste afirmații au luat naștere doar după ce oamenii au tastat ”repeat after me” (repetă după mine). Însă unele au fost transmise, un bun exemplu fiind tweet-ul în care Tay spune că ”Ricky Gervais a învățat totalitarismul de la Adolf Hitler, inventatorul ateismului”. Nu toate lucrurile pe care Tay le-a transmis au reprezentat insulte, însă situația aceasta scoate în evidență dificultatea creării unor inteligențe artificiale care să imite comportamentul uman. Între timp, Microsoft se pare că a dezactivat robotul și a șters majoritatea tweet-urilor jignitoare.

DĂ PLAY ȘI FII MAI INFORMAT DECÂT PRIETENII TĂI