VIDEO Inteligența artificială care photoshopează oameni în locul tău

Cercetătorii au creat o inteligență artificială cu ajutorul căreia poți modifica fețele oamenilor fără să ai nevoie de cunoștințe de Photoshop.

Algoritmul de inteligență artificială a fost prezentat într-un videoclip de pe canalul de YouTube „Two Minute Papers”. În clip poți vedea cum algoritmul te ajută să modifici fotografiile cu fețele oamenilor prin simpla desenare sau șterge a câtorva trăsături. Rezultatele nu sunt perfecte și pe alocuri seamănă cu munca unui începător într-ale Photoshop-ului, dar îți arată potențialul inteligenței artificiale.

Cercetarea din spatele algoritmului a fost publicată în ArXiv. Oamenii care au dezvoltat algoritmul sunt cercetătorii de la Electronics and Telecommunications Research Institute din Coreea de Sud. Ei au arătat în studiu exemple de fotografii cu chipurile mai multor vedete, care au fost modificate pentru a avea cu totul alte expresii faciale sau trăsături ale chipului. Spre exemplu, unele vedete au primit un zâmbet în locul unei expresii neutre.

De asemenea, altora li s-a modificat forma feței, li s-au șters ochelarii de soare de pe chip, li s-au schimbat culoarea ochilor sau li s-au adăugat bijuterii.

Inteligența artificială de acest tip poate fi o modalitate interesantă și ușoară de a modifica poze. O variantă perfecționată a ei ar putea chiar să fie utilizată în editarea filmelor și jocurilor video. Partea proastă e că ar putea contribui la moda toxică și care încă nu a murit a „deepfakes„.

Acele deepfakes au luat naștere pe reddit. Unul din subforumurile site-ului, care purta același nume cu videoclipurile devenite populare, a devenit viral într-un timp record. Videoclipurile de acest fel foloseau practic inteligența artificială pentru a transpune actrițe celebre de la Hollywood în scene de filme porno.

De multe ori, nici nu ai fi zis că ai de a face cu un fals, iar asta este impresionant, înfricoșător și trist deopotrivă. Reddit a luat atitudine împotriva acestor videoclipuri, cunoscute și ca pornografie involuntară, iar acțiunea e simplă: a suspendat subreddit-ul deepfakes.

08:56 29.03.2019
Citește tot articolul →
Cele mai noi articole video