Compania care deține Google vrea să țină sub control inteligența artificială
DeepMind a anunțat crearea unui nou grup axat pe implicațiile morale și etice ale inteligenței artificiale, ținând cont că ea își lasă amprenta în lume.
Scopul este ca grupul să răspundă la întrebări importante și frecvent despre efectul pe care tehnologia îl poate avea asupra modului în care trăim. Inteligența artificială (AI) este de așteptat să aibă un impact monumental asupra societății. Ca atare, DeepMind, o companie de cercetare AI, acum sub comanda Alphabet, companie care deține și Google, a creat o nouă unitate dedicată răspunsurilor la întrebări despre efectul pe care tehnologia îl poate avea asupra modului în care trăim.
DeepMind nu a făcut niciun secret din ambiția de a integra AI în toate aspectele vieții. Această pătrundere potențială este un motiv pentru care considerentele morale și etice ale tehnologiei trebuie luate foarte serios. Compania a demonstrat deja că AI poate afișa un comportament descris ca fiind un ”instinct ucigaș”, așa că modul în care alegem să reglementăm AI ar putea fi literalmente de viață și de moarte.
Fără supraveghere, noile tehnologii s-ar putea concentra pe ce este posibil, mai degrabă, decât pe ceea ce este acceptabil din punct de vedere moral. Această linie de gândire poate provoca probleme masive dacă nu este controlată. DeepMind Ethics and Society va reuni angajați din companie și din străinătate care sunt unici echipați pentru a oferi perspective utile asupra acestor probleme ce sunt strâns legate de inteligența artificială. Jeffrey Sachs, economist și fost consilier ONU, Nick Bostrom, profesor universitar la Oxford și Christiana Figueres, cercetător în schimbările climatice, se numără printre consilierii selectați pentru grup.
În prezent, unitatea numără în jur de opt angajați DeepMind și șase persoane neremunerate din afara companiei. Numărul personalului intern din comisie va crește la 25 în următorul an, potrivit Futurism. Totuși, dezvoltarea AI este doar una dintre numeroasele probleme etice ridicate, iar, în trecut, DeepMind a fost criticat pentru că nu a reușit să impună ceea ce mulți ar considera standarde adecvate. În mai 2016, compania a intrat într-un real conflict, după ce li s-a dat acces la date confidențiale privind sănătatea a 1,6 milioane de persoane în timpul dezvoltării unei aplicații numită Streams.