07 nov. 2022 | 20:25

Cum au ajuns Microsoft și Facebook să facă legea în inteligență artificială, la propriu: influența corporațiilor la Bruxelles

ACTUALITATE
Cum au ajuns Microsoft și Facebook să facă legea în inteligență artificială, la propriu: influența corporațiilor la Bruxelles

Experții în standarde ai companiilor vor contribui la modelarea regulilor cruciale ale UE pentru inteligența artificială.

Companiile, multe dintre ele din afara Europei, vor juca un rol cheie în deciderea detaliilor regulilor planificate ale Uniunii Europene pentru inteligența artificială potențial periculoasă. Dar influența corporativă asupra deciziilor care riscă drepturile omului îi îngrijorează pe unii activiști.

Noua lege a UE privind inteligența artificială urmărește să protejeze oamenii de inteligența artificială dăunătoare prin luarea măsurilor împotriva algoritmilor discriminatori și necontrolați, care sunt din ce în ce mai folosiți pentru a face judecăți care schimbă viața cu privire la imigrație, poliție, beneficii sociale și școlarizare.

Regulile nu vizează „tipurile normale de produse”, ci urmăresc să stopeze „încălcarea potențială a drepturilor constituționale, fie că este vorba despre utilizarea supravegherii biometrice, discriminare sau accesul dumneavoastră la angajare și educație”, a spus Iverna McGowan, directorul Centrului pentru Democrație și Tehnologie în Europa. Ea critică încredințarea unor grupuri europene de standarde „dominate de sectorul privat” să modeleze regulile finale.

Conflict de interese

Dar așa este proiectată legea privind inteligența artificială a UE. Se bazează pe forumuri din industrie, cum ar fi CEN-CENELEC și ETSI, pentru a sublinia instrucțiunile tehnice care asigură că sistemele inteligenței artificiale sunt instruite pe date imparțiale și, în cele din urmă, pentru a determina cât de multă supraveghere umană este necesară și ce trebuie făcut pentru a preveni defecțiunea software-ului.

ETSI, cu sediul în Franța, numără peste 900 de membri, inclusiv giganți tehnologici precum Microsoft și Meta, precum și companii europene de apărare precum Thales și furnizorul chinez de echipamente de telecomunicații Huawei. Grupul ETSI care coordonează activitatea inteligenței artificiale este condus de directori ai companiei de telecomunicații japoneze NEC, Huawei din China și producătorul american de cipuri Intel.

CEN-CENELEC include experți în standarde industriale din 34 de țări europene, inclusiv unele din țări din afara UE, cum ar fi Marea Britanie, Serbia și Turcia. În cele din urmă, grupul reprezintă mii de companii din UE și din afara UE.

Cu toate acestea, unii spun că participarea companiilor din afara UE îi va atrage și să adopte standardele industriale europene, deoarece companiile care construiesc sisteme bazate pe inteligență artificială foarte riscante vor trebui să-și evalueze propria conformitate urmând standardele globale ale industriei.

Probleme de obiectivitate

Organizațiile de standardizare stabilesc regulile care fac ca produsele și serviciile să funcționeze. Ei întocmesc specificații tehnice pentru a determina calitatea și siguranța a tot, de baterii până la mașini complicate și chiar transferuri de date. Grupuri europene precum CEN-CENELEC și ETSI au fost esențiale pentru a convinge companiile de telecomunicații să convină asupra standardelor globale comune pentru rețelele mobile și securitatea cibernetică.

Dar folosirea birocraților din industrie pentru a-și da seama cum să aducă etica în inteligența artificială este un pas prea departe pentru unii, atunci când scopul principal al companiilor este să acapareze o parte din piața globală a inteligenței artificiale – estimată a avea o valoare mai mare de 1 trilion de euro până în 2029.

„Inteligența artificială este un efort extrem de profitabil care remodelează mai multe zone ale societății și nu va fi rezolvat printr-o lege care o tratează ca pe o jucărie, un radio sau un echipament de protecție”, a spus Michael Veale, profesor asociat în drepturi digitale și reglementare la University College London.

Companiile se concentrează pe aducerea „produselor pe piață, dar Legea AI urmărește să limiteze daunele”, a declarat Kris Shrishak, coleg de tehnologie la Consiliul Irlandez pentru Libertăți Civile.

Inginerii și experții tehnici din grupurile de standarde se vor lupta probabil cu întrebări etice atunci când au sarcina de a traduce o lege AI în standarde, a spus Shrishak. Ei vor trebui să decidă ce reprezintă seturi de date corecte și reprezentative pentru algoritmi, amploarea documentației, transparența și controlul uman pentru un program AI.

Decizii importante

Aceste decizii sunt critice. Datele greșite din centrul programelor de inteligență artificială pot consolida inegalitățile și prejudecățile sociale și pot avea consecințe de anvergură, cum ar fi diagnosticarea greșită a bolilor pentru grupurile rasiale minoritare și limitarea oportunităților de muncă pentru femei.

Comisia Europeană a spus că va avea ultimul cuvânt în verificare standardele elaborate pentru Legea AI. De asemenea, dorește ca grupurile europene de standarde să implice militanții pentru drepturile omului în luarea deciziilor privind IA dăunătoare.

În același timp, grupurile de standardizare sunt sub presiune să revizuiască modul în care funcționează, pe măsură ce tensiunile geopolitice se produc asupra lanțurilor de aprovizionare.

Comisia împinge organizațiile de standardizare să limiteze influența marilor companii și să le reformeze guvernanța până în 2022 pentru a „reprezenta pe deplin interesul public”. În mod efectiv, asta înseamnă crearea mai multor organizații neguvernamentale și reducerea puterii companiilor non-europene.