Măsuri de precauție în privința inteligenței artificiale. Anunțul făcut de Anthropic, Google, Microsoft și OpenAI
Anthropic, Google, Microsoft și OpenAI iau măsuri de precauție în privința inteligenței artificiale. Acestea au anunțat că formează împreună Forumul Frontier Model, un organism condus de industrie ce se va concentra pe dezvoltarea cu prudență a acestei tehnologii.
Obiectivele Forumului Frontier Model
În timp ce organismele de guvernare lucrează la elaborarea de reglementări referitoare la inteligența artificială, deocamdată, luarea unor măsuri de precauție depinde în mare parte de companiile însele.
Cea mai recentă demonstrație de autosupraveghere vine odată cu crearea în comun de către Anthropic, Google, Microsoft și Open AI a Frontier Model Forum, un organism condus de industrie ce se concentrează pe dezvoltarea sigură și atentă a AI.
Forumul intenționează să stabilească un comitet consultativ. Acesta a intenționează să se concentreze pe promovarea cercetării în domeniul siguranței AI, pe determinarea celor mai bune practici, pe colaborarea strânsă cu factorii de decizie politică, cu mediul academic, cu societatea civilă și cu companiile, precum și pe încurajarea eforturilor de a construi AI ce ”poate contribui la soluționarea celor mai mari provocări ale societății”.
Primele trei obiective, pentru anul viitor
Membrii Forumului Frontier Model vor lucra la primele trei obiective pe parcursul anului viitor. În ceea ce privește calitatea de membru, anunțul prezintă calificările necesare pentru a adera, cum ar fi producerea de modele de frontieră și un angajament clar de a le face sigure.
„Este vital ca firmele de inteligență artificială – în special cele care lucrează la cele mai puternice modele – să se alinieze pe un teren comun și să avanseze practici de siguranță bine gândite și adaptabile pentru a se asigura că instrumentele puternice de inteligență artificială au cele mai largi beneficii posibile.
Aceasta este o muncă urgentă și acest forum este bine poziționat pentru a acționa rapid pentru a avansa starea de siguranță a AI.”, a declarat Anna Makanju, vicepreședintele pentru afaceri globale al OpenAI, într-un comunicat.
Crearea forumului vine în urma unui acord recent referitor la siguranță încheiat între Casa Albă și companii de top din domeniul AI, inclusiv cele responsabile pentru această nouă întreprindere. Printre măsurile de siguranță la care s-a angajat se numără testele pentru comportamente greșite efectuate de experți externi și plasarea unui watermark pe conținutul creat de inteligența artificială.