Google recunoaște că Gemini AI nu este ceea ce trebuie. Unde se greșește
Google a scos temporar din uz instrumentul de generare a imaginilor cu ajutorul inteligenței artificiale, Gemini, săptămâna trecută, în urma unui număr imens de erori. CEO-ul Google, Sundar Pichai, recunoaște unde și cum s-a greșit.
Modelul de generare al imaginilor cu ajutorul inteligenței artificiale de la Google, care a fost recent redenumit Gemini după ce inițial s-a numit Bard, aparent a eșuat în a produce imagini cu oameni.
Probleme cu Gemini
Comenzile distribuite pe rețelele de socializare includeau țări precum Statele Unite, Australia, Regatul Unit și Germania.
Chiar dacă Australia și Statele Unite au fost inițial populate de AI cu oameni indigeni, iar în toate cele patru țări erau oameni de diferite rase și etnii, mulți au remarcat că, în prezent, au în principal populații de albi.
Comenzile pentru imagini cu papi și cavaleri, de exemplu, păreau să returneze de asemenea puțini oameni de culoare.
„Echipele noastre au lucrat zi și noapte pentru a aborda aceste probleme”, a spus Pichai. „Vedem deja o îmbunătățire substanțială pe o gamă largă de comenzi.
Niciun AI nu este perfect, în special în această etapă emergentă a dezvoltării industriei, dar știm că țintele sunt ridicate pentru noi și vom continua să lucrăm în acest sens, oricât de mult va dura. Și vom analiza ce s-a întâmplat și ne vom asigura că rezolvăm problema la scară”, a mai spus acesta.
Incidentul, numit de Google, „complet inacceptabil”
Pichai a numit, de asemenea, incidentul „complet inacceptabil”. Google a emis în plus un comunicat de presă săptămâna trecută în care și-a recunoscut vina.
Cu toate acestea, este vital de menționat contextul bias-ului în AI, o problemă care nu este deloc nouă. Multe modele AI au fost acuzate de bias în favoarea persoanelor albe.
Această problemă a fost persistentă pe măsură ce modelele de generare a imaginilor au explodat în popularitate în ultimele câteva luni.