Profeția fondatoarei Signal despre inteligența artificială trădează un viitor sumbru. De ce vom fi supravegheați în masă
Meredith Whittaker, șefa aplicației de mesagerie criptată Signal, a lansat un avertisment sumbru despre viitorul dominat de inteligența artificială (AI).
În cadrul conferinței VivaTech de la Paris, cea mai importantă conferință de startup din Europa, Whittaker a subliniat legătura strânsă dintre AI și supravegherea în masă, subliniind controlul îngrijorător pe care aceste tehnologii îl exercită asupra vieților noastre.
Inteligența artificială și supravegherea în masă
În discursul său, Meredith Whittaker a evidențiat că tehnologiile AI, care sunt capabile să calculeze numere, să genereze texte și videoclipuri și să găsească modele în date, se bazează pe supravegherea în masă. Aceste sisteme necesită cantități uriașe de date, provenind dintr-un model de afaceri de supraveghere în masă, dezvoltat în anii ’90 în SUA, care a devenit ulterior motorul economic al industriei tehnologice.
„Tehnologiile AI despre care vorbim astăzi se bazează pe supravegherea în masă”, a spus Whittaker. „Ele necesită cantități uriașe de date care sunt derivatele acestui model de afaceri de supraveghere în masă care a apărut în anii ’90 în SUA și care a devenit motorul economic al industriei tehnologice”.
Whittaker, care a fost profesor de cercetare Minderoo la Universitatea din New York și a lucrat ani de zile la Google înainte de a ajuta la organizarea unei greve a personalului în 2018 din cauza condițiilor de muncă, militează acum pentru confidențialitate și se opune modelelor de afaceri construite pe extragerea de date personale.
Puterea și pericolele AI
Sistemele de inteligență artificială produc și cantități mari de date, dar această producție, chiar dacă este incorectă, „are puterea de a clasifica, ordona și direcționa viețile noastre în moduri care ar trebui să ne îngrijoreze în egală măsură”, a subliniat Whittaker. Ea a evidențiat dezechilibrele de putere create de o industrie controlată de „o mână de giganți ai supravegherii”, care „în mare parte nu dau socoteală”.
„Cei mai mulți dintre noi nu suntem utilizatori de inteligență artificială”, a spus Whittaker. „Cei mai mulți dintre noi suntem supuși utilizării acesteia de către angajatori, de către forțele de ordine, de către guverne, de oricine ar fi. Ei au propriile lor obiective, dar s-ar putea să nu fie unele care să ne avantajeze sau să beneficieze societatea”.
Un exemplu notabil pe care l-a menționat Whittaker este modul în care firmelor de inteligență artificială le place să spună că ajută la găsirea de soluții la criza climatică. De fapt, aceste firme iau bani de la companiile de combustibili fosili, iar tehnologia lor este folosită pentru a găsi noi resurse de extras. „Pentru că unde sunt veniturile? Desigur, nu în salvarea climei”, a declarat Whittaker. „Veniturile sunt în contracte masive cu BP, cu Exxon, cu alte mari companii de petrol și gaze”.
Un apel la reimaginarea tehnologiei
Meredith Whittaker a sugerat că europenii nu ar trebui să se gândească în termeni de concurență cu firmele americane mai mari de inteligență artificială. O altă opțiune ar putea fi „reimaginarea tehnologiei care poate servi unor societăți mai democratice și mai pluraliste”, a propus Whittaker, președintele Fundației Signal și membru al consiliului de administrație al acesteia.
Acest apel la reimaginare implică dezvoltarea unor tehnologii care să prioritizeze confidențialitatea și să sprijine societățile democratice, în contrast cu modelele de afaceri actuale, care sunt orientate spre supraveghere și control. În concluzie, Whittaker avertizează că, fără o schimbare fundamentală a modului în care sunt dezvoltate și implementate tehnologiile AI, viitorul nostru ar putea fi unul în care supravegherea în masă și controlul excesiv devin norme acceptate.