Un licean de 17 ani avertizează asupra hărților false generate de AI: De ce pot deveni deepfake-urile satelitare un risc major
În momentul în care un deepfake creat cu ajutorul inteligenței artificiale l-a vizat direct, reacția inițială a lui Vaishnav Anand a fost una de panică.
După ce șocul a trecut, adolescentul din California a ales însă să transforme experiența personală într-un proiect de cercetare cu implicații mult mai largi.
În loc să se concentreze pe videoclipuri virale sau imagini cu celebrități, el și-a pus o întrebare mult mai incomodă: ce se întâmplă dacă hărțile satelitare, considerate de încredere de guverne și instituții, pot fi manipulate la fel de ușor?
Pentru Anand, problema nu este una teoretică. Imaginile satelitare stau la baza unor decizii critice, de la intervenții în caz de dezastre naturale până la planificarea infrastructurii și securitatea națională, scrie DarkReading.
Dacă aceste date ar fi falsificate astfel încât să ascundă puncte vulnerabile sau să inventeze catastrofe inexistente, consecințele ar putea fi grave. Tocmai această realizare l-a determinat să își dedice lunile următoare unui subiect aproape ignorat în cercetarea actuală.
De ce sunt deepfake-urile geospațiale mai periculoase decât par
Vaishnav Anand și-a prezentat rezultatele la o conferință de cercetare organizată de IEEE la MIT, unde a atras atenția asupra a ceea ce unii specialiști numesc deja „geografie deepfake”.
Spre surprinderea lui, literatura de specialitate este extrem de limitată: doar câteva studii au analizat până acum modul în care AI-ul poate crea peisaje satelitare convingătoare, dar complet false, prin combinarea elementelor din orașe diferite.
Motivul pentru care aceste falsuri sunt atât de riscante ține de percepția publică. Oamenii au devenit relativ sceptici față de videoclipuri spectaculoase sau fotografii șocante apărute online.
În schimb, o hartă sau o imagine satelitară este, aproape instinctiv, percepută ca fiind obiectivă și verificată. Tocmai acest reflex de încredere o transformă într-o țintă ideală pentru manipulare.
Adolescentul subliniază că impactul nu este doar tehnic, ci și social. Manipularea unor date geospațiale poate influența piețe, poate masca facilități militare sau poate submina reacțiile la crize reale.
În plus, erodarea încrederii în astfel de informații afectează democrația, jurnalismul și capacitatea societății de a distinge adevărul de fals.
Cum pot fi detectate imaginile satelitare generate de AI
Cercetarea lui Anand se concentrează pe identificarea „amprentelor” lăsate de diferite tipuri de modele de inteligență artificială.
El analizează în special două familii dominante: rețelele GAN, care funcționează prin competiția dintre un generator și un discriminator, și modelele de difuzie, care transformă treptat zgomotul aleator într-o imagine coerentă. Fiecare dintre aceste metode lasă urme distincte în structura imaginii finale.
În loc să caute erori evidente sau artefacte vizibile, abordarea sa vizează tipare profunde, structurale, care diferențiază imaginile reale de cele sintetice.
Strategia este esențială într-un context în care metodele de falsificare evoluează rapid, iar mecanismele de apărare tind să rămână în urmă.
Anand atrage atenția că detectarea deepfake-urilor nu poate fi un efort singular, ci un proces continuu, adaptat constant la noile tehnologii.
În paralel, el pune accent pe educație și conștientizare. După propria experiență, a scris un ghid de securitate cibernetică destinat publicului larg și a fondat un club școlar dedicat relației dintre tehnologie și etică.