Criza iminentă a fraudelor digitale: cum inteligența artificială ar putea face imposibilă diferențierea dintre real și fals
Suntem pe marginea unei crize globale de încredere, avertizează Sam Altman, CEO al OpenAI. Nu este vorba despre o prăbușire economică sau un război cibernetic la scară largă, ci despre ceva mult mai subtil și, poate, mai periculos: capacitatea tot mai mare a inteligenței artificiale de a imita perfect vocea și chipul oricărei persoane, în orice context. Iar consecințele acestei tehnologii nu mai aparțin viitorului – ci prezentului imediat.
Într-o discuție recentă cu vicepreședinta Rezervei Federale, Michelle Bowman, Altman a tras un semnal de alarmă clar: AI-ul generativ este pe cale să declanșeze o criză masivă de fraude, în care oricine ar putea fi păcălit prin apeluri video false, mesaje vocale trucate sau deepfakes imposibil de distins de realitate.
Printre cele mai îngrijorătoare aspecte ale acestei realități emergente este faptul că multe instituții financiare se bazează încă pe autentificarea vocală pentru a verifica identitatea clienților. „Un lucru care mă sperie este că încă există bănci care acceptă o amprentă vocală pentru a transfera sume mari de bani”, a spus Altman. În epoca AI-ului, o asemenea metodă este, practic, inutilă.
Tehnologiile de clonare vocală au evoluat într-atât încât un algoritm are nevoie doar de câteva secunde de înregistrare a vocii unei persoane pentru a o reproduce fidel. Astfel, infractorii pot simula cu ușurință apeluri în care „tu” ceri ajutor, autorizezi tranzacții sau răspunzi la întrebări de securitate. Iar dacă până acum riscul era mai degrabă teoretic, astăzi el este cât se poate de concret.
FBI a avertizat anul trecut asupra creșterii numărului de cazuri în care AI-ul a fost folosit pentru atacuri de tip phishing, scam-uri cu voci clonate și alte tipuri de manipulare digitală. Iar recent, un fals secretar de stat al SUA – generat prin AI – a reușit să contacteze miniștri de externe din alte țări, un guvernator american și chiar un membru al Congresului, cu scopul de a obține acces la informații sensibile.
Deepfake-ul video, următoarea armă a escrocilor
Dacă până acum te gândeai că un apel video te scapă de suspiciuni, realitatea e pe cale să se schimbe radical. Sam Altman avertizează că în curând, apelurile video sau FaceTime-uri generate de AI vor deveni imposibil de diferențiat de cele reale. Iar când vocea și chipul cuiva pot fi imitate la perfecție, barierele dintre real și fals dispar complet.
Tehnologia Sora, dezvoltată chiar de OpenAI, este capabilă să genereze clipuri video hiperrealiste din simple descrieri text. Deși compania afirmă că nu dezvoltă instrumente de impersonare, uneltele pe care le creează pot fi ușor adaptate pentru acest scop, mai ales de către actori rău intenționați.
Altman recunoaște că, deși tehnologia nu este disponibilă publicului larg, „nu înseamnă că ea nu există”. Ba mai mult, avertizează că „un actor malițios o va lansa oricum. Nu e chiar atât de greu de făcut. Și vine foarte, foarte curând.”
Așa-numitele deepfake-uri, până recent apanajul divertismentului sau al satirei, devin rapid o armă folosită în înșelăciuni de proporții: de la escrocherii financiare și șantaj, până la dezinformare politică și manipularea opiniei publice.
Soluția? Autentificarea biometrică, dar cu multe controverse
În fața acestei crize iminente, industria bancară și nu numai trebuie să-și regândească complet sistemele de autentificare. Potrivit lui Altman, parolele rămân singura metodă sigură de verificare a identității, în timp ce metodele bazate pe voce sau imagine sunt, deja, depășite.
Interesant este faptul că Altman promovează un proiect numit The Orb, un instrument de autentificare biometrică ce analizează irisul pentru a verifica identitatea unei persoane. Deși ideea pare soluția logică pentru viitor, ea vine la pachet cu un bagaj serios de controverse: colectarea datelor biometrice ridică întrebări de etică, confidențialitate și securitate.
În lipsa unor reglementări clare și rapide, societatea riscă să intre într-o zonă gri, în care încrederea în realitatea digitală se va eroda complet. Nu vei mai putea fi sigur dacă imaginea care vorbește cu tine pe ecran e un prieten, un coleg… sau doar o simulare extrem de bine făcută.