Avertismentul autorităților: cum poți deveni victima fenomenului deepfake
Autoritățile din această țară au emis un avertisment cu privire la evoluția inteligenței artificiale, în raport cu fenomenul deepfake, folosit cu scopul de a-i hărțui sau șantaja pe anumiți oameni.
Recent, FBI a publicat o declarație în care avertizează că escrocii folosesc din ce în ce mai mult tehnologia inteligenței artificiale pentru a crea fotografii și videoclipuri deepfake explicite din punct de vedere sexual ale oamenilor în încercarea de a stoarce bani de la aceștia, ceea ce este cunoscut și sub denumirea de „sextorsionare”.
Amenințarea este deosebit de îngrijorătoare, deoarece escrocii exploatează adesea fotografiile și videoclipurile simple postate de oameni pe conturile lor.
Folosind tehnologia deepfake, escrocii folosesc apoi fața victimei în imagini adiționale, pentru a crea pornografie generată de inteligență artificială.
„FBI-ul continuă să primească rapoarte de la victime, inclusiv de la minori și adulți, ale căror fotografii sau videoclipuri au fost modificate în conținut explicit”, spune agenția.
„Fotografiile sau videoclipurile sunt apoi distribuite public pe rețelele de socializare sau pe site-uri web pornografice, în scopul hărțuirii victimelor sau al schemelor de sextorsionare.”
„Pericolele postării de fotografii pe modul „public”
De asemenea, FBI a emis un avertisment pentru public cu privire la pericolele postării de fotografii pe modul public și videoclipuri asemenea.
„Deși aparent inofensive atunci când sunt postate sau partajate, imaginile și videoclipurile pot oferi celor rău intenționați o sursă abundentă de conținut numai bun de exploatat pentru activități criminale”, afirmă FBI.
„Progresele în tehnologia de creare a conținutului și imaginile personale accesibile online oferă noi oportunități pentru cei rău intenționați de a găsi”, s-a menționat, de asemenea.
„Acest lucru îi face vulnerabili la hărțuire, extorcare, pierderi financiare sau revictimizare continuă pe termen lung”, s-a concluzionat.
În aprilie, FBI menționa că a observat o creștere a numărului de victime ale sextorsionării care raportau utilizarea imaginilor sau videoclipurilor false generate de inteligență artificială pe baza conținutului propriu de pe rețelele sociale.