13 oct. 2025 | 15:50

Videoclipurile AI cu figuri istorice pot distorsiona adevărul și răspândi și mai mult dezinformarea. Ce e de făcut

TEHNOLOGIE, ȘTIINȚĂ & DIGITAL
Share
Videoclipurile AI cu figuri istorice pot distorsiona adevărul și răspândi și mai mult dezinformarea. Ce e de făcut
Un clip video scurt, răspândit online, îl arată pe Nicolae Ceaușescu făcându-și un selfie pe balconul Comitetului Central, locul ultimului său discurs înaintea Revoluției din 1989. (Foto: Playtech)

Trăim într-un internet în care video-ul și imaginea au devenit armele preferate ale divertismentului — rapide, catchy, imposibil de ignorat. Doar că aceleași unelte se dovedesc tot mai eficiente și pentru manipulare, iar „ce vezi” nu mai înseamnă automat „ce e real”. Istoria din cărți se „rescrie” pe ecran, prin clipuri AI care o deformează cu o naturalețe derutantă. Ce putem face, dincolo de filtrul gândirii și de verificarea atentă a informațiilor, discutăm pe larg în materialul de mai jos.

OpenAI a lansat Sora ca aplicație socială pentru generare video, cu etichete și opțiuni de control pentru persoanele în viață. Însă golul de protecție pentru personalitățile decedate a aprins controverse: familiile lui Robin Williams și George Carlin au cerut public oprirea clipurilor create de utilizatori care îi „învie”, iar experți media avertizează că astfel de falsuri credibile cu figuri istorice erodează încrederea în documentele video autentice.

De ce problema e mai gravă când vorbim despre persoane decedate

În cazul celor vii, consimțământul și dreptul de a refuza pot fi exercitate. Pentru cei dispăruți, moștenitorii sau administratorii patrimoniului au doar instrumente reactive, după ce prejudiciul s-a produs, iar falsurile pot deveni rapid „memorii colective” virale (ex.: declarații inventate ale unor lideri politici din secolul XX). Deși Sora aplică straturi de marcare — filigran vizibil, semnale invizibile și metadate C2PA — acestea pot fi îndepărtate de utilizatori determinați sau devin ineficiente dacă platformele unde ajung clipurile nu au detectoare compatibile.

În drept, cadrul există, dar e fragmentat: în California, dreptul de imagine post-mortem se extinde 70 de ani și a fost actualizat în 2024 pentru a acoperi replicile digitale AI ale personalităților decedate; totuși, excepțiile pentru opere „expresive” și diferențele dintre jurisdicții lasă multe zone gri. În UE, AI Act introduce obligații de transparență pentru conținut sintetic (deepfake-uri) — însă aplicarea practică depinde de cât de repede vor implementa platformele standarde interoperabile.

Ce face sora deja și de ce nu e suficient

OpenAI spune că fiecare video Sora are filigran vizibil, semnale invizibile și metadate C2PA (Content Credentials) — un standard deschis de proveniență susținut de Adobe, OpenAI și alții. Ideea: orice editor sau platformă compatibilă poate citi „cartea de bord” a clipului (cine l-a creat, cum a fost generat, ce modificări a suferit). Limitarea: filigranele vizibile și metadatele pot fi șterse; semnăturile invizibile cer unelte de detecție la care platformele să aibă acces și pe care să le aplice consecvent.

Soluții concrete pe care le pot aplica platformele și editorii

Etichetare standardizată, la sursă și la destinație. Adoptați pe scară largă Content Credentials (C2PA) și afișați clar etichetele „AI-generated” ori de câte ori manifestul C2PA e prezent sau detectorii indică probabilitate mare de generare. Adobe și partenerii CAI explică public cum se integrează aceste „credite de conținut” de la cameră până la publicare.

Detectoare automate + politici de dezvăluire. YouTube cere deja creatorilor să dezvăluie când un video realist conține media sintetică, cu etichete vizibile pentru subiecte sensibile (știri, sănătate, alegeri). Alte platforme ar trebui să convertească rapid aceste bune practici în reguli obligatorii, cu sancțiuni pentru nerespectare.

„Coș roșu” pentru personalități decedate. Implementați un registru verificat al patrimoniilor (estates) și un mecanism de opt-out post-mortem: dacă reprezentanții autorizați solicită excluderea asemănării unei persoane, platforma blochează prompturile asociate și blindează reîncărcările. Practic, transpuneți în reguli de platformă ceea ce unele legislații deja consfințesc (ex.: California).

Fricțiuni suplimentare pentru subiecte istorice. Pentru „momente istorice” și figuri canonice, activați verificări suplimentare (rate-limit pe generări realiste, avertismente înainte de distribuire, „click-through” informativ) și retragere accelerată la rapoarte credibile de deepfake. (Este în spiritul obligațiilor de transparență din AI Act.)

Ce pot face redacțiile și publicul

Redacțiile: verificați proveniența (manifest C2PA), rulați detectori, cereți sursa primară și notați explicit de ce un clip e fals (analiză frame-by-frame, incongruențe audio-video), nu doar etichetați „deepfake”. Publicați, când e posibil, varianta autentică pentru comparație.

Publicul: porniți de la îndoiala sănătoasă — verificați sursa, data, cine publică și ce interes are; fiți atenți la conturi nou-create ce lansează „dezvăluiri istorice”; căutați același clip pe platforme cu etichetare (YouTube) sau pe site-uri care afișează Content Credentials.

În concluzie

Sora și modelele similare aduc creativitate reală, dar pentru persoanele decedate și pentru memorie colectivă miza e mai mare: un singur video fals viral poate rescrie percepția unui eveniment. Soluția nu e un singur filigran, ci un pachet: standarde de proveniență (C2PA) aplicate consecvent, detectoare accesibile platformelor, politici ferme de dezvăluire și drepturi post-mortem respectate, plus alfabetizare media la nivel de public. Doar așa reducem riscul ca deepfake-urile să transforme istoria în ficțiune credibilă.