O nouă înșelătorie cu vocea Andreei Esca. Zeci de români au picat în plasă, ce „promite” reclama falsă

de: Ștefan R. Apostol
25 09. 2024

Deși ne place să credem că tot ceea ce apare pe rețelele de socializare este adevărat, realitatea, și nu cea virtuală, ne demonstrează cât de vulnerabili suntem, și cât de creduli putem fi. Asta se întâmplă când personalități publice apar ca fiind cele care promovează o idee, un produs, orice. Este vorba, așadar, despre o nouă înșelătorie cu vocea Andreei Esca, iar zeci de români au picat în plasă la ceea ce „promite” reclama falsă.

Inteligența Artificială si fake-urile apărute pe rețelele de socializare

Ultimii ani au adus o explozie a dezvoltărilor tehnologice bazate pe Inteligența Artificială (IA), iar asta se poate vedea zilnic pe rețelele de socializare. Fie că vorbim de Facebook, Instagram, TikTok, etc, au apărut extrem de multe situații în care, aparent reale, apar reclame cu tot felul de lucruri.

ChatGPT și alte sisteme de inteligență artificială asemănătoare sunt cunoscute sub denumirea de modele lingvistice mari (LLM), care înghit cantități uriașe de text. Conform analiștilor, este vorba de 10 trilioane de cuvinte, în cazul GPT-4.

Majoritatea învață să imite vorbirea umană, iar acestea sunt „foarte bune în a spune ceea ce ar putea fi spus”, au scris cercetătorii RAND.

Ele pot angaja utilizatorii în dezbateri reciproce, iar unele modele multimodale pot genera imagini de calitate fotografică și, din ce în ce mai mult, audio și video. Dacă o țară ar dori să creeze un sistem de manipulare a mediilor sociale, un LLM multimodal ar fi modalitatea de a o face.

O nouă înșelătorie cu vocea Andreei Esca

Și aici intră în discuție cea mai nouă formă de înșelătorie. Concret, este vorba de o nouă înșelătorie cu vocea Andreei Esca, la care zeci de români au picat în plasă. Nu ar fi prima dată când auzim de așa ceva.

Doar dacă ne aducem aminte de reclamele la așa-zisele câștiguri financiare mari, promovate de celebrul miliardar român Ion Țiriac, și chiar de Guvernatorul Băncii Naționale a României, Mugur Isărescu.

Ce au toate în comun? Răspunsul este unul simplu, Inteligența Artificială și aceste modele lingvistice, LLM. Conform acestei așa-zise știri, Andreea Esca apare vrbind de reputatul doctor Leon Dănăilă.

Zeci de români au picat în plasă știrii false

Deși, inițial mulți au crezut, având în vedere că, pe lângă imaginea și vocea Andreei Esca, apare și sigla Guvernului României, s-a dovedit că, în realitate, era o știre falsă, realizată cu ajutorul tehnologiilor deja enunțate.

Partea interesantă a acestei așa-numite știri, este că Andreea Esca apărea prezentând o informație dramatică, legată de respectabilul medic Leon Dănăilă, după cum urmează:

„O explozie în apartamentul doctorului Leon Dănăilă legată de declarațiile sale îndrăznețe împotriva companiilor farmaceutice a avut loc în această dimineață”.

Știrea fake ar fi plecat de la ideea că medicul Leon Dănăilă promovase o metodă revoluționară medicală, care, conform reclamei, regenerează complet anumite țesuturi articulare, iar cineva i-ar fi dorit și, implicit, făcut rău acestuia. Ba mai mult, clipul continuă cu medicul care ar fi declarat:

„Companiile farmaceutice sunt mafia. Astăzi mi-au aruncat în aer apartamentul și mâine vor continua să înșele oamenii. Dar eu nu vreau să joc după regulile lor.

Sunt medic și am depus un jurământ să tratez oamenii. Nu fac infracțiuni. De ce sunt ei pe urmele mele? Pentru că am creat un produs din care ei nu pot profita”, apare spunând doctorul Leon Dănăilă, conform celor de la Libertatea.

Realitatea este cu totul alta, dar sunt mulți cei care cred

Realitatea este, însă, cu totul alta, cu toate că aceste știri aveau să fie dovedite ca fiind știri fake. Ba mai mult, ar trebui să atragă atenția autorităților asupra acestui gen de practici.

În ceea ce-i privește pe utilizatorii de rețele de socializare, oricare ar fi ele, aceștia ar trebui să caute să verifice dacă informațiile sunt corecte și reale. Mai jos aveți un exemplu de deepfake, avându-l ca protagonist pe premierul Canadei.

Din păcate, așa cum au mai scos în evidență analiștii, sunt mulți cei care iau de bune aceste așa-zise informații, ulterior comentând și chiar luând atitudine pe baza unor informații false.