16 sept. 2025 | 08:27

Au cerut ajutorul inteligenței artificiale și au primit „escrocheria perfectă” pe internet. Un experiment, realizat de Harvard și Reuters, arată cât de ușor poți fabrica fraude online

TEHNOLOGIE, ȘTIINȚĂ & DIGITAL
Share
Au cerut ajutorul inteligenței artificiale și au primit „escrocheria perfectă” pe internet. Un experiment, realizat de Harvard și Reuters, arată cât de ușor poți fabrica fraude online
Escrocherii online la scară industrială cu ajutorul AI. (Ilustrație: Playtech)

Știi genul acela de email care promite minuni: „oferta momentului” de la furnizorul de energie, de la operatorul de telefonie sau chiar de la banca ta? Sau varianta clasică, cu așa-zisul „prinț nigerian” care îți spune o poveste emoționantă și te îndeamnă „doar să dai click” sau să-ți lași datele bancare? De prea multe ori finalul e același: ajungi să le „salvezi” banii lor, nu pe ai tăi — iar, mai nou, astfel de capcane sunt executate la perfecție cu instrumente de inteligență artificială. Reuters, împreună cu cercetătorii de la Harvard, a testat cât de ușor pot fi folosiți chatboții AI, precum ChatGPT, Gemini, Grok sau DeepSeek, pentru a compune asemenea mesaje-capcană și cât de convingătoare devin pentru public, mai ales pentru persoanele vârstnice.

Ce au testat, concret

Investigația a folosit mai mulți chatboți – printre care Grok, ChatGPT, Meta AI, Claude și DeepSeek – pentru a genera emailuri de phishing concepute să țintească seniori. Unele modele au refuzat solicitarea explicită, dar au „cedat” când cererea a fost ambalată ca cercetare sau exercițiu literar, producând texte credibile și chiar recomandări tactice (de pildă, intervale orare mai eficiente pentru a obține clickuri). Scopul a fost o simulare etică, cu acordul participanților, ca să se evalueze riscul în condiții cât mai apropiate de realitate.

Pentru testul comportamental, echipa a generat câteva zeci de emailuri, apoi a selectat nouă variante considerate cele mai persuasive. Acestea au fost trimise unui grup de 108 voluntari seniori din SUA, recrutați prin comunități de vârstnici. Participanții au știut că iau parte la un studiu, nu s-au colectat bani sau date sensibile, iar la final au primit explicații despre experiment.

Daniel Frank, contabil pensionar din California, a dat click pe un link dintr-un email de phishing simulat, generat de AI, în cadrul unui studiu Reuters. „AI este un duh ieșit din lampă”, spune el. REUTERSDaniel Cole

Daniel Frank, contabil pensionar din California, a dat click pe un link dintr-un email de phishing simulat, generat de AI, în cadrul unui studiu Reuters. „AI este un duh ieșit din lampă”, spune el. REUTERS/Daniel Cole

Ce au arătat rezultatele

Aproximativ 11% dintre destinatari au dat click pe linkurile-capcană din emailurile simulate – o rată deloc neglijabilă, mai ales dacă ținem cont că textele au fost produse rapid, la comandă, de sisteme AI accesibile oricui. Cinci dintre cele nouă mesaje au „prins”: două generate de Meta AI, două de Grok și unul de Claude. În setul ales pentru test, variantele selectate din ChatGPT și DeepSeek nu au generat clickuri, însă investigația nu își propune un clasament între modele, ci evidențierea riscului general.

Un aspect îngrijorător este inconsistența gardurilor de siguranță: aceeași solicitare, formulată ușor diferit sau reluată într-o nouă sesiune, putea fi întâi refuzată, apoi acceptată. În unele cazuri, botul livra chiar și elemente operaționale: linkuri „credibile” către site-uri false, mesaje ce imitau instituții cunoscute sau un ton de urgență menit să grăbească decizia.

Vezi și: Ce este phishingul, arma infractorilor de pe internet și cum te poți proteja

Reacții și implicații

Companiile din spatele acestor modele AI spun că folosirea chatbotilor pentru fraudă încalcă politicile lor și că îmbunătățesc constant mecanismele de protecție. Totuși, investigația arată că „ocolirea” regulilor rămâne posibilă prin pretexte aparent legitime (cercetare, ficțiune, educație), ceea ce reduce bariera tehnică pentru escrocii care vor să ruleze phishing la scară.

Pentru public, mai ales pentru vârstnici, miza este practică: emailurile bine scrise, emoționale și „la obiect” pot fi fabricate în serie, cu cost minim, iar diferența dintre o ofertă reală și o țeapă poate fi greu de sesizat. De aceea, regulile de igienă digitală rămân esențiale: nu da click pe linkuri din mesaje neașteptate, verifică direct instituția sau organizația menționată, cere ajutorul unei rude sau al unui prieten priceput la tehnologie înainte să introduci date personale sau bancare.

Fred Heiding, cercetător la Harvard

Fred Heiding, cercetător la Harvard, coautor al studiului de phishing cu Reuters: „Apărările boților AI sunt fragile — pot fi ocolite aproape oricând.” REUTERS/Shannon Stapleton

Ce rămâne de urmărit

În plan tehnic, direcția e clară: modelele trebuie să devină mai previzibile în refuzul cererilor abuzive, fără a bloca interogări legitime. În plan public, e nevoie de educație continuă și de mesaje simple, repetitive, care să-i ajute pe utilizatori să recunoască tiparele de fraudă. Iar pentru autorități și industrie, dosarul rămâne deschis: cum se pune în balanță inovația cu siguranța, când „complice” poate deveni chiar instrumentul conceput să ne ajute.

Nota redacției Playtech: Acest material este o preluare rezumativă a investigației Reuters (în colaborare cu un cercetător de la Harvard), cu scop informativ pentru publicul larg. Varianta integrală – cu exemple, metode și declarațiipoate fi citită în Reuters Investigates.