06 aug. 2021 | 17:15

Apple îți va ”scana” telefonul pentru a afla dacă ai imagini compromițătoare: despre ce e vorba

ACTUALITATE
Apple îți va ”scana” telefonul pentru a afla dacă ai imagini compromițătoare: despre ce e vorba

Apple a decis să scaneze fotografiile utilizatorilor săi pentru a identifica posibile comportamente abuzive.

Apple anunță o decizie-surpriză. A decis că fotografiile utilizatorilor, cele care urmează să fie stocate în iCloud Photos, vor fi scanate cu un soft special. Americanii susțin că au luat această decizie pentru a-i depista pe cei care ar putea comite abuzuri sexuale asupra copiilor.

E vorba de un sistem “neuralMatch”, care a fost gândit pentru a identifica posibile imagini cu abuzuri sexuale asupra copiilor (Child Sexual Abuse Material – CSAM) pe dispozitivele clienților. În cazul în care programul identifică o posibilă fotografie care indică un astfel de abuz, un operator va evalua situația și va raporta utilizatorul forțelor de ordine.

Venind din partea Apple, e o decizie mai mult decât surprinzătoare. Iată de ce.

Apple, cu ochii în pozele utilizatorilor

Imediat după anunțarea deciziei, au avut loc dezbateri aprinse.

Există îngrijorări privind confidențialitatea datelor, deoarece, teoretic, aplicația putând fi extinsă pentru a scana telefoanele pentru conținut interzis sau chiar urmărind afinitățile politice ale utilizatorului. Apple a fost văzută pentru multă vreme drept o companie care ține foarte mult la viața privată a utilizatorilor.

Se pare, însă, că și-a modificat un pic atitudinea. Chiar dacă scopul e mai mult decât corect, tehnologia ar putea fi folosită și pentru alte activități.

Apple a spus că noile versiuni de iOS și iPadOS, care urmează să fie lansate în cursul acestui an, vor avea „noi aplicații de criptografie, pentru a ajuta la limitarea răspândirii CSAM – Child Sexual Abuse Material în online, însă cu protejarea confidențialității utilizatorilor”.

Cum funcționează

Sistemul funcționează prin compararea imaginilor cu o bază de date cu imagini cunoscute de abuz sexual asupra copiilor, realizată de Centrul Național pentru Copii Dispăruți și Exploatați (NCMEC) și alte organizații de siguranță a copiilor.

Dacă se va găsi așa ceva în telefonu unui utilizator, atunci va fi alertată o echipă formată din factori umani. Pe mai departe, vor fi alertate autoritățile. Deocamdată, va fi valabil doar în SUA, dar e posibil ca sistemul  “neuralMatch” să fie extins peste tot.

Spuneam că e o mișcare surprinzătoare din partea Apple pentru că gigantul din Cupertino a refuzat de fiecare dată să ofere acces FBI la modelele de iPhone confiscate de aceștia în diverse spețe.  Americanii au refuzat deblocarea dispozitivelor pe motiv că cererile anchetatorilor nu-s în acord cu politica de confidențialitate a Apple.