15 oct. 2020 | 17:25

Cea mai periculoasă armă în mâinile hackerilor: cum pot „păcăli” computerele

ACTUALITATE
Cea mai periculoasă armă în mâinile hackerilor: cum pot

Pe măsură ce inteligența artificială (AI) își face loc în mainstream, există o mare dezinformare și confuzie cu privire la lucrurile de care este capabil și la riscurile potențiale pe care le prezintă.

În timp ce cultura noastră este bogată în viziuni distopice ale ruinei umane la picioarele mașinilor atotștiutoare, mulți oameni apreciază, de asemenea, potențialul pe care AI îl poate avea prin îmbunătățirile și perspectivele pe care le-ar putea aduce.

Sistemele informatice care pot învăța, raționa și acționa sunt încă la început. Învățarea automată necesită seturi imense de date. Din acest punct de vedere, accesul AI la astfel de date poate implica riscuri serioase.

Ce riscuri prezintă AI?

Sistemele AI cad foarte ușor pradă biasului accidental, care poate fi consolidat de programatori sau seturi de date specifice. Din păcate, dacă această prejudecată duce la decizii slabe și chiar la discriminare, și pot aduce consecințe juridice și daune reputaționale.

Proiectarea defectuoasă a AI poate duce, de asemenea, la supra-dotare sau sub-dotare, prin care AI ia decizii prea specifice sau prea generale.

Ambele riscuri pot fi atenuate prin stabilirea supravegherii umane, prin testarea strictă a sistemelor de inteligență artificială în faza de proiectare și prin monitorizarea atentă a acestor sisteme atunci când ele sunt operaționale.

Capacitățile de luare a deciziilor trebuie măsurate și evaluate pentru a se asigura că orice prejudecată emergentă sau luarea de decizii discutabile este abordată rapid.

Aceste amenințări se bazează pe erori neintenționate și eșecuri în proiectare și implementare, dar apare un set diferit de riscuri atunci când oamenii încearcă în mod deliberat să subverseze sistemele AI sau să le folosească drept arme.

Cum pot infractorii să manipuleze AI?

Intruziunea într-un sistem de inteligență artificială poate fi surprinzător de ușoară. Atacatorii pot manipula seturile de date folosite pentru antrenarea AI, făcând modificări subtile ale parametrilor sau elaborând scenarii care sunt proiectate cu atenție pentru a evita suspiciunile, în timp ce dirijează treptat AI în direcția dorită.

În cazul în care atacatorii nu au acces la seturi de date, aceștia pot folosi evaziune, modificând intrările pentru a forța greșelile.

Verificarea acurateței datelor și a intrărilor se poate dovedi imposibilă, dar ar trebui depuse toate eforturile pentru a culege date din surse de încredere.

O problemă mai dificilă de abordat este inferența, prin care atacatorii încearcă să inverseze sistemele de inginerie artificială, astfel încât să poată afla ce date au fost folosite pentru a le instrui.

Acest lucru le poate oferi acces la date sensibile, poate deschide calea pentru atacuri cibernetice sau le poate permite să reproducă un sistem AI pentru ei înșiși.

AI drept armă cibernetică

Infractorii cibernetici pot folosi AI pentru a ajuta la amploarea și eficacitatea atacurilor lor de inginerie socială.

AI poate învăța să identifice tiparele de comportament, înțelegând cum să convingă oamenii că un videoclip, un apel telefonic sau un e-mail este legitim și apoi îi convinge să compromită rețelele și să predea date sensibile.

Toate tehnicile sociale pe care le utilizează în prezent infractorii cibernetici ar putea fi îmbunătățite nemăsurat cu ajutorul AI.

Există, de asemenea, posibilitatea de a utiliza AI pentru a identifica vulnerabilități noi în rețele, dispozitive și aplicații pe măsură ce acestea apar.

Prin identificarea rapidă a oportunităților pentru hackerii umani, sarcina de a păstra informațiile în siguranță este mult mai dificilă. Monitorizarea în timp real a accesului și activității în rețele, împreună cu patch-uri rapide, sunt vitale pentru a combate aceste amenințări.

Cum folosești AI ca să te salvezi de AI?

AI poate fi extrem de eficientă în monitorizarea și analiza rețelei, stabilind o linie de bază a comportamentului normal și marcând discrepanțele în lucruri precum accesul la server și traficul de date imediat.

Detectarea timpurie a intruziunilor vă oferă cele mai mari șanse de a limita daunele pe care infractorii le pot face.

Deși la început poate fi cel mai bine ca sistemele AI doar să semnalizeze anomaliile și să alerteze departamentele IT, astfel încât acestea să poată investiga, pe măsură ce AI învață și se îmbunătățește, poate primi autoritatea de a anula amenințările și de a bloca intruziunile în timp real.

Așa cum AI poate modela comportamentul normal și poate afla cum interacționează utilizatorii cu sistemele, cum să recunoască vulnerabilitățile și malware-ul și cum să înțeleagă ce constituie o amenințare emergentă, el poate învăța și când alertele sunt eficiente.

Pe măsură ce setul de date crește și primește mai multe feedback-uri cu privire la procesul de luare a deciziilor, acesta poate câștiga mai multă experiență și poate îmbunătăți sarcina de a apăra rețeaua.

Cu o lipsă majoră de specialiști în securitatea informațiilor, orice sistem AI care poate suporta o parte din sarcină și permite personalului limitat să se concentreze asupra problemelor complexe, va fi de folos.