Tehnologija Trendovi

AI tehnologija u rukama kriminalaca. Kako se zaštititi od sve naprednijih prevara?

AI

Veštačka inteligencija (AI) je u proteklih nekoliko godina potpuno ušla u naše živote i na taj način nam olakšala mnoge svakodnevne poslove. Nažalost, kao i svaka nova tehnologija, tako je i AI podložna zloupotrebi, naročito u kriminalne svrhe.

AI tehnologija je kriminalcima zanimljiva jer i njima olakšava „svakodnevne poslove“ i omogućava im da brže i lakše izvode napredne phishing napade, kreiraju deepfake sadržaje, viruse, malware i druge sofisticirane metode prevare.

U ovom tekstu ćemo vas upoznati s najčešćim rizicima koje donosi zloupotreba AI tehnologija i ujedno dati neke korisne savete o tome kako da se zaštitite od ovakve vrste pretnji.

Zašto kriminalci koriste AI tehnologije?

Kriminalci uvek traže način da što efikasnije i sa što manje truda ostvare svoje ciljeve. Pojavom AI alata koji lako mogu da generišu tekst, sliku, zvuk ili video zapis, čak i prosečan napadač dobija mogućnost da automatizuje velik deo svojih aktivnosti – od pisanja velikog broja personalizovanih poruka (u phishing kampanjama), pa sve do vođenja napredne konverzacije uz pomoć chatbotova.

Za generisanje teksta često se koriste veliki jezički modeli poput GPT-4, BERT, OpenAI Codex, dok se za slike i video najčešće primenjuju alati DALL-E, Midjourney, Stable Diffusion i slični.

Kriminalci su čak u međuvremenu, za svoje potrebe, razvili alate poput WormGPT i FraudGPT koji su prilagođeni isključivo zlonamernim aktivnostima, jer za razliku od regularnih AI modela, ovi sistemi nemaju ugrađena etička ograničenja, što ih čini idealnim za kreiranje izuzetno uverljivih phishing poruka.

Pre pojave AI alata, napadači su morali da koriste primitivnija softverska rešenja da bi mogli da kreiraju i šalju masovne mejlove, pa su se lakše prepoznavali i otkrivali. Danas, veštačka inteligencija može da kreira stotine ili hiljade različitih varijacija e-mail-ova koji izgledaju prilično ubedljivo i autentično, što otežava njihovu detekciju kako korisnicima, tako i antivirusnim ili antispam softverima.

Isto tako, modeli mašinskog učenja mogu da se prilagode novim podacima i okruženjima. To znači da napadač, koji na raspolaganju ima dovoljno resursa, može da kreira sopstveni AI model specijalizovan za razumevanje ljudskog jezika, za generisanje specifičnih fraza ili čak za prepoznavanje ranjivosti u kodu.

AI koji je prilagođen određenom tipu napada može brže da uči iz prethodnih neuspelih kampanja i da na taj način unapredi svoju taktiku za buduće napade.

U praksi, kriminalci mogu da koriste popularne framework-ove za mašinsko učenje kao što su PyTorch ili TensorFlow, ali ili servise poput Hugging Face, kako bi kreirali i prilagodili AI modele za specijalizovane potrebe.

Takođe, kriminalci se često oslanjaju na mreže poput dark web-a, VPN usluge, proxy servere i druge metode za sakrivanje identiteta. Kada je u čitavu tu infrastrukturu uključen i AI, praćenje izvora napada postaje još teže. 

Vrste napada koje kriminalci mogu da izvode korišćenjem AI tehnologija

AI tehnologije omogućavaju kriminalcima da izvode raznovrsne napade koji su ranije bili znatno ograničeni time što su morali da budu izvedeni ručno, uglavnom primitivnijim alatima. Među najvažnije vrste napada koje kriminalci mogu da sprovedu korišćenjem AI tehnologija spadaju:

Phishing napadi
Automatizacija i personalizacija phishing kampanja pomoću AI, uključujući generisanje personalizovanih e-mail-ova, ubedljivih lažnih sajtova i domena.

Deepfake napadi
Kreiranje lažnih video i audio zapisa koji verno oponašaju izgled i glas stvarnih osoba, sa ciljem kompromitovanja reputacije, socijalnog inženjeringa ili finansijskih prevara.

Kreiranje malware-a i virusa
Razvoj polimorfnog malware-a i malicioznih programa koji se adaptiraju i izbegavaju detekciju, kao i generisanje zero-day napada za iskorišćavanje ranjivosti softvera.

Chatbot prevare
Vođenje interaktivnih razgovora sa žrtvama putem AI chatbotova, koji oponašaju rad korisničkih servisa ili poznatih osoba kako bi izvukli poverljive informacije.

Manipulacija društvenim mrežama
Generisanje lažnih profila, automatska interakcija sa korisnicima i širenje dezinformacija kroz mreže stotina botova.

Automatsko prepoznavanje ranjivosti
Analiza softvera i koda uz pomoć AI za pronalaženje bezbednosnih propusta koje kriminalci mogu da iskoriste za širenje zlonamernog softvera na osnovu specifičnih meta.

Sve ove vrste napada oslanjaju se na napredne tehnike koje AI čini bržim, efikasnijim i teže prepoznatljivim za tradicionalne bezbednosne sisteme. 

Hajde onda da vidimo kako kriminalci koriste svaku od navedenih metoda za svoje ciljeve.

Phishing napadi

Generisanje personalizovanih emailova

Phishing je jedna od najčešćih prevara u digitalnom svetu. Pre pojava AI alata kriminalci su koristili generičke poruke koje su obično bile pune gramatičkih grešaka, što je često omogućavalo iskusnim korisnicima da ih lako prepoznaju. Međutim, uz AI, phishing može postati veoma ubedljiv i personalizovan.

  • Analiza javno dostupnih informacija: AI može veoma brzo da pretraži društvene mreže ili blogove, sakupi informacije o meti (npr. ime kompanije, poziciju u firmi, projekte na kojima radi) i onda automatski ubaci specifične detalje u phishing email. Za ovakve analize mogu da se koriste biblioteke poput Beautiful Soup (Python) za web scraping, ali i napredniji NLP okviri (npr. SpaCy, NLTK).
  • Prilagođena komunikacija: Korišćenjem modela za obradu prirodnog jezika (NLP) – na primer GPT-4, ChatGPT ili Claude – mogu da se generišu poruke koje imaju ton i stil sličan onome što potencijalna žrtva očekuje, recimo, poruku od nadređenog u kompaniji ili kolege.

U takvim situacijama i iskusni korisnici relativno lako mogu da postanu žrtve. Ako stigne e-mail od šefa sa nekoliko detalja koji su javno dostupni, ali zvuče kao poverljive informacije, čak i stručnjak može da postane žrtva prevare, naročito ako poruka dođe u trenutku žurbe.

Ukoliko želite da saznate o tome kako da se zaštitie od phishing napada, predlažemo da pročitate Kako da ne postanete žrtva phishing prevare.

Komunikacija putem chatbotova

Chatbotovi zasnovani na veštačkoj inteligenciji, kakvi su slični današnjim generativnim modelima, mogu da se koriste za razgovore u realnom vremenu sa korisnicima na raznim kanalima: e-mail, web chat, pa čak i SMS poruke. 

Dok su ranije phishing kampanje bile ograničene na statične i jednokratne poruke, sada prevaranti mogu da održavaju dužu konverzaciju, i da naknadno prilagode odgovore na osnovu reakcija žrtve.

  • Prelazak sa emaila na chat: E-mail kampanja može da usmeri korisnika da pređe na chat platformu ili lažni korisnički servis na sajtu koji kontroliše kriminalac. Tokom chat razgovora, AI bot (npr. napravljen uz Rasa, Botpress ili prilagođeni model u Flask / Django aplikaciji) se trudi da dobije poverenje i tako navodi žrtvu da otkrije poverljive podatke (login informacije, 2FA kodove itd.).
  • Kombinacija društvenog inženjeringa i AI: Napadač može da ubaci i elemente društvenog inženjeringa kako bi se korisnik osećao sigurno (npr. pozivajući se na lažne procedure bezbednosti) i da na na taj način postepeno izvlači informacije od žrtve.

Automatsko generisanje lažnih URL-ova i domena

AI pomaže u kreiranju domena i linkova koji izgledaju verodostojno ili čak identično legitimnim URL adresama (tzv. typosquatting). Za korisnike ovo može da bude veliki izazov, jer sada AI može da generiše vrlo slične nazive, samo sa minimalnim razlikama.

  • Upotreba modela za generisanje sličnih karaktera: Kriminalci koriste modele koji analiziraju najčešće zamenljive karaktere (npr. latinično „l“ i cifru „1“, ili slovno „o“ i cifru „0“) i prave veliki broj validnih, ali sličnih domena. Alati za generisanje takvih domena se često zovu DGA (Domain Generation Algorithm), a mogu biti bazirani na alatima kao što su Scikit-learn ili Keras.
  • Dinamičko kreiranje stranica: AI može da generiše web sajtove koji se vrlo brzo prilagođavaju kontekstu. Na primer, ako se prikazuje lažni web sajt neke banke, sam izgled i sadržaj sajta se menja u zavisnosti od toga koji se browser koristi, gde je korisnik geografski lociran, koji jezik browsera koristi i sl.

Deepfake i društvena manipulacija

Deepfake video i audio

Jedna od najopasnijih zloupotreba veštačke inteligencije je pravljenje deepfake sadržaja. U pitanju je manipulisanje video i audio zapisima tako da oni izgledaju kao da je prava osoba izgovorila nešto što nikada nije rekla ili uradila nešto što nije uradila. Ovo se naročito pokazalo opasnim u poslovnom okruženju.

  • Lažni konferencijski pozivi: Zamislite situaciju u kojoj zaposleni dobiju poziv za sastanak putem Zoom-a ili slične platforme, a osoba koja izgleda i zvuči tačno kao njihov direktor traži da se hitno prebace određena sredstva, ili da se omogući pristup određenim projektima. AI omogućava kreiranje ubedljivog deepfake videa ili audia u realnom vremenu (npr. korišćenjem alata DeepFaceLab, FaceSwap ili Synthesizer V za glas), što može navesti čak i visokoobučene profesionalce da postupe po zahtevu.
  • Manipulacija reputacijom: Deepfake snimci mogu da kompromituju i pojedince i organizacije, objavljivanjem lažnih izjava, pa čak i dokaza o nečem nezakonitom ili sramnom. Ovo može da dovede do ucenjivanja, prevara ili masovnih dezinformacija.

Deepfake u društvenim mrežama

Kriminalci pomoću AI alata mogu lako da kreiraju lažne profile visokog kvaliteta, sa slikama i video materijalom osobe koja uopšte ne postoji (tzv. face generation). Takvi profili se koriste za povezivanje sa stvarnim ljudima i prikupljanje osetljivih informacija ili dalje širenje malware-a.

  • Korišćenje lažnih identiteta za B2B prevare: Recimo, možete dobiti zahtev za saradnju od postojeće osobe koja ima stvarni LinkedIn nalog, sa sve snimljenim uvodnim video klipom. U stvarnosti, ceo profil može biti generisan AI tehnologijama (npr. pomoću alata This Person Does Not Exist), kako bi se steklo poverenje i potom prikupili podaci (npr. izvorni kod, pristupni ključevi, ili druge poverljive informacije).
  • Automatsko generisanje ubedljivog sadržaja: Pored fotografija, AI može da piše i objave na društvenim mrežama, odgovara na komentare i održava privid žive komunikacije. Tako jedan napadač može relativno lako da upravlja velikim brojem lažnih profila.

AI u kreiranju virusa i malware-a

Evolucija malware-a uz pomoć mašinskog učenja

Tradicionalni antivirusi i sigurnosni programi se često oslanjaju na potpis (signature) malware-a, heuristiku ili behavior analize kako bi prepoznali zlonamerne datoteke i procese. Međutim, AI kriminalcima omogućava da kreiraju malware koji se adaptira i menja svoje ponašanje da bi izbegao detekciju.

  • Polimorfni malware zasnovan na AI: Polimorfni malware menja svoj kod pri svakom novom pokretanju ili distribuciji, a AI može da nauči kako antivirusi otkrivaju malware i da u skladu sa tim dinamički menja sekvence koda, pakovanja, pa čak i tok izvršavanja. Za kreiranje ovakvih kodova napadači mogu da koriste biblioteke poput PyTorch, Keras ili čak OpenAI Codex da bi generisali različite varijante.
  • Detekcija ranjivosti: AI alati mogu da skeniraju ogromnu bazu koda (open-source projekte, GitHub repozitorijume ili privatne objave) i otkriju ranjivosti koje developeri nisu zakrpili. Napadači onda kreiraju exploite koji su prilagođeni određenim uslovima, a AI pomaže u automatskom generisanju zlonamernog koda. Alati za statičku analizu poput SonarQube, Bandit (za Python), Brakeman (za Ruby on Rails) ili komercijalni Checkmarx, Veracode i Snyk postaju meta kriminalaca koji ih praktično zloupotrebljavaju u sopstvenu korist.

Generisanje zero-day napada

Zero-day ranjivosti su rupe u bezbednosti softvera koje developer još nije otkrio ili zakrpio. Kada se AI koristi za analizu izvornog koda i sistemskih logova, povećava se mogućnost pronalaska ranjivosti koje ljudskim testerima mogu da promaknu.

  • Brže pronalaženje ranjivosti: Uz odgovarajući trening, AI modeli mogu da pretražuju velike baze koda i da detektuju obrasce koji ukazuju na sigurnosne propuste, kao što su nebezbedno upravljanje memorijom ili neka druga ranjivost. Za tu namenu mogu da se koriste i AI alati poput CodeQL (koji je GitHub razvijao za bezbednosne analize), koji mogu da pomognu za brže otkrivanje potencijalnih problema.
  • Automatsko kreiranje exploita: Nakon otkrivanja bezbednosnog propusta, AI može da predloži ili da čak direktno generiše kod exploita. Ovo značajno skraćuje vreme od otkrivanja ranjivosti do njene zloupotrebe, jer napadač ne mora ručno da piše malware već ga umesto njega kreira AI alat.

Sofisticirane metode prikrivanja

Obfuscation (prikrivanje koda), enkripcija i stealth tehnike se usavršavaju uz pomoć AI, jer kriminalci mogu dinamički da isprobaju više varijacija dok ne prođu zaštitne mehanizme. 

Sam malware može da sadrži AI modul koji reaguje na okolinu u kojoj se izvršava, detektuje da li je pokrenut u sandbox okruženju, pa čak i menja svoje ponašanje u slučaju da otkrije neke analitičke alate.

  • Detekcija sandbox-a: Malware može da proveri da li se izvršava u okruženjima kao što su Cuckoo Sandbox, VMware ili VirtualBox. Ako to otkrije, može da se prikrije i ponaša kao regularan softver.
  • AI obfuscation: Pomoću AI-a svaka instanca malware-a može da ima drugačiji skup naziva promenljivih, drugačiji način enkripcije podataka i drugačiju strukturu fajla, čime izbegava signature-based detekciju.

Chatbot prevare

Kriminalci mogu da koriste AI chatbotove za sofisticirane prevare. Botovi su programirani da simuliraju razgovore sa ljudima, često oponašajući na taj način korisničke servise poznatih kompanija ili institucija. Tehnologije poput ChatGPT, Rasa Framework i Dialogflow omogućavaju generisanje ubedljivih i kontekstualno prilagođenih odgovora.

Oponašanje korisničkog servisa

Prevaranti kreiraju lažne chat platforme koje izgledaju kao regularne platforme. Na ovim platformama AI chatbotovi postavljaju ciljana pitanja, tražeći od korisnika poverljive informacije poput lozinki, brojeva platnih kartica ili sigurnosnih kodova. 

Na primer, korisnicima može da stigne poruka: „Vaš nalog je privremeno zaključan. Kontaktirajte tehničku podršku putem našeg chat-a.“ Chatbot tada korisniku pruža instrukcije koje uključuju deljenje osetljivih podataka i tako ga navodi da otkrije te podatke.

Prilagođavanje odgovora u realnom vremenu

AI chatbotovi koriste alate za analizu unosa korisnika, poput Microsoft Bot Framework, kako bi prilagodili odgovore na osnovu reakcija korinika. Ako korisnik nešto posumnja, botovi mogu da ponude dodatne dokaze autentičnosti, kao što su reference na interne procedure ili personalizovane informacije prikupljene s društvenih mreža.

Lažne ankete i nagradne igre

Kriminalci često organizuju lažne ankete ili promocije, gde chatbotovi vode žrtvu kroz proces davanja ličnih podataka. Na primer, bot može da vam napiše: „Čestitamo! Osvojili ste nagradu. Da biste je preuzeli, unesite svoje podatke.“ AI generisani odgovori su napisani tako da korisnika dodatno uveravaju u autentičnost ponude.

Manipulacija društvenim mrežama

Kriminalci mogu da koriste AI alate za stvaranje i održavanje mreža lažnih profila na društvenim mrežama. Generatori slika, poput This Person Does Not Exist, omogućavaju izradu realističnih fotografija nepostojećih osoba, dok alati za generisanje sadržaja poput GPT-4 stvaraju uverljive biografije, objave i komentare.

Automatska komunikacija s korisnicima

Lažni profili koriste automatizovane sisteme za započinjanje interakcija sa stvarnim korisnicima. Na primer, botovi prate, lajkuju i komentarišu postove kako bi stekli poverenje korisnika. Alati poput PhantomBuster omogućavaju kriminalcima da upravljaju velikim brojem profila i ciljano komuniciraju s korisnicima.

Širenje dezinformacija

Kriminalci takođe mogu da organizuju mreže botova za širenje lažnih informacija. Botovi objavljuju sadržaj s ciljem da utiču na javno mnjenje, destabilizuju kompanije ili promovišu lažne projekte. Tokom političkih kampanja, na primer, mreže botova mogu da šire lažne informacije o kandidatima, povećavajući vidljivost objava kroz koordinisane lajkove i deljenja.

Finansijske i društvene prevare

Lažni profili često promovišu „sigurne investicije“ ili lažne humanitarne akcije. Botovi koriste AI za generisanje prilično ubedljivih poruka koje izazivaju emocionalnu reakciju kod potencijalne žrtve, podstičući je da podeli lične podatke ili izvrši uplatu.

Automatsko prepoznavanje ranjivosti

AI alati omogućavaju kriminalcima brzo otkrivanje sigurnosnih propusta u softveru, aplikacijama i sistemima. Korišćenjem modela mašinskog učenja, mogu da analiziraju velike količine koda i identifikuju potencijalne ranjivosti poput SQL injekcija, prelivanja bafera ili nepravilnog rukovanja podacima.

Statička analiza koda

Alati poput CodeQL i SonarQube analiziraju izvorni kod i detektuju obrasce koji ukazuju na bezbednosne propuste. Na primer, nevalidirani ulazni podaci koji mogu dovesti do SQL injekcija predstavljaju česte mete kriminalaca.

Dinamička analiza aplikacija

AI modeli se koriste za simulaciju korisničkih interakcija u aplikacijama, što omogućava identifikaciju ranjivosti koje se pojavljuju tokom izvršenja aplikacije. Na primer, kriminalci koriste alate kao što su Burp Suite u kombinaciji sa AI modelima za dinamičko testiranje aplikacija.

Generisanje exploita

Kao što smo u prethodnim poglavljima već pominjali, kada AI otkrije ranjivost, automatski generiše kod koji omogućava napad na ciljani sistem. Ovo značajno ubrzava napade na zero-day ranjivosti, koje još nisu javno poznate niti zakrpljene od strane developera.

Saveti za zaštitu od AI prevara i napada

Zaštita od AI prevara i napada podrazumeva višeslojnu zaštitu koja deluje u svim pravcima i podrazumeva kako tehničko znanje, tako i konstatnu obuku zaposlenih, odnosno korisnika.

Tehničke mere zaštite

  • Dvofaktorska autentifikacija (2FA) i višeslojna zaštita
    Iako AI pretnje postaju sve naprednije, dvofaktorska autentifikacija i dalje predstavlja odličnu zaštitu u mnogim slučajevima. Za korisnike koji koriste razne platforme ili servise (GitHub, DockerHub, cloud servisi itd.), preporuka je da se obavezno uključi 2FA ili čak MFA (multi-factor authentication) i koriste jedinstvene, jake lozinke.

    Od alata, popularni su Google Authenticator, Microsoft Authenticator, Authy, ali i hardverski ključevi tipa YubiKey (FIDO2 standard).
  • Redovno ažuriranje sistema i zakrpe
    Često se zaboravlja da je redovno ažuriranje operativnog sistema, biblioteka, framework-a i drugih komponenti prva linija odbrane. Mnogi AI napadi se oslanjaju na iskorišćavanje poznatih ranjivosti, tako da ažuriran softver u velikoj meri otežava posao napadačima.

Razni package manager alati (npr. npm, pip, composer, yarn) imaju ugrađene komande za proveru (audit) poznatih ranjivosti, pa je dobra praksa da ih povremeno pokrenete na svom sistemu.

  • Skeniranje koda i statička analiza
    Ako ste developer, dobra praksa je da koriste specijalizovane alate za statičku analizu koda koji prepoznaju ranjivosti, greške ili loše prakse. Isto tako, možete da razmislite i o uključivanju AI zasnovanih rešenja za skeniranje koda, koja mogu otkriti sumnjiva mesta i uporediti ih sa poznatim obrascima malware-a.

Neki od poznatijih alata: SonarQube, Checkmarx, Veracode, Snyk (komercijalni), kao i Bandit (za Python), Brakeman (Ruby on Rails) ili ESLint (JavaScript/TypeScript).

  • Segmentacija mreže i least privilege pristup
    U okviru kompanija, segmentacija mreže ograničava kretanje potencijalnog napadača unutar infrastrukture. Primena least privilege principa podrazumeva da svaki korisnički nalog ima samo minimalna prava neophodna za obavljanje posla. Na taj način, ako napadač i uspe da kompromituje jedan nalog, ne može da preuzme kontrolu nad čitavim sistemom.
  • Upotreba Intrusion Detection i Intrusion Prevention sistema (IDS/IPS)
    IDS/IPS rešenja koja koriste AI mogu da detektuju neuobičajene šablone ponašanja na mreži i da tako upozore administratore i developere na sumnjive aktivnosti. Ovakvi sistemi se stalno uče novim pretnjama i mogu da pruže pravovremenu detekciju napada.

Neki primeri su Snort, Suricata (open-source), ali i naprednija komercijalna rešenja poput Darktrace, Vectra AI ili integrisani Microsoft Defender for Endpoint.

Organizacione mere i obuke

  • Redovna obuka zaposlenih
    Čak i iskusni zaposleni ponekad mogu da postanu mete društvenog inženjeringa. Zbog toga je važno da se svi u organizaciji, uključujući i tehničke timove, redovno edukuju o novim pretnjama, metodama phishing-a i načinima zaštite. Takvi treninzi bi trebalo da budu obavezan deo godišnje rutine obuka.
  • Ažuriranje politika o bezbednosti
    Organizacije treba da usvoje ili unaprede postojeće bezbednosne politike, kao i da jasno definišu procedure za rukovanje poverljivim informacijama, šifrovanje podataka, pristup sistemima, reakciju na incident, itd. Važno je uključiti i posebne stavke o deepfake rizicima, AI phishing-u i drugim novim pretnjama.
  • Interni testovi i simulacije
    Ukoliko je to izvodljivo, security tim može da sprovodi interne testove i simulacije AI zasnovanih prevara, kako bi proverio da li su developeri i ostali zaposleni spremni na takve napade. Rezultati ovih testova ukazuju na slabe tačke u bezbednosnoj kulturi kompanije i pomažu da se one otklone na vreme.

Lične mere zaštite i preporuke

Bez obzira koliko autentično delovala poruka od nadređenog ili klijenta, zaposleni u nekoj organizaciji bi uvek trebalo da proveri legitimnost zahteva nezavisnim kanalom (telefon, lični sastanak, drugi mejl nalog ili slično). Deepfake i AI generisane poruke mogu da izgledaju prilično ubedljivo, pa je izuzetno važno ostati oprezan kada se traže osetljive informacije ili radnje.

  • Provera domena i linkova
    Iako moderni phishing alati mogu kreirati veoma slične domene, pažljiva provera URL adrese i sertifikata sajta može da predupredi da postanete žrtva prevare. Korisnici bi trebalo da imaju praksu da pregledaju cele e-mail adrese i linkove (npr. pomoću alata ili terminala) pre nego što unesu neke poverljive podatke.

Za brzu proveru linkova ili fajlova mogu se koristiti servisi poput VirusTotal, PhishTank, pa i lokalni skeneri malware-a (npr. ClamAV).

  • Alati za detekciju deepfake-a

Na tržištu se javljaju i komercijalni i open-source alati koji koriste AI kako bi identifikovali manipulacije u video i audio zapisima. Napredni korisnici bi trebalo da se upoznaju sa ovim alatima i da ih povremeno koriste kada sumnjaju u autentičnost snimka.

Neki primeri su Sensity AI, Deepware, Microsoft Video Authenticator.

  • Vrednovanje izvora koda i zavisnosti

Kada radite na softverskim projektima, obratite posebnu pažnju na pakete i zavisnost koje uvodite u projekat. AI napadači sve češće objavljuju tzv otrovne ili zlonamerne biblioteke na zvaničnim repozitorijumima (npr. npm, PyPI, Maven, itd.), nadajući se da će ih developeri slučajno uključiti.

Alati kao što su npm audit, yarn audit, pip-audit i servisi tipa Snyk mogu vam pomoći da na vreme otkrijete problematične zavisnosti.

  • Restriktivno deljenje ekrana i datoteka

U doba rada od kuće, često delimo ekran i datoteke putem Zoom-a, Teams-a ili sličnih servisa. Kriminalci mogu da iskoriste social engineering i AI botove kako bi vas naveli da, recimo, samo na trenutak pokažete neku poverljivu informaciju. Zato obratite pažnju na deljenje ekrana i pazite koje tačno prozore ili dokumenta otvarate.

Šta da radite ako postanete žrtva AI prevare?

Nažalost, bez obzira na oprez i tehničke mere, svakome može da se desi da postane žrtva napada zasnovanih na AI tehnologiji. Evo i nekih najvažnijih koraka koje treba da preduzmete ukoliko sumnjate da ste žrtva AI prevare.

  • Odmah prekinite sumnjivu aktivnost i obavestite nadležne
    Ukoliko primetite da ste kliknuli na link za koji sumnjate da je phishing, ili ste pokrenuli datoteku koja izgleda zlonamerno, odmah prekinite pristup (isključite računar s mreže ako je potrebno) i obavestite IT/security tim. Brza reakcija može da sprečiti dalju kompromitaciju sistema.
  • Promenite lozinke i opozovite pristupne tokene
    Ako ste uneli lozinku ili token na lažnoj stranici, odmah promenite lozinku na zvaničnom servisu i opozovite pristupne ključeve (API ključeve, SSH ključeve itd.). Vodite računa da koristite jedinstvenu, jaku lozinku koju ne koristite na nekom drugom mestu.
  • Izvršite skeniranje sistema
    Pokrenite pouzdane antivirusne i antimalware- alate, poželjno i offline scan, da biste otkrili da li je na računar kojim slučajem instaliran malware. Ukoliko je reč o poslovnom računaru, obavezno konsultujte IT stručnjake u kompaniji, jer je moguće da su zlonamerni programi prodrli i u mrežu.

Alati poput Malwarebytes, Norton, ESET NOD32, Kaspersky, Windows Defender ili open-source ClamAV mogu da posluže kao prva linija skeniranja.

  • Prijavite incident i sakupite dokaze
    U svakoj većoj kompaniji obično postoji procedura za prijavu bezbednosnih incidenata. Ako ste developer, pokušajte da sakupite što više dokaza (screenshot-ove, zlonamerni kod, email prepiske) i prijavite napad relevantnim institucijama ili platformama (npr. prijavite lažne domena hosting provajderu).

Ako ste pretrpeli finansijsku štetu, obavezno obavestite banku i, ako je potrebno, policiju.

Ukoliko se radi o krađi ili ugrožavanju podataka, obavestite klijente i partnere čiji su podaci možda kompromitovani, u skladu sa zakonskim obavezama (npr. GDPR u Evropi).

  • Analiza uzroka (root cause analysis)
    Za developere i kompanije je ključno da nakon incidenta sprovedu sveobuhvatnu analizu kako bi otkrili gde je došlo do propusta i kako sprečiti slične napade ubuduće. Ovo može uključiti tehničku reviziju koda, update bezbednosnih politika i dodatnu obuku zaposlenih.
  • Dodatna edukacija i revizija sigurnosnih procedura
    Nakon pretrpljene prevare ili napada, bitno je da timovi (posebno developeri) uče iz iskustva i prilagode svoje radne tokove i bezbednosne procedure. Obratite pažnju na nove AI alate koji mogu pomoći u detekciji pretnji, kao i na alate za deepfake otkrivanje (npr. Sensity AI, Deepware, Microsoft Video Authenticator).

Zaključak

Tehnološki napredak, uključujući AI, doneo je značajne prednosti u obavljanju naših svakodnevnih aktivnosti, ali i otvorio vrata za sofisticirane prevare i napade koje je teško prepoznati i zaustaviti. Kriminalci koriste AI za phishing, deepfake sadržaje, kreiranje zlonamernog softvera i pronalaženje zero-day ranjivosti, kako bi ostvarili svoje ciljeve.

Opšti savet i dobra praksa je da budete sumnjičavi prema neobičnim zahtevima, da proveravate autentičnost poruka, redovno ažurirate softver i koristite bezbednosne alate. 

U slučaju prevare, brzo reagujte, sakupite dokaze i odmah obavestite nadležne u svojoj kompaniji.

Na kraju, bez obzira na to gde radite, kontinuirano praćenje trendova i unapređenje bezbednosnih praksi su najbolji način da se zaštitite od AI pretnji.

Ostavi komentar

Vaša adresa neće biti objavljena