V zadnjih mesecih smo bili priča »razcvetu« pojava nove in impresivne umetne inteligence, kot je ChatGPT.
Nenadoma se ta orodja spreminjajo in izboljšujejo življenja mnogih ljudi na različnih področjih, zlasti v dejavnostih, ki vključujejo tehnologijo.
Poglej več
Strokovnjaki pravijo, da je AI sila dobrega
V scenariju razvoja AI Kitajska napreduje, medtem ko ZDA...
Vendar se je izkazalo, da je te ultra-sofisticirane sisteme mogoče uporabiti tudi za zlo, tako rekoč.
V intervjuju za The New York Post je strokovnjak za kibernetsko varnost s Harvarda J.S. Nelson Law School, je bil kategoričen v izjavi, da obstajajo kriminalci, ki izkoriščajo AI za prakso kaznivih dejanj.
»Jasno je, da imajo 'slabi igralci' zdaj dostop do sofisticiranih orodij, ki jih prej niso imeli. Dalo jim je možnosti, ki jih prej niso imeli,« je dejal.
Lisa Palmer, ki je glavna strateginja AI v svetovalnem podjetju AI Leaders, je prav tako spregovorila za časopis in opozorila, da je ta problem viden po vsem svetu.
»To se dogaja v svetovnem merilu. To ni nekaj, kar se dogaja samo v Združenih državah. To je problem v več državah," je dejala.
Po besedah Palmerja in Nelsona je trend, da se bo pojav kaznivih dejanj z uporabo umetne inteligence v prihodnjih letih le povečal. V naslednjih temah so navedena in razložena nekatera glavna kazniva dejanja te vrste. Nadaljujte z branjem!
deepfake
Eno glavnih kaznivih dejanj, storjenih s »pomočjo« umetne inteligence, je tako imenovani deepfake, ki je v bistvu sestavljen iz ustvarjanja lažnih slik z uporabo obraza osebe.
Za izvršitev teh zločinov kriminalci uporabljajo aplikacije, opremljene z umetno inteligenco, na primer tiste, ki obljubljajo, da bodo fotografije spremenile v slike ali celo postarale obraze uporabnikov.
Tudi Lisa Palmer je komentirala to temo in opozorila na nevarnosti deepfake aplikacij. "Nekatere od teh aplikacij v svojih pogojih storitve zelo jasno povedo, da svoj obraz delite s shrambo podatkov," je opozoril.
V nekaterih resnih primerih umetna inteligenca ustvari čutne ali celo pornografske podobe z uporabo obrazov navadnih ljudi. Rezultat je tako realističen, da ga je mogoče uporabiti za očrnitev podobe posameznika, kar je izjemno resno.
Umetna inteligenca lahko zajame tudi podatke, kot so prstni odtisi in očesni podpisi, s čimer ponaredi avtentikacijo in pusti uporabnike dovzetne za digitalne zločine.
Kar zadeva javno razpravo, je lahko problem še globlji, saj lahko generativne umetne inteligence ustvarjanje lažnih podob političnih dogodkov, naravnih nesreč in drugih dogodkov za lažno alarmiranje prebivalstvo.
Po mnenju strokovnjakov lahko to zlonamerni ljudje uporabijo kot obliko manipulacije.
lažno predstavljanje
Lažno predstavljanje, tj. pošiljanje elektronske pošte in opravljanje nepooblaščenih telefonskih klicev, je mogoče olajšati tudi z uporabo umetne inteligence.
"Zdaj lahko [phishing phishers] ustvarjajo ta lažna e-poštna sporočila v velikem obsegu z uporabo AI," je dejala Lisa Palmer v nedavnem govoru.
Pred pojavom generativne umetne inteligence so lažno predstavljanje in druge invazivne prakse ovirali kompleksnost dela. Zdaj lahko dejavnost olajšajo in pospešijo inteligentni chatboti, kot je ChatGPT.
Na splošno »fišerji« odstranijo osebne podatke iz profilov na družbenih omrežjih in od tam začnejo pošiljati nezaželena sporočila na elektronske naslove.
Lisa Palmer tudi opozarja, da se generativne umetne inteligence začenjajo uporabljati za samodejne telefonske klice.
»AI izboljšuje tudi zmožnost ustvarjanja lažnih telefonskih klicev. Vse kar je potrebno je, da resnična oseba posname tri sekunde govora. Robot zajame govor in ga reproducira v lažnih klicih,« je povedal specialist.
Nedavno so kriminalci uporabili AI za ponarejanje ugrabitev najstnika v ZDA. Mati deklice je prejela klic, v katerem je robot posnemal glas njene hčerke. Na žalost so takšni primeri vedno pogostejši.
Dan Mayo, agent FBI, ki je zadolžen za nadzor mest Phoenix, opozarja, da bo odhod profilov na družbenih omrežjih, odprtih za javnost, predstavlja tveganje, saj lahko posreduje ustrezne informacije kriminalci.
"Iskali bodo javne profile, ki imajo čim več informacij o vas, in ko jih bodo imeli, vam bodo poskušali škodovati," je dejal policist.
Pred kratkim je ameriški tisk obširno poročal, da je celo Jerome Powell, predsednik Federal Reserve, centralne banke Združenih držav, je bil zaveden z obveščevalnim lažnim predstavljanjem umetno.
Powell naj bi prejel klic, v katerem je umetna inteligenca oponašala predsednika Ukrajine Volodimirja Zelenskega. Pozneje se je izkazalo, da ni šlo za nič drugega kot za prevaro, ki so jo nekateri brezdelni Rusi izigrali Jeromeu. Kakorkoli, opozorilo je bilo vklopljeno.
Dostava zlonamerne programske opreme
Druga zaskrbljujoča sposobnost umetne inteligence je povezana s širjenjem in izboljšanjem zlonamerne programske opreme, ki so v bistvu računalniški virusi.
Lisa Palmer pojasnjuje, da kibernetski kriminalci uporabljajo to zlonamerno programsko opremo za krajo uporabniških podatkov. »Očitno bi bile stvari, kot so vaša gesla za bančne sisteme, vaša gesla za zdravstveno kartoteko, vaša gesla v šolskih dokumentih vaših otrok, ne glede na primer, vse, kar je zaščiteno,« je dejal. ona.
Po besedah Lise je mogoče umetno inteligenco uporabiti za opozarjanje na načine, kako hekerji lahko sledijo, da pridobijo dostop celo do zaščitenih strojev, kot so vladni računalniki in veliki podjetja.
Celo glavne tarče teh kriminalcev so visoki posamezniki, kot so državni ministri, veliki poslovneži, zakonodajalci in celo predsedniki.
Izsiljevalska programska oprema je še ena grožnja, ki se izboljšuje z uporabo umetne inteligence. »[Izsiljevalska programska oprema] prevzame nadzor nad vašim sistemom, spremeni vaša gesla, vas zaklene iz svojih sistemov in zahteva odkupnino,« resno pojasnjuje.
Po vsem svetu se vladne agencije in podjetja za kibernetsko varnost že zavedajo negativne uporabe umetne inteligence.
Posebna zakonodaja in varnostni protokoli za nadzor te zadeve se že razvijajo v več državah.