Pēdējos mēnešos mēs esam bijuši liecinieki jauna un iespaidīga mākslīgā intelekta, piemēram, ChatGPT, parādīšanās "uzplaukumam".
Pēkšņi šie rīki maina un uzlabo daudzu cilvēku dzīvi dažādās jomās, īpaši darbībās, kas saistītas ar tehnoloģijām.
redzēt vairāk
Eksperti saka, ka AI ir spēks uz labu
AI attīstības ainavā Ķīna progresē, kamēr ASV…
Tomēr izrādās, ka šīs īpaši izsmalcinātās sistēmas var izmantot arī ļaunumam, tā teikt.
Intervijā laikrakstam The New York Post Hārvardas kiberdrošības eksperts Dž.S. Nelsons Juridiskā fakultāte bija kategoriski, paziņojot, ka ir noziedznieki, kuri izmanto AI, lai praktizētu noziegumiem.
“Ir skaidrs, ka “sliktajiem aktieriem” tagad ir pieejami sarežģīti rīki, kuru viņiem agrāk nebija. Tas viņiem deva iespējas, kādas viņiem iepriekš nebija,” viņš teica.
Lisa Palmere, kas ir konsultāciju uzņēmuma AI Leaders galvenā AI stratēģe, arī runāja ar laikrakstu un brīdināja, ka šo problēmu var redzēt visā pasaulē.
"Tas notiek globālā mērogā. Tas nav kaut kas tāds, kas notiek tikai Amerikas Savienotajās Valstīs. Tā ir problēma vairākās valstīs,” viņa sacīja.
Pēc Palmera un Nelsona domām, tendence ir tāda, ka noziegumu skaits, izmantojot AI, nākamajos gados tikai pieaugs. Turpmākajās tēmās ir uzskaitīti un izskaidroti daži no galvenajiem šāda veida noziegumiem. Turpiniet lasīt!
deepfake
Viens no galvenajiem noziegumiem, kas pastrādāts ar AI “palīdzību”, ir tā sauktais deepfake, kas būtībā sastāv no nepatiesu attēlu radīšanas, izmantojot cilvēka seju.
Lai pastrādātu šos noziegumus, noziedznieki izmanto ar mākslīgo intelektu aprīkotas lietojumprogrammas, piemēram, tās, kas sola fotogrāfijas pārvērst gleznās vai pat novecot lietotāju sejas.
Liza Palmere arī komentēja šo tēmu un brīdināja par dziļo viltojumu lietotņu briesmām. "Dažas no šīm lietotnēm to pakalpojumu sniegšanas noteikumos ļoti skaidri norāda, ka jūs kopīgojat savu seju ar datu krātuvi," viņš brīdināja.
Dažos nopietnos gadījumos AI rada jutekliskus vai pat pornogrāfiskus attēlus, izmantojot parastu cilvēku sejas. Rezultāts ir tik reālistisks, ka to var izmantot, lai nomelnotu indivīda tēlu, kas ir ārkārtīgi nopietns.
Mākslīgais intelekts var arī iegūt datus, piemēram, pirkstu nospiedumus un acu parakstus, viltojot autentifikāciju un padarot lietotājus uzņēmīgus pret digitāliem noziegumiem.
Ciktāl tas attiecas uz publiskajām debatēm, problēma var būt vēl dziļāka, jo to var radīt ģeneratīvie AI radīt nepatiesus attēlus par politiskiem notikumiem, dabas katastrofām un citiem notikumiem, lai nepatiesi satrauktu populācija.
Pēc ekspertu domām, ļaunprātīgi cilvēki to var izmantot kā manipulācijas veidu.
pikšķerēšana
Pikšķerēšanu, kas ir e-pasta ziņojumu sūtīšana un nesankcionētu tālruņa zvanu veikšana, var arī atvieglot, izmantojot mākslīgo intelektu.
"Tagad viņi [pikšķerēšanas e-pasta ziņotāji] var izveidot šos pikšķerēšanas e-pastus masveidā, izmantojot AI," nesenajā sarunā sacīja Lisa Palmere.
Pirms ģeneratīvā mākslīgā intelekta parādīšanās pikšķerēšanu un citas invazīvas prakses kavēja darba sarežģītība. Tagad darbību var atvieglot un paātrināt viedie tērzēšanas roboti, piemēram, ChatGPT.
Parasti “pikšķerētāji” izņem personisko informāciju no sociālo tīklu profiliem un no turienes sāk sūtīt nevēlamas ziņas uz e-pasta adresēm.
Lisa Palmere arī brīdina, ka ģeneratīvās AI sāk izmantot automātisku tālruņa zvanu veikšanai.
“AI arī uzlabo spēju izveidot viltus tālruņa zvanus. Viss, kas nepieciešams, ir reālai personai ierakstīt trīs runas sekundes. Robots uztver runu un atveido to viltus zvanos,” sacīja eksperts.
Nesen noziedznieki ir izmantojuši AI, lai viltotu pusaudzes nolaupīšana ASV. Meitenes māte saņēma zvanu, kurā viņas meitas balsi atdarināja robots. Diemžēl šādi gadījumi kļūst arvien biežāki.
Dens Mejo, FIB aģents, kurš ir atbildīgs par Fīniksas pilsētas pārraudzību, brīdina, ka viņš pamet profili publiskajos sociālajos tīklos ir risks, jo var sniegt būtisku informāciju noziedznieki.
"Viņi meklēs publiskos profilus, kuros ir pēc iespējas vairāk informācijas par jums, un, kad viņiem tā būs, viņi mēģinās jums kaitēt," sacīja virsnieks.
Nesen amerikāņu prese plaši ziņoja, ka pat Džeroms Pauels, prezidents Federālo rezervju sistēma, Amerikas Savienoto Valstu Centrālā banka, tika maldināta ar izlūkdatu pikšķerēšanu mākslīgs.
Pauels esot saņēmis zvanu, kurā mākslīgais intelekts uzdodas par Ukrainas prezidentu Volodimiru Zeļenski. Vēlāk tika atklāts, ka daži dīkā esošie krievi Džeromam izspēlēja nekas vairāk kā mānīšana. Jebkurā gadījumā brīdinājums tika ieslēgts.
Ļaunprātīgas programmatūras piegāde
Vēl viena satraucoša mākslīgā intelekta spēja ir saistīta ar ļaunprātīgas programmatūras izplatīšanu un uzlabošanu, kas būtībā ir datorvīrusi.
Liza Palmere skaidro, ka kibernoziedznieki izmanto šo kaitīgo programmatūru, lai nozagtu lietotāja informāciju. "Acīmredzot tās būtu tādas lietas kā jūsu paroles banku sistēmām, jūsu paroles medicīniskajiem ierakstiem, jūsu paroles jūsu bērnu skolas ierakstos, neatkarīgi no gadījuma, jebko, kas ir aizsargāts," viņš teica. viņa.
Saskaņā ar Lisa teikto, mākslīgo intelektu var izmantot, lai norādītu veidus, kādos hakeri var sekot, lai piekļūtu pat aizsargātām iekārtām, piemēram, valdības datoriem un lieliem kompānijas.
Tostarp šo likumpārkāpēju galvenie mērķi ir augsta ranga personas, piemēram, valsts ministri, lielie uzņēmēji, likumdevēji un pat prezidenti.
Ransomware ir vēl viens drauds, kas tiek uzlabots, izmantojot mākslīgo intelektu. "Viņi [izpirkuma programmatūra] pārņem kontroli pār jūsu sistēmu, maina jūsu paroles, bloķē jūs no savām sistēmām un pieprasa izpirkuma maksu," viņa nopietni paskaidro.
Visā pasaulē valdības aģentūras un kiberdrošības uzņēmumi jau apzinās AI negatīvos lietojumus.
Vairākās valstīs jau tiek izstrādāti īpaši tiesību akti un drošības protokoli, lai kontrolētu šo jautājumu.