Pastaraisiais mėnesiais matėme naujo ir įspūdingo dirbtinio intelekto, pvz., ChatGPT, atsiradimo „bumą“.
Staiga šios priemonės keičia ir gerina daugelio žmonių gyvenimus įvairiose srityse, ypač veikloje, susijusioje su technologijomis.
Žiūrėti daugiau
Ekspertai sako, kad dirbtinis intelektas yra gėrio jėga
AI vystymosi srityje Kinija žengia į priekį, o JAV…
Tačiau pasirodo, kad šios itin sudėtingos sistemos taip pat gali būti naudojamos blogiui.
Interviu „The New York Post“ Harvardo kibernetinio saugumo ekspertas J. S. Nelsonas Teisės fakultetas buvo kategoriškas teigdamas, kad yra nusikaltėlių, kurie naudojasi AI praktikai nusikaltimų.
„Akivaizdu, kad „blogi aktoriai“ dabar turi prieigą prie sudėtingų įrankių, kurių anksčiau neturėjo. Tai suteikė jiems galimybių, kurių anksčiau neturėjo“, – sakė jis.
Lisa Palmer, konsultacinės įmonės AI Leaders vyriausioji dirbtinio intelekto strategė, taip pat kalbėjo su laikraščiu ir perspėjo, kad ši problema pastebima visame pasaulyje.
„Tai vyksta pasauliniu mastu. Tai nėra kažkas, kas vyksta tik Jungtinėse Valstijose. Tai yra problema keliose šalyse“, – sakė ji.
Palmerio ir Nelsono teigimu, tendencija yra tokia, kad nusikaltimų, naudojant AI, atvejų ateinančiais metais tik daugės. Tolesnėse temose išvardijami ir paaiškinami kai kurie pagrindiniai šio tipo nusikaltimai. Skaitykite toliau!
Deepfake
Vienas iš pagrindinių nusikaltimų, padarytų naudojant AI „pagalba“, yra vadinamasis gilus padirbinėjimas, kurį iš esmės sudaro klaidingų vaizdų kūrimas naudojant žmogaus veidą.
Norėdami įvykdyti šiuos nusikaltimus, nusikaltėliai naudoja programas, turinčias dirbtinį intelektą, pavyzdžiui, tas, kurios žada nuotraukas paversti paveikslais ar net sendina naudotojų veidus.
Lisa Palmer taip pat pakomentavo šią temą ir perspėjo apie „deepfake“ programų pavojų. „Kai kurios iš šių programų paslaugų teikimo sąlygose labai aiškiai parodo, kad dalinatės savo veidu su duomenų saugykla“, – perspėjo jis.
Kai kuriais rimtais atvejais dirbtinis intelektas sukuria jausmingus ar net pornografinius vaizdus naudodamas paprastų žmonių veidus. Rezultatas yra toks tikroviškas, kad juo galima sumenkinti asmens įvaizdį, o tai yra labai rimta.
Dirbtinis intelektas taip pat gali užfiksuoti tokius duomenis kaip pirštų atspaudai ir akių parašai, suklastoti autentifikavimą ir padaryti vartotojus jautrius skaitmeniniams nusikaltimams.
Kalbant apie viešas diskusijas, problema gali būti dar gilesnė, nes tai gali padaryti generacinės AI sukurti klaidingus politinių įvykių, stichinių nelaimių ir kitų įvykių vaizdus, kad sukeltumėte klaidingą nerimą gyventojų.
Specialistų teigimu, piktybiški žmonės tuo gali pasinaudoti kaip manipuliavimo forma.
sukčiavimas
Sukčiavimą, ty el. laiškų siuntimą ir neteisėtus telefono skambučius, taip pat galima palengvinti naudojant dirbtinį intelektą.
„Dabar jie [sukčiaujantys sukčiaujantys asmenys] gali sukurti šiuos sukčiavimo el. laiškus didžiuliu mastu, naudodami AI“, – neseniai kalbėjo Lisa Palmer.
Prieš atsirandant generaciniam dirbtiniam intelektui, sukčiavimą ir kitas invazines praktikas stabdė darbo sudėtingumas. Dabar veiklą gali palengvinti ir paspartinti išmanieji pokalbių robotai, tokie kaip „ChatGPT“.
Apskritai, „sukčiuotojai“ pašalina asmeninę informaciją iš socialinių tinklų profilių ir iš ten pradeda siųsti nepageidaujamus pranešimus el. pašto adresais.
Lisa Palmer taip pat perspėja, kad generatyvieji AI pradedami naudoti automatiniams telefono skambučiams.
„AI taip pat tobulina galimybę kurti netikrus telefono skambučius. Tereikia, kad tikras asmuo įrašytų tris kalbos sekundes. Robotas fiksuoja kalbą ir atkuria ją netikrų skambučių metu“, – sakė ekspertas.
Neseniai nusikaltėliai naudojo dirbtinį intelektą, kad suklastotų paauglės pagrobimas JAV. Merginos mama sulaukė skambučio, kurio metu jos dukros balsą imitavo robotas. Deja, tokių atvejų pasitaiko vis dažniau.
FTB agentas Danas Mayo, atsakingas už Finikso miesto priežiūrą, perspėja, kad išvyksta profiliai visuomenei atviruose socialiniuose tinkluose yra rizika, nes gali suteikti atitinkamos informacijos nusikaltėliai.
„Jie ieškos viešų profilių, kuriuose būtų kuo daugiau informacijos apie jus, o kai ją turės, bandys jums pakenkti“, – sakė pareigūnas.
Neseniai Amerikos spauda plačiai pranešė, kad net Jerome'as Powellas, prezidentas Federalinio rezervo, JAV centrinio banko, buvo apgautas žvalgybos sukčiavimo dirbtinis.
Powellas tariamai sulaukė skambučio, kuriame dirbtinis intelektas apsimetė Ukrainos prezidentu Volodymyru Zelenskiu. Vėliau buvo išsiaiškinta, kad tai buvo ne kas kita, kaip apgaulė, kurią kai kurie nevykę rusai žaidė prieš Jeronimą. Šiaip ar taip, perspėjimas buvo įjungtas.
Kenkėjiškų programų pristatymas
Kitas nerimą keliantis dirbtinio intelekto gebėjimas yra susijęs su kenkėjiškų programų, kurios iš esmės yra kompiuteriniai virusai, platinimu ir tobulinimu.
Lisa Palmer paaiškina, kad kibernetiniai nusikaltėliai naudoja šią kenkėjišką programinę įrangą, kad pavogtų vartotojo informaciją. „Akivaizdu, kad tai būtų tokie dalykai kaip jūsų banko sistemų slaptažodžiai, medicininių įrašų slaptažodžiai, jūsų slaptažodžiai jūsų vaikų mokyklos įrašuose, kad ir koks būtų atvejis, viskas, kas yra apsaugota“, – sakė jis. ji.
Anot Lisos, dirbtinis intelektas gali būti naudojamas siekiant nurodyti būdus, kaip įsilaužėliai gali sekti, kad gautų prieigą net prie apsaugotų mašinų, tokių kaip vyriausybės kompiuteriai ir dideli įmonių.
Netgi pagrindiniai šių nusikaltėlių taikiniai yra aukšto rango asmenys, tokie kaip valstybės ministrai, stambūs verslininkai, įstatymų leidėjai ir net prezidentai.
Ransomware yra dar viena grėsmė, kuri tobulinama naudojant dirbtinį intelektą. „Jie [išpirkos reikalaujančios programos] perima jūsų sistemos valdymą, pakeičia slaptažodžius, užblokuoja jus iš savo sistemų ir reikalauja išpirkos“, – rimtai aiškina ji.
Visame pasaulyje vyriausybinės agentūros ir kibernetinio saugumo įmonės jau žino apie neigiamą AI naudojimą.
Konkretūs teisės aktai ir saugumo protokolai šiam klausimui kontroliuoti jau yra kuriami keliose šalyse.