Viime kuukausina olemme nähneet uuden ja vaikuttavan tekoälyn, kuten ChatGPT: n, ilmaantumisen "buumin".
Yhtäkkiä nämä työkalut muuttavat ja parantavat monien ihmisten elämää eri alueilla, erityisesti teknologiaan liittyvissä toimissa.
Katso lisää
Asiantuntijat sanovat, että tekoäly on hyvää edistävä voima
Tekoälykehitysmaailmassa Kiina edistyy, kun taas Yhdysvallat…
Kuitenkin käy ilmi, että näitä erittäin kehittyneitä järjestelmiä voidaan käyttää myös niin sanotusti pahaan.
The New York Postin haastattelussa Harvardin kyberturvallisuusasiantuntija J.S Nelson Law School, oli kategorinen todetessaan, että rikolliset käyttävät tekoälyä hyväkseen harjoitteluun rikoksia.
"On selvää, että "huonoilla näyttelijöillä" on nyt pääsy kehittyneisiin työkaluihin, joita heillä ei ollut aiemmin. Se antoi heille mahdollisuuksia, joita heillä ei ennen ollut”, hän sanoi.
Lisa Palmer, joka on konsulttiyrityksen AI Leadersin johtava tekoälystrategi, puhui myös sanomalehdelle ja varoitti, että tämä ongelma voidaan havaita maailmanlaajuisesti.
"Se tapahtuu maailmanlaajuisesti. Tämä ei ole jotain, mitä tapahtuu vain Yhdysvalloissa. Se on ongelma useissa maissa", hän sanoi.
Palmerin ja Nelsonin mukaan trendi on, että tekoälyä käyttävien rikosten esiintyminen vain lisääntyy tulevina vuosina. Seuraavissa aiheissa luetellaan ja selitetään joitakin tämän tyyppisiä päärikoksia. Jatka lukemista!
syvä väärennös
Yksi tärkeimmistä tekoälyn "avulla" tehdyistä rikoksista on ns. deepfake, joka pohjimmiltaan koostuu väärien kuvien luomisesta henkilön kasvoilla.
Näiden rikosten tekemiseen rikolliset käyttävät tekoälyllä varustettuja sovelluksia, kuten sellaisia, jotka lupaavat muuttaa valokuvat maalauksiksi tai jopa vanhentaa käyttäjien kasvoja.
Lisa Palmer kommentoi myös tätä aihetta ja varoitti deepfake-sovellusten vaaroista. "Jotkut näistä sovelluksista tekevät käyttöehdoissaan erittäin selväksi, että jaat kasvosi tietokaupan kanssa", hän varoitti.
Joissakin vakavissa tapauksissa tekoälyt luovat aistillisia tai jopa pornografisia kuvia käyttämällä tavallisten ihmisten kasvoja. Tulos on niin realistinen, että sillä voidaan halventaa yksilön imagoa, mikä on äärimmäisen vakavaa.
Tekoäly voi myös kaapata tietoja, kuten sormenjälkiä ja silmien allekirjoituksia, väärentää todennusta ja jättää käyttäjät alttiiksi digitaalisille rikoksille.
Mitä tulee julkiseen keskusteluun, ongelma voi olla vieläkin syvempi, kuten generatiiviset tekoälyt voivat luoda vääriä kuvia poliittisista tapahtumista, luonnonkatastrofeista ja muista tapahtumista hälyttääkseen väärin väestö.
Asiantuntijoiden mukaan pahantahtoiset ihmiset voivat käyttää tätä manipulointimuotona.
phishing
Tietojenkalastelua, eli sähköpostien lähettämistä ja luvattomien puheluiden soittamista, voidaan myös helpottaa tekoälyn avulla.
"Nyt he [phishing-huijarit] voivat luoda näitä phishing-sähköposteja massiivisessa mittakaavassa tekoälyillä", sanoi Lisa Palmer äskettäisessä puheessaan.
Ennen generatiivisten tekoälyjen syntyä työn monimutkaisuus haittasi tietojenkalastelua ja muita invasiivisia käytäntöjä. Nyt toimintaa voidaan helpottaa ja nopeuttaa älykkäillä chatbotilla, kuten ChatGPT.
Yleensä "tietojenkalastelijat" poistavat henkilökohtaisia tietoja sosiaalisten verkostojen profiileista ja alkavat lähettää ei-toivottuja viestejä sähköpostiosoitteisiin.
Lisa Palmer varoittaa myös, että generatiivisia tekoälyjä aletaan käyttää automaattisten puheluiden soittamiseen.
”Tekoäly parantaa myös kykyä luoda väärennettyjä puheluita. Tarvitaan vain, että todellinen henkilö nauhoittaa kolme sekuntia puhetta. Robotti vangitsee puheen ja toistaa sen valepuheluissa”, asiantuntija sanoi.
Viime aikoina rikolliset ovat käyttäneet tekoälyä väärentämiseen teini-ikäisen sieppauksesta Yhdysvalloissa. Tytön äiti sai puhelun, jossa robotti matkii hänen tyttärensä ääntä. Valitettavasti tällaiset tapaukset ovat yleistymässä.
Dan Mayo, FBI-agentti, joka vastaa Phoenixin kaupungin hallinnosta, varoittaa lähtevänsä Yleisölle avoimien sosiaalisten verkostojen profiilit ovat riski, koska ne voivat tarjota olennaista tietoa rikollisia.
"He etsivät julkisia profiileja, joissa on mahdollisimman paljon tietoa sinusta, ja kun heillä on se, he yrittävät vahingoittaa sinua", poliisi sanoi.
Äskettäin amerikkalaislehdistö uutisoi laajasti, että jopa Jerome Powell, presidentti Yhdysvaltain keskuspankki Federal Reserve joutui tiedustelupalvelun huijatuksi. keinotekoinen.
Powellin väitetään saaneen puhelun, jossa tekoäly matkii Ukrainan presidenttiä Volodymyr Zelenskiä. Myöhemmin havaittiin, että se oli vain huijaus, jonka jotkut joutilaat venäläiset leikkivät Jeromelle. Joka tapauksessa hälytys laitettiin päälle.
Haittaohjelmien toimitus
Toinen tekoälyn huolestuttava kyky liittyy haittaohjelmien levittämiseen ja parantamiseen, jotka ovat pohjimmiltaan tietokoneviruksia.
Lisa Palmer selittää, että kyberrikolliset käyttävät näitä haittaohjelmia käyttäjätietojen varastamiseen. "Ilmeisesti kyseessä olisivat salasanasi pankkijärjestelmiin, salasanasi potilastietoihin, salasanoja lastesi koulukirjoissa, olipa asia mikä tahansa, mikä tahansa suojattu", hän sanoi. hän.
Lisan mukaan tekoälyä voidaan käyttää osoittamaan tapoja, joilla hakkerit voi seurata päästäkseen jopa suojattuihin koneisiin, kuten valtion ja suuriin tietokoneisiin yritykset.
Myös näiden rikollisten pääkohteet ovat korkea-arvoisia henkilöitä, kuten valtioministerit, suurliikemiehet, lainsäätäjät ja jopa presidentit.
Ransomware on toinen uhka, jota parannetaan tekoälyn avulla. "He [lunnasohjelmat] ottavat järjestelmän hallintaansa, vaihtavat salasanasi, sulkevat sinut pois omista järjestelmistään ja vaativat lunnaita", hän selittää vakavasti.
Kaikkialla maailmassa valtion virastot ja kyberturvallisuusyritykset ovat jo tietoisia tekoälyn kielteisistä käyttötavoista.
Erityislainsäädäntöä ja turvaprotokollia tämän asian hallitsemiseksi kehitetään jo useissa maissa.