Under de senaste månaderna har vi sett en "boom" i framväxten av ny och imponerande artificiell intelligens, som ChatGPT.
Plötsligt förändrar och förbättrar dessa verktyg livet för många människor inom olika områden, särskilt i aktiviteter som involverar teknik.
se mer
Experter säger att AI är en kraft för det goda
I AI-utvecklingslandskapet går Kina framåt medan USA...
Det visar sig dock att dessa ultrasofistikerade system också kan användas för ondska, så att säga.
I en intervju med The New York Post, Harvard cybersäkerhetsexpert J.S Nelson Law School, var kategorisk i att påstå att det finns kriminella som utnyttjar AI för att träna brott.
"Det är tydligt att "dåliga skådespelare" nu har tillgång till sofistikerade verktyg som de inte hade tidigare. Det gav dem möjligheter de inte hade tidigare”, sa han.
Lisa Palmer, som är chef för AI-strateg på konsultföretaget AI Leaders, pratade också med tidningen och varnade för att detta problem kan observeras över hela världen.
"Det händer på global nivå. Det här är inget som bara händer i USA. Det är ett problem i flera länder, säger hon.
Enligt Palmer och Nelson är trenden att förekomsten av brott som använder AI bara kommer att öka under de kommande åren. I följande ämnen listas och förklaras några av de huvudsakliga brotten av denna typ. Fortsätt läsa!
deepfake
Ett av huvudbrotten som begås med "hjälp" av AI är den så kallade deepfake, som i grunden består av att skapa falska bilder med hjälp av en persons ansikte.
För att begå dessa brott använder kriminella applikationer utrustade med artificiell intelligens, till exempel de som lovar att förvandla foton till målningar, eller till och med åldra användarnas ansikten.
Lisa Palmer kommenterade också detta ämne och varnade för farorna med deepfake-appar. "Vissa av dessa appar, i deras användarvillkor, gör det väldigt tydligt att du delar ditt ansikte med datalagret," varnade han.
I vissa allvarliga fall skapar AI: er sensuella eller till och med pornografiska bilder med hjälp av vanliga människors ansikten. Resultatet är så realistiskt att det kan användas för att förringa individens bild, vilket är extremt allvarligt.
Artificiell intelligens kan också fånga data som fingeravtryck och ögonsignaturer, förfalska autentisering och lämna användarna mottagliga för digitala brott.
När det gäller den offentliga debatten kan problemet vara ännu djupare, som generativa AI: er kan skapa falska bilder av politiska händelser, naturkatastrofer och andra händelser för att falskt alarmera befolkning.
Enligt experter kan detta användas av illvilliga människor som en form av manipulation.
nätfiske
Nätfiske, som är att skicka e-post och ringa obehöriga telefonsamtal, kan också underlättas med användning av artificiell intelligens.
"Nu kan de [nätfiskefiskare] skapa dessa nätfiske-e-postmeddelanden i stor skala med hjälp av AI: er", sa Lisa Palmer i ett nyligen föreläsning.
Innan uppkomsten av generativa artificiella intelligenser hämmades nätfiske och andra invasiva metoder av jobbets komplexitet. Nu kan aktiviteten underlättas och accelereras av intelligenta chatbots som ChatGPT.
I allmänhet tar "nätfiskare" bort personlig information från profiler på sociala nätverk och börjar därifrån skicka ovälkomna meddelanden till e-postadresser.
Lisa Palmer varnar också för att generativa AI: er börjar användas för att ringa automatiska telefonsamtal.
"AI förbättrar också förmågan att skapa falska telefonsamtal. Allt som krävs är att en riktig person spelar in tre sekunders tal. Roboten fångar talet och återger det i falska samtal”, sa experten.
Nyligen har kriminella använt en AI för att förfalska kidnappning av en tonåring i USA. Flickans mamma fick ett samtal där hennes dotters röst imiterades av roboten. Tyvärr blir sådana här fall allt vanligare.
Dan Mayo, en FBI-agent som är ansvarig för Phoenix city superintendent, varnar för att lämna profiler på sociala nätverk som är öppna för allmänheten är en risk, eftersom det kan ge relevant information till brottslingar.
"De kommer att leta efter offentliga profiler som har så mycket information om dig som möjligt, och när de har det kommer de att försöka skada dig," sa polisen.
Nyligen rapporterades det allmänt av amerikansk press att även Jerome Powell, president från Federal Reserve, USA: s centralbank, blev lurad av ett underrättelsenätfiske artificiell.
Powell ska ha fått ett samtal där en AI imiterade Ukrainas president Volodymyr Zelensky. Det upptäcktes senare att det inte var något annat än en bluff att några lediga ryssar spelade på Jerome. Hur som helst, varningen var påslagen.
Leverans av skadlig programvara
En annan oroande förmåga hos artificiell intelligens är relaterad till spridning och förbättring av skadlig programvara, som i grunden är datavirus.
Lisa Palmer förklarar att cyberbrottslingar använder dessa skadliga program för att stjäla användarinformation. "Självklart skulle det vara saker som dina lösenord till banksystem, dina lösenord till journaler, din lösenord på dina barns skolregister, oavsett vad som är fallet, allt som är skyddat, sa han. hon.
Enligt Lisa kan artificiell intelligens användas för att peka ut sätt på vilka hackare kan följa för att få tillgång även till skyddade maskiner som statliga datorer och stora företag.
De främsta målen för dessa brottslingar är bland annat högt uppsatta personer, såsom statsministrar, stora affärsmän, lagstiftare och till och med presidenter.
Ransomware är ett annat hot som förbättras med hjälp av artificiell intelligens. "De [ransomware] tar kontroll över ditt system, ändrar dina lösenord, låser dig ute från sina egna system och kräver en lösensumma", förklarar hon allvarligt.
Runt om i världen är statliga myndigheter och cybersäkerhetsföretag redan medvetna om de negativa användningarna som AI kan ha.
Särskild lagstiftning och säkerhetsprotokoll för att kontrollera detta är redan under utveckling i flera länder.