През последните месеци станахме свидетели на „бум“ в появата на нов и впечатляващ изкуствен интелект, като ChatGPT.
Изведнъж тези инструменти променят и подобряват живота на много хора в различни области, особено в дейности, включващи технологии.
виж повече
Експертите казват, че AI е сила за добро
В пейзажа за развитие на ИИ Китай напредва, докато САЩ...
Оказва се обаче, че тези ултра-сложни системи могат да се използват и за зло, така да се каже.
В интервю за The New York Post експертът по киберсигурност от Харвард Дж. С. Нелсън Юридически факултет, беше категоричен в твърдението, че има престъпници, които се възползват от ИИ, за да практикуват престъпления.
„Ясно е, че „лошите актьори“ вече имат достъп до сложни инструменти, които не са имали преди. Това им даде възможности, които не са имали преди“, каза той.
Лиза Палмър, която е главен стратег за ИИ в консултантската фирма AI Leaders, също говори пред вестника и предупреди, че този проблем може да се наблюдава по целия свят.
„Това се случва в глобален мащаб. Това не е нещо, което се случва само в Съединените щати. Това е проблем в няколко страни“, каза тя.
Според Палмър и Нелсън тенденцията е, че случаите на престъпления, използващи AI, само ще се увеличават през следващите години. В следващите теми са изброени и обяснени някои от основните престъпления от този вид. Продължавай да четеш!
deepfake
Едно от основните престъпления, извършени с „помощта“ на AI, е така нареченият deepfake, който основно се състои в създаване на фалшиви изображения с помощта на лицето на човек.
За да извършат тези престъпления, престъпниците използват приложения, оборудвани с изкуствен интелект, като тези, които обещават да превърнат снимки в картини или дори да състаряват лицата на потребителите.
Лиза Палмър също коментира тази тема и предупреди за опасностите от приложенията deepfake. „Някои от тези приложения, в техните условия за обслужване, показват много ясно, че споделяте лицето си с хранилището за данни“, предупреди той.
В някои сериозни случаи AI създават чувствени или дори порнографски изображения, използвайки лицата на обикновени хора. Резултатът е толкова реалистичен, че може да се използва за уронване на образа на индивида, което е изключително сериозно.
Изкуственият интелект може също да улавя данни като пръстови отпечатъци и очни подписи, фалшифицирайки удостоверяването и оставяйки потребителите податливи на цифрови престъпления.
Що се отнася до публичния дебат, проблемът може да е още по-дълбок, тъй като генеративните ИИ могат създават фалшиви образи на политически събития, природни бедствия и други събития, за да алармират фалшиво население.
Според експерти това може да се използва от злонамерени хора като форма на манипулация.
фишинг
Фишингът, който представлява изпращане на имейли и извършване на неоторизирани телефонни обаждания, също може да бъде улеснен с използването на изкуствен интелект.
„Сега те [фишинг фишърите] могат да създават тези фишинг имейли в огромен мащаб, използвайки AI,“ каза Лиза Палмър в неотдавнашен разговор.
Преди появата на генеративния изкуствен интелект, фишингът и други инвазивни практики бяха възпрепятствани от сложността на работата. Сега дейността може да бъде улеснена и ускорена от интелигентни чатботове като ChatGPT.
Като цяло „фишърите“ премахват лична информация от профили в социалните мрежи и оттам започват да изпращат нежелани съобщения до имейл адреси.
Лиза Палмър също предупреждава, че генеративните AI започват да се използват за извършване на автоматични телефонни разговори.
„AI също така подобрява способността за създаване на фалшиви телефонни обаждания. Всичко, което се изисква, е истински човек да запише три секунди реч. Роботът улавя речта и я възпроизвежда във фалшиви разговори”, каза специалистът.
Наскоро престъпниците са използвали AI, за да фалшифицират отвличане на тийнейджър в САЩ. Майката на момиченцето получила обаждане, в което гласът на дъщеря й бил имитиран от робота. За съжаление подобни случаи стават все по-чести.
Дан Мейо, агент на ФБР, който отговаря за управлението на град Финикс, предупреждава, че напускането профили в социални мрежи, отворени за обществеността, е риск, тъй като може да предостави подходяща информация на престъпници.
„Те ще търсят публични профили, които имат възможно най-много информация за вас, и когато разполагат с това, ще се опитат да ви навредят“, каза служителят.
Наскоро беше широко съобщено от американската преса, че дори Джером Пауъл, президент на Федералния резерв, централната банка на Съединените щати, беше измамен от разузнавателен фишинг изкуствени.
Твърди се, че Пауъл е получил обаждане, в което AI се е представял за президента на Украйна Володимир Зеленски. По-късно се разбра, че това не е нищо повече от измама, която някои безделни руснаци са изиграли с Джером. Както и да е, сигналът беше включен.
Доставка на зловреден софтуер
Друга тревожна способност на изкуствения интелект е свързана с разпространението и усъвършенстването на зловреден софтуер, който на практика са компютърни вируси.
Лиза Палмър обяснява, че киберпрестъпниците използват този зловреден софтуер, за да откраднат потребителска информация. „Очевидно ще бъдат неща като вашите пароли за банкови системи, вашите пароли за медицински досиета, вашите пароли в училищните записи на вашите деца, независимо от случая, всичко, което е защитено“, каза той. тя.
Според Лиза, изкуственият интелект може да се използва, за да посочи начини, по които хакерите може да следва, за да получи достъп дори до защитени машини като правителствени компютри и големи компании.
Дори основните мишени на тези престъпници са високопоставени лица, като държавни министри, големи бизнесмени, законодатели и дори президенти.
Ransomware е друга заплаха, която се подобрява с помощта на изкуствен интелект. „Те [ransomware] поемат контрола върху вашата система, променят паролите ви, заключват ви от собствените си системи и изискват откуп“, обяснява тя сериозно.
По света правителствените агенции и компаниите за киберсигурност вече са наясно с отрицателните употреби, които AI може да има.
Специфично законодателство и протоколи за сигурност за контролиране на този въпрос вече се разработват в няколко страни.