В останні місяці ми стали свідками «буму» появи нового вражаючого штучного інтелекту, такого як ChatGPT.
Раптом ці інструменти змінюють і покращують життя багатьох людей у різних сферах, особливо в діяльності, пов’язаній із технологіями.
побачити більше
Експерти кажуть, що штучний інтелект є силою добра
У сфері розвитку AI Китай просувається, а США…
Однак виявляється, що ці надскладні системи також можна використовувати, так би мовити, на зло.
В інтерв’ю The New York Post експерт з кібербезпеки Гарвардського університету Дж. С. Нельсон Юридичний факультет був категоричним, заявивши, що є злочинці, які використовують ШІ для практики злочини.
«Зрозуміло, що «погані актори» тепер мають доступ до складних інструментів, яких у них не було раніше. Це дало їм можливості, яких вони не мали раніше», – сказав він.
Ліза Палмер, яка є головним стратегом ШІ в консалтинговій фірмі AI Leaders, також поговорила з газетою та попередила, що ця проблема може спостерігатися в усьому світі.
«Це відбувається в глобальному масштабі. Це не те, що відбувається тільки в Сполучених Штатах. Це проблема в кількох країнах", - сказала вона.
За словами Палмера і Нельсона, тенденція полягає в тому, що в найближчі роки кількість злочинів з використанням штучного інтелекту буде тільки зростати. У наступних темах перераховані та пояснені деякі з основних злочинів цього типу. Продовжуйте читати!
deepfake
Одним із основних злочинів, скоєних за допомогою «штучного інтелекту», є так званий дипфейк, який в основному полягає у створенні неправдивих зображень за допомогою обличчя людини.
Для вчинення цих злочинів злочинці використовують програми, оснащені штучним інтелектом, наприклад ті, які обіцяють перетворити фотографії на картини або навіть зістарити обличчя користувачів.
Ліза Палмер також прокоментувала цю тему та попередила про небезпеку додатків deepfake. «Умови обслуговування деяких із цих додатків чітко дають зрозуміти, що ви ділитеся своїм обличчям із сховищем даних», — попередив він.
У деяких серйозних випадках штучний інтелект створює чуттєві або навіть порнографічні зображення, використовуючи обличчя звичайних людей. Результат настільки реалістичний, що його можна використати для приниження іміджу особи, що є надзвичайно серйозним.
Штучний інтелект також може фіксувати такі дані, як відбитки пальців і підписи очей, фальсифікуючи автентифікацію та роблячи користувачів вразливими до цифрових злочинів.
Що стосується публічних дебатів, то проблема може бути навіть глибшою, оскільки це може зробити генеративний ШІ створювати неправдиві зображення політичних подій, стихійних лих та інших подій, щоб хибно тривожити населення.
На думку експертів, це може бути використано зловмисниками як форма маніпуляції.
фішинг
Фішинг, тобто надсилання електронних листів і здійснення несанкціонованих телефонних дзвінків, також можна полегшити за допомогою штучного інтелекту.
«Тепер вони [фішингові фішери] можуть масово створювати ці фішингові електронні листи за допомогою штучного інтелекту», — сказала Ліза Палмер у нещодавній промові.
До появи генеративного штучного інтелекту фішинг та інші інвазивні методи перешкоджали через складність роботи. Тепер цю діяльність можна полегшити та прискорити за допомогою інтелектуальних чат-ботів, таких як ChatGPT.
Загалом «фішери» видаляють особисту інформацію з профілів у соціальних мережах, а звідти починають надсилати небажані повідомлення на електронні адреси.
Ліза Палмер також попереджає, що генеративний ШІ починає використовуватися для здійснення автоматичних телефонних дзвінків.
«Штучний інтелект також покращує здатність створювати підроблені телефонні дзвінки. Реальній людині потрібно лише записати три секунди мови. Робот захоплює мову і відтворює її у фейкових дзвінках», – зазначив експерт.
Нещодавно злочинці використовували ШІ для підробки викрадення підлітка в США. Матері дівчинки надійшов дзвінок, у якому робот імітував голос дочки. На жаль, подібних випадків стає все більше.
Ден Мейо, агент ФБР, який відповідає за управління міста Фенікс, попереджає, що відхід профілі в соціальних мережах, відкриті для громадськості, є ризиком, оскільки вони можуть надати відповідну інформацію злочинці.
«Вони шукатимуть загальнодоступні профілі, які містять якомога більше інформації про вас, і коли вони її отримають, вони намагатимуться завдати вам шкоди», — сказав офіцер.
Нещодавно американська преса широко повідомляла, що навіть Джером Пауелл, президент Федерального резерву, Центрального банку Сполучених Штатів, був ошуканий фішингом розвідки штучні.
Пауелл нібито отримав дзвінок, у якому штучний інтелект видав себе за президента України Володимира Зеленського. Пізніше виявилося, що це була не що інше, як містифікація, яку деякі неробі росіяни підіграли Джерому. У будь-якому випадку оповіщення було включено.
Доставка шкідливих програм
Ще одна здатність штучного інтелекту, яка викликає занепокоєння, пов’язана з розповсюдженням і вдосконаленням шкідливих програм, які в основному є комп’ютерними вірусами.
Ліза Палмер пояснює, що кіберзлочинці використовують це шкідливе програмне забезпечення для викрадення інформації користувача. «Очевидно, це будуть такі речі, як ваші паролі до банківських систем, ваші паролі до медичних записів, ваші паролі в шкільних записах ваших дітей, у будь-якому випадку, все, що захищено", - сказав він. вона.
За словами Лізи, штучний інтелект можна використовувати, щоб вказати шляхи, якими хакери можна стежити, щоб отримати доступ навіть до захищених машин, таких як державні комп’ютери та великі компаній.
Зокрема, головними цілями цих правопорушників є високопоставлені особи, такі як державні міністри, великі бізнесмени, законодавці та навіть президенти.
Програмне забезпечення-вимагач — це ще одна загроза, яку вдосконалюють за допомогою штучного інтелекту. «Вони [програми-вимагачі] беруть під контроль вашу систему, змінюють ваші паролі, блокують вас у своїх системах і вимагають викуп», — серйозно пояснює вона.
Урядові установи та компанії з кібербезпеки в усьому світі вже знають про негативне використання ШІ.
Спеціальне законодавство та протоколи безпеки для контролю цього питання вже розробляються в кількох країнах.