В последние месяцы мы стали свидетелями «бума» появления нового впечатляющего искусственного интеллекта, такого как ChatGPT.
Внезапно эти инструменты меняют и улучшают жизнь многих людей в разных областях, особенно в деятельности, связанной с технологиями.
узнать больше
Эксперты говорят, что ИИ — это сила добра
В ландшафте развития ИИ Китай продвигается вперед, в то время как США…
Однако оказывается, что эти сверхсложные системы можно использовать, так сказать, во зло.
В интервью The New York Post эксперт по кибербезопасности из Гарварда Дж. С. Нельсон Юридическая школа категорически заявила, что есть преступники, использующие ИИ для своей практики. преступления.
«Понятно, что «плохие актеры» теперь имеют доступ к сложным инструментам, которых у них не было раньше. Это дало им возможности, которых у них раньше не было», — сказал он.
Лиза Палмер, главный стратег по искусственному интеллекту в консалтинговой фирме AI Leaders, также поговорила с газетой и предупредила, что эту проблему можно наблюдать во всем мире.
«Это происходит в глобальном масштабе. Это происходит не только в Соединенных Штатах. Это проблема в нескольких странах», — сказала она.
По словам Палмера и Нельсона, тенденция такова, что количество преступлений с использованием ИИ в ближайшие годы будет только увеличиваться. В следующих темах перечислены и объяснены некоторые из основных преступлений этого типа. Продолжай читать!
дипфейк
Одним из основных преступлений, совершаемых с «помощью» ИИ, является так называемый дипфейк, суть которого заключается в создании ложных изображений с использованием лица человека.
Для совершения этих преступлений преступники используют приложения, оснащенные искусственным интеллектом, например те, которые обещают превратить фотографии в картины или даже состарить лица пользователей.
Лиза Палмер также прокомментировала эту тему и предупредила об опасности дипфейковых приложений. «Некоторые из этих приложений в своих условиях обслуживания ясно дают понять, что вы делитесь своим лицом с хранилищем данных», — предупредил он.
В некоторых серьезных случаях ИИ создает чувственные или даже порнографические изображения, используя лица обычных людей. Результат настолько реалистичен, что его можно использовать для очернения имиджа человека, что крайне серьезно.
Искусственный интеллект также может собирать такие данные, как отпечатки пальцев и подписи глаз, фальсифицируя аутентификацию и делая пользователей уязвимыми для цифровых преступлений.
Что касается публичных дебатов, проблема может быть еще глубже, поскольку генеративный ИИ может создавать ложные образы политических событий, стихийных бедствий и других событий, чтобы ложно встревожить Население.
По мнению экспертов, это может быть использовано злоумышленниками как форма манипуляции.
фишинг
Фишинг, который заключается в отправке электронных писем и совершении несанкционированных телефонных звонков, также может быть облегчен с использованием искусственного интеллекта.
«Теперь они [фишинговые фишеры] могут создавать эти фишинговые электронные письма в массовом масштабе с помощью ИИ», — сказала Лиза Палмер в недавнем выступлении.
До появления генеративных искусственных интеллектов фишинг и другие инвазивные практики сдерживались сложностью работы. Теперь эту деятельность можно облегчить и ускорить с помощью интеллектуальных чат-ботов, таких как ChatGPT.
Как правило, «фишеры» удаляют личную информацию из профилей в социальных сетях и оттуда начинают рассылать нежелательные сообщения на адреса электронной почты.
Лиза Палмер также предупреждает, что генеративный ИИ начинает использоваться для автоматических телефонных звонков.
«ИИ также улучшает возможность создания фальшивых телефонных звонков. Все, что требуется, это чтобы реальный человек записал три секунды речи. Робот улавливает речь и воспроизводит ее в ложных звонках», — рассказал специалист.
Недавно преступники использовали ИИ для подделки похищение подростка в США. Мать девочки получила звонок, в котором робот имитировал голос ее дочери. К сожалению, таких случаев становится все больше.
Дэн Мэйо, агент ФБР, отвечающий за городское управление Феникса, предупреждает, что отъезд профили в социальных сетях, открытые для публики, представляют собой риск, так как они могут предоставить важную информацию для преступники.
«Они будут искать общедоступные профили, в которых есть как можно больше информации о вас, и когда они у них появятся, они попытаются навредить вам», — сказал офицер.
Недавно в американской прессе широко сообщалось, что даже Джером Пауэлл, президент Федеральной резервной системы, Центральный банк Соединенных Штатов, был обманут разведывательным фишингом искусственный.
Пауэлл якобы получил звонок, в котором искусственный интеллект выдавал себя за президента Украины Владимира Зеленского. Позже выяснилось, что это был не более чем розыгрыш, который разыграли над Джеромом какие-то досужие русские. Так или иначе, тревога была включена.
Доставка вредоносных программ
Еще одна тревожная способность искусственного интеллекта связана с распространением и усовершенствованием вредоносных программ, которые в основном представляют собой компьютерные вирусы.
Лиза Палмер объясняет, что киберпреступники используют эти вредоносные программы для кражи информации о пользователях. «Очевидно, что это могут быть такие вещи, как ваши пароли к банковским системам, ваши пароли к медицинским записям, ваши пароли в школьных записях ваших детей, в любом случае, все, что защищено», — сказал он. она.
По словам Лизы, искусственный интеллект можно использовать для того, чтобы указать, как хакеры могут могут следовать, чтобы получить доступ даже к защищенным машинам, таким как правительственные компьютеры и большие компании.
Даже основными целями этих преступников являются высокопоставленные лица, такие как государственные министры, крупные бизнесмены, законодатели и даже президенты.
Программа-вымогатель — еще одна угроза, которую улучшают с помощью искусственного интеллекта. «Они [программы-вымогатели] получают контроль над вашей системой, меняют ваши пароли, блокируют доступ к своим системам и требуют выкуп», — серьезно объясняет она.
Во всем мире правительственные учреждения и компании, занимающиеся кибербезопасностью, уже знают о негативных последствиях использования ИИ.
Специальное законодательство и протоколы безопасности для контроля над этим вопросом уже разрабатываются в нескольких странах.