Искусственный интеллект становится все более доступным и применяется в инструментах, с которыми могут работать многие люди.
Это продвижение представляет собой новые функциональные возможности и удобство, но в то же время это также открытый путь для преступлений и незаконных действий.
узнать больше
В ландшафте развития ИИ Китай продвигается вперед, в то время как США…
Узнайте, как взаимодействовать с Bard, новым чат-ботом и конкурентом Google…
Поэтому часть текущей дискуссии между организациями и правительствами касается вопроса о том, является ли искусственный интеллект технологии который будет принят, чтобы негативно влиять на людей с помощью различных видов интернет-мошенничества.
Опасности доступности ИИ
Несмотря на создание почти кинематографический спор, использование искусственный интеллект может быть тонкая грань между положительным использованием инструментов и серьезным киберпреступлением.
По словам Мэтью Кэдвелла, профессора компьютерных наук UCL (Университетский колледж Лондона), распространение ИИ предлагает все возможности для технологии становятся все более простыми в использовании, поэтому нет необходимости обладать высокими техническими знаниями для адаптации инструменты.
Таким образом, даже нынешние мошенничества, которые уже практикуются в Интернете, могут эволюционировать с помощью ИИ. Это криминальное развитие также упрощает обмен и коммерциализацию результатов мошенничества.
Поэтому, думая об индивидуальных мерах предосторожности, которые необходимо соблюдать при использовании Интернета и Инструменты ИИ, мы разделяем четыре типа незаконных действий, которые можно улучшить с помощью технологии. Продолжайте читать, узнавайте и следите за обновлениями!
4 незаконных действия, которые могут развиться с помощью искусственного интеллекта
дипфейк
Преступление, которое уже циркулирует в социальных сетях, — это Deepfake. В этой практике можно «имитировать» лицо человека, ставя его в ложное положение. Например, видео, где человек делает или говорит то, чего никогда не было.
Инструменты искусственного интеллекта для моделирования разговоров
Автоматизация уже широко используется для онлайн-помощи в банках, магазинах и госуслугах. В этих системах создается симуляция разговора для ускорения обслуживания.
Однако с искусственным интеллектом эти системы все ближе и ближе к продвинутой симуляции реального разговора.
Таким образом, преступники могут улучшить свои аферы, взаимодействуя с людьми и получая данные и личную информацию.
Принудительное проникновение в сети и системы
Этот метод вторжения пытается обнаружить коды и пароли для доступа к системам, веб-сайтам, социальным сетям и другим защищенным доменам.
Благодаря искусственному интеллекту декодирование оказывается более быстрым и эффективным. Таким образом, можно было бы протестировать многочисленные комбинации паролей за несколько минут, выйдя за рамки уже используемых взломанных систем.
фишинг
Наконец, последняя афера, которую можно улучшить с помощью ИИ, — это фишинг, предлагающий более детальное взаимодействие и сообщения.
Эта практика заключается в выдаче себя за компанию или другое лицо с целью получения личных данных, номеров кредитных карт и паролей. Обычно это SMS, электронная почта и сообщения через приложения, такие как WhatsApp.
Развитие искусственного интеллекта также представляет собой более безопасные способы пользоваться Интернетом. Так защитите себя в цифровая среда, чтобы иметь лучший опыт и без виртуальных мошенников.
Как защитить себя от интернет-мошенников?
- Не заходите на банковские сайты и сайты социальных сетей в общедоступных сетях Wi-Fi;
- Создавайте надежные пароли и разные комбинации для каждого сайта;
- Используйте двухэтапную аутентификацию в социальных сетях и электронной почте;
- Не предоставлять никакие личные данные третьим лицам;
- Используйте виртуальную карту для онлайн-покупок;
- Не нажимайте на ссылки банков или компаний;
- Подозревайте нежелательные контакты, обращайтесь за советом непосредственно к компаниям.