Недавно он запустил технологии из ЧатГПТ. У студентов это вызвало привыкание после того, как они обнаружили, что этот искусственный интеллект способен решать математические операции и разрабатывать эссе за считанные секунды. Однако он также может быть мощным инструментом для хакеров и злоумышленников для создания фишинговых кампаний. Узнайте больше подробностей ниже.
ChatGPT может приносить пользу людям с плохим характером
узнать больше
Сменив ChatGPT на работе, женщина проводит три месяца…
На пути к искусственному интеллекту: Apple планирует интегрировать чат-бота в…
Отметьте ниже некоторые вредоносные действия, которые ЧатGPT может предложить:
- Может использоваться для создания вредоносного кода
В ChatGPT есть несколько простых команд, способных создавать вредоносный код. И эти ловушки могут разрабатывать не только опытные хакеры, но и обычные люди.
- Его можно использовать для создания безошибочных фишинговых сообщений.
С помощью этой функции злоумышленники могут создавать ложные сообщения от имени известных компаний и сервисов для получения банковских реквизитов. Это связано с фишинговыми сообщениями электронной почты без опечаток.
- Это может способствовать распространению дезинформации
В связи с тем, что ChatGPT использует контент, рассчитанный до 2021 года, чтобы ответить на вопросы от пользователей, программа использует устаревшие новости и статьи, поэтому распространение дезинформация.
- Это может помочь распространить предубеждения
Программное обеспечение было разработано для обработки разнообразного контента, доступного в Интернете, включая сообщения ненависти. Следовательно, он способен воспроизводить такие предрассудки, как расизм и сексизм.
- Это может затруднить обнаружение плагиата
Контент, который робот разрабатывает, например, для создания эссе, может остаться незамеченным несколькими другими программами, обученными выявлять плагиат. Пока что помочь в этом деле способен только OpenAI Detector, но он пока находится в стадии разработки.
- Он может быть убедительным, даже когда ошибается.
Из-за того, что робот может развивать стиль письма и языка, очень похожий на стиль человека, в конечном итоге он оказывается правильным в ситуациях, которые иногда ошибочны. Это в конечном итоге обманывает многих пользователей сети.