В эту среду, 29 числа, группа технических экспертов предложила приостановить разработку и исследования GPT-4 на шесть месяцев. По словам Илона Маска и других экспертов, быстрая эволюция искусственного интеллекта может причинить вред человечеству, и поэтому они решили предотвратить такой вред от развитый.
Помимо Илона Маска, Яана Таллина (сооснователь Skype), Эвана Шарпа (сооснователь Pinterest), Стива Возняка (соучредитель Apple), сотрудники лаборатории Google DeepMind, инженеры Microsoft и еще одна группа экспертов в области технологии.
узнать больше
Сменив ChatGPT на работе, женщина проводит три месяца…
На пути к искусственному интеллекту: Apple планирует интегрировать чат-бота в…
Подписан срок, чтобы остановить продвижение искусственного интеллекта
Шестимесячный перерыв касается исследований искусственного интеллекта, превосходящего GPT-4. Модель OpenAI была запущена в марте и выпустила предупреждение о возможном ущербе, который она может нанести обществу во всем мире.
Запрос на остановку был опубликован на сайте futureoflife.or, когда все эксперты попросили определить паузу как заказ госбезопасности.
Это означает, что наряду с исследованиями необходимо привлекать другие органы безопасности и регулирующие органы, чтобы следить за создаваемыми инструментами.
Эта же подпись также предусматривает, что компании будут нести ответственность за ущерб, причиненный человечеству искусственным интеллектом. В любопытном для Илона Маска случае, учитывая, что миллиардер является одним из соучредителей OpenAI, компании, создавшей ЧатGPT.
Маск был вовлечен до 2018 года, заявив, что сегодня он больше не связан с компанией и не имеет никакого отношения к отсутствию контроля над любым возможным созданием.
Создание Chat-GPT запустило конкурентный рынок
Письмо, выпущенное с просьбой об остановке, касается необузданной гонки за созданием нового интеллекта.
Судя по подписям, крупные компании и громкие имена в области технологий заявили, что внедрение цифровых мозгов вышло из-под контроля.
Интеллекты, хотя и имеют владельцев, не гарантируют ответственной и надежной функции для человечества, о чем они также обращались в письме.
«Мощные системы ИИ следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми», — заявили эксперты, соглашаясь с остановка.
Любитель фильмов и сериалов и всего, что связано с кинематографом. Активный любознатель в сети, всегда подключен к информации в Сети.