Искусственный интеллект — это технология, которая суперприсутствует в сегодняшней жизни и получает все больше комментариев. Достижения в области искусственного интеллекта могут быть увлекательными для некоторых, заменяя человеческие задачи и оптимизируя нашу жизнь. Однако для тех, кто находится внутри и внимательно следит, это может быть страшно, да и сами разработчики боятся опасностиизИИ.
Эксперты прогнозируют, что ИИ навредит нашей жизни
узнать больше
Внимание: ЭТО ядовитое растение привело молодого человека в больницу
Google разрабатывает инструмент искусственного интеллекта, чтобы помочь журналистам…
Мы часто видим новости о новых функциях и использовании искусственного интеллекта. Как и в случае с ChatGPT, пожалуй, самой обсуждаемой на данный момент технологией, которую можно использовать для различных задач, имитации мыслей, перевода и написания текстов.
Однако некоторые люди выражают озабоченность развитием и распространением этих технологий. Эксперты в этой области говорят, что искусственный интеллект может принести реальный вред, если его используют неподготовленные или злонамеренные люди.
Сотрудник Microsoft считает, что ИИ принесет вред
В своей речи на заседании Всемирного экономического форума в прошлую среду несколько слов произнес Майкл Шварц из экономического отдела Microsoft. Он выразил озабоченность по поводу расширения возможностей ИИ и сказал, что они могут нанести реальный вред.
Он сказал: «И да, это нанесет реальный ущерб».
Microsoft является крупным инвестором OpenAI
Комментарии Майкла вызывают удивление, поскольку Microsoft является основным инвестором OpenAI, компании, создавшей ChatGPT. Другие руководители Microsoft уже высказали мнения, противоположные мнению Майкла, с более оптимистичным тоном в отношении развития ИИ.
По мнению Майкла, ИИ должен получить какое-то регулирование посредством закона, но не препятствующее развитию технологий. Он считает, что преимущества, такие как автоматизация нескольких задач, следует ценить, но что мы должны остерегаться границ, которые раздвигает ИИ, чтобы избежать реальных опасностей ИИ.