Вы когда-нибудь слышали о распознавании эмоций Майкрософт? Программное обеспечение Azure Face, работающее через искусственный интеллект (ИИ) был создан для распознавания эмоций человека по видео и фотографиям. Однако компания объявила об отказе от этой функции. Разбираемся в причинах!
Читать далее: 4 лучших приложения для заработка в 2022 году
узнать больше
Сменив ChatGPT на работе, женщина проводит три месяца…
На пути к искусственному интеллекту: Apple планирует интегрировать чат-бота в…
Распознавание эмоций Майкрософт
Активисты и ученые годами выражали обеспокоенность, утверждая, что программное обеспечение для распознавания лиц, которое, как утверждается, способно идентифицировать пол, возраст и эмоциональное состояние человека могут быть весьма предвзятыми, ненадежными и навязчивыми – и по этой причине не должны продал.
Инструмент Microsoft подвергся критике за упрощение так называемого «распознавания эмоций». По мнению экспертов, мимика, которую приложение считает универсальной, отличается от зависят от популяций, поэтому приравнивать внешние проявления эмоций к чувствам нельзя более глубокий.
Наташа Крэмптон, директор, отвечающий за инструмент ИИ, написала в сообщении, сообщая о новостях, которые эксперты как изнутри, так и снаружи извне компания указывала на отсутствие научного консенсуса относительно определения эмоций, а также на широко распространенные проблемы с результатами.
Microsoft уже перестала предлагать функции распознавания эмоций новым клиентам. Однако для тех, кто уже воспользовался услугой, доступ должен быть отозван до июня 2023 года.
В некоторых случаях доступ к инструменту по-прежнему будет разрешен.
Инструмент все еще можно использовать в некоторых ситуациях. Отныне пользователям нужно будет зарегистрироваться, чтобы использовать Azure Face, сообщая Microsoft, как, где и для каких целей будут использоваться системы.
Таким образом, варианты использования с менее опасным потенциалом (например, автоматическое размытие лиц на видео и изображениях) останутся доступными.
Решение о прекращении неизбирательного использования инструмента является частью длительного пересмотра этической политики Microsoft в отношении искусственного интеллекта. Кроме того, компания намерена ограничить доступ к некоторым другим функциям, а также полностью удалить другие из своего списка приложений.