WhatsApp выступает против инструмента Apple для идентификации педофилов

Раскол между Apple и WhatsApp стала одной из главных новостей прошедшей недели. Новый инструмент Apple для выявления случаев жестокого обращения с детьми на фотографиях вызвал полемику с мессенджером.

Читать далее: Ознакомьтесь с самыми ожидаемыми новостями WhatsApp

узнать больше

Внимание: ЭТО ядовитое растение привело молодого человека в больницу

Google разрабатывает инструмент искусственного интеллекта, чтобы помочь журналистам…

Анонс функции на iPhone был сделан в прошлый четверг (5). Цель состоит в том, чтобы выявить изображения, которые представляют собой преступление жестокого обращения/эксплуатации детей. Однако представитель WhatsApp Уилл Кэткарт заявил, что нововведение нарушит юридические вопросы. Кроме того, это также нарушило бы политику конфиденциальности.

«Я прочитал информацию, которую Apple опубликовала вчера [08.05], и я обеспокоен. Я думаю, что этот подход неверен и наносит ущерб конфиденциальности людей во всем мире. Люди спрашивают, собираемся ли мы внедрить эту систему для WhatsApp. Ответ — нет», — подчеркнул Кэткарт в своем Twitter-аккаунте.

Уилл опубликовал несколько сообщений, чтобы оправдать свои опасения по поводу объявления Apple. По его словам, правительства и компании-шпионы могут перехватить программное обеспечение на iPhone. Это нарушит конфиденциальность пользователей.

Исполнительный директор также сомневается в прозрачности Apple в этом вопросе. «Может ли это программное обеспечение для сканирования на вашем телефоне быть надежным? Исследователям не позволили это выяснить. Почему нет? Как мы узнаем, как часто ошибки нарушают частную жизнь людей?

«Я получил независимое подтверждение от нескольких человек, что Apple выпускает клиентский инструмент для сканирования CSAM. Это действительно плохая идея. Эти инструменты позволят Apple сканировать фотографии вашего iPhone на наличие изображений, соответствующих к определенному перцептивному хешу и сообщать о них на серверы компании, если их слишком много», — сказал он. также.

Apple заявила, что информация о сканировании сообщений не совсем верна. Данные, полученные в результате анализа безопасности, будут помещены в зашифрованную базу данных. Компания не собирала данные из фотобиблиотек пользователей. Это произойдет только в том случае, если будут обнаружены криминальные материалы.

Apple стремится обеспечить безопасность несовершеннолетних

Apple, в свою очередь, сообщила, что новая функция является частью пакета обновлений, запланированного на 2021 год. Этот пакет является частью новой политики защиты пользователей, запущенной компанией. Цель состоит в том, чтобы выявить и предотвратить детей и подростков от сексуальных хищников.

Новая система использует «NeuralHash», своего рода нейронное сопоставление. Таким образом, он сможет обнаруживать изображения с отпечатками пальцев, соответствующие педофилии.

Проблема новинки заключается в рисках, которые она может принести безопасности пользовательских данных. Эксперты в этой области говорят, что это может генерировать слежку в зашифрованных сообщениях. Это мнение даже Мэтью Грина из Института безопасности Джонса Хопкинса.

По данным Apple, несмотря на то, что вероятность неправильного прочтения существует, количество неправильно понятых пользователей будет составлять менее одного на 1 триллион в год.

Это 6 главных черт, которыми обладают самые преданные люди.

Самые длительные отношения несут в себе факторы, укрепляющие связь между людьми; среди них у нас ...

read more

Проверьте 3 самые умные страны согласно измерению IQ

IQ (коэффициент интеллекта) — это метод, разработанный с целью оценки человеческого интеллекта. К...

read more

4 признака того, что ваша собака любит вас: узнайте, какие они

Домашнее животное — отличный способ позаботиться о другой жизни и развить такие навыки, как научи...

read more