WhatsApp виступає проти інструменту ідентифікації педофілів від Apple

Розрив між Apple і WhatsApp була однією з головних новин минулого тижня. Новий «яблучний» інструмент для виявлення випадків жорстокого поводження з дітьми на фото викликав суперечку з месенджером.

Детальніше: Ознайомтеся з найочікуванішими новинами WhatsApp

побачити більше

Попередження: ЦЯ отруйна рослина потрапила до лікарні молодого чоловіка

Google розробляє інструмент ШІ, щоб допомогти журналістам у…

Анонс цієї функції на iPhone був зроблений минулого четверга (5). Мета полягає в тому, щоб ідентифікувати зображення, які становлять злочин жорстокого поводження з дітьми/експлуатації дітей. Однак представник WhatsApp Вілл Каткарт заявив, що новинка порушить юридичні питання. Крім того, це також порушило б політику конфіденційності.

«Я прочитав інформацію, яку Apple опублікувала вчора [05/08], і мене це хвилює. Я вважаю, що такий підхід є неправильним і завдає шкоди конфіденційності людей у ​​всьому світі. Люди запитують, чи збираємося ми прийняти цю систему для WhatsApp. Відповідь – ні», – підкреслив Кеткарт у своєму Twitter.

Вілл опублікував кілька повідомлень, щоб виправдати свою стурбованість щодо оголошення Apple. За його словами, уряди та компанії-шпигуни могли перехопити програмне забезпечення на iPhone. Це порушить конфіденційність користувача.

Керівник також ставить під сумнів прозорість Apple у цьому питанні. «Чи може це програмне забезпечення для сканування на вашому телефоні бути надійним? Дослідникам не дозволили це з'ясувати. Чому ні? Як ми дізнаємося, як часто помилки порушують приватне життя людей?

«Я отримав незалежне підтвердження від багатьох людей, що Apple випускає клієнтський інструмент для сканування CSAM. Це справді погана ідея. Ці інструменти дозволять Apple сканувати фотографії вашого iPhone на відповідні зображення у певний перцептивний хеш і повідомляти про них на сервери компанії, якщо їх з’являється забагато», – сказав він. також.

Apple заявила, що інформація про сканування повідомлень не зовсім правильна. Дані, отримані в результаті аналізу безпеки, будуть розміщені в зашифрованому банку. Компанія не буде накопичувати дані з бібліотек фотографій користувачів. Це станеться лише у випадку виявлення злочинних матеріалів.

Apple прагне до безпеки неповнолітніх

Apple, у свою чергу, повідомила, що нова функція є частиною пакета оновлень, запланованого на 2021 рік. Цей пакет є частиною нової політики захисту користувачів, запущеної компанією. Метою є виявлення та запобігання дітей та підлітків від сексуальних хижаків.

Нова система використовує «NeuralHash», свого роду нейронну відповідність. Таким чином, він зможе виявити зображення з відбитками пальців, які відповідають педофілії.

Проблема новинки полягає в ризиках, які вона може принести для безпеки даних користувачів. Експерти в цій галузі кажуть, що це може створити стеження в зашифрованих повідомленнях. Так вважає навіть Метью Грін з Інституту безпеки Джона Хопкінса.

Згідно з Apple, хоча ймовірність неправильного читання існує, рівень неправильно читаючих користувачів буде меншим, ніж один на 1 трильйон на рік.

Найкращі чоловічі парфуми на ринку

вибрати духи звичайно, може бути дуже складним завданням, чи не так? Особливо чоловіки можуть вит...

read more
Оновлення якої моделі iPhone буде припинено у 2023 році?

Оновлення якої моделі iPhone буде припинено у 2023 році?

А Apple випустила iOS 17 і разом з цим оголосив, які моделі iPhone не отримають оновлення в 2023 ...

read more

Збільшення літра бензину: ціна може сягати 10 реалів

Моменти напруги, які переживає Росія-Україна, стрясають світ. Ми переживаємо драматичний момент д...

read more