WhatsApp виступає проти інструменту ідентифікації педофілів від Apple

Розрив між Apple і WhatsApp була однією з головних новин минулого тижня. Новий «яблучний» інструмент для виявлення випадків жорстокого поводження з дітьми на фото викликав суперечку з месенджером.

Детальніше: Ознайомтеся з найочікуванішими новинами WhatsApp

побачити більше

Попередження: ЦЯ отруйна рослина потрапила до лікарні молодого чоловіка

Google розробляє інструмент ШІ, щоб допомогти журналістам у…

Анонс цієї функції на iPhone був зроблений минулого четверга (5). Мета полягає в тому, щоб ідентифікувати зображення, які становлять злочин жорстокого поводження з дітьми/експлуатації дітей. Однак представник WhatsApp Вілл Каткарт заявив, що новинка порушить юридичні питання. Крім того, це також порушило б політику конфіденційності.

«Я прочитав інформацію, яку Apple опублікувала вчора [05/08], і мене це хвилює. Я вважаю, що такий підхід є неправильним і завдає шкоди конфіденційності людей у ​​всьому світі. Люди запитують, чи збираємося ми прийняти цю систему для WhatsApp. Відповідь – ні», – підкреслив Кеткарт у своєму Twitter.

Вілл опублікував кілька повідомлень, щоб виправдати свою стурбованість щодо оголошення Apple. За його словами, уряди та компанії-шпигуни могли перехопити програмне забезпечення на iPhone. Це порушить конфіденційність користувача.

Керівник також ставить під сумнів прозорість Apple у цьому питанні. «Чи може це програмне забезпечення для сканування на вашому телефоні бути надійним? Дослідникам не дозволили це з'ясувати. Чому ні? Як ми дізнаємося, як часто помилки порушують приватне життя людей?

«Я отримав незалежне підтвердження від багатьох людей, що Apple випускає клієнтський інструмент для сканування CSAM. Це справді погана ідея. Ці інструменти дозволять Apple сканувати фотографії вашого iPhone на відповідні зображення у певний перцептивний хеш і повідомляти про них на сервери компанії, якщо їх з’являється забагато», – сказав він. також.

Apple заявила, що інформація про сканування повідомлень не зовсім правильна. Дані, отримані в результаті аналізу безпеки, будуть розміщені в зашифрованому банку. Компанія не буде накопичувати дані з бібліотек фотографій користувачів. Це станеться лише у випадку виявлення злочинних матеріалів.

Apple прагне до безпеки неповнолітніх

Apple, у свою чергу, повідомила, що нова функція є частиною пакета оновлень, запланованого на 2021 рік. Цей пакет є частиною нової політики захисту користувачів, запущеної компанією. Метою є виявлення та запобігання дітей та підлітків від сексуальних хижаків.

Нова система використовує «NeuralHash», свого роду нейронну відповідність. Таким чином, він зможе виявити зображення з відбитками пальців, які відповідають педофілії.

Проблема новинки полягає в ризиках, які вона може принести для безпеки даних користувачів. Експерти в цій галузі кажуть, що це може створити стеження в зашифрованих повідомленнях. Так вважає навіть Метью Грін з Інституту безпеки Джона Хопкінса.

Згідно з Apple, хоча ймовірність неправильного читання існує, рівень неправильно читаючих користувачів буде меншим, ніж один на 1 трильйон на рік.

5 найбільш продаваних книг бразильських авторів у всьому світі

Подібно до того, як бразильці подорожують іншими місцями, читаючи міжнародних авторів, читачі з і...

read more

Постачання там: дізнайтеся, як отримати вигоду від постачання

Зараз витрати на паливо зростають, чи не так? Пам’ятаючи про це, сьогодні ми познайомимо вас із д...

read more

Лузомовні країни: дізнайтеся, у яких 7 португальська мова є рідною

Незважаючи на те, що назва португальської мови пов’язана з Португалією, ця мова була поширена в к...

read more