Розрив між Apple і WhatsApp була однією з головних новин минулого тижня. Новий «яблучний» інструмент для виявлення випадків жорстокого поводження з дітьми на фото викликав суперечку з месенджером.
Детальніше: Ознайомтеся з найочікуванішими новинами WhatsApp
побачити більше
Попередження: ЦЯ отруйна рослина потрапила до лікарні молодого чоловіка
Google розробляє інструмент ШІ, щоб допомогти журналістам у…
Анонс цієї функції на iPhone був зроблений минулого четверга (5). Мета полягає в тому, щоб ідентифікувати зображення, які становлять злочин жорстокого поводження з дітьми/експлуатації дітей. Однак представник WhatsApp Вілл Каткарт заявив, що новинка порушить юридичні питання. Крім того, це також порушило б політику конфіденційності.
«Я прочитав інформацію, яку Apple опублікувала вчора [05/08], і мене це хвилює. Я вважаю, що такий підхід є неправильним і завдає шкоди конфіденційності людей у всьому світі. Люди запитують, чи збираємося ми прийняти цю систему для WhatsApp. Відповідь – ні», – підкреслив Кеткарт у своєму Twitter.
Вілл опублікував кілька повідомлень, щоб виправдати свою стурбованість щодо оголошення Apple. За його словами, уряди та компанії-шпигуни могли перехопити програмне забезпечення на iPhone. Це порушить конфіденційність користувача.
Керівник також ставить під сумнів прозорість Apple у цьому питанні. «Чи може це програмне забезпечення для сканування на вашому телефоні бути надійним? Дослідникам не дозволили це з'ясувати. Чому ні? Як ми дізнаємося, як часто помилки порушують приватне життя людей?
«Я отримав незалежне підтвердження від багатьох людей, що Apple випускає клієнтський інструмент для сканування CSAM. Це справді погана ідея. Ці інструменти дозволять Apple сканувати фотографії вашого iPhone на відповідні зображення у певний перцептивний хеш і повідомляти про них на сервери компанії, якщо їх з’являється забагато», – сказав він. також.
Apple заявила, що інформація про сканування повідомлень не зовсім правильна. Дані, отримані в результаті аналізу безпеки, будуть розміщені в зашифрованому банку. Компанія не буде накопичувати дані з бібліотек фотографій користувачів. Це станеться лише у випадку виявлення злочинних матеріалів.
Apple прагне до безпеки неповнолітніх
Apple, у свою чергу, повідомила, що нова функція є частиною пакета оновлень, запланованого на 2021 рік. Цей пакет є частиною нової політики захисту користувачів, запущеної компанією. Метою є виявлення та запобігання дітей та підлітків від сексуальних хижаків.
Нова система використовує «NeuralHash», свого роду нейронну відповідність. Таким чином, він зможе виявити зображення з відбитками пальців, які відповідають педофілії.
Проблема новинки полягає в ризиках, які вона може принести для безпеки даних користувачів. Експерти в цій галузі кажуть, що це може створити стеження в зашифрованих повідомленнях. Так вважає навіть Метью Грін з Інституту безпеки Джона Хопкінса.
Згідно з Apple, хоча ймовірність неправильного читання існує, рівень неправильно читаючих користувачів буде меншим, ніж один на 1 трильйон на рік.