Une rupture entre Apple et le WhatsApp était parmi les principales nouvelles de la semaine dernière. Le nouvel outil "Apple" pour identifier les cas de maltraitance d'enfants sur les photos a suscité la polémique avec le messager.
En savoir plus: Découvrez les nouvelles les plus attendues de WhatsApp
voir plus
Alerte: CETTE plante vénéneuse a débarqué un jeune homme à l'hôpital
Google développe un outil d'IA pour aider les journalistes à…
L'annonce de la fonctionnalité sur l'iPhone a été faite jeudi dernier (5). L'objectif est d'identifier les images qui constituent un crime d'abus/d'exploitation des enfants. Cependant, le représentant de WhatsApp, Will Cathcart, a déclaré que la nouveauté violerait les problèmes juridiques. De plus, cela violerait également la politique de confidentialité.
"J'ai lu les informations publiées par Apple hier [05/08] et je suis inquiet. Je pense que cette approche est erronée et un revers pour la vie privée des gens du monde entier. Les gens demandent si nous allons adopter ce système pour WhatsApp. La réponse est non », a souligné Cathcart, dans son compte Twitter.
Will a posté plusieurs messages pour justifier ses inquiétudes concernant l'annonce d'Apple. Selon lui, les gouvernements et les sociétés de logiciels espions pourraient intercepter le logiciel sur l'iPhone. Cela violerait la vie privée des utilisateurs.
L'exécutif s'interroge également sur la transparence d'Apple en la matière. "Ce logiciel de numérisation sur votre téléphone peut-il être infaillible? Les chercheurs n'ont pas été autorisés à le découvrir. Pourquoi pas? Comment saurons-nous à quelle fréquence les erreurs violent la vie privée des personnes ?
"J'ai eu la confirmation indépendante de plusieurs personnes qu'Apple publie un outil côté client pour l'analyse CSAM. C'est une très mauvaise idée. Ces outils permettront à Apple de scanner les photos de votre iPhone pour les images qui correspondent à un hachage perceptif spécifique et signalez-les aux serveurs de l'entreprise si trop d'entre eux se présentent », a-t-il déclaré. aussi.
Apple a déclaré que les informations d'analyse des messages n'étaient pas tout à fait correctes. Les données acquises à partir de l'analyse de sécurité seraient placées dans une banque cryptée. L'entreprise n'accumulerait pas les données des photothèques des utilisateurs. Cela ne se produirait que si du matériel criminel était détecté.
Apple vise la sécurité des mineurs
Apple, à son tour, a signalé que la nouvelle fonctionnalité faisait partie d'un package de mise à jour prévu pour 2021. Ce forfait fait partie d'une nouvelle politique de protection des utilisateurs lancée par l'entreprise. L'objectif est d'identifier et de prévenir les enfants et les adolescents des prédateurs sexuels.
Le nouveau système utilise "NeuralHash", une sorte de correspondance neuronale. Ainsi, il serait capable de détecter des images avec des empreintes digitales correspondant à de la pédophilie.
Le problème avec la nouveauté est les risques qu'elle peut apporter à la sécurité des données des utilisateurs. Les experts dans le domaine disent que cela pourrait générer une surveillance dans les messages cryptés. C'est même l'avis de Matthew Green, du Johns Hopkins Security Institute.
Selon Apple, bien que le risque d'erreur de lecture existe, le taux d'utilisateurs mal lus serait inférieur à un sur mille milliards par an.