Una spaccatura tra Apple e il WhatsApp è stata tra le principali notizie dell'ultima settimana. Il nuovo strumento "Apple" per identificare i casi di abusi sui minori nelle foto ha generato polemiche con il messaggero.
Per saperne di più: Scopri le novità più attese di WhatsApp
Vedi altro
Avviso: QUESTA pianta velenosa ha portato un giovane in ospedale
Google sviluppa uno strumento AI per aiutare i giornalisti in...
L'annuncio della funzionalità su iPhone è stato fatto giovedì scorso (5). L'obiettivo è identificare le immagini che costituiscono un reato di abuso/sfruttamento di minori. Tuttavia, il rappresentante di WhatsApp Will Cathcart ha affermato che la novità violerebbe questioni legali. Inoltre, violerebbe anche l'informativa sulla privacy.
“Ho letto le informazioni che Apple ha rilasciato ieri [05/08] e sono preoccupato. Penso che questo approccio sia sbagliato e una battuta d'arresto per la privacy delle persone in tutto il mondo. Le persone chiedono se adotteremo questo sistema per WhatsApp. La risposta è no”, ha sottolineato Cathcart, nel suo account Twitter.
Will ha pubblicato diversi messaggi per giustificare le sue preoccupazioni riguardo all'annuncio di Apple. Secondo lui, i governi e le società di spyware potrebbero intercettare il software sull'iPhone. Ciò violerebbe la privacy dell'utente.
L'esecutivo mette anche in dubbio la trasparenza di Apple in materia. “Questo software di scansione sul tuo telefono può essere infallibile? Ai ricercatori non è stato permesso di scoprirlo. Perché no? Come sapremo quanto spesso gli errori violano la privacy delle persone?
“Ho ricevuto conferma indipendente da più persone che Apple sta rilasciando uno strumento lato client per la scansione CSAM. Questa è davvero una pessima idea. Questi strumenti consentiranno ad Apple di scansionare le foto del tuo iPhone alla ricerca di immagini corrispondenti a uno specifico hash percettivo e segnalarli ai server dell'azienda se ne vengono visualizzati troppi", ha affermato. Anche.
Apple ha affermato che le informazioni sulla scansione dei messaggi non sono esattamente corrette. I dati acquisiti dall'analisi di sicurezza verrebbero inseriti in un database crittografato. La società non accumulerebbe dati dalle librerie di foto degli utenti. Ciò accadrebbe solo se venisse rilevato materiale criminale.
Apple punta alla sicurezza dei minori
Apple, a sua volta, ha riferito che la nuova funzionalità fa parte di un pacchetto di aggiornamento previsto per il 2021. Questo pacchetto fa parte di una nuova politica di protezione degli utenti lanciata dall'azienda. L'obiettivo è identificare e prevenire i bambini e gli adolescenti dai predatori sessuali.
Il nuovo sistema utilizza "NeuralHash", una sorta di corrispondenza neurale. Pertanto, sarebbe in grado di rilevare immagini con impronte digitali corrispondenti alla pedofilia.
Il problema con la novità sono i rischi che può portare alla sicurezza dei dati degli utenti. Gli esperti del settore affermano che potrebbe generare sorveglianza nei messaggi crittografati. Questa è anche l'opinione di Matthew Green, del Johns Hopkins Security Institute.
Secondo Apple, mentre esiste il potenziale per una lettura errata, il tasso di utenti che leggono male sarebbe inferiore a uno su 1 trilione all'anno.