Een breuk tussen Apple en de Whatsapp was een van de belangrijkste nieuwsberichten van de afgelopen week. De nieuwe "Apple"-tool om gevallen van kindermisbruik op foto's te identificeren, veroorzaakte controverse met de boodschapper.
Lees verder: Bekijk het meest verwachte nieuws van WhatsApp
Bekijk meer
Alert: DEZE giftige plant heeft een jonge man in het ziekenhuis gebracht
Google ontwikkelt AI-tool om journalisten te helpen bij…
De aankondiging van de functie op de iPhone werd afgelopen donderdag (5) gedaan. Het doel is om afbeeldingen te identificeren die een misdrijf van kindermisbruik/uitbuiting vormen. WhatsApp-vertegenwoordiger Will Cathcart zei echter dat de nieuwigheid in strijd zou zijn met juridische kwesties. Bovendien zou het ook in strijd zijn met het privacybeleid.
“Ik heb de informatie gelezen die Apple gisteren [05/08] heeft vrijgegeven en ik maak me zorgen. Ik denk dat deze aanpak verkeerd is en een tegenslag voor de privacy van mensen over de hele wereld. Mensen vragen of we dit systeem voor WhatsApp gaan gebruiken. Het antwoord is nee”, benadrukte Cathcart op zijn Twitter-account.
Will plaatste verschillende berichten om zijn zorgen over de aankondiging van Apple te rechtvaardigen. Volgens hem zouden overheden en spywarebedrijven de software op de iPhone kunnen onderscheppen. Dit zou de privacy van gebruikers schenden.
De uitvoerende macht zet ook vraagtekens bij de transparantie van Apple in deze zaak. “Kan deze scansoftware op je telefoon onfeilbaar zijn? De onderzoekers mochten er niet achter komen. Waarom niet? Hoe weten we hoe vaak fouten de privacy van mensen schenden?
“Ik heb onafhankelijke bevestiging gekregen van meerdere mensen dat Apple een client-side tool voor CSAM-scanning uitbrengt. Dit is een heel slecht idee. Met deze tools kan Apple je iPhone-foto's scannen op afbeeldingen die overeenkomen naar een specifieke perceptuele hash en rapporteer deze aan de servers van het bedrijf als er te veel verschijnen, "zei hij. Ook.
Apple zei dat de informatie over het scannen van berichten niet helemaal correct is. De gegevens die uit de beveiligingsanalyse zijn verkregen, worden in een gecodeerde bank geplaatst. Het bedrijf zou geen gegevens uit de fotobibliotheken van gebruikers verzamelen. Dit zou alleen gebeuren als er crimineel materiaal werd ontdekt.
Apple streeft naar de veiligheid van minderjarigen
Apple meldde op zijn beurt dat de nieuwe functie deel uitmaakt van een updatepakket dat gepland staat voor 2021. Dit pakket maakt deel uit van een nieuw gebruikersbeschermingsbeleid dat door het bedrijf is gelanceerd. Het doel is om kinderen en adolescenten van seksuele roofdieren te identificeren en te voorkomen.
Het nieuwe systeem maakt gebruik van "NeuralHash", een soort neurale matching. Zo zou het afbeeldingen kunnen detecteren met vingerafdrukken die overeenkomen met pedofilie.
Het probleem met de nieuwigheid zijn de risico's die het kan opleveren voor de beveiliging van gebruikersgegevens. Experts in het veld zeggen dat het toezicht in versleutelde berichten kan genereren. Dit is zelfs de mening van Matthew Green, van het Johns Hopkins Security Institute.
Hoewel de kans op verkeerd lezen bestaat, zou volgens Apple het aantal verkeerd gelezen gebruikers minder dan één op de 1 biljoen per jaar bedragen.