En splid mellem Apple og Whatsapp var blandt de vigtigste nyheder i sidste uge. Det nye "Apple"-værktøj til at identificere tilfælde af børnemishandling på fotos skabte kontrovers med budbringeren.
Læs mere: Tjek de mest ventede nyheder om WhatsApp
se mere
Advarsel: DENNE giftige plante landede en ung mand på hospitalet
Google udvikler AI-værktøj til at hjælpe journalister i...
Annonceringen af funktionen på iPhone blev lavet sidste torsdag (5). Formålet er at identificere billeder, der udgør en forbrydelse af børnemisbrug/udnyttelse. WhatsApp-repræsentanten Will Cathcart sagde dog, at nyheden ville overtræde juridiske spørgsmål. Desuden ville det også være i strid med privatlivspolitikken.
"Jeg læste de oplysninger, som Apple udgav i går [05/08], og jeg er bekymret. Jeg mener, at denne tilgang er forkert og et tilbageslag for privatlivets fred for mennesker rundt om i verden. Folk spørger, om vi vil adoptere dette system til WhatsApp. Svaret er nej”, understregede Cathcart på sin Twitter-konto.
Will sendte flere beskeder for at retfærdiggøre sine bekymringer angående Apples annoncering. Ifølge ham kunne regeringer og spywarefirmaer opsnappe softwaren på iPhone. Dette ville krænke brugernes privatliv.
Direktøren sætter også spørgsmålstegn ved Apples gennemsigtighed i sagen. "Kan denne scanningssoftware på din telefon være idiotsikker? Det fik forskerne ikke lov til at finde ud af. Hvorfor ikke? Hvordan ved vi, hvor ofte fejl krænker folks privatliv?
“Jeg har fået uafhængig bekræftelse fra flere personer på, at Apple frigiver et værktøj på klientsiden til CSAM-scanning. Det er en rigtig dårlig idé. Disse værktøjer giver Apple mulighed for at scanne dine iPhone-fotos for billeder, der matcher til en specifik perceptuel hash og rapporter dem til virksomhedens servere, hvis for mange af dem dukker op," sagde han. også.
Apple sagde, at meddelelsesscanningsoplysningerne ikke er helt korrekte. Dataene erhvervet fra sikkerhedsanalysen vil blive placeret i en krypteret database. Virksomheden ville ikke akkumulere data fra brugernes fotobiblioteker. Dette ville kun ske, hvis kriminelt materiale blev opdaget.
Apple sigter efter mindreåriges sikkerhed
Apple rapporterede til gengæld, at den nye funktion er en del af en opdateringspakke, der er planlagt til 2021. Denne pakke er en del af en ny brugerbeskyttelsespolitik lanceret af virksomheden. Formålet er at identificere og forhindre børn og unge fra seksuelle rovdyr.
Det nye system bruger "NeuralHash", en slags neural matchning. Den ville således være i stand til at opdage billeder med fingeraftryk svarende til pædofili.
Problemet med nyheden er de risici, det kan medføre for sikkerheden af brugerdata. Eksperter på området siger, at det kan generere overvågning i krypterede meddelelser. Det mener endda Matthew Green fra Johns Hopkins Security Institute.
Ifølge Apple, mens potentialet for en fejllæsning eksisterer, ville antallet af fejllæste brugere være mindre end én ud af 1 billion om året.