WhatsApp tar et oppgjør med Apples pedofilidentifikasjonsverktøy

En kløft mellom Apple og Hva skjer var blant hovednyhetene den siste uken. Det nye "Apple"-verktøyet for å identifisere tilfeller av barnemishandling på bilder genererte kontroverser med budbringeren.

Les mer: Sjekk ut de mest etterlengtede nyhetene om WhatsApp

se mer

Varsel: DENNE giftige planten landet en ung mann på sykehuset

Google utvikler AI-verktøy for å hjelpe journalister i...

Kunngjøringen av funksjonen på iPhone ble gjort forrige torsdag (5). Målet er å identifisere bilder som utgjør en forbrytelse av overgrep/utnyttelse av barn. WhatsApp-representant Will Cathcart sa imidlertid at nyheten ville bryte med juridiske spørsmål. Videre vil det også bryte med personvernreglene.

«Jeg leste informasjonen som Apple ga ut i går [05/08] og jeg er bekymret. Jeg tror denne tilnærmingen er feil og et tilbakeslag for personvernet til mennesker rundt om i verden. Folk spør om vi skal ta i bruk dette systemet for WhatsApp. Svaret er nei», understreket Cathcart på sin Twitter-konto.

Will la ut flere meldinger for å rettferdiggjøre bekymringene sine angående Apples kunngjøring. Ifølge ham kunne myndigheter og spionvareselskaper fange opp programvaren på iPhone. Dette vil krenke brukernes personvern.

Lederen stiller også spørsmål ved Apples åpenhet i saken. "Kan denne skanneprogramvaren på telefonen din være idiotsikker? Det fikk forskerne ikke finne ut av. Hvorfor ikke? Hvordan vil vi vite hvor ofte feil krenker folks personvern?

«Jeg har fått uavhengig bekreftelse fra flere personer på at Apple gir ut et klientsideverktøy for CSAM-skanning. Dette er en veldig dårlig idé. Disse verktøyene lar Apple skanne iPhone-bildene dine for bilder som samsvarer til en spesifikk perseptuell hash og rapporter dem til selskapets servere hvis for mange av dem dukker opp," sa han. også.

Apple sa at meldingsskanningsinformasjonen ikke er helt korrekt. Dataene hentet fra sikkerhetsanalysen vil bli plassert i en kryptert database. Selskapet ville ikke samle data fra brukernes fotobibliotek. Dette ville bare skje dersom kriminelt materiale ble oppdaget.

Apple tar sikte på sikkerheten til mindreårige

Apple rapporterte på sin side at den nye funksjonen er en del av en oppdateringspakke som er planlagt for 2021. Denne pakken er en del av en ny brukerbeskyttelsespolicy lansert av selskapet. Målet er å identifisere og hindre barn og unge fra seksuelle rovdyr.

Det nye systemet bruker "NeuralHash", en slags nevral matching. Dermed ville den kunne oppdage bilder med fingeravtrykk tilsvarende pedofili.

Problemet med nyheten er risikoen den kan medføre for sikkerheten til brukerdata. Eksperter på området sier det kan generere overvåking i krypterte meldinger. Dette mener til og med Matthew Green, fra Johns Hopkins Security Institute.

Ifølge Apple, mens potensialet for feillesing eksisterer, vil frekvensen av feilleste brukere være mindre enn én av 1 billion per år.

Katekeselitteratur: hva det var, forfattere, verk

Katekeselitteratur Slik ble den religiøse litteraturen produsert i Brasil på 1500-tallet kjent. F...

read more
Global koke: hva det er, årsaker, konsekvenser

Global koke: hva det er, årsaker, konsekvenser

Global koking er et uttrykk sagt av FNs generalsekretær for å beskrive den nåværende fasen av aks...

read more
Global koke: hva det er, årsaker, konsekvenser

Global koke: hva det er, årsaker, konsekvenser

Global koking er et uttrykk sagt av FNs generalsekretær for å beskrive den nåværende fasen av aks...

read more