WhatsApp tar ställning mot Apples pedofilidentifieringsverktyg

En klyfta mellan Apple och Whatsapp var en av de viktigaste nyheterna den senaste veckan. Det nya "Apple"-verktyget för att identifiera fall av barnmisshandel på bilder skapade kontroverser med budbäraren.

Läs mer: Kolla in de mest efterlängtade nyheterna om WhatsApp

se mer

Varning: DENNA giftiga växt landade en ung man på sjukhuset

Google utvecklar AI-verktyg för att hjälpa journalister i...

Tillkännagivandet av funktionen på iPhone gjordes i torsdags (5). Syftet är att identifiera bilder som utgör ett brott om övergrepp/exploatering av barn. WhatsApp-representanten Will Cathcart sa dock att nyheten skulle strida mot juridiska frågor. Dessutom skulle det också bryta mot integritetspolicyn.

"Jag läste informationen som Apple släppte i går [05/08] och jag är orolig. Jag tycker att det här tillvägagångssättet är fel och ett bakslag för integriteten för människor runt om i världen. Folk frågar om vi kommer att adoptera det här systemet för WhatsApp. Svaret är nej”, betonade Cathcart på sitt Twitter-konto.

Will postade flera meddelanden för att motivera sin oro angående Apples tillkännagivande. Enligt honom kunde regeringar och spionprogramsföretag fånga upp programvaran på iPhone. Detta skulle kränka användarnas integritet.

Chefen ifrågasätter också Apples insyn i frågan. "Kan denna skanningsprogramvara på din telefon vara idiotsäker? Forskarna fick inte ta reda på det. Varför inte? Hur ska vi veta hur ofta misstag kränker människors integritet?

"Jag har fått oberoende bekräftelse från flera personer att Apple släpper ett klientverktyg för CSAM-skanning. Det här är en riktigt dålig idé. Dessa verktyg gör det möjligt för Apple att skanna dina iPhone-foton efter bilder som matchar till en specifik perceptuell hash och rapportera dem till företagets servrar om för många av dem dyker upp", sa han. också.

Apple sa att meddelandeskanningsinformationen inte är exakt korrekt. Data som erhållits från säkerhetsanalysen skulle placeras i en krypterad databas. Företaget skulle inte samla data från användarnas fotobibliotek. Detta skulle bara ske om brottsligt material upptäcktes.

Apple strävar efter säkerheten för minderåriga

Apple rapporterade i sin tur att den nya funktionen är en del av ett uppdateringspaket planerat till 2021. Detta paket är en del av en ny användarskyddspolicy som lanserats av företaget. Målet är att identifiera och förebygga barn och ungdomar från sexuella rovdjur.

Det nya systemet använder "NeuralHash", en sorts neural matchning. Därmed skulle den kunna upptäcka bilder med fingeravtryck motsvarande pedofili.

Problemet med nyheten är de risker den kan medföra för säkerheten för användardata. Experter på området säger att det kan generera övervakning i krypterade meddelanden. Detta menar till och med Matthew Green, från Johns Hopkins Security Institute.

Enligt Apple, även om risken för felläsning finns, skulle andelen fellästa användare vara mindre än en på 1 biljon per år.

Område i den triangulära regionen i förhållande till hörnkoordinaterna

Område i den triangulära regionen i förhållande till hörnkoordinaterna

Vi kan bestämma området för en triangulär region med hjälp av uttryck relaterade till plangeometr...

read more
Antal rötter i en ekvation

Antal rötter i en ekvation

Att lösa ekvationer är en daglig aktivitet. Intuitivt löser vi ekvationer i vårt dagliga liv och ...

read more

Ursprunget till i kvadrat lika med -1

I studien av komplexa tal stöter vi på följande jämlikhet: i2 = – 1.Motiveringen för denna jämlik...

read more