WhatsApp vastustaa Applen pedofiilien tunnistamistyökalua

Ero Applen ja Whatsapp oli viime viikon tärkeimpiä uutisia. Uusi Apple-työkalu lasten hyväksikäyttötapausten tunnistamiseen valokuvissa aiheutti kiistaa sanansaattajan kanssa.

Lue lisää: Katso odotetuimmat WhatsAppin uutiset

Katso lisää

Varoitus: TÄMÄ myrkyllinen kasvi joutui nuoren miehen sairaalaan

Google kehittää tekoälytyökalua auttamaan toimittajia…

Ilmoitus iPhonen ominaisuudesta julkistettiin viime torstaina (5). Tavoitteena on tunnistaa kuvia, jotka muodostavat rikoksen lasten hyväksikäytöstä. WhatsApp-edustaja Will Cathcart sanoi kuitenkin, että uutuus loukkaisi juridisia ongelmia. Lisäksi se olisi myös tietosuojakäytännön vastaista.

"Luin tiedot, jotka Apple julkaisi eilen [05/08] ja olen huolissani. Mielestäni tämä lähestymistapa on väärä ja takaisku ihmisten yksityisyydelle ympäri maailmaa. Ihmiset kysyvät, aiommeko ottaa tämän järjestelmän käyttöön WhatsAppille. Vastaus on ei", painotti Cathcart Twitter-tilillään.

Will lähetti useita viestejä perustellakseen huolensa Applen ilmoituksesta. Hänen mukaansa hallitukset ja vakoiluohjelmayritykset voisivat siepata iPhonen ohjelmiston. Tämä loukkaisi käyttäjien yksityisyyttä.

Johtaja kyseenalaistaa myös Applen avoimuuden asiassa. "Voiko tämä puhelimesi skannausohjelmisto olla idioottivarma? Tutkijoiden ei annettu ottaa selvää. Miksi ei? Mistä tiedämme, kuinka usein virheet loukkaavat ihmisten yksityisyyttä?

”Olen saanut useilta ihmisiltä riippumattoman vahvistuksen, että Apple julkaisee asiakaspuolen työkalun CSAM-skannaukseen. Tämä on todella huono idea. Näiden työkalujen avulla Apple voi skannata iPhone-valokuvistasi vastaavia kuvia tiettyyn havaintohajautukseen ja raportoi ne yrityksen palvelimille, jos niitä ilmaantuu liian monta", hän sanoi. myös.

Apple sanoi, että viestien skannaustiedot eivät ole täsmälleen oikein. Turvallisuusanalyysistä saadut tiedot sijoitettaisiin salattuun tietokantaan. Yritys ei kerää tietoja käyttäjien valokuvakirjastoista. Tämä tapahtuisi vain, jos rikollista materiaalia havaitaan.

Apple tähtää alaikäisten turvallisuuteen

Apple puolestaan ​​raportoi, että uusi ominaisuus on osa vuodelle 2021 suunniteltua päivityspakettia. Tämä paketti on osa yrityksen julkaisemaa uutta käyttäjän suojauskäytäntöä. Tavoitteena on tunnistaa ja ehkäistä lapsia ja nuoria seksuaalispetoeläimiltä.

Uusi järjestelmä käyttää "NeuralHashia", eräänlaista hermovastaavuutta. Siten se pystyisi havaitsemaan kuvia, joissa on pedofiliaa vastaavia sormenjälkiä.

Uutuuden ongelmana ovat riskit, joita se voi tuoda käyttäjätietojen turvallisuudelle. Alan asiantuntijat sanovat, että se voi luoda valvontaa salatuissa viesteissä. Tämä on jopa Johns Hopkins Security Instituten Matthew Greenin mielipide.

Applen mukaan vaikka väärinlukemisen mahdollisuus on olemassa, väärin luettujen käyttäjien määrä on alle yksi biljoonasta vuodessa.

Liikunta, terveyteen ja fyysiseen suorituskykyyn liittyvä tieteenala

yleensä PE koulussa se nähdään täydentävänä aineena, ikään kuin se olisi vähemmän tärkeä kuin mat...

read more
Luovia ja terveellisiä välipalavinkkejä lapsille koulussa

Luovia ja terveellisiä välipalavinkkejä lapsille koulussa

Hei!! Olen Carolina Godinho, Kenjin (8 vuotta) ja Kojin (6 vuotta) äiti. Kirjoitan instagram-prof...

read more

Työperäinen stressi. Työperäisen stressin aiheuttama epätasapaino

Mitä on ammatillinen stressi?Aina kun käsittelemme sanaa ammatillinen, puhumme työstä, työstä, am...

read more