WhatsApp sprzeciwia się narzędziu Apple do identyfikacji pedofilów

Rozłam między Apple a WhatsApp była jedną z głównych wiadomości ostatniego tygodnia. Nowe narzędzie „Apple” do identyfikowania przypadków wykorzystywania dzieci na zdjęciach wywołało kontrowersje wśród komunikatora.

Czytaj więcej: Sprawdź najbardziej oczekiwane wiadomości z WhatsApp

Zobacz więcej

Uwaga: TA trująca roślina spowodowała, że ​​młody mężczyzna wylądował w szpitalu

Google opracowuje narzędzie AI, które pomoże dziennikarzom w…

Ogłoszenie funkcji na iPhonie miało miejsce w zeszły czwartek (5). Celem jest zidentyfikowanie obrazów, które stanowią przestępstwo wykorzystywania/wykorzystywania dzieci. Jednak przedstawiciel WhatsApp, Will Cathcart, powiedział, że nowość naruszy kwestie prawne. Ponadto naruszyłoby to również politykę prywatności.

„Przeczytałem informacje, które Apple opublikowało wczoraj [05/08] i jestem zaniepokojony. Myślę, że takie podejście jest błędne i stanowi porażkę dla prywatności ludzi na całym świecie. Ludzie pytają, czy zamierzamy zastosować ten system dla WhatsApp. Odpowiedź brzmi: nie” – podkreślił Cathcart na swoim koncie na Twitterze.

Will opublikował kilka wiadomości, aby uzasadnić swoje obawy dotyczące ogłoszenia Apple. Według niego rządy i firmy spyware mogły przechwycić oprogramowanie iPhone'a. Naruszałoby to prywatność użytkowników.

Dyrektor kwestionuje również przejrzystość Apple w tej sprawie. „Czy to oprogramowanie do skanowania w telefonie może być niezawodne? Naukowcom nie pozwolono się dowiedzieć. Dlaczego nie? Skąd będziemy wiedzieć, jak często błędy naruszają prywatność ludzi?

„Otrzymałem niezależne potwierdzenie od wielu osób, że Apple wypuszcza narzędzie po stronie klienta do skanowania CSAM. To naprawdę zły pomysł. Te narzędzia pozwolą Apple skanować zdjęcia z iPhone'a w poszukiwaniu pasujących obrazów do określonego skrótu percepcyjnego i zgłaszać je na serwery firmy, jeśli pojawi się ich zbyt wiele” – powiedział. Również.

Apple powiedział, że informacje o skanowaniu wiadomości nie są dokładnie poprawne. Dane pozyskane z analizy bezpieczeństwa byłyby umieszczane w zaszyfrowanym banku. Firma nie gromadziłaby danych z bibliotek zdjęć użytkowników. Stałoby się tak tylko w przypadku wykrycia materiałów przestępczych.

Apple stawia na bezpieczeństwo nieletnich

Apple z kolei poinformowało, że nowa funkcja jest częścią pakietu aktualizacji zaplanowanego na 2021 rok. Ten pakiet jest częścią nowej polityki ochrony użytkowników wprowadzonej przez firmę. Celem jest identyfikacja i ochrona dzieci i młodzieży przed drapieżnikami seksualnymi.

Nowy system wykorzystuje „NeuralHash”, rodzaj dopasowywania neuronowego. W ten sposób byłby w stanie wykrywać obrazy z odciskami palców odpowiadającymi pedofilii.

Problem z nowością polega na zagrożeniach, jakie może przynieść bezpieczeństwu danych użytkowników. Eksperci w tej dziedzinie twierdzą, że może to generować inwigilację w zaszyfrowanych wiadomościach. Taka jest nawet opinia Matthew Greena z Johns Hopkins Security Institute.

Według Apple, chociaż istnieje możliwość błędnego odczytania, wskaźnik błędnych odczytów byłby mniejszy niż jeden na 1 bilion rocznie.

Topniejący emoji: co to znaczy? Nie ma potrzeby żyć z tą wątpliwością

Emoji to ideogramy używane w wiadomościach elektronicznych i mogą mieć różne znaczenia. Przy ciąg...

read more

Dziecko w zasięgu wzroku? Sprawdź te 10 imion, które przynoszą nadzieję!

Pojawienie się dziecka to magiczny moment dla całej rodziny. Można powiedzieć, że jest to promyk ...

read more

Dylemat macierzyństwa: kiedy dziecko czuje, że należy do kogoś innego

Macierzyństwo jest wyjątkowym i transformującym doświadczeniem, ale nie zawsze jest tym, czego oc...

read more