Rozłam między Apple a WhatsApp była jedną z głównych wiadomości ostatniego tygodnia. Nowe narzędzie „Apple” do identyfikowania przypadków wykorzystywania dzieci na zdjęciach wywołało kontrowersje wśród komunikatora.
Czytaj więcej: Sprawdź najbardziej oczekiwane wiadomości z WhatsApp
Zobacz więcej
Uwaga: TA trująca roślina spowodowała, że młody mężczyzna wylądował w szpitalu
Google opracowuje narzędzie AI, które pomoże dziennikarzom w…
Ogłoszenie funkcji na iPhonie miało miejsce w zeszły czwartek (5). Celem jest zidentyfikowanie obrazów, które stanowią przestępstwo wykorzystywania/wykorzystywania dzieci. Jednak przedstawiciel WhatsApp, Will Cathcart, powiedział, że nowość naruszy kwestie prawne. Ponadto naruszyłoby to również politykę prywatności.
„Przeczytałem informacje, które Apple opublikowało wczoraj [05/08] i jestem zaniepokojony. Myślę, że takie podejście jest błędne i stanowi porażkę dla prywatności ludzi na całym świecie. Ludzie pytają, czy zamierzamy zastosować ten system dla WhatsApp. Odpowiedź brzmi: nie” – podkreślił Cathcart na swoim koncie na Twitterze.
Will opublikował kilka wiadomości, aby uzasadnić swoje obawy dotyczące ogłoszenia Apple. Według niego rządy i firmy spyware mogły przechwycić oprogramowanie iPhone'a. Naruszałoby to prywatność użytkowników.
Dyrektor kwestionuje również przejrzystość Apple w tej sprawie. „Czy to oprogramowanie do skanowania w telefonie może być niezawodne? Naukowcom nie pozwolono się dowiedzieć. Dlaczego nie? Skąd będziemy wiedzieć, jak często błędy naruszają prywatność ludzi?
„Otrzymałem niezależne potwierdzenie od wielu osób, że Apple wypuszcza narzędzie po stronie klienta do skanowania CSAM. To naprawdę zły pomysł. Te narzędzia pozwolą Apple skanować zdjęcia z iPhone'a w poszukiwaniu pasujących obrazów do określonego skrótu percepcyjnego i zgłaszać je na serwery firmy, jeśli pojawi się ich zbyt wiele” – powiedział. Również.
Apple powiedział, że informacje o skanowaniu wiadomości nie są dokładnie poprawne. Dane pozyskane z analizy bezpieczeństwa byłyby umieszczane w zaszyfrowanym banku. Firma nie gromadziłaby danych z bibliotek zdjęć użytkowników. Stałoby się tak tylko w przypadku wykrycia materiałów przestępczych.
Apple stawia na bezpieczeństwo nieletnich
Apple z kolei poinformowało, że nowa funkcja jest częścią pakietu aktualizacji zaplanowanego na 2021 rok. Ten pakiet jest częścią nowej polityki ochrony użytkowników wprowadzonej przez firmę. Celem jest identyfikacja i ochrona dzieci i młodzieży przed drapieżnikami seksualnymi.
Nowy system wykorzystuje „NeuralHash”, rodzaj dopasowywania neuronowego. W ten sposób byłby w stanie wykrywać obrazy z odciskami palców odpowiadającymi pedofilii.
Problem z nowością polega na zagrożeniach, jakie może przynieść bezpieczeństwu danych użytkowników. Eksperci w tej dziedzinie twierdzą, że może to generować inwigilację w zaszyfrowanych wiadomościach. Taka jest nawet opinia Matthew Greena z Johns Hopkins Security Institute.
Według Apple, chociaż istnieje możliwość błędnego odczytania, wskaźnik błędnych odczytów byłby mniejszy niż jeden na 1 bilion rocznie.