WhatsApp stellt sich gegen Apples Tool zur Identifizierung von Pädophilen

protection click fraud

Eine Kluft zwischen Apple und dem WhatsApp gehörte zu den Hauptnachrichten der letzten Woche. Das neue „Apple“-Tool zur Identifizierung von Fällen von Kindesmissbrauch auf Fotos sorgte beim Messenger für Kontroversen.

Weiterlesen: Schauen Sie sich die am meisten erwarteten Neuigkeiten von WhatsApp an

Mehr sehen

Alarm: DIESE giftige Pflanze brachte einen jungen Mann ins Krankenhaus

Google entwickelt KI-Tool, um Journalisten bei… zu helfen

Die Ankündigung der Funktion auf dem iPhone erfolgte am vergangenen Donnerstag (5). Ziel ist es, Bilder zu identifizieren, die ein Verbrechen der Kindesmisshandlung/-ausbeutung darstellen. Allerdings sagte WhatsApp-Vertreter Will Cathcart, dass die Neuheit gegen rechtliche Probleme verstoßen würde. Darüber hinaus würde es auch gegen die Datenschutzbestimmungen verstoßen.

„Ich habe die Informationen gelesen, die Apple gestern [05.08.] veröffentlicht hat, und bin besorgt. Ich halte diesen Ansatz für falsch und einen Rückschlag für die Privatsphäre der Menschen auf der ganzen Welt. Die Leute fragen, ob wir dieses System für WhatsApp übernehmen werden. „Die Antwort ist nein“, betonte Cathcart in seinem Twitter-Account.

instagram story viewer

Will hat mehrere Nachrichten gepostet, um seine Bedenken hinsichtlich der Ankündigung von Apple zu rechtfertigen. Ihm zufolge könnten Regierungen und Spyware-Unternehmen die Software auf dem iPhone abfangen. Dies würde die Privatsphäre der Nutzer verletzen.

Die Führungskraft stellt auch die Transparenz von Apple in dieser Angelegenheit in Frage. „Kann diese Scan-Software auf Ihrem Telefon narrensicher sein? Die Forscher durften es nicht herausfinden. Warum nicht? Woher wissen wir, wie oft Fehler die Privatsphäre von Menschen verletzen?

„Ich habe von mehreren unabhängigen Personen die Bestätigung erhalten, dass Apple ein clientseitiges Tool für CSAM-Scans herausbringt. Das ist eine wirklich schlechte Idee. Mit diesen Tools kann Apple Ihre iPhone-Fotos nach passenden Bildern durchsuchen einem bestimmten Wahrnehmungs-Hash zuzuordnen und sie an die Server des Unternehmens zu melden, wenn zu viele davon auftauchen“, sagte er. Auch.

Apple sagte, die Informationen zum Nachrichtenscannen seien nicht ganz korrekt. Die aus der Sicherheitsanalyse gewonnenen Daten würden in einer verschlüsselten Bank abgelegt. Das Unternehmen würde keine Daten aus den Fotobibliotheken der Benutzer sammeln. Dies wäre nur dann der Fall, wenn kriminelles Material entdeckt würde.

Apple strebt die Sicherheit von Minderjährigen an

Apple wiederum berichtete, dass die neue Funktion Teil eines für 2021 geplanten Update-Pakets sei. Dieses Paket ist Teil einer neuen Benutzerschutzrichtlinie des Unternehmens. Ziel ist es, Kinder und Jugendliche vor sexuellen Belästigungen zu schützen.

Das neue System nutzt „NeuralHash“, eine Art neuronales Matching. Damit wäre es in der Lage, Bilder mit Fingerabdrücken zu erkennen, die auf Pädophilie hinweisen.

Das Problem mit der Neuheit sind die Risiken, die sie für die Sicherheit der Benutzerdaten mit sich bringen kann. Experten auf diesem Gebiet sagen, dass dies zu einer Überwachung verschlüsselter Nachrichten führen könnte. Dies ist sogar die Meinung von Matthew Green vom Johns Hopkins Security Institute.

Laut Apple besteht zwar die Möglichkeit einer Fehlinterpretation, die Rate falsch verstandener Benutzer läge jedoch bei weniger als einer von einer Billion pro Jahr.

Teachs.ru

Syllogismusfiguren und einige Regeln zum Verständnis understanding

Ableiten bedeutet, einen Satz als Schlussfolgerung aus anderen zu extrahieren. Ö Syllogismus es ...

read more

Haltung, Vorurteil und Stereotyp. Einstellung, Vorurteil und Stereotyp

Um zu verstehen, was Vorurteile sind, ist es hilfreich, zuerst das Konzept der Einstellung zu ve...

read more
Kindersport. Bedeutung des Kindersports

Kindersport. Bedeutung des Kindersports

Was ist Sport?Viele Menschen neigen dazu, Sport und körperliche Aktivität zu verwechseln. Der Unt...

read more
instagram viewer