Appleとの間に亀裂が生じる ワッツアップ は先週の主なニュースの一つでした。 写真から児童虐待のケースを特定する新しい「Apple」ツールは、メッセンジャーとの論争を引き起こした。
続きを読む: WhatsApp の最も期待されるニュースをチェックしてください
続きを見る
警告: この有毒植物により、若者が病院に運ばれました
Google、ジャーナリストを支援する AI ツールを開発…
iPhone でのこの機能の発表は先週の木曜日 (5) に行われました。 目的は、児童虐待/搾取の犯罪を構成する画像を特定することです。 しかし、WhatsAppの代表者Will Cathcart氏は、その目新しさは法的問題に違反すると述べた。 さらに、プライバシーポリシーにも違反します。
「昨日[05/08]Appleが発表した情報を読み、懸念しています。 このアプローチは間違っており、世界中の人々のプライバシーを後退させるものだと私は思います。 このシステムを WhatsApp に採用するつもりなのかと尋ねられることがあります。 答えはノーだ」とキャスカート氏は自身のツイッターアカウントで強調した。
ウィル氏は、Appleの発表に対する懸念を正当化するために、いくつかのメッセージを投稿した。 同氏によると、政府やスパイウェア会社がiPhone上のソフトウェアを傍受する可能性があるという。 これはユーザーのプライバシーを侵害することになります。
同幹部はこの問題におけるアップルの透明性にも疑問を抱いている。 「あなたの携帯電話のこのスキャン ソフトウェアは確実なものでしょうか? 研究者たちはそれを知ることを許されていなかった。 なぜだめですか? ミスによって人々のプライバシーがどのくらい侵害されているかをどうやって知ることができるでしょうか?
「Apple が CSAM スキャン用のクライアント側ツールをリリースしているということを複数の関係者から独立して確認しました。 これは本当に悪い考えです。 これらのツールを使用すると、Apple は iPhone の写真をスキャンして、一致する画像を見つけることができます。 特定の知覚ハッシュに変換し、あまりにも多くのものが表示された場合は会社のサーバーに報告します」と彼は言いました。 また。
Appleは、メッセージスキャン情報は正確ではないと述べた。 セキュリティ分析から取得されたデータは、暗号化された銀行に保管されます。 同社はユーザーの写真ライブラリからデータを蓄積するつもりはない。 これは、犯罪資料が検出された場合にのみ発生します。
Apple、未成年者の安全を目指す
一方、Apple は、この新機能は 2021 年に予定されているアップデート パッケージの一部であると報告しました。 このパッケージは、同社が開始した新しいユーザー保護ポリシーの一部です。 目的は、子供や青少年を性的犯罪者から特定し、防ぐことです。
新システムではニューラルマッチングの一種である「NeuralHash」を利用する。 したがって、小児性愛に該当する指紋を含む画像を検出できる可能性があります。
この目新しさの問題は、ユーザーデータのセキュリティにリスクをもたらす可能性があることです。 この分野の専門家らは、暗号化されたメッセージによる監視が行われる可能性があると述べている。 これは、ジョンズ・ホプキンス大学セキュリティ研究所のマシュー・グリーン氏の意見でもあります。
Apple によると、誤読の可能性は存在しますが、ユーザーの誤読率は年間 1 兆人に 1 人未満になるでしょう。