- ニュース

写真:ベンジャミン・バラス
90以上の政策・権利団体からなる国際連合が、Appleに対し、ユーザーの写真をスキャンして児童虐待素材(CSAM)を検出する計画を中止するよう求めている。
同連合は木曜日に発表したアップルのティム・クックCEO宛の公開書簡の中で、この機能が「保護された言論を検閲するために使用され、世界中の人々のプライバシーと安全が脅かされ、子供たちに悲惨な結果をもたらすだろう」と懸念していると述べた。
Appleは、メッセージアプリで子供がヌード画像を見ようとしたときに警告を発したり、iCloud写真でCSAMをスキャンしたりする、物議を醸している新しい子供の安全機能に対して、圧倒的な反発に直面している。
これらの機能について懸念を表明するユーザーやプライバシー擁護団体は増加しており、中にはAppleデバイスを完全に手放すと脅す声も上がっている。Appleの従業員も反発に加わっている。
現在、Apple 社はこれまでで最大の反対運動に直面している。
人権団体が写真スキャン反対の闘いに加わる
この書簡は、クックCEOとアップルに対し、今年後半に導入が予定されている新しい子ども向け安全機能を廃止するよう求めるだけでなく、なぜその機能が「現在そして将来の両方で」子どもや他のユーザーを危険にさらすのかを指摘している。
他の団体と同様に、この団体は検閲や監視の潜在的な落とし穴について警告している。また、Appleがすべての子供が親によって保護されていると想定することで見落としている可能性のある、子供の安全に関するいくつかのリスクについても指摘している。
「世界中の公民権、人権、デジタル権利に尽力する下記の署名団体は、2021年8月5日に発表されたiPhone、iPad、その他のApple製品に監視機能を組み込む計画を放棄するようAppleに強く求める書簡を送付します」と書簡は始まる。
「これらの機能は、子どもを保護し、児童性的虐待コンテンツ(CSAM)の拡散を抑制することを目的としていますが、保護された言論の検閲に使用され、世界中の人々のプライバシーと安全が脅かされ、多くの子どもたちに悲惨な結果をもたらすのではないかと懸念しています。」
子どもの安全に対する脅威?
「性的に露骨なコンテンツを検出するために設計されたアルゴリズムは、信頼性の低さで悪名高い」と連合は説明する。「芸術作品、健康情報、教育リソース、アドボカシーメッセージ、その他の画像を誤ってフラグ付けする傾向がある。こうした情報を送受信する子どもの権利は、国連児童の権利条約で保護されている。」
さらに、Appleが開発したシステムは、対象となる「親」アカウントと「子」アカウントが実際には子供の親である成人の所有物であり、両者が健全な関係にあることを前提としています。しかし、必ずしもそうとは限りません。虐待的な成人がアカウントの管理者である場合もあり、保護者への通知によって子供の安全と幸福が脅かされる可能性があります。
書簡によると、これらの機能は、iMessageが機密性とプライバシーを必要とするユーザーにもはや提供しなくなることを意味する。また、この「バックドア機能」が組み込まれると、政府はAppleに対し「性的に露骨な表現以外の理由で不適切な画像を検出する」よう強制する可能性があると警告している。
「検閲、監視、迫害の基盤」
同団体は、iCloudにアップロードされたユーザーの写真のスキャンに関して、CSAMの蔓延に断固反対する姿勢を表明しているが、Appleの計画は「世界規模での検閲、監視、迫害の土台を築くもの」だと警告している。
Appleは「CSAMだけでなく政府が不適切と考えるその他の画像についても写真をスキャンするよう、世界各国政府から多大な圧力、そして場合によっては法的要求に直面するだろう」と述べている。
「これらの画像は、人権侵害や政治的抗議活動、企業が『テロリスト』や暴力的過激派コンテンツとしてタグ付けした画像、あるいは企業にスキャンを強制する政治家自身の好ましくない画像である可能性があります。」
書簡は、Appleに対し、新しいチャイルドセーフティ機能を廃止し、ユーザーのプライバシー保護へのコミットメントを再確認するよう訴えて締めくくられている。また、同社に対し、市民社会団体や、こうした動きによって「不均衡な影響を受ける可能性のある」脆弱なコミュニティと協議するよう強く求めている。
署名者のリストと全文は、民主主義とテクノロジーセンターのウェブサイトで読むことができます。
出典: ロイター