Apple、iPhoneとiCloudで児童虐待画像をスキャンする予定 [更新]

Apple、iPhoneとiCloudで児童虐待画像をスキャンする予定 [更新]

  • Oligur
  • 0
  • vyzf
Apple、iPhoneとiCloudで児童虐待画像をスキャンする予定 [更新]
  • ニュース
収益報告の電話会議での会話を最大限に活用するために金融用語を学びましょう。
決算説明会での話を最大限に活用するために、金融用語を学んでみましょう。
写真:Kevin Dooley/Flickr CC

木曜日の報道によると、AppleはユーザーのiPhoneとiCloudアカウントに保存されている写真をスキャンし、児童虐待を示唆する画像がないか調べる計画だ。この取り組みは法執行機関の捜査に役立つ可能性がある一方で、政府機関によるユーザーデータへのアクセスを招き、物議を醸す可能性もある。

Appleがウェブページ「子どものための保護の強化」(「CSAM検出」のサブタイトルを参照)を更​​新したことで、スキャン計画が正式に発表されたようです。CSAMは「児童性的虐待資料」の略です。

アップルが導入する「ニューラルマッチ」と呼ばれるシステムは、「違法な画像が検出されたと判断された場合、人間の審査員チームに事前に警告を発し、審査員チームは、その素材が検証可能な場合は法執行機関に連絡する」とフィナンシャル・タイムズ紙が木曜日に報じた。

フィナンシャル・タイムズによると、アップルは今週、米国の研究者らにこの計画について説明し、この件について説明を受けた2人のセキュリティ研究者は「早ければ今週」にも詳細を明らかにする可能性があると述べた。

疑わしい写真とデータベース画像の比較

同紙によると、専門家らは国立行方不明・被搾取児童センターの20万枚の画像を用いてneuralMatchを「訓練」したという。容疑者の写真はハッシュ化され、データベース内の児童性的虐待画像と比較される。

FT の報道によると、このシステムはまず米国で導入され、その後他の地域でも展開される予定。

「計画について説明を受けた関係者によると、米国でiCloudにアップロードされたすべての写真には、疑わしい写真か否かを示す『安全バウチャー』が付与される」とフィナンシャルタイムズは報じた。「一定数の写真が疑わしい写真としてマークされると、Appleはすべての疑わしい写真の暗号を解除し、明らかに違法と思われる場合は関係当局に引き渡すことになる」

システムに対する懸念

The Vergeは、ジョンズ・ホプキンス大学の教授で暗号学者のマシュー・グリーン氏がTwitterでこのシステムについて懸念を表明したと報じている。「この種のツールは、人々の携帯電話から児童ポルノを見つけるのに大いに役立つ可能性がある」とグリーン氏は述べた。「しかし、独裁政権の手に渡ったらどうなるか想像してみてほしい」

「たとえAppleがこれらのツールの悪用を許さないと信じていても(指を交差させた絵文字)、依然として懸念すべき点はたくさんあります」と彼は付け加えた。「これらのシステムは、『問題のあるメディアハッシュ』のデータベースに依存しており、消費者である私たちはそれを確認することはできません。」

Appleや他の企業はすでに同様のことを行っている

Appleなどの大手クラウドプロバイダーは、既に児童虐待の既知の画像と照らし合わせてファイルを照合している。しかし、 The Vergeによると、 neuralMatchシステムはそれらの機能を超え、ローカルストレージへの集中アクセスを可能にするという。

専門家らは、この制度を他の犯罪にも容易に適用できると指摘している。Appleが相当なビジネスを展開している中国のような国では、こうしたアクセスと法的適用は懸念材料となる可能性がある。

Appleのプライバシーに関する見解

アップルは、プライバシーを重視する欧州連合に向けたビデオでのティム・クック最高経営責任者(CEO)による最近の発言を含め、自社のデバイスのプライバシー保護を重視してきた。

同社は、2015年にカリフォルニア州サンバーナディーノで起きた銃撃事件の犯人が所有していたiPhoneへのアクセスをFBIに提供するというFBIの要求に応じることを拒否し、一時ニュースを賑わせた。

報道機関は木曜日、アップルが画像をスキャンする計画についてのコメント要請に応じていないと報じた。