AppleはiCloudにアップロードされた写真をスキャンし、児童虐待が含まれていないかチェックしている

AppleはiCloudにアップロードされた写真をスキャンし、児童虐待が含まれていないかチェックしている

  • Oligur
  • 0
  • vyzf
AppleはiCloudにアップロードされた写真をスキャンし、児童虐待が含まれていないかチェックしている
  • ニュース
AppleはFBIの懸念を受けて安全なiCloudバックアップの計画を断念した
Appleの最高プライバシー責任者がCESのパネルでこの技術について語った。
写真:ジム・メリシュー/Cult of Mac

CES-2020-バグ-2

Appleの最高プライバシー責任者(CPO)は、iCloudにアップロードされた写真に児童虐待が含まれていないかをスキャンしていると述べた。ジェーン・ホルバート氏は、CESで火曜日に行われたユーザープライバシーに関するパネルディスカッションで、この技術の活用について説明した。

ホルバート氏は、Appleがどのようにこれを実行しているかは具体的には明らかにしなかった。Facebook、Twitter、Googleなど多くの企業が、Microsoftが開発した「PhotoDNA」というツールを既に利用している。このツールは、画像を過去に識別された写真のデータベースと照合する。

参加したパネルディスカッションで、ホルバート氏は「児童性的虐待コンテンツのスクリーニングに役立つ技術をいくつか活用しています」とだけ述べた。

Appleがいつからこのような方法で画像をスキャンし始めたのかは不明です。しかし、昨年、Appleはプライバシーポリシーを改訂し、児童虐待に関するコンテンツを含む画像をスキャンする可能性があることを明記しました。Appleのウェブサイトには、次のような免責事項が掲載されています。

Appleは、児童搾取の発見と報告を支援するために画像マッチング技術を活用しています。メールのスパムフィルターと同様に、Appleのシステムは電子署名を用いて児童搾取の疑いのあるコンテンツを検出します。児童搾取コンテンツを含むアカウントはAppleの利用規約に違反しており、そのようなコンテンツを含むアカウントは無効化されます。

Apple、児童虐待の疑いがあるiCloud画像を精査

Appleの課題は、法執行とプライバシーのバランスを取ることです。良識ある人なら誰でも、児童虐待を取り締まる取り組みを支持するでしょう。しかし、犯罪者を見つけるために大量のユーザーデータをスキャンすることが許されるかどうかという問題は、大きく、非常に複雑な問題です。

Appleは以前、プライバシーをめぐってFBIと対立したことがある。その時は、Appleはユーザーのデータのプライバシーを守る立場を取った。

Appleは既に画像認識技術を活用し、写真に写っている人物や物体を識別しています。これは機械学習を用いて行われています。機械学習はAppleが近年投資を強化している分野です。しかし、現状から判断すると、児童虐待の発見に関しては、Appleのこの分野における技術は、既に報告されている虐待画像との照合に重点を置いているようです。

2018年、AppleはTumblrをApp Storeから削除しました。これは、Tumblrに児童ポルノが含まれていたためと報じられており、何らかの理由でTumblrのフィルターを回避できたことが原因です。

出典:テレグラフ