NCMEC、Google と画像ハッシュ化技術について
米国では、インターネット上の児童性的虐待のコンテンツ(CSAM)に関する報告が、全米行方不明・被搾取児童センター(NCMEC)に毎年数百万件寄せられています。NCMEC のシニア バイス プレジデント兼最高執行責任者である Michelle DeLaune 氏が、組織の進化、テクノロジー企業による CSAM への取り組み、Google の Hash Matching API について語ります。
NCMEC と、ご自身の役割について教えてください。
私は NCMEC に 20 年以上在籍しています。これまで、組織の変化、児童たちとその安全に対する課題や脅威を目の当たりにしてきました。まずは CyberTipline アナリストとして、NCMEC でのキャリアをスタートさせました。
CyberTipline は、児童搾取のおそれがある事案を一般市民が通報できるように設立されたもので、1998 年に運用が開始されました。当時は、自分の子どもが誰かからオンラインで不適切に声をかけられているのではないかと心配する保護者や、CSAM が含まれるウェブサイトを見つけた人からの報告が寄せられていました。その後、米国で連邦法が成立し、米国のテクノロジー企業は自社のシステムにおいて明らかな CSAM が見つかった場合、CyberTipline に報告することが義務付けられました。
当初、児童の搾取に関する報告は週に 100 件を超えるくらいでした。2001 年に初めてテクノロジー企業から報告を受けましたが、2021 年になると、毎日約 7 万件の新しい報告が寄せられています。一般市民からの報告もありますが、大半はテクノロジー企業からのものです。
NCMEC は、CSAM 対策に取り組むオンライン企業をどのように支援していますか。
法律では、企業が積極的に対策を講じることは義務付けられていません。簡単にいうと、CSAM コンテンツを検出した場合やそのようなコンテンツを把握した場合、報告の義務があるということです。これが、長年にわたって CyberTipline レポートが増加してきた要因です。しかし最も大きく報告数が伸びたのは、ここ 5 年以内のことです。この爆発的ともいえる増加は、多くのテクノロジー企業が CSAM を積極的に検出、削除、報告する取り組みを自主的に行っていることに起因していると考えられます。
全米行方不明・被搾取児童センターが運営する主要なプログラムに、ハッシュ共有プラットフォームがあります。これには業界が利用するものと、一部の NGO が利用するものがあります。NCMEC は NGO ハッシュ共有プラットフォームを介し、関心を持つテック企業に対して、3 重に精査された確認済み CSAM のハッシュ値を 500 万件以上提供することで、ネットワーク上の CSAM 撲滅への取り組みを支援しています。Google を含む多くの大企業がこのリストを利用しており、自社のプラットフォームから CSAM を排除することに積極的に取り組んでいます。このリストはさらに、児童のために活動している信頼できる NGO が、NCMEC のハッシュ プラットフォームを通じてテクノロジー業界にハッシュを提供できるようにすることで、テクノロジー企業が各 NGO と個別に連絡を取る必要性を最小限に抑えています。
また、企業同士で CSAM ハッシュを共有できる、業界ハッシュ共有プラットフォームも提供しています。CSAM を積極的に検出する意思と能力のある企業には、そのために必要なツールをすべて提供し、CSAM ハッシュを企業間で共有できるようにしています。Google はこのプラットフォームで最大の貢献者であり、リストにあるハッシュの総数の約 74% を占めています。
報告数の多さから容易に想像がつくように、同じ画像が何度も報告されることは珍しくありません。企業はハッシュ値を使用して既知のコンテンツを検出するため、これは当然のことです。しかし、既知のコンテンツが増えれば増えるほど、オンラインで生成、共有されている新しいコンテンツを識別できるようになることは、NCMEC にとってより重要な意味を持ちます。
Google の Hash Matching API は、NCMEC での CyberTipline レポートの優先度の設定に有用です。このプロジェクトが始まった経緯について詳しく教えてください。
ハッシュ共有プログラムの成功は、ボリュームというまったく新しい課題を生み出しました。これは非常に大きな問題でした。NCMEC のような非営利団体には、大きなボリュームに対応できる計算能力はありません。そのため、Hash Matching API ツールの構築における Google の支援は必要なものでしたし、とても助かりました。
2020 年に NCMEC が受け取った CyberTipline レポートは 2,100 万件にのぼり、その一つ一つに複数の画像や動画が含まれている可能性があります。実際、この 2,100 万件のレポートには、7,000 万件近くの児童への性的虐待の画像と動画が含まれていました。その中には明らかに重複があります。NCMEC にとって完全一致の検出は容易ですが、視覚的な類似を大規模かつリアルタイムに検出し、見たことのない画像を特定して優先順位を付ける技術はありません。しかし、実際に性的虐待を受けている児童を特定しようとするとき、この技術が鍵となります。
Hash Matching API は NCMEC にどのようなメリットをもたらしましたか。
NCMEC には、この重要な情報を入手し、できるだけ早く法執行機関に伝えるという大切な仕事があります。CyberTipline レポートの価値を飛躍的に高める新たな手段が得られたことは、このツールのメリットの一つです。
NCMEC には、児童への性的虐待の画像と動画をくまなく調べてラベルを付けるという作業プログラムがあります。たとえば、「これは CSAM」、「これは CSAM ではない」、「これは人物の年齢を特定し難い」という具合です。しかし、ご想像のとおり、昨年だけでもファイルは 7,000 万件あり、すべてにラベルを付けることは不可能です。この API を使用すると、比較を行うことができます。あるファイルにタグを付けると、視覚的に類似するファイルを API ですべて識別できるので、リアルタイムで適切なタグを付けられます。その結果、2,600 万件を超える画像にタグを付けることができました。
これにより、法執行機関が優先度に基づいてレポートを審査できるようになり、法執行機関に送るレポートの価値が高まります。また、見たことのない画像を特定するためにも役立ちます。そうした画像には多くの場合、世界のどこかで性的虐待を受けている児童が写っています。ことわざにあるとおり、干し草の山から針を探すようなものですが、この場合、針は助けを必要としている児童です。Google のツールを利用することで、今まさに助けを必要としている児童の画像に狙いを定めることができるようになりました。
CyberTipline レポートの処理や CSAM コンテンツの分析にあたる NCMEC の担当者の心身面においては、どのような影響がありましたか。
この CSAM 検出ツールによって、スタッフが何度も同じ画像を見る必要がなくなりました。性的虐待を受けている児童の画像があっても、その児童は現在すでに成人している可能性があります。こうした画像はネット上で半永久的に公開され続け、個人が継続的に被害を受けることにつながります。そこで、こうした画像にタグを付けることで、最近の性的虐待のサインが表れている児童に焦点を当てると同時に、そうした違法な画像が表示されないようにします。
私たちはそのために活動しています。そうした児童を助けたいのです。これは、スタッフの心身の健康を維持し、同じ有害コンテンツを何度も見ずに済むようにするための画期的な改善でした。
この取り組みは、この種のオンライン コンテンツの撲滅を図るテクノロジー企業全般にとって、どのように役立ちますか。
私は、Google が CSAM 検出技術を企業に提供して世界的な CSAM 対策を支援していること、Hash Matching API が NCMEC だけでなく多くの組織に直接的な影響を及ぼしていることを見てきました。どのテクノロジー企業も、NCMEC のプロセスがさらに合理的で効率的なものになったことの恩恵を受けています。CyberTipline レポートは、このツールがなかったときよりも迅速に、付加価値の高い方法で対応され処理されています。
NCMEC は、テクノロジー企業、法執行機関、被害者とその家族のための中心的なリソースです。問題と対峙し、解決策を導き出すうえで、非常に独特な視点を持っています。CyberTipline があるおかげで、新たに作成された CSAM や既存の CSAM がオンラインで出回っていることをすぐ把握できます。こうしたレポートはすべて法執行機関に提供されます。出どころをたどれば、性的な被害を受け、搾取された児童が現実にいることを決して忘れてはなりません。
性的虐待を受け、その虐待の様子が動画や画像に残っている児童が 2 万人以上いることがわかっています。被害者は、もちろんまだ未成年の場合もあれば、成人している場合もあります。そして、被害の苦しみは今も続いているのです。だからこそ、こうした画像が出回ることを可能な限り抑止し、画像を削除するために力を尽くすことが非常に重要なのです。
あまり知られていないことですが、画像が「古い」または「再度出回っている」と見なされることで、CSAM として認識されたにもかかわらず無視されてしまう傾向があります。私たちは、そこに写っているのは実在する児童であること、そして 2 万人以上の児童が傷を癒やし、自分の人生を取り戻そうとしている現実を、強く訴え続けています。Google のような企業が、最悪の瞬間を捉えた画像を削除するためにあらゆる取り組みを行っているということが、被害者たちの安心感につながっています。
児童への性的虐待の画像やコンテンツを見つけた場合は、全米行方不明・被搾取児童センター(NCMEC)、または世界各地の関係当局に報告してください。
Google は、オンライン上の児童性的虐待と搾取の撲滅を目指し、Google のサービスにおける児童性的虐待のコンテンツ(CSAM)の拡散防止に取り組んでいます。詳しくは、児童の保護に関するウェブサイトをご覧ください。