NCMEC、Google と画像ハッシュ化技術について


米国では、インターネット上の児童性的虐待のコンテンツ(CSAM)に関する報告が、全米行方不明・被搾取児童センター(NCMEC)に毎年数百万件寄せられています。NCMEC の上級副社長および最高執行責任者である Michelle DeLaune 氏が、組織の進化、テクノロジー企業による CSAM への取り組み、Google の Hash Matching API について語ります。

NCMEC と、ご自身の役割について教えてください。


私は NCMEC に 20 年以上在籍しています。これまで、組織の変化、児童たちとその安全に対する課題や脅威を目の当たりにしてきました。まずは CyberTipline アナリストとして、NCMEC でのキャリアをスタートさせました。

CyberTipline は、児童搾取のおそれがある事案を一般市民が通報できるように設立されたもので、1998 年に運用が開始されました。当時は、自分の子どもが誰かからオンラインで不適切に声をかけられているのではないかと心配する保護者がいたほか、CSAM が含まれるウェブサイトを見つけた人からの報告が寄せられていました。その後、米国で連邦法が成立し、米国のテクノロジー企業は自社のシステムにおいて明らかな CSAM が見つかった場合、CyberTipline に報告することが義務付けられました。

当初、児童の搾取に関する報告は週に 100 件を超えるくらいで、テクノロジー企業から初めて報告を受けたのは2001 年のことでした。それが2021 年では、毎日約 7 万件の報告が寄せられるようになっています。一般市民からの通報もありますが、大半はテクノロジー企業からのものです。

NCMEC は、CSAM 対策に取り組むオンライン企業をどのように支援していますか?


企業に積極的な取り組みを求める法令はありません。ただし、CSAM コンテンツを検出した場合やそのようなコンテンツを把握した場合、報告の義務があります。これが、長年にわたって CyberTipline レポートが増加してきた要因です。しかし大きく報告数が伸びたのは、ここ 5 年のことです。この爆発的ともいえる増加は、多くのテクノロジー企業が CSAM を積極的に検出、削除、報告する活動を自主的に行っていることに起因していると考えられます。

全米行方不明・被搾取児童センターが運営する主要なプログラムに、ハッシュ共有プラットフォームがあります。テック業界と複数の指定 NGO 、双方が役割を担っています。NCMEC は、 NGOである「ハッシュ共有プラットフォーム」を介し、関心を持つテック企業に対して、3 重に精査された確認済み CSAM のハッシュ値を 500 万件以上提供しています。これが、ネットワーク上の CSAM 撲滅への取り組みを支援のかたちです。Google を含む多くの大企業がこのリストを利用しており、自社プラットフォームから CSAM を排除するための積極的な措置を取っています。

児童のために活動している信頼のおける NGO はこのリストに関して、NCMEC のハッシュ プラットフォームを通じてテクノロジー業界にハッシュを提供できるようにしています。こうすることで、テクノロジー企業が各 NGO と個別に連絡を取る必要性を最小限に抑えています。企業同士で CSAM ハッシュを共有できる、業界ハッシュ共有プラットフォームも提供しています。CSAM を積極的に検出する意思と能力のある企業には、そのために必要なツールをすべて提供し、CSAM ハッシュを企業間で共有できるようにしています。Google はこのプラットフォームで最大の貢献者であり、リストにあるハッシュの総数の約 74% を占めています。

報告数の多さから容易に想像がつくように、同じ画像が何度も報告されることは珍しくありません。企業はハッシュ値を使用して既知のコンテンツを検出するため、これは当然のことです。しかし、既知のコンテンツが増えれば増えるほど、オンラインで生成され共有されている新しいコンテンツを識別できるようになることは、NCMEC にとってより重要になっています。

Google の Hash Matching API は、NCMEC の CyberTipline レポートの優先順位付けに重要な役割を果たしています。このプロジェクトが始まった経緯について詳しく教えてください。

ハッシュ共有プログラムの成功は、ボリュームというまったく新しい課題を生み出しました。これは非常に大きな問題でした。NCMEC のような非営利団体には、大きなボリュームに対応できる情報処理技術の知見はありません。そのため、Hash Matching API ツールの構築における Google の支援は大変感謝しています。

2020 年に NCMEC が受け取った CyberTipline レポートは 2,100 万件にのぼり、それぞれ複数の画像や動画が含まれていることもありました。実際、この 2,100 万件のレポートは、7,000 万件近くの児童への性的虐待の画像と動画が含まれていました。その中には明らかに重複があります。NCMEC にとって完全一致の検出は容易ですが、視覚的な近似一致を大規模かつリアルタイムに検出し、未知の画像の中から対象を特定して優先順位を付ける技術はありません。とはいえ、性的虐待を受けている児童だと断定するうえで鍵となる技術なのです。

NCMEC から見た Hash Matching API の良いところをお聞かせください。


NCMEC には、この極めて重大な情報を入手し、できるだけ早く法執行機関に伝えるという大切な仕事があります。CyberTipline レポートにこれまでにない重要性をもたせる点に、この API ツールの強みがあります。

NCMEC には、児童への性的虐待の画像と動画を全数調べたうえで、ラベルを付けを行う作業過程があります。たとえば、「これは CSAM に該当する」、「該当しない」、「人物の年齢が特定し難い」という具合です。先ほど触れましたが、昨年だけでもファイルは 7,000 万件あり、すべてにラベルを付けることは到底不可能といえます。ですが、この API を使用することで比較作業が可能になります。あるファイルにタグを付けると、視覚的に類似したファイルをすべてを API が 識別し、同時進行で人出でタグ付けを行うという流れです。その結果、2,600 万件を超える画像にタグを付けることが実現しました。

このツールの登場により、法執行機関に送るレポートがより大きな意味を持つようになりました。法執行機関は、優先順位を把握したうえでレポートを審査できるように変わったのです。また、未知の画像の中から対象を特定できるようにもなっています。そうした画像には多くの場合、世界のどこかで性的虐待を受けている児童が写っています。ことわざにあるとおり、干し草の山から針を探すようなものですが、この場合、針はまさに助けを必要としている児童です。Google のツールを利用することで、今まさに助けを必要としている児童の画像に狙いを定めることができるようになりました。

CyberTipline からの報告に対応し、CSAM コンテンツを分析する NCMEC の審査担当者の健康面には、どのような影響がありましたか。


この CSAM 検出ツールによって、スタッフが何度も同じ画像を見る必要がなくなりました。性的虐待を受けている児童の画像があっても、その児童は現在すでに成人している可能性があります。こうした画像はネット上で半永久的に公開され続け、個人が継続的に被害を受けることにつながります。そこで、こうした画像にタグを付けることで、最近の性的虐待のサインが表れている児童に焦点を当てると同時に、そうした違法な画像が表示されないようにします。

私たちはそのために活動しています。そうした児童を助けたいのです。これは、スタッフの心身の健康を維持し、同じ有害コンテンツを何度も見ずに済むようにするための画期的な改善でした。

このAPI ですが、児童性的動画や画像の問題に一丸となって取り組むテクノロジー企業への貢献度を教えてください。


Google は CSAM 検出技術を企業に提供して世界的な CSAM 対策を支援し、また、Hash Matching API が NCMEC を超えて多くの組織に直接的な影響を及ぼしていますね。NCMEC のプロセスが合理的で効率的なものへと変化を遂げ、テクノロジー企業各社への追い風になっています。このツールの登場によって CyberTipline レポートは改良を遂げ、スピーディな作成や処理がなされています。

NCMEC は、テクノロジー企業、法執行機関、被害者とそのご家族の中心に位置する存在で、問題と対峙しながら解決策を導き出すうえで、非常に独特な視点を持っています。CyberTipline があるおかげで、まだ日の浅い CSAM も従前からある CSAM も、オンラインで出回っていることをすぐ把握できます。こうしたレポートはすべて法執行機関に提供されます。出どころをたどれば、性的な被害を受け、搾取された児童が現実にいることを決して忘れてはなりません。

性的虐待を受け、虐待の様子が動画や画像に刻まれている児童が 2 万人以上いることがわかっています。被害者は、未成年の場合もあれば、成人している場合もありますが、被害の苦しみは今も続いているのです。だからこそ、こうした画像が出回ることを可能な限り抑止し、画像を削除するために力を尽くすことが非常に重要だといえます。

世間の認識が浅いことの一例として、CSAM であるとわかっても、画像が「古い」または「再度出回っている」と軽視する風潮があります。そこに写っているのは実在する児童であり、2 万人以上の児童が傷を癒やそうとし、そして自分の人生を取り戻そうとしている現実があります。私たちは、この点を世論に強く訴え続けています。Google のような企業が、最悪の瞬間を捉えた画像を削除するためにあらゆる取り組みを行っているということが、被害者たちの安心感につながっているのです。

児童への性的虐待の画像やコンテンツを見つけた場合は、全米行方不明・被搾取児童センター(NCMEC)、または世界各地の関係当局に報告してください。Google は、オンライン上の児童性的虐待と搾取の撲滅を目指し、Google のサービスにおける児童性的虐待のコンテンツ(CSAM)の拡散防止に取り組んでいます。詳しくは、児童の保護に関するウェブサイトをご覧ください。

サイバーセキュリティの発展

Google がいかにして世界中の人々のオンラインでの安全性を守っているかをご紹介します。

詳細