コンテンツに​移動

hero-ncmec.jpg

NCMEC、​Google と​画像ハッシュ化技術に​ついて

米国では、​インターネット上の​児童性的虐待の​コンテンツ​(CSAM)に​関する​報告が、​全米​行方​不明・被搾取児童センター​(NCMEC)に​毎年​数百万件寄せられています。​NCMEC の​シニア バイス プレジデント兼最高執行責任者である​ Michelle DeLaune 氏が、​組織の​進化、​テクノロジー企業に​よる​ CSAM への​取り組み、​Google の​ Hash Matching API に​ついて​語ります。

共有

NCMEC と、​ご自身の​役割に​ついて​教えてください。

私は​ NCMEC に​ 20 年以上​在籍しています。​これまで、​組織の​変化、​児童たちと​その​安全に​対する​課題や​脅威を​目の​当たりに​してきました。​まずは​ CyberTipline アナリストと​して、​NCMEC での​キャリアを​スタートさせました。

CyberTipline は、​児童搾取の​おそれが​ある​事案を​一般市民が​通報できるように​設立された​もので、​1998 年に​運用が​開始されました。​当時は、​自分の​子どもが​誰かから​オンラインで​不適切に​声を​かけられているのではないかと​心配する​保護者や、​CSAM が​含まれる​ウェブサイトを​見つけた​人からの​報告が​寄せられていました。​その後、​米国で​連邦法が​成立し、​米国の​テクノロジー企業は​自社の​システムに​おいて​明らかな​ CSAM が​見つかった​場合、​CyberTipline に​報告する​ことが​義務付けられました。

当初、​児童の​搾取に​関する​報告は​週に​ 100 件を​超える​くらいでした。​2001 年に​初めて​テクノロジー企業から​報告を​受けましたが、​2021 年に​なると、​毎日​約 7 万件の​新しい​報告が​寄せられています。​一般市民からの​報告も​ありますが、​大半は​テクノロジー企業からの​ものです。

ncmec-image-1.jpg

NCMEC は、​CSAM 対策に​取り組むオンライン企業を​どのように​支援していますか。

法律では、​企業が​積極的に​対策を​講じる​ことは​義務付けられていません。​簡単に​いうと、​CSAM コンテンツを​検出した​場合や​そのような​コンテンツを​把握した​場合、​報告の​義務が​あると​いう​ことです。​これが、​長年に​わたって​ CyberTipline レポートが​増加してきた​要因です。​しかし​最も​大きく​報告数が​伸びたのは、​ここ 5 年以内の​ことです。​この​爆発的とも​いえる​増加は、​多くの​テクノロジー企業が​ CSAM を​積極的に​検出、​削除、​報告する​取り組みを​自主的に​行っている​ことに​起因していると​考えられます。

全米​行方​不明・被搾取児童センターが​運営する​主要な​プログラムに、​ハッシュ共有プラットフォームが​あります。​これには​業界が​利用する​ものと、​一部の​ NGO が​利用する​ものが​あります。​NCMEC は​ NGO ハッシュ共有プラットフォームを​介し、​関心を​持つテック企業に​対して、​3 重に​精査された​確認済み CSAM の​ハッシュ値を​ 500 万件以上​提供する​ことで、​ネットワーク上の​ CSAM 撲滅への​取り組みを​支援しています。​Google を​含む​多くの​大企業が​この​リストを​利用しており、​自社の​プラットフォームから​ CSAM を​排除する​ことに​積極的に​取り組んでいます。​この​リストは​さらに、​児童の​ために​活動している​信頼できる​ NGO が、​NCMEC の​ハッシュ プラットフォームを​通じて​テクノロジー業界に​ハッシュを​提供できるように​する​ことで、​テクノロジー企業が​各 NGO と​個別に​連絡を​取る​必要性を​最小限に​抑えています。

また、​企業同士で​ CSAM ハッシュを​共有できる、​業界ハッシュ共有プラットフォームも​提供しています。​CSAM を​積極的に​検出する​意思と​能力の​ある​企業には、​その​ために​必要な​ツールを​すべて​提供し、​CSAM ハッシュを​企業間で​共有できるように​しています。​Google は​この​プラットフォームで​最大の​貢献者であり、​リストに​ある​ハッシュの​総数の​約 74% を​占めています。

報告数の​多さから​容易に​想像が​つくように、​同じ​画像が​何度も​報告される​ことは​珍しく​ありません。​企業は​ハッシュ値を​使用して​既知の​コンテンツを​検出する​ため、​これは​当然の​ことです。​しかし、​既知の​コンテンツが​増えれば​増える​ほど、​オンラインで​生成、​共有されている​新しい​コンテンツを​識別できるようになる​ことは、​NCMEC に​とってより​重要な​意味を​持ちます。

ncmec-story-image-2.jpg

Google の​ Hash Matching API は、​NCMEC での​ CyberTipline レポートの​優先度の​設定に​有用です。​この​プロジェクトが​始まった​経緯に​ついて​詳しく​教えてください。

ハッシュ共有プログラムの​成功は、​ボリュームと​いう​まったく​新しい​課題を​生み出しました。​これは​非常に​大きな​問題でした。​NCMEC のような​非営利団体には、​大きな​ボリュームに​対応できる​計算能力は​ありません。​その​ため、​Hash Matching API ツールの​構築に​おける​ Google の​支援は​必要な​ものでしたし、​とても​助かりました。

2020 年に​ NCMEC が​受け取った​ CyberTipline レポートは​ 2,100 万件に​の​ぼり、​その​一つ​一つに​複数の​画像や​動画が​含まれている​可能性が​あります。​実際、​この​ 2,100 万件の​レポートには、​7,000 万件近くの​児童への​性的虐待の​画像と​動画が​含まれていました。​その​中には​明らかに​重複が​あります。​NCMEC に​とって​完全一致の​検出は​容易ですが、​視覚的な​類似を​大規模かつリアルタイムに​検出し、​見た​ことの​ない​画像を​特定して​優先順位を​付ける​技術は​ありません。​しかし、​実際に​性的虐待を​受けている​児童を​特定しようと​する​とき、​この​技術が​鍵と​なります。

Hash Matching API は​ NCMEC に​どのような​メリットを​もたらしましたか。

NCMEC には、​この​重要な​情報を​入手し、​できるだけ​早く​法執行機関に​伝えると​いう​大切な​仕事が​あります。​CyberTipline レポートの​価値を​飛躍的に​高める​新たな​手段が​得られた​ことは、​この​ツールの​メリットの​一つです。

NCMEC には、​児童への​性的虐待の​画像と​動画を​くまなく​調べて​ラベルを​付けると​いう​作業プログラムが​あります。​たとえば、​「これは​ CSAM」、​「これは​ CSAM ではない」、​「これは​人物の​年齢を​特定し難い」と​いう​具合です。​しかし、​ご想像の​とおり、​昨年だけでも​ファイルは​ 7,000 万件​あり、​すべてに​ラベルを​付ける​ことは​不可能です。​この​ API を​使用すると、​比較を​行うことができます。​ある​ファイルに​タグを​付けると、​視覚的に​類似する​ファイルを​ API ですべて​識別できるので、​リアルタイムで​適切な​タグを​付けられます。​その​結果、​2,600 万件を​超える​画像に​タグを​付ける​ことができました。

これに​より、​法執行機関が​優先度に​基づいて​レポートを​審査できるようになり、​法執行機関に​送る​レポートの​価値が​高まります。​また、​見た​ことの​ない​画像を​特定する​ためにも​役立ちます。​そうした​画像には​多くの​場合、​世界の​どこかで​性的虐待を​受けている​児童が​写っています。​こと​わざに​あるとおり、​干し草の​山から​針を​探すような​ものですが、​この​場合、​針は​助けを​必要と​している​児童です。​Google の​ツールを​利用する​ことで、​今まさに​助けを​必要と​している​児童の​画像に​狙いを​定める​ことができるようになりました。

CyberTipline レポートの​処理や​ CSAM コンテンツの​分析に​あたる​ NCMEC の​担当者の​心身面に​おいては、​どのような​影響が​ありましたか。

この​ CSAM 検出ツールに​よって、​スタッフが​何度も​同じ​画像を​見る​必要が​なくなりました。​性的虐待を​受けている​児童の​画像が​あっても、​その​児童は​現在すでに​成人している​可能性が​あります。​こうした​画像は​ネット上で​半永久的に​公開され続け、​個人が​継続的に​被害を​受ける​ことに​つながります。​そこで、​こうした​画像に​タグを​付ける​ことで、​最近の​性的虐待の​サインが​表れている​児童に​焦点を​当てると​同時に、​そうした​違法な​画像が​表示されないようにします。

私たちは​その​ために​活動しています。​そうした​児童を​助けたいのです。​これは、​スタッフの​心身の​健康を​維持し、​同じ​有害コンテンツを​何度も​見ずに​済むように​する​ための​画期的な​改善でした。

ncmec-story-image-3.jpg

この​取り組みは、​この​種の​オンライン コンテンツの​撲滅を​図る​テクノロジー企業全般に​とって、​どの​ように​役立ちますか。

私は、​Google が​ CSAM 検出技術を​企業に​提供して​世界的な​ CSAM 対策を​支援している​こと、​Hash Matching API が​ NCMEC だけでなく​多くの​組織に​直接的な​影響を​及ぼしている​ことを​見てきました。​どの​テクノロジー企業も、​NCMEC の​プロセスが​さらに​合理的で​効率的な​ものになった​ことの​恩恵を​受けています。​CyberTipline レポートは、​この​ツールが​なかった​ときよりも​迅速に、​付加価値の​高い​方​法で​対応され処理されています。

NCMEC は、​テクノロジー企業、​法執行機関、​被害者と​その​家族の​ための​中心的な​リソースです。​問題と​対峙し、​解決策を​導き出すうえで、​非常に​独特な​視点を​持っています。​CyberTipline が​ある​おかげで、​新たに​作成された​ CSAM や​既存の​ CSAM が​オンラインで​出回っている​ことを​すぐ​把握できます。​こうした​レポートは​すべて​法執行機関に​提供されます。​出どころを​たどれば、​性的な​被害を​受け、​搾取された​児童が​現実に​いる​ことを​決して​忘れては​なりません。

性的虐待を​受け、​その​虐待の​様子が​動画や​画像に​残っている​児童が​ 2 万人以上​いることが​わかっています。​被害者は、​もちろんまだ​未成年の​場合も​あれば、​成人している​場合も​あります。​そして、​被害の​苦しみは​今も​続いているのです。​だから​こそ、​こうした​画像が​出回る​ことを​可能な​限り抑止し、​画像を​削除する​ために​力を​尽く​すことが​非常に​重要なのです。

あまり​知られていない​ことですが、​画像が​「古い」または​「再度出回っている」と​見なされる​ことで、​CSAM と​して​認識されたにも​かかわらず​無視されてしまう​傾向が​あります。​私たちは、​そこに​写っているのは​実在する​児童である​こと、​そして​ 2 万人以上の​児童が​傷を​癒やし、​自分の​人生を​取り戻そうと​している​現実を、​強く​訴え続けています。​Google のような​企業が、​最悪の​瞬間を​捉えた​画像を​削除する​ために​あらゆる​取り組みを​行っていると​いう​ことが、​被害者たちの​安心感に​つながっています。

児童への​性的虐待の​画像や​コンテンツを​見つけた​場合は、​全米​行方​不明・被搾取児童センター​(NCMEC)、​または​世界各地の​関係​当局に​報告してください。

Google は、​オンライン上の​児童性的虐待と​搾取の​撲滅を​目指し、​Google の​サービスに​おける​児童性的虐待の​コンテンツ​(CSAM)の​拡散防止に​取り組んでいます。​詳しくは、​児童の​保護に​関する​ウェブサイトを​ご覧ください。

ページ​先頭に​戻る​