信頼できる
情報とコンテンツ。
Google は情報を提供することと、ユーザーと社会を保護することの間で適切なバランスを保つよう努めています。そして、この責任を真摯に受け止めています。Google の目標は、脅威からユーザーを保護すること。信頼できる情報を提供すること。専門家や他の組織と連携してより安全なインターネット環境を構築することによって、信頼できる情報とコンテンツへのアクセスを提供することです。
Google は、違法コンテンツや有害なコンテンツを防止するだけでなく、それらを検出して対応する高度な保護機能により、ユーザーと社会全体の安全を確保します。
防止
不正行為の防止
不適切なコンテンツからユーザーを守るために、Google は AI による保護機能を利用しています。Gmail は毎分 1,000 万件近いスパムメールを自動的にブロックしています。Google 検索には、オートコンプリートで有害と考えられる検索語句が提案されることを防止するツールが備わっています。自動検出は、YouTube が大量の有害なコンテンツを効率的かつ効果的に削除するのに役立ちます。2023 年の第 2 四半期に YouTube から削除されたポリシー違反動画の 93% は自動検出で発見されたものでした。また、生成 AI ツールに安全策を実装し、有害なコンテンツの作成に使用されるリスクを最小限に抑えています。
さらに Google の個々のプロダクトには、許可されるコンテンツと行為、許可されないコンテンツと行為を示したプロダクト ポリシーが適用されています。新たなリスクに対処するため、ポリシーは継続的に更新、改善されています。AI への取り組みに関しては、Google は独自の AI 原則に沿ってサービスの開発を進めており、すべての AI アプリケーションをリリース前にテストして評価しています。
検出
有害なコンテンツの検出
不正な行為者の手口は巧妙化しており、サービスに紛れ込む有害なコンテンツを検出するために、より一層の対策が必要になっています。AI を利用することで、Google のプラットフォーム全体でより多くの不正行為を検出することができます。AI による分類器は、有害と考えられるコンテンツを迅速に検知して、削除したり人間のレビュアーにエスカレーションしたりするのに役立ちます。2022 年には自動措置により、ヘイトスピーチ、暴力的な内容、健康上有害な主張を含む広告を 5,120 万件以上検出してブロックすることができました。また、画期的な AI の一種である大規模言語モデルは、特に新たなリスクから生まれる有害なコンテンツの検出と評価にかかる時間を大幅に短縮できる可能性を示しています。
Google は、有害と思われるコンテンツを報告する外部組織とも提携しています。Google と YouTube はどちらも数百の優先報告者からフィードバックを受け取っています。優先報告者とは、文化的な専門分野の知識を持ち、Google と YouTube にコンテンツをエスカレーションして審査を依頼する世界各国の組織です。
対応
適切な対応
Google は人と AI 駆動型のテクノロジーで、潜在的なポリシー違反を評価し、報告されたコンテンツに対して適切に対応しています。コンテンツが Google のポリシーに違反している場合、Google は制限や削除を行い、収益化を無効にします。また、アカウント レベルでの措置を講じて将来の不正行為を減少させています。
2022 年、Google マップは 3 億件を超える虚偽のコンテンツ、1 億 1,500 万件を超えるポリシー違反のレビュー、2,000 万件を超える虚偽のビジネス プロフィール作成の試みをブロックまたは削除しました。2023 年の第 2 四半期に YouTube はコミュニティ ガイドライン違反により 1,400 万を超えるチャンネルと 700 万を超える動画を削除しました。
Google では、過度の削除のリスクを減らしながらコンテキストとニュアンスを評価するために、約 20,000 人の専門的なトレーニングを受けたレビュアーがさまざまな役割を担っており、Google のプロダクトとサービス全体でポリシーの適用、コンテンツのモデレーション、報告されたコンテンツの審査を行っています。
Google の判断に誤りがあると思われる場合は、クリエイターやパブリッシャーは Google の決定に対して再審査請求を行うことができます。
Google は信頼できる情報と、ユーザーがコンテンツの評価を管理できる最高水準のツールを提供することで、Google のプラットフォームの情報とコンテンツの信頼性を実現します。
Google の情報整理の仕組み
高度なアルゴリズム
Google マップなどのサービスから Google 検索の検索結果に至るまで、Google のすべてにおいてアルゴリズムは中核的な存在です。これらのアルゴリズムには高度な大規模言語モデルとシグナル(キーワード、ウェブサイトとコンテンツの鮮度など)が使用されており、常に更新されているため、ユーザーは最も関連性が高い有用な結果を見つけることができます。たとえば YouTube では、信頼できる情報源からの高品質のコンテンツを検索結果、おすすめ、情報パネルに目立つように表示しています。これによりユーザーは、正確かつ有用でタイムリーなニュースや情報を見つけることができます。
Google は、独自のアルゴリズムと生成 AI ツールによって検出されたコンテンツの分析と評価に役立つ多くの機能を開発しています。これにより、ユーザーはオンラインで目にするコンテンツについてより多くの背景を理解することができます。
-
マイ アド センター
マイ アド センターでは、簡単に広告エクスペリエンスを管理することができます。お気に入りのブランドの表示を増やし、興味のないブランドの表示を減らせます。
-
Google 検索と Google ニュースにおけるファクト チェック
Google では、独立機関によるファクト チェックが毎日 600 万回実施されています。Google の高度な画像および検索結果ファクト チェック ツールを使用すると、オンラインでの誤情報をより見つけやくすなります。
-
この結果について
「この結果について」は、ウェブサイトの説明、最初にインデックスに登録された時期、情報源とトピックに対する他のユーザーの評価など、ウェブサイトにアクセスする前に知っておくと役立つ詳細情報を提供します。
-
SynthID の透かし
SynthID は、AI 生成画像に透かしを入れて識別するツールです。オンラインでの誤情報という喫緊の問題に速やかに対処するための、有望な技術的ソリューションです。
-
この画像について
「この画像について」は、Google が画像を最初に認識したと考えられる時期や、他の情報源で画像がどのように使用、記述されているかなどの情報を提供します。これは、オンラインで表示される画像の信頼性とコンテキストを評価するのに役立ちます。
YouTube は、コミュニティを構成する視聴者、クリエイター、広告主の皆様が安心して利用できる、責任あるプラットフォーム作りを目指して取り組んでいます。 YouTube の取り組みをご紹介します。
-
削除する (Remove)
人とテクノロジーの両方を駆使して、ポリシー違反のコンテンツを削除しています。
-
見つけやすくする(Raise)
ニュースや情報の信頼できる情報源を優先的に表示し、視聴者にコンテキストを提供しています。
-
拡散を減らす(Reduce)
ガイドラインのボーダーライン上のコンテンツや有害な誤った情報の拡散を制限し、責任を持ってコンテンツを管理しています。
-
還元する(Reward)
YouTube パートナー プログラム(YPP)を通して、広告収入やさまざまな収益源を分配することにより、信頼できるクリエイターに報奨を提供しています。2022 年 6 月までの 3 年間で、クリエイター、アーティスト、メディア企業に支払われた金額は 500 億ドルを超えます。
Google は専門家や他の組織と積極的に協力し、情報の提供を行い、リソースやテクノロジーを共有しています。
知識の共有
ユーザーの安全を確保するために知見を交換
Google は市民団体や学界、政府の専門家と協力して、誤情報、広告の安全性、選挙の公正性、コンテンツ モデレーションにおける AI の活用、オンラインにおける児童搾取への対策といった世界的な問題に取り組んでいます。また、この分野のさらなる進歩のために研究結果を公開し、学界向けにデータセットをリリースしています。
YouTube ではサービスやポリシーの更新に関して、独立機関である青少年と家族に関するアドバイザリー ボードと定期的な協議を行っています。たとえば子どもと青少年に関する YouTube の基本的な考え方や、十代のメンタルヘルスとウェルビーイングに焦点を当てたサービスのアップデートなどです。
シグナルの共有
専門家と協力して違法なコンテンツに対処する
Google はまた、パートナーと協力して、不適切なコンテンツの明確なシグナルを検出して共有し、広範なエコシステムから削除できるようにしています。毎年、数百万の CSAM ハッシュを全米行方不明・被搾取児童センターと共有しています。Google は Project Lantern にも参加しています。これは、テクノロジー企業が責任を持って安全にシグナルを共有できるようにするためのプログラムです。さらに YouTube はオンラインでのテロリストや暴力的な過激主義者の活動に対抗するために、テクノロジー業界、政府、市民団体、学界を結集する Global Internet Forum to Counter Terrorism(GIFCT)を共同設立しました。
リソースの共有
安全策に取り組む組織を支援
Google は、トレーニングと教材を提供する確固たるプログラム(Be Internet Awesome、YouTube の Hit Pause、Google News Lab など)を通じて、オンラインの安全性とメディア リテラシーに取り組んでいる世界各国の組織を支援しています。また、Google と YouTube は、国際ファクト チェック ネットワーク(IFCN)の 135 のファクト チェック組織を支援するために、IFCN に 1,320 万ドルの資金を提供することを発表しました。このコラボレーションにより、55 万人を超えるジャーナリストにデジタル認証スキルを指導し、260 万人のジャーナリストにオンライン トレーニングを実施しています。
Google は、プラットフォームとユーザーを有害なコンテンツから保護するのに役立つツールを他の組織と共有しています。
-
児童安全ツールキット
Google は Adobe や Reddit などのパートナーに、独自のツールである Content Safety API と CSAI Match へのアクセスを提供し、児童性的虐待のコンテンツ(CSAM)に対して優先的に人間によるレビューを行えるようサポートしています。これらのツールにより、Google のパートナーは毎月 40 億件を超えるコンテンツを処理することができ、オンラインでの児童性的虐待に対してより効果的に対処することが可能になります。
-
Safebrowsing API
クライアント アプリケーションで Google の Safebrowsing API を使用すると、安全でないウェブリソースのリストと照らし合わせて URL をチェックできます。リストは常に更新されています。このツールは、マルウェアや望ましくないソフトウェアをホストするサイトについてユーザーに警告することで、1 日あたり 50 億台のデバイスを保護しています。
-
情報品質 API
Google の情報品質 API は、パブリッシャーとプラットフォームが悪質なコンテンツや有害なコンテンツに対処するのに役立ちます。Perspective API は 1 日あたり 20 億件のコメントを処理し、850 を超えるパートナーが毎日悪質なコメントを抑制できるようサポートしています。ニューヨーク タイムズ、Reddit、ウォール ストリート ジャーナルなどの組織が、サイト上の悪質なコメントを管理するために Perspective API を活用しています。
-
Vision API
デベロッパーは Vision API を使用して、画像ラベル付け、光学式文字認識(OCR)、露骨な表現を含むコンテンツのタグ付けなどの機能をアプリケーションに統合できます。これは有害なコンテンツを識別して削除するのに役立ちます。Vision API は、限られたトレーニング データで画像の 80% を分類することに成功しました。
GSEC ダブリン
ダブリンにおけるコンテンツに関する責任への取り組み
コンテンツに関する責任を担当するダブリンの Google セーフティ エンジニアリング センターは、違法コンテンツや有害なコンテンツの拡散防止に取り組む Google エキスパートの地域拠点であり、政策立案者、研究者、規制当局と知見を共有しています。Google セーフティ エンジニアリング センターのネットワークは、オンラインでの安全性を強化する次世代ソリューションを開発するため、スペースやインスピレーション、サポートを各チームに提供しています。
信頼できる情報とコンテンツを提供する Google の取り組みの影響力は、かつてないほど重要性を増しています。コンテンツ モデレーションの課題により適切に対応するため、すべてのユーザーに安心感と安全なオンライン エクスペリエンスを提供するポリシーやサービス、プロセスの開発と改善に、引き続き取り組んでまいります。