信頼できる
情報とコンテンツ
Google は、情報を提供しつつユーザーと社会を保護するというバランスの均衡を保つ責任を真摯に受け止め、努力しています。Google の目標は、脅威からユーザーを保護すること。信頼できる情報を提供すること。専門家や他の組織と連携してより安全なインターネット環境を構築することによって、信頼できる情報とコンテンツへのアクセスを提供することです。
脅威からユーザーを保護
不正行為の防止
不適切なコンテンツからユーザーを守るために、Google は機械学習による保護機能を利用しています。Gmail は毎分 1,000 万件近いスパムメールを受信トレイから自動的にブロックしています。Google 検索には、予測入力で有害と考えられる検索語句が提案されることを防止するツールが備わっています。自動検出は、YouTube が大量の有害なコンテンツを効率的かつ効果的に削除するのに役立ちます。2023 年の第 2 四半期に YouTube から削除されたポリシー違反動画の 93% は自動検出で発見されたものでした。また、生成 AI ツールに安全策を実装し、有害なコンテンツの作成に使用されるリスクを最小限に抑えています。
さらに Google の個々のプロダクトは、許可されるコンテンツと行為、許可されないコンテンツと行為を示した 一連のポリシー に則っています。新たなリスクに対処するため、ポリシーは継続的に更新、改善されています。AI への取り組みに関しては、Google は独自の AI に関する原則 に沿ってサービスの開発を進めており、すべての AI アプリケーションをリリース前にテストして評価しています。
有害なコンテンツの検出
不正な行為者の手口は巧妙化しており、サービスに紛れ込む有害なコンテンツを検出するために、より一層の対策が必要になっています。AI を利用することで、Google のプラットフォーム全体でより多くの不正行為を検出することができます。AI による分類器は、有害と考えられるコンテンツを迅速に検知して、削除したり人間のレビュアーにエスカレーションしたりするのに役立ちます。2022 年には自動措置により、ヘイトスピーチ、暴力的な内容、健康上有害な主張を含む広告を 5,120 万件以上検出してブロックすることができました。また、画期的な AI の一種である大規模言語モデルは、特に新たなリスクから生まれる有害なコンテンツの検出と評価にかかる時間を大幅に短縮できる可能性を示しています。
Google は、有害と思われるコンテンツを報告する外部組織とも提携しています。Google と YouTube はどちらも数百の優先報告者からフィードバックを受け取っています。優先報告者とは、文化的な専門分野の知識を持ち、Google と YouTube にコンテンツをエスカレーションして審査を依頼する世界各国の組織です。
適切な対応
Google は人と AI を活用した技術で、潜在的なポリシー違反を評価し、報告されたコンテンツに対して適切に対応しています。コンテンツが Google のポリシーに違反している場合、Google は制限や削除を行い、収益化を無効にします。また、アカウント レベルでの措置を講じて将来の不正行為を減少させています。
2022 年、Google マップは 3 億件を超える虚偽のコンテンツ、1 億 1,500 万件を超えるポリシー違反のレビュー、2,000 万件を超える虚偽のビジネス プロフィール作成の試みをブロックまたは削除しました。2023 年第 2 四半期に、YouTube は コミュニティ ガイドライン 違反により 1,400 万を超えるチャンネルと 700 万を超える動画を削除しました。
Google では、過度の削除のリスクを減らしながらコンテキストとニュアンスを評価するために、専門的なトレーニングを受けた約 2 万人のレビュアーがさまざまな役割を担っており、Google のプロダクトとサービス全体でポリシーの適用、コンテンツのモデレーション、報告されたコンテンツの審査を行っています。
Google の判断に誤りがあると思われる場合は、クリエイターやパブリッシャーは Google の決定に対して 再審査請求 を行うことができます。
信頼できる情報
を提供
高度なアルゴリズム
ユーザーがコンテンツを評価するのに役立つツール
責任をもってコンテンツを
管理するYouTube の取り組み
人とテクノロジーの両方を駆使して、ポリシー違反のコンテンツを削除しています。
ニュースや情報の信頼できる情報源を優先的に表示し、視聴者にコンテキストを提供しています。
ガイドラインのボーダーライン上のコンテンツや有害な誤情報の拡散を制限し、責任を持ってコンテンツを管理しています。
YouTube パートナー プログラム(YPP)を通して、広告収入やさまざまな収益源を分配することにより、信頼できるクリエイターに報奨を提供しています。2022 年 6 月までの 3 年間で、クリエイター、アーティスト、メディア企業に支払われた金額は 500 億ドルを超えます。
インターネットの安全性を
高めるための連携
ユーザーの安全を確保するために知見を交換
Google は市民団体や学界、政府の専門家と協力して、誤情報、広告の安全性、選挙の公正性、コンテンツ モデレーションにおける AI の活用、オンラインにおける児童搾取への対策といった世界的な問題に取り組んでいます。また、この分野のさらなる進歩のために研究結果を公開し、学界向けにデータセットをリリースしています。
YouTube では、サービスとポリシーのアップデートに関して、独立機関である 青少年と家族に関するアドバイザリー ボード と定期的な協議を行っています。たとえば、 子どもと青少年に関する YouTube の基本的な考え方 や、青少年のメンタルヘルスとウェルビーイングに焦点を当てた サービスのアップデート などです。
専門家と協力して違法なコンテンツに対処
Google はまた、パートナーと協力して、不適切なコンテンツの明確なシグナルを検出して共有し、広範なエコシステムから削除できるようにしています。毎年、数百万の CSAM ハッシュを全米行方不明・被搾取児童センターと共有しています。Google は Project Lantern にも参加しています。これは、テクノロジー企業が責任を持って安全にシグナルを共有できるようにするためのプログラムです。さらに YouTube はオンラインでのテロリストや暴力的な過激主義者の活動に対抗するために、テクノロジー業界、政府、市民団体、学界を結集する Global Internet Forum to Counter Terrorism(GIFCT)を共同設立しました。
安全策に取り組む組織を支援
Google は、オンラインの安全性とメディア リテラシーに取り組んでいる世界各国の組織を支援するために、プログラム(Be Internet Awesome、YouTube の Hit Pause、Google News Lab など)を立ち上げ、トレーニングや教材を提供するなど活発に活動しています。また、Google と YouTube は、国際ファクト チェック ネットワーク(IFCN)の 135 のファクト チェック組織を支援するために、IFCN に 1,320 万ドルの資金を提供することを発表しました。このコラボレーションにより、55 万人を超えるジャーナリストにデジタル認証スキルを指導し、260 万人のジャーナリストにオンライン トレーニングを実施しています。