コンテンツに​移動

白い「G」アイコンが記された青い盾。

Google の​セキュア AI フレームワーク (SAIF)

AI、​特に​生成 AI が​もたらす可能性は​無限大です。​イノベーションが​進むに​つれて、​業界では​責任を​持って AI を​開発し導入する​ための​セキュリティ基準が​求められています。​その​ため Google は、​AI システムを​安全に​保護する​ための​概念的な​フレームワークである​セキュア AI フレームワーク​(SAIF)を​導入しました。

SAIF の​ 6 つの​基本要素

SAIF は、​AI や​ ML モデルの​リスク管理、​セキュリティ、​プライバシーなど、​セキュリティの​専門家が​最も​懸念している​課題に​対応し、​AI モデルを​デフォルトで​安全な​ものと​して​実装するのに​役立ちます。
  • 強固な​セキュリティ基盤を​ AI エコシステムまで​拡大する

  • 検出機能と​対応機能を​拡張し、​組織の​脅威対策に​ AI を​取り込む

  • 防御を​自動化し、​既存および​新規の​脅威に​対応する

  • プラットフォーム レベルの​管理を​調整し、​組織全体で​一貫した​セキュリティを​確保する

  • 管理を​適応させて​緩和策を​調整し、​AI デプロイ用に​高速な​フィードバック ループを​作成する

  • 周囲の​ビジネス プロセスに​おける​ AI システムの​リスクを​コンテキスト化する

より​安全な​エコシステムの​実現

政府、​企業、​組織に​またがる​ SAIF の​エコシステムを​構築する​ Google の​取り組みの​第一歩を​ご紹介します。​すべての​人に​とって​役立つ、​安全な​ AI デプロイの​フレームワークを​確立する​ことを​目指しています。
ピンク色のグリッドが画面に向かってプロンプトを送信しているイラスト。

SAIF.Google の​導入: 安全な​ AI を​ここから​実現

SAIF.Google は、​進化する​ AI セキュリティ環境に​セキュリティの​専門家が​対応できるように​支援する​リソースハブです。​この​リソースハブでは、​AI セキュリティの​リスクと​管理方​法が​収集されて​提供されます。​そのうちの​一つである​「リスク自己評価レポート」は、​実務担当者が​業務に​影響を​及ぼす可能性の​ある​リスクを​理解する​ための​手引きであり、​組織に​ SAIF を​実装する​方​法が​わかりやすく​解説されています。​これらの​リソースは、​急速に​進化する​世界で​安全な​ AI システムを​構築して​デプロイすると​いう​重要な​ニーズを​満た​すために​役立ちます。
中央に白い「G」マークの付いた青色の盾があり、その周りに建物、南京錠、プロフィール、世界、ドキュメントを示す各アイコンが放射状に配置されているイラスト。

SAIF を​政府や​組織に​提供

Google は、​AI の​セキュリティ リスクの​軽減を​目指し、​政府や​組織と​連携しています。​また、​政策立案者や NIST などの​標準化団体と​連携し、​規制の​枠組みの​発展に​貢献しています。​最近では、​AI システムの​安全確保に​おける SAIF の​役割を​明確にし、​ホワイトハウスのAI コミットメントに​合意しました。
円の中にテクノロジー企業のロゴが入っている。

Coalition for Secure AI: 業界全体で​連携して​ SAIF を​拡大

Google は​この​取り組みを​推進し、​業界への​サポートを​拡充する​ため、​安全な​ AI システムの​実装に​おける​重要な​課題を​解決する​ことを​目指してCoalition for Secure AI​(CoSAI)設立しました。​CoSAI には、​創設メンバーと​して​ Anthropic、​Cisco、​GenLab、​IBM、​Intel、​Nvidia、​PayPal などが​参加しています。

その​他の​リソース

SAIF に​関する
​よく​ある​質問

Google は​ SAIF を​どのように​実践していますか?

Google には、​責任ある​ AI と​サイバーセキュリティの​開発を​推進してきた​長い​歴史が​あり、​長年に​わたり、​セキュリティの​ベスト プラクティスを​ AI イノベーションに​適用してきました。​セキュア AI フレームワークは、​Google が​開発し実装してきた​これまでの​経験と​ベスト プラクティスから​生まれた​ものです。​ML や​生成 AI を​活用した​アプリケーションの​開発に​おいて、​レスポンシブ、​サステナブル、​スケーラブルを​実現する​セキュリティ保護および​プライバシー保護を​重視すると​いう​ Google の​取り組みを​反映しています。​Google は、​新たな​リスク、​状況の​変化、​AI の​進歩に​対応する​ため、​SAIF の​改良と​構築を​続けていきます。

実務担当者は、​どの​ように​ SAIF の​フレームワークを​導入できますか?

SAIF の​フレームワークを​導入する​ための クイックガイド を​ご覧ください。

  • ステップ 1 - 用途を​理解する
    • AI で​解決できる具体的な​ビジネス上の​問題と、​モデルの​トレーニングに​必要な​データを​理解しましょう。​SAIF の​一部と​して​導入が​必要な​ポリシー、​プロトコル、​コントロールを​設定する​際の​指針と​なります。
  • ステップ 2 - チームを​編成する
    • AI システムの​開発と​デプロイは、​従来の​システムと​同様に、​多分野に​またがる​取り組みです。
    • AI システムは​多くの​場合、​複雑で​不明瞭であり、​不確定要素が​多く​大量の​データに​依存し、​多くの​リソースを​必要とします。​また、​AI システムは​評価に​基づく​決定を​下すために​使用される​場合も​あれば、​不適切な​コンテンツや​有害な​コンテンツ、​固定観念や​社会的偏見を​助長させる​可能性の​ある​新しい​コンテンツを​生成する​こともあります。
    • セキュリティ、​プライバシー、​リスク、​コンプライアンスへの​配慮を​確実に​最初から​組み込​むために、​適切な​部門横断型チームを​編成します。
  • ステップ 3 - AI の​入門ガイドに​より​チーム内で​認識を​共有する

    • チームが​ AI に​関して、​ビジネスへの​活用、​高まり​続ける​複雑性、​リスク、​セキュリティ管理に​ついて​評価を​行う際には、​関係者全員が AI モデル開発ライフサイクルの​基本 や​ AI の​能力、​メリット、​制限を​含むモデル開発の​設計や​論理を​理解している​ことが​非常に​重要です。
  • ステップ 4 - SAIF の​ 6 つの​基本要素を​適用する

    • これらの​要素は、​上記の​順番ど​おりに​適用する​必要は​ありません。

SAIF の​詳細と​ビジネスや​エンティティへの​ SAIF の​適用方​法に​ついては、​どこで​確認できますか?

最新情報を​随時ご確認ください。​Google は​引き​続き、​AI アプリケーション開発の​ベスト プラクティスとともに、​セキュア AI フレームワークの​リソースや​ガイダンス、​ツールを​構築し、​共有していく​予定です。

すべての​人の​ための​安全な​ AI コミュニティの​構築を​推進する​理由

Google は AI の​原則を​明確に​示した​最初の​企業の​ひとつと​して、 責任ある​ AIの​基準を​設定しました。​これが​ Google の​製品開発に​おいて、​安全性を​確保する​ための​指針と​なっています。​Google は​セキュリティの​水準を​高める​ため、​業界全体の​枠組みを​提案し、​開発を​行ってきました。​そして​長期的に​その​取り組みを​成功させる​ためには、​コミュニティの​構築が​不可欠である​ことを​学びました。​これこそが、​すべての​人の​ための​ SAIF コミュニティを​構築したいと​考えている​理由です。