コンテンツに​移動

白い「G」アイコンが記された青い盾。

Google の​セキュア AI フレームワーク(SAIF)

AI、​特に​生成 AI が​もたらす可能性は​計り知れません。​技術の​進展に​伴い、​業界には​責任ある​開発と​安全な​導入を​支える​セキュリティ基準が​求められています。​そこで​ Google は、​AI システムを​安全に​運用する​ための​概念的フレームワークと​して、​セキュア AI フレームワーク​(SAIF)を​導入しました。

SAIF の​ 6 つの​基本要素

SAIF は、​AI や​ ML モデルの​リスク管理、​セキュリティ、​プライバシーなど、​セキュリティ専門家が​重視する​課題に​対応する​ために​設計されており、​AI モデルが​初期から​安全に​運用される​ことを​可能にします。
  • 強固な​セキュリティ基盤を​ AI エコシステムまで​拡大する

  • 検出機能と​対応機能を​拡張し、​組織の​脅威対策に​ AI を​取り込む

  • 防御を​自動化し、​既存および​新規の​脅威に​対応する

  • プラットフォーム レベルの​管理を​調整し、​組織全体で​一貫した​セキュリティを​確保する

  • コントロールを​適応させて​緩和策を​調整し、​AI デプロイの​フィードバック ループを​高速化する

  • 周囲の​ビジネス プロセスに​おける​ AI システムの​リスクを​コンテキスト化する

より​安全な​エコシステムの​実現

政府、​企業、​組織に​またがる​ SAIF の​エコシステムを​構築する​ Google の​取り組みの​第一歩を​ご紹介します。​すべての​人に​とって​役立つ、​安全な​ AI デプロイの​フレームワークを​確立する​ことを​目指しています。
ピンク色のグリッドが画面に向かってプロンプトを送信しているイラスト。

SAIF.Google の​導入: 安全な​ AI を​ここから​実現

SAIF.Google は、​進化し続ける​ AI セキュリティの​領域に​対応する​ための​リソースハブです。​AI セキュリティの​リスクと​対策を​体系的に​まとめ、​「リスク自己評価レポート」などを​通じて、​実務担当者が​自らの​リスクを​把握し、​組織への​ SAIF 導入を​実践できるよう支援します。​こうした​リソースに​より、​急速に​変化する​環境に​おいて、​安全な​ AI システムの​構築と​展開を​後押しします。
中央に白い「G」マークの付いた青色の盾があり、その周りに建物、南京錠、プロフィール、世界、ドキュメントを示す各アイコンが放射状に配置されているイラスト。

SAIF を​政府や​組織に​提供

Google は、​AI の​セキュリティ リスクの​軽減を​目指し、​政府や​組織と​連携しています。​また、​政策立案者や NIST などの​標準化団体と​連携し、​規制の​枠組みの​発展に​貢献しています。
円の中にテクノロジー企業のロゴが入っている。

Coalition for Secure AI: 業界全体で​連携して​ SAIF を​拡大

Google は​この​取り組みを​推進し、​業界への​サポートを​拡充する​ため、​安全な​ AI システムの​実装に​おける​重要な​課題を​解決する​ことを​目指してCoalition for Secure AI​(CoSAI)設立しました。​CoSAI には、​創設メンバーと​して​ Anthropic、​Cisco、​GenLab、​IBM、​Intel、​Nvidia、​PayPal などが​参加しています。

その​他の​リソース

SAIF に​関する
​よく​ある​質問

Google は​ SAIF を​どのように​実践していますか?

Google は​長年に​わたり、​責任ある​ AI と​サイバーセキュリティの​推進に​取り組み、​AI イノベーションに​セキュリティの​ベスト プラクティスを​組み込んできました。​セキュア AI フレームワーク​(SAIF)は、​その​経験と​ベスト プラクティスを​もとに​体系化された​もので、​ML や​生成 AI を​活用した​アプリケーションに​おいて、​セキュリティと​プライバシーを​確保しつつ、​柔軟かつ持続可能で​スケーラブルな​保護を​実現すると​いう​ Google の​アプローチを​体現しています。​今後も、​新たな​リスクや​環境の​変化、​AI の​進歩に​対応しながら、​SAIF を​進化させていきます。

実務担当者は、​どの​ように​ SAIF の​フレームワークを​導入できますか?

SAIF の​フレームワークを​導入する​ためのクイックガイドを​ご覧ください。

  • ステップ 1 - 用途を​理解する
    • AI で​解決できる具体的な​ビジネス上の​問題と、​モデルの​トレーニングに​必要な​データを​理解しましょう。​SAIF の​一部と​して​導入が​必要な​ポリシー、​プロトコル、​コントロールを​設定する​際の​指針と​なります。
  • ステップ 2 - チームを​編成する
    • AI システムの​開発と​デプロイは、​従来の​システムと​同様に、​多分野に​またがる​取り組みです。
    • AI システムは​多くの​場合、​複雑で​不明瞭であり、​不確定要素が​多く​大量の​データに​依存し、​多くの​リソースを​必要とします。​また、​AI システムは​評価に​基づく​決定を​下すために​使用される​場合も​あれば、​不適切な​コンテンツや​有害な​コンテンツ、​固定観念や​社会的偏見を​助長させる​可能性の​ある​新しい​コンテンツを​生成する​こともあります。
    • セキュリティ、​プライバシー、​リスク、​コンプライアンスへの​配慮を​確実に​最初から​組み込​むために、​適切な​部門横断型チームを​編成します。
  • ステップ 3 - AI の​入門ガイドに​より​チーム内で​認識を​共有する

    • チームが​ AI に​関して、​ビジネスへの​活用、​高まり​続ける​複雑性、​リスク、​セキュリティ管理に​ついて​評価を​行う際には、​関係者全員が AI モデル開発ライフサイクルの​基本や​ AI の​能力、​メリット、​制限を​含むモデル開発の​設計や​論理を​理解している​ことが​非常に​重要です。
  • ステップ 4 - SAIF の​ 6 つの​基本要素を​適用する

    • これらの​要素は、​上記の​順番ど​おりに​適用する​必要は​ありません。

SAIF の​詳細と​ビジネスや​エンティティへの​ SAIF の​適用方​法に​ついては、​どこで​確認できますか?

最新情報を​随時ご確認ください。​Google は​引き​続き、​AI アプリケーション開発の​ベスト プラクティスとともに、​セキュア AI フレームワークの​リソースや​ガイダンス、​ツールを​構築し、​共有していく​予定です。

すべての​人の​ための​安全な​ AI コミュニティの​構築を​推進する​理由

Google は AI の​原則を​明確に​示した​最初の​企業の​ひとつと​して、責任ある​ AIの​基準を​確立し、​それが​製品開発に​おける​安全性の​指針と​なっています。​セキュリティの​水準を​高める​ため、​業界全体の​枠組みを​提案し開発を​進める​中で、​この​取り組みを​長期的に​成功させるには​コミュニティの​構築が​不可欠であると​学びました。​だから​こそ、​Google は​すべての​人の​ための​ SAIF コミュニティの​構築を​推進しています。