Google のセキュア AI フレームワーク
(SAIF)

AI、特に生成 AI がもたらす可能性は無限大です。イノベーションが進むにつれて、業界では責任を持って AI を開発し導入するためのセキュリティ基準が求められています。そのため Google は、AI システムを安全に保護するための概念的なフレームワークである、セキュア AI フレームワーク(SAIF) を導入しました。

SAIF の 6 つの基本要素

SAIF は、AI や ML モデルのリスク管理、セキュリティ、プライバシーなど、セキュリティの専門家が最も懸念している課題に対応し、AI モデルをデフォルトで安全なものとして実装するのに役立ちます。

強固なセキュリティ基盤を AI エコシステムまで拡大する
検出機能と対応機能を拡張し、組織の脅威対策に AI を取り込む
防御を自動化し、既存および新規の脅威に対応する
プラットフォーム レベルの管理を調整し、組織全体で一貫したセキュリティを確保する
管理を適応させて緩和策を調整し、AI デプロイ用に高速なフィードバック ループを作成する
周囲のビジネス プロセスにおける AI システムのリスクをコンテキスト化する
より安全な
エコシステムの実現

政府、企業、組織にまたがる SAIF のエコシステムを構築する Google の取り組みの第一歩をご紹介します。すべての人にとって役立つ、安全な AI デプロイのフレームワークを確立することを目指しています。

SAIF を政府や組織に提供

Google は、AI のセキュリティ リスクの軽減を目指し、政府や組織と連携しています。また、政策立案者や NIST などの標準化団体と連携し、規制の枠組みの発展に貢献しています。最近では AI システムの安全確保における SAIF の役割を明確にし、ホワイトハウスの AI コミットメントに合意しました。

業界全体で連携して SAIF を拡大

Google は、パートナーやお客様とともに SAIF への業界支援を促進すべく、実務担当者との SAIF ワークショップを開催し、AI セキュリティのベスト プラクティスを公開しています。また、デロイトと提携を結び、セキュリティの課題に対処するために組織がどのように AI を活用できるかについて、ホワイトペーパーを作成しました。

その他のリソース
SAIF に関するよくある質問

SAIF と責任ある AI はどのように関連していますか?

Google には、責任を持って AI を開発し、他の企業にも同様の取り組みを促すという責務があります。Google は 2018 年に発表した AI に関する原則の中で、責任あるテクノロジー開発へのコミットメントを示しています。開発にあたっては、安全性を確保し、説明責任を果し、科学的な卓越性の高い基準を維持します。責任ある AI とは、「公平性」、「解釈可能性」、「セキュリティ」、「プライバシー」など、複数の側面を持った包括的なアプローチです。これらは、Google のすべての AI 製品の開発における指針となっています。

SAIF は、ML を活用したアプリケーションにセキュリティとプライバシー対策を組み込むための、標準化された包括的なアプローチを構築するフレームワークです。これは、責任ある AI の開発における「セキュリティ」と「プライバシー」の観点に合致するものです。SAIF は、進化する脅威の状況やユーザーの要望を考慮しつつ、責任ある方法で ML を活用したアプリケーションが開発されることを保証します。

Google は SAIF をどのように実践していますか?

Google には、責任ある AI とサイバーセキュリティの開発を推進してきた長い歴史があり、長年にわたり、セキュリティのベスト プラクティスを新しい AI イノベーションに適用してきました。セキュア AI フレームワークは、Google が開発し実装してきたこれまでの経験とベスト プラクティスから生まれたものです。ML や生成 AI を活用したアプリケーションの開発において、レスポンシブ、サステナブル、スケーラブルを実現するセキュリティ保護およびプライバシー保護を重視するという Google の取り組みを反映しています。Google は、新たなリスク、状況の変化、AI の進歩に対応するため、SAIF の改良と構築を続けていきます。

実務担当者は、どのように SAIF のフレームワークを導入できますか?

SAIF のフレームワークを導入するためのクイックガイドをご覧ください。

  • ステップ 1 - 用途を理解する
    • AI で解決できる具体的なビジネス上の問題とモデルのトレーニングに必要なデータを理解しましょう。SAIF の一部として導入が必要なポリシー、プロトコル、コントロールを設定する際の指針となります。
  • ステップ 2 - チームを編成する
    • AI システムの開発とデプロイは、従来のシステムと同様に、多分野にまたがる取り組みです。
    • AI システムはたいていの場合、複雑で不明瞭であり、不確定要素が多く大量のデータに依存し、多くのリソースを必要とします。また、AI システムは評価に基づく決定を下すために使用される場合もあれば、不適切なコンテンツや有害なコンテンツ、固定観念や社会的偏見を助長させる可能性のあるコンテンツを生成することもあります。
    • セキュリティ、プライバシー、リスク、コンプライアンスへの配慮が最初から組み込まれていることを確実にするため、適切な部門横断的チームを設置する必要があります。
  • ステップ 3 - AI に関する入門ガイドによりチーム内で認識を共有する
    • チームが AI に関して、ビジネスへの活用、高まり続ける複雑性、リスク、セキュリティ管理について評価を行う際には、関係者全員が AI モデル開発のライフサイクルの基本や AI の能力、メリット、制限を含むモデル開発の設計や論理を理解していることが非常に重要です。
  • ステップ 4 - 上記の SAIF の 6 つの基本要素を適用する
    • 上記で記載された順番どおりに適用する必要はありません。

SAIF の詳細とビジネスやエンティティへの SAIF の適用方法については、どこで確認できますか?

今後の情報をお待ちください。Google は引き続き、AI アプリケーション開発のベスト プラクティスとともに、セキュア AI フレームワークのリソースやガイダンス、ツールを構築し、共有していく予定です。

すべての人のための安全な AI コミュニティの構築を推進する理由

Google は Al の原則を明確に示した最初の企業のひとつとして、責任ある AI の基準を設定しました。これが Google の製品開発において、安全性を確保するための指針となっています。Google はセキュリティの水準を高めるため、業界全体の枠組みを提案し、開発を行ってきました。そして長期的にその取り組みを成功させるためには、コミュニティの構築が不可欠であることを学びました。これこそが、すべての人のための SAIF コミュニティを構築したいと考えている理由です。

セキュア AI フレームワーク