Google 安全 AI 框架(SAIF)
AI 潛力驚人,當中生成式 AI 更加蘊藏無限可能。科技日新月異,我們需要為業界制定安全標準,以負責任方式研發和部署 AI 技術。因此我們推出「安全 AI 框架 (SAIF)」,務求透過這個概念框架保障 AI 系統安全。
SAIF 專為解決保安專家最重視的問題而設計,例如 AI/機器學習模型風險管理、安全及私隱保障等,以確保在應用 AI 模型時,一切以安全穩妥為本。
我們致力締造涵蓋企業和機構的 SAIF 生態系統,開發人人適用的安全 AI 部署框架。我們很高興與大家分享這項計劃的初步成果。
隆重介紹 SAIF.Google:保障 AI 安全的第一步
新推出的資源中心 SAIF.Google 旨在協助安全專業人員應付變化多端的 AI 安全形勢,透過提供一系列 AI 安全風險和控制項,包括「自行評估風險報告」,引導從業員瞭解可能面對的風險,以及如何在其機構內執行安全 AI 框架 (SAIF)。面對瞬息萬變的 AI 世界,我們急需建立和部署安全的 AI 系統,而這些資源將有助解決有關需要。
Coalition for Secure AI:與業界盟友攜手擴充安全 AI 框架 (SAIF)
我們正致力提升這方面的工作,並鼓勵業界支持,例如與 Anthropic、Amazon、Cisco、Cohere、Chainguard、GenLab、Google、IBM、Intel、Microsoft、NVIDIA、OpenAI、PayPal 和 Wiz 等創始成員組成「Coalition for Secure AI (CoSAI)」,以應付執行安全 AI 系統方面的重大挑戰。
SAIF 與「負責任 AI」有何關係?
Google 必須以負責任的方式開發 AI,並協助其他企業實踐這個目標。我們在 2018 年發佈《AI 原則》,說明 Google 致力採用安全和負責任的方式,並稟持最高科學標準開發科技。「負責任 AI」是我們的主要做法,涵蓋「公平性」、「可解讀性」、「安全性」和「私隱」等多個範疇,Google 在開發所有 AI 產品時都會秉持這些原則。
我們之所以制定 SAIF 框架,是希望建立一套既標準又全面的做法,將安全和私隱保障措施整合至採用機器學習技術的應用程式。這個框架與「負責任 AI 技術」的「安全性」和「私隱」範疇互相呼應。SAIF 確保開發者以負責任的方式研發採用機器學習技術的應用程式,並顧及不斷演變的威脅和使用者期望。
Google 如何實踐 SAIF?
Google 長久以來一直提倡以負責任方式開發 AI,同時促進網絡安全發展;多年來我們亦致力研究如何將安全保障的最佳做法應用至 AI 創新技術。我們根據過去豐富經驗,並借鑒已制定和應用的最佳做法,開發出「安全 AI 框架」,反映出 Google 在開發採用機器學習和生成式 AI 的應用程式時,亦不忘加入可靈活應對不同威脅,而且可持續和擴展的安全和私隱保障功能。我們會繼續改進和開發 SAIF,以應對各類新威脅、瞬息萬變的環境和 AI 技術發展。
業界人士可如何應用這個框架?
請參閱我們的快速指南以瞭解如何應用 SAIF 框架:
-
第 1 步 - 認識框架用途
- 認識 AI 可解決哪些特定業務問題,以及訓練模型所需的資料,從而瞭解應用 SAIF 需採用哪些政策、通訊協定和控制措施。
-
第 2 步 - 組織團隊
- 就如傳統系統一樣,開發和部署 AI 系統需要跨領域團隊合作。
- AI 系統往往複雜難明、需使用大量移動組件、依賴龐大的資料量、耗用大量資源、可被用作判斷對錯好壞,並可能生成與別不同但可能令人反感、有害,或者會加深成見或社會偏見的內容。
- 籌組跨職能團隊時,必須以安全、私隱、風險和合規情況作為優先考慮。
-
第 3 步 - 確立使用範圍前先瞭解 AI 基本知識
- 團隊在評估業務用途、瞬息萬變的各類複雜問題、相關風險及適用的安全措施時,所有相關人員必須瞭解 AI 模型開發生命週期的基本知識,以及各種模型研究方法的設計概念和邏輯,包括功能、好處和限制。
-
第 4 步 - 實踐上述 SAIF 六大核心元素
- 在實踐這些元素時無需必依時間順序。
我可到哪裡瞭解有關 SAIF 的詳情,以及如何將其應用於我的企業或實體?
請密切留意最新消息!Google 將繼續制定和分享有關「安全 AI 框架」的資源、指南和工具,以及其他有關 AI 應用程式開發的最佳做法。