Google 安全 AI 框架
(SAIF)

AI 潛力驚人,當中生成式 AI 更加蘊藏無限可能。科技日新月異,我們需要為業界制定安全標準,以負責任方式研發和部署 AI 技術。因此我們推出「安全 AI 框架 (SAIF)」,務求透過這個概念框架保障 AI 系統安全。

SAIF 六大核心元素

SAIF 專為解決保安專家最重視的問題而設計,例如 AI/機器學習模型風險管理、安全及私隱保障等,以確保在應用 AI 模型時,一切以安全穩妥為本。

為 AI 生態系統奠下穩建的安全基礎
擴大偵測和應變範圍,協助機構應對 AI 相關威脅
透過自動防禦機制應對現有和新興威脅
統一平台控制措施,保障整個機構安全
因應防護措施調整控制,並加快 AI 部署的回饋循環
釐清 AI 系統對業務流程的風險
締造更安全的
生態系統

我們致力締造涵蓋企業和機構的 SAIF 生態系統,開發人人適用的安全 AI 部署框架。我們很高興與大家分享這項計劃的初步成果。

與業界合作提倡 SAIF

我們正致力鼓勵業內合作夥伴和客戶支持 SAIF、邀請業界人士參與 SAIF 工作坊,並發佈有關保障 AI 安全的最佳做法。我們亦與 Deloitte 合作制定白皮書,說明機構能如何使用 AI 解決各種保安挑戰。

其他資源
有關 SAIF 的常見問題

SAIF 與「負責任 AI」有何關係?

Google 必須以負責任的方式開發 AI,並協助其他企業實踐這個目標。我們在 2018 年發佈《AI 原則》,說明 Google 致力採用安全和負責任的方式,並稟持最高科學標準開發科技。「負責任 AI」是我們的主要做法,涵蓋「公平性」、「可解讀性」、「安全性」和「私隱」等多個範疇,Google 在開發所有 AI 產品時都會秉持這些原則。

我們之所以制定 SAIF 框架,是希望建立一套既標準又全面的做法,將安全和私隱保障措施整合至採用機器學習技術的應用程式。這個框架與「負責任 AI 技術」的「安全性」和「私隱」範疇互相呼應。SAIF 確保開發者以負責任的方式研發採用機器學習技術的應用程式,並顧及不斷演變的威脅和使用者期望。

Google 如何實踐 SAIF?

Google 長久以來一直提倡以負責任方式開發 AI,同時促進網絡安全發展;多年來我們亦致力研究如何將安全保障的最佳做法應用至 AI 創新技術。我們根據過去豐富經驗,並借鑒已制定和應用的最佳做法,開發出「安全 AI 框架」,反映出 Google 在開發採用機器學習和生成式 AI 的應用程式時,亦不忘加入可靈活應對不同威脅,而且可持續和擴展的安全和私隱保障功能。我們會繼續改進和開發 SAIF,以應對各類新威脅、瞬息萬變的環境和 AI 技術發展。

業界人士可如何應用這個框架?

請參閱我們的快速指南以瞭解如何應用 SAIF 框架:

  • 第 1 步 - 認識框架用途
    • 認識 AI 可解決哪些特定業務問題,以及訓練模型所需的資料,從而瞭解應用 SAIF 需採用哪些政策、通訊協定和控制措施。
  • 第 2 步 - 組織團隊
    • 就如傳統系統一樣,開發和部署 AI 系統需要跨領域團隊合作。
    • AI 系統往往複雜難明、需使用大量移動組件、依賴龐大的資料量、耗用大量資源、可被用作判斷對錯好壞,並可能生成與別不同但可能令人反感、有害,或者會加深成見或社會偏見的內容。
    • 籌組跨職能團隊時,必須以安全、私隱、風險和合規情況作為優先考慮。
  • 第 3 步 - 確立使用範圍前先瞭解 AI 基本知識
    • 團隊在評估業務用途、瞬息萬變的各類複雜問題、相關風險及適用的安全措施時,所有相關人員必須瞭解 AI 模型開發生命週期的基本知識,以及各種模型研究方法的設計概念和邏輯,包括功能、好處和限制。
  • 第 4 步 - 實踐上述 SAIF 六大核心元素
    • 在實踐這些元素時無需必依時間順序。

我可到哪裡瞭解有關 SAIF 的詳情,以及如何將其應用於我的企業或實體?

請密切留意最新消息!Google 將繼續制定和分享有關「安全 AI 框架」的資源、指南和工具,以及其他有關 AI 應用程式開發的最佳做法。

我們為何要建立人人適用的安全 AI 社群

身為最早闡明「Al 原則」的企業之一,我們就「負責任 Al」制定相關標準,作為日後開發產品的安全原則。我們致力倡議並制定業界框架,以提升安全保障標準;並明白到想計劃恆之有效,就必須建立社群來加強框架成效。正因如此,我們很高興能成立為所有人而設的 SAIF 社群。

網絡安全技術發展

瞭解我們如何保障更多使用者的網絡安全。