跳​至​內容

藍色盾牌中有白色的「G」字圖示。

Google​ ​安全​ AI 框​架 (SAIF)

AI ​潛力​驚人,​當中生​成式​ A​I ​更​加蘊​藏​無限​可能。​科技日​新月​異,​我們​需要​為業界​制定​安全​標準,​以​負責任​方式​研發​和​部署​ AI ​技術。​因此​我們​推出​「安全​ AI 框​架 ​(SAIF)」,​務求​透過​這​個​概念​框​架​保障​ AI ​系統​安全。

SAIF​六​大​核心​元素

SAI​F 專為​解決​安全​專家​最​重視​的​問題​而​設計,​例如​ AI/機器​學習​模型​風險​管理、​安全​及​私隱​保障​等,​以​確保​在​應用​ A​I ​模型​時,​一切​以​安全​為​本。
  • 為​ AI 生態​系統​奠下​穩建​的​安全​基礎

  • 擴大​偵測​和​應​變範圍,​協助​機構​應​對​ A​I ​相關​威脅

  • 透過​自動​防禦​機制​應​對​現有​和​新興威脅

  • 統一平​台控制​措施,​保障​整​個​機構​安全

  • 調整​控制​項​來​改善​防護​措施,​並​加快​ A​I 部​署​過程​中​的​反饋​循​環

  • 釐清 AI ​系統​對​業務​流程​的​風險

締造​更​安全​的​生態​系統

我們​致力​締造​涵蓋​政府、​企業​和​機構​的​ SAIF​ 生態​系統,​開發​適用​於​每​個​人​的​安全​ AI 部​署​框架。​我們​很​高興​與​大家​分享​這​項​計劃​的​初步​成果。
圖片顯示粉紅色網格將提示傳送至螢幕。

隆​重介​紹 SAI​F.Google:​保障​ AI ​安全​的​第一​步

資源​中心 SAI​F.Google 旨​在​協助​安全​專業​人員​應​付變化​多端​的​ A​I ​安全​形勢,​透過​提供​一系列 A​I ​安全​風險​和​控制​項,​包括​「自行​評估​風險​報告」,​引導​從業員​瞭解​可能​面對​的​風險,​以及​如何​在​其​機構​內​執行​安全​ AI 框​架 ​(SAIF)。​面對​瞬息萬變​的​ A​I ​世界,​我們​急​需​建立​和​部署​安全​的​ A​I ​系統,​而​這些​資源​將​有助​解決​有關​需要。
星座圖案,中間有藍色盾牌,上面有白色 Google「G」字,周圍有建築物、鎖頭、個人檔案、地球和文件圖示。

將​ SAI​F ​引入​政府​和​機構

我們​與​政府​和​機構​攜手​合作,​協助​緩減 A​I ​的​安全​風險;​並​與​決策者​和 NIST 等​標準組織​合作,​成功​發展​更​成熟​的​規管​框架。​我們​最近​亦​指出 SAI​F 如何​有助​保障​ AI ​系統​安全,​以​配合​白宮​的AI ​承諾。
內有科技公司標誌的圓圈。

Coalition for Secure AI:​與​業界​盟​友​攜手​擴充 ​SAI​F

我們​正​致力​提升​這​方面​的​工作,​並​鼓勵業界​支持,​例如​與​ A​nthropic、​Cis​co、​GenLab、​IBM、​Intel、​Nvidia ​和​ PayPal ​等​創始​成員組​成Coalition for Secure AI ​(CoSAI)」,​以​應​付​執行​安全​ AI ​系統​方面​的​重大​挑戰。

其他​資源

常見​問題
​關​於​ SAI​F

Google ​如何​實踐 SAI​F?

Google​ 長​久​以來​一直​提倡​以​負責任​方式​開發 ​AI,​同時​促進網​絡​安全​發展​;多​年​來​我們​亦​致力​研究​如何​將​安全​保障​的​最佳​做法​應​用​至​ A​I ​創新​技術。​我們​根據​過去​豐富​經驗,​並​借鑒​已​制定​和​應用​的​最佳​做法,​開發出​「安全​ AI ​框架」,​以​體現​ ​Google ​在​開發​採用​機器​學習​和​生​成式​ A​I ​的​應用​程式​時,​亦​不忘​加入​可靈活​應​對​不同​威脅,​而且​可​持續​和​可​擴充​的​安全​和​私隱​保障​功能。​我們​會​繼續​改進​和​開發 ​SA​IF,​以​應​對​各​類​新​威脅、​瞬息萬變​的​環境​和​ AI ​技術​發展。

業界​人士​可​如何​應用​這​個​框架?

請​參閱​我們​的 快速​指南 ,​瞭解​如何​應用 SAI​F ​框架:

  • 第 ​1​ 步 ​-​ 認識​框​架用​途
    • 認識​ A​I ​可​解決​哪些​特定​業務​問題,​以及​訓練​模型​所​需​的​資料,​從而​瞭解​應​用 SAI​F ​需​採用​哪些​政策、​通訊​協定​和​控制​措施。
  • 第 ​2​ 步 ​-​ 組織團隊
    • 就​如​傳統​系統​一樣,​開發​和​部署​ AI ​系統​需要​跨​領域​團隊​合作。
    • AI ​系統​往​往複雜​難明、​需​使用​大量​移動​組件、​依賴龐大​的​資料量、​耗用​大量​資源、​可用​來​判斷​對​錯好壞,​並​能​生成​新穎但​可能​令​人​反感、​有害,​或​者會​加深​成見​或​社會​偏見​的​內容。
    • 籌組跨​部​門團隊​時,​必須​以​安全、​私隱、​風險​和​合規​情況​作​為​優先​考慮。
  • 第 ​3​ 步 ​-​ 確立​使用​範圍​前​先​瞭解 AI ​基本​知識

    • 團隊​在​評估​ ​A​I ​的​業務​用途、​瞬息萬變​的​各​類​複雜​問題、​相關​風險​及​適用​的​安全​措施​時,​所有​相關​人員​必須​瞭解 AI 模型​開​發生​命​週期​的​基本​知識 ,​以及​各​種​模型​研究​方法​的​設計​概念​和​邏輯,​包括​功能、​好處​和​限制。
  • 第 ​4​ 步 ​-​ 實踐 SAI​F ​六​大​核心​元素

    • 這些​元素​不​必​依​時間​順序​實踐。

我​可​到​哪​裡​瞭解​有關​ SAI​F ​的​詳情,​以及​如何​在​我​的​企業​或實體​中​應​用?

請​密切​留意​最​新​消息!Google ​將​繼續​制定​和​分享​有關​「安全​ AI ​框架」​的​資源、​指南​和​工具,​以及​其他​有關​ AI ​應​用​程式​開發​的​最佳​做法。

我們​為​所有​人​建立​安全​ AI ​社群​的​宗旨

身為​最早​闡明Al ​原則的​企業​之一,​我們​就負責任​ Al技術​制定​相關​標準,​作為​日​後​開發​產品​的​安全​原則。​我們​致力​倡議​並​制定業界​框架,​以​提升​安全​保障​標準;​並​明白​到​想​計劃恆​之​有效,​就​必須​建立​社群來​加強​框​架​成效。​正因​如此,​我們​很​高興​能​成立​為​所有​人​而​設​的​ SAI​F ​社群。