Google 的安全 AI 架構
(SAIF)

AI (尤其是生成式 AI) 具有驚人潛能。創新的同時,業界也需要安全性標準,以負責任的方式打造及部署 AI。因此,我們推出了安全 AI 架構 (SAIF),希望透過這個概念架構加強 AI 系統的安全性。

SAIF 的六大核心元素

SAIF 旨在解決安全性專家最重視的問題 (例如 AI/機器學習模型風險管理、安全性和隱私權),確保實作的 AI 模型安全無虞。

為 AI 生態系統奠定完善的安全性基礎
擴大偵測和應變機制的應用範圍,讓機構透過 AI 因應威脅
透過自動防禦機制因應現有或新興威脅
統合平台層級的控管功能,確保整個機構享有一致的安全防護
變更控制選項來調整因應措施,並為 AI 部署作業創造更快的回饋循環
在相關業務流程中思考 AI 系統風險
下載 PDF
促成更安全
的生態系統

Google 致力打造涵蓋政府機關、企業和機構的 SAIF 生態系統,提倡一體適用的安全 AI 部署架構,並很高興在此分享我們初步採取的行動。

將 SAIF 推廣至政府機關和機構

Google 與政府機關和機構合作,協助降低 AI 的安全風險。我們與政策制定者和 NIST 等標準機構的合作成果促成了法規架構的演進。此外,我們最近指出 SAIF 有助於確保 AI 系統安全無虞,這與白宮的 AI 承諾一致。

與業界夥伴共同提倡 SAIF

我們與合作夥伴和客戶合作,以期讓業界支持 SAIF,同時邀請從業人員參與 SAIF 研討會,以及發布 AI 安全最佳做法。此外,我們與 Deloitte 共同發布了一份白皮書,說明機構如何使用 AI 解決安全性挑戰。

其他資源
SAIF 常見問題
我們為何支持替所有人建立安全 AI 社群

Google 是最早闡明 Al 開發原則的公司之一,並針對負責任的 AI 技術制定了相關標準,做為我們開發安全產品的原則。我們提倡並打造了業界架構來提高安全性標準,並瞭解到必須建立專屬社群來推廣這些架構,才能確保長期下來獲得良好成效。因此,我們很期待為所有人打造 SAIF 社群。

安全 AI 架構