Google 的安全 AI 架構 (SAIF)
AI (尤其是生成式 AI) 具有驚人潛能。創新的同時,業界也需要安全性標準,以負責任的方式打造及部署 AI。因此,我們推出了安全 AI 架構 (SAIF),希望透過這個概念架構加強 AI 系統的安全性。
SAIF 旨在解決安全性專家最重視的問題 (例如 AI/機器學習模型風險管理、安全性和隱私權),確保實作的 AI 模型安全無虞。
Google 致力打造涵蓋政府機關、企業和機構的 SAIF 生態系統,提倡一體適用的安全 AI 部署架構,並很高興在此分享我們初步採取的行動。
隆重推出 SAIF.Google:安全 AI 由此開始
SAIF.Google 是一個全新的資源中心,讓資安專家面對日新月異的 AI 安全領域也游刃有餘,當中介紹一系列 AI 安全風險及相關控管措施,包括「風險自我評估報告」,引導從業人員瞭解可能會造成危害的風險,以及如何在自家機構內採用安全 AI 架構。這些資源能幫助建構並部署安全的 AI 系統,而在 AI 快速演進的當今社會,這一步至關重要。
AI 安全聯盟:與業界夥伴共同提倡安全 AI 架構
我們持續推進這項工作,並透過成立「AI 安全聯盟」(CoSAI) 號召業界夥伴團結一心,合力解決推行安全 AI 系統時遇到的重大挑戰。聯盟的創始成員包括 Anthropic、Amazon、Cisco、Cohere、Chainguard、GenLab、Google、IBM、Intel、Microsoft、NVIDIA、OpenAI、PayPal 和 Wiz。
SAIF 和負責任的 AI 技術有何關聯?
Google 必須以負責任的方式打造 AI 技術,並讓其他企業也能加入我們的行列。我們在 2018 年發布 AI 開發原則,說明 Google 致力以安全且負責任的方式打造技術,並堅持以最高的科學標準打造 AI 技術。負責任的 AI 技術是我們的主要做法,涵蓋「公平性」、「可解釋性」、「安全性」和「隱私權」等諸多面向,是 Google 開發旗下 AI 技術產品時所秉持的原則。
我們希望打造全方位的標準化做法,將隱私與安全防護措施整合至採用機器學習技術的應用程式,因此設計出 SAIF。這個架構與負責任 AI 技術的「安全性」和「隱私權」方面相關。SAIF 可確保採用機器學習技術的應用程式是以負責任的方式開發而成,並將不斷演進的威脅形勢和使用者期望納入考量。
Google 如何實際應用 SAIF?
Google 長久以來一直提倡負責任的 AI 技術及促進網路安全發展,多年來也持續將安全性最佳做法應用於 AI 創新技術。我們根據自身經驗,以及我們制定及採用的最佳做法,設計了安全 AI 架構,反映出 Google 在打造採用機器學習和生成式 AI 技術的應用程式時,也致力導入永續且可擴充的回應式隱私與安全防護措施。我們會持續改進及擴充 SAIF 來因應新興威脅、瞬息萬變的大環境,以及 AI 領域的最新發展。
從業人員如何導入這個架構?
請參閱導入 SAIF 架構的快速指南:
-
步驟 1 - 瞭解用途
- 瞭解要透過 AI 解決的特定業務問題,以及訓練模型所需的資料,進而決定導入 SAIF 所需採用的政策、規範和控管功能。
-
步驟 2 - 籌組團隊
- 如同傳統系統,打造及部署 AI 系統需要跨領域人員的配合。
- AI 系統往往複雜又難以理解、包含大量移動式元件、仰賴許多資料和資源、可套用根據判斷結果產生的決定,並可能會產生令人反感、有害,或加深刻板印象或社會偏見的新內容。
- 請籌組適當的跨部門團隊,確保團隊從一開始就將安全性、隱私權、風險和法規遵循納入考量。
-
步驟 3 - 瞭解 AI 的基本概念以利確立基準
- 當團隊開始評估業務用途,以及各種不斷演進的複雜問題、風險和適用安全控管功能時,相關人員必須瞭解 AI 模型開發生命週期的基礎知識,以及各種模型方法的設計和邏輯,包括功能、好處及限制。
-
步驟 4 - 實踐上述 SAIF 六大核心元素
- 這些元素不必依時間順序實踐。
我可以在哪裡進一步瞭解 SAIF,以及將其應用於企業或實體的方式?
請密切留意相關消息!Google 會持續打造並分享安全 AI 架構的相關資源、指南和工具,以及其他開發 AI 應用程式的最佳做法。
Google 是最早闡明 Al 開發原則的公司之一,並針對負責任的 AI 技術制定了相關標準,做為我們開發安全產品的原則。我們提倡並打造了業界架構來提高安全性標準,並瞭解到必須建立專屬社群來推廣這些架構,才能確保長期下來獲得良好成效。因此,我們很期待為所有人打造 SAIF 社群。