Google의 보안 AI 프레임워크
(SAIF: Secure AI Framework)
AI, 특히 생성형 AI의 잠재력은 엄청납니다. 날로 혁신이 이루어지는 오늘날, 우리에게는 AI를 책임감 있게 구축하고 배포하기 위한 보안 표준이 필요합니다. 이러한 이유로 Google은 보안 AI 시스템을 위한 개념적 프레임워크인 보안 AI 프레임워크(SAIF)를 도입했습니다.
보안 AI 프레임워크는 보안 전문가들의 주요 우려사항인 AI/ML 모델의 리스크 관리, 보안, 개인 정보 보호와 같은 문제들을 해결할 수 있도록 설계되어, AI 모델 실행 시 보안 기능이 기본적으로 작동되도록 지원합니다.
생태계 지원
Google이 우리 모두에게 효과적인 보안 AI 프레임워크를 발전시키기 위해 정부, 기업, 관련 기관 전반에 걸쳐 보안 AI 프레임워크 생태계 구축을 향한 여정의 첫걸음을 내딛었다는 소식을 전하게 되어 기쁩니다.
정부 및 관련 기관과 협력하는 보안 AI 프레임워크
Google은 AI 보안 위험을 완화하기 위해 정부 및 관련 기관과 협력합니다. 정책 결정자 및 표준 기관(예: NIST)과의 협력은 규제 프레임워크의 발전에 기여하고 있습니다. 최근에 Google은 미국 백악관에서 이루어진 AI 합의에 맞춰 AI 시스템의 보안과 관련해 보안 AI 프레임워크의 역할을 강조한 바 있습니다.
협력업체들을 통한 보안 AI 프레임워크 확장
Google은 파트너 및 고객을 상대로 보안 AI 프레임워크에 대한 업계의 지지를 촉구하고, 실무자를 대상으로 보안 AI 프레임워크 워크숍을 개최하며, AI 보안 권장사항을 게시하고 있습니다. Google은 Deloitte와의 파트너십을 통해 조직이 AI를 사용하여 보안 과제를 어떻게 해결할 수 있는지에 관한 백서를 발표했습니다.