Google의 보안 AI 프레임워크 (SAIF: Secure AI Framework)
AI, 특히 생성형 AI의 잠재력은 엄청납니다. 날로 혁신이 이루어지는 오늘날, 우리에게는 AI를 책임감 있게 구축하고 배포하기 위한 보안 표준이 필요합니다. 이러한 이유로 Google은 보안 AI 시스템을 위한 개념적 프레임워크인 보안 AI 프레임워크(SAIF)를 도입했습니다.
보안 AI 프레임워크는 보안 전문가들의 주요 우려사항인 AI/ML 모델의 리스크 관리, 보안, 개인 정보 보호와 같은 문제들을 해결할 수 있도록 설계되어, AI 모델 실행 시 보안 기능이 기본적으로 작동되도록 지원합니다.
Google이 우리 모두에게 효과적인 보안 AI 프레임워크를 발전시키기 위해 정부, 기업, 관련 기관 전반에 걸쳐 보안 AI 프레임워크 생태계 구축을 향한 여정의 첫걸음을 내딛었다는 소식을 전하게 되어 기쁩니다.
정부 및 관련 기관과 협력하는 보안 AI 프레임워크
Google은 AI 보안 위험을 완화하기 위해 정부 및 관련 기관과 협력합니다. 정책 결정자 및 표준 기관(예: NIST)과의 협력은 규제 프레임워크의 발전에 기여하고 있습니다. 최근에 Google은 미국 백악관에서 이루어진 AI 합의에 맞춰 AI 시스템의 보안과 관련해 보안 AI 프레임워크의 역할을 강조한 바 있습니다.
협력업체들을 통한 보안 AI 프레임워크 확장
Google은 파트너 및 고객을 상대로 보안 AI 프레임워크에 대한 업계의 지지를 촉구하고, 실무자를 대상으로 보안 AI 프레임워크 워크숍을 개최하며, AI 보안 권장사항을 게시하고 있습니다. Google은 Deloitte와의 파트너십을 통해 조직이 AI를 사용하여 보안 과제를 어떻게 해결할 수 있는지에 관한 백서를 발표했습니다.
보안 AI 프레임워크와 책임감 있는 AI는 어떻게 관련되어 있나요?
Google에는 AI를 책임감 있게 구축하고 다른 이들도 동일한 관행을 적용하도록 독려할 의무가 있습니다. 2018년 게시된 Google의 AI 원칙에서는 안전을 고려해 구축하고, 책임성을 지원하며, 가장 높은 수준의 과학적 우수성을 유지하는 방식으로 책임감 있게 기술을 개발하기 위한 Google의 약속에 대해 설명하고 있습니다. 책임감 있는 AI는 Google의 중요한 접근방식으로 '공정성', '해석 가능성', '보안', '개인 정보 보호'와 같이 모든 Google AI 제품 개발을 이끄는 다양한 관점으로 이루어져 있습니다.
보안 AI 프레임워크는 ML 기반 애플리케이션에 보안 및 개인 정보 보호 조치를 통합하는 표준화되고 종합적인 접근방식을 만들기 위한 Google의 프레임워크입니다. 이는 책임감 있는 AI 구축의 '보안'과 '개인 정보 보호'라는 관점에 부합합니다. 보안 AI 프레임워크는 ML 기반 애플리케이션이 변화하는 위협 환경과 이용자 기대를 고려하여 책임감 있는 방식으로 개발되도록 지원합니다.
Google은 보안 AI 프레임워크를 어떻게 실행하고 있나요?
Google은 오랫동안 책임감 있는 AI 및 사이버 보안 개발을 주도해 왔으며, 수년간 보안 권장사항을 새로운 AI 혁신에 맞춰 조정해 왔습니다. Google의 안전한 AI 프레임워크는 그동안 Google이 쌓은 경험을 바탕으로 개발하고 구현한 권장사항에서 비롯된 것이며, 보안과 개인 정보 보호를 위한 지속 가능하고 확장 가능한 반응형 보호 기능을 갖춘 ML 및 생성형 AI 기반 앱 구축에 대한 Google의 접근방식을 반영하고 있습니다. Google은 앞으로도 AI 분야의 새로운 위험, 변화하는 환경, 발전사항에 맞추어 보안 AI 프레임워크를 발전시키고 구축해 나갈 것입니다.
실무자는 프레임워크를 어떻게 구현할 수 있나요?
보안 AI 프레임워크 구현에 관한 빠른 가이드를 참고하세요.
-
1단계 - 용도 파악하기
- AI로 해결할 구체적인 비즈니스 문제는 물론 모델을 학습시키는 데 필요한 데이터를 파악하면 보안 AI 프레임워크의 일환으로 구현해야 하는 정책, 프로토콜, 컨트롤을 추진할 수 있습니다.
-
2단계 - 팀 구성하기
- AI 시스템을 개발하고 배포하기 위해서는 기존 시스템과 마찬가지로 다방면의 노력이 필요합니다.
- AI 시스템은 종종 복잡하고 불투명할 뿐만 아니라 유동적인 부분도 많고, 대량의 데이터를 이용하며, 리소스도 많이 듭니다. 또한 이러한 시스템은 판단에 근거한 의사결정을 적용하는 데 사용되기도 하고, 공격적이거나 유해하거나 고정관념과 사회적 편견을 고착화할 수 있는 새로운 콘텐츠를 생성할 수도 있습니다.
- 처음부터 보안, 개인정보보호, 위험, 규정 준수가 고려되도록 여러 적절한 분야의 인재로 이루어진 팀을 구성하세요.
-
3단계 - AI 입문서로 레벨 설정하기
- 팀에서 비즈니스 용도, 계속 발전하는 다양한 복잡성, 위험, 보안 제어를 평가하기 시작하면, 관련 당사자들은 기능, 이점, 한계 등을 비롯해 AI 모델 개발 수명 주기의 기본사항, 모델 방법론의 설계 및 논리를 이해해야 합니다.
-
4단계 - 위에 명시된 보안 AI 프레임워크의 6가지 핵심 요소 적용하기
- 이러한 요소는 시간 순서대로 적용되도록 만들어진 것은 아닙니다.
보안 AI 프레임워크에 관한 자세한 내용과 내 사업체 또는 법인에 이를 적용하는 방법은 어디에서 찾을 수 있나요?
조금만 더 기다려 주세요. Google에서는 AI 애플리케이션 개발 관련 기타 권장사항과 더불어 안전한 AI 프레임워크 리소스, 가이드, 도구를 꾸준히 구축하고 공유할 예정입니다.