Google의 안전한 AI 프레임워크
(SAIF)
AI, 특히 생성형 AI의 잠재력은 엄청납니다. 날로 혁신이 이루어지는 오늘날, AI를 책임감 있게 구축하고 배포하기 위한 보안 표준이 필요합니다. 이러한 이유로 Google은 안전한 AI 시스템을 위한 개념적 프레임워크인 안전한 AI 프레임워크(SAIF)를 도입했습니다.
안전한 AI 프레임워크의 6가지 핵심 요소
-
AI 생태계로 강력한 보안 기반 확장
-
감지 및 대응 범위를 확장하여 위협 대응 체계에 AI 활용
-
기존 위협과 새로운 위협에 대응할 수 있도록 방어 체계 자동화
-
플랫폼 수준 제어를 조정하여 조직 전반에서 보안 일관성 확보
-
적절한 제어 및 완화 조치 조정을 통해 AI 배포를 위한 더 빠른 피드백 루프 생성
-
비즈니스 프로세스 맥락에 맞추어 AI 시스템의 위험 이해
더 안전한 생태계 지원
추가 리소스
안전한 AI 프레임워크에 관해
자주 하는 질문
Google은 오랫동안 책임감 있는 AI 및 사이버 보안 개발을 주도해 왔으며, 수년간 보안 권장사항을 AI 혁신에 맞춰 조정해 왔습니다. Google의 안전한 AI 프레임워크는 그동안 Google이 쌓은 경험을 바탕으로 개발하고 구현한 권장사항에서 비롯된 것이며, 보안과 개인 정보 보호를 위한 지속 가능하고 확장 가능한 반응형 보호 기능을 갖춘 ML 및 생성형 AI 기반 앱 구축에 대한 Google의 접근방식을 반영하고 있습니다. Google은 앞으로도 AI 분야의 새로운 위험, 변화하는 환경, 발전사항에 맞추어 안전한 AI 프레임워크를 발전시키고 구축해 나갈 것입니다.
안전한 AI 프레임워크 구현에 관한 빠른 가이드 를 참고하세요.
- 1단계 - 용도 파악하기
- AI로 해결할 구체적인 비즈니스 문제는 물론 모델을 학습시키는 데 필요한 데이터를 파악하면 안전한 AI 프레임워크의 일환으로 구현해야 하는 정책, 프로토콜, 컨트롤을 추진할 수 있습니다.
- 2단계 - 팀 구성하기
- AI 시스템을 개발하고 배포하기 위해서는 기존 시스템과 마찬가지로 다방면의 노력이 필요합니다.
- AI 시스템은 종종 복잡하고 불투명할 뿐만 아니라 유동적인 부분도 많고, 대량의 데이터에 의존하며, 리소스도 많이 듭니다. 또한 이러한 시스템은 판단에 근거한 결정을 적용하는 데 사용되기도 하고, 불쾌감을 주거나 유해하거나 고정관념과 사회적 편견을 고착화할 수 있는 새로운 콘텐츠를 생성할 수도 있습니다.
- 처음부터 보안, 개인 정보 보호, 위험, 규정 준수가 고려되도록 여러 교차 기능 팀을 적절히 구성하세요.
-
3단계 - AI 입문서로 레벨 설정하기
- 팀에서 AI의 비즈니스 용도, 계속 발전하는 다양한 복잡성, 위험, 보안 제어를 평가하기 시작하면, 관련된 모든 당사자는 기능, 이점, 한계 등을 비롯해 AI 모델 개발 수명 주기의 기본사항 , 모델 방법론의 설계 및 논리를 이해해야 합니다.
-
4단계 - 안전한 AI 프레임워크의 6가지 핵심 요소 적용하기
- 이러한 요소가 시간 순서대로 적용되어야 하는 것은 아닙니다.
조금만 더 기다려 주세요. Google에서는 AI 애플리케이션 개발 관련 기타 권장사항과 더불어 안전한 AI 프레임워크 리소스, 가이드, 도구를 꾸준히 구축하고 공유할 예정입니다.