콘텐츠로 이동하기

흰색 G 아이콘이 그려진 파란색 방패입니다.

Google의 안전한 AI 프레임워크 (SAIF)

AI, 특히 생성형 AI의 잠재력은 엄청납니다. 날로 혁신이 이루어지는 오늘날, AI를 책임감 있게 구축하고 배포하기 위한 보안 표준이 필요합니다. 이러한 이유로 Google은 안전한 AI 시스템을 위한 개념적 프레임워크인 안전한 AI 프레임워크(SAIF)를 도입했습니다.

안전한 AI 프레임워크의 6가지 핵심 요소

안전한 AI 프레임워크는 보안 전문가들의 주요 우려사항인 AI/ML 모델의 위험 관리, 보안, 개인 정보 보호와 같은 문제들을 해결할 수 있도록 설계되어, AI 모델 실행 시 보안 기능이 기본적으로 작동되도록 지원합니다.
  • AI 생태계로 강력한 보안 기반 확장

  • 감지 및 대응 범위를 확장하여 위협 대응 체계에 AI 활용

  • 기존 위협과 새로운 위협에 대응할 수 있도록 방어 체계 자동화

  • 플랫폼 수준 제어를 조정하여 조직 전반에서 보안 일관성 확보

  • 적절한 제어 및 완화 조치 조정을 통해 AI 배포를 위한 더 빠른 피드백 루프 생성

  • 비즈니스 프로세스 맥락에 맞추어 AI 시스템의 위험 이해

더 안전한 생태계 지원

Google이 모두에게 효과적인 안전한 AI 배포 프레임워크를 발전시키기 위해 정부, 기업, 관련 기관 전반에 걸쳐 안전한 AI 프레임워크 생태계 구축을 향한 여정의 첫걸음을 내딛었다는 소식을 전하게 되어 기쁩니다.
분홍색 그리드가 화면에 프롬프트를 보내는 모습을 보여 주는 그래픽입니다.

SAIF.Google 소개: 안전한 AI의 시작

SAIF.Google은 보안 전문가들이 변화하는 AI 보안 환경을 헤쳐 나가는 데 도움이 되는 리소스 허브입니다. '위험 자가 진단 보고서'와 같이 실무자가 영향을 받을 수 있는 위험과 안전한 AI 프레임워크를 조직 내에 구현하는 방법을 이해하도록 안내하는 다양한 AI 보안 위험 및 제어 기능을 제공합니다. 이러한 리소스를 활용하면 빠르게 변화하는 AI 세상에서 안전한 AI 시스템을 구축하고 배포해야 한다는 중요한 요구사항에 대응할 수 있습니다.
가운데에 흰색 G가 있는 파란색 방패가 건물, 자물쇠, 프로필, 지구, 문서 아이콘으로 둘러싸인 별자리 그래픽입니다.

정부 및 관련 기관과 협력하는 안전한 AI 프레임워크

Google은 AI 보안 위험을 완화하기 위해 정부 및 관련 기관과 협력합니다. 정책 결정자 및 표준 기관(예: NIST)과의 협력은 규제 프레임워크의 발전에 기여하고 있습니다. 최근 Google은 미국 백악관에서 이루어진 AI 합의에 맞춰 AI 시스템의 보안과 관련해 안전한 AI 프레임워크의 역할을 강조한 바 있습니다.
원 안에 기술 회사 로고가 있습니다.

안전한 AI 연합: 협력업체를 통한 안전한 AI 프레임워크 확장

Google은 Anthropic, Cisco, GenLab, IBM, Intel, Nvidia, PayPal과 같은 창립 멤버와 함께 안전한 AI 연합(CoSAI)형성하여 안전한 AI 시스템 구현과 관련된 중요 과제를 해결하기 위한 작업을 진행해 나가고 업계의 지원을 촉진하고 있습니다.

추가 리소스

안전한 AI 프레임워크에 관해
자주 하는 질문

Google은 안전한 AI 프레임워크를 어떻게 실행하고 있나요?

Google은 오랫동안 책임감 있는 AI 및 사이버 보안 개발을 주도해 왔으며, 수년간 보안 권장사항을 AI 혁신에 맞춰 조정해 왔습니다. Google의 안전한 AI 프레임워크는 그동안 Google이 쌓은 경험을 바탕으로 개발하고 구현한 권장사항에서 비롯된 것이며, 보안과 개인 정보 보호를 위한 지속 가능하고 확장 가능한 반응형 보호 기능을 갖춘 ML 및 생성형 AI 기반 앱 구축에 대한 Google의 접근방식을 반영하고 있습니다. Google은 앞으로도 AI 분야의 새로운 위험, 변화하는 환경, 발전사항에 맞추어 안전한 AI 프레임워크를 발전시키고 구축해 나갈 것입니다.

실무자는 프레임워크를 어떻게 구현할 수 있나요?

안전한 AI 프레임워크 구현에 관한 빠른 가이드 를 참고하세요.

  • 1단계 - 용도 파악하기
    • AI로 해결할 구체적인 비즈니스 문제는 물론 모델을 학습시키는 데 필요한 데이터를 파악하면 안전한 AI 프레임워크의 일환으로 구현해야 하는 정책, 프로토콜, 컨트롤을 추진할 수 있습니다.
  • 2단계 - 팀 구성하기
    • AI 시스템을 개발하고 배포하기 위해서는 기존 시스템과 마찬가지로 다방면의 노력이 필요합니다.
    • AI 시스템은 종종 복잡하고 불투명할 뿐만 아니라 유동적인 부분도 많고, 대량의 데이터에 의존하며, 리소스도 많이 듭니다. 또한 이러한 시스템은 판단에 근거한 결정을 적용하는 데 사용되기도 하고, 불쾌감을 주거나 유해하거나 고정관념과 사회적 편견을 고착화할 수 있는 새로운 콘텐츠를 생성할 수도 있습니다.
    • 처음부터 보안, 개인 정보 보호, 위험, 규정 준수가 고려되도록 여러 교차 기능 팀을 적절히 구성하세요.
  • 3단계 - AI 입문서로 레벨 설정하기

    • 팀에서 AI의 비즈니스 용도, 계속 발전하는 다양한 복잡성, 위험, 보안 제어를 평가하기 시작하면, 관련된 모든 당사자는 기능, 이점, 한계 등을 비롯해 AI 모델 개발 수명 주기의 기본사항 , 모델 방법론의 설계 및 논리를 이해해야 합니다.
  • 4단계 - 안전한 AI 프레임워크의 6가지 핵심 요소 적용하기

    • 이러한 요소가 시간 순서대로 적용되어야 하는 것은 아닙니다.

안전한 AI 프레임워크에 관한 자세한 내용과 내 사업체 또는 법인에 이를 적용하는 방법은 어디에서 찾을 수 있나요?

조금만 더 기다려 주세요. Google에서는 AI 애플리케이션 개발 관련 기타 권장사항과 더불어 안전한 AI 프레임워크 리소스, 가이드, 도구를 꾸준히 구축하고 공유할 예정입니다.

Google이 모두를 위해 안전한 AI 커뮤니티를 지원하는 이유

AI 원칙을 명시한 최초의 기업 중 하나인 Google은 책임감 있는 AI의 기준을 세우고, 이를 안전을 위한 제품 개발의 지침으로 삼고 있습니다. Google은 보안 기준을 높이기 위해 업계 프레임워크를 지지하고 개발해 왔습니다. 아울러, 장기적으로 성공을 거두려면 커뮤니티를 구축하여 이러한 활동을 추진해야 한다는 사실을 배웠습니다. 그렇기 때문에 Google에서는 모두를 위한 안전한 AI 프레임워크 커뮤니티를 구축하게 되어 기쁩니다.