믿을 수 있는 정보와 콘텐츠
Google은 정보 제공의 중요성과 이용자 및 사회 보호에 대한 가치 사이의 균형을 맞추기 위해 노력합니다. Google은 이러한 책임을 중요하게 생각합니다. Google의 목표는 이용자를 위험으로부터 보호하고, 믿을 수 있는 정보를 제공하며, 보다 안전한 인터넷 환경을 조성하기 위해 전문가 및 기관과의 파트너십을 통해 보다 믿을 수 있는 정보와 콘텐츠를 제공하는 것입니다.
Google은 유해한 불법 콘텐츠를 방지하는 데 그치지 않고 이를 감지하고 대응하는 고급 보호 기능을 통해 이용자와 사회를 안전하게 지킵니다.
예방
악용에 대한 예방
Google은 악성 콘텐츠로부터 사람들을 안전하게 보호하기 위해 AI 기반 보호 조치를 사용합니다. Gmail에서는 1분에 1천만 개에 가까운 스팸 이메일이 받은편지함에서 자동으로 차단되며, Google 검색의 자동 완성 기능에는 잠재적으로 유해한 검색어를 제안하지 않도록 방지하는 도구가 포함되어 있습니다. 자동 감지 기능은 YouTube에서 유해한 콘텐츠가 효율적이면서도 효과적으로 그리고 대규모로 삭제되도록 도와줍니다. 2023년 2분기에 YouTube에서 삭제된 정책 위반 동영상의 93%가 자동으로 감지된 동영상이었습니다. Google은 또한 생성형 AI가 유해한 콘텐츠를 만드는 데 사용될 위험을 최소화하기 위해 생성형 AI 도구에 안전 조치를 구현하고 있습니다.
Google의 각 제품에는 허용되는 콘텐츠 및 행동과 허용되지 않는 콘텐츠 및 행동을 명시하는 일련의 정책이 적용됩니다. Google의 정책은 새로운 위험에 대응하기 위해 지속적으로 개정되고 업데이트됩니다. AI와 관련한 작업을 진행할 때는 제품 개발 방향을 정하고 출시 전에 모든 AI 애플리케이션을 테스트 및 평가할 수 있도록 AI 원칙을 준수합니다.
감지
유해 콘텐츠 감지
악의적인 사용 수법이 진화함에 따라 Google 제품에 유입되는 유해 콘텐츠를 감지하기 위한 더 많은 노력이 요구됩니다. AI는 Google이 플랫폼 전반에서 악용 감지를 확대할 수 있도록 도와줍니다. AI 기반 분류기는 잠재적으로 유해한 콘텐츠가 삭제되거나 검토자에게 에스컬레이션될 수 있도록 빠르게 분류하는 데 도움이 됩니다. 2022년에는 자동화된 시정 조치를 통해 증오심 표현, 폭력, 유해한 건강 관련 주장이 담긴 5,120만여 개의 광고를 감지하여 차단할 수 있었습니다. 새롭고 혁신적인 AI인 대규모 언어 모델은 새로운 유형의 위험이 되는 유해 콘텐츠를 감지하고 평가하는 데 소요되는 시간을 대폭 감소하는 데 큰 도움이 될 것입니다.
Google은 잠재적으로 유해한 콘텐츠를 분류하는 외부 조직과도 협력합니다. Google과 YouTube는 문화적 전문성과 주제 전문성을 갖춘 전 세계 수백 개의 우선 신고자 조직에서 에스컬레이션한 콘텐츠를 검토합니다.
대응
적절한 대응
Google은 사람과 AI 기반 기술을 모두 사용하여 잠재적인 정책 위반을 평가하고 정책 위반으로 분류된 콘텐츠에 적절하게 대응합니다. 정책을 위반하는 콘텐츠가 발견되면 추가적인 악용을 막기 위해 콘텐츠를 제한, 삭제하거나, 수익 창출을 중지하거나, 혹은 계정 수준의 조치를 취할 수 있습니다.
2022년에는 Google 지도에서 3억 개가 넘는 가짜 콘텐츠가 차단 또는 삭제되었고, 1억 1,500만 건의 정책 위반 검토가 이루어졌으며, 가짜 비즈니스 프로필을 생성하려는 2,000만 건의 시도가 차단되었습니다. 2023년 2분기에는 YouTube에서 커뮤니티 가이드를 위반하는 1,400만여 개의 채널과 7백만여 개의 동영상이 삭제되었습니다.
문맥의 미묘한 차이를 평가하여 과잉 삭제 위험을 줄이기 위해 2만 명에 달하는 전문 검토자들이 Google 제품 및 서비스 전반에서 정책을 시행하고, 콘텐츠를 관리하며, 정책 위반으로 분류된 콘텐츠를 평가하는 등 다양한 역할을 수행합니다.
크리에이터 또는 게시자는 Google의 조치가 부당하다고 생각하는 경우, 이의신청을 진행할 수 있습니다.
Google은 이용자가 콘텐츠를 스스로 평가할 수 있도록 업계 최고의 도구와 믿을 수 있는 정보를 제공함으로써 Google 플랫폼상의 정보와 콘텐츠에 대한 신뢰를 높입니다.
Google이 정보를 구성하는 방식
지능형 알고리즘
지속적으로 업데이트되는 Google 알고리즘은 Google 지도 등의 제품부터 검색 결과에 이르기까지 Google의 모든 활동의 중심에 자리 잡고 있습니다. 알고리즘은 이용자가 가장 관련성 있고 유용한 결과를 찾을 수 있도록 키워드, 웹사이트, 콘텐츠 신선도와 같은 신호와 대규모 언어 모델을 사용합니다. 예를 들어, YouTube에서는 사람들이 시의적절하고 정확하며 유용한 뉴스와 정보를 찾을 수 있도록 검색 결과, 추천, 정보 패널에 권위 있는 출처의 고품질 콘텐츠를 눈에 띄게 표시합니다.
Google은 알고리즘과 생성형 AI 도구를 통해 이용자가 온라인에서 접하는 콘텐츠를 이해하고 평가하여 더 많은 맥락과 배경을 파악할 수 있도록 다양한 기능을 선보였습니다.
-
내 광고 센터
내 광고 센터를 통해 좋아하는 브랜드는 더 많이, 마음에 들지 않는 브랜드는 더 적게 표시되도록 손쉽게 광고 경험을 관리할 수 있습니다.
-
Google 검색 및 뉴스에서의 팩트체크
Google은 매일 6백만 회의 독립적인 팩트체크를 진행합니다. 이용자는 Google의 고급 이미지 및 결과 팩트체크 도구를 통해 온라인상의 잘못된 정보를 더 잘 발견할 수 있습니다.
-
검색결과에 관한 정보
'검색결과에 관한 정보(About this result)'는 웹사이트에 대한 설명, 웹사이트의 색인이 처음 생성된 시점, 웹사이트의 소스와 주제에 관한 다른 사람들의 의견과 같은 세부정보를 제공하여 이용자가 웹사이트를 방문하기에 앞서 웹사이트에 대해 더 잘 알아볼 수 있도록 도와줍니다.
-
SynthID 워터마킹
SynthID는 AI 생성 이미지 식별 및 워터마킹에 사용하는 도구입니다. 온라인상에 만연한 잘못된 정보에 대응하기 위한 도구로, 초기 단계의 유망한 기술적 솔루션입니다.
-
About this image
'About this image'는 Google에서 이 이미지가 처음으로 노출된 시점, 다른 소스에서 이 이미지를 사용하고 설명하는 방식과 같은 정보를 제공하여 이용자가 온라인에서 보는 이미지의 신뢰성과 관련 정보를 평가할 수 있도록 도와줍니다.
YouTube는 커뮤니티 구성원인 시청자, 크리에이터, 광고주의 신뢰를 받는 책임감 있는 플랫폼을 구축하기 위해 최선을 다하고 있습니다. YouTube의 접근 방식에 대해 자세히 알아보세요.
-
삭제(Remove)
사람과 기술의 힘을 모두 동원해 정책을 위반하는 콘텐츠를 삭제합니다.
-
우선 노출(Raise)
뉴스와 정보에 대해 공신력 있는 출처를 우선 노출하고 시청자에게 맥락에 관한 정보를 제공합니다.
-
방지(Reduce)
정책 위반 가능성이 있는 콘텐츠 및 이용자에게 피해를 줄 수 있는 잘못된 정보의 확산을 줄임으로써 콘텐츠를 책임감 있게 관리합니다.
-
보상(Reward)
신뢰할 수 있는 크리에이터에게는 YouTube 파트너 프로그램(YPP)을 통해 광고 수익과 기타 여러 수익원의 형태로 보상을 제공합니다. 2022년 6월 기준 직전 3년간 YPP를 통해 크리에이터, 아티스트, 미디어 회사에 지급된 수익금은 500억 달러가 넘습니다.
Google은 적극적으로 여러 전문가 및 기관과 협업하고, 정보를 제공하며, 리소스와 기술을 공유합니다.
지식 공유
이용자 안전을 위한 지식 공유
Google은 사회, 학계, 정부의 전문가들과 협력하여 잘못된 정보, 광고 안전, 선거 공정성, 콘텐츠 검토에 사용되는 AI, 온라인 아동 학대 방지와 같은 전 세계적인 문제에 대응합니다. 또한 이 분야의 발전을 촉진하기 위해 연구 결과를 공개하고 학계에 데이터 세트를 제공합니다.
YouTube는 정기적으로 독립 단체인 아동 및 가족을 위한 자문 위원회에 제품 및 정책 업데이트를 검토받습니다. 검토 대상에는 아동 및 청소년 원칙과 청소년 정신 건강 및 웰빙을 위한 일련의 제품 업데이트가 포함됩니다.
신호 공유
전문가들과의 협력을 통한 불법 콘텐츠 대응
Google은 생태계 전반에서 악성 콘텐츠가 삭제될 수 있도록 파트너들과 협력하여 뚜렷한 악성 콘텐츠 신호를 찾아내고 공유합니다. 매년 미국 국립 실종학대아동방지센터에 수백만 건의 아동 성적 학대 콘텐츠 해시를 공유합니다. Google은 테크 기업들이 안전하고 책임감 있는 방식으로 신호를 공유하도록 지원하는 프로그램인 Project Lantern에도 참여하고 있습니다. 이에 더해 YouTube는 테크 기업, 정부, 사회 및 학계가 힘을 모아 온라인상의 테러 활동과 폭력적인 극단주의 활동에 맞서는 '테러 방지를 위한 글로벌 인터넷 포럼(GIFCT)을 공동 창립했습니다.
리소스 공유
안전 증진 조직에 대한 지원
Google은 Be Internet Awesome, YouTube의 '잠시만요' 캠페인, Google News Lab 등 교육 및 자료를 제공하는 효과적인 프로그램을 통해 온라인 안전 및 미디어 리터러시를 증진하는 세계 각지의 조직을 지원합니다. Google과 YouTube는 135개의 팩트체크 조직으로 이루어진 네트워크를 지원하기 위해 국제팩트체킹네트워크(IFCN)에 1,320만 달러의 지원금을 수여한다고 발표했습니다. 이러한 협업을 통해 55만 명이 넘는 저널리스트들이 디지털 인증 역량을 습득했으며, 온라인에서 추가로 260만 명의 저널리스트들이 교육을 받았습니다.
다른 조직이 유해한 콘텐츠로부터 자체 플랫폼과 사용자를 보호할 수 있도록 Google의 애플리케이션 프로그래밍 인터페이스(API)를 공유합니다.
-
아동 안전 도구 모음
Google은 Adobe, Reddit과 같은 파트너에게 Content Safety API, CSAI Match 등의 Google 도구에 대한 액세스를 제공합니다. 이를 통해 파트너들은 아동 성적 학대 콘텐츠(CSAM)가 우선적으로 검토자의 검토를 받도록 설정할 수 있습니다. 이러한 도구의 도움을 받아 파트너들은 온라인 아동 성적 학대에 더 효과적으로 대응하며 매월 40억 개 이상의 콘텐츠를 처리하고 있습니다.
-
Safebrowsing API
Safebrowsing API는 클라이언트 애플리케이션이 지속적으로 업데이트되는 안전하지 않은 웹 리소스 목록을 사용하여 URL을 확인할 수 있도록 지원합니다. 이 도구는 이용자에게 멀웨어나 원치 않는 소프트웨어를 호스팅하는 사이트를 경고함으로써 매일 50억 대의 기기를 보호합니다.
-
Information Quality API
Google의 Information Quality API는 게시자와 플랫폼이 해롭고 유해한 콘텐츠에 맞설 수 있도록 도와줍니다. Perspective API는 하루에 20억 개의 댓글을 처리하여 매일 850개가 넘는 파트너들이 해로운 댓글을 제한하도록 지원합니다. The New York Times, Reddit, Wall Street Journal과 같은 조직이 자사 사이트의 악성 댓글을 관리하기 위해 Perspective API를 사용하고 있습니다.
-
Vision API
Vision API는 개발자가 이미지 라벨 지정, 광학 문자 인식(OCR), 선정적인 콘텐츠 태그와 같은 기능을 애플리케이션에 통합하여 유해한 콘텐츠를 식별하고 삭제할 수 있도록 도와줍니다. Vision API는 소량의 학습 데이터만으로 이미지의 80%를 성공적으로 분류합니다.
GSEC 더블린
콘텐츠 책임 준수를 위한 더블린에서의 노력
책임감 있는 콘텐츠를 위한 더블린의 Google 안전 공학 센터는 유해한 불법 콘텐츠의 확산을 막기 위해 노력하는 Google 전문가를 위한 지역 허브이자 Google이 이러한 노력의 결과를 정책 입안자, 연구원, 규제 기관과 공유하는 장소입니다. Google 안전 공학 센터 네트워크는 Google의 연구팀에 온라인 안전을 증진하는 차세대 솔루션을 개발할 수 있는 공간과 아이디어, 지원을 제공합니다.
지금은 믿을 수 있는 정보와 콘텐츠를 제공하기 위한 Google의 노력이 그 어느 때보다 중요한 때입니다. 점점 더 까다로워지는 콘텐츠 검토 작업을 효과적으로 진행하기 위해, Google은 이용자가 안심하고 사용할 수 있고 모두에게 더 안전한 온라인 환경을 조성하기 위해 정책, 제품, 프로세스를 개발하고 개선하는 데 지속적으로 투자할 것입니다.
안전하게 지키는 방법에 대해 알아보세요